JP2018197974A - Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method - Google Patents
Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method Download PDFInfo
- Publication number
- JP2018197974A JP2018197974A JP2017102612A JP2017102612A JP2018197974A JP 2018197974 A JP2018197974 A JP 2018197974A JP 2017102612 A JP2017102612 A JP 2017102612A JP 2017102612 A JP2017102612 A JP 2017102612A JP 2018197974 A JP2018197974 A JP 2018197974A
- Authority
- JP
- Japan
- Prior art keywords
- line
- illumination light
- user
- sight direction
- light source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、例えば、人の眼を撮影して得られた画像に基づいて人の視線方向を検出する視線検出用コンピュータプログラム、視線検出装置及び視線検出方法に関する。 The present invention relates to a computer program for eye gaze detection, a gaze detection device, and a gaze detection method for detecting a gaze direction of a person based on, for example, an image obtained by photographing a human eye.
人の視線方向または人が注視している位置を追跡することで、その人が興味を有しているものに関する情報を得たり、あるいは、その注視している位置に関連する操作を自動的に実行することが検討されている。なお、以下では、便宜上、人が注視している位置を単に注視位置と呼ぶ。 By tracking a person's line of sight or the position where the person is gazing, you can get information about what the person is interested in, or automatically perform operations related to the position you are gazing at Is being considered to do. Hereinafter, for the sake of convenience, a position where a person is gazing is simply referred to as a gazing position.
人の注視位置、あるいは、視線方向は、その人の瞳孔の向きと密接に関連している。そこで、人の眼を撮影して得られた画像から瞳孔を検出し、その瞳孔と基準点との位置関係により、その人の視線方向または注視位置を特定する技術が知られている。なお、基準点としては、例えば、光源の角膜反射像(以下、プルキンエ像と呼ぶ)が用いられる。プルキンエ像の位置は、人の顔の向き及び瞳孔の向きによらず、ほぼ一定となるので、プルキンエ像を基準点として用いることで、比較的高精度で視線方向を検出することが可能となる。 A person's gaze position or line-of-sight direction is closely related to the direction of the person's pupil. Therefore, a technique is known in which a pupil is detected from an image obtained by photographing a human eye, and the gaze direction or gaze position of the person is specified based on the positional relationship between the pupil and a reference point. As the reference point, for example, a cornea reflection image of a light source (hereinafter referred to as a Purkinje image) is used. Since the position of the Purkinje image is almost constant regardless of the orientation of the human face and the orientation of the pupil, using the Purkinje image as a reference point makes it possible to detect the line-of-sight direction with relatively high accuracy. .
しかし、画像上にプルキンエ像が写るためには、人の眼を撮影するカメラから見て、光源からの光を反射する位置が角膜上に位置していることが要求される。そのため、画像上にプルキンエ像が写るためには、光源とカメラと眼の相対的な位置関係、及び、視線方向に関する制約がある。そこで、複数の光源のうち、点灯する光源を制御することで、視線方向の検出精度を向上する技術が提案されている(例えば、特許文献1〜3を参照)。 However, in order for the Purkinje image to appear on the image, it is required that the position where the light from the light source is reflected is located on the cornea as viewed from the camera that captures the human eye. Therefore, in order for the Purkinje image to appear on the image, there are restrictions on the relative positional relationship between the light source, the camera, and the eye, and the line-of-sight direction. Therefore, a technique for improving the detection accuracy of the line-of-sight direction by controlling a light source to be lit among a plurality of light sources has been proposed (see, for example, Patent Documents 1 to 3).
特許文献1〜3に開示された技術では、例えば、顔の向き、光源を順次点灯させたときの視線方向の検出精度の良否の評価、あるいは、瞳孔とプルキンエ像間の位置ずれに応じて、点灯する光源が制御される。 In the techniques disclosed in Patent Documents 1 to 3, for example, according to the evaluation of the quality of the detection accuracy of the gaze direction when sequentially turning on the face direction, the light source, or the positional deviation between the pupil and the Purkinje image, The light source to be lit is controlled.
しかし、顔の向きと視線方向とは、必ずしも一致しないので、顔の向きに基づいて点灯する光源を制御しても、プルキンエ像が観察可能な適切な光源が点灯されるとは限らない。また、光源を順次点灯させる場合、適切な光源が選択されるまでに要する時間が長くなり、その結果として、視線方向が検出可能となるまでに要する時間が長くなってしまう。そして光源が順次点灯している間に視線方向が移動してしまうと、移動前の視線方向に対して最適な光源が点灯され、現在の視線方向に対して適切な光源が点灯されるとは限らない。また、瞳孔とプルキンエ像間の位置ずれに応じて、点灯する光源が制御される場合も、視線方向が移動すると、移動前の視線方向に対して最適な光源が点灯され、現在の視線方向に対して適切な光源が点灯されるとは限らない。その結果として、上記の技術では、プルキンエ像が画像上に写らなくなり、視線方向の検出精度が不十分となることがある。 However, since the face direction and the line-of-sight direction do not necessarily match, controlling a light source that is turned on based on the face direction does not necessarily turn on an appropriate light source that allows the Purkinje image to be observed. In addition, when the light sources are sequentially turned on, the time required until an appropriate light source is selected is increased, and as a result, the time required until the gaze direction can be detected is increased. And if the line-of-sight direction moves while the light sources are turned on sequentially, the optimal light source is turned on for the line-of-sight direction before the movement, and the appropriate light source is turned on for the current line-of-sight direction Not exclusively. In addition, even when the light source to be turned on is controlled according to the positional deviation between the pupil and the Purkinje image, when the line-of-sight direction moves, the optimal light source is turned on with respect to the line-of-sight direction before the movement, and the current line-of-sight direction is On the other hand, an appropriate light source is not always turned on. As a result, with the above technique, the Purkinje image may not appear on the image, and the detection accuracy in the line-of-sight direction may be insufficient.
一つの側面では、本発明は、視線方向の検出精度を向上可能な視線検出用コンピュータプログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide a computer program for eye gaze detection that can improve the accuracy of gaze direction detection.
一つの実施形態によれば、視線検出用コンピュータプログラムが提供される。この視線検出用コンピュータプログラムは、撮像部がユーザの眼を撮影することで生成された画像から、眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯した照明光源の角膜反射像を検出し、瞳孔領域及び角膜反射像に基づいてユーザの視線方向を検出し、生成されたタイミングが異なる少なくとも2枚の画像のそれぞれから検出されたユーザの視線方向に基づいて、撮像部の次回撮影時におけるユーザの視線方向を予測し、複数の照明光源のそれぞれについて、その照明光源と撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、複数の照明光源のうち、予測されたユーザの視線方向が含まれる検出可能範囲に対応する照明光源の少なくとも一つを撮像部の次回撮影時に点灯させる、ことをコンピュータに実行させるための命令を含む。 According to one embodiment, a computer program for eye gaze detection is provided. The computer program for eye-gaze detection includes a pupil region in which an eye pupil is captured from an image generated by an imaging unit photographing a user's eye, and a cornea of a lighting illumination light source among a plurality of illumination light sources An image pickup unit that detects a reflection image, detects a user's line-of-sight direction based on the pupil region and the cornea reflection image, and based on the user's line-of-sight direction detected from each of at least two images generated at different timings Predicting the user's line-of-sight direction at the next shooting, and for each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit. And causing the computer to turn on at least one of the illumination light sources corresponding to the detectable range including the predicted user's line-of-sight direction at the next shooting of the imaging unit. Including instructions for causing a row.
視線方向の検出精度を向上できる。 The detection accuracy of the gaze direction can be improved.
以下、図を参照しつつ、視線検出装置について説明する。
この視線検出装置は、複数の照明光源のうちの何れかにて照明されたユーザの眼をカメラにより撮影して画像を生成し、その画像上で眼の瞳孔及びプルキンエ像を検出し、検出された瞳孔及びプルキンエ像に基づいて、ユーザの視線方向を検出する。この視線検出装置は、それまでに得られた画像から検出された視線方向に基づいて次回撮影時の視線方向を予測する。そしてこの視線検出装置は、予測された視線方向が視線方向を検出可能な視線方向の範囲、すなわち、プルキンエ像が観察可能な視線方向の範囲に含まれるように、複数の照明光源のなかから点灯させる照明光源を選択する。
Hereinafter, the line-of-sight detection device will be described with reference to the drawings.
This line-of-sight detection device generates an image by photographing a user's eye illuminated by any of a plurality of illumination light sources with a camera, and detects and detects an eye pupil and Purkinje image on the image. Based on the pupil and Purkinje image, the user's line-of-sight direction is detected. This line-of-sight detection device predicts the line-of-sight direction at the time of the next shooting based on the line-of-sight direction detected from the images obtained so far. The line-of-sight detection device is lit from a plurality of illumination light sources so that the predicted line-of-sight direction is included in the range of the line-of-sight direction in which the line-of-sight direction can be detected, that is, the range of the line-of-sight direction in which the Purkinje image can be observed. Select the illumination source to be activated.
なお、以下に説明する実施形態では、視線検出装置は、デジタルサイネージシステムに実装され、そして視線検出装置は、デジタルサイネージシステムのユーザである人の視線方向及び注視位置を追跡する。しかしこの視線検出装置は、視線方向を追跡し、その追跡結果を利用する様々な装置に利用可能である。 In the embodiment described below, the line-of-sight detection apparatus is mounted on a digital signage system, and the line-of-sight detection apparatus tracks the line-of-sight direction and gaze position of a person who is a user of the digital signage system. However, this line-of-sight detection device can be used in various devices that track the direction of the line of sight and use the tracking result.
図1は、視線検出装置の一実施形態であるデジタルサイネージシステムのハードウェア構成図である。デジタルサイネージシステム1は、表示装置2と、複数の照明光源3−1〜3−n(ただし、nは3以上の整数)と、赤外カメラ4と、入力装置5と、記憶媒体アクセス装置6と、メモリ7と、プロセッサ8とを有する。さらにデジタルサイネージシステム1は、デジタルサイネージシステム1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。
FIG. 1 is a hardware configuration diagram of a digital signage system which is an embodiment of a visual line detection device. The digital signage system 1 includes a display device 2, a plurality of illumination light sources 3-1 to 3-n (where n is an integer of 3 or more), an
表示装置2は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイを有する。そして表示装置2は、例えば、様々なテキスト、アイコン、静止画像または動画像をプロセッサ8からの映像信号に応じて表示する。
The display device 2 includes, for example, a liquid crystal display or an organic electroluminescence display. The display device 2 displays, for example, various texts, icons, still images, or moving images according to the video signal from the
複数の照明光源3−1〜3−nのそれぞれは、赤外光を発光する光源、例えば、少なくとも一つの赤外発光ダイオードと、プロセッサ8からの制御信号に応じて、赤外発光ダイオードに電源(図示せず)からの電力を供給する駆動回路(図示せず)とを有する。照明光源3−1〜3−nのそれぞれは、赤外カメラ4の撮影方向を照明可能なように、赤外カメラ4の撮影方向へ照明光源3−1〜3−nのそれぞれの発光面が向くように取り付けられている。そして照明光源3−1〜3−nのそれぞれは、プロセッサ8からその照明光源を点灯させる制御信号を受信してから、その照明光源を消灯させる制御信号を受信するまでの間、照明光を発する。
Each of the plurality of illumination light sources 3-1 to 3-n is a light source that emits infrared light, for example, at least one infrared light emitting diode and a power supply to the infrared light emitting diode according to a control signal from the
なお、本実施形態では、照明光源の数は、同時に点灯する照明光源の数(本実施形態では、2)よりも多ければよく、例えば、照明光源の数は、6個とすることができる(すなわち、n=6)。また、照明光源3−1〜3−nのそれぞれは、検出可能なユーザの視線方向の範囲が互いに異なるように、互いに異なる位置に配置される。なお、検出可能なユーザの視線方向の範囲を、以下では、単に検出可能範囲と呼ぶ。 In the present embodiment, the number of illumination light sources only needs to be larger than the number of illumination light sources that are simultaneously turned on (2 in the present embodiment). For example, the number of illumination light sources can be six ( That is, n = 6). In addition, each of the illumination light sources 3-1 to 3-n is arranged at a different position so that the range of the user's gaze direction that can be detected is different from each other. In addition, the range of the user's gaze direction that can be detected is hereinafter simply referred to as a detectable range.
赤外カメラ4は、撮像部の一例であり、ユーザの少なくとも一方の眼が写った画像を生成する。そのために、赤外カメラ4は、照明光源3−1〜3−nが発する赤外光に感度を持つ2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上に被写体の像を結像する撮像光学系を有する。赤外カメラ4は、虹彩による反射像及び照明光源3−1〜3−n以外の光源からの光のプルキンエ像が検出されることを抑制するために、イメージセンサと撮像光学系の間に、可視光カットフィルタをさらに有してもよい。また、撮像光学系は、単焦点の光学系でもよく、あるいは、可変焦点光学系であってもよい。赤外カメラ4は、視線検出処理の実行中、所定のフレームレートで撮影して画像を生成する。なお、赤外カメラ4は、この画像上でデジタルサイネージシステム1を利用するユーザの瞳に写った照明光源3−1〜3−nのプルキンエ像及び瞳孔が識別可能な解像度を有する。そして赤外カメラ4は、画像を生成する度に、その画像をプロセッサ8へ渡す。なお、以下の説明において、「画像」とは、特に説明が無い限り、赤外カメラ4により生成され、かつ、ユーザの眼が写った画像を表す。
The
また、本実施形態では、照明光源3−1〜3−n及び赤外カメラ4は、同一の筐体10に取り付けられる。なお、照明光源3−1〜3−nと赤外カメラ4とは、別個に設けられてもよい。
In the present embodiment, the illumination light sources 3-1 to 3-n and the
図2は、照明光源3−1〜3−n及び赤外カメラ4の配置の一例を示す図である。この例では、照明光源の数は6個であり、表示装置2の近傍に配置された商品棚11に、照明光源3−1〜3−6及び赤外カメラ4が取り付けられた筐体10が取り付けられている。そして照明光源3−1〜3−6及び赤外カメラ4が商品棚11上に載置された商品を見るユーザ200の顔へ向けられるように、筐体10は、商品棚11のユーザ200に対向する側の面に配置される。また、照明光源3−1〜3−6は、ユーザ200から見て左から順に、ユーザ200の両眼の並び方向に沿って、すなわち、水平方向に沿って、一列に並べて配置される。そして、赤外カメラ4は、照明光源3−3と照明光源3−4の間に、配置され、ユーザ200の少なくとも一方の眼を含む、ユーザ200の顔全体あるいは顔の一部を撮影する。
なお、照明光源3−1〜3−n及び赤外カメラ4の配置はこの例に限られず、例えば、照明光源3−1〜3−nは、垂直方向に対しても互いに異なる位置に配置されてもよい。さらに、照明光源3−1〜3−nの垂直方向の位置と赤外カメラ4の垂直方向の位置とは、互いに異なっていてもよい。
FIG. 2 is a diagram illustrating an example of the arrangement of the illumination light sources 3-1 to 3-n and the
The arrangement of the illumination light sources 3-1 to 3-n and the
入力装置5は、例えば、キーボードと、マウスのようなポインティングデバイスとを有する。そして入力装置5を介してユーザにより入力された操作信号は、プロセッサ8へ渡される。
The
なお、表示装置2と入力装置5とは、例えば、タッチパネルディスプレイのように一体化されていてもよい。この場合、入力装置5は、表示装置2の表示画面上に表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号をプロセッサ8へ出力する。
The display device 2 and the
記憶媒体アクセス装置6は、記憶部の一例であり、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体9にアクセスする装置である。記憶媒体アクセス装置6は、例えば、記憶媒体9に記憶された、プロセッサ8上で実行される、視線検出処理用のコンピュータプログラムを読み込み、プロセッサ8に渡す。
The storage
メモリ7は、記憶部の他の一例であり、例えば、読み書き可能な不揮発性の半導体メモリ、及び読み書き可能な揮発性の半導体メモリを有する。そしてメモリ7は、プロセッサ8上で実行される、視線検出処理用のコンピュータプログラム、各種のアプリケーションプログラム及び各種のデータを記憶する。
The memory 7 is another example of the storage unit, and includes, for example, a readable / writable nonvolatile semiconductor memory and a readable / writable volatile semiconductor memory. The memory 7 stores a computer program for line-of-sight detection processing, various application programs, and various data executed on the
さらに、メモリ7は、ユーザの視線方向及び注視位置を検出するために利用される各種のデータを記憶する。例えば、メモリ7は、照明光源3−1〜3−n及び赤外カメラ4の実空間での位置、赤外カメラ4の焦点距離などを記憶する。また、メモリ7は、点灯モデル及び視線方向の検出履歴を記憶してもよい。なお、点灯モデルの詳細については後述する。さらに、ユーザと赤外カメラ4間の距離が予め設定された距離となることが想定される場合には、メモリ7は、その予め設定された距離を記憶してもよい。
Further, the memory 7 stores various data used for detecting the user's line-of-sight direction and gaze position. For example, the memory 7 stores the positions of the illumination light sources 3-1 to 3-n and the
プロセッサ8は、制御部の一例であり、例えば、少なくとも一つのCentral Processing Unit(CPU)及びその周辺回路を有する。さらに、プロセッサ8は、数値演算プロセッサまたはGraphics Processing Unit(GPU)を有していてもよい。そしてプロセッサ8は、デジタルサイネージシステム1の各部と信号線を介して接続されており、デジタルサイネージシステム1全体を制御する。例えば、プロセッサ8は、入力装置5から受け取った操作信号と実行中のアプリケーションプログラムに応じて、所定の動画像などを表示装置2に表示させる。
The
さらに、プロセッサ8は、画像が得られる度に、視線検出処理を実行することにより、ユーザの視線方向及び注視位置を検出する。そしてプロセッサ8は、その検出結果に応じた処理を実行する。例えば、プロセッサ8は、メモリ7に記憶された商品の位置情報を参照して、検出された注視位置に最も近い商品を特定し、特定された商品に関する情報をメモリ7から読み出して表示装置2に表示させる。
Further, the
図3は、プロセッサ8の視線検出処理に関する機能ブロック図である。プロセッサ8は、視線検出部21と、注視位置推定部22と、予測部23と、光源制御部24とを有する。
プロセッサ8が有するこれらの各部は、プロセッサ8上で実行されるコンピュータプログラムにより実現される機能モジュールである。またプロセッサ8が有するこれらの各部は、その各部の機能を実現するプロセッサ8内の回路の一部として実装されてもよい。
FIG. 3 is a functional block diagram relating to the line-of-sight detection processing of the
Each of these units included in the
本実施形態では、プロセッサ8は、視線検出処理を開始するまで、赤外カメラ4から画像が得られる度に、その画像とメモリ7に記憶されている背景画像との間で背景差分処理を実行して、対応画素間の差分絶対値が所定値以上となる画素を抽出する。そしてプロセッサ8は、抽出された画素の数が所定数以上になると、視線検出処理を開始する。
なお、デジタルサイネージシステム1は、近接センサ(図示せず)を有していてもよい。そして近接センサが、赤外カメラ4の正面に位置する物体を検知すると、プロセッサ8は、視線検出処理を開始してもよい。
In this embodiment, the
The digital signage system 1 may have a proximity sensor (not shown). When the proximity sensor detects an object located in front of the
本実施形態では、視線検出処理が実行されている間、プロセッサ8は、照明光源3−1〜3−nのうちの二つを点灯させる。そしてプロセッサ8は、所定の周期、例えば、赤外カメラ4の撮影周期ごとに、予測された視線方向に基づいて、点灯させる照明光源を選択する。
In the present embodiment, the
視線検出部21は、視線検出処理の実行中において、画像が得られる度に、画像上でユーザの眼の瞳孔及び照明光源3−1〜3−nのうちの点灯している照明光源のプルキンエ像を検出する。そして視線検出部21は、瞳孔とプルキンエ像の位置関係に基づいて、ユーザの視線方向を検出する。なお、以下では、説明の便宜上、点灯している照明光源を、単に点灯光源と呼ぶことがある。
Each time an image is obtained during execution of the line-of-sight detection process, the line-of-
視線検出部21は、画像から、先ず、ユーザの左右の眼のそれぞれについて、その眼が写っている領域(以下、単に眼領域と呼ぶ)を検出する。そのために、視線検出部21は、例えば、画像から眼領域を検出するように予め学習された識別器を用いて眼領域を検出する。この場合、識別器として、例えば、アダブーストまたはリアルアダブースト、サポートベクトルマシン、あるいは、ディープニューラルネットワークが利用される。そして視線検出部21は、画像上にウインドウを設定し、そのウインドウの位置を変えながら、ウインドウ内の各画素の値またはそのウインドウから抽出した特徴量を識別器に入力することで、そのウインドウが眼領域か否かを判定する。また、特徴量として、例えば、Haar-like特徴量あるいはHistograms of Oriented Gradients特徴量が抽出される。
The line-of-
あるいは、視線検出部21は、眼を表すテンプレートと、画像とのテンプレートマッチングにより、テンプレートに最も一致する領域を検出し、その検出した領域を眼領域としてもよい。あるいはまた、視線検出部21は、画像上に写っている眼の領域を検出する他の様々な方法の何れかに従って眼領域を検出してもよい。
Alternatively, the line-of-
眼領域が検出されると、視線検出部21は、何れか一方の眼領域内で瞳孔及び点灯光源のプルキンエ像を検出する。
When the eye area is detected, the line-of-
例えば、視線検出部21は、瞳孔を検出するために、瞳孔に相当するテンプレートと眼領域との間でテンプレートマッチングを行い、眼領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして視線検出部21は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域を、瞳孔が写っている瞳孔領域と判定する。なお、ユーザの周囲の明るさに応じて瞳孔のサイズは変化する。また、瞳孔は略円形であるが、赤外カメラ4が瞳孔を斜めから見ている場合、画像上での瞳孔の形状は垂直方向に長い楕円形状となる。そこでテンプレートは、瞳孔の大きさまたは形状に応じて複数準備されてもよい。この場合、視線検出部21は、各テンプレートと眼領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、視線検出部21は、一致度の最高値に対応するテンプレートと重なった領域を瞳孔領域と判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
For example, the line-of-
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで視線検出部21は、眼領域内で、同心円状に半径の異なる2本のリングを持つ2重リングフィルタを設定する。そして視線検出部21は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。また視線検出部21は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Therefore, the line-of-
なお、視線検出部21は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。
Note that the line-of-
また、点灯光源のプルキンエ像が写っている領域の輝度は、その周囲の領域の輝度よりも高く、その輝度値は略飽和している(すなわち、輝度値が、画素値が取り得る輝度の値の略最高値となっている)。また、点灯光源のプルキンエ像が写っている領域の形状は、点灯光源の発光面の形状と略一致する。そこで視線検出部21は、点灯光源のプルキンエ像を検出するために、眼領域内で、点灯光源の発光面の輪郭形状と略一致する形状を持ち、かつ、大きさが異なるとともに中心が一致する2本のリングを設定する。そして視線検出部21は、内側のリングに相当する画素の輝度の平均値である内部輝度平均値から外側の画素の輝度の平均値を引いた差分値を求める。視線検出部21は、その差分値が所定の差分閾値よりも大きく、かつ内側輝度平均値が所定の輝度閾値よりも高い場合、その内側のリングで囲まれた領域を点灯光源のプルキンエ像とする。なお、差分閾値は、例えば、眼領域内の近傍画素間の差分値の平均値とすることができる。また所定の輝度閾値は、例えば、眼領域内での輝度値の最高値の80%とすることができる。
In addition, the luminance of the region where the Purkinje image of the lighting source is reflected is higher than the luminance of the surrounding region, and the luminance value is substantially saturated (that is, the luminance value is a luminance value that can be taken by the pixel value). It is almost the highest value of). In addition, the shape of the region where the Purkinje image of the lighting light source is reflected substantially matches the shape of the light emitting surface of the lighting light source. Therefore, the line-of-
なお、視線検出部21は、画像上で光源のプルキンエ像が写っている領域を検出する他の様々な方法の何れかを用いて、点灯光源のプルキンエ像が写っている領域を検出してもよい。
Note that the line-of-
視線検出部21は、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心(以下、単に瞳孔重心と呼ぶ)の位置座標として算出する。同様に、視線検出部21は、プルキンエ像が写っている領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、プルキンエ像の重心の位置座標として算出する。
The line-of-
本実施形態では、視線検出部21は、検出されたプルキンエ像が一つの場合と二つの場合とで、異なる方式に従ってユーザの視線方向を検出する。
In the present embodiment, the line-of-
検出されたプルキンエ像が一つの場合、視線検出部21は、二つの点灯光源のうち、画像上で検出されたプルキンエ像に対応する点灯光源を特定する。
When there is one detected Purkinje image, the line-of-
図4は、画像上で検出されるプルキンエ像が一つである場合の、点灯光源及び赤外カメラ4と、ユーザの視線方向との関係の一例を示す図である。この例では、赤外カメラ4の左側に位置する照明光源3−2と、赤外カメラ4の右側に位置する照明光源3−5とが点灯しているものとする。ユーザが赤外カメラ4の方を向いていれば、ユーザの角膜401は、赤外カメラ4と対向している。そのため、赤外カメラ4から見て、照明光源3−2及び3−5からの光を反射する位置は、ユーザの角膜401上に位置し、画像上に二つのプルキンエ像が写ると想定される。したがって、画像上でプルキンエ像が一つしか表れない場合には、例えば、図4において矢印402で示されるように、ユーザの視線が、赤外カメラ4から離れた位置を向いていると想定される。そして矢印403で示されるように、点灯している二つの照明光源のうち、ユーザの視線方向に近い方の照明光源(図4では、照明光源3−2)からの光が、角膜401で反射されて赤外カメラ4に達する。一方、矢印404で示されるように、ユーザの視線方向から遠い方の照明光源(図4では、照明光源3−5)からの光は、角膜401から外れた眼球の表面で反射されて赤外カメラ4に達するため、その照明光源のプルキンエ像は画像上に写らない。正確には、角膜以外の眼球の表面は白いため、角膜以外の眼球の表面で照明光源からの光が反射されると、画像上ではプルキンエ像とその周囲の輝度差が少なく、プルキンエ像を識別することが困難となる。
FIG. 4 is a diagram illustrating an example of the relationship between the lighting light source and the
そこで、視線検出部21は、何れか一方の眼について、眼頭と目尻に対する瞳孔の相対的な位置関係に基づいて、視線方向が赤外カメラ4よりも右側または左側の何れを見ているかを判定する。そして視線検出部21は、点灯している二つの照明光源のうち、視線方向に近い方の照明光源のプルキンエ像が画像上に表されていると判定する。
Therefore, the line-of-
例えば、視線検出部21は、検出された二つの眼領域のうちの一方に対して、例えば、harrisフィルタといったコーナー検出フィルタ処理を行って、眼領域中のコーナーを検出する。そして視線検出部21は、検出された二つのコーナーのうち、他方の眼領域に近い方のコーナーを眼頭とし、他方のコーナーを目尻とする。視線検出部21は、眼頭と目尻の中点を算出し、その中点と瞳孔の位置を比較することで、視線方向を判定する。例えば、二つの眼領域のうち、画像上で右側に位置する眼領域(すなわち、ユーザの左眼)について、瞳孔が眼頭と目尻の中点よりも眼頭側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも左側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも左側に位置する照明光源のものであると判定する。一方、瞳孔が眼頭と目尻の中点よりも目尻側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも右側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも右側に位置する照明光源のものであると判定する。
For example, the line-of-
また、二つの眼領域のうち、画像上で左側に位置する眼領域(すなわち、ユーザの右眼)について、瞳孔が眼頭と目尻の中点よりも眼頭側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも右側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも右側に位置する照明光源のものであると判定する。一方、瞳孔が眼頭と目尻の中点よりも目尻側に近ければ、視線検出部21は、視線方向が赤外カメラ4よりも左側を向いていると判定する。そして視線検出部21は、画像上のプルキンエ像は、赤外カメラ4よりも左側に位置する照明光源のものであると判定する。
Of the two eye regions, the eye region located on the left side of the image (that is, the user's right eye), if the pupil is closer to the occipital side than the midpoint of the eye and the corner of the eye, the line-of-
プルキンエ像に対応する点灯光源が特定されると、視線検出部21は、特定された点灯光源と赤外カメラ4との位置関係と、プルキンエ像と瞳孔重心との位置関係とに基づいて、ユーザの視線方向を検出する。
When the lighting light source corresponding to the Purkinje image is identified, the line-of-
角膜の表面は略球形であるため、視線方向によらず、点灯光源のプルキンエ像の位置はほぼ一定となる。一方、瞳孔重心は、視線方向に応じて移動する。そのため、視線検出部21は、プルキンエ像の重心を基準とする瞳孔重心の相対的な位置を求めることにより、視線方向を検出できる。
Since the surface of the cornea is substantially spherical, the position of the Purkinje image of the lighting light source is almost constant regardless of the line-of-sight direction. On the other hand, the center of the pupil moves according to the line-of-sight direction. Therefore, the line-of-
例えば、視線検出部21は、点灯光源のプルキンエ像の重心を基準とする瞳孔重心の相対的な位置を、例えば、瞳孔重心の水平方向座標及び垂直方向座標からプルキンエ像の重心の水平方向座標及び垂直方向座標を減算することにより求める。そして視線検出部21は、瞳孔重心の相対的な位置と視線方向との関係を表す参照テーブルを参照することにより、視線方向を決定する。
For example, the line-of-
赤外カメラ4と点灯光源の位置関係に応じて、プルキンエ像に対応する視線方向が異なるため、瞳孔重心の相対的な位置と視線方向との関係を表す参照テーブルは、照明光源3−1〜3−nのそれぞれごとに予め用意され、メモリ7に保存される。そこで視線検出部21は、特定された点灯光源に対応する参照テーブルをメモリ7から読み込んで、視線方向を検出するために利用すればよい。
Since the line-of-sight direction corresponding to the Purkinje image differs according to the positional relationship between the
また、画像上に、点灯している二つの照明光源のそれぞれのプルキンエ像が写っている場合、視線検出部21は、例えば、文献(大野健彦、「1点キャリブレーションによる視線計測とその応用」、情報処理学会 研究報告、2006年)に記載されている方法に従って、視線方向を検出してもよい。すなわち、視線検出部21は、二つのプルキンエ像間の間隔と、仮定される角膜曲率半径と、赤外カメラ4から角膜までの距離とに基づいて角膜の曲率中心の3次元位置を算出する。また、視線検出部21は、画像上の瞳孔重心の位置(すなわち、赤外カメラ4の光軸を基準とした、赤外カメラ4から瞳孔重心へ向かう方向を表す)と、赤外カメラ4から角膜までの距離とに基づいて、瞳孔重心の3次元位置を算出する。そして視線検出部21は、瞳孔重心の3次元位置から角膜の曲率中心の3次元位置を減じることで得られるベクトルを、ユーザの視線方向を表すベクトルとする。なお、赤外カメラ4から角膜までの距離は、例えば、赤外カメラ4の焦点距離、及び、人の平均的な両眼の中心間距離(64mm)に対応する画像上での距離に対する画像上での両眼の中心間距離の比に基づいて算出される。この場合、画像上での両眼の中心間距離は、例えば、左右それぞれの眼の目尻と眼頭間の中点間の距離として算出されればよい。あるいは、赤外カメラ4から角膜までの距離は、デジタルサイネージシステム1がステレオカメラあるいはデプスカメラといった距離センサ(図示せず)を有している場合、その距離センサによる測定値に基づいて求められてもよい。あるいはまた、ユーザの位置が予め想定される場合、赤外カメラ4から角膜までの距離は、メモリ7に予め記憶されていてもよい。
In addition, when the Purkinje images of the two illuminating light sources that are lit are shown on the image, the line-of-
なお、視線検出部21は、画像上に二つのプルキンエ像が写っている場合でも、何れか一方のプルキンエ像と瞳孔重心の位置関係に基づいてユーザの視線方向を検出してもよい。この場合には、視線検出部21は、一つのプルキンエ像が写っている場合と同様の方法により、ユーザの視線方向を検出できる。また、視線検出部21は、二つのプルキンエ像の並びに応じて、各プルキンエ像に対応する、点灯光源を特定できる。例えば、二つのプルキンエ像のうち、画像上で右側に位置するプルキンエ像に対応する点灯光源は、点灯中の二つの照明光源のうちの右側に位置する照明光源である。
Note that the line-of-
視線検出部21は、検出した視線方向を注視位置推定部22にわたす。
The line-of-
注視位置推定部22は、検出されたユーザの視線方向に基づいて、ユーザの注視位置を推定する。
本実施形態では、注視位置推定部22は、視線方向と注視位置との関係を表す注視位置テーブルを参照することにより、注視位置を推定する。なお、視線方向と注視位置との関係は、その注視位置(例えば、表示装置2の表示画面)と視線方向が検出されたユーザとの間の距離に応じて変化する。
The gaze
In the present embodiment, the gaze
そこで、注視位置テーブルは、赤外カメラ4とデジタルサイネージシステム1を利用するユーザとの間の想定される距離(例えば、1m、2mなど)に応じて、予め複数用意され、メモリ7に保存される。そして注視位置推定部22は、複数の注視位置テーブルのうち、赤外カメラ4から角膜までの距離に対応する注視位置テーブルを選択する。そして注視位置推定部22は、選択した注視位置テーブルを参照して、視線方向に対応する注視位置を求める。
Therefore, a plurality of gaze position tables are prepared in advance according to the assumed distance (for example, 1 m, 2 m, etc.) between the
図5は、注視位置テーブルの一例を示す図である。注視位置テーブル500の上端の行には、視線方向が表される。そして注視位置テーブル500の各欄には、同じ列の視線方向に対応する、注視位置の座標が所定の単位(例えば、表示装置2の表示画面の画素単位、あるいは、mm単位)で表される。例えば、注視位置テーブル500の欄501には、視線方向が水平方向0°、垂直方向1°の場合の注視位置が(cx,cy+40)であることが示されている。なお、cx、cyは、視線方向が(0,0)のときの注視位置、すなわち基準注視位置の座標、例えば、赤外カメラ4の取り付け位置における、鉛直平面上の水平座標及び垂直座標である。
FIG. 5 is a diagram illustrating an example of the gaze position table. The line of sight is displayed in the top row of the gaze position table 500. In each column of the gaze position table 500, the coordinates of the gaze position corresponding to the line-of-sight direction of the same column are expressed in a predetermined unit (for example, a pixel unit of the display screen of the display device 2 or a mm unit). . For example, the
なお、注視位置推定部22は、ユーザの実空間の位置(例えば、ユーザの両眼間の中点の実空間の位置)と、ユーザの観察対象となる物体(例えば、商品棚または表示装置2の表示画面)との相対的な位置関係と視線方向とに基づいて、注視位置を推定してもよい。
Note that the gaze
注視位置推定部22は、ユーザの視線方向及び注視位置が検出される度に、検出した視線方向及び注意位置を、メモリ7に保存されている検出履歴に書き込む。
The gaze
予測部23は、生成されたタイミングが異なる少なくとも2枚の画像のそれぞれから検出されたユーザの視線方向に基づいて、赤外カメラ4が次に撮影するときのユーザの視線方向を予測する。例えば、予測部23は、現フレームの画像、すなわち、最新の画像から検出されたユーザの視線方向及び1フレーム前の画像から検出されたユーザの視線方向に基づいて、赤外カメラ4が次に撮影するときのユーザの視線方向を予測する。なお、予測部23は、2回分の視線方向の検出結果が得られるまでは、視線方向を予測しなくてもよい。そして予測部23は、2回分の視線方向の検出結果が得られた後、様々な予測方法の何れかに従って視線方向を予測すればよい。例えば、予測部23は、得られた視線方向の検出結果が2以上の所定数に達するまでは、次式で表される線形予測方法に従って、視線方向を予測する。
また、得られた視線方向の検出結果が2以上の所定数に達すると、予測部23は、カルマンフィルタといった予測フィルタを用いて次フレームの画像取得時における視線方向の予測値Pt+1を算出してもよい。
Further, when the obtained detection result of the gaze direction reaches a predetermined number of 2 or more, the
その際、予測部23は、時系列で得られる、検出された複数の視線方向のそれぞれを変数とする多項式近似により、視線方向の予測値Pt+1を算出してもよい。そして予測部23は、その多項式を決定する際、次式に従って算出される残差Qが最小となるように、多項式を決定してもよい。
予測部23は、次フレームの撮影時における視線方向の予測値Pt+1を光源制御部24へわたす。
The
光源制御部24は、次フレームの撮影時における視線方向の予測値Pt+1に基づいて、複数の照明光源3−1〜3−nのうち、次フレームの画像取得時に点灯させる二つの照明光源を選択する。そして光源制御部24は、選択した二つの照明光源を点灯させ、かつ、複数の照明光源3−1〜3−nのうちの他の照明光源を消灯する制御信号を生成し、その制御信号を照明光源3−1〜3−nへ出力する。
Based on the predicted value P t + 1 of the line-of-sight direction at the time of shooting the next frame, the light
本実施形態では、光源制御部24は、視線方向ごとに、画像上でプルキンエ像が写る照明光源を示した点灯モデルを参照して、視線方向の予測値Pt+1が、視線方向の検出可能範囲に含まれる照明光源、すなわわち、画像上にプルキンエ像が写る照明光源を特定する。
In the present embodiment, the light
図6は、点灯モデルの一例を示す図である。点灯モデル600は、行ごとに、一つのモデルが示され、一つのモデルには、頭部の実空間位置(x, y, z)と、視線方向(θx,θy)と、点灯する照明光源の識別番号とが含まれる。なお、xは水平方向の座標を表し、yは垂直方向の座標を表し、zは、赤外カメラ4の光軸に沿った奥行き方向の座標を表す。またθxは、水平方向の角度を表し、θyは、垂直方向の角度を表す。なお、頭部の実空間位置は、例えば、ユーザの両眼間の中点とすることができる。
FIG. 6 is a diagram illustrating an example of a lighting model. The
例えば、光源制御部24は、点灯モデル600に表された各モデルのうち、視線方向の予測値Pt+1に最も近い視線方向が表されたモデルを特定する。光源制御部24は、特定したモデルのうちでユーザの頭部の位置に最も近い頭部の実空間位置が表されたモデルを参照して、視線方向の予測値Pt+1に対応する照明光源を特定すればよい。
For example, the light
図7及び図8は、点灯する照明光源を選択する処理の原理を説明する図である。図7及び図8において、検出可能範囲701は、検出可能なユーザの視線方向の範囲、すなわち、画像上で照明光源3−1のプルキンエ像が写る視線方向の範囲を表す。同様に、検出可能範囲702〜706は、それぞれ、画像上で照明光源3−2〜3−6のプルキンエ像が写る視線方向の範囲を表す。
7 and 8 are diagrams illustrating the principle of processing for selecting an illumination light source to be lit. 7 and 8, a
図7を参照して、視線方向の予測結果が利用可能となるまでにおける、点灯させる照明光源の制御について説明する。
視線検出処理が開始されると、最初に、光源制御部24は、視線方向の検出可能範囲が最も広くなり、かつ、赤外カメラ4へ向かう方向の近くにて視線方向が検出できない範囲が生じないように、照明光源3−2と3−5とを点灯させる。この場合において、矢印711で示される、ユーザの視線方向が、検出可能範囲701〜703のそれぞれが重なる部分へ向いているとする。光源制御部24は、点灯モデルを参照して、照明光源3−1〜3−6のうち、視線方向を検出可能な照明光源として、照明光源3−1〜3−3を特定する。すなわち、照明光源3−1〜3−3からの光は、それぞれ、ユーザの角膜700上の点721〜723で反射されて赤外カメラ4に達する。一方、照明光源3−4〜3−6からの光は、ユーザの角膜700以外の眼球の表面で反射されて赤外カメラ4に達するため、プルキンエ像が写らない。この3個の照明光源のうち、視線方向を検出可能な範囲が最も広くなり、かつ、二つのプルキンエ像を用いて視線方向を検出する際の検出精度が向上するように、光源制御部24は、最も離れた照明光源3−1と3−3とを、点灯させる照明光源として選択する。そして光源制御部24は、赤外カメラ4の次回撮影時に、照明光源3−1と3−3とを点灯させ、その他の照明光源を消灯する。
With reference to FIG. 7, the control of the illumination light source to be lit until the prediction result of the line-of-sight direction becomes available will be described.
When the line-of-sight detection process is started, first, the light
次に、図8を参照して、視線方向の予測結果が利用可能となった以降での、点灯させる照明光源の制御について説明する。矢印811は、1フレーム前の画像に基づいて検出された視線方向を表し、矢印812は、現フレームの画像に基づいて検出された視線方向を表す。そして矢印813は、次フレームについて予測された視線方向を表す。
Next, control of the illumination light source to be lit after the prediction result of the line-of-sight direction becomes available will be described with reference to FIG. An
光源制御部24は、次フレームにおいて、予測された視線方向と、実際の視線方向との間に誤差が生じていても、視線方向を検出できるように、点灯する照明光源を選択する。そこで、光源制御部24は、次フレームについて予測された視線方向と現フレームについての視線方向の両方が検出可能範囲に含まれる照明光源のなかから、点灯させる照明光源を選択する。
In the next frame, the light
図8では、矢印813で示されるように、予測された視線方向は、検出可能範囲702〜704と重なっているので、予測された視線方向について検出可能となる照明光源は、照明光源3−2〜3−4である。すなわち、照明光源3−2〜3−4からの光は、それぞれ、角膜700上の点821〜823で反射されて赤外カメラ4に達すると想定される。一方、照明光源3−1、3−5及び3−6からの光は、角膜700以外の眼球の表面で反射されて赤外カメラ4に達すると想定される。また、矢印812で示されるように、現フレームでの検出された視線方向は、検出可能範囲701〜703と重なっているので、現フレームでの視線方向について検出可能となる照明光源は、照明光源3−1〜3−3である。すなわち、照明光源3−1〜3−3からの光は、それぞれ、角膜700上の点831〜833で反射されて赤外カメラ4に達する。そこで光源制御部24は、現フレームと次フレームの両方で視線方向を検出可能な照明光源3−2と照明光源3−3とを選択する。
なお、現フレームと次フレームの両方で視線方向を検出可能な照明光源が3個以上ある場合、光源制御部24は、それらの照明光源の中から、最も離れた二つの照明光源を選択すればよい。
In FIG. 8, as indicated by an
When there are three or more illumination light sources that can detect the line-of-sight direction in both the current frame and the next frame, the light
光源制御部24は、フレームごとに、照明光源3−1〜3−nのうち、選択した二つの照明光源を点灯させ、かつ、その他の照明光源を消灯する制御信号を生成し、その制御信号を照明光源3−1〜3−nへ出力する。また、光源制御部24は、フレームごとに、選択した二つの照明光源の識別番号を検出履歴に追加する。
The light
図9は、プロセッサ8により実行される、視線方向の予測結果が照明光源の点灯制御に利用可能となるまでの、視線検出処理の動作フローチャートを示す。プロセッサ8は、画像が取得される度に、下記の動作フローチャートに従って視線検出処理を実行する。
FIG. 9 is an operation flowchart of the line-of-sight detection process performed by the
光源制御部24は、視線方向が既に検出されたか否か判定する(ステップS101)。視線方向が一回も検出されていなければ、すなわち、視線検出処理の開始直後であれば(ステップS101−No)、光源制御部24は、照明光源3−1〜3−nのうち、予め定められた二つの照明光源を点灯させる(ステップS102)。一方、直前のフレームの画像で視線方向が検出されていれば(ステップS101−Yes)、光源制御部24は、検出された視線方向と点灯モデルに基づいて選択された二つの照明光源を点灯させる(ステップS103)。
The light
ステップS102またはステップS103の後、赤外カメラ4はユーザを撮影して画像を生成する。そして視線検出部21は、生成された画像上で瞳孔及びプルキンエ像を検出する(ステップS104)。視線検出部21は、検出されたプルキンエ像が一つか否か判定する(ステップS105)。検出されたプルキンエ像が一つであれば(ステップS105−Yes)、視線検出部21は、一つのプルキンエ像と瞳孔に基づいて視線方向を検出する(ステップS106)。一方、検出されたプルキンエ像が二つであれば(ステップS105−No)、視線検出部21は、二つのプルキンエ像と瞳孔に基づいて視線方向を検出する(ステップS107)。
After step S102 or step S103, the
ステップS106またはS107の後、注視位置推定部22は、検出された視線方向に基づいてユーザの注視位置を推定する(ステップS108)。
After step S106 or S107, the gaze
また、予測部23は、2フレーム以上視線方向が検出されたか否か判定する(ステップS109)。2フレーム以上視線方向が検出されていれば、予測部23は、現フレームの視線方向と一つ前のフレームの視線方向とに基づいて次フレームの撮影時における視線方向を予測する(ステップS110)。ステップS110の後、または、ステップS109にて視線方向が検出されたフレーム数が2未満であれば、プロセッサ8は、視線検出処理を終了する。
Further, the
図10は、プロセッサ8により実行される、視線方向の予測結果が照明光源の点灯制御に利用可能となった以降の、視線検出処理の動作フローチャートを示す。プロセッサ8は、画像が取得される度に、下記の動作フローチャートに従って視線検出処理を実行する。
FIG. 10 shows an operation flowchart of the gaze detection process after the gaze direction prediction result executed by the
光源制御部24は、直前のフレームにおいて予測された視線方向及び直前のフレームにて検出された視線方向と点灯モデルに基づいて選択された二つの照明光源を点灯させる(ステップS201)。
The light
二つの照明光源が点灯した後、赤外カメラ4はユーザを撮影して画像を生成する。そして視線検出部21は、生成された画像上で瞳孔及びプルキンエ像を検出する(ステップS202)。そして視線検出部21は、二つのプルキンエ像と瞳孔に基づいて視線方向を検出する(ステップS203)。また、注視位置推定部22は、検出された視線方向に基づいてユーザの注視位置を推定する(ステップS204)。
After the two illumination light sources are turned on, the
予測部23は、少なくとも現フレームの視線方向と一つ前のフレームの視線方向とに基づいて次フレームの撮影時における視線方向を予測する(ステップS205)。ステップS205の後、プロセッサ8は、視線検出処理を終了する。
The
以上に説明してきたように、この視線検出装置は、複数の照明光源のうちの点灯させる照明光源を、予測された視線方向に基づいて、プルキンエ像が画像上に写るように、すなわち、プルキンエ像に基づいて視線方向を検出可能なように選択する。その際、この視線検出装置は、次フレームについて予測された視線方向と、現フレームについて検出された視線方向の両方について、点灯させる照明光源のプルキンエ像が画像上に写るように点灯させる照明光源を選択する。これにより、この視線検出装置は、画像上でプルキンエ像が常に写るようにすることができるので、視線方向の検出精度を向上できる。また、プルキンエ像が画像上に写る照明光源が3個以上ある場合、視線検出装置は、その3個以上の照明光源の中から、互いに最も離れた二つの照明光源を点灯させる。これにより、この視線検出装置は、画像上でのプルキンエ像間の間隔をできるだけ大きくすることができるので、視線方向の検出精度をより向上させることができる。 As described above, this line-of-sight detection apparatus is configured so that the Purkinje image appears on the image based on the predicted line-of-sight direction of the illumination light source to be turned on among the plurality of illumination light sources, that is, the Purkinje image. Is selected so that the line-of-sight direction can be detected. At this time, the line-of-sight detection device includes an illumination light source that is turned on so that the Purkinje image of the illumination light source to be turned on is displayed on the image for both the line-of-sight direction predicted for the next frame and the line-of-sight direction detected for the current frame. select. As a result, this gaze detection apparatus can make the Purkinje image always appear on the image, so that the gaze direction detection accuracy can be improved. When there are three or more illumination light sources in which the Purkinje image appears on the image, the line-of-sight detection device turns on the two illumination light sources that are farthest from each other among the three or more illumination light sources. Thereby, since this gaze detection apparatus can enlarge the space | interval between Purkinje images on an image as much as possible, it can improve the detection accuracy of a gaze direction more.
変形例によれば、視線検出装置は、フレームごとに、複数の照明光源のうちの一つだけを点灯させ、その他を消灯するようにしてもよい。この場合には、視線検出部21は、赤外カメラ4により生成された画像が得られる度に、図10のステップS203において、一つのプルキンエ像を用いて視線方向を検出する方法に従ってユーザの視線方向を検出すればよい。
According to the modification, the line-of-sight detection device may turn on only one of the plurality of illumination light sources and turn off the others for each frame. In this case, every time an image generated by the
また、光源制御部24は、視線検出処理が開始された直後、図9のステップS102において、予め設定された一つの照明光源を点灯させる。そして光源制御部24は、視線方向の予測結果が得られるまでは、図9のステップS103において、最新の視線方向の検出結果に基づいて、点灯モデルを参照して、検出された視線方向が検出可能範囲に含まれる一つの照明光源を点灯させる。そして光源制御部24は、視線方向の予測結果が得られると、図10のステップS201にて、点灯モデルを参照して、予測された視線方向と最新の視線方向の何れもが検出可能範囲内に含まれる一つの照明光源を点灯させればよい。
Further, immediately after the line-of-sight detection process is started, the light
この変形例による視線検出装置も、上記の実施形態による視線検出装置と同様に、赤外カメラ4により得られる画像上にプルキンエ像が写るように、複数の照明光源のなかから点灯する照明光源を選択するので、視線方向の検出精度を向上できる。
Similarly to the line-of-sight detection apparatus according to the above-described embodiment, the line-of-sight detection apparatus according to this modification also uses an illumination light source that is turned on from among a plurality of illumination light sources so that a Purkinje image is captured on an image obtained by the
また、他の変形例によれば、光源制御部24は、最新の画像から検出された視線方向によらず、赤外カメラ4による次回撮影時において予測されたユーザの視線方向が含まれる検出可能範囲に対応する照明光源を、次回撮影時に点灯させてもよい。これにより、特に、視線方向が、速く、かつ、大きく移動している場合でも、視線検出装置は、画像上にプルキンエ像が写る照明光源を点灯させることができる。なお、光源制御部24は、現フレームの検出された視線方向と次フレームの予測された視線方向の差に基づいて、点灯させる照明光源の選択方法を切り替えてもよい。例えば、光源制御部24は、現フレームの検出された視線方向と次フレームの予測された視線方向間の差分絶対値を所定の閾値と比較してもよい。そして光源制御部24は、差分絶対値が所定の閾値よりも大きければ、最新の画像から検出された視線方向によらず、赤外カメラ4による次回撮影時において予測されたユーザの視線方向が含まれる検出可能範囲に対応する照明光源を、次回撮影時に点灯させる。一方、光源制御部24は、差分絶対値が所定の閾値以下であれば、最新の画像から検出された視線方向と次回撮影時において予測されたユーザの視線方向の両方が含まれる検出可能範囲に対応する照明光源を、次回撮影時に点灯させればよい。
Further, according to another modification, the light
さらに、他の変形例によれば、点灯モデルは、照明光源ごとの検出可能範囲に相当する視線方向の範囲を表していてもよい。この場合も、光源制御部24は、点灯モデルを参照して、予測された視線方向及び現フレームの検出された視線方向が検出可能範囲に含まれる照明光源を特定すればよい。
Furthermore, according to another modification, the lighting model may represent a range in the line-of-sight direction corresponding to a detectable range for each illumination light source. Also in this case, the light
上記の実施形態またはその変形例による視線検出装置のプロセッサの機能を実現するコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。 The computer program that realizes the function of the processor of the line-of-sight detection device according to the above-described embodiment or its modification may be provided in a form recorded on a computer-readable recording medium such as a magnetic recording medium or an optical recording medium. This recording medium does not include a carrier wave.
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。 All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。
(付記2)
前記照明光源を点灯させることは、前記複数の照明光源のうち、最新の前記画像から検出された前記ユーザの視線方向と前記予測されたユーザの視線方向の両方が含まれる前記検出可能範囲に対応する少なくとも一つの照明光源を点灯させる、付記1に記載の視線検出用コンピュータプログラム。
(付記3)
前記照明光源を点灯させることは、前記複数の照明光源のうち、最新の前記画像から検出された前記ユーザの視線方向と前記予測されたユーザの視線方向の両方が含まれる前記検出可能範囲に対応する照明光源が3個以上ある場合、当該3個以上の照明光源のうちの最も離れた二つの照明光源を点灯させる、付記2に記載の視線検出用コンピュータプログラム。
(付記4)
前記照明光源を点灯させることは、前記複数の照明光源のうち、前記予測されたユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源のうちの二つを点灯させる、付記1に記載の視線検出用コンピュータプログラム。
(付記5)
前記照明光源を点灯させることは、前記複数の照明光源のうち、前記予測されたユーザの視線方向が含まれる前記検出可能範囲に対応する前記照明光源が3個以上ある場合、当該3個以上の照明光源のうちの最も離れた二つの照明光源を点灯させる、付記4に記載の視線検出用コンピュータプログラム。
(付記6)
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことを含む視線検出方法。
(付記7)
撮像部がユーザの眼を撮影することで生成された画像から、前記眼の瞳孔が写っている瞳孔領域、及び、複数の照明光源のうち、点灯している照明光源の角膜反射像を検出し、前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出する視線検出部と、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測する予測部と、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる光源制御部と、
を有する視線検出装置。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A computer program for eye-gaze detection for causing a computer to execute the above.
(Appendix 2)
Turning on the illumination light source corresponds to the detectable range including both the user's line-of-sight direction detected from the latest image and the predicted user's line-of-sight direction among the plurality of illumination light sources. The computer program for eye-gaze detection according to appendix 1, wherein at least one illumination light source is turned on.
(Appendix 3)
Turning on the illumination light source corresponds to the detectable range including both the user's line-of-sight direction detected from the latest image and the predicted user's line-of-sight direction among the plurality of illumination light sources. The computer program for eye-gaze detection according to appendix 2, wherein when there are three or more illumination light sources to be turned on, the two most distant illumination light sources among the three or more illumination light sources are turned on.
(Appendix 4)
The lighting of the illumination light source turns on two of the illumination light sources corresponding to the detectable range including the predicted user's line-of-sight direction among the plurality of illumination light sources. Computer program for eye gaze detection.
(Appendix 5)
Turning on the illumination light source means that, when there are three or more illumination light sources corresponding to the detectable range including the predicted user's line-of-sight direction, the three or more illumination light sources. The computer program for line-of-sight detection according to
(Appendix 6)
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A gaze detection method including the above.
(Appendix 7)
A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. A gaze detection unit that detects the gaze direction of the user based on the pupil region and the corneal reflection image;
A predicting unit that predicts the user's line-of-sight direction at the next shooting of the imaging unit based on the user's line-of-sight direction detected from each of the at least two images generated at different timings;
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is A light source control unit that turns on at least one of the illumination light sources corresponding to the included detectable range at the next imaging of the imaging unit;
A line-of-sight detection apparatus comprising:
1 デジタルサイネージシステム(視線検出装置)
2 表示装置
3−1〜3−n 照明光源
4 赤外カメラ
5 入力装置
6 記憶媒体アクセス装置
7 メモリ
8 プロセッサ
9 記憶媒体
10 筐体
21 視線検出部
22 注視位置推定部
23 予測部
24 光源制御部
1 Digital signage system (Gaze detection device)
2 Display device 3-1 to 3-n Illumination
Claims (5)
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことをコンピュータに実行させるための視線検出用コンピュータプログラム。 A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A computer program for eye-gaze detection for causing a computer to execute the above.
前記瞳孔領域及び前記角膜反射像に基づいて前記ユーザの視線方向を検出し、
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測し、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる、
ことを含む視線検出方法。 A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. ,
Detecting the user's gaze direction based on the pupillary region and the corneal reflection image;
Based on the user's line-of-sight direction detected from each of the at least two images generated at different timings, predicting the user's line-of-sight direction at the time of the next shooting of the imaging unit,
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is At least one of the illumination light sources corresponding to the detectable range included is turned on at the next shooting of the imaging unit,
A gaze detection method including the above.
生成されたタイミングが異なる少なくとも2枚の前記画像のそれぞれから検出された前記ユーザの視線方向に基づいて、前記撮像部の次回撮影時における前記ユーザの視線方向を予測する予測部と、
前記複数の照明光源のそれぞれについて、当該照明光源と前記撮像部との位置関係に応じて視線方向の検出可能範囲が規定され、前記複数の照明光源のうち、予測された前記ユーザの視線方向が含まれる前記検出可能範囲に対応する照明光源の少なくとも一つを前記撮像部の次回撮影時に点灯させる光源制御部と、
を有する視線検出装置。 A pupil region in which the pupil of the eye is reflected, and a corneal reflection image of an illumination light source that is lit among a plurality of illumination light sources are detected from an image generated by the imaging unit photographing the user's eyes. A gaze detection unit that detects the gaze direction of the user based on the pupil region and the corneal reflection image;
A predicting unit that predicts the user's line-of-sight direction at the next shooting of the imaging unit based on the user's line-of-sight direction detected from each of the at least two images generated at different timings;
For each of the plurality of illumination light sources, a detectable range of the line-of-sight direction is defined according to the positional relationship between the illumination light source and the imaging unit, and the predicted line-of-sight direction of the user among the plurality of illumination light sources is A light source control unit that turns on at least one of the illumination light sources corresponding to the included detectable range at the next imaging of the imaging unit;
A line-of-sight detection apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017102612A JP6870474B2 (en) | 2017-05-24 | 2017-05-24 | Gaze detection computer program, gaze detection device and gaze detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017102612A JP6870474B2 (en) | 2017-05-24 | 2017-05-24 | Gaze detection computer program, gaze detection device and gaze detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018197974A true JP2018197974A (en) | 2018-12-13 |
JP6870474B2 JP6870474B2 (en) | 2021-05-12 |
Family
ID=64663113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017102612A Active JP6870474B2 (en) | 2017-05-24 | 2017-05-24 | Gaze detection computer program, gaze detection device and gaze detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6870474B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE1950825A1 (en) * | 2019-06-28 | 2020-12-29 | Tobii Ab | Method and system for 3d cornea position estimation |
CN112926521A (en) * | 2021-03-30 | 2021-06-08 | 青岛小鸟看看科技有限公司 | Eyeball tracking method and system based on light source on-off |
WO2022044395A1 (en) * | 2020-08-24 | 2022-03-03 | 株式会社Jvcケンウッド | Sight line detection device, sight line detection method, and sight line detection program |
WO2022080058A1 (en) * | 2020-10-13 | 2022-04-21 | ソニーグループ株式会社 | Gaze detection device, display device, and method for sensing eyeball |
CN116052264A (en) * | 2023-03-31 | 2023-05-02 | 广州视景医疗软件有限公司 | Sight estimation method and device based on nonlinear deviation calibration |
-
2017
- 2017-05-24 JP JP2017102612A patent/JP6870474B2/en active Active
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE1950825A1 (en) * | 2019-06-28 | 2020-12-29 | Tobii Ab | Method and system for 3d cornea position estimation |
SE543455C2 (en) * | 2019-06-28 | 2021-02-23 | Tobii Ab | Method and system for 3d cornea position estimation |
WO2022044395A1 (en) * | 2020-08-24 | 2022-03-03 | 株式会社Jvcケンウッド | Sight line detection device, sight line detection method, and sight line detection program |
WO2022080058A1 (en) * | 2020-10-13 | 2022-04-21 | ソニーグループ株式会社 | Gaze detection device, display device, and method for sensing eyeball |
CN112926521A (en) * | 2021-03-30 | 2021-06-08 | 青岛小鸟看看科技有限公司 | Eyeball tracking method and system based on light source on-off |
CN112926521B (en) * | 2021-03-30 | 2023-01-24 | 青岛小鸟看看科技有限公司 | Eyeball tracking method and system based on light source on-off |
US11863875B2 (en) | 2021-03-30 | 2024-01-02 | Qingdao Pico Technology Co., Ltd | Eyeball tracking method and system based on on-off of light sources |
CN116052264A (en) * | 2023-03-31 | 2023-05-02 | 广州视景医疗软件有限公司 | Sight estimation method and device based on nonlinear deviation calibration |
Also Published As
Publication number | Publication date |
---|---|
JP6870474B2 (en) | 2021-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6056323B2 (en) | Gaze detection device, computer program for gaze detection | |
US11341711B2 (en) | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP6930223B2 (en) | Pupil detection computer program, pupil detection device and pupil detection method | |
JP5949319B2 (en) | Gaze detection apparatus and gaze detection method | |
US9693684B2 (en) | Systems and methods of eye tracking calibration | |
JP2017182739A (en) | Gaze detection device, gaze detection method and computer program for gaze detection | |
US8947351B1 (en) | Point of view determinations for finger tracking | |
US8942434B1 (en) | Conflict resolution for pupil detection | |
US10528131B2 (en) | Method to reliably detect correlations between gaze and stimuli | |
JP5655644B2 (en) | Gaze detection apparatus and gaze detection method | |
US20140111632A1 (en) | Pupil detection device | |
JP6604271B2 (en) | Gaze position detection device, gaze position detection method, and computer program for gaze position detection | |
JP2018205819A (en) | Gazing position detection computer program, gazing position detection device, and gazing position detection method | |
US20220100268A1 (en) | Eye tracking device and a method thereof | |
JP5621456B2 (en) | Gaze detection device, gaze detection method, computer program for gaze detection, and portable terminal | |
US10475415B1 (en) | Strobe tracking of head-mounted displays (HMDs) in virtual, augmented, and mixed reality (xR) applications | |
CN112753037A (en) | Sensor fusion eye tracking | |
KR100960269B1 (en) | Apparatus of estimating user's gaze and the method thereof | |
US20210153794A1 (en) | Evaluation apparatus, evaluation method, and evaluation program | |
KR20140014868A (en) | Gaze tracking apparatus and method | |
JP2018120299A (en) | Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method | |
WO2019221724A1 (en) | Method to reliably detect correlations between gaze and stimuli | |
CN110858095A (en) | Electronic device capable of being controlled by head and operation method thereof | |
JP6575353B2 (en) | Gaze detection device, gaze detection method, and computer program for gaze detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210305 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210316 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6870474 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |