JP2021157523A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2021157523A JP2021157523A JP2020057435A JP2020057435A JP2021157523A JP 2021157523 A JP2021157523 A JP 2021157523A JP 2020057435 A JP2020057435 A JP 2020057435A JP 2020057435 A JP2020057435 A JP 2020057435A JP 2021157523 A JP2021157523 A JP 2021157523A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- image
- calibration
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 52
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、視線推定のキャリブレーション等に関する。 The present disclosure relates to calibration of line-of-sight estimation and the like.
視線情報を用いて顧客がどこを見ているのかを推定する視線推定技術がある。視線推定技術に基づく視線推定装置は、被験者の顔画像を撮影し、顔画像に含まれる視線情報に基づき被験者の視線方向を推定する。 There is a line-of-sight estimation technique that estimates where a customer is looking using line-of-sight information. The line-of-sight estimation device based on the line-of-sight estimation technique takes a face image of the subject and estimates the line-of-sight direction of the subject based on the line-of-sight information included in the face image.
視線推定装置では、視線推定の精度を向上させるためにキャリブレーション作業が行われる。キャリブレーション作業では、キャリブレーション点とよばれる正解位置を見る被験者を撮影したキャリブレーション画像に対して、被験者の視線方向ごとに正解位置を後付けで付与している。このため、被験者1人あたりのキャリブレーション作業に時間が掛かり、視線推定の精度を向上させるためのキャリブレーション作業の効率化が求められている。
本開示の目的は、視線推定に関するキャリブレーション作業を効率化することにある。
In the line-of-sight estimation device, calibration work is performed in order to improve the accuracy of line-of-sight estimation. In the calibration work, the correct answer position is retrofitted for each line-of-sight direction of the subject to the calibration image obtained by photographing the subject who sees the correct answer position called the calibration point. Therefore, it takes time for the calibration work per subject, and it is required to improve the efficiency of the calibration work in order to improve the accuracy of the line-of-sight estimation.
An object of the present disclosure is to streamline the calibration work related to the line-of-sight estimation.
本開示の画像処理装置は、被験者の第1の視線画像と、前記被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得する取得部と、前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する出力部と、を備える。
本開示の画像処理方法は、被験者の第1の視線画像と、前記被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得し、前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する。
本開示のプログラムは、被験者の第1の視線画像と、前記被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得し、前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する、ことをコンピュータに実行させる。
The image processing apparatus of the present disclosure is based on an acquisition unit that acquires a calibration image including a first line-of-sight image of a subject, identification information indicating a correct position in the line-of-sight direction of the subject, and the calibration image. It includes an output unit that outputs calibration information in which the first line-of-sight image and the correct answer position included in the identification information are associated with each other.
The image processing method of the present disclosure acquires a calibration image including a first line-of-sight image of a subject and identification information indicating a correct position in the line-of-sight direction of the subject, and based on the calibration image, the first The calibration information associated with the line-of-sight image of the above and the correct answer position included in the identification information is output.
The program of the present disclosure acquires a calibration image including a first line-of-sight image of a subject and identification information indicating a correct position in the line-of-sight direction of the subject, and based on the calibration image, the first line-of-sight. The computer is made to output the calibration information associated with the image and the correct position included in the identification information.
本開示によれば、視線推定に関するキャリブレーション作業を効率化することができる。 According to the present disclosure, it is possible to streamline the calibration work related to the line-of-sight estimation.
(第1の実施形態)
第1の実施形態に係る画像処理装置、及び、画像処理装置を含む視線推定システムについて図面を用いて説明する。図1は、視線推定システムの構成の例を示すブロック図である。図1に示す視線推定システム1は、カメラ5、画像処理装置10、識別情報表示装置20、識別情報生成装置22、識別情報データベース23、視線推定装置30、視線情報データベース40を備える。
カメラ5は、分析対象となる被験者の視線画像(第2の視線画像とも呼ばれる)、及び、キャリブレーション画像を撮影する。被験者の視線画像、キャリブレーション画像は動画像(映像)又は静止画像である。カメラ5は、分析対象となる被験者の視線画像を視線推定装置30に出力し、キャリブレーション画像を画像処理装置10に出力する。カメラ5は、画像処理装置10又は識別情報表示装置20からの撮影指示に応じてキャリブレーション画像を撮影してもよい。
識別情報表示装置20は、画面上に識別情報を表示する。識別情報は、視線推定面上における正解位置の空間的な配置を識別するための情報である。例えば、キャリブレーションボード上に配置する正解位置を識別するための識別コードである。キャリブレーションボードと正解位置については後述する。識別情報表示装置20は、キャリブレーションボードの正解位置ごとに異なる識別情報を表示する。識別コードは、例えば、2次元コード、1次元コードである。2次元コードは、例えばQRコード(登録商標)である。識別情報表示装置20は、例えば、タブレット端末又はスマートフォン等の表示画面を備えるコンピュータである。識別情報表示装置20は、例えば、所定の時間間隔で複数の識別情報を画面に表示する。なお、識別情報表示装置20は、ディスプレイであってもよい。その場合、外部装置(図示せず)から出力された識別情報を受付けて表示する。
識別情報生成装置22は、識別情報表示装置20が画面に表示する識別情報を生成する。識別情報は、キャリブレーションボードの視線推定面上における正解位置の空間的な配置を識別するための情報である。このため、識別情報は、例えば、キャリブレーションボードごとに、各キャリブレーションボードにおける正解位置の配置、正解位置の数に応じて異なる情報となる。識別情報生成装置22は、生成した識別情報を、識別情報表示装置20、又は、識別情報データベース23に出力する。
上記では、視線推定面上の正解位置を空間的に配置するためにキャリブレーションボードを用いる例で説明したが、これに限られない。例えば、視線推定面上にディスプレイを設置し、ディスプレイにキャリブレーション点(正解位置)を表示してもよい。また、キャリブレーション点が動画で表示され、正解位置の配置間を動くキャリブレーション点を被験者の目で追わせてもよい。例えば、QRコードを表示するタブレット端末が、視線推定面上のディスプレイにキャリブレーション点の動画を出力してもよい。その場合、動画と連動させて、被験者が見ているキャリブレーション点の位置情報がQRコードで表示される。
図2は、キャリブレーション画像の撮影の例を示す上面図である。キャリブレーション画像の撮影には、例えば、キャリブレーションボード51が用いられる。キャリブレーションボード51には、キャリブレーションのための正解位置が付与されている。被験者50は、キャリブレーションボード51に向うように配置される。このとき、キャリブレーションボード51が視線推定面となり、被験者50の目の位置が被写体面52となる。カメラ5は、キャリブレーションボード51の上に配置される。
図3は、キャリブレーションボード51の例を示す図である。図3に示すキャリブレーションボード51には、4つの角にそれぞれキャリブレーションための正解位置511、正解位置512、正解位置513、正解位置514が配置される。図3のキャリブレーションボードには、被験者50が目視できる大きさで番号が設置されている。
キャリブレーション画像の撮影の説明において、キャリブレーションボードの正解位置に番号を付与する例で説明したが、これに限られない。被験者が視認可能な目印が正解位置に配置されていればよい。
図4は、カメラ5で撮影されるキャリブレーション画像の例を示す図である。キャリブレーション画像には、被験者の顔画像(視線画像を含む)と、識別情報表示装置20に表示された識別情報21が含まれる。キャリブレーション画像に含まれる識別情報21は、キャリブレーションボード51に配置された正解位置を示す識別コードである。
識別情報表示装置20が表示する識別情報21について説明する。図5は、正解位置と識別情報との関係を示すテーブルである。図5のQRコード1〜4は、それぞれキャリブレーションボードの正解位置に紐づく正解位置ID(Identifier)の1〜4に対応する。識別情報表示装置20は、図5に示すテーブルを参照し、正解位置ごとにQRコードを表示する。
<画像処理装置>
第1の実施形態に係る画像処理装置10について図面を用いて説明する。図6は、第1の実施形態に係る画像処理装置10の構成の例を示すブロック図である。図6に示す画像処理装置10は、取得部11と、出力部12、記憶部(図示せず)を備える。
取得部11は、被験者の視線画像(第1の視線画像)と、被験者の視線方向の正解位置を示す識別情報21と、を含むキャリブレーション画像を取得する。出力部12は、キャリブレーション画像に基づき、被験者の視線画像(第1の視線画像)と、識別情報21に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する。例えば、出力部12は、正解位置を示す識別情報21ごとに被験者の視線画像ファイルに正解位置の情報を付与して出力する。キャリブレーション画像の出力先は、例えば、画像処理装置10と通信可能に接続された視線推定装置30である。なお、出力部12は、キャリブレーション情報を記憶部(図示せず)に記憶させてもよい。
<視線推定装置>
図1に示す視線推定装置30は、分析対象となる被験者の視線画像と、キャリブレーション画像に基づき、分析対象の視線画像における被験者の視線を推定する。視線推定装置30は、視線推定部31を備える。
視線推定部31は、被験者の顔画像に含まれる視線画像から、被験者の視線を推定する。具体的には、視線推定部31は、視線画像から視線角度を推定し、被験者の視線を推定する。視線推定部31は、周知である任意の視線の推定方法を用いることができる。本実施形態では、視線推定部31は、分析対象となる被験者の視線画像とキャリブレーション画像を用い、ホモグラフィ変換などによって、被写体面と視線推定面の関係に基づき、視線を推定する。視線推定部31は、視線の推定結果を出力する。出力先の例は、視線推定装置30と通信可能に接続された視線情報データベース40である。
図1では、画像処理装置10と視線推定装置30が分離された構成の例で説明したが、これに限られない。視線推定装置30は、画像処理装置10を含んだ構成であってもよい。図7は、画像処理装置10を含む視線推定装置30の構成の例を示す図である。図7に示す視線推定装置30は、画像処理装置10、視線推定部31を備える。
図7に示す視線推定装置30において、視線推定部31は、カメラ5からの分析対象となる被験者の視線画像(第2の視線画像)を受付け、画像処理装置10は、キャリブレーション画像を受付ける。画像処理装置10は、受付けたキャリブレーション画像に基づき、被験者の視線画像(第1の視線画像)と、識別情報21に含まれる正解位置とを関連付けたキャリブレーション情報を、視線推定部31に送る。視線推定部31は、キャリブレーション情報を用いて、分析対象となる被験者の視線画像(第2の視線画像)から視線を推定する。
次に、第1の実施形態に係る画像処理装置10の動作、および、視線推定システム1の動作について図面を用いて説明する。図8は、図1に示す視線推定システム1の動作の例を示すフローチャートである。以下の説明では、視線推定システムの動作について、被験者撮影処理、キャリブレーション撮影処理、キャリブレーション画像処理、視線推定処理に分けて説明する。
[被験者撮影処理]
カメラ5は、分析対象となる被験者の視線画像(第2の視線画像)を撮影し(ステップS111)、分析対象となる被験者の視線画像を視線推定装置30に出力する。
[キャリブレーション撮影処理]
識別情報表示装置20は、画面に正解位置に対応する識別情報21を表示する(ステップS12)。被験者は、識別情報21に対応するキャリブレーションボードの正解位置を見る。カメラ5は、被験者の視線画像(第1の視線画像)と識別情報表示装置20に表示された識別情報21を含むキャリブレーション画像を撮影する(ステップS113)。キャリブレーションボードに配置された正解位置ごとに、ステップS112〜S113を繰り返す。カメラ5は、キャリブレーション画像を画像処理装置10に出力する。
[キャリブレーション画像処理]
画像処理装置10は、キャリブレーション画像に基づき、キャリブレーション情報を出力する(ステップS114)。ステップS114は、画像処理装置10の動作に対応する。図9は、画像処理装置10の動作の例を示すフローチャートである。取得部11は、被験者の視線画像(第1の視線画像)と、被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得する(ステップS11)。取得部11は、取得したキャリブレーション画像を出力部12に送る。出力部12は、キャリブレーション画像に基づき、被験者の視線画像(第1の視線画像)と、識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する(ステップS12)。詳しくは、出力部12は、キャリブレーション情報を視線推定装置30に出力する。
[視線推定処理]
視線推定装置30は、分析対象となる被験者の視線画像(第2の視線画像)と、キャリブレーション情報を受付ける(ステップS115)。視線推定装置30の視線推定部31は、キャリブレーション情報を用いて、分析対象となる被験者の視線画像(第2の視線画像)から視線を推定する(ステップS116)。
(第1の実施形態の効果)
第1の実施形態の画像処理装置10によれば、取得部11は、被験者の第1の視線画像と、被験者の視線方向の正解位置を示す識別情報と、を含むキャリブレーション画像を取得する。出力部12は、キャリブレーション画像に基づき、第1の視線画像と、識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する。キャリブレーション画像からキャリブレーションの正解位置と、その正解位置を見る被験者の視線画像(視線情報)を得ることができるので、正解位置を付与する後処理が不要となる。
なお、画像処理装置10を含む視線推定装置30は、カメラ5から、分析対象となる被験者の視線画像(第2の視線画像)と、キャリブレーション画像を取得することで、分析対象の視線画像の視線の推定を開始することができるため、分析処理の時間を大幅に削減できる。
(変形例)
次に、視線推定システム1の変形例について図面を用いて説明する。図10は、視線推定システムの変形例の構成の例を示すブロック図である。図10に示す視線推定システム1の変形例は、図1に示す視線推定システムに音声出力装置24が追加されている。音声出力装置24は、キャリブレーション撮影処理の際に、被験者が目を向ける正解位置を指示する誘導音声を出力する。また、誘導音声には、被験者に対し正解位置を注視して欲しい時間間隔とその時間間隔のカウントを含めてもよい。
図11は、正解位置、識別情報および誘導音声との関係を示すテーブルである。図11に示す誘導音声は、キャリブレーションボード51の正解位置に対する識別子、及び、識別情報とに関連付けされている。図11に示す誘導音声の例は、「まず、5秒間、左上を見てください。5,4,3,2,1…」である。
図12は、視線推定システム1の変形例の動作の例を示すフローチャートである。図12に示す視線推定システム1の変形例の動作は、図8に示す視線推定システム1の動作におけるキャリブレーション撮影処理のステップS112がステップS212となっている点が異なる。このため、視線推定システム1の変形例のステップS212を説明し、他のステップの詳細な説明は省略する。
識別情報表示装置20は、ステップS111の後、画面に正解位置に対応する識別情報を表示すると共に誘導音声を出力する(ステップS212)。誘導音声によって、被験者は、識別情報に対応するキャリブレーションボードの正解位置を見るよう指示される。カメラ5は、被験者の視線画像(第1の視線画像)と識別情報表示装置20に表示された識別情報を含むキャリブレーション画像を撮影する(ステップS113)。キャリブレーションボードに配置された正解位置ごとに、ステップS212〜S113を繰り返す。カメラ5は、キャリブレーション画像を画像処理装置10に出力する。
視線推定システム1の変形例において、音声出力装置24は、識別情報表示装置20の識別情報の表示と共に、被験者が目を向ける正解位置を指示する誘導音声を出力する。誘導音声の指示により被験者はキャリブレーションボードの正解位置をスムーズに注視することができる。さらに、誘導音声に正解位置を注視する時間間隔とカウントを含めることで、被験者がキャリブレーションボードの正解位置を注視する時間を安定化させることが可能になる。これにより、視線推定装置30による視線推定の精度を向上させることができる。
(ハードウエア構成)
画像処理装置10は、図13に示すコンピュータ60によって構成される。画像処理装置10は、CPU(Central Processing Unit)61で、画像処理装置10の各構成要素の機能をプログラム64で実行することにより実現する。画像処理装置10の各構成要素の機能は、CPU61がROM(Read Only Memory)62あるいは記憶装置65からプログラム64を読み込み、読み込んだプログラム64を、CPU61、及び、RAM(Random Access Memory)63を用いて実行することで実現されてもよい。各構成要素とは、画像処理装置10の取得部11、出力部12である。
また、上述の画像処理装置10をCPU61に機能させるためのプログラムが格納されたコンピュータ読み取り可能な記憶媒体66によって構成されると捉えることもできる。なお、視線推定装置30もコンピュータ60によって構成することができる。記憶媒体66は、例えばハードディスクドライブ、ドライブ装置67に着脱可能なディスク媒体やメモリカードなどである。例えば、画像処理装置10の取得部11、出力部12の構成要素は、集積回路による専用のハードウエアであってもよい。またコンピュータ60は、ネットワークと接続可能な通信インターフェース68、入出力インターフェース69を含む。また、画像処理装置10、視線推定装置30の構成要素は、複数の装置に分散して配置されてもよく、その場合、複数の装置間を通信可能に接続することで装置単体と同様に機能することができる。なお、識別情報表示装置20、識別情報生成装置22、音声出力装置24もコンピュータ60によって実現される構成であってもよい。
本開示は上述した各実施形態に限定されるものではなく、種々の変更が可能であり、異なる実施形態にそれぞれ開示された構成、動作、処理を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。
以上、上述した実施形態を模範的な例として本開示を説明した。しかしながら、本開示は、上述した実施形態には限定されない。即ち、本開示は、本開示のスコープ内において、当業者が理解し得る様々な態様を適用することができる。
(First Embodiment)
The image processing apparatus according to the first embodiment and the line-of-sight estimation system including the image processing apparatus will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of the line-of-sight estimation system. The line-of-
The
The identification
The identification
In the above, the example in which the calibration board is used to spatially arrange the correct position on the line-of-sight estimation surface has been described, but the present invention is not limited to this. For example, a display may be installed on the line-of-sight estimation surface, and the calibration point (correct answer position) may be displayed on the display. In addition, the calibration points may be displayed as a moving image, and the calibration points moving between the arrangements of the correct answer positions may be followed by the eyes of the subject. For example, a tablet terminal displaying a QR code may output a moving image of the calibration point to a display on the line-of-sight estimation surface. In that case, the position information of the calibration point viewed by the subject is displayed as a QR code in conjunction with the moving image.
FIG. 2 is a top view showing an example of taking a calibration image. For example, a
FIG. 3 is a diagram showing an example of the
In the explanation of taking the calibration image, the example of assigning a number to the correct position of the calibration board has been described, but the present invention is not limited to this. It suffices if the mark visible to the subject is placed at the correct position.
FIG. 4 is a diagram showing an example of a calibration image taken by the
The
<Image processing device>
The
The
<Gaze estimation device>
The line-of-
The line-of-
In FIG. 1, an example of a configuration in which the
In the line-of-
Next, the operation of the
[Subject photography processing]
The
[Calibration shooting process]
The identification
[Calibration image processing]
The
[Gaze estimation process]
The line-of-
(Effect of the first embodiment)
According to the
The line-of-
(Modification example)
Next, a modified example of the line-of-
FIG. 11 is a table showing the relationship between the correct answer position, the identification information, and the guidance voice. The guidance voice shown in FIG. 11 is associated with an identifier for the correct position of the
FIG. 12 is a flowchart showing an example of the operation of the modified example of the line-of-
After step S111, the identification
In a modified example of the line-of-
(Hardware configuration)
The
Further, it can be considered that the
The present disclosure is not limited to the above-described embodiments, and various modifications can be made, and the embodiments obtained by appropriately combining the configurations, operations, and processes disclosed in the different embodiments are also disclosed in the present disclosure. Included in the technical scope.
The present disclosure has been described above by using the above-described embodiment as a model example. However, the present disclosure is not limited to the embodiments described above. That is, the present disclosure may apply various aspects that can be understood by those skilled in the art within the scope of the present disclosure.
5 カメラ
10 画像処理装置
11 取得部
12 出力部
20 識別情報表示装置
21 識別情報
24 音声出力装置
30 視線推定装置
31 視線推定部
50 被験者
51 キャリブレーションボード
511、512、513、514 正解位置
5
Claims (10)
前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる前記正解位置と、を関連付けたキャリブレーション情報を出力する出力手段と、を備える、
画像処理装置。 An acquisition means for acquiring a calibration image including a first line-of-sight image of a subject and identification information indicating a correct position in the line-of-sight direction of the subject.
Based on the calibration image, the output means for outputting the calibration information in which the first line-of-sight image and the correct answer position included in the identification information are associated with each other is provided.
Image processing device.
請求項1に記載の画像処理装置。 The calibration image is an image obtained by photographing the subject and the identification information display device on which the identification information is displayed.
The image processing apparatus according to claim 1.
請求項1又は2に記載の画像処理装置。 The calibration information is associated with the correct position for each identification information and the first line-of-sight image of the subject for each line-of-sight direction.
The image processing apparatus according to claim 1 or 2.
請求項1から3のいずれか1つに記載の画像処理装置。 The identification information is a two-dimensional code and a one-dimensional code.
The image processing apparatus according to any one of claims 1 to 3.
視線推定装置。 Based on the calibration information output by the image processing apparatus according to claim 1 and the second line-of-sight image of the subject to be analyzed, the line-of-sight of the subject in the second line-of-sight image is estimated. , Equipped with line-of-sight estimation means,
Line-of-sight estimation device.
前記正解位置の前記識別情報の表示と共に、前記正解位置を示す誘導音声を出力する、音声出力装置を備える、
視線推定システム。 The line-of-sight estimation device according to claim 5 and
A voice output device is provided, which outputs a guidance voice indicating the correct answer position together with displaying the identification information of the correct answer position.
Line-of-sight estimation system.
請求項6に記載の視線推定システム。 The guidance voice outputs the calibration arrangement of the correct answer position by voice.
The line-of-sight estimation system according to claim 6.
請求項6又は7に記載の視線推定システム。 The guidance voice outputs a voice to the subject at a time interval for gazing at the correct answer position.
The line-of-sight estimation system according to claim 6 or 7.
前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する、
画像処理方法。 A calibration image including the first line-of-sight image of the subject and the identification information indicating the correct position in the line-of-sight direction of the subject is acquired.
Based on the calibration image, the calibration information in which the first line-of-sight image and the correct position included in the identification information are associated with each other is output.
Image processing method.
前記キャリブレーション画像に基づき、前記第1の視線画像と、前記識別情報に含まれる正解位置と、を関連付けたキャリブレーション情報を出力する、
ことをコンピュータに実行させるプログラム。 A calibration image including the first line-of-sight image of the subject and the identification information indicating the correct position in the line-of-sight direction of the subject is acquired.
Based on the calibration image, the calibration information in which the first line-of-sight image and the correct position included in the identification information are associated with each other is output.
A program that lets a computer do things.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020057435A JP7521220B2 (en) | 2020-03-27 | 2020-03-27 | IMAGE PROCESSING DEVICE, EYE-Gaze ESTIMATION ... SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020057435A JP7521220B2 (en) | 2020-03-27 | 2020-03-27 | IMAGE PROCESSING DEVICE, EYE-Gaze ESTIMATION ... SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157523A true JP2021157523A (en) | 2021-10-07 |
JP7521220B2 JP7521220B2 (en) | 2024-07-24 |
Family
ID=77918443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020057435A Active JP7521220B2 (en) | 2020-03-27 | 2020-03-27 | IMAGE PROCESSING DEVICE, EYE-Gaze ESTIMATION ... SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7521220B2 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100366A (en) * | 2003-08-18 | 2005-04-14 | Yamaguchi Univ | Visual line input communication method using eyeball motion |
JP2016087130A (en) * | 2014-11-06 | 2016-05-23 | 株式会社フューチャーデバイス | Game machine |
JP2016185375A (en) * | 2016-06-28 | 2016-10-27 | 株式会社Jvcケンウッド | Diagnosis support device, diagnosis support method and diagnosis support program |
JP2016187589A (en) * | 2016-07-04 | 2016-11-04 | 株式会社Jvcケンウッド | Gaze point detector and gaze point detection method |
JP2017134558A (en) * | 2016-01-27 | 2017-08-03 | ソニー株式会社 | Information processor, information processing method, and computer-readable recording medium recorded with program |
JP2017523487A (en) * | 2014-03-26 | 2017-08-17 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Eye tracking based on adaptive homography mapping |
JP2017213191A (en) * | 2016-05-31 | 2017-12-07 | 富士通株式会社 | Sight line detection device, sight line detection method and sight line detection program |
JP2019095892A (en) * | 2017-11-20 | 2019-06-20 | シャープ株式会社 | Vehicle drive supporting device and vehicle drive supporting program |
JP2020018470A (en) * | 2018-07-31 | 2020-02-06 | 株式会社Jvcケンウッド | Visual line detection device, visual line detection method, and visual line detection program |
JP2020032077A (en) * | 2018-08-31 | 2020-03-05 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
JP2020032078A (en) * | 2018-08-31 | 2020-03-05 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
-
2020
- 2020-03-27 JP JP2020057435A patent/JP7521220B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005100366A (en) * | 2003-08-18 | 2005-04-14 | Yamaguchi Univ | Visual line input communication method using eyeball motion |
JP2017523487A (en) * | 2014-03-26 | 2017-08-17 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Eye tracking based on adaptive homography mapping |
JP2016087130A (en) * | 2014-11-06 | 2016-05-23 | 株式会社フューチャーデバイス | Game machine |
JP2017134558A (en) * | 2016-01-27 | 2017-08-03 | ソニー株式会社 | Information processor, information processing method, and computer-readable recording medium recorded with program |
JP2017213191A (en) * | 2016-05-31 | 2017-12-07 | 富士通株式会社 | Sight line detection device, sight line detection method and sight line detection program |
JP2016185375A (en) * | 2016-06-28 | 2016-10-27 | 株式会社Jvcケンウッド | Diagnosis support device, diagnosis support method and diagnosis support program |
JP2016187589A (en) * | 2016-07-04 | 2016-11-04 | 株式会社Jvcケンウッド | Gaze point detector and gaze point detection method |
JP2019095892A (en) * | 2017-11-20 | 2019-06-20 | シャープ株式会社 | Vehicle drive supporting device and vehicle drive supporting program |
JP2020018470A (en) * | 2018-07-31 | 2020-02-06 | 株式会社Jvcケンウッド | Visual line detection device, visual line detection method, and visual line detection program |
JP2020032077A (en) * | 2018-08-31 | 2020-03-05 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
JP2020032078A (en) * | 2018-08-31 | 2020-03-05 | 株式会社Jvcケンウッド | Evaluation device, evaluation method, and evaluation program |
Also Published As
Publication number | Publication date |
---|---|
JP7521220B2 (en) | 2024-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20170344110A1 (en) | Line-of-sight detector and line-of-sight detection method | |
JP2019040642A (en) | Face authentication apparatus, face authentication method, and program | |
JP6780767B2 (en) | Inspection support device, inspection support method and program | |
JP5674465B2 (en) | Image processing apparatus, camera, image processing method and program | |
US11574399B2 (en) | Abnormal state detection device, abnormal state detection method, and recording medium | |
JP2017162103A (en) | Inspection work support system, inspection work support method, and inspection work support program | |
JP2017161301A (en) | Sperms simple test kit, system, and method for sperms simple test | |
US20200134317A1 (en) | Measurement data collection device and program | |
EP3136724A1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
JPWO2021119212A5 (en) | ||
US20190026909A1 (en) | Monitoring device and monitoring system | |
WO2018146959A1 (en) | System, information processing device, information processing method, program, and recording medium | |
CN112073640B (en) | Panoramic information acquisition pose acquisition method, device and system | |
WO2018100631A1 (en) | Information processing apparatus | |
JP6858007B2 (en) | Image processing system, image processing method | |
JP2021157523A (en) | Image processing device, image processing method and program | |
JP2016149678A (en) | Camera calibration unit, camera calibration method and camera calibration program | |
JPWO2018158815A1 (en) | Inspection support device, inspection support method and program | |
JP2019045285A (en) | Measurement support system | |
JP2013156909A (en) | Shape model generation device and pre-and-post work corresponding image determination system | |
KR20130079962A (en) | Method of displaying post-it contents using augmented reality and apparatus using the same | |
JP2018032991A (en) | Image display unit, image display method and computer program for image display | |
WO2016130428A1 (en) | Ophthalmic image capture systems and methods | |
CN114766027A (en) | Information processing method, information processing apparatus, and control program | |
CN111481177A (en) | Head-mounted device, screen projection system and method, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240422 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240624 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7521220 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |