JP2019197369A - 推定方法、推定プログラム及び推定装置 - Google Patents
推定方法、推定プログラム及び推定装置 Download PDFInfo
- Publication number
- JP2019197369A JP2019197369A JP2018090711A JP2018090711A JP2019197369A JP 2019197369 A JP2019197369 A JP 2019197369A JP 2018090711 A JP2018090711 A JP 2018090711A JP 2018090711 A JP2018090711 A JP 2018090711A JP 2019197369 A JP2019197369 A JP 2019197369A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- screen
- line
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000003993 interaction Effects 0.000 claims abstract description 164
- 238000005259 measurement Methods 0.000 claims abstract description 16
- 230000004424 eye movement Effects 0.000 claims description 59
- 230000004886 head movement Effects 0.000 claims description 27
- 230000002542 deteriorative effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 78
- 230000008859 change Effects 0.000 description 56
- 238000012545 processing Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 210000003128 head Anatomy 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 18
- 210000005252 bulbus oculi Anatomy 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 15
- 238000007796 conventional method Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 7
- 238000012937 correction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/279—Bioelectric electrodes therefor specially adapted for particular uses
- A61B5/297—Bioelectric electrodes therefor specially adapted for particular uses for electrooculography [EOG]: for electroretinography [ERG]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Child & Adolescent Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Eye Examination Apparatus (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
まず、本発明の実施の形態1について説明する。図1は、実施の形態1における推定システムの構成の一例を示す図である。
推定装置10は、ユーザインタフェースであるマウス11aやキーボード11b、及び、ユーザによるユーザインタフェースの操作に応じた画面画像を表示するディスプレイ12aと接続する。
次に、推定装置10の構成について説明する。図2は、図1に示す推定装置10の構成の一例を示すブロック図である。図1に示すように、推定装置10は、入力装置11及び表示装置12と接続する。そして、推定装置10は、通信部13、記憶部14及び制御部15を有する。
推定装置10の各処理について説明する。まず、ユーザは、表示装置12の画面を見ながら作業を行う。センサ4は、ユーザの眼球周辺に接触している電極3を通して、眼電位の時系列的変化を計測する。センサ4による計測結果は、眼電位情報取得部151によって取得される。ここでは、あるインタラクションX発生時刻から次のインタラクションX+1発生時刻までの間の眼電位の合計変化量をΔ(X〜X+1)として説明する。
次に、視線位置推定部155の処理について説明する。視線位置推定部155は、関数Fが完成した段階で、視線の位置推定を開始する。本実施の形態1では、視線位置推定を行う時刻に最も近い過去のインタラクションmの発生時に、インタラクションmの画面上の対象位置P(m)に視線位置が存在していたとみなす。
次に、注視チェック部153の処理について説明する。ところで、ユーザは必ずしも画面上のインタラクション対象を注視しながらインタラクションを行うわけではない。例えば、ユーザは、マウスカーソルを先にボタンの位置に置いておき、別の場所を見ながらクリックすることもある。それにもかかわらず、全てのインタラクションに関して、視線位置推定処理を行うと、誤った視線位置が推定されてしまう。
続いて、関数生成部1542は、更新されたデータセット記憶部144のデータセットを基に関数Fのパラメータを更新する。そして、視線移動量計算部1543は、この関数Fを用いて、ユーザの眼球運動量に対応する画面上の視線移動量F(Δ(n〜now))を計算する。続いて、視線位置推定部155は、ユーザの視線位置P(now)直前のインタラクション対象の位置P(n)に、視線移動量F(Δ(n〜now))を加算して、ユーザの視線位置P(now)を推定する。
次に、推定装置10による推定処理の処理手順について説明する。図8は、実施の形態1に係る推定処理の処理手順を示すフローチャートである。
このように、実施の形態1に係る推定装置10は、ユーザの願電波情報に変化量を取得してユーザの画面上の視線移動量を相対的に取得する。そして、推定装置10は、ユーザの操作によるデバイス上でのインタラクションに対応する画面上のインタラクション対象の位置情報(絶対値)を取得する。続いて、推定装置10は、画面上の視線移動量(相対値)と、画面上のインタラクション対象の位置情報(絶対値)とを基に、ユーザの画面上での現時刻での視線位置を推定する。具体的には、推定装置10は、画面上の視線移動量(相対値)を、画面上のインタラクション対象の位置情報(絶対値)に加算して、ユーザの画面上での現時刻での視線位置を推定する。
本実施の形態1の変形例として、注視チェック部153は、注視チェック処理(ステップS6)において、インタラクションに対応する注視を検出する際に、この処理の実行タイミングを調節しても用いてもよい。注視チェック部153は、注視チェック処理を、ユーザの眼球運動の停止に関する特徴的な情報に基づくタイミングで実行する。
また、注視チェック部153は、注視チェック処理において、閾値Lとして、定められた値を静的に用いるのではなく、関数Fの信頼度に応じて、閾値Lを適応的に変化させてもよい。例えば、推定を開始してすぐのモデルは、注視対象とインタラクション対象が一致しているかどうか厳密には問われずに生成される。このため、推定を開始してすぐの場合は、関数Fの精度がそれほどよくないと考えられるので、注視チェック部153は、閾値Lを比較的大きめにとっておき、回数を追うごとに一定値に達するまで閾値Lの値を下げていってもよい。
次に、実施の形態2について説明する。実施の形態2は、眼電位センサの他に頭部の運動量を計測するセンサの検出結果を用いて、データセットの更新による関数Fのパラメータ更新では吸収しきれない短い時間単位で発生する姿勢変化に対応する。
次に、推定装置210による推定処理の処理手順について説明する。図11は、実施の形態2に係る推定処理の処理手順を示すフローチャートである。
このように、実施の形態2では、頭部運動情報を取得し、眼球の運動量に加えて、眼球が存在している頭部そのものの運動量についても考慮して視線推定を行うことができる。したがって、実施の形態2によれば、実施の形態1と比して、さらに、頭部を移動しながらの視線移動に対応することができるという効果を奏する。
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。本実施の形態に係る推定装置10,210は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。
図11は、プログラムが実行されることにより、推定装置10,210が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
4 センサ
10,210 推定装置
11 入力装置
11a マウス
11b キーボード
12 表示装置
12a ディスプレイ
13 通信部
14 記憶部
15,215 制御部
141 眼電位情報記憶部
142 インタラクション記憶部
143 推定位置記憶部
144 データセット記憶部
145 パラメータ記憶部
151 眼電位情報取得部
152 インタラクション位置取得部
153 注視チェック部
154,2154 視線移動量取得部
155 視線位置推定部
1541,21541 データセット保存部
1542,21542 関数生成部
1543,21543 視線移動量計算部
2141 頭部運動情報記憶部
Claims (8)
- 推定装置に実行させる推定方法であって、
ユーザの眼電位の計測値に基づいて該ユーザの眼球運動の情報を取得する第1の取得工程と、
前記ユーザの操作によるデバイス上でのインタラクションに対応する画面上のインタラクション対象の位置情報を取得する第2の取得工程と、
少なくとも前記ユーザの眼球運動の情報に基づいて、前記ユーザの視線の相対運動に関する情報を取得する第3の取得工程と、
前記ユーザの視線の相対運動に関する情報と、前記画面上のインタラクション対象の位置情報とを基に、前記ユーザの画面上での視線位置を推定する推定工程と、
を含んだことを特徴とする推定方法。 - 前回推定されたユーザの画面上での視線位置と、新規インタラクションに対応する画面上のインタラクション対象の位置との間の距離である第1の距離が、所定の閾値以下であるか否かを判定する判定工程をさらに含み、
前記推定工程は、前記判定工程において前記第1の距離が所定の閾値以下であると判定された場合には、前記新規インタラクションに対応する画面上のインタラクション対象の位置情報と、該位置情報に対応する前記ユーザの視線の相対運動に関する情報とを基に前記ユーザの画面上での視線位置を推定し、前記判定工程において前記第1の距離が所定の閾値より大きいと判定された場合に、前記新規インタラクションの一つ前の判定工程において前記第1の距離が所定の閾値以下であると判定された画面上のインタラクション対象の位置情報と、該位置情報に対応する前記ユーザの視線の相対運動に関する情報とを基に前記ユーザの画面上での視線位置を推定することを特徴とする請求項1に記載の推定方法。 - 前記判定工程は、前記ユーザの眼球運動の停止に関する特徴的な情報に基づくタイミングで実行することを特徴とする請求項2に記載の推定方法。
- 前記第3の取得工程は、
前記ユーザの眼球運動の情報及び前記画面上のインタラクション対象の位置情報をデータセットに保存する保存工程と、
前記データセットに存在する、前記ユーザの眼球運動の情報及び前記画面上のインタラクション対象の位置情報を基に、前記ユーザの眼球運動量に対応する画面上の視線移動量を取得する第4の取得工程と、
を含んだことを特徴とする請求項2または3に記載の推定方法。 - 前記保存工程は、前記判定工程において前記第1の距離が所定の閾値以下であると判定された前記新規インタラクションにおける画面上のインタラクション対象の位置情報と、前記新規インタラクションに対応する眼球運動の情報とを、その時点の前記データセットに含めることを特徴とする請求項4に記載の推定方法。
- 前記ユーザの頭部の移動に関する計測値に基づいて該ユーザの頭部移動情報を取得する第5の取得工程をさらに含み、
前記第4の取得工程は、前記ユーザの眼球運動の情報及び前記画面上のインタラクション対象の位置情報とともに、前記ユーザの頭部移動情報を用いて、前記画面上の視線移動量を取得することを特徴とする請求項4に記載の推定方法。 - ユーザの眼電位の計測値に基づいて該ユーザの眼球運動の情報を取得するステップと、
前記ユーザの操作によるデバイス上でのインタラクションに対応する画面上のインタラクション対象の位置情報を取得するステップと、
少なくとも前記ユーザの眼球運動の情報に基づいて、前記ユーザの視線の相対運動に関する情報を取得するステップと、
前記ユーザの視線の相対運動に関する情報と、前記画面上のインタラクション対象の位置情報とを基に、前記ユーザの画面上での視線位置を推定するステップと、
をコンピュータに実行させるための推定プログラム。 - ユーザの眼電位の計測値に基づいて該ユーザの眼球運動の情報を取得する第1の取得部と、
前記ユーザの操作によるデバイス上でのインタラクションに対応する画面上のインタラクション対象の位置情報を取得する第2の取得部と、
少なくとも前記ユーザの眼球運動の情報に基づいて、前記ユーザの視線の相対運動に関する情報を取得する第3の取得部と、
前記ユーザの視線の相対運動に関する情報と、前記画面上のインタラクション対象の位置情報とを基に、前記ユーザの画面上での視線位置を推定する推定部と、
を有することを特徴とする推定装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090711A JP6911809B2 (ja) | 2018-05-09 | 2018-05-09 | 推定方法、推定プログラム及び推定装置 |
PCT/JP2019/018623 WO2019216387A1 (ja) | 2018-05-09 | 2019-05-09 | 推定方法、推定プログラム及び推定装置 |
US17/052,458 US11435822B2 (en) | 2018-05-09 | 2019-05-09 | Estimation method, estimation program, and estimation device |
CN201980030494.9A CN112106012A (zh) | 2018-05-09 | 2019-05-09 | 估计方法、估计程序以及估计装置 |
EP19799138.3A EP3779646B1 (en) | 2018-05-09 | 2019-05-09 | Estimation method, estimation program, and estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018090711A JP6911809B2 (ja) | 2018-05-09 | 2018-05-09 | 推定方法、推定プログラム及び推定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019197369A true JP2019197369A (ja) | 2019-11-14 |
JP6911809B2 JP6911809B2 (ja) | 2021-07-28 |
Family
ID=68468173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018090711A Active JP6911809B2 (ja) | 2018-05-09 | 2018-05-09 | 推定方法、推定プログラム及び推定装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11435822B2 (ja) |
EP (1) | EP3779646B1 (ja) |
JP (1) | JP6911809B2 (ja) |
CN (1) | CN112106012A (ja) |
WO (1) | WO2019216387A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014211794A (ja) * | 2013-04-19 | 2014-11-13 | 株式会社ニコン | 視線検出装置 |
JP2017049775A (ja) * | 2015-09-01 | 2017-03-09 | 株式会社東芝 | メガネ型ウエアラブル端末およびこの端末を用いる方法 |
US20180120934A1 (en) * | 2016-11-01 | 2018-05-03 | Fujitsu Limited | Non-transitory computer-readable storage medium, calibration device, and calibration method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5360971A (en) * | 1992-03-31 | 1994-11-01 | The Research Foundation State University Of New York | Apparatus and method for eye tracking interface |
US5689619A (en) * | 1996-08-09 | 1997-11-18 | The United States Of America As Represented By The Secretary Of The Army | Eyetracker control of heads-up displays |
GB2348520B (en) * | 1999-03-31 | 2003-11-12 | Ibm | Assisting user selection of graphical user interface elements |
US8793620B2 (en) * | 2011-04-21 | 2014-07-29 | Sony Computer Entertainment Inc. | Gaze-assisted computer interface |
CN101681201B (zh) * | 2008-01-25 | 2012-10-17 | 松下电器产业株式会社 | 脑波接口系统、脑波接口装置、方法 |
JP5613528B2 (ja) * | 2009-11-12 | 2014-10-22 | パナソニック株式会社 | 眼電位計測装置、眼科診断装置、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがね、眼電位計測方法、及びプログラム |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
KR20140011204A (ko) | 2012-07-18 | 2014-01-28 | 삼성전자주식회사 | 컨텐츠 제공 방법 및 이를 적용한 디스플레이 장치 |
GB2504492A (en) * | 2012-07-30 | 2014-02-05 | John Haddon | Gaze detection and physical input for cursor symbol |
JP2014064784A (ja) * | 2012-09-26 | 2014-04-17 | Renesas Microsystem:Kk | 視線検出装置、視線検出方法及びプログラム |
US10871874B2 (en) * | 2018-05-09 | 2020-12-22 | Mirametrix Inc. | System and methods for device interaction using a pointing device and attention sensing device |
-
2018
- 2018-05-09 JP JP2018090711A patent/JP6911809B2/ja active Active
-
2019
- 2019-05-09 WO PCT/JP2019/018623 patent/WO2019216387A1/ja unknown
- 2019-05-09 CN CN201980030494.9A patent/CN112106012A/zh active Pending
- 2019-05-09 EP EP19799138.3A patent/EP3779646B1/en active Active
- 2019-05-09 US US17/052,458 patent/US11435822B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014211794A (ja) * | 2013-04-19 | 2014-11-13 | 株式会社ニコン | 視線検出装置 |
JP2017049775A (ja) * | 2015-09-01 | 2017-03-09 | 株式会社東芝 | メガネ型ウエアラブル端末およびこの端末を用いる方法 |
US20180120934A1 (en) * | 2016-11-01 | 2018-05-03 | Fujitsu Limited | Non-transitory computer-readable storage medium, calibration device, and calibration method |
Also Published As
Publication number | Publication date |
---|---|
EP3779646B1 (en) | 2023-01-11 |
WO2019216387A1 (ja) | 2019-11-14 |
JP6911809B2 (ja) | 2021-07-28 |
EP3779646A4 (en) | 2022-01-05 |
US20210048882A1 (en) | 2021-02-18 |
CN112106012A (zh) | 2020-12-18 |
US11435822B2 (en) | 2022-09-06 |
EP3779646A1 (en) | 2021-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9782069B2 (en) | Correcting systematic calibration errors in eye tracking data | |
US9727135B2 (en) | Gaze calibration | |
Feit et al. | Toward everyday gaze input: Accuracy and precision of eye tracking and implications for design | |
EP3005030B1 (en) | Calibrating eye tracking system by touch input | |
US8914254B2 (en) | Latency measurement | |
EP2940555B1 (en) | Automatic gaze calibration | |
US9965031B2 (en) | System and method for probabilistic object tracking over time | |
US9001006B2 (en) | Optical-see-through head mounted display system and interactive operation | |
US20190310755A1 (en) | Coordinate correction apparatus | |
JP2012065781A (ja) | 視線検出装置および補正係数算出プログラム | |
US20170068316A1 (en) | Input device using eye-tracking | |
AU2015296666B2 (en) | Reflection-based control activation | |
US11789528B1 (en) | On-the-fly calibration for improved on-device eye tracking | |
CN112835455A (zh) | 一种预测手写笔绘制点的方法和设备 | |
CN109389082B (zh) | 视线采集方法、装置、系统、计算机可读存储介质 | |
Cattan et al. | A predictive approach for an end-to-end touch-latency measurement | |
US20150153834A1 (en) | Motion input apparatus and motion input method | |
Barz et al. | Computational modelling and prediction of gaze estimation error for head-mounted eye trackers | |
WO2019216387A1 (ja) | 推定方法、推定プログラム及び推定装置 | |
JP2020098405A (ja) | 監視システム、監視方法、およびプログラム | |
CN109917923B (zh) | 基于自由运动调整注视区域的方法以及终端设备 | |
CN114489412A (zh) | 用于对运动传感器进行偏置矫正的方法、装置和交互方法 | |
CN105807899B (zh) | 一种电子设备及信息处理方法 | |
US11836288B2 (en) | Distance estimation device, distance estimation method and distance estimation program | |
WO2018161421A1 (zh) | 终端设备的触摸显示屏幕的性能测试方法和性能测试装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6911809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |