JP2015514251A - 視線追跡の結果を評価する方法および装置 - Google Patents
視線追跡の結果を評価する方法および装置 Download PDFInfo
- Publication number
- JP2015514251A JP2015514251A JP2015500928A JP2015500928A JP2015514251A JP 2015514251 A JP2015514251 A JP 2015514251A JP 2015500928 A JP2015500928 A JP 2015500928A JP 2015500928 A JP2015500928 A JP 2015500928A JP 2015514251 A JP2015514251 A JP 2015514251A
- Authority
- JP
- Japan
- Prior art keywords
- moments
- visual
- assigned
- viewpoint
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
−異なる複数の視覚的事象を特定するために、注視方向および/または視点および/または目の動きにおける経時変化を評価する段階であって、少なくとも2つの異なるタイプの視覚的事象が認識され、それぞれのタイプに従って、特定された複数の視覚的事象が分類される段階。
−複数の瞬間を含む期間を複数の間隔に分割する段階であって、それぞれの視覚的事象の持続時間に対応する1つの間隔が、特定された複数の視覚的事象のそれぞれに割り当てられる段階。通常、これら複数の間隔の少なくともいくつかは、それぞれ一連の複数の瞬間を含んでいる。
−少なくとも1つの選択されたタイプの視覚的事象の1つの視覚的事象に対して割り当てられた複数の間隔のそれぞれから、複数の瞬間の正確に1つ、または複数の瞬間の真部分集合をそれぞれ選択する段階。
−これらの選択された複数の瞬間のそれぞれに対し、それぞれの瞬間に割り当てられたシーン画像中において特定された視点を、すなわち、視線追跡の結果によってこの瞬間に対して定義された視点を、参照画像において当該視点に対応する位置上に画像化する段階。
−特徴検出用アルゴリズムを用いて、参照画像中の複数の特有な特徴と、これら複数の特徴の位置とを特定すること。
−同じアルゴリズムまたは対応するアルゴリズムをシーン画像に対して適用することにより、それぞれのシーン画像においてこれら複数の特徴を特定すること、および、これら複数の特徴の位置を決定すること。
−シーン画像中の複数の特徴の位置を、参照画像中の対応する位置、すなわち、参照画像における対応する複数の特徴の位置に画像化する変換を決定すること。
−それぞれのシーン画像中にて特定された視点に対してこの変換を適用すること、によってである。
−異なる複数の視覚的事象を特定するために、注視方向および/または視点および/または目の動きにおける経時変化を評価すること、および、少なくとも2つの異なるタイプの視覚的事象を認識し、また、それぞれのタイプに従って、特定された複数の視覚的事象を分類すること。
−それぞれの視覚的事象の持続時間に対応する1つの間隔が、特定された複数の視覚的事象のそれぞれに割り当てられるように、複数の瞬間を含む期間を通常は離散的な複数の間隔に分割すること。
−選択されたタイプの1つの視覚的事象に対して割り当てられた複数の間隔から選択された複数の瞬間に対して、シーン画像中の視点を定義する情報を出力すること。
−そして、選択された複数の瞬間のそれぞれに対し、この瞬間に対して定義された視点の像として参照画像中の位置を格納すること。また、属性としてこの位置に割り当てられた、視覚的事象の持続時間またはこの瞬間が属する間隔に関する情報を、恐らくは、この視覚的事象に関する情報、例えば、始まりと終わりおよび/または視覚的事象の継続数に関する情報を有する追加の属性と一緒に格納することである。
−参照画像における複数の特有な特徴、およびこれら複数の特徴の複数の位置を、特徴検出用のアルゴリズムを用いて特定すること。
−同じアルゴリズムまたは対応するアルゴリズムをシーン画像に適用することにより、それぞれのシーン画像におけるこれら複数の特徴を特定すること、および、これら複数の特徴の複数の位置を決定すること。
−シーン画像における複数の特徴の複数の位置を、参照画像における対応する複数の特徴のこうして特定された複数の位置に画像化する変換を決定すること。
−この変換を、それぞれのシーン画像において特定された視点に対して適用すること、である。
−シーン画像10に対して同じアルゴリズムを適用することにより、それぞれのシーン画像10中にて、これら複数の特有な特徴を特定する段階、および、これら複数の特徴の複数の位置を決定する段階。
−ホモグラフィ変換であり、参照画像11におけるそれぞれの特徴のそのようにして特定された複数の位置に、シーン画像10中の複数の特徴の複数の位置を画像化するための変換を決定する段階。
−それぞれのシーン画像10において特定された視点12に対してこの変換を適用する段階、である。
Claims (17)
- 視線追跡の複数の結果を評価する方法であって、前記複数の結果は、連続した複数の瞬間のそれぞれに対し、一の瞬間において検出された注視方向、および、前記一の瞬間に割り当てられたシーン画像において結果的に特定された視点をそれぞれ定義する情報として存在するまたは取得され、複数の前記シーン画像は、異なる前記複数の瞬間に割り当てられた前記複数のシーン画像が異なるように時間依存性であり、前記方法は、
異なる複数の視覚的事象を特定するために、前記注視方向、前記視点、および、目の動きの少なくとも1つにおける経時変化を評価する段階であって、少なくとも2つの異なるタイプの複数の視覚的事象が認識され、前記特定された複数の視覚的事象がそれらのタイプに従って分類される段階と、
前記複数の視覚的事象のそれぞれの持続時間に対応する一の間隔が、前記特定された複数の視覚的事象のそれぞれに割り当てられるように、前記複数の瞬間を含む期間を複数の間隔に分割する段階と、
少なくとも1つの選択されたタイプの視覚的事象の一の視覚的事象に対して割り当てられた前記複数の間隔のそれぞれから、前記複数の瞬間の正確に1つ、または前記複数の瞬間の真部分集合をそれぞれ選択する段階と、
前記選択された複数の瞬間のそれぞれに対し、前記複数の瞬間のそれぞれに割り当てられた前記シーン画像において特定された前記視点を、参照画像において前記視点に対応する位置に画像化する段階と、
を備える方法。 - 評価の間、情報入力が実現される複数の視覚的事象と情報入力が実現されない複数の視覚的事象とは異なるタイプの視覚的事象として認識され、情報入力を有する視覚的事象に割り当てられた前記複数の間隔のそれぞれに対して、前記複数の瞬間の正確に1つの選択、または前記複数の瞬間の部分集合の選択がそれぞれ実現される、請求項1に記載の方法。
- (i)前記異なる複数の視覚的事象が、目の動きの異なる速度および振幅の少なくとも一方によって互いに区別される、(ii)衝動性眼球運動が、情報入力が実現されない視覚的事象として認識される、および、(iii)凝視および追従運動の少なくとも一方が、情報入力が実現される視覚的事象として認識される、の少なくとも1つである、請求項1または2に記載の方法。
- 選択されたタイプの視覚的事象に割り当てられた前記複数の間隔のそれぞれに対し、それぞれの前記視覚的事象の前記持続時間に関する情報と一緒に、前記参照画像における位置が画像化ターゲットとして格納され、
前記一の間隔から前記複数の瞬間の正確に1つが選択される場合、前記一の間隔から前記選択された瞬間に対して定義される前記視点が画像化される前記位置として、前記位置が選択される、
または、
複数の前記瞬間が前記一の間隔から選択される場合、前記一の間隔から選択された前記複数の瞬間に対して定義される複数の前記視点が画像化される複数の前記位置の1つとしてまたは複数の前記位置の平均として、前記位置が選択される、請求項1から請求項3のいずれか1項に記載の方法。 - 前記複数の瞬間における前記複数のシーン画像はカメラで記録され、前記注視方向は、前記複数のシーン画像における複数の前記視点を、前記注視方向に関する前記取得された情報の関数として決定する視線追跡器によって検出され、前記カメラは、好ましくは、自分の注視方向が前記視線追跡器を用いて検出される被験者の頭に着用される、請求項1から請求項4のいずれか1項に記載の方法。
- 前記参照画像は、固定された視点に対応する前記複数のシーン画像に見ることのできるシーン中の一の像である、または、前記複数のシーン画像中に検出されることのできる複数の特有な特徴の抽象的な模写または符号化である、請求項1から請求項5のいずれか1項に記載の方法。
- 前記選択された複数の瞬間のそれぞれに対し、前記参照画像中への前記視点の前記画像化の手動実行用または目視検査用に、前記一の瞬間に割り当てられた前記シーン画像がそれぞれ出力される、請求項1から請求項6のいずれか1項に記載の方法。
- 特徴検出用アルゴリズムを用いて、前記参照画像において、複数の特有な特徴および前記複数の特有な特徴の複数の位置を特定することと、
前記シーン画像に対して同じアルゴリズムまたは対応するアルゴリズムを適用することにより、それぞれの前記シーン画像において、前記複数の特有な特徴を特定すること、および、前記複数の特有な特徴の複数の位置を決定することと、
前記シーン画像中の前記複数の特有な特徴の前記複数の位置を、前記参照画像中の前記対応する複数の位置に画像化する変換を決定することと、
それぞれの前記シーン画像において特定された前記視点に対して前記変換を適用することと、により、
前記複数の位置への複数の前記視点の前記画像化が自動的に実現される、請求項1から請求項7のいずれか1項に記載の方法。 - 視線追跡の複数の結果を評価する装置であって、前記複数の結果は、連続した複数の瞬間のそれぞれに対し、一の瞬間において検出された注視方向、および、前記一の瞬間に割り当てられたシーン画像において結果的に特定された視点をそれぞれ定義する情報として存在する、または読み込むことができる、あるいは生成されることができ、複数の前記シーン画像は、異なる前記複数の瞬間に割り当てられた前記複数のシーン画像が異なるように時間依存性であり、前記装置は、
異なる複数の視覚的事象を特定するために、前記注視方向、前記視点、および目の動きの少なくとも1つにおける経時変化を評価すること、および、少なくとも2つの異なるタイプの複数の視覚的事象を認識すること、および、前記特定された複数の視覚的事象をそれらのタイプに従って分類することと、
前記複数の視覚的事象のそれぞれの持続時間に対応する一の間隔が、前記特定された複数の視覚的事象のそれぞれに割り当てられるように、前記複数の瞬間を含む期間を複数の間隔に分割することと、
選択されたタイプの一の視覚的事象に対して割り当てられた前記複数の間隔から選択された複数の瞬間に対して、前記シーン画像中の前記視点を定義する前記情報を出力することと、
前記選択された複数の瞬間のそれぞれに対し、前記一の瞬間に対して定義された前記視点の像として参照画像中の位置を格納すること、および、前記位置に割り当てられた情報であって、前記一の瞬間が属する前記一の視覚的事象または間隔の前記持続時間に関する情報を属性として格納することと、
を実行するために備えられる装置。 - 前記装置は、情報入力が実現される複数の視覚的事象と、情報入力が実現されない複数の視覚的事象とを、異なるタイプの視覚的事象として認識するために備えられる、請求項9に記載の装置。
- 前記装置は、前記期間を前記複数の間隔に分割するために、前記一の瞬間が前記複数の間隔または前記複数の視覚的事象のどれに属するかを示す属性を、前記複数の瞬間のそれぞれに対してそれぞれ割り当てるために備えられる、請求項9または請求項10に記載の装置。
- 前記装置は、(i)目の動きの異なる速度および振幅の少なくとも一方の関数として前記異なる複数の視覚的事象を特定するため、(ii)情報入力が実現されない視覚的事象として衝動性眼球運動を認識するため、および、(iii)情報入力が実現される視覚的事象として凝視および追従運動の少なくとも一方を認識するため、の少なくとも1つのために備えられる、請求項9から請求項11のいずれか1項に記載の装置。
- 前記装置は、前記選択された複数の瞬間に対して定義された複数の前記視点を、前記参照画像において、複数の前記視点に対応する複数の位置に自動的に画像化するため、および、複数の前記視点の複数の前記像として、決定された前記複数の位置を格納するために備えられる、請求項9から請求項12のいずれか1項に記載の装置。
- 前記参照画像における前記対応する複数の位置へと複数の前記視点を自動画像化するために、前記装置は、
特徴検出用アルゴリズムを用いて、前記参照画像中において、複数の特有な特徴および前記複数の特有な特徴の複数の位置を特定することと、
前記シーン画像に対して同じアルゴリズムまたは対応するアルゴリズムを適用することにより、それぞれの前記シーン画像において、前記複数の特有な特徴を特定すること、および、前記複数の特有な特徴の複数の位置を決定することと、
前記シーン画像中の前記複数の特有な特徴の前記複数の位置を、前記参照画像中の前記複数の特有な特徴それぞれの前記特定された複数の位置に画像化する変換を決定することと、
それぞれの前記シーン画像において特定された前記視点に対して前記変換を適用することと、
を実行するために備えられる、請求項13に記載の装置。 - 前記装置は、前記選択された複数の瞬間のそれぞれに対し、前記参照画像中の前記対応する位置を、複数の前記位置にそれぞれ割り当てられた前記属性と一緒に格納するために備えられ、前記属性は、前記位置を定義し、前記一の瞬間または前記一の瞬間に割り当てられた前記シーン画像に対して前記位置を関連付ける入力の関数として割り当てられている、請求項9から請求項12のいずれか1項に記載の装置。
- 前記装置は、前記選択された複数の瞬間自体を定義する入力用に、または、前記複数の間隔の関数として前記複数の瞬間を定義する仕様を適用することによる前記複数の瞬間の自動選択用に備えられる、請求項9から請求項15のいずれか1項に記載の装置。
- 前記複数のシーン画像を記録するためのカメラ、および、前記参照画像を記録するためのカメラのうちの少なくとも一方を有し、前記注視方向を検出するための視線追跡器をさらに備える、請求項9から請求項16のいずれか1項に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP12160878.0 | 2012-03-22 | ||
EP12160878.0A EP2642425A1 (de) | 2012-03-22 | 2012-03-22 | Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung |
PCT/EP2013/055953 WO2013139919A1 (de) | 2012-03-22 | 2013-03-21 | Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015514251A true JP2015514251A (ja) | 2015-05-18 |
JP6067093B2 JP6067093B2 (ja) | 2017-01-25 |
Family
ID=47902015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015500928A Expired - Fee Related JP6067093B2 (ja) | 2012-03-22 | 2013-03-21 | 視線追跡の結果を評価する方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9639745B2 (ja) |
EP (3) | EP2642425A1 (ja) |
JP (1) | JP6067093B2 (ja) |
CN (1) | CN104321785B (ja) |
IN (1) | IN2014DN08740A (ja) |
WO (1) | WO2013139919A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101848453B1 (ko) * | 2016-08-19 | 2018-04-13 | 서울대학교병원 | 헤드마운트 디스플레이를 이용한 안구의 소정 부위에 대한 촬영장치 |
KR101987229B1 (ko) * | 2018-12-10 | 2019-06-10 | 세종대학교산학협력단 | 돌출 기반 시각적 자극 및 시선 데이터 분석 방법 및 그 장치 |
JP2020128945A (ja) * | 2019-02-09 | 2020-08-27 | 株式会社ガゾウ | 目視検査トレーニング装置及びプログラム |
KR102354822B1 (ko) * | 2021-03-25 | 2022-01-24 | 박준 | 인공지능 빅데이터를 활용하는 안구 동작 검사 시스템 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102292017B (zh) * | 2009-01-26 | 2015-08-05 | 托比股份公司 | 由光学基准信号辅助的对凝视点的检测 |
EP2642425A1 (de) | 2012-03-22 | 2013-09-25 | SensoMotoric Instruments GmbH | Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung |
US9256784B1 (en) * | 2013-03-11 | 2016-02-09 | Amazon Technologies, Inc. | Eye event detection |
US9466130B2 (en) * | 2014-05-06 | 2016-10-11 | Goodrich Corporation | Systems and methods for enhancing displayed images |
US11586295B2 (en) * | 2015-01-12 | 2023-02-21 | Maximilian Ralph Peter von und zu Liechtenstein | Wink gesture control system |
CN112667069A (zh) | 2015-03-13 | 2021-04-16 | 苹果公司 | 用于自动识别眼睛追踪设备的至少一个用户的方法以及眼睛追踪设备 |
US11543487B2 (en) * | 2015-06-09 | 2023-01-03 | Nokia Technologies Oy | Causing performance of an active scan |
EP3332284A1 (de) * | 2015-08-07 | 2018-06-13 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten |
EP3316075B1 (en) * | 2016-10-26 | 2021-04-07 | Harman Becker Automotive Systems GmbH | Combined eye and gesture tracking |
KR102495234B1 (ko) | 2017-09-06 | 2023-03-07 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체 |
US10656706B2 (en) * | 2017-12-04 | 2020-05-19 | International Business Machines Corporation | Modifying a computer-based interaction based on eye gaze |
JP2019200481A (ja) * | 2018-05-14 | 2019-11-21 | 株式会社デンソーテン | 端末装置および収集方法 |
US11112865B1 (en) * | 2019-02-13 | 2021-09-07 | Facebook Technologies, Llc | Systems and methods for using a display as an illumination source for eye tracking |
CN113762907A (zh) * | 2020-10-13 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 一种审核对象的方法和装置 |
CN117137426B (zh) * | 2023-10-26 | 2024-02-13 | 中国科学院自动化研究所 | 基于微扫视特征监测的视野损伤评估训练方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004062883A (ja) * | 2003-06-18 | 2004-02-26 | Toshiba Corp | 情報処理装置 |
JP2004254876A (ja) * | 2003-02-25 | 2004-09-16 | Japan Science & Technology Agency | 運動機能補助装置及び方法 |
JP2007003462A (ja) * | 2005-06-27 | 2007-01-11 | Toyota Motor Corp | 視線認識装置、及び視線認識方法 |
US20090086165A1 (en) * | 2007-09-28 | 2009-04-02 | Beymer David James | System and method of detecting eye fixations using adaptive thresholds |
JP2012515579A (ja) * | 2009-01-26 | 2012-07-12 | トビー・テクノロジー・アーベー | 光学的参照の支援による注視点検出 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6381339B1 (en) * | 1997-01-15 | 2002-04-30 | Winton Emery Brown | Image system evaluation method and apparatus using eye motion tracking |
US6106119A (en) * | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
US6711293B1 (en) | 1999-03-08 | 2004-03-23 | The University Of British Columbia | Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image |
GB0229625D0 (en) * | 2002-12-19 | 2003-01-22 | British Telecomm | Searching images |
US9606621B2 (en) * | 2006-07-28 | 2017-03-28 | Philips Lighting Holding B.V. | Gaze interaction for information display of gazed items |
WO2008097933A1 (en) * | 2007-02-04 | 2008-08-14 | Miralex Systems Incorporated | Systems and methods for gaze tracking using multiple images |
CN101382940B (zh) * | 2008-10-23 | 2012-01-04 | 浙江大学 | 基于眼球跟踪的网页图像个性化搜索方法 |
WO2010118292A1 (en) * | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
CN101943982B (zh) | 2009-07-10 | 2012-12-12 | 北京大学 | 基于被跟踪的眼睛运动的图像操作 |
GB0915136D0 (en) * | 2009-08-28 | 2009-10-07 | Cambridge Entpr Ltd | Visual perimeter measurement system and method |
AU2011253982B9 (en) * | 2011-12-12 | 2015-07-16 | Canon Kabushiki Kaisha | Method, system and apparatus for determining a subject and a distractor in an image |
EP2642425A1 (de) | 2012-03-22 | 2013-09-25 | SensoMotoric Instruments GmbH | Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung |
-
2012
- 2012-03-22 EP EP12160878.0A patent/EP2642425A1/de not_active Withdrawn
-
2013
- 2013-03-21 US US14/387,026 patent/US9639745B2/en active Active
- 2013-03-21 EP EP16199536.0A patent/EP3168783B1/de active Active
- 2013-03-21 IN IN8740DEN2014 patent/IN2014DN08740A/en unknown
- 2013-03-21 WO PCT/EP2013/055953 patent/WO2013139919A1/de active Application Filing
- 2013-03-21 EP EP13710873.4A patent/EP2828794B1/de active Active
- 2013-03-21 CN CN201380026908.3A patent/CN104321785B/zh active Active
- 2013-03-21 JP JP2015500928A patent/JP6067093B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004254876A (ja) * | 2003-02-25 | 2004-09-16 | Japan Science & Technology Agency | 運動機能補助装置及び方法 |
JP2004062883A (ja) * | 2003-06-18 | 2004-02-26 | Toshiba Corp | 情報処理装置 |
JP2007003462A (ja) * | 2005-06-27 | 2007-01-11 | Toyota Motor Corp | 視線認識装置、及び視線認識方法 |
US20090086165A1 (en) * | 2007-09-28 | 2009-04-02 | Beymer David James | System and method of detecting eye fixations using adaptive thresholds |
JP2012515579A (ja) * | 2009-01-26 | 2012-07-12 | トビー・テクノロジー・アーベー | 光学的参照の支援による注視点検出 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101848453B1 (ko) * | 2016-08-19 | 2018-04-13 | 서울대학교병원 | 헤드마운트 디스플레이를 이용한 안구의 소정 부위에 대한 촬영장치 |
KR101987229B1 (ko) * | 2018-12-10 | 2019-06-10 | 세종대학교산학협력단 | 돌출 기반 시각적 자극 및 시선 데이터 분석 방법 및 그 장치 |
JP2020128945A (ja) * | 2019-02-09 | 2020-08-27 | 株式会社ガゾウ | 目視検査トレーニング装置及びプログラム |
KR102354822B1 (ko) * | 2021-03-25 | 2022-01-24 | 박준 | 인공지능 빅데이터를 활용하는 안구 동작 검사 시스템 |
Also Published As
Publication number | Publication date |
---|---|
EP2828794A1 (de) | 2015-01-28 |
EP3168783A1 (de) | 2017-05-17 |
CN104321785A (zh) | 2015-01-28 |
JP6067093B2 (ja) | 2017-01-25 |
EP2828794B1 (de) | 2017-01-04 |
EP3168783B1 (de) | 2020-08-19 |
CN104321785B (zh) | 2018-01-09 |
EP2642425A1 (de) | 2013-09-25 |
US9639745B2 (en) | 2017-05-02 |
US20150063635A1 (en) | 2015-03-05 |
WO2013139919A1 (de) | 2013-09-26 |
IN2014DN08740A (ja) | 2015-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6067093B2 (ja) | 視線追跡の結果を評価する方法および装置 | |
JP5841538B2 (ja) | 関心度推定装置および関心度推定方法 | |
US20200081524A1 (en) | Method and appartus for data capture and evaluation of ambient data | |
CN104919794B (zh) | 用于从主从式相机跟踪系统提取元数据的方法和系统 | |
US11314089B2 (en) | Method and device for evaluating view images | |
US11579686B2 (en) | Method and device for carrying out eye gaze mapping | |
CN107654406B (zh) | 风扇送风控制设备、风扇送风控制方法及装置 | |
JP7063393B2 (ja) | 教師データ拡張装置、教師データ拡張方法およびプログラム | |
JP2011258180A5 (ja) | ||
US10904429B2 (en) | Image sensor | |
US9672422B2 (en) | Pupil detection device and pupil detection method | |
US20070140543A1 (en) | Systems and methods for enhanced cytological specimen review | |
JP6583996B2 (ja) | 映像評価装置、及びプログラム | |
JP2013149050A (ja) | 注目対象特定装置、注目対象特定方法、及びプログラム | |
JP5356036B2 (ja) | モーションキャプチャにおけるグループトラッキング | |
CN111448589A (zh) | 用于检测患者的身体移动的设备、系统和方法 | |
US20120328150A1 (en) | Methods for assisting with object recognition in image sequences and devices thereof | |
KR20200062764A (ko) | 딥러닝 기반 혈관 구분 방법 및 시스템 | |
Jayawardena et al. | Automated filtering of eye gaze metrics from dynamic areas of interest | |
WO2012054048A1 (en) | Apparatus and method for evaluating an object | |
WO2012153868A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
TWI478099B (zh) | 具學習力之視覺注意預測系統及其方法 | |
JP5712401B2 (ja) | 行動監視システム、行動監視プログラム、及び行動監視方法 | |
KR102477231B1 (ko) | 응시 대상 관심도 검출 장치 및 방법 | |
KR20180015792A (ko) | 공포 심리 분석 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160121 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6067093 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
LAPS | Cancellation because of no payment of annual fees |