JP7339386B2 - 視線追跡方法、視線追跡装置、端末デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents
視線追跡方法、視線追跡装置、端末デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7339386B2 JP7339386B2 JP2022053479A JP2022053479A JP7339386B2 JP 7339386 B2 JP7339386 B2 JP 7339386B2 JP 2022053479 A JP2022053479 A JP 2022053479A JP 2022053479 A JP2022053479 A JP 2022053479A JP 7339386 B2 JP7339386 B2 JP 7339386B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- coordinate system
- gaze
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/13—Digital output to plotter ; Cooperation and interconnection of the plotter with other functional units
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Optics & Photonics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Eye Examination Apparatus (AREA)
Description
Claims (13)
- 視線追跡方法であって、
運転者の眼球状態画像である第一画像を取得することと、
事前に訓練された視線校正モデルに基づいて、前記第一画像に対応する世界座標系内の車外の注視領域を第一ターゲット領域として決定することと、を含み、
前記視線校正モデルは、
訓練サンプルがラベルポイントを注目しているときの運転者の眼球状態画像と、前記ラベルポイントの位置情報とを含む訓練サンプルセットを取得することと、
前記眼球状態画像を入力し、前記位置情報を出力として使用して、視線校正モデルを訓練して取得することと、を含むモデル訓練方法により得られ、
訓練サンプルセットを取得することは、
ヘッドアップディスプレイによって投影されて形成されたヘッドアップ表示画面に校正板を表示させることであって、前記校正板は異なる領域に事前に分割され、各領域はそれ自体の前記位置情報に対応しており、前記校正板の解像度は前記ヘッドアップディスプレイの解像度と一致するように構成される、ことと、
運転者の位置に座っている試験者が異なる領域を注目しているときの試験者の眼球状態画像を収集して、収集した眼球状態画像と対応する前記位置情報とを訓練サンプルとし、視線校正モデルを訓練するための訓練サンプルセットを得ることを含む、
視線追跡方法。 - 前述した事前に訓練された視線校正モデルに基づいて、前記第一画像に対応する世界座標系内の車外の注視領域を第一ターゲット領域として決定することは、
前記第一画像を事前に訓練された視線校正モデルに入力して、前記第一画像に対応する視線方向を取得することと、
前記視線方向に対応する世界座標系内の注視領域を決定することと、を含む、
請求項1に記載の方法。 - 前記方法は、
前記運転者が乗っている車両の周囲環境画像である第二画像を取得することと、
世界座標系と前記第二画像に対応する画像座標系との対応関係に基づいて、前記第一ターゲット領域に対応する前記第二画像内の第二ターゲット領域を決定することと、をさらに含む、
請求項1-2のいずれか一項に記載の方法。 - 前記方法は、
前記第二ターゲット領域内のポイントオブインタレストPOIオブジェクトを決定することと、
前記画像座標系とヘッドアップ表示画面に対応する表示座標系との対応関係に基づいて、前記ヘッドアップ表示画面内の前記POIオブジェクトのターゲット表示位置を決定することと、をさらに含む、
請求項3に記載の方法。 - 前述した前記第二ターゲット領域内のポイントオブインタレストPOIオブジェクトを決定することの後に、前記方法は、
前記車両の現在位置情報を取得することと、
前記現在位置情報に基づいて前記POIオブジェクトの属性情報を取得することと、
前記属性情報を前記ヘッドアップ表示画面内の前記POIオブジェクトに重畳表示することと、をさらに含み、
前記POIオブジェクトは、建物であり、前記POIオブジェクトの属性情報は、前記建物内の商業施設に関する商業情報である、
請求項4に記載の方法。 - 視線追跡装置であって、
運転者の眼球状態画像である第一画像を取得するように構成された第一取得モジュールと、
事前に訓練された視線校正モデルに基づいて、前記第一画像に対応する世界座標系内の車外の注視領域を第一ターゲット領域として決定するように構成された第一決定モジュールと、を含み、
前記視線追跡装置は、
訓練サンプルがラベルポイントを注目しているときの運転者の眼球状態画像と、前記ラベルポイントの位置情報とを含む訓練サンプルセットを取得するように構成された訓練サンプルセット取得モジュールと、
前記眼球状態画像を入力し、前記位置情報を出力として使用して、視線校正モデルを訓練して取得するように構成された訓練モジュールと、
前記訓練サンプルセット取得モジュールは、さらに、
ヘッドアップディスプレイによって投影されて形成されたヘッドアップ表示画面に校正板を表示させ、前記校正板は異なる領域に事前に分割され、各領域はそれ自体の前記位置情報に対応しており、前記校正板の解像度は前記ヘッドアップディスプレイの解像度と一致するように構成され、
運転者の位置に座っている試験者が異なる領域を注目しているときの試験者の眼球状態画像を収集して、収集した眼球状態画像と対応する前記位置情報とを訓練サンプルとし、視線校正モデルを訓練するための訓練サンプルセットを得る、ように構成される、
視線追跡装置。 - 前記第一決定モジュールは、
前記第一画像を事前に訓練された視線校正モデルに入力して、前記第一画像に対応する視線方向を取得するように構成された入力サブモジュールと、
前記視線方向に対応する世界座標系内の注視領域を決定するように構成された決定サブモジュールと、を含む、
請求項6に記載の装置。 - 前記装置は、
前記運転者が乗っている車両の周囲環境画像である第二画像を取得するように構成された第二取得モジュールと、
前記世界座標系と前記第二画像に対応する画像座標系との対応関係に基づいて、前記第一ターゲット領域に対応する前記第二画像内の第二ターゲット領域を決定するように構成された第二決定モジュールと、をさらに含む、
請求項6-7のいずれか一項に記載の装置。 - 前記装置は、
前記第二ターゲット領域内のポイントオブインタレストPOIオブジェクトを決定するように構成された第三決定モジュールと、
前記画像座標系とヘッドアップ表示画面に対応する表示座標系との対応関係に基づいて、前記ヘッドアップ表示画面内の前記POIオブジェクトのターゲット表示位置を決定するように構成された第四決定モジュールと、をさらに含む、
請求項8に記載の装置。 - 前記装置は、
前記車両の現在位置情報を取得するように構成された第三取得モジュールと、
前記現在位置情報に基づいて前記POIオブジェクトの属性情報を取得するように構成された第四取得モジュールと、
前記属性情報を前記ヘッドアップ表示画面内の前記POIオブジェクトに重畳表示するように構成された表示モジュールと、をさらに含み、
前記POIオブジェクトは、建物であり、前記POIオブジェクトの属性情報は、前記建物内の商業施設に関する商業情報である、
請求項9に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されたメモリと、を含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶しており、前記命令は、前記少なくとも1つのプロセッサが請求項1-5のいずれか一項に記載の方法を実行できるように前記少なくとも1つのプロセッサによって実行される、
端末デバイス。 - 請求項1-5のいずれか一項に記載の方法をコンピュータに実行させるためのコンピュータ命令を記憶する非一時的なコンピュータ可読記憶媒体。
- プロセッサによって実行されると、請求項1-5のいずれか一項に記載の方法を実行するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110709957.3A CN113420678A (zh) | 2021-06-25 | 2021-06-25 | 视线追踪方法、装置、设备、存储介质以及计算机程序产品 |
CN202110709957.3 | 2021-06-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022088529A JP2022088529A (ja) | 2022-06-14 |
JP7339386B2 true JP7339386B2 (ja) | 2023-09-05 |
Family
ID=77716691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022053479A Active JP7339386B2 (ja) | 2021-06-25 | 2022-03-29 | 視線追跡方法、視線追跡装置、端末デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220309702A1 (ja) |
EP (1) | EP4040405A3 (ja) |
JP (1) | JP7339386B2 (ja) |
KR (1) | KR20220054754A (ja) |
CN (1) | CN113420678A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114302054B (zh) * | 2021-11-30 | 2023-06-20 | 歌尔科技有限公司 | 一种ar设备的拍照方法及其ar设备 |
CN114067420B (zh) * | 2022-01-07 | 2023-02-03 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
CN115116039A (zh) * | 2022-01-14 | 2022-09-27 | 长城汽车股份有限公司 | 一种车辆座舱外视线追踪方法、装置、车辆和存储介质 |
CN114715175A (zh) * | 2022-05-06 | 2022-07-08 | Oppo广东移动通信有限公司 | 目标对象的确定方法、装置、电子设备以及存储介质 |
WO2023226034A1 (zh) * | 2022-05-27 | 2023-11-30 | 京东方科技集团股份有限公司 | 视线标定系统、方法、设备和非瞬态计算机可读存储介质 |
CN115097933A (zh) * | 2022-06-13 | 2022-09-23 | 华能核能技术研究院有限公司 | 专注度的确定方法、装置、计算机设备和存储介质 |
CN115830675B (zh) * | 2022-11-28 | 2023-07-07 | 深圳市华弘智谷科技有限公司 | 一种注视点跟踪方法、装置、智能眼镜及存储介质 |
CN115761249B (zh) * | 2022-12-28 | 2024-02-23 | 北京曼恒数字技术有限公司 | 一种图像处理方法、系统、电子设备及计算机程序产品 |
CN116597425B (zh) * | 2023-05-24 | 2024-04-05 | 无锡车联天下信息技术有限公司 | 一种驾驶员的样本标签数据的确定方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210183072A1 (en) | 2019-12-16 | 2021-06-17 | Nvidia Corporation | Gaze determination machine learning system having adaptive weighting of inputs |
US20210182609A1 (en) | 2019-12-16 | 2021-06-17 | Nvidia Corporation | Neural network based determination of gaze direction using spatial models |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0755941A (ja) * | 1993-08-11 | 1995-03-03 | Nissan Motor Co Ltd | 車間距離測定装置 |
JPH07257228A (ja) * | 1994-03-18 | 1995-10-09 | Nissan Motor Co Ltd | 車両用表示装置 |
JP6107590B2 (ja) * | 2013-10-16 | 2017-04-05 | 株式会社デンソー | ヘッドアップディスプレイ装置 |
KR101923672B1 (ko) * | 2015-06-15 | 2018-11-30 | 서울바이오시스 주식회사 | 헤드램프 장치 및 그 조명 제어 방법 |
CN109835260B (zh) * | 2019-03-07 | 2023-02-03 | 百度在线网络技术(北京)有限公司 | 一种车辆信息显示方法、装置、终端和存储介质 |
CN109917920B (zh) * | 2019-03-14 | 2023-02-24 | 阿波罗智联(北京)科技有限公司 | 车载投射处理方法、装置、车载设备及存储介质 |
CN110148224B (zh) * | 2019-04-04 | 2020-05-19 | 精电(河源)显示技术有限公司 | Hud图像显示方法、装置及终端设备 |
EP3828755B1 (en) * | 2019-11-29 | 2023-07-19 | Veoneer Sweden AB | Improved estimation of driver attention |
CN111767844B (zh) * | 2020-06-29 | 2023-12-29 | 阿波罗智能技术(北京)有限公司 | 用于三维建模的方法和装置 |
-
2021
- 2021-06-25 CN CN202110709957.3A patent/CN113420678A/zh active Pending
-
2022
- 2022-03-29 JP JP2022053479A patent/JP7339386B2/ja active Active
- 2022-04-15 KR KR1020220046677A patent/KR20220054754A/ko unknown
- 2022-06-15 EP EP22179224.5A patent/EP4040405A3/en not_active Withdrawn
- 2022-06-16 US US17/842,484 patent/US20220309702A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210183072A1 (en) | 2019-12-16 | 2021-06-17 | Nvidia Corporation | Gaze determination machine learning system having adaptive weighting of inputs |
US20210182609A1 (en) | 2019-12-16 | 2021-06-17 | Nvidia Corporation | Neural network based determination of gaze direction using spatial models |
Also Published As
Publication number | Publication date |
---|---|
CN113420678A (zh) | 2021-09-21 |
EP4040405A3 (en) | 2022-12-14 |
KR20220054754A (ko) | 2022-05-03 |
EP4040405A2 (en) | 2022-08-10 |
JP2022088529A (ja) | 2022-06-14 |
US20220309702A1 (en) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7339386B2 (ja) | 視線追跡方法、視線追跡装置、端末デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US11016297B2 (en) | Image generation apparatus and image generation method | |
US10832084B2 (en) | Dense three-dimensional correspondence estimation with multi-level metric learning and hierarchical matching | |
US11024014B2 (en) | Sharp text rendering with reprojection | |
KR102233052B1 (ko) | 혼합 현실의 등급을 매긴 정보 전달 | |
US20180031848A1 (en) | Binocular See-Through Augmented Reality (AR) Head Mounted Display Device Which is Able to Automatically Adjust Depth of Field and Depth Of Field Adjustment Method ThereforT | |
US9696798B2 (en) | Eye gaze direction indicator | |
KR102705789B1 (ko) | 컴퓨터 생성 현실 텍스트의 렌더링 | |
US20220358662A1 (en) | Image generation method and device | |
KR20160060582A (ko) | 시각 데이터를 처리하는 장치 및 방법, 및 관련된 컴퓨터 프로그램 제품 | |
CN114842120B (zh) | 一种图像渲染处理方法、装置、设备及介质 | |
US20220307855A1 (en) | Display method, display apparatus, device, storage medium, and computer program product | |
KR20200079748A (ko) | 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법 | |
Pourazar et al. | A comprehensive framework for evaluation of stereo correspondence solutions in immersive augmented and virtual realities | |
CN111914861A (zh) | 目标检测方法和装置 | |
US20240096023A1 (en) | Information processing method and device | |
Syed et al. | A Framework for Cardboard Based Augmented Reality | |
US20240062341A1 (en) | Projection method and electronic device | |
US12062211B1 (en) | Enhanced content positioning | |
EP4086102A2 (en) | Navigation method and apparatus, electronic device, readable storage medium and computer program product | |
CN117435041A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
CN117991889A (zh) | 信息交互方法、装置、电子设备和存储介质 | |
CN117745982A (zh) | 录制视频的方法、装置、系统、电子设备和存储介质 | |
CN115981544A (zh) | 基于扩展现实的交互方法、装置、电子设备和存储介质 | |
CN118037766A (zh) | 图像处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7339386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |