JP2022095787A - 表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム - Google Patents
表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2022095787A JP2022095787A JP2022059741A JP2022059741A JP2022095787A JP 2022095787 A JP2022095787 A JP 2022095787A JP 2022059741 A JP2022059741 A JP 2022059741A JP 2022059741 A JP2022059741 A JP 2022059741A JP 2022095787 A JP2022095787 A JP 2022095787A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- poi object
- poi
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000004590 computer program Methods 0.000 title claims abstract description 13
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 13
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
- G01C21/367—Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/909—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/65—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
- B60K35/654—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D43/00—Arrangements or adaptations of instruments
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Hardware Design (AREA)
- Automation & Control Theory (AREA)
- Bioinformatics & Computational Biology (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Graphics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- User Interface Of Digital Computer (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】運転者の視線に基づいて視線に対応するオブジェクトを表示する。【解決手段】本開示は、人工知能の技術分野、具体的にスマート交通および深層学習の技術分野に関する、表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラムを提供する。この方法の特定の実施形態は、運転者の眼球状態画像である第一画像を取得することと、運転者が乗っている車両の周囲環境画像である第二画像を取得することと、第一画像および第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定することと、POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示することと、を含む。【選択図】図2
Description
本開示は、コンピュータの分野、具体的にスマート交通や深層学習などの人工知能分野、特に表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラムに関する。
コンピュータ技術の急速な発展に伴い、AR(Augmented Reality、拡張現実)技術は広く使用されており、人間が見える現実の世界にデジタル画像をカバーすることによって、ARから投影された情報を現実の環境と融合する。
ヘッドアップディスプレイ(Head Up Display)は、ヘッドアップ表示装置とも呼ばれ、以下ではHUDと略称されており、現在、航空機の飛行補助機器に広く使用されている。ヘッドアップとは、パイロットが頭を下げずに必要で重要な情報を見ることができることを意味する。ヘッドアップディスプレイは、最初に軍用機に登場されており、飛行中に一般的に使用されるデータをパイロットの前方の飛行機用風防に直接投影することにより、パイロットが頭を下げて計器を検査する頻度を低減し、注意力が中断されて状態意識の管理が失われることを防止する。
本開示は、表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラムを提供する。
本開示の第一様態によれば、表示方法が提供される。この方法は、運転者の眼球状態画像である第一画像を取得することと、運転者が乗っている車両の周囲環境画像である第二画像を取得することと、第一画像および第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定することと、POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示することと、を含む。
本開示の第二様態によれば、表示装置が提供される。この装置は、運転者の眼球状態画像である第一画像を取得するように構成された第一取得モジュールと、運転者が乗っている車両の周囲環境画像である第二画像を取得するように構成された第二取得モジュールと、第一画像および第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定するように構成された第一決定モジュールと、POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示するように構成された第二決定モジュールと、を含む。
本開示の第三様態によれば、電子デバイスが提供される。この電子デバイスは、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信接続されたメモリと、を含み、このメモリは、少なくとも1つのプロセッサによって実行可能な命令を記憶し、この命令は、少なくとも1つのプロセッサが第一様態の任意の実施形態に記載の方法を実行できるように少なくとも1つのプロセッサによって実行される。
本開示の第四様態によれば、第一様態または第二様態の任意の実施形態に記載の方法をコンピュータに実行させるためのコンピュータ命令を記憶する非一時的なコンピュータ可読記憶媒体が提供される。
本開示の第五様態によれば、プロセッサによって実行されると、第一様態または第二様態の任意の実施形態に記載の方法を実行するコンピュータプログラムが提供される。
このセクションで説明される内容は、本開示の実施例の主要または重要な特徴を特定することを意図するものではなく、また、本開示の範囲を限定することを意図するものでもないことを理解されたい。本開示の他の特徴は、以下の説明から容易に理解されるであろう。
図面は、本実施例をより明確に理解するために使用されており、本開示を限定するものではない。ここで、
本開示が適用され得る例示的なシステムアーキテクチャ図である。
本開示に係る表示方法の一実施例のフローチャートである。
本開示に係る表示方法の別の実施例のフローチャートである。
本開示に係る表示方法のさらに別の実施例のフローチャートである。
本開示に係る表示方法のまたさらに別の実施例のフローチャートである。
本開示に係る表示装置の一実施例の構造概略図である。
本開示の実施例に係る表示方法を実行するための電子デバイスのブロック図である。
本開示の例示的な実施例は、理解を容易にするための本開示の実施例の様々な詳細を含む図面と併せて以下に説明され、単なる例示と見なされるべきである。従って、本開示の範囲および精神から逸脱することなく、本明細書に記載の実施例に対して様々な変更および修正を行うことができることは、当業者にとって理解されるであろう。同様に、明瞭性と簡潔性の観点から、公知の機能と構造に関する説明は、以下の説明において省略される。
なお、本開示の実施例および実施例の特徴は、矛盾しない限り、互いに組み合わせることができる。以下、図面および実施例を参照して本開示を詳細に説明する。
図1は、本開示の表示方法または表示装置の実施例が適用され得る例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末デバイス101、102、103、ネットワーク104、およびサーバ105を含み得る。ネットワーク104は、端末デバイス101、102、103とサーバ105との間の通信リンクを提供するための媒体である。ネットワーク104は、有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含み得る。
ユーザは、端末デバイス101、102、103を使用してネットワーク104を介してサーバ105と対話して、情報などを送受信することができる。端末デバイス101、102、103には、様々なクライアントアプリケーションがインストールされ得る。
端末デバイス101、102、103は、ハードウェアであり得るか、またはソフトウェアであり得る。端末デバイス101、102、103がハードウェアである場合、それらは、スマートフォン、タブレットコンピュータ、ラップトップポータブルコンピュータ、デスクトップコンピュータなどを含むがこれらに限定されない、様々な電子デバイスであり得る。端末デバイス101、102、103がソフトウェアである場合、それらは、上記電子デバイスにインストールされ得る。それらは、複数のソフトウェアまたはソフトウェアモジュールとして実装され得るか、または単一のソフトウェアまたはソフトウェアモジュールとして実装され得る。ここでは特に限定されない。
サーバ105は様々なサービスを提供することができる。例えば、サーバ105は、端末デバイス101、102、103から取得された第一画像および第二画像を分析して処理し、処理結果(例えば、POIオブジェクトおよびPOIオブジェクトのターゲット表示位置)を生成することができる。
なお、サーバ105は、ハードウェアであり得るか、またはソフトウェアであり得る。サーバ105がハードウェアである場合、それは、複数のサーバからなる分散型サーバクラスタとして実装され得るか、または単一のサーバとして実装され得る。サーバ105がソフトウェアである場合、それは、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散サービスを提供するためのもの)として実装され得るか、または単一のソフトウェアまたはソフトウェアモジュールとして実装され得る。ここでは特に限定されない。
なお、本開示の実施例によって提供される表示方法が一般にサーバ105によって実行されるため、表示装置は、一般にサーバ105内に配置される。
図1中の端末デバイス、ネットワーク、およびサーバの数は、単なる例示であることを理解されたい。実際のニーズに応じて、端末デバイス、ネットワーク、およびサーバの数が任意に設定され得る。
さらに図2を参照すると、図2は、本開示に係る表示方法の一実施例のプロセス200を示す。この表示方法は、以下のステップを含む。
ステップ201:第一画像を取得する。
本実施例では、表示方法の実行主体(例えば、図1に示すサーバ105)は、運転者の眼球状態画像である第一画像を取得することができる。
第一画像は運転者が乗っている車両の画像センサによって収集され得、本実施例の画像センサはカメラセンサ(以下、カメラと略称される)であり、実際の状況に応じて他の画像センサが採用され得るが、本開示では特に限定されない。上記カメラは、運転者の眼球状態画像をリアルタイムで撮影することができる。
ステップ202:第二画像を取得する。
本実施例では、上記実行主体は、運転者が乗っている車両の周囲環境画像である第二画像を取得することができる。
第二画像は運転者が乗っている車両の別のカメラによって収集され得、即ち、運転者が乗っている車両には2つのカメラが取り付けられ得、1つは運転者の眼球状態画像を内部から収集することができ、もう1つは運転者が乗っている車両の周囲環境画像を外部から収集することができる。当然のことながら、実際の状況に応じてカメラの数が任意に設定されるが、本開示では特に限定されない。
第二画像は、この車両が走行する道路の両側の各建築物を含み得、障害物などをさらに含み得る。
ステップ203:第一画像および第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定する。
本実施例では、上記実行主体は、ステップ201によって取得された第一画像、およびステップ202によって取得された第二画像に基づいて、POI(Point of Interest、ポイントオブインタレスト)オブジェクトを決定することができる。地理情報システムでは、POIは、家屋、郵便ポスト、バス停留所などであり得る。
本実施例では、車両の走行中に、道路の両側には対応する多くの建築物または他の識別子があり、本実施例では、運転者の視線に基づいてPOIオブジェクトについての情報を表示し、POIオブジェクトを車両のフロントガラスに表示することにより、運転者が関連情報をより容易に取得できるようにする。従って、本実施例では、上記実行主体は、運転者の眼球状態を表す第一画像に基づいて、第二画像内のPOIオブジェクトを決定をすることができ、ここではPOIオブジェクトは運転者によって注目されたオブジェクトである。
なお、フロントガラス上のPOIオブジェクトの表示画面は、車両内のヘッドアップディスプレイによって投影されて形成され得、ヘッドアップディスプレイは、運転者が頭を下げたり振り返したりせずに時速、ナビゲーションなどの重要な運転情報を見ることができるように、時速、ナビゲーションなどの重要な運転情報を車両のフロントガラスに投影することができる。
ステップ204:POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示する。
本実施例では、上記実行主体は、POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示することができる。上記実行主体は、第二画像内のPOIオブジェクトの位置情報に基づいて、フロントガラス上の表示画面におけるPOIオブジェクトの位置情報を決定することができ、この位置情報は、POIオブジェクトの実位置情報(即ち、第二画像内の位置情報)に対応しなければならないので、POIオブジェクトを運転者により直感的で正確に表示することができる。
一例として、第一画像を分析することにより、運転者が乗っている車両の左前方を注目していると決定した場合、第二画像内の左上領域のオブジェクト(建築物)はPOIオブジェクトであり、フロントガラス上の表示画面におけるこのPOIオブジェクトのターゲット表示位置は左上でなければならない。
本開示の実施例によって提供される表示方法は、まず、運転者の眼球状態を表す第一画像を取得し、次に運転者が乗っている車両の周囲環境を表す第二画像を取得し、次に第一画像および第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定し、最後にPOIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示する。本開示は表示方法を提供する。この方法は、運転者の眼球状態画像および周囲環境画像に基づいて、POIオブジェクトおよび表示画面内のPOIオブジェクトのターゲット表示位置をリアルタイムで決定して、POIオブジェクトを運転者に表示することにより、運転者がPOIを手動で検索せずに運転者の視線に基づいてPOIオブジェクトを表示できるようにすることができるので、この方法は、車両走行中の利便性と安全性を確保する。
さらに図3を参照すると、図3は、本開示に係る表示方法の別の実施例のプロセス300を示す。この表示方法は、以下のステップを含む。
ステップ301:第一画像を取得する。
ステップ302:第二画像を取得する。
ステップ301-302は前記実施例のステップ201-202と基本的に一致しており、特定の実施形態には前記ステップ201-202の説明を参照することができるので、ここでは繰り返されない。
ステップ303:第一画像に基づいて運転者の視線方向を決定する。
本実施例では、表示方法の実行主体(例えば、図1に示すサーバ105)は、第一画像に基づいて運転者の視線方向を決定することができる。
運転者が運転している道路の両側の異なる建築物を注目しているとき、その視線方向が異なり、それに対応する眼球向き情報も異なるため、本実施例では、運転者の眼球状態を表す第一画像に基づいてこのときの運転者の眼球向き情報を決定して、運転者の視線方向を決定することができる。
ステップ304:視線方向に基づいて第二画像内のPOIオブジェクトを決定する。
本実施例では、上記実行主体は、ステップ303によって決定された運転者の視線方向に基づいて第二画像内のPOIオブジェクトを決定し、ヘッドアップ表示画面内のPOIオブジェクトのターゲット表示位置を決定することができ、このヘッドアップ表示画面はヘッドアップディスプレイによって投影された画面である。
第二画像は運転者が乗っている車両の周囲環境内の複数のオブジェクトを含むので、運転者が特定の方向または特定のオブジェクトを注目しているときに、その注目しているターゲットオブジェクトを決定する必要がある。
本実施例では、運転者の注目している方向を決定した後、運転者の注目している方向に対応する第二画像内の領域を決定することができ、この領域内のオブジェクトはPOIオブジェクトである。
本実施例のいくつかの代替実施形態では、ステップ304は、視線方向にはターゲットオブジェクトがあるか否かを判断することと、判断結果に基づいて第二画像内のPOIオブジェクトを決定することと、を含む。本実施形態では、運転者の視線方向には対応するターゲットオブジェクトがあるか否かを判断し、判断結果に基づいて第二画像内のPOIオブジェクトを決定することができるので、運転者の視線に基づいて視線に対応するオブジェクトについての情報を表示して、運転者の視線に基づくオブジェクト追跡を実現することができる。
ステップ305:POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示する。
ステップ305は前記実施例のステップ204と基本的に一致しており、特定の実施形態には前記ステップ204の説明を参照することができるので、ここでは繰り返されない。
図3から分かるように、図2に対応する実施例と比べて、本実施例の表示方法は、第一画像に基づいて運転者の視線方向を決定し、視線方向に基づいて第二画像内のPOIオブジェクトを決定することができるので、この表示方法は、視線方向に基づいてPOIオブジェクトを決定するステップを強調しており、決定された情報の精度を向上させることができ、適用範囲がより広い。
さらに図4を参照すると、図4は、本開示に係る表示方法のさらに別の実施例のプロセス400を示す。この表示方法は、以下のステップを含む。
ステップ401:第一画像を取得する。
ステップ402:第二画像を取得する。
ステップ403:第一画像に基づいて運転者の視線方向を決定する。
ステップ401-403は前記実施例のステップ301-303と基本的に一致しており、特定の実施形態には前記ステップ301-303の説明を参照することができるので、ここでは繰り返されない。
ステップ404:視線方向に基づいて世界座標系内の第一ターゲット領域を決定する。
本実施例では、表示方法の実行主体(例えば、図1に示すサーバ105)は、視線方向に基づいて世界座標系内の第一ターゲット領域を決定することができる。世界座標系は現実の世界での座標系である。運転者の視線方向を決定した後、視線方向に基づいて世界座標系内の第一ターゲット領域を決定することができる。例えば、運転者の視線方向が左前方であると決定した後、左前方に対応する世界座標系内の領域が第一ターゲット領域であると決定することができる。
ステップ405:世界座標系と第二画像に対応する画像座標系との対応関係に基づいて、第一ターゲット領域に対応する第二画像内の第二ターゲット領域を決定する。
本実施例では、上記実行主体は、世界座標系と第二画像に対応する画像座標系との対応関係に基づいて、第一ターゲット領域に対応する第二画像内の第二ターゲット領域を決定することができる。
第二画像が現実の環境内のオブジェクトを撮影した画像であるため、第二画像は世界座標系に対応しており、第二画像には画像座標系もある場合、世界座標系と第二画像に対応する画像座標系との対応関係に基づいて、第一ターゲット領域に対応する第二画像内の第二ターゲット領域を決定することができる。第二ターゲット領域は、運転者の視線方向に対応する第二画像内の領域である。
ステップ406:第二ターゲット領域にはターゲットオブジェクトがあるか否かを判断する。
本実施例では、上記実行主体は、第二ターゲット領域にはターゲットオブジェクトがあるか否か、即ち、運転者の視線方向には対応するターゲットオブジェクトがあるか否かを判断することができる。
第二ターゲット領域にはターゲットオブジェクトがある場合、ステップ407を実行するが、そうでない場合、ステップ408を実行する。
ステップ407:第二ターゲット領域にはターゲットオブジェクトがあり、運転者の視線がターゲットオブジェクトに所定時間滞在する場合、ターゲットオブジェクトをPOIオブジェクトとして決定する。
本実施例では、上記実行主体は、第二ターゲット領域にはターゲットオブジェクトがあり、運転者の視線がこのターゲットオブジェクトに所定時間滞在する場合、運転者がこのターゲットオブジェクトを注目していると決定し、このターゲットオブジェクトをPOIオブジェクトとして決定することができる。例えば、第二ターゲット領域には建築物があり、運転者の視線がこの建築物に2秒間滞在する場合、この建築物をPOIオブジェクトとして決定する。
ステップ408:所定のルールに基づいて第二画像内のPOIオブジェクトを決定する。
本実施例では、上記実行主体は、第二ターゲット領域にはターゲットオブジェクトがない場合、所定のルールに基づいて第二画像内のPOIオブジェクトを決定することができる。ここで、所定のルールは、第二画像内のすべてのオブジェクトをPOIオブジェクトとして設定するものであり得る。第二画像が1つ以上のオブジェクト(建築物)を含み得るので、第二画像内のすべてのオブジェクトは、POIオブジェクトとして事前に設定され得る。所定のルールは、運転者の履歴動作に基づいて第二画像内のPOIオブジェクトを選択するものでもあり得る。例えば、上記実行主体はこの運転者によって前に注目されたPOIオブジェクトがいずれもデパートであると決定した場合、上記実行主体は、第二画像内のデパートを現在のPOIオブジェクトとして選択することができる。当然のことながら、決定ルールは、実際のニーズに応じて設定され得るが、本開示では特に限定されない。
ステップ409:POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示する。
ステップ409は前記実施例のステップ305と基本的に一致しており、特定の実施形態には前記ステップ305の説明を参照することができるので、ここでは繰り返されない。
本実施例のいくつかの代替実施形態では、ステップ409は、画像座標系とヘッドアップ表示画面に対応する表示座標系との対応関係に基づいて、ヘッドアップ表示画面内のPOIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示することを含む。本実施例では、ヘッドアップ表示画面はヘッドアップディスプレイによって投影されて形成されており、ヘッドアップ表示画面には対応する表示座標系もあり、POIオブジェクトが第二画像内のオブジェクトであり、この表示座標系と第二画像に対応する画像座標系との間には対応関係もあるので、上記実行主体は、表示座標系と画像座標系との対応関係に基づいて、ヘッドアップ表示画面内のPOIオブジェクトのターゲット表示位置を決定して、このターゲット表示位置にこのPOIオブジェクトを表示することができる。
図4から分かるように、図3に対応する実施例と比べて、本実施例の表示方法は、運転者の視線方向にはターゲットオブジェクトがあるか否かに基づいて判断を実行し、判断結果に基づいて第二画像内のPOIオブジェクトを決定し、第二画像内のPOIオブジェクトの位置に基づいて、ヘッドアップ表示画面内のそのターゲット表示位置を決定し、最後にこのターゲット表示位置にこのPOIオブジェクトを表示することにより、運転者の視線に基づいて適切な表示を実行し、表示情報を実際のものと一致させ、運転者が情報をより容易に取得できるようにする。
さらに図5を参照すると、図5は、本開示に係る表示方法のまたさらに別の実施例のプロセス500を示す。この表示方法は、以下のステップを含む。
ステップ501:第一画像を取得する。
ステップ502:第二画像を取得する。
ステップ503:第一画像および第二画像に基づいてPOIオブジェクトを決定する。
ステップ501-503は前記実施例のステップ201-203と基本的に一致しており、特定の実施形態には前記ステップ201-203の説明を参照することができるので、ここでは繰り返されない。
ステップ504:車両の現在位置情報を取得する。
本実施例では、表示方法の実行主体(例えば、図1に示すサーバ105)は、車両の現在位置情報を取得することができる。ここで、現在位置情報は、車両上のGPS(Global Positioning System、タイミング測距ナビゲーション衛星の全地球測位システム)によって取得され得るか、または車両上のIMU(Inertial Measurement Unit、慣性計測装置)センサによって取得され得るが、本開示では特に限定されない。現在位置情報は、世界座標系内の現在位置の座標であり得る。
ステップ505:現在位置情報に基づいてPOIオブジェクトの属性情報を取得する。
本実施例では、上記実行主体は、ステップ504によって取得された現在位置情報に基づいてPOIオブジェクトの属性情報を取得することができる。例えば、現在位置の座標に基づいてこのPOIオブジェクトの属性情報を地図から取得することができる。ここで、属性情報は、POIオブジェクトの名称、カテゴリ情報などであり得る。例えば、POIオブジェクトがデパートである場合、その属性情報は、このデパートの名称、デパート内の店舗の活動推薦、活動の割引情報などの情報を含み得る。POIオブジェクトが運転者の興味のあるオブジェクトであるため、本実施例では、POIオブジェクトの属性情報を取得して、より包括的な情報を運転者にフィードバックすることもできる。
ステップ506:POIオブジェクトのターゲット表示位置を決定する。
本実施例では、上記実行主体は、POIオブジェクトのターゲット表示位置を決定することができる。
ステップ506は前記実施例のステップ204と基本的に一致しており、特定の実施形態には前記ステップ204の説明を参照することができるので、ここでは繰り返されない。
ステップ507:ターゲット表示位置にPOIオブジェクトを表示し、属性情報をPOIオブジェクトに重畳表示する。
本実施例では、上記実行主体は、ステップ506によって決定されたターゲット表示位置にこのPOIオブジェクトを表示することができる。上記実行主体は、ステップ505によって取得された属性情報をPOIオブジェクトに重畳表示することにより、これらの属性情報を現実の建物と融合して、拡張現実効果を達成することができる。例えば、POIオブジェクトがデパートである場合、上記実行主体は、このデパートをターゲット表示位置にレンダリングし、このデパートの名称、デパート内の活動情報などをこのPOIオブジェクトに重畳表示することができる。
図5から分かるように、図4に対応する実施例と比べて、本実施例の表示方法はまた、現在位置情報に基づいてPOIオブジェクトの属性情報を取得し、この属性情報をこのPOIオブジェクトに重畳表示することにより、これらの属性情報を現実の建物と融合して、拡張現実効果を達成する。
本開示の技術的解決手段に係るユーザ個人情報の取得、記憶、適用などはいずれも、関連法令の規定を満たしており、公序良俗に違反していない。
さらに図6を参照すると、上記の各図に示す方法の実施形態として、本開示は、図2に示す方法の実施例に対応する表示装置の実施例を提供する。この装置は、様々な電子デバイスに特に適用できる。
図6に示すように、本実施例の表示装置600は、第一取得モジュール601、第二取得モジュール602、第一決定モジュール603、および第二決定モジュール604を含み得る。ここで、第一取得モジュール601は、運転者の眼球状態画像である第一画像を取得するように構成される。第二取得モジュール602は、運転者が乗っている車両の周囲環境画像である第二画像を取得するように構成される。第一決定モジュール603は、第一画像および第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定するように構成される。第二決定モジュール604は、POIオブジェクトのターゲット表示位置を決定して、ターゲット表示位置にPOIオブジェクトを表示するように構成される。
本実施例では、表示装置600の第一取得モジュール601、第二取得モジュール602、第一決定モジュール603、および第二決定モジュール604の具体的な処理とその技術的効果については、それぞれ図2に対応する実施例のステップ201-204の関連説明を参照することができるので、ここでは繰り返さない。
本実施例のいくつかの代替実施形態では、第一決定モジュールは、第一画像に基づいて運転者の視線方向を決定するように構成された第一決定サブモジュールと、視線方向に基づいて第二画像内のPOIオブジェクトを決定するように構成された第二決定サブモジュールと、を含む。
本実施例のいくつかの代替実施形態では、第二決定サブモジュールは、視線方向にはターゲットオブジェクトがあるか否かを判断するように構成された判断ユニットと、判断結果に基づいて第二画像内のPOIオブジェクトを決定するように構成された決定ユニットと、を含む。
本実施例のいくつかの代替実施形態では、判断ユニットは、視線方向に基づいて世界座標系内の第一ターゲット領域を決定するように構成された第一決定サブユニットと、世界座標系と第二画像に対応する画像座標系との対応関係に基づいて、第一ターゲット領域に対応する第二画像内の第二ターゲット領域を決定するように構成された第二決定サブユニットと、第二ターゲット領域にはターゲットオブジェクトがあるか否かを判断するように構成された判断サブユニットと、を含む。
本実施例のいくつかの代替実施形態では、決定ユニットは、第二ターゲット領域にはターゲットオブジェクトがあり、運転者の視線がターゲットオブジェクトに所定時間滞在する場合、ターゲットオブジェクトをPOIオブジェクトとして決定するように構成された第三決定サブユニットと、そうでない場合、所定のルールに基づいて第二画像内のPOIオブジェクトを決定するように構成された第四決定サブユニットと、を含む。
本実施例のいくつかの代替実施形態では、第二決定モジュールは、画像座標系とヘッドアップ表示画面に対応する表示座標系との対応関係に基づいて、ヘッドアップ表示画面内のPOIオブジェクトのターゲット表示位置を決定するように構成された第三決定サブモジュールを含む。
本実施例のいくつかの代替実施形態では、上記表示装置は、車両の現在位置情報を取得するように構成された第三取得モジュールと、現在位置情報に基づいてPOIオブジェクトの属性情報を取得するように構成された第四取得モジュールと、をさらに含み、第二決定モジュールは、ターゲット表示位置にPOIオブジェクトを表示するように構成された第一表示サブモジュールと、属性情報をPOIオブジェクトに重畳表示するように構成された第二表示サブモジュールと、を含む。
本開示の実施例によれば、本開示は、電子デバイス、可読記憶媒体、およびコンピュータプログラム製品をさらに提供する。
図7は、本開示の実施例を実施するために使用され得る例示的な電子デバイス700の概略ブロック図を示す。電子デバイスは、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、およびその他の適切なコンピュータなど、様々な形態のデジタルコンピュータを表すことを意図する。電子デバイスは、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブルデバイス、および他の同様のコンピューティングデバイスなど、様々な形態のモバイルデバイスを表すこともできる。本明細書に示されるコンポーネント、それらの接続と関係、およびそれらの機能は単なる例示であり、本明細書に説明および/または請求される本開示の実施形態を限定することを意図したものではない。
図7に示すように、デバイス700は、リードオンリメモリ(ROM)702に記憶されたコンピュータプログラム、または記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに従って、各種の適切な動作および処理を実行することができる計算ユニット701を含む。RAM703には、デバイス700の動作に必要な各種のプログラムおよびデータも記憶され得る。計算ユニット701、ROM702、およびRAM703は、バス704を介して互いに接続される。入力/出力(I/O)インターフェース705も、バス704に接続される。
デバイス700内の複数のコンポーネントは、I/Oインターフェース705に接続されており、キーボード、マウスなどの入力ユニット706と、各種のディスプレイ、スピーカーなどの出力ユニット707と、磁気ディスク、光ディスクなどの記憶ユニット708と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709と、を含む。通信ユニット709は、デバイス700が、インターネットなどのコンピュータネットワーク、および/または様々な通信ネットワークを介して、他の装置との間で情報/データを交換することを可能にする。
計算ユニット701は、処理能力および計算能力を備えた様々な汎用および/または専用の処理コンポーネントであり得る。計算ユニット701のいくつかの例は、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用の人工知能(AI)計算チップ、機械学習モデルアルゴリズムを実行する様々な計算ユニット、デジタル信号プロセッサ(DSP)、任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット701は、上記様々な方法および処理、例えば、表示方法を実行する。例えば、いくつかの実施例では、表示方法は、記憶ユニット708などの機械可読媒体に具体的に含まれるコンピュータソフトウェアプログラムとして実装され得る。いくつかの実施例では、コンピュータプログラムの一部または全部は、ROM702および/または通信ユニット709を介して、デバイス700にロードおよび/またはインストールされ得る。コンピュータプログラムがRAM703にロードされ、計算ユニット701によって実行されると、上記表示方法の1つまたは複数のステップが実行され得る。あるいは、他の実施例では、計算ユニット701は、他の任意の適切な手段(例えば、ファームウェア)を介して、表示方法を実行するように構成され得る。
本明細書に記載のシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途用標準品(ASSP)、システムオンチップ(SOC)、ロードプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実装され得る。これらの様々な実施形態は、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび命令を受信したり、この記憶システム、この少なくとも1つの入力装置、およびこの少なくとも1つの出力装置にデータおよび命令を送信したりすることができる専用又は汎用のプログラマブルプロセッサであり得る少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行および/または解釈され得る1つまたは複数のコンピュータプログラムに実装されることを含み得る。
本開示の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語の任意の組み合わせで書かれ得る。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラマブル表示装置のプロセッサまたはコントローラに提供され得るので、プログラムコードがプロセッサまたはコントローラによって実行されると、フローチャートおよび/またはブロック図で指定された機能/動作が実行される。プログラムコードは、完全にマシン上で実行され得るか、または部分的にマシン上で実行され得るか、または独立したソフトウェアパッケージとして、部分的にマシン上で、部分的にリモートマシン上で実行され得るか、または完全にリモートマシンまたはサーバ上で実行され得る。
本開示の文脈において、機械可読媒体は、命令実行システム、装置、またはデバイスによって、またはそれらと組み合わせて使用するためのプログラムを含むかまたは記憶することができる有形媒体であり得る。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であり得る。機械可読媒体は、電子、磁気、光学、電磁気、赤外線、または半導体のシステム、装置またはデバイス、または上記の任意の適切な組み合わせを含み得るが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1本または複数本の導線を備えた電気コネクタ、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能なプログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブル・コンパクト・ディスク・リードオンリメモリ(CD-ROM)、光学メモリ、磁気メモリ、または上記の任意の適切な組み合わせを含む。
ユーザとの対話を提供するために、本明細書に記載のシステムおよび技術は、情報をユーザに表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、ユーザが入力をコンピュータに提供することを可能にするキーボードとポインティングデバイス(例えば、マウスまたはトラックボール)とを備えたコンピュータに実装され得る。他のタイプの装置は、ユーザとの対話を提供するためにも使用されており、例えば、任意の形態の感覚フィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、または触覚的フィードバック)をユーザに提供したり、任意の形態(音響入力、音声入力、および触覚入力を含む形態)を使用してユーザからの入力を受信したりするために使用され得る。
本明細書に記載のシステムおよび技術は、バックエンドコンポーネント(例えば、データサーバ)を含むコンピュータシステム、ミドルウェアコンポーネント(例えば、アプリケーションサーバ)を含むコンピュータシステム、フロントエンドコンポーネント(例えば、ユーザが本明細書に記載のシステムおよび技術の実施形態と対話することを可能にするグラフィカルユーザインターフェースまたはウェブブラウザを備えたユーザコンピュータ)を含むコンピュータシステム、または、これらバックエンドコンポーネント、ミドルウェアコンポーネントまたはフロントエンドコンポーネントの任意の組み合わせを含むコンピュータシステムに実装され得る。システムのコンポーネントは、デジタルデータ通信の任意の形態または媒体(例えば、通信ネットワーク)を介して互いに接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、およびインターネットを含む。
コンピュータシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは通常、互いに遠く離れており、通信ネットワークを介して対話する。クライアントとサーバとの関係は、対応するコンピュータで実行され、クライアント-サーバの関係を有するコンピュータプログラムによって生成される。サーバは、クラウドサーバであり得るか、または分散型システムのサーバ、またはブロックチェーンを組み合わせたサーバであり得る。
ステップの並べ替え、追加、または削除は、上記様々な形態のプロセスによって実行され得ることを理解されたい。例えば、本開示に記載の各ステップは、本開示に開示された技術的解決手段の所望の結果が達成できる限り、並行して、順次に、または異なる順序で実行され得るが、本明細書に限定されない。
上記特定の実施形態は、本開示の保護範囲を限定するものではない。設計要件および他の要因に応じて、様々な修正、組み合わせ、副次的組み合わせおよび置換を行うことができることは、当業者にとって明らかであろう。本開示の精神と原則の範囲内で行われた修正、同等置換、改良などは、本開示の保護範囲に含まれるべきである。
Claims (17)
- 運転者の眼球状態画像である第一画像を取得することと、
運転者が乗っている車両の周囲環境画像である第二画像を取得することと、
前記第一画像および前記第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定することと、
前記POIオブジェクトのターゲット表示位置を決定して、前記ターゲット表示位置に前記POIオブジェクトを表示することと、
を含む表示方法。 - 前述した前記第一画像および前記第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定することは、
前記第一画像に基づいて前記運転者の視線方向を決定することと、
前記視線方向に基づいて前記第二画像内のPOIオブジェクトを決定することと、
を含む請求項1に記載の方法。 - 前述した前記視線方向に基づいて前記第二画像内のPOIオブジェクトを決定することは、
前記視線方向にはターゲットオブジェクトがあるか否かを判断することと、
判断結果に基づいて前記第二画像内のPOIオブジェクトを決定することと、
を含む請求項2に記載の方法。 - 前述した前記視線方向にはターゲットオブジェクトがあるか否かを判断することは、
前記視線方向に基づいて世界座標系内の第一ターゲット領域を決定することと、
前記世界座標系と前記第二画像に対応する画像座標系との対応関係に基づいて、前記第一ターゲット領域に対応する前記第二画像内の第二ターゲット領域を決定することと、
前記第二ターゲット領域にはターゲットオブジェクトがあるか否かを判断することと、
を含む請求項3に記載の方法。 - 前述した判断結果に基づいて前記第二画像内のPOIオブジェクトを決定することは、
前記第二ターゲット領域にはターゲットオブジェクトがあり、前記運転者の視線が前記ターゲットオブジェクトに所定時間滞在する場合、前記ターゲットオブジェクトを前記POIオブジェクトとして決定することと、
そうでない場合、所定のルールに基づいて前記第二画像内のPOIオブジェクトを決定することと、
を含む請求項4に記載の方法。 - 前述した前記POIオブジェクトのターゲット表示位置を決定することは、
前記画像座標系とヘッドアップ表示画面に対応する表示座標系との対応関係に基づいて、前記ヘッドアップ表示画面内の前記POIオブジェクトのターゲット表示位置を決定すること、
を含む請求項5に記載の方法。 - 前述した前記第一画像および前記第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定することの後に、前記方法は、
車両の現在位置情報を取得することと、
前記現在位置情報に基づいて前記POIオブジェクトの属性情報を取得することと、をさらに含み、
前述した前記ターゲット表示位置に前記POIオブジェクトを表示することは、
前記ターゲット表示位置に前記POIオブジェクトを表示することと、
前記属性情報を前記POIオブジェクトに重畳表示することと、を含む、
請求項1-6のいずれか一項に記載の方法。 - 運転者の眼球状態画像である第一画像を取得するように構成された第一取得モジュールと、
運転者が乗っている車両の周囲環境画像である第二画像を取得するように構成された第二取得モジュールと、
前記第一画像および前記第二画像に基づいてポイントオブインタレストPOIオブジェクトを決定するように構成された第一決定モジュールと、
前記POIオブジェクトのターゲット表示位置を決定して、前記ターゲット表示位置に前記POIオブジェクトを表示するように構成された第二決定モジュールと、
を含む表示装置。 - 前記第一決定モジュールは、
前記第一画像に基づいて前記運転者の視線方向を決定するように構成された第一決定サブモジュールと、
前記視線方向に基づいて前記第二画像内のPOIオブジェクトを決定するように構成された第二決定サブモジュールと、
を含む請求項8に記載の装置。 - 前記第二決定サブモジュールは、
前記視線方向にはターゲットオブジェクトがあるか否かを判断するように構成された判断ユニットと、
判断結果に基づいて前記第二画像内のPOIオブジェクトを決定するように構成された決定ユニットと、
を含む請求項9に記載の装置。 - 前記判断ユニットは、
前記視線方向に基づいて世界座標系内の第一ターゲット領域を決定するように構成された第一決定サブユニットと、
前記世界座標系と前記第二画像に対応する画像座標系との対応関係に基づいて、前記第一ターゲット領域に対応する前記第二画像内の第二ターゲット領域を決定するように構成された第二決定サブユニットと、
前記第二ターゲット領域にはターゲットオブジェクトがあるか否かを判断するように構成された判断サブユニットと、
を含む請求項10に記載の装置。 - 前記決定ユニットは、
前記第二ターゲット領域にはターゲットオブジェクトがあり、前記運転者の視線が前記ターゲットオブジェクトに所定時間滞在する場合、前記ターゲットオブジェクトを前記POIオブジェクトとして決定するように構成された第三決定サブユニットと、
そうでない場合、所定のルールに基づいて前記第二画像内のPOIオブジェクトを決定するように構成された第四決定サブユニットと、
を含む請求項11に記載の装置。 - 前記第二決定モジュールは、
前記画像座標系とヘッドアップ表示画面に対応する表示座標系との対応関係に基づいて、前記ヘッドアップ表示画面内の前記POIオブジェクトのターゲット表示位置を決定するように構成された第三決定サブモジュール、
を含む請求項12に記載の装置。 - 前記装置は、
車両の現在位置情報を取得するように構成された第三取得モジュールと、
前記現在位置情報に基づいて前記POIオブジェクトの属性情報を取得するように構成された第四取得モジュールと、をさらに含み、
前記第二決定モジュールは、
前記ターゲット表示位置に前記POIオブジェクトを表示するように構成された第一表示サブモジュールと、
前記属性情報を前記POIオブジェクトに重畳表示するように構成された第二表示サブモジュールと、を含む、
請求項8-13のいずれか一項に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されたメモリと、を含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項1-7のいずれか一項に記載の方法を実行できるように前記少なくとも1つのプロセッサによって実行される、
端末デバイス。 - 請求項1-7のいずれか一項に記載の方法をコンピュータに実行させるためのコンピュータ命令を記憶する非一時的なコンピュータ可読記憶媒体。
- プロセッサによって実行されると、請求項1-7のいずれか一項に記載の方法を実行するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110709951.6A CN113434620A (zh) | 2021-06-25 | 2021-06-25 | 显示方法、装置、设备、存储介质以及计算机程序产品 |
CN202110709951.6 | 2021-06-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022095787A true JP2022095787A (ja) | 2022-06-28 |
Family
ID=77754403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022059741A Pending JP2022095787A (ja) | 2021-06-25 | 2022-03-31 | 表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220307855A1 (ja) |
EP (1) | EP4057127A3 (ja) |
JP (1) | JP2022095787A (ja) |
KR (1) | KR20220056834A (ja) |
CN (1) | CN113434620A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116185190B (zh) * | 2023-02-09 | 2024-05-10 | 江苏泽景汽车电子股份有限公司 | 一种信息显示控制方法、装置及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009264835A (ja) * | 2008-04-23 | 2009-11-12 | Panasonic Corp | ナビゲーション装置、方法及びプログラム |
US20140168265A1 (en) * | 2012-12-18 | 2014-06-19 | Korea Electronics Technology Institute | Head-up display apparatus based on augmented reality |
JP2017039373A (ja) * | 2015-08-19 | 2017-02-23 | トヨタ自動車株式会社 | 車両用映像表示システム |
JP2017122640A (ja) * | 2016-01-07 | 2017-07-13 | トヨタ自動車株式会社 | 情報制御装置 |
WO2020105685A1 (ja) * | 2018-11-23 | 2020-05-28 | 日本精機株式会社 | 表示制御装置、方法、及びコンピュータ・プログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010143520A (ja) * | 2008-12-22 | 2010-07-01 | Toshiba Corp | 車載用表示システム及び表示方法 |
KR102463688B1 (ko) * | 2016-05-26 | 2022-11-07 | 현대자동차주식회사 | 증강현실 헤드업 디스플레이 시스템에서 월드좌표를 활용한 정보 표시 방법 |
TWI653170B (zh) * | 2017-11-01 | 2019-03-11 | 宏碁股份有限公司 | 駕駛提示方法與系統 |
US20210362597A1 (en) * | 2018-04-12 | 2021-11-25 | Lg Electronics Inc. | Vehicle control device and vehicle including the same |
US11900672B2 (en) * | 2018-04-23 | 2024-02-13 | Alpine Electronics of Silicon Valley, Inc. | Integrated internal and external camera system in vehicles |
WO2020017677A1 (ko) * | 2018-07-20 | 2020-01-23 | 엘지전자 주식회사 | 영상 출력 장치 |
CN109101613A (zh) * | 2018-08-06 | 2018-12-28 | 斑马网络技术有限公司 | 用于车辆的兴趣点显示方法及装置、电子设备、存储介质 |
US11037368B2 (en) * | 2018-09-11 | 2021-06-15 | Samsung Electronics Co., Ltd. | Localization method and apparatus of displaying virtual object in augmented reality |
CN111284325B (zh) * | 2018-12-10 | 2022-04-15 | 博泰车联网科技(上海)股份有限公司 | 车辆、车机设备及其车辆沿途对象详尽信息显示方法 |
KR20200075328A (ko) * | 2018-12-18 | 2020-06-26 | 현대자동차주식회사 | 차량의 주행 정보 제공 방법, 장치 및 기록매체 |
JP7250547B2 (ja) * | 2019-02-05 | 2023-04-03 | 本田技研工業株式会社 | エージェントシステム、情報処理装置、情報処理方法、およびプログラム |
JP2020126551A (ja) * | 2019-02-06 | 2020-08-20 | トヨタ自動車株式会社 | 車両周辺監視システム |
CN109917920B (zh) * | 2019-03-14 | 2023-02-24 | 阿波罗智联(北京)科技有限公司 | 车载投射处理方法、装置、车载设备及存储介质 |
CN110148224B (zh) * | 2019-04-04 | 2020-05-19 | 精电(河源)显示技术有限公司 | Hud图像显示方法、装置及终端设备 |
US11467370B2 (en) * | 2019-05-27 | 2022-10-11 | Samsung Electronics Co., Ltd. | Augmented reality device for adjusting focus region according to direction of user's view and operating method of the same |
KR20190109336A (ko) * | 2019-09-05 | 2019-09-25 | 엘지전자 주식회사 | 운전자 시선에 기반한 길 안내 서비스 지원 장치 및 이를 이용한 자동차 내비게이션 시스템 |
CN111086453A (zh) * | 2019-12-30 | 2020-05-01 | 深圳疆程技术有限公司 | 一种基于摄像头的hud增强现实显示方法、装置及汽车 |
US11617941B2 (en) * | 2020-09-01 | 2023-04-04 | GM Global Technology Operations LLC | Environment interactive system providing augmented reality for in-vehicle infotainment and entertainment |
CN112242009A (zh) * | 2020-10-19 | 2021-01-19 | 浙江水晶光电科技股份有限公司 | 显示效果融合方法、系统、存储介质及主控单元 |
CN112507799B (zh) * | 2020-11-13 | 2023-11-24 | 幻蝎科技(武汉)有限公司 | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 |
-
2021
- 2021-06-25 CN CN202110709951.6A patent/CN113434620A/zh active Pending
-
2022
- 2022-03-31 JP JP2022059741A patent/JP2022095787A/ja active Pending
- 2022-04-18 KR KR1020220047286A patent/KR20220056834A/ko unknown
- 2022-06-07 EP EP22177417.7A patent/EP4057127A3/en not_active Withdrawn
- 2022-06-13 US US17/839,009 patent/US20220307855A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009264835A (ja) * | 2008-04-23 | 2009-11-12 | Panasonic Corp | ナビゲーション装置、方法及びプログラム |
US20140168265A1 (en) * | 2012-12-18 | 2014-06-19 | Korea Electronics Technology Institute | Head-up display apparatus based on augmented reality |
JP2017039373A (ja) * | 2015-08-19 | 2017-02-23 | トヨタ自動車株式会社 | 車両用映像表示システム |
JP2017122640A (ja) * | 2016-01-07 | 2017-07-13 | トヨタ自動車株式会社 | 情報制御装置 |
WO2020105685A1 (ja) * | 2018-11-23 | 2020-05-28 | 日本精機株式会社 | 表示制御装置、方法、及びコンピュータ・プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP4057127A3 (en) | 2022-12-28 |
EP4057127A2 (en) | 2022-09-14 |
US20220307855A1 (en) | 2022-09-29 |
KR20220056834A (ko) | 2022-05-06 |
CN113434620A (zh) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9940692B2 (en) | Augmented reality overlays based on an optically zoomed input | |
US10832084B2 (en) | Dense three-dimensional correspondence estimation with multi-level metric learning and hierarchical matching | |
JP7339386B2 (ja) | 視線追跡方法、視線追跡装置、端末デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN113483774B (zh) | 导航方法、装置、电子设备及可读存储介质 | |
US11080943B2 (en) | Method and apparatus for displaying with 3D parallax effect | |
CN109656319B (zh) | 一种用于呈现地面行动辅助信息方法与设备 | |
US11610287B2 (en) | Motion trail update method, head-mounted display device and computer-readable medium | |
JP2022095787A (ja) | 表示方法、装置、端末デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム | |
CN114627268A (zh) | 视觉地图更新方法、装置、电子设备及介质 | |
CN114363161A (zh) | 异常设备的定位方法、装置、设备及介质 | |
CN114111813A (zh) | 高精地图元素更新方法、装置、电子设备及存储介质 | |
CN108595095B (zh) | 基于手势控制模拟目标体运动轨迹的方法和装置 | |
CN113566847B (zh) | 导航校准方法和装置、电子设备、计算机可读介质 | |
CN115575931A (zh) | 标定方法、装置、电子设备及存储介质 | |
CN115578432A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113643440A (zh) | 定位方法、装置、设备和存储介质 | |
EP4086102B1 (en) | Navigation method and apparatus, electronic device, readable storage medium and computer program product | |
US20220341737A1 (en) | Method and device for navigating | |
US20240062341A1 (en) | Projection method and electronic device | |
US10782858B2 (en) | Extended reality information for identified objects | |
US20240078734A1 (en) | Information interaction method and apparatus, electronic device and storage medium | |
CN115235487A (zh) | 数据处理方法及装置、设备和介质 | |
CN118037766A (zh) | 图像处理方法和装置 | |
CN114546120A (zh) | 导航标识显示方法、装置及电子设备 | |
CN117891063A (zh) | 光学跟踪器的定位方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231212 |