KR20220056834A - 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 - Google Patents

표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20220056834A
KR20220056834A KR1020220047286A KR20220047286A KR20220056834A KR 20220056834 A KR20220056834 A KR 20220056834A KR 1020220047286 A KR1020220047286 A KR 1020220047286A KR 20220047286 A KR20220047286 A KR 20220047286A KR 20220056834 A KR20220056834 A KR 20220056834A
Authority
KR
South Korea
Prior art keywords
image
determining
target
poi
display
Prior art date
Application number
KR1020220047286A
Other languages
English (en)
Inventor
수난 덩
Original Assignee
아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. filed Critical 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디.
Publication of KR20220056834A publication Critical patent/KR20220056834A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D43/00Arrangements or adaptations of instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

본 발명은 인공지능 기술분야에 관한 것으로, 구체적으로 스마트 교통과 딥러닝 기술분야에 관한 것이며, 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램을 제공한다. 상기 방법의 일 구체적인 실시형태는, 제1 이미지를 획득하되, 제1 이미지는 운전자의 안구 상태 이미지인 단계; 제2 이미지를 획득하되, 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지인 단계; 제1 이미지와 제2 이미지를 기반으로, 관심 지점(POI) 객체를 결정하는 단계; 및 POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시하는 단계를 포함한다. 상기 실시형태는 운전자의 시선에 따라 시선에 대응되는 객체를 보여줄 수 있다.

Description

표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램{DISPLAY METHOD, DISPLAY APPARATUS, DEVICE, COMPUTER READABLE STORAGE MEDIUM AND, AND COMPUTER PROGRAM}
본 발명은 컴퓨터 분야에 관한 것으로, 구체적으로는 스마트 교통, 딥러닝과 같은 인공지능 분야에 관한 것이며, 특히 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램에 관한 것이다.
컴퓨터 기술의 급속한 발전과 함께 AR(Augmented Reality, 증강현실) 기술이 널리 사용되고 있는데, 이는 디지털 이미지를 사람들이 볼 수 있는 현실 세계에 오버레이하는 것을 통하여, AR가 투사한 정보를 실제 환경과 하나로 융합한다.
정면주시 디스플레이, 이하 HUD 라고도 하는 헤드업 디스플레이 기기(Head Up Display)는 현재 항공기의 비행 보조 기구에 보편적으로 사용되고 있다. 정면주시란 조종사가 고개를 숙이지 않고도 필요한 중요 정보를 볼 수 있는 것을 의미한다. 헤드업 디스플레이 기기는 군용기에 최초로 사용되었으며, 비행 중 자주 사용하는 데이터를 조종사 전면의 항공기 앞유리에 직접 투사함으로써 조종사가 고개를 숙여 계기를 확인하는 빈도를 줄이고, 주의력이 떨어지는 것을 방지하고 상태 의식에 대한 통제를 잃지 않도록 한다.
본 발명은 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램을 제공한다.
본 발명의 제1 양태에 따르면, 제1 이미지를 획득하되, 제1 이미지는 운전자의 안구 상태 이미지인 단계; 제2 이미지를 획득하되, 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지인 단계; 제1 이미지와 제2 이미지를 기반으로 관심 지점(POI) 객체를 결정하는 단계; 및 상기 POI 객체의 타깃 표시 위치를 결정하고, 상기 타깃 표시 위치에 상기 POI 객체를 표시하는 단계를 포함하는 표시 방법을 제공한다.
본 발명의 제2 양태에 따르면, 제1 이미지를 획득하도록 구성되되, 제1 이미지는 운전자의 안구 상태 이미지인 제1 획득 모듈; 제2 이미지를 획득하도록 구성되되, 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지인 제2 획득 모듈; 제1 이미지와 상기 제2 이미지를 기반으로 POI 객체를 결정하도록 구성된 제1 결정 모듈; POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시하도록 구성된 제2 결정 모듈을 포함하는 표시 장치를 제공한다.
본 발명의 제3 양태에 따르면, 적어도 하나의 프로세서; 및 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되, 메모리에는 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서가 제1 양태 중의 임의의 일측면에 설명된 방법을 수행할 수 있도록 하는 전자 기기를 제공한다.
본 발명의 제4 양태에 따르면, 컴퓨터 명령이 저장된 비 일시적 컴퓨터 판독 가능 저장 매체를 제공하고, 컴퓨터 명령은 컴퓨터가 제1 양태 또는 제2 양태 중의 임의의 실시형태에 설명된 방법을 수행하도록 한다.
본 발명의 제5 양태에 따르면, 컴퓨터 판독 가능한 컴퓨터 프로그램을 제공하고, 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1 양태 또는 제2 양태 중의 임의의 실시형태에 설명된 방법을 구현한다.
해당 부분에 설명된 내용은 본 발명의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며, 본 발명의 범위를 제한하려는 것도 아님을 이해해야 한다. 본 발명의 다른 특징은 아래 설명을 통해 쉽게 이해될 것이다.
도면은 본 해결수단을 더 잘 이해하기 위한 것이며 본 발명을 한정하지 않는다. 여기서,
도 1은 본 발명이 적용될 수 있는 예시적인 시스템 아키텍처이다.
도 2는 본 발명에 따른 표시 방법의 일 실시예의 흐름도이다.
도 3은 본 발명에 따른 표시 방법의 다른 실시예의 흐름도이다.
도 4는 본 발명에 따른 표시 방법의 또 다른 실시예의 흐름도이다.
도 5는 본 발명에 따른 표시 방법의 또 다른 실시예의 흐름도이다.
도 6은 본 발명에 따른 표시 장치의 일 실시예의 구조 모식도이다.
도 7은 본 발명의 실시예의 표시 방법을 구현하기 위한 전자 기기의 블록도이다.
아래 도면을 참조하여 본 발명의 예시적 실시예를 설명하되, 여기에는 이해를 돕기 위한 본 발명의 실시예의 다양한 세부사항들이 포함되며, 이들은 단지 예시적인 것으로 간주되어야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 발명의 범위 및 정신을 벗어나지 않으면서, 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확성 및 간결성을 위해, 아래의 설명에서 공지된 기능과 구조에 대한 설명을 생략한다.
모순되지 않는 한 본 발명의 실시예 및 실시예의 특징은 서로 조합될 수 있음에 유의해야 한다. 아래 첨부 도면과 실시예를 참조하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 표시 방법 또는 표시 장치의 실시예가 응용될 수 있는 예시적인 시스템 아키텍처(100)를 도시한다.
도 1에 도시된 바와 같이, 시스템 아키텍처(100)는 단말 기기(101, 102, 103), 네트워크(104) 및 서버(105)를 포함할 수 있다. 네트워크(104)는 단말 기기(101, 102, 103)와 서버(105) 사이에서 통신 링크를 제공하는 매체로 사용된다. 네트워크(104)는 유선, 무선 통신 링크 또는 광섬유 케이블 등과 같은 다양한 연결 타입을 포함할 수 있다.
사용자는 단말 기기(101, 102, 103)를 사용하여 네트워크(104)를 통해 서버(105)와 인터랙션함으로써 정보 등을 수신 또는 송신할 수 있다. 단말 기기(101, 102, 103)에는 다양한 클라이언트 애플리케이션이 설치될 수 있다.
단말 기기(101, 102, 103)는 하드웨어일 수 있고, 소프트웨어일 수도 있다. 단말 기기(101, 102, 103)가 하드웨어인 경우, 다양한 전자 기기일 수 있으며, 스마트폰, 태블릿PC, 휴대형 랩톱 및 데스크톱 등을 포함하나 이에 한정되는 것은 아니다. 단말 기기(101, 102, 103)가 소프트웨어인 경우, 상기 열거된 전자 기기에 설치될 수 있다. 이는 복수개의 소프트웨어 또는 소프트웨어 모듈로 구현되거나, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있으며 여기서는 구체적으로 한정하지 않는다.
서버(105)는 다양한 서비스를 제공할 수 있다. 예를 들어 서버(105)는 단말 기기(101, 102, 103)로부터 획득한 제1 이미지와 제2 이미지를 분석 및 처리하고, 처리 결과(예를 들어 POI 객체 및 POI 객체의 타깃 표시 위치)를 생성할 수 있다.
설명해야 할 것은, 서버(105)는 하드웨어 또는 소프트웨어일 수 있다. 서버(105)가 하드웨어인 경우, 복수개의 서버로 구성된 분산형 서버 클러스터로 구현될 수 있고, 하나의 서버로 구현될 수도 있다. 서버(105)가 소프트웨어인 경우, 복수개의 소프트웨어 또는 소프트웨어 모듈(예를 들어 분산형 서비스를 제공)로 구현되거나, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있으며, 여기서는 구체적으로 한정하지 않는다.
설명해야 할 것은, 본 발명의 실시예가 제공하는 표시 방법은 일반적으로 서버(105)에 의해 수행되고, 상응하게, 표시 장치는 일반적으로 서버(105)에 설치된다.
이해해야 할 것은, 도 1 중의 단말 기기, 네트워크 및 서버의 개수는 단지 예시적인 것이며, 실제 필요에 따라 임의의 개수의 단말 기기, 네트워크 및 서버를 구비할 수 있다.
계속해서 도 2를 참조하면, 도 2는 본 발명에 따른 표시 방법의 일 실시예의 프로세스(200)를 도시한다. 본 실시예의 표시 방법은 하기와 같은 단계를 포함한다.
단계(201)에서, 제1 이미지를 획득한다.
본 실시예에서, 표시 방법의 수행 주체(예를 들어 도 1에 도시된 서버(105))는 제1 이미지를 획득할 수 있고, 제1 이미지는 운전자의 안구 상태 이미지이다.
제1 이미지는 운전자가 탑승한 차량 내의 이미지 센서에 의해 수집되어 획득된 것으로서, 본 실시예에서의 이미지 센서는 카메라 센서(이하 카메라라고 함)이고, 실제 상황에 따라 기타 이미지 센서를 사용할 수도 있으며, 본 발명은 이에 대해 한정하지 않는다. 상기 카메라는 운전자의 안구 상태 이미지를 실시간 촬영할 수 있다.
단계(202)에서, 제2 이미지를 획득한다.
본 실시예에서, 상술한 수행 주체는 제2 이미지를 획득할 수 있고, 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지이다.
제2 이미지는 운전자가 탑승한 차량 내의 다른 카메라에 의해 수집하여 획득된 것으로서, 운전자가 탑승한 차량 내에 2개의 카메라를 설치할 수도 있으며, 하나는 내측을 향해 운전자의 안구 상태 이미지를 수집하고, 다른 하나는 외측을 향해 운전자가 탑승한 차량의 주변 환경 이미지를 수집할 수 있다. 물론 실제 상황에 따라 다른 개수의 카메라를 설치할 수도 있으며 본 발명은 이에 대해 구체적으로 한정하지 않는다.
제2 이미지에는 상기 차량이 주행하는 도로 양쪽의 다양한 건물을 포함할 수 있고, 장애물 등을 더 포함할 수 있다.
단계(203)에서, 제1 이미지와 제2 이미지를 기반으로, 관심 지점(POI) 객체를 결정한다.
본 실시예에서, 상술한 수행 주체는 단계(201)에서 획득한 제1 이미지와 단계(202)에서 획득한 제2 이미지를 기반으로, POI(Point of Interest, 관심 지점) 객체를 결정할 수 있다. 지리적 정보 시스템에서, 하나의 POI는 하나의 집, 하나의 우편함, 하나의 정류장 등이 될 수 있다.
본 실시예에서, 차량이 주행하는 동안 도로 양쪽에는 많은 건물 또는 기타 표시가 있을 수 있는데, 본 실시예에서는 운전자 시선에 따라 POI 객체의 정보가 표시되므로, POI 객체를 운전자가 관련 정보를 더욱 쉽게 얻을 수 있도록 차량의 앞유리에 표시한다. 따라서 본 실시예에서, 상술한 수행 주체는 운전자의 안구 상태를 나타내는 제1 이미지를 기반으로, 제2 이미지 중의 POI 객체를 결정할 수 있고, POI 객체는 운전자가 주시하는 객체이다.
설명해야 할 것은, POI 객체는 앞유리에 있는 디스플레이 인터페이스에서 차량 내의 헤드업 디스플레이 기기가 투사하여 형성된 것이고, 헤드업 디스플레이 기기는 시속, 네비게이션과 같은 중요한 주행 정보를 차량의 앞유리에 투영하여, 운전자가 고개를 숙이거나 돌리지 않고도 시속, 네비게이션과 같은 중요한 주행 정보를 볼 수 있도록 한다.
단계(204)에서, POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시한다.
본 실시예에서, 상술한 수행 주체는 POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시할 수 있다. 상술한 수행 주체는 제2 이미지 중의 POI 객체의 위치 정보를 기반으로, 앞유리의 디스플레이 인터페이스에서 POI 객체의 위치 정보를 결정하고, 상기 위치 정보는 현실에서의 POI 객체의 위치 정보(즉 제2 이미지 중의 위치 정보)와 대응되므로, POI 객체를 보다 직관적이고 정확하게 운전자에게 보여준다.
예시적으로, 제1 이미지에 대한 분석을 통하여, 운전자가 자신이 탑승한 차량의 좌측 전방을 주시한 것으로 결정하면, 제 2 이미지 중의 좌측 상단 모서리 영역의 객체(건물)가 POI 객체이고, 앞유리의 디스플레이 인터페이스에서 상기 POI 객체의 타깃 표시 위치는 좌측 상단 모서리로 표시해야 한다.
본 발명의 실시예에서 제공하는 표시 방법은, 운전자의 안구 상태를 나타내는 제1 이미지를 획득한 다음, 운전자가 탑승한 차량의 주변 환경을 나타내는 제2 이미지를 획득하고, 그 다음 제1 이미지와 제2 이미지를 기반으로, POI 객체를 결정하며; 마지막으로 POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시한다. 본 발명이 제공하는 표시 방법은, 운전자의 안구 상태 이미지와 주위 환경 이미지를 기반으로, 실시간으로 POI 객체 및 디스플레이 인터페이스에서 POI 객체의 타깃 표시 위치를 결정하여, POI 객체를 운전자에게 보여줌으로써, 운전자가 수동으로 POI를 검색하고 확인할 필요가 없고, 운전자의 시선에 따라 POI 객체를 결정하여 보여줄 수 있으므로 상기 방법은 차량 주행 과정에서 편리성과 안전성을 보장한다.
계속해서 도 3을 참조하면, 도3은 본 발명에 따른 표시 방법의 또 다른 실시예의 프로세스(300)를 도시한다. 상기 표시 방법은 하기와 같은 단계를 포함한다.
단계(301)에서, 제1 이미지를 획득한다.
단계(302)에서, 제2 이미지를 획득한다.
단계(301) 내지 단계(302)는 전술한 실시예의 단계(201) 내지 단계(202)와 기본적으로 동일하고, 구체적인 실시형태는 전술한 단계(201) 내지 단계(202)의 설명을 참조할 수 있으며 여기서 반복하여 설명하지 않기로 한다.
단계(303)에서, 제1 이미지를 기반으로 운전자의 시선 방향을 결정한다.
본 실시예에서, 표시 방법의 수행 주체(예를 들어 도 1에 도시된 서버(105))는 제1 이미지를 기반으로 운전자의 시선 방향을 결정할 수 있다.
운전자가 주행도로 양쪽의 상이한 건물들을 바라볼 때, 그 시선 방향은 상이하며, 그 대응되는 안구의 방향 정보도 상이하므로, 본 실시예에서는, 운전자l 안구 상태를 나타내는 제1 이미지를 기반으로, 이때 운전자의 안구 방향 정보를 결정함으로써, 운전자의 시선 방향을 결정할 수 있다.
단계(304)에서, 시선 방향을 기반으로 제2 이미지 중의 POI 객체를 결정한다.
본 실시예에서, 상술한 수행 주체는 단계(303)에서 결정한 운전자의 시선 방향을 기반으로, 제2 이미지 중의 POI 객체 및 헤드업 디스플레이 화면에서 POI 객체의 타깃 표시 위치를 결정하되, 헤드업 디스플레이 화면은 헤드업 디스플레이 기기가 투사한 인터페이스일 수 있다.
제2 이미지에는 운전자가 탑승한 차량의 주변 환경의 다양한 물체가 포함되어 있으므로, 운전자가 특정 방향 또는 특정 물체를 주시할 때, 그 주시한 타깃 물체를 결정해야 한다.
본 실시예에서, 운전자가 주시하는 방향을 결정한 후, 제2 이미지에서 운전자가 주시한 방향과 대응되는 영역을 결정할 수 있고, 상기 영역 내의 객체는 POI 객체이다.
본 실시예의 일부 선택 가능한 실시형태에서, 단계(304)는 시선 방향에 타깃 객체가 있는지의 여부를 판단하는 단계;및 판단 결과를 기반으로 제2 이미지 중의 POI 객체를 결정하는 단계를 포함한다. 본 실시형태에서, 운전자의 시선 방향에 대응하는 타깃 객체가 있는지의 여부를 판단하고, 판단 결과를 기반으로, 제2 이미지에서 POI 객체를 결정함으로써, 운전자의 시선을 기반으로 시선과 대응되는 물체의 정보를 표시함으로써, 운전자 시선을 기반으로 물체에 대한 추적을 구현할 수 있다.
단계(305)에서, POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시한다.
단계(305)는 전술한 실시예의 단계(204)와 기본적으로 동일하고, 구체적인 실시형태는 전술한 단계(204)의 설명을 참조할 수 있으며 여기서 반복하여 설명하지 않기로 한다.
도 3에 도시된 바와 같이, 도2에 대응되는 실시예와 비교하여, 본 실시예에서의 표시 방법은 제1 이미지를 기반으로 운전자의 시선 방향을 결정한 다음, 시선 방향을 기반으로, 제2 이미지 중의 POI 객체를 결정하되, 상기 표시 방법은 시선 방향을 기반으로 POI 객체를 결정하는 단계를 강조하여, 결정된 정보의 정확성을 향상시키고 적용 범위도 더욱 넓힐 수 있다.
계속해서 도 4를 참조하면, 도4는 본 발명에 따른 표시 방법의 또 다른 실시예의 프로세스(400)를 도시한다. 상기 표시 방법은 하기와 같은 단계를 포함한다.
단계(401)에서, 제1 이미지를 획득한다.
단계(402)에서, 제2 이미지를 획득한다.
단계(403)에서, 제1 이미지를 기반으로 운전자의 시선 방향을 결정한다.
단계(401) 내지 단계(403)는 전술한 실시예의 단계(301) 내지 단계(303)와 기본적으로 동일하고, 구체적인 실시형태는 단계(301) 내지 단계(303)의 설명을 참조할 수 있으며 여기서 반복하여 설명하지 않기로 한다.
단계(404)에서, 시선 방향을 기반으로 월드 좌표계 중의 제1 타깃 영역을 결정한다.
본 실시예에서, 표시 방법의 수행 주체(예를 들어 도 1에 도시된 서버(105))는 시선 방향을 기반으로 월드 좌표계 중의 제1 타깃 영역을 결정할 수 있다. 월드 좌표계는 현실 세계의 좌표계로서, 운전자의 시선 방향을 결정한 후, 시선 방향을 기반으로 현실 좌표계 중의 제1 타깃 영역을 결정할 수 있다. 예를 들어, 운전자의 시선 방향이 좌측 전방으로 결정된 후, 월드 좌표계에서 좌측 전방에 대응되는 영역을 제1 타깃 영역으로 결정할 수 있다.
단계(405)에서, 월드 좌표계와 제2 이미지에 대응되는 이미지 좌표계 사이의 대응 관계를 기반으로, 제2 이미지에서 제1 타깃 영역에 대응되는 제2 타깃 영역을 결정한다.
본 실시예에서, 상술한 수행 주체는 월드 좌표계와 제2 이미지에 대응되는 이미지 좌표계 사이의 대응 관계를 기반으로, 제2 이미지에서 제1 타깃 영역에 대응되는 제2 타깃 영역을 결정할 수 있다.
제2 이미지는 현실 환경에서 물체의 이미지를 촬영하기 때문에 제2 이미지는 월드 좌표계에 대응되며, 제2 이미지에도 하나의 이미지 좌표계가 있으므로, 월드 좌표계와 제2 이미지에 대응되는 이미지 좌표계 사이의 대응 관계를 기반으로, 제2 이미지에서 제1 타깃 영역에 대응되는 제2 타깃 영역을 결정할 수 있다. 제2 타깃 영역은 제2 이미지에서 운전자 시선 방향에 대응되는 영역이다.
단계(406)에서, 제2 타깃 영역 내에 타깃 객체가 있는지의 여부를 판단한다.
본 실시예에서, 상술한 수행 주체는 제2 타깃 영역 내에 타깃 객체가 있는지의 여부를 판단하고, 운전자의 시선 방향에 타깃 객체가 대응되게 있는지의 여부를 판단할 수 있다.
제2 타깃 영역 내에 타깃 객체가 있는 경우, 단계(407)를 실행하고, 그렇지 않으면 단계(408)를 수행한다.
단계(407)에서, 제2 타깃 영역 내에 타깃 객체가 있고, 운전자의 시선이 타깃 객체에 기 설정된 시간 동안 머무르는 것에 응답하여, 타깃 객체를 POI 객체로 결정한다.
본 실시예에서, 상술한 수행 주체는 제2 타깃 영역 내에 타깃 객체가 있고, 운전자의 시선이 상기 타깃 객체에 기 설정된 시간 동안 머무르는 경우, 운전자가 해당 타깃 객체를 주시한 것으로 결정하고, 이때 상기 타깃 객체를 POI 객체로 결정할 수 있다. 예를 들어, 제2 타깃 영역 내에 하나의 건물이 있고, 운전자의 시선이 상기 건물에 2초간 머무르는 경우, 상기 건물을 POI 객체로 결정한다.
단계(408)에서, 기 설정된 규칙을 기반으로 제2 이미지 중의 POI 객체를 결정한다.
본 실시예에서, 상술한 수행 주체는 제2 타깃 영역 내에 타깃 객체가 없는 경우, 기 설정된 규칙을 기반으로 제2 이미지 중의 POI 객체를 결정할 수 있다. 여기서, 기 설정된 규칙은 제2 이미지 중의 모든 객체를 POI 객체로 설정할 수 있다. 왜냐하면 제2 이미지에 하나 이상의 객체(건물)가 포함될 수 있으므로 제2 이미지 중의 모든 객체를 POI 객체로 설정할 수 있다. 기 설정된 규칙은 운전자의 이전 행위를 기반으로, 제2 이미지 중의 POI 객체를 선택할 수도 있다. 예를 들어, 상술한 수행 주체는 상기 운전자가 이전에 고정한 POI 객체가 모두 쇼핑몰인 것을 획득하였다면, 상술한 수행 주체는 제2 이미지 중의 쇼핑몰을 현재의 POI 객체로 선택할 수 있다. 물론 실제 필요에 따라 결정 규칙을 설정할 수도 있으며, 본 발명은 이에 대해 구체적으로 한정하지 않는다.
단계(409)에서, POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시한다.
단계(409)는 전술한 실시예의 단계(305)와 기본적으로 동일한다. 구체적인 실시형태는 전술한 단계(305)의 설명을 참조할 수 있으며 여기서 반복하여 설명하지 않기로 한다.
본 실시예의 일부 선택 가능한 실시형태에서, 단계(409)는 이미지 좌표계와 헤드업 디스플레이 화면에 대응되는 디스플레이 좌표계 사이의 대응 관계를 기반으로, 헤드업 디스플레이 화면에서 POI 객체의 타깃 표시 위치에 있고, 타깃 표시 위치에 POI 객체를 표시하도록 결정하는 단계를 포함한다. 본 실시형태에서, 헤드업 디스플레이 화면은 헤드업 디스플레이 기기에서 투사되며, 헤드업 디스플레이 화면에도 대응되는 하나의 디스플레이 좌표계가 있다. POI 객체는 제2 이미지 중의 객체이므로, 상기 디스플레이 좌표계와 제2 이미지에 대응되는 이미지 좌표계 사이에도 하나의 대응 관계가 있다. 상술한 수행 주체는 디스플레이 좌표계와 이미지 좌표계 사이의 대응 관계를 기반으로, 헤드업 디스플레이 화면에서 POI 객체의 타깃 표시 위치를 결정하고, 상기 타깃 표시 위치에 상기 POI 객체를 표시할 수 있다.
도 4에 도시된 바와 같이, 도 3에 대응되는 실시예와 비교하여, 본 실시예에서의 표시 방법은 운전자의 시선 방향에 타깃 객체가 있는지의 여부를 판단하고, 판단 결과를 기반으로, 제2 이미지 중의 POI 객체를 결정한다. 제2 이미지 중의 POI 객체의 위치에 따라 헤드업 디스플레이 화면에서 POI 객체의 타깃 표시 위치를 결정한다. 마지막으로 상기 타깃 표시 위치에 상기 POI 객체를 표시함으로써, 운전자의 시선을 기반으로, 대체적으로 표시하고, 표시하는 정보는 현실에 대응되므로 운전자가 정보를 획득하기 더욱 편리하다.
계속해서 도 5를 참조하면, 도5는 본 발명에 따른 표시 방법의 또 다른 실시예의 프로세스(500)를 나타낸다. 상기 표시 방법은 하기와 같은 단계를 포함한다.
단계(501)에서, 제1 이미지를 획득한다.
단계(502)에서, 제2 이미지를 획득한다.
단계(503)에서, 제1 이미지와 제2 이미지를 기반으로 POI 객체를 결정한다.
단계(501) 내지 단계(503)는 전술한 실시예의 단계(201) 내지 단계(203)와 기본적으로 동일한다. 구체적인 실시형태는 전술한 단계(201) 내지 단계(203)의 설명을 참조할 수 있으며 여기서 반복하여 설명하지 않기로 한다.
단계(504)에서, 차량의 현재 위치 정보를 획득한다.
본 실시예에서, 표시 방법의 수행 주체(예를 들어 도 1에 도시된 서버(105))는 차량의 현재 위치 정보를 획득할 수 있다. 여기서, 현재 위치 정보는 차량의 GPS(Global Positioning System, 글로벌 포지셔닝 시스템)에 의해 획득할 수 있고, 차량의 IMU(Inertial Measurement Unit, 관성 측정 유닛) 센서를 통해 획득할 수도 있으며 본 발명은 이에 대해 구체적으로 한정하지 않는다. 현재 지리적 위치 정보는 월드 좌표계에서 현재 위치의 좌표일 수 있다.
단계(505)에서, 현재 위치 정보를 기반으로 POI 객체의 속성 정보를 획득한다.
본 실시예에서, 상술한 수행 주체는 단계(504)에서 획득한 현재 위치 정보를 기반으로, POI 객체의 속성 정보를 획득할 수 있다. 예를 들어, 현재 위치의 좌표를 기반으로, 지도에서 상기 POI 객체의 속성 정보를 획득할 수 있다. 여기서, 속성 정보는 POI 객체의 이름, 카테고리 정보 등이 될 수 있다. 예를 들어, POI 객체가 하나의 쇼핑몰인 경우, 그 속성 정보는 상기 쇼핑몰의 이름, 쇼핑몰 내 매장의 프로모션 추천 및 프로모션의 세일 정보 등 정보를 포함할 수 있다. POI 객체는 운전자가 관심을 갖는 객체이므로 본 실시예에서 POI 객체의 속성 정보도 획득함으로써 운전자에게 더욱 전면적인 정보를 피드백한다.
단계(506)에서, POI 객체의 타깃 표시 위치를 결정한다.
본 실시예에서, 상술한 수행 주체는 POI 객체의 타깃 표시 위치를 결정할 수 있다.
단계(506)는 전술한 실시예의 단계(204)와 기본적으로 동일한다. 구체적인 실시형태는 전술한 단계(204)의 설명을 참조할 수 있으며 여기서 반복하여 설명하지 않기로 한다.
단계(507)에서, 타깃 표시 위치에 POI 객체를 표시하고, 속성 정보를 POI 객체에 중첩되게 표시한다.
본 실시예에서, 상술한 수행 주체는 단계(506)에서 결정한 타깃 표시 위치에 상기 POI 객체를 표시할 수 있다. 상술한 수행 주체는 단계(505)에서 획득한 속성 정보를 POI 객체에 중첩되게 표시함으로써, 해당 속성 정보로 하여금 마침 실제 환경 중의 건물들과 서로 융합하여 증강 현실의 효과를 나타낼 수 있다. 예를 들어, POI 객체가 하나의 쇼핑몰의 경우, 상술한 수행 주체는 상기 쇼핑몰을 타깃 표시 위치에 렌더링하여 상기 쇼핑몰의 이름, 쇼핑몰 내의 프로모션 정보 등을 상기 POI 객체에 중첩되게 표시한다.
도 5에 도시된 바와 같이, 도 4에 대응되는 실시예와 비교하여, 본 실시예에서의 표시 방법은 현재 위치 정보를 기반으로 POI 객체의 속성 정보를 획득하고, 상기 속성 정보를 상기 POI 객체에 중첩되게 표시함으로써, 상기 속성 정보로 하여금 마침 실제 환경 중의 건물과 서로 융합하여 증강 현실의 효과를 달성한다.
본 발명의 기술적 해결 수단에 있어서, 취급하는 사용자 개인 정보의 획득, 저장과 활용 등은 관련 법규의 규정에 부합하며, 공서양속에 반하지 않는다.
추가로 도 6을 참조하면, 상술한 각 도면에 도시된 방법의 구현으로서, 본 발명은 표시 장치의 일 실시예를 제공하며, 상기 장치 실시예는 도 2에 도시된 방법 실시예에 대응되며 상기 장치는 구체적으로 다양한 전자 기기에 적용될 수 있다.
도 6에 도시된 바와 같이, 본 실시예의 표시 장치(600)는 제1 획득 모듈(601), 제2 획득 모듈(602), 제1 결정 모듈(603)과 제2 결정 모듈(604)을 포함한다. 여기서, 제1 획득 모듈(601)은 제1 이미지를 획득하도록 구성되되, 제1 이미지는 운전자의 안구 상태 이미지이고; 제2 획득 모듈(602)은 제2 이미지를 획득하도록 구성되되, 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지이며; 제1 결정 모듈(603)은 제1 이미지와 제2 이미지를 기반으로 관심 지점(POI) 객체를 결정하도록 구성되며; 제2 결정 모듈(604)은 POI 객체의 타깃 표시 위치를 결정하고, 타깃 표시 위치에 POI 객체를 표시하도록 구성된다.
본 실시예에서, 표시 장치 (600)로서 제1 획득 모듈(601), 제2 획득 모듈(602), 제1 결정 모듈(603)과 제2 결정 모듈(604)의 구제적인 처리 및 이의 기술적 효과는 각각 도 2를 참조하여 설명한 각 실시예 중의 단계(201) 내지 단계(204)에 대응되므로 여기서 반복하여 설명하지 않기로 한다.
본 실시예의 일부 선택 가능한 구현 형태에서, 제1 결정 모듈은 제1 이미지를 기반으로 운전자의 시선 방향을 결정하도록 구성된 제1 결정 서브 모듈; 및 시선 방향을 기반으로 제2 이미지 중의 POI 객체를 결정하도록 구성된 제2 결정 서브 모듈을 포함한다.
본 실시예의 일부 선택 가능한 구현 형태에서, 제2 결정 모듈은 시선 방향에 타깃 객체가 있는지의 여부를 판단하도록 구성된 판단 유닛; 및 판단 결과를 기반으로 제2 이미지 중의 POI 객체를 결정하도록 구성된 결정 유닛을 포함한다.
본 실시예의 일부 선택 가능한 구현 형태에서, 판단 유닛은 시선 방향을 기반으로 월드 좌표계 중의 제1 타깃 영역을 결정하도록 구성된 제1 결정 서브 유닛; 월드 좌표계와 제2 이미지에 대응되는 이미지 좌표계 사이의 대응 관계를 기반으로 제2 이미지에서 제1 타깃 영역에 대응되는 제2 타깃 영역을 결정하도록 구성된 제2 결정 서브 유닛; 제2 타깃 영역 내의 타깃 객체가 있는지의 여부를 판단 하도록 구성된 판단 서브 유닛을 포함한다.
본 실시예의 일부 선택 가능한 구현 형태에서, 결정 유닛은, 제2 타깃 영역 내에 타깃 객체가 있고, 운전자의 시선이 타깃 객체에 기 설정된 시간 동안 머무르는 것에 응답하여, 타깃 객체를 POI 객체로 결정하도록 구성된 제3 결정 서브 유닛; 그렇지 않으면, 기 설정된 규칙을 기반으로 제2 이미지 중의 POI 객체를 결정하도록 구성된 제4 결정 서브 유닛을 포함한다.
본 실시예의 일부 선택 가능한 구현 형태에서, 제2 결정 모듈은 이미지 좌표계와 헤드업 디스플레이 화면에 대응되는 디스플레이 좌표계 사이의 대응 관계를 기반으로, 헤드업 디스플레이 화면에서 POI 객체의 타깃 표시 위치를 결정하도록 구성된 제3 결정 서브 모듈을 포함한다.
본 실시예의 일부 선택 가능한 구현 형태에서, 상술한 표시 장치는 차량의 현재 위치 정보를 획득하도록 구성된 제3 획득 모듈; 및 현재 위치 정보를 기반으로 POI 객체의 속성 정보를 획득하도록 구성된 제4 획득 모듈를 더 포함하고, 제2 결정 모듈은 타깃 표시 위치에 POI 객체를 표시하도록 구성된 제1 표시 서브 모듈; 및 속성 정보를 POI 객체에 중첩되게 표시하도록 구성된 제2 표시 서브 모듈을 포함한다.
본 발명의 실시예에 따르면, 본 발명은 또한 전자 기기, 판독 가능 저장 매체 및 컴퓨터 프로그램을 제공한다.
도7은 본 발명의 실시예를 구현하는데 사용될 수 있는 예시적인 전자 기기(700)의 예시적 블록도를 도시한다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크벤치, 개인 정보 단말기, 서버, 블레이드 서버, 메인 프레임 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 의미할 수도 있다. 본 명세서에 개시된 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 기술 및/또는 청구된 본 발명의 실시형태를 한정하지 않는다.
도 7에 도시된 바와 같이, 기기(700)는 판독 전용 메모리(ROM)(702)에 저장된 프로그램 또는 저장 유닛(708)으로부터 랜덤 액세스 메모리(RAM)(703)로 로딩된 프로그램에 따라 다양하고 적절한 동작 및 처리를 수행할 수 있는 산출 유닛(701)을 포함한다. RAM(703)에는 또한 기기(700)의 동작에 필요한 다양한 프로그램 및 데이터가 저장될 수 있다. 산출 유닛(701), ROM(702) 및 RAM(703)은 버스(704)를 통해 서로 연결된다. 입/출력(I/O) 인터페이스(705) 역시 버스(704)에 연결된다.
키보드, 마우스 등과 같은 입력 유닛(706), 다양한 유형의 디스플레이, 스피커 등과 같은 출력 유닛(707), 자기 디스크, 광 디스크 등과 같은 저장 유닛(708), 네트워크 카드, 모뎀, 무선 통신 트랜시버 등과 같은 통신 유닛(709)을 포함하는 기기 (700)의 복수개의 부재는 I/O 인터페이스(705)에 연결된다. 통신 유닛(709)은 기기(700)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 통신망을 통해 다른 기기와 정보/데이터를 교환할 수 있도록 허용한다.
산출 유닛(701)은 처리 및 컴퓨팅 능력을 갖는 다양한 범용 및/또는 전용 처리 컴포넌트일 수 있다. 산출 유닛(701)의 일부 예에는 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 다양한 전용 인공 지능(AI) 컴퓨팅 칩, 기계 학습 모델 알고리즘을 실행하는 다양한 산출 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적절한 프로세서, 컨트롤러, 마이크로 컨트롤러 등이 포함되나 이에 한정되지 않는다. 산출 유닛(701)은 전술한 다양한 방법 및 프로세스, 예를 들어 표시 방법을 수행한다. 예를 들어, 일부 실시예에서, 표시 방법은 저장 유닛(708)과 같은 기계 판독 가능 저장 매체에 유형적으로 포함된 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(702) 및/또는 통신 유닛(709)을 통해 기기(700)에 로딩 및/또는 장착될 수 있다. 컴퓨터 프로그램이 RAM(703)에 로딩되고 산출 유닛(701)에 의해 실행될 경우, 위에서 설명된 표시 방법의 하나 이상의 단계가 실행될 수 있다. 대안적으로, 다른 실시예에서, 산출 유닛(701)은 임의의 다른 적절한 방식을 통해(예를 들어, 펌웨어를 통해) 표시 방법을 구현하도록 구성될 수 있다.
여기서 기술된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그래머블 게이트 어레이(FPGA), 전용 집적 회로(ASIC), 전용 표준 제품(ASSP), 시스템 온 칩의 시스템(SOC), 복합 프로그램 가능 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 이상의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신하며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
본 발명의 방법을 구현하는 프로그램 코드는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성될 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램 가능 표시 장치의 프로세서 또는 컨트롤러에 제공되어, 프로그램 코드가 프로세서에 의해 실행될 경우, 흐름도 및/또는 블록도에 지정된 기능/동작이 구현될 수 있도록 한다. 프로그램 코드는 전부 기계에서 실행되거나, 부분적으로 기계에서 실행되거나, 독립형 소프트웨어 패키지로서 부분적으로 기계에서 실행되고 부분적으로 원격 기계에서 실행되거나 전부 원격 기계 또는 서버에서 실행될 수 있다.
본 발명의 컨텍스트에서, 기계 판독 가능 매체는 명령 실행 시스템, 장치 또는 기기에 의해 사용되거나 명령 실행 시스템, 장치 또는 기기와 결합하여 사용하기 위한 프로그램을 포함하거나 저장할 수 있는 유형 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 내용의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 보다 구체적인 예는 하나 이상의 와이어에 기반한 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 컴팩트 디스크 판독 전용 메모리(CD-ROM), 광학 저장 기기, 자기 저장 기기 또는 상술한 내용의 임의의 적절한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 포인팅 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 포인팅 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백)일 수 있고; 임의의 형태(사운드 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 애플리케이션 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백엔드 부재, 미들엔드 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 시스템의 부재는 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 서로 연결될 수 있다. 통신 네트워크의 예로는 근거리 통신망(LAN), 광역 통신망(WAN), 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 클라이언트 및 서버의 관계는, 대응되는 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램에 의해 생성된다. 서버는 클라우드 서버, 분산형 시스템의 서버일 수도 있으며, 또는 블록체인과 결합된 서버일 수도 있다.
위에서 설명한 다양한 형태의 프로세스를 통해 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 발명에 기재된 각 단계는 동시에, 순차적으로 또는 상이한 순서로 수행될 수 있고, 본 발명에 개시된 기술적 해결수단이 이루고자 하는 결과를 달성할 수만 있으면, 본문은 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 발명의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체가 이루어질 수 있음을 이해할 것이다. 본 발명의 사상 및 원칙 내에서 이루어진 모든 수정, 등가적 대체 및 개선은 모두 본 발명의 보호 범위 내에 포함되어야 한다.

Claims (17)

  1. 표시 방법으로서,
    제1 이미지를 획득하되, 상기 제1 이미지는 운전자의 안구 상태 이미지인 단계;
    제2 이미지를 획득하되, 상기 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지인 단계;
    상기 제1 이미지와 상기 제2 이미지를 기반으로 관심 지점(POI) 객체를 결정하는 단계; 및
    상기 POI 객체의 타깃 표시 위치를 결정하고, 상기 타깃 표시 위치에 상기 POI 객체를 표시하는 단계를 포함하는 표시 방법.
  2. 제1항에 있어서,
    상기 제1 이미지와 상기 제2 이미지를 기반으로, 관심 지점(POI) 객체를 결정하는 단계는,
    상기 제1 이미지를 기반으로 상기 운전자의 시선 방향을 결정하는 단계; 및
    상기 시선 방향을 기반으로 상기 제2 이미지 중의 POI 객체를 결정하는 단계를 포함하는 표시 방법.
  3. 제2항에 있어서,
    상기 시선 방향을 기반으로 상기 제2 이미지 중의 POI 객체를 결정하는 단계는,
    상기 시선 방향에 타깃 객체가 있는지의 여부를 판단하는 단계; 및
    판단 결과를 기반으로 상기 제2 이미지 중의 POI 객체를 결정하는 단계를 포함하는 표시 방법.
  4. 제3항에 있어서,
    상기 시선 방향에 타깃 객체가 있는지의 여부를 판단하는 단계는,
    상기 시선 방향을 기반으로 월드 좌표계 중의 제1 타깃 영역을 결정하는 단계;
    상기 월드 좌표계와 상기 제2 이미지에 대응되는 이미지 좌표계 사이의 대응 관계를 기반으로, 상기 제2 이미지에서 상기 제1 타깃 영역에 대응되는 제2 타깃 영역을 결정하는 단계; 및
    상기 제2 타깃 영역 내에 타깃 객체가 있는지의 여부를 판단하는 단계를 포함하는 표시 방법.
  5. 제4항에 있어서,
    상기 판단 결과를 기반으로 상기 제2 이미지 중의 POI 객체를 결정하는 단계는,
    상기 제2 타깃 영역 내에 타깃 객체가 있고, 상기 운전자의 시선이 상기 타깃 객체에 기 설정된 시간 동안 머무르는 것에 응답하여, 상기 타깃 객체를 상기 POI 객체로 결정하는 단계; 및
    그렇지 않으면, 기 설정된 규칙을 기반으로, 상기 제2 이미지 중의 POI 객체를 결정하는 단계를 포함하는 표시 방법.
  6. 제5항에 있어서,
    상기 POI 객체의 타깃 표시 위치를 결정하는 단계는,
    상기 이미지 좌표계와 헤드업 디스플레이 화면에 대응되는 디스플레이 좌표계 사이의 대응 관계를 기반으로, 상기 헤드업 디스플레이 화면에서 상기 POI 객체의 타깃 표시 위치를 결정하는 단계를 포함하는 표시 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 제1 이미지와 상기 제2 이미지를 기반으로 POI 객체를 결정하는 단계 이후에, 상기 표시 방법은,
    차량의 현재 위치 정보를 획득하는 단계; 및
    상기 현재 위치 정보를 기반으로 상기 POI 객체의 속성 정보를 획득하는 단계를 더 포함하고,
    상기 타깃 표시 위치에 상기 POI 객체를 표시하는 단계는,
    상기 타깃 표시 위치에 상기 POI 객체를 표시하는 단계; 및
    상기 속성 정보를 상기 POI 객체에 중첩되게 표시하는 단계를 포함하는 표시 방법.
  8. 표시 장치로서,
    제1 이미지를 획득하도록 구성되되, 상기 제1 이미지는 운전자의 안구 상태 이미지인 제1 획득 모듈;
    제2 이미지를 획득하도록 구성되되, 상기 제2 이미지는 운전자가 탑승한 차량의 주변 환경 이미지인 제2 획득 모듈;
    상기 제1 이미지와 상기 제2 이미지를 기반으로 POI 객체를 결정하도록 구성된 제1 결정 모듈; 및
    상기 POI 객체의 타깃 표시 위치를 결정하고, 상기 타깃 표시 위치에 상기 POI 객체를 표시하도록 구성된 제2 결정 모듈을 포함하는 표시 장치.
  9. 제8항에 있어서,
    제1 결정 모듈은,
    상기 제1 이미지를 기반으로 상기 운전자의 시선 방향을 결정하도록 구성된 제1 결정 서브 모듈; 및
    상기 시선 방향을 기반으로 상기 제2 이미지 중의 POI 객체를 결정하도록 구성된 제2 결정 서브 모듈을 포함하는 표시 장치.
  10. 제9항에 있어서,
    상기 제2 결정 서브 모듈은,
    상기 시선 방향에 타깃 객체가 있는지의 여부를 판단하도록 구성된 판단 유닛; 및
    판단 결과를 기반으로 상기 제2 이미지 중의 POI 객체를 결정하도록 구성된 결정 유닛을 포함하는 표시 장치.
  11. 제10항에 있어서,
    상기 판단 유닛은,
    상기 시선 방향을 기반으로 월드 좌표계 중의 제1 타깃 영역을 결정하도록 구성된 제1 결정 서브 유닛;
    상기 월드 좌표계와 상기 제2 이미지에 대응되는 이미지 좌표계 사이의 대응 관계를 기반으로, 상기 제2 이미지 중 상기 제1 타깃 영역에 대응되는 제2 타깃 영역을 결정하도록 구성된 제2 결정 서브 유닛; 및
    상기 제2 타깃 영역 내에 타깃 객체가 있는지의 여부를 판단하도록 구성된 판단 서브 유닛을 포함하는 표시 장치.
  12. 제11항에 있어서,
    상기 결정 유닛은,
    상기 제2 타깃 영역 내에 타깃 객체가 있고, 상기 운전자의 시선이 상기 타깃 객체에 기 설정된 시간 동안 머무르는 것에 응답하여, 상기 타깃 객체를 상기 POI 객체로 결정하도록 구성된 제3 결정 서브 유닛; 및
    그렇지 않으면, 기 설정된 규칙을 기반으로, 상기 제2 이미지 중의 POI 객체를 결정하도록 구성된 제4 결정 서브 유닛을 포함하는 표시 장치.
  13. 제12항에 있어서,
    상기 제2 결정 모듈은,
    상기 이미지 좌표계와 헤드업 디스플레이 화면에 대응되는 디스플레이 좌표계 사이의 대응 관계를 기반으로, 상기 헤드업 디스플레이 화면에서 상기 POI 객체의 타깃 표시 위치를 결정하도록 구성된 제3 결정 서브 모듈을 포함하는 표시 장치.
  14. 제8항 내지 제13항 중의 어느 한 항에 있어서,
    상기 표시 장치는,
    차량의 현재 위치 정보를 획득하도록 구성된 제3 획득 모듈; 및
    상기 현재 위치 정보를 기반으로 상기 POI 객체의 속성 정보를 획득하도록 구성된 제4 획득 모듈을 더 포함하고,
    상기 제2 결정 모듈은,
    상기 타깃 표시 위치에 상기 POI 객체를 표시하도록 구성된 제1 표시 서브 모듈; 및
    상기 속성 정보를 상기 POI 객체에 중첩되게 표시하도록 구성된 제2 표시 서브 모듈을 포함하는 표시 장치.
  15. 단말 기기로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하되,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제7항 중 어느 한 항에 따른 표시 방법을 구현할 수 있도록 하는 단말 기기.
  16. 컴퓨터 명령이 저장된 비 일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제7항 중 어느 한 항에 따른 표시 방법을 구현하도록 하는 비 일시적 컴퓨터 판독 가능 저장 매체.
  17. 컴퓨터 판독 가능 저장 매체에 저정된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 내지 제7항 중 어느 한 항에 따른 표시 방법을 구현하는 컴퓨터 프로그램.
KR1020220047286A 2021-06-25 2022-04-18 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 KR20220056834A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110709951.6A CN113434620A (zh) 2021-06-25 2021-06-25 显示方法、装置、设备、存储介质以及计算机程序产品
CN202110709951.6 2021-06-25

Publications (1)

Publication Number Publication Date
KR20220056834A true KR20220056834A (ko) 2022-05-06

Family

ID=77754403

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220047286A KR20220056834A (ko) 2021-06-25 2022-04-18 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US20220307855A1 (ko)
EP (1) EP4057127A3 (ko)
JP (1) JP2022095787A (ko)
KR (1) KR20220056834A (ko)
CN (1) CN113434620A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116185190B (zh) * 2023-02-09 2024-05-10 江苏泽景汽车电子股份有限公司 一种信息显示控制方法、装置及电子设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009264835A (ja) * 2008-04-23 2009-11-12 Panasonic Corp ナビゲーション装置、方法及びプログラム
JP2010143520A (ja) * 2008-12-22 2010-07-01 Toshiba Corp 車載用表示システム及び表示方法
KR101409846B1 (ko) * 2012-12-18 2014-06-19 전자부품연구원 3차원 증강현실 기반 헤드 업 디스플레이 장치
JP2017039373A (ja) * 2015-08-19 2017-02-23 トヨタ自動車株式会社 車両用映像表示システム
JP2017122640A (ja) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 情報制御装置
KR102463688B1 (ko) * 2016-05-26 2022-11-07 현대자동차주식회사 증강현실 헤드업 디스플레이 시스템에서 월드좌표를 활용한 정보 표시 방법
TWI653170B (zh) * 2017-11-01 2019-03-11 宏碁股份有限公司 駕駛提示方法與系統
WO2019198998A1 (ko) * 2018-04-12 2019-10-17 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량
US11900672B2 (en) * 2018-04-23 2024-02-13 Alpine Electronics of Silicon Valley, Inc. Integrated internal and external camera system in vehicles
WO2020017677A1 (ko) * 2018-07-20 2020-01-23 엘지전자 주식회사 영상 출력 장치
CN109101613A (zh) * 2018-08-06 2018-12-28 斑马网络技术有限公司 用于车辆的兴趣点显示方法及装置、电子设备、存储介质
US11037368B2 (en) * 2018-09-11 2021-06-15 Samsung Electronics Co., Ltd. Localization method and apparatus of displaying virtual object in augmented reality
JP7255608B2 (ja) * 2018-11-23 2023-04-11 日本精機株式会社 表示制御装置、方法、及びコンピュータ・プログラム
CN111284325B (zh) * 2018-12-10 2022-04-15 博泰车联网科技(上海)股份有限公司 车辆、车机设备及其车辆沿途对象详尽信息显示方法
KR20200075328A (ko) * 2018-12-18 2020-06-26 현대자동차주식회사 차량의 주행 정보 제공 방법, 장치 및 기록매체
JP7250547B2 (ja) * 2019-02-05 2023-04-03 本田技研工業株式会社 エージェントシステム、情報処理装置、情報処理方法、およびプログラム
JP2020126551A (ja) * 2019-02-06 2020-08-20 トヨタ自動車株式会社 車両周辺監視システム
CN109917920B (zh) * 2019-03-14 2023-02-24 阿波罗智联(北京)科技有限公司 车载投射处理方法、装置、车载设备及存储介质
CN110148224B (zh) * 2019-04-04 2020-05-19 精电(河源)显示技术有限公司 Hud图像显示方法、装置及终端设备
US11467370B2 (en) * 2019-05-27 2022-10-11 Samsung Electronics Co., Ltd. Augmented reality device for adjusting focus region according to direction of user's view and operating method of the same
KR20190109336A (ko) * 2019-09-05 2019-09-25 엘지전자 주식회사 운전자 시선에 기반한 길 안내 서비스 지원 장치 및 이를 이용한 자동차 내비게이션 시스템
CN111086453A (zh) * 2019-12-30 2020-05-01 深圳疆程技术有限公司 一种基于摄像头的hud增强现实显示方法、装置及汽车
US11617941B2 (en) * 2020-09-01 2023-04-04 GM Global Technology Operations LLC Environment interactive system providing augmented reality for in-vehicle infotainment and entertainment
CN112242009A (zh) * 2020-10-19 2021-01-19 浙江水晶光电科技股份有限公司 显示效果融合方法、系统、存储介质及主控单元
CN112507799B (zh) * 2020-11-13 2023-11-24 幻蝎科技(武汉)有限公司 基于眼动注视点引导的图像识别方法、mr眼镜及介质

Also Published As

Publication number Publication date
US20220307855A1 (en) 2022-09-29
EP4057127A3 (en) 2022-12-28
JP2022095787A (ja) 2022-06-28
CN113434620A (zh) 2021-09-24
EP4057127A2 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
US10832084B2 (en) Dense three-dimensional correspondence estimation with multi-level metric learning and hierarchical matching
US20220309702A1 (en) Method and apparatus for tracking sight line, device, storage medium, and computer program product
EP4296827A1 (en) Redundant tracking system
WO2019037489A1 (zh) 地图显示方法、装置、存储介质及终端
KR20210151724A (ko) 차량 포지셔닝 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램
CN109117684A (zh) 用于在双目增强现实设备上选择性扫描的系统和方法
CN113483774B (zh) 导航方法、装置、电子设备及可读存储介质
CN111737603B (zh) 判断兴趣点是否可视的方法、装置、设备以及存储介质
CN113343128A (zh) 用于推送信息的方法、装置、设备以及存储介质
KR20220056834A (ko) 표시 방법, 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램
CN115082690B (zh) 目标识别方法、目标识别模型训练方法及装置
CN114187509B (zh) 对象定位方法、装置、电子设备以及存储介质
CN115578432A (zh) 图像处理方法、装置、电子设备及存储介质
CN113566847B (zh) 导航校准方法和装置、电子设备、计算机可读介质
CN113643440A (zh) 定位方法、装置、设备和存储介质
CN114266876A (zh) 定位方法、视觉地图的生成方法及其装置
CN113654548A (zh) 定位方法、装置、电子设备及存储介质
US20220412761A1 (en) Navigation method, electronic device and readable storage medium
US20220341737A1 (en) Method and device for navigating
CN115171412B (zh) 车辆行驶状态的显示方法、系统及装置
EP4187205A2 (en) Navigating method and apparatus, and medium
CN117968659A (zh) 方向指示方法、装置、存储介质及电子设备
CN116164746A (zh) 基于vo的位姿解算方法、装置、设备及产品
CN116466685A (zh) 针对自动驾驶感知算法的评测方法及装置、设备和介质
CN115235487A (zh) 数据处理方法及装置、设备和介质