WO2022154478A1 - 증강현실 서비스를 제공하는 ar 서비스 플랫폼 - Google Patents

증강현실 서비스를 제공하는 ar 서비스 플랫폼 Download PDF

Info

Publication number
WO2022154478A1
WO2022154478A1 PCT/KR2022/000561 KR2022000561W WO2022154478A1 WO 2022154478 A1 WO2022154478 A1 WO 2022154478A1 KR 2022000561 W KR2022000561 W KR 2022000561W WO 2022154478 A1 WO2022154478 A1 WO 2022154478A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
service
complexity
tpo
Prior art date
Application number
PCT/KR2022/000561
Other languages
English (en)
French (fr)
Inventor
강병수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US18/272,052 priority Critical patent/US20240071074A1/en
Publication of WO2022154478A1 publication Critical patent/WO2022154478A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3476Special cost functions, i.e. other than distance or default speed limit of road segments using point of interest [POI] information, e.g. a route passing visible POIs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q90/00Systems or methods specially adapted for administrative, commercial, financial, managerial or supervisory purposes, not involving significant data processing
    • G06Q90/20Destination assistance within a business structure or complex
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Definitions

  • the present invention relates to an AR service platform that provides an augmented reality service.
  • a vehicle is a device that moves a user in a desired direction.
  • a typical example is a car.
  • ADAS advanced driver assistance system
  • autonomous Vehicle autonomous Vehicle
  • An object of the present invention is to provide an AR service platform that provides an optimized augmented reality service while driving a vehicle.
  • An object of the present invention is to provide an AR service platform capable of providing an AR service optimized according to a vehicle situation.
  • the AR service platform is an AR service platform that provides an AR service, which is provided outside the vehicle, collects and processes information necessary for the AR service, and transmits it to the vehicle. It is provided in the server and the vehicle, and includes an AR service device that provides an AR service using the information transmitted from the server, wherein the server calculates and calculates a TPO complexity (Time Place Occasion Complexity Level) of the real world. and a TPO complexity calculation module that determines the amount of information to be transmitted to the AR service device by using the calculated complexity.
  • TPO complexity Time Place Occasion Complexity Level
  • the TPO complexity calculation module collects real-world TPO information from the AR service device, and calculates fixed complexity and variable complexity based on the collected TPO information.
  • the TPO complexity calculation module may calculate the TPO complexity based on the fixed complexity and the variable complexity.
  • the TPO complexity calculation module is characterized in that, based on the calculated TPO complexity, at least one of a type and an amount of information to be transmitted to the AR service device is varied.
  • the TPO complexity calculation module is characterized in that, based on the calculated TPO complexity, a display policy for the AR object output to the AR service is established.
  • the display policy is characterized in that it includes a setting value for at least one of a type, information amount, location, and display time of the AR object.
  • the TPO complexity calculation module processes the AR object transmitted to the AR service device to correspond to the display policy.
  • the TPO complexity calculation module is characterized in that the information received from the external service server is processed based on the display policy, and the processed information is transmitted to the AR service device.
  • the TPO complexity calculation module transmits the information on the calculated TPO complexity to the AR service device, and the AR service device transmits the information on the received TPO complexity to the AR service based on the received TPO complexity information. It is characterized in that the display policy for the output AR object is established.
  • the AR service device processes the AR object to correspond to the display policy, and provides the AR service by overlapping the processed AR object with an image captured by a vehicle camera. .
  • an AR service platform capable of providing an AR service optimized to a passenger in a vehicle.
  • the present invention it is possible to provide a new AR service platform that can dynamically adjust the information and the amount of information to be displayed in AR according to the vehicle situation and select the information to be emphasized.
  • an AR service platform capable of providing an AR service optimized according to the complexity by changing the display policy of the AR object according to the TPO complexity.
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a view of a vehicle according to an embodiment of the present invention viewed from various angles from the outside.
  • 3 to 4 are views illustrating the interior of a vehicle according to an embodiment of the present invention.
  • 5 to 6 are diagrams referenced to describe an object according to an embodiment of the present invention.
  • FIG. 7 is a block diagram referenced for explaining a vehicle according to an embodiment of the present invention.
  • FIG. 8 is a conceptual diagram illustrating a system for providing an AR service according to the present invention.
  • FIG. 9 is a conceptual diagram for explaining the AR service platform of the present invention.
  • FIG. 10 is a flowchart for explaining a representative control method of the present invention.
  • 11, 12, 13, 14, 15 and 16 are flowcharts and conceptual diagrams for explaining the control method illustrated in FIG. 10 .
  • 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33 , 34, 35, 36, 37 and 38 are flowcharts and conceptual diagrams for explaining various AR service providing methods of the AR service platform of the present invention.
  • 39, 40, 41, 42, 43, and 44 are conceptual diagrams for explaining a method for the AR service platform of the present invention to output an AR object on a building using an AR wall.
  • 45 is a flowchart illustrating a method of providing an AR service according to the TPO complexity of the present invention.
  • 46, 47, 48, 49, and 50 are conceptual diagrams for explaining the control method illustrated in FIG. 45 .
  • the vehicle described in this specification may be a concept including an automobile and a motorcycle.
  • the vehicle will be mainly described with respect to the vehicle.
  • the vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, and an electric vehicle having an electric motor as a power source.
  • the left side of the vehicle means the left side of the driving direction of the vehicle
  • the right side of the vehicle means the right side of the driving direction of the vehicle
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a view of a vehicle according to an embodiment of the present invention as viewed from various angles from the outside.
  • 3 to 4 are views illustrating the interior of a vehicle according to an embodiment of the present invention.
  • 5 to 6 are diagrams referenced to describe an object according to an embodiment of the present invention.
  • FIG. 7 is a block diagram referenced for explaining a vehicle according to an embodiment of the present invention.
  • the vehicle 100 may include wheels rotated by a power source and a steering input device 510 for controlling the traveling direction of the vehicle 100 .
  • the vehicle 100 may be an autonomous driving vehicle.
  • the vehicle 100 may be switched to an autonomous driving mode or a manual mode based on a user input.
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on a user input received through the user interface device 200 .
  • the vehicle 100 may be switched to an autonomous driving mode or a manual mode based on driving situation information.
  • the driving situation information may be generated based on object information provided by the object detection apparatus 300 .
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on the driving situation information generated by the object detection apparatus 300 .
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on driving situation information received through the communication device 400 .
  • the vehicle 100 may be switched from the manual mode to the autonomous driving mode or from the autonomous driving mode to the manual mode based on information, data, and signals provided from an external device.
  • the autonomous driving vehicle 100 may be operated based on the driving system 700 .
  • the autonomous driving vehicle 100 may be operated based on information, data, or signals generated by the driving system 710 , the taking-out system 740 , and the parking system 750 .
  • the autonomous driving vehicle 100 may receive a user input for driving through the driving manipulation device 500 . Based on a user input received through the driving manipulation device 500 , the vehicle 100 may be driven.
  • the overall length refers to the length from the front part to the rear part of the vehicle 100
  • the width refers to the width of the vehicle 100
  • the height refers to the length from the lower part of the wheel to the roof.
  • the overall length direction (L) is the standard direction for measuring the overall length of the vehicle 100
  • the full width direction (W) is the standard direction for measuring the full width of the vehicle 100
  • the total height direction (H) is the vehicle (100) may mean a direction that is a reference for measuring the total height.
  • the vehicle 100 includes a user interface device 200 , an object detection device 300 , a communication device 400 , a driving manipulation device 500 , a vehicle driving device 600 , and a driving system. 700 , a navigation system 770 , a sensing unit 120 , an interface unit 130 , a memory 140 , a control unit 170 , and a power supply unit 190 .
  • the vehicle 100 may further include other components in addition to the components described herein, or may not include some of the components described herein.
  • the user interface device 200 is a device for communication between the vehicle 100 and a user.
  • the user interface device 200 may receive a user input and provide information generated in the vehicle 100 to the user.
  • the vehicle 100 may implement User Interfaces (UIs) or User Experiences (UXs) through the user interface device 200 .
  • UIs User Interfaces
  • UXs User Experiences
  • the user interface device 200 may include an input unit 210 , an internal camera 220 , a biometric sensor 230 , an output unit 250 , and a processor 270 .
  • the user interface apparatus 200 may further include other components in addition to the described components, or may not include some of the described components.
  • the input unit 200 is for receiving information from a user, and the data collected by the input unit 120 may be analyzed by the processor 270 and processed as a user's control command.
  • the input unit 200 may be disposed inside the vehicle.
  • the input unit 200 may include one region of a steering wheel, one region of an instrument panel, one region of a seat, one region of each pillar, and a door.
  • One area of the door, one area of the center console, one area of the head lining, one area of the sun visor, one area of the windshield or the window (window) It may be disposed in one area or the like.
  • the input unit 200 may include a voice input unit 211 , a gesture input unit 212 , a touch input unit 213 , and a mechanical input unit 214 .
  • the voice input unit 211 may convert the user's voice input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the controller 170 .
  • the voice input unit 211 may include one or more microphones.
  • the gesture input unit 212 may convert the user's gesture input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the controller 170 .
  • the gesture input unit 212 may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.
  • the gesture input unit 212 may detect a user's 3D gesture input.
  • the gesture input unit 212 may include a light output unit that outputs a plurality of infrared rays or a plurality of image sensors.
  • the gesture input unit 212 may detect the user's 3D gesture input through a time of flight (TOF) method, a structured light method, or a disparity method.
  • TOF time of flight
  • the touch input unit 213 may convert a user's touch input into an electrical signal.
  • the converted electrical signal may be provided to the processor 270 or the controller 170 .
  • the touch input unit 213 may include a touch sensor for sensing a user's touch input.
  • the touch input unit 213 may be integrally formed with the display unit 251 to implement a touch screen.
  • a touch screen may provide both an input interface and an output interface between the vehicle 100 and the user.
  • the mechanical input unit 214 may include at least one of a button, a dome switch, a jog wheel, and a jog switch.
  • the electrical signal generated by the mechanical input unit 214 may be provided to the processor 270 or the control unit 170 .
  • the mechanical input unit 214 may be disposed on a steering wheel, a center fascia, a center console, a cockpick module, a door, and the like.
  • the internal camera 220 may acquire an image inside the vehicle.
  • the processor 270 may detect the user's state based on the image inside the vehicle.
  • the processor 270 may acquire the user's gaze information from the image inside the vehicle.
  • the processor 270 may detect the user's gesture from the image inside the vehicle.
  • the biometric sensor 230 may obtain biometric information of the user.
  • the biometric sensor 230 may include a sensor capable of obtaining the user's biometric information, and may obtain the user's fingerprint information, heart rate information, and the like, using the sensor.
  • the biometric information may be used for user authentication.
  • the output unit 250 is for generating an output related to visual, auditory or tactile sense.
  • the output unit 250 may include at least one of a display unit 251 , a sound output unit 252 , and a haptic output unit 253 .
  • the display unit 251 may display graphic objects corresponding to various pieces of information.
  • the display unit 251 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (Flexible Display).
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • Flexible Display Flexible Display
  • display a three-dimensional display (3D display)
  • e-ink display may include at least one.
  • the display unit 251 may form a layer structure with the touch input unit 213 or be integrally formed to implement a touch screen.
  • the display unit 251 may be implemented as a head-up display (HUD).
  • the display unit 251 may include a projection module to output information through an image projected on a windshield or window.
  • the display unit 251 may include a transparent display.
  • the transparent display may be attached to a windshield or window.
  • the transparent display may display a predetermined screen while having a predetermined transparency.
  • Transparent display in order to have transparency, transparent TFEL (Thin Film Elecroluminescent), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display may include at least one of The transparency of the transparent display can be adjusted.
  • the user interface device 200 may include a plurality of display units 251a to 251g.
  • the display unit 251 includes one area of the steering wheel, one area 521a, 251b, and 251e of the instrument panel, one area 251d of the seat, one area 251f of each pillar, and one area of the door ( 251g), one area of the center console, one area of the head lining, one area of the sun visor, or one area 251c of the windshield and one area 251h of the window.
  • the sound output unit 252 converts an electric signal provided from the processor 270 or the controller 170 into an audio signal and outputs the converted signal. To this end, the sound output unit 252 may include one or more speakers.
  • the haptic output unit 253 generates a tactile output.
  • the haptic output unit 253 may vibrate the steering wheel, the seat belt, and the seats 110FL, 110FR, 110RL, and 110RR so that the user can recognize the output.
  • the processor 270 may control the overall operation of each unit of the user interface device 200 .
  • the user interface apparatus 200 may include a plurality of processors 270 or may not include the processors 270 .
  • the user interface device 200 may be operated under the control of a processor or controller 170 of another device in the vehicle 100 .
  • the user interface device 200 may be referred to as a vehicle display device.
  • the user interface device 200 may be operated under the control of the controller 170 .
  • the object detecting apparatus 300 is an apparatus for detecting an object located outside the vehicle 100 .
  • the object may be various objects related to the operation of the vehicle 100 .
  • the object O includes a lane OB10, another vehicle OB11, a pedestrian OB12, a two-wheeled vehicle OB13, traffic signals OB14, OB15, light, road, structure, This may include speed bumps, features, animals, and the like.
  • the lane OB10 may be a driving lane, a lane next to the driving lane, or a lane in which vehicles facing each other travel.
  • the lane OB10 may be a concept including left and right lines forming a lane.
  • the other vehicle OB11 may be a vehicle running in the vicinity of the vehicle 100 .
  • the other vehicle may be a vehicle located within a predetermined distance from the vehicle 100 .
  • the other vehicle OB11 may be a vehicle preceding or following the vehicle 100 .
  • the pedestrian OB12 may be a person located in the vicinity of the vehicle 100 .
  • the pedestrian OB12 may be a person located within a predetermined distance from the vehicle 100 .
  • the pedestrian OB12 may be a person located on a sidewalk or a roadway.
  • the two-wheeled vehicle OB12 may refer to a vehicle positioned around the vehicle 100 and moving using two wheels.
  • the two-wheeled vehicle OB12 may be a vehicle having two wheels positioned within a predetermined distance from the vehicle 100 .
  • the two-wheeled vehicle OB13 may be a motorcycle or a bicycle located on a sidewalk or roadway.
  • the traffic signal may include a traffic light OB15, a traffic sign OB14, and a pattern or text drawn on a road surface.
  • the light may be light generated from a lamp provided in another vehicle.
  • the light can be the light generated from the street lamp.
  • the light may be sunlight.
  • the road may include a road surface, a curve, an uphill slope, a downhill slope, and the like.
  • the structure may be an object located around a road and fixed to the ground.
  • the structure may include a street light, a street tree, a building, a power pole, a traffic light, and a bridge.
  • Features may include mountains, hills, and the like.
  • the object may be classified into a moving object and a fixed object.
  • the moving object may be a concept including other vehicles and pedestrians.
  • the fixed object may be a concept including a traffic signal, a road, and a structure.
  • the object detection apparatus 300 may include a camera 310 , a radar 320 , a lidar 330 , an ultrasonic sensor 340 , an infrared sensor 350 , and a processor 370 .
  • the object detecting apparatus 300 may further include other components in addition to the described components, or may not include some of the described components.
  • the camera 310 may be located at an appropriate place outside the vehicle in order to acquire an image outside the vehicle.
  • the camera 310 may be a mono camera, a stereo camera 310a, an AVM (Around View Monitoring) camera 310b, or a 360 degree camera.
  • the camera 310 may be disposed adjacent to the front windshield in the interior of the vehicle to acquire an image of the front of the vehicle.
  • the camera 310 may be disposed around the front bumper or radiator grill.
  • the camera 310 may be disposed adjacent to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle.
  • the camera 310 may be disposed around a rear bumper, a trunk, or a tailgate.
  • the camera 310 may be disposed adjacent to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle.
  • the camera 310 may be disposed around a side mirror, a fender, or a door.
  • the camera 310 may provide the acquired image to the processor 370 .
  • the radar 320 may include an electromagnetic wave transmitter and a receiver.
  • the radar 320 may be implemented in a pulse radar method or a continuous wave radar method in view of a radio wave emission principle.
  • the radar 320 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keyong
  • the radar 320 detects an object based on an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and a position of the detected object, a distance from the detected object, and a relative speed. can be detected.
  • TOF time of flight
  • the radar 320 may be disposed at an appropriate location outside the vehicle to detect an object located in front, rear, or side of the vehicle.
  • the lidar 330 may include a laser transmitter and a receiver.
  • the lidar 330 may be implemented in a time of flight (TOF) method or a phase-shift method.
  • TOF time of flight
  • the lidar 330 may be implemented as a driven or non-driven type.
  • the lidar 330 When implemented as a driving type, the lidar 330 is rotated by a motor and may detect an object around the vehicle 100 .
  • the lidar 330 may detect an object located within a predetermined range with respect to the vehicle 100 by light steering.
  • the vehicle 100 may include a plurality of non-driven lidars 330 .
  • the lidar 330 detects an object based on a time of flight (TOF) method or a phase-shift method as a laser light medium, and determines the position of the detected object, the distance from the detected object, and Relative speed can be detected.
  • TOF time of flight
  • phase-shift method as a laser light medium
  • the lidar 330 may be disposed at an appropriate location outside the vehicle to detect an object located in the front, rear, or side of the vehicle.
  • the ultrasonic sensor 340 may include an ultrasonic transmitter and a receiver.
  • the ultrasound sensor 340 may detect an object based on ultrasound, and detect a position of the detected object, a distance from the detected object, and a relative speed.
  • the ultrasonic sensor 340 may be disposed at an appropriate location outside the vehicle to detect an object located at the front, rear, or side of the vehicle.
  • the infrared sensor 350 may include an infrared transmitter and a receiver.
  • the infrared sensor 340 may detect an object based on infrared light, and detect a position of the detected object, a distance from the detected object, and a relative speed.
  • the infrared sensor 350 may be disposed at an appropriate location outside the vehicle to detect an object located in front, rear, or side of the vehicle.
  • the processor 370 may control the overall operation of each unit of the object detection apparatus 300 .
  • the processor 370 may detect and track the object based on the acquired image.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with respect to an object through an image processing algorithm.
  • the processor 370 may detect and track the object based on the reflected electromagnetic wave that is reflected by the object and returns.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with respect to the object based on the electromagnetic wave.
  • the processor 370 may detect and track the object based on reflected laser light from which the transmitted laser is reflected by the object and returned.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with respect to the object based on the laser light.
  • the processor 370 may detect and track the object based on the reflected ultrasound reflected back by the transmitted ultrasound.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with respect to the object based on the ultrasound.
  • the processor 370 may detect and track the object based on the reflected infrared light reflected back by the transmitted infrared light.
  • the processor 370 may perform operations such as calculating a distance to an object and calculating a relative speed with respect to the object based on the infrared light.
  • the object detecting apparatus 300 may include a plurality of processors 370 or may not include the processors 370 .
  • each of the camera 310 , the radar 320 , the lidar 330 , the ultrasonic sensor 340 , and the infrared sensor 350 may individually include a processor.
  • the object detection apparatus 300 may be operated under the control of the processor or the controller 170 of the apparatus in the vehicle 100 .
  • the object detection apparatus 400 may be operated under the control of the controller 170 .
  • the communication apparatus 400 is an apparatus for performing communication with an external device.
  • the external device may be another vehicle, a mobile terminal, or a server.
  • the communication device 400 may include at least one of a transmit antenna, a receive antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 400 may include a short-range communication unit 410 , a location information unit 420 , a V2X communication unit 430 , an optical communication unit 440 , a broadcast transceiver unit 450 , and a processor 470 .
  • the communication device 400 may further include other components in addition to the described components, or may not include some of the described components.
  • the short-range communication unit 410 is a unit for short-range communication.
  • the short-range communication unit 410 Bluetooth (BluetoothTM), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association; IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless) -Fidelity), Wi-Fi Direct, and at least one of Wireless USB (Wireless Universal Serial Bus) technologies may be used to support short-distance communication.
  • the short-range communication unit 410 may form wireless area networks to perform short-range communication between the vehicle 100 and at least one external device.
  • the location information unit 420 is a unit for obtaining location information of the vehicle 100 .
  • the location information unit 420 may include a Global Positioning System (GPS) module or a Differential Global Positioning System (DGPS) module.
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the V2X communication unit 430 is a unit for performing wireless communication with a server (V2I: Vehicle to Infra), another vehicle (V2V: Vehicle to Vehicle), or a pedestrian (V2P: Vehicle to Pedestrian).
  • the V2X communication unit 430 may include an RF circuit capable of implementing protocols for communication with infrastructure (V2I), vehicle-to-vehicle communication (V2V), and communication with pedestrians (V2P).
  • the optical communication unit 440 is a unit for performing communication with an external device via light.
  • the optical communication unit 440 may include an optical transmitter that converts an electrical signal into an optical signal to transmit to the outside, and an optical receiver that converts the received optical signal into an electrical signal.
  • the light transmitter may be formed to be integrated with a lamp included in the vehicle 100 .
  • the broadcast transceiver 450 is a unit for receiving a broadcast signal from an external broadcast management server or transmitting a broadcast signal to the broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal.
  • the processor 470 may control the overall operation of each unit of the communication device 400 .
  • the communication device 400 may include a plurality of processors 470 or may not include the processors 470 .
  • the communication device 400 may be operated under the control of a processor of another device in the vehicle 100 or the control unit 170 .
  • the communication device 400 may implement a vehicle display device together with the user interface device 200 .
  • the vehicle display device may be referred to as a telematics device or an AVN (Audio Video Navigation) device.
  • the communication device 400 may be operated under the control of the controller 170 .
  • the driving operation device 500 is a device that receives a user input for driving.
  • the vehicle 100 may be driven based on a signal provided by the driving manipulation device 500 .
  • the driving manipulation device 500 may include a steering input device 510 , an acceleration input device 530 , and a brake input device 570 .
  • the steering input device 510 may receive a driving direction input of the vehicle 100 from the user.
  • the steering input device 510 is preferably formed in a wheel shape to enable steering input by rotation.
  • the steering input device may be formed in the form of a touch screen, a touch pad, or a button.
  • the acceleration input device 530 may receive an input for acceleration of the vehicle 100 from a user.
  • the brake input device 570 may receive an input for decelerating the vehicle 100 from a user.
  • the acceleration input device 530 and the brake input device 570 are preferably formed in the form of pedals. According to an embodiment, the acceleration input device or the brake input device may be formed in the form of a touch screen, a touch pad, or a button.
  • the driving operation device 500 may be operated under the control of the controller 170 .
  • the vehicle driving device 600 is a device that electrically controls driving of various devices in the vehicle 100 .
  • the vehicle driving device 600 may include a power train driving unit 610 , a chassis driving unit 620 , a door/window driving unit 630 , a safety device driving unit 640 , a lamp driving unit 650 , and an air conditioning driving unit 660 .
  • a power train driving unit 610 may be included in the vehicle driving device 600 .
  • a chassis driving unit 620 may be included in the vehicle driving device 600 .
  • a door/window driving unit 630 may include a door/window driving unit 630 , a safety device driving unit 640 , a lamp driving unit 650 , and an air conditioning driving unit 660 .
  • the vehicle driving apparatus 600 may further include other components in addition to the described components, or may not include some of the described components.
  • the vehicle driving apparatus 600 may include a processor.
  • Each unit of the vehicle driving apparatus 600 may include a processor, respectively.
  • the power train driver 610 may control the operation of the power train device.
  • the power train driving unit 610 may include a power source driving unit 611 and a transmission driving unit 612 .
  • the power source driving unit 611 may control the power source of the vehicle 100 .
  • the power source driving unit 610 may perform electronic control of the engine. Thereby, the output torque of an engine, etc. can be controlled.
  • the power source driving unit 611 may adjust the engine output torque according to the control of the control unit 170 .
  • the power source driving unit 610 may control the motor.
  • the power source driving unit 610 may adjust the rotation speed, torque, and the like of the motor according to the control of the control unit 170 .
  • the transmission driving unit 612 may control the transmission.
  • the transmission driving unit 612 may adjust the state of the transmission.
  • the transmission driving unit 612 may adjust the state of the transmission to forward (D), reverse (R), neutral (N), or park (P).
  • the transmission driving unit 612 may adjust the engagement state of the gear in the forward (D) state.
  • the chassis driver 620 may control the operation of the chassis device.
  • the chassis driving unit 620 may include a steering driving unit 621 , a brake driving unit 622 , and a suspension driving unit 623 .
  • the steering driving unit 621 may perform electronic control of a steering apparatus in the vehicle 100 .
  • the steering driving unit 621 may change the traveling direction of the vehicle.
  • the brake driving unit 622 may perform electronic control of a brake apparatus in the vehicle 100 .
  • the speed of the vehicle 100 may be reduced by controlling the operation of a brake disposed on the wheel.
  • the brake driving unit 622 may individually control each of the plurality of brakes.
  • the brake driving unit 622 may differently control the braking force applied to the plurality of wheels.
  • the suspension driving unit 623 may electronically control a suspension apparatus in the vehicle 100 . For example, when there is a curve in the road surface, the suspension driving unit 623 may control the suspension device to reduce vibration of the vehicle 100 .
  • the suspension driving unit 623 may individually control each of the plurality of suspensions.
  • the door/window driving unit 630 may perform electronic control of a door apparatus or a window apparatus in the vehicle 100 .
  • the door/window driving unit 630 may include a door driving unit 631 and a window driving unit 632 .
  • the door driving unit 631 may control the door device.
  • the door driving unit 631 may control opening and closing of a plurality of doors included in the vehicle 100 .
  • the door driving unit 631 may control opening or closing of a trunk or a tail gate.
  • the door driving unit 631 may control opening or closing of a sunroof.
  • the window driving unit 632 may perform electronic control of a window apparatus. Opening or closing of a plurality of windows included in the vehicle 100 may be controlled.
  • the safety device driving unit 640 may perform electronic control of various safety apparatuses in the vehicle 100 .
  • the safety device driving unit 640 may include an airbag driving unit 641 , a seat belt driving unit 642 , and a pedestrian protection device driving unit 643 .
  • the airbag driving unit 641 may perform electronic control of an airbag apparatus in the vehicle 100 .
  • the airbag driver 641 may control the airbag to be deployed when a danger is detected.
  • the seat belt driving unit 642 may perform electronic control of a seat belt appartus in the vehicle 100 .
  • the seat belt driving unit 642 may control the occupant to be fixed to the seats 110FL, 110FR, 110RL, and 110RR using the seat belt when a danger is sensed.
  • the pedestrian protection device driving unit 643 may perform electronic control for the hood lift and the pedestrian airbag. For example, when detecting a collision with a pedestrian, the pedestrian protection device driving unit 643 may control to lift up the hood and deploy the pedestrian airbag.
  • the lamp driver 650 may electronically control various lamp apparatuses in the vehicle 100 .
  • the air conditioning driving unit 660 may perform electronic control of an air conditioner in the vehicle 100 . For example, when the temperature inside the vehicle is high, the air conditioning driving unit 660 may control the air conditioner to operate to supply cool air to the interior of the vehicle.
  • the vehicle driving apparatus 600 may include a processor. Each unit of the vehicle driving apparatus 600 may include a processor, respectively.
  • the vehicle driving apparatus 600 may be operated under the control of the controller 170 .
  • the operation system 700 is a system for controlling various operations of the vehicle 100 .
  • the driving system 700 may be operated in an autonomous driving mode.
  • the driving system 700 may include a driving system 710 , a vehicle taking-out system 740 , and a parking system 750 .
  • the navigation system 700 may further include other components in addition to the described components, or may not include some of the described components.
  • the driving system 700 may include a processor.
  • Each unit of the navigation system 700 may each individually include a processor.
  • the operation system 700 when the operation system 700 is implemented in software, it may be a sub-concept of the control unit 170 .
  • the driving system 700 may control at least one of the user interface device 200 , the object detection device 300 , the communication device 400 , the vehicle driving device 600 , and the control unit 170 . It may be a concept that includes
  • the driving system 710 may perform driving of the vehicle 100 .
  • the driving system 710 may receive navigation information from the navigation system 770 and provide a control signal to the vehicle driving apparatus 600 to drive the vehicle 100 .
  • the driving system 710 may receive object information from the object detecting apparatus 300 , and provide a control signal to the vehicle driving apparatus 600 to drive the vehicle 100 .
  • the driving system 710 may receive a signal from an external device through the communication device 400 and provide a control signal to the vehicle driving apparatus 600 to drive the vehicle 100 .
  • the un-parking system 740 may perform un-parking of the vehicle 100 .
  • the un-parking system 740 may receive navigation information from the navigation system 770 and provide a control signal to the vehicle driving apparatus 600 to un-park the vehicle 100 .
  • the un-parking system 740 may receive the object information from the object detection apparatus 300 and provide a control signal to the vehicle driving apparatus 600 to un-park the vehicle 100 .
  • the un-parking system 740 may receive a signal from an external device through the communication device 400 and provide a control signal to the vehicle driving apparatus 600 to un-park the vehicle 100 .
  • the parking system 750 may perform parking of the vehicle 100 .
  • the parking system 750 may receive navigation information from the navigation system 770 and provide a control signal to the vehicle driving device 600 to park the vehicle 100 .
  • the parking system 750 may receive object information from the object detection apparatus 300 , and may provide a control signal to the vehicle driving apparatus 600 to park the vehicle 100 .
  • the parking system 750 may receive a signal from an external device through the communication device 400 and provide a control signal to the vehicle driving apparatus 600 to park the vehicle 100 .
  • the navigation system 770 may provide navigation information.
  • the navigation information may include at least one of map information, set destination information, route information according to the destination setting, information on various objects on a route, lane information, and current location information of the vehicle.
  • the navigation system 770 may include a memory and a processor.
  • the memory may store navigation information.
  • the processor may control the operation of the navigation system 770 .
  • the navigation system 770 may receive information from an external device through the communication device 400 and update pre-stored information.
  • the navigation system 770 may be classified into sub-components of the user interface device 200 .
  • the sensing unit 120 may sense the state of the vehicle.
  • the sensing unit 120 may include a posture sensor (eg, a yaw sensor, a roll sensor, a pitch sensor), a collision sensor, a wheel sensor, a speed sensor, and an inclination. sensor, weight sensor, heading sensor, yaw sensor, gyro sensor, position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering wheel It may include a steering sensor by rotation, a vehicle internal temperature sensor, a vehicle internal humidity sensor, an ultrasonic sensor, an illuminance sensor, an accelerator pedal position sensor, a brake pedal position sensor, and the like.
  • the sensing unit 120 may include vehicle posture information, vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle inclination information, vehicle forward/reverse information, and a battery. Acquires sensing signals for information, fuel information, tire information, vehicle lamp information, vehicle interior temperature information, vehicle interior humidity information, steering wheel rotation angle, vehicle exterior illumination, pressure applied to the accelerator pedal, and pressure applied to the brake pedal can do.
  • the sensing unit 120 is, in addition, an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like.
  • the interface unit 130 may serve as a passage with various types of external devices connected to the vehicle 100 .
  • the interface unit 130 may have a port connectable to the mobile terminal, and may connect to the mobile terminal through the port. In this case, the interface unit 130 may exchange data with the mobile terminal.
  • the interface unit 130 may serve as a passage for supplying electrical energy to the connected mobile terminal.
  • the interface unit 130 may provide the electric energy supplied from the power supply unit 190 to the mobile terminal.
  • the memory 140 is electrically connected to the control unit 170 .
  • the memory 140 may store basic data for the unit, control data for operation control of the unit, and input/output data.
  • the memory 140 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware.
  • the memory 140 may store various data for the overall operation of the vehicle 100 , such as a program for processing or controlling the controller 170 .
  • the memory 140 may be formed integrally with the control unit 170 or may be implemented as a sub-component of the control unit 170 .
  • the controller 170 may control the overall operation of each unit in the vehicle 100 .
  • the control unit 170 may be referred to as an Electronic Control Unit (ECU).
  • ECU Electronic Control Unit
  • the power supply unit 190 may supply power required for the operation of each component under the control of the control unit 170 .
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • processors and control unit 170 include one or more processors and control unit 170, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs ( field programmable gate arrays), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors controllers, micro-controllers, microprocessors, and other electrical units for performing functions.
  • the vehicle 100 related to the present invention may include an AR service device 800 .
  • the AR service device 800 may control at least one of the components described with reference to FIG. 7 . From this point of view, the AR service device 800 may be the controller 170 .
  • the present invention is not limited thereto, and the AR service device 800 may be a separate configuration independent of the control unit 170 .
  • the AR service device 800 may be provided in a part of the vehicle 100 .
  • the AR service device 800 described in this specification may include all types of devices capable of controlling a vehicle, and may be, for example, a mobile terminal.
  • the AR service device 800 is a mobile terminal
  • the mobile terminal and the vehicle 100 may be connected so as to be able to communicate through wired/wireless communication.
  • the mobile terminal may control the vehicle 100 in various ways in a communication-connected state.
  • the processor 870 described herein may be a controller of the mobile terminal.
  • the AR service device 800 will be described as a separate configuration independent of the control unit 170 .
  • Functions (operations) and control methods described for the AR service apparatus 800 in this specification may be performed by the control unit 170 of the vehicle. That is, all contents described in relation to the AR service device 800 may be analogously applied to the controller 170 in the same/similar manner.
  • the AR service device 800 described in this specification may include some of the components described with reference to FIG. 7 and various components provided in the vehicle.
  • the components described with reference to FIG. 7 and various components provided in the vehicle will be described with separate names and reference numerals.
  • FIG. 8 is a conceptual diagram illustrating a system for providing an AR service according to the present invention.
  • the AR service platform for providing an AR service may include a server 900 , a vehicle 100 configured to be able to communicate with the server, and an AR service device 800 provided in the vehicle. .
  • the AR service device 800 may be provided in the vehicle 100 and may transmit/receive data by communicating with the electronic equipment provided in the vehicle as shown in FIG. 7 , and may control the electric equipment provided in the vehicle.
  • the server 900 may include a cloud server for providing an AR service, perform data communication with at least one vehicle, receive information related to the situation of each vehicle from the vehicles, and communicate with the vehicle. information required for AR service can be transmitted.
  • the vehicle 100 may include an AR service device 800 .
  • the AR service device 800 may be understood as a component of the vehicle 100, may be formed to be detachably attached to the vehicle, and an interface unit (not shown) for communication or control with electronic devices provided in the vehicle. city) may be provided.
  • Transmitting any data or information from the server 900 to the vehicle may include transmitting the certain data or information to the AR service device 800 .
  • FIG. 9 is a conceptual diagram for explaining the AR service platform of the present invention.
  • the AR service platform that provides the AR service of the present invention may be referred to as an AR service system.
  • the AR service platform is provided outside the vehicle and is provided in a server 900 that collects and processes information required for AR service and transmits it to the vehicle and the vehicle, and provides AR service using the information transmitted from the server. It may include an AR service device 800 that provides it.
  • the server 900 collects and processes information required for AR service and transmits it to a vehicle, which means that the server 900 collects and processes information required for the AR service to the AR service device 800 provided in the vehicle. It may include the meaning of transmitting.
  • the AR service device 800 may vary information provided as an AR service based on a vehicle situation.
  • the AR service device 800 of the present invention may dynamically adjust (variable) information to be displayed in AR and the amount of information according to the vehicle situation, and select information to be emphasized.
  • the AR service platform of the present invention can control the AR service provided by the vehicle to vary according to specific conditions, such as vehicle conditions and advertisement exposure conditions.
  • the AR service platform of the present invention may fuse vehicle location information, map information, a plurality of sensor data, real-time POI information, advertisement/event information, and the like, and display it in AR navigation.
  • the AR service device 800 of the present invention receives AR service information from a server based on the vehicle's current location and navigation route/guide information, and displays the AR service information on the AR navigation screen. can be processed with
  • the AR service apparatus 800 of the present invention may reconfigure real-time AR display information.
  • the AR service device 800 may reconfigure the service data received from the server to be displayed on the AR navigation screen by determining the display format, size, location, exposure method, etc. of AR content in consideration of the driving situation (eg, driving). POI exposure location and size change according to speed, service information exposure location change according to traffic conditions, AR Wall display location and exposure time adjustment, etc.).
  • the AR service device 800 of the present invention may analyze the exposure frequency of AR display information through user feedback.
  • the server 900 may perform content exposure frequency analysis by collecting user input information (input information such as touch and order) for AR service content, and may adjust service content exposure policy based on the information.
  • the present invention can be expressed in AR navigation by fusion of various external service contents, and various services can be provided through POI information including real-time attributes.
  • AR contents such as advertisements, events, and major landmark information can be displayed as well as POI information.
  • the present invention provides a service platform structure and AR information display method (UX) that dynamically adjusts the amount of information (POI data, advertisement) to be displayed in AR according to vehicle conditions and advertisement exposure conditions, POI information and commerce service information for AR expression
  • an AR engine module that renders AR objects (Group Poi, Mini Poi, 3D Object, Event wall, etc.) may be provided.
  • the present invention collects user actions for advertisements such as a client module for transmitting and receiving interaction and data between the front and rear seats of the vehicle, a Service App module for exposing commerce service information related to POI, AR advertisement object exposure results, and clicks It is possible to provide a client module and a cloud module that collects/analyzes user actions for advertisements, such as AR advertisement object exposure results and clicks.
  • the AR service platform of the present invention includes a server 900 that is an off-board configuration existing outside the vehicle and an AR service device 800 that is an on-board configuration that is provided in the vehicle. may include
  • the server 900 is a POI data aggregator (POI Data Aggregator) 901, an advertisement manager unit (Ads manager) 902, an advertisement monitoring unit (Ads Monitoring) 903, a service and an advertisement manager unit (Service) & Ads Manager) 904 , a Commerce Manager 905 , a database connector 906 , and a dashboard 907 .
  • the POI data aggregator 901 may receive information required for an AR service from a plurality of external servers and convert/integrate it into a message format of an AR service platform.
  • the advertisement manager 902 may perform advertisement information/content management and advertisement campaign (advertising exposure conditions) management.
  • the advertisement monitoring unit (Ads Monitoring) 903 may collect/store advertisement exposure and click results.
  • the Service & Ads Manager 904 may insert advertisement information that meets the exposure condition into the service information and provide it to the client.
  • the Commerce Manager 905 may collect commerce service interworking/payment information.
  • the database connector (DB Connector) 906 may store/query advertisement content, advertisement exposure result information, and commerce payment information.
  • the dashboard 907 may display the real-time AR service status in which the advertisement exposure result/payment history result is visualized.
  • the server 900 converts the information transmitted from the AR service device 800 of the vehicle into a data format usable in the server, and converts the information processed/generated in the server into a data format usable in the AR service device 800 . It may further include an AR service cloud API (or data conversion unit) for converting to .
  • the AR service device 800 includes a cloud interface, a commerce app, a CID-RSE interaction manager, a policy manager, an advertisement monitoring, a driving context, a client 810 including a personalized recommendation, and a POI renderer, a display manager, a touch It may include an AR engine 820 including a manager and the like.
  • the client 810 may receive POI information, advertisements, and the like from the server.
  • the client 810 may transmit/receive order/payment information to and from the server 900 , and may transmit an advertisement exposure result to the server 900 .
  • the AR engine 820 may transmit data such as the number of times the AR object output as AR is touched and the number of exposures to the client 810 .
  • the AR engine 820 may transmit and receive front/rear seat (CID, RSE) interworking data with the client 810 , and may output an AR object according to an AR display policy received from the client 810 .
  • CID front/rear seat
  • RSE front/rear seat
  • the AR engine 820 provides the type and output of AR objects provided through AR services based on data collected from a gyro sensor, a camera, a communication unit, a navigation system, an ADAS (Advanced Driver Assistance Systems), GPS, etc. provided in the vehicle. Location, POI type, output size, etc. can be determined.
  • the on-board AR service device 800 may AR-render service content to display data received from the cloud server in AR on the front camera image.
  • the AR service device 800 may mediate data transmission between the server and the AR engine, such as collecting and transmitting advertisement posting result data from the AR engine to the server.
  • the AR service device 800 may link data generated by AR between CID-RSE (ie, front/rear seats).
  • the AR service device 800 may perform data management for the AR display policy, and specifically, may provide AR display policy data according to the driving situation to the AR engine.
  • the AR service device 800 may provide situational awareness and personalized service, and specifically, AR objects according to driving conditions (speed, turn-by-turn (TBT), etc.) using in-vehicle data. can be supplied to the engine.
  • driving conditions speed, turn-by-turn (TBT), etc.
  • AR information is directly outputted on the windshield of the vehicle to be overlapped in the space of the real world, or a Head-up Display (HUD) ) can be analogously applied to various augmented reality implementation methods such as outputting AR information.
  • HUD Head-up Display
  • the input data (input information) used to provide the AR service and the output data (output information) provided through the AR service platform are as follows.
  • the type of input data may include map information (navigation information), service content information (POI, advertisement, etc.), dynamic information, vehicle sensor information, historical information, and driving-related information.
  • map information novigation information
  • POI service content information
  • advertisement advertisement
  • Map information includes route information to a destination (navigation route), guide information (Turn-by-Turn), front road shape (Road/Lane), a plurality of map attribute information (road type/property, road and lane width, curvature, slope, speed limit, etc.) and Localization Object (road marking, traffic sign, etc.) information.
  • the service content information may include POI information received from a plurality of service providers, advertisement information available at the current location, and real-time information for reservation/payment services such as gas stations, charging stations, and parking lots.
  • Dynamic information includes traffic information (road unit traffic, lane unit traffic), event information (accident, hazard warning, etc.), weather information, V2X (V2V, V2I) (Vehicle to Everything, Vehicle to Vehicle, Vehicle to Infra), etc. may include
  • the vehicle sensor information may include current location information (GPS/DR), camera input information (ADAS information, object recognition information), and V2X (real-time surrounding situation information that can be collected through V2V and V2I).
  • GPS/DR current location information
  • ADAS information camera input information
  • object recognition information object recognition information
  • V2X real-time surrounding situation information that can be collected through V2V and V2I.
  • the historical information may include information on a past driving route, a traffic history (eg, traffic by time period), a communication speed according to a zone and time, and the like.
  • the driving-related information may include a driving mode (manual, autonomous driving, semi-autonomous driving, whether an ADAS function operates, etc.), whether to enter a destination or a waypoint, and whether to enter a parking lot.
  • a driving mode manual, autonomous driving, semi-autonomous driving, whether an ADAS function operates, etc.
  • Output information that can be provided through the AR service platform may include current location/route-based AR service display data.
  • Current location/route-based AR service display data includes AR advertisement displayable points along the route (AR Wall, POI building highlight), selectable AR building information (selectable major building information such as landmarks), and general POI information (icon or POI summary information such as speech bubble), long-distance POI information (distance/direction display of important POI information that does not exist on the route but is useful for driving), display information that is output when multiple POIs exist in the same building, destination building and real-time It may include parking lot status information, real-time status information of gas stations/charging stations, and location-based advertisement/event information.
  • the AR service platform of the present invention may filter AR service information according to real-time information and determine a display method.
  • the AR service platform may determine the number of real-time POI exposures, POI overlap removal, size adjustment, exposure time, and the like based on driving speed.
  • the AR service platform may determine a POI exposure method according to risk information recognition, and specifically, may dynamically change the POI display method according to an accident, construction, multiple moving object recognition situation, and the like.
  • the AR service platform may dynamically change the POI display position when a situation in which AR display visibility deteriorates due to traffic occurs.
  • the AR service platform can reconstruct the front/rear seat AR display data.
  • the AR service information is minimized on the front seat display in consideration of driving speed, risk information, and weather information, and the rear seat display displays all information that can be displayed. It can be reconfigured so that it can be displayed.
  • Such an operation/function/control method of the AR service platform may be implemented by a server or an AR service device included in the AR service platform, or may be implemented by organic interaction between the server and the AR service device.
  • the service and advertisement manager unit 904 may perform a client interworking (request) function, POI information and advertisement information integration (data processing & aggregation) function, and a client interworking (respond) function.
  • the client interworking (request) function requests/receives POI information (location, category) with Unified API, or requests/receives destination entrance location information with Unified API (choose one of destination coordinates/address/id).
  • POI information location, category
  • Unified API destination entrance location information with Unified API (choose one of destination coordinates/address/id).
  • Unified API means an API (to minimize client fluctuations) defined in the AR service cloud that does not depend on a specific data provider.
  • the POI information and advertisement information integration (data processing & aggregation) function integrates POI information and advertisement information within a 000m radius of the location requested by the client (from data manager, ads manager) or the entrance location and POI advertisement of the destination requested by the client This may include aggregation of information (from data manager, ads manager).
  • the POI information and advertisement information integration function matches POI information with advertisement information including building wall and event wall information, or when there are multiple POIs in the same building, the server prioritizes and filters (e.g. partner companies) , and excluding other POI information).
  • the server prioritizes and filters (e.g. partner companies) , and excluding other POI information).
  • the filtering criteria may include assigning a priority score to each POI and comparing them.
  • the client interworking (respond) function may include transmitting POI information and advertisement information to the Unified API or forwarding a destination entrance location and advertisement information to the Unified API.
  • the data manager (not shown) included in the server 900 may include a POI information collection/delivery function, a building shape (polygon) information collection/delivery function, and a destination entrance information collection/delivery function. .
  • the POI information collection/delivery function can perform a function of requesting POI information from a 3rd party API or delivering (to Service & Ads Aggregator) POI information received from a 3rd party API (converted into a unified API response format). .
  • the building shape (polygon) information collection/delivery function requests 3rd party API/data set for building outline information or transmits POI information received from 3rd party API (converted into Unified API response format) (to Service & Ads Aggregator) function can be performed.
  • the destination entrance information collection/delivery function performs a function of requesting the destination entrance information to a 3rd party API or delivering the destination entrance information received from the 3rd party API (converted into a unified API response format) (to Service & Ads Aggregator). can do.
  • the advertisement manager unit (Ads Manager) 902 may provide a partner (advertisement) company management interface, an advertisement campaign management interface, and an advertisement content management interface.
  • the advertisement monitoring unit (Ads Monitoring) 903 may perform an advertisement effect measurement feedback reception function and an advertisement information transmission function.
  • the partner (advertisement) company management interface may perform POI advertiser management (add/modify/delete advertiser information) and general advertiser management (add/delete advertiser information).
  • POI supported advertisement format may include brand poi pin, building wall, 3D rendering, event wall, etc., and support advertisement format (general supported advertisement format) of brand advertisements (e.g. Coca-Cola advertisements, etc.) that are not related to actual POI/location. ) may be an event wall.
  • the advertisement campaign management interface may add/modify/delete advertisement campaigns (ad position, type, time, etc.).
  • the advertisement content management interface can add/modify/inquire/delete contents by advertisement format (POI brand icon image, building wall image, event wall image/video, 3D rendering image).
  • advertisement format POI brand icon image, building wall image, event wall image/video, 3D rendering image
  • the advertisement effect measurement feedback receiving function may include a function of receiving the advertisement exposure feedback sent by the client and delivering it to the DB Manager (CPC/CMP/CPT&P).
  • the advertisement information delivery function may include a function of querying and delivering advertisement campaign information to be exposed within a 000m radius of the location requested by the Service & Ads Aggregator (in case of CPT&P, only advertisements that meet the time condition are delivered).
  • the Commerce Manager 905 may perform a client interworking function, an external commerce service interworking function, and a payment information management function.
  • the client interworking function includes functions to receive requests by interworking clients with Unified API, convert request contents received through Unified API into external commerce API specifications, convert data received from external API into message format of Unified API, and deliver data to clients.
  • the commerce manager unit may convert the request content received through the Unified API into an external commerce API specification and then perform an external service interworking function with the converted content.
  • Converting the data received from the external API into the message format of the Unified API may mean converting the data received from the external service interworking into the Unified API.
  • External commerce service interworking function is to request & receive result and request for a list of adjacent stores and meta information at the current location, request detailed information & receive results for a specific store in the list above, request reservation/order & receive results, request service usage status & receive results And it may include a function of interlocking member information & receiving results of the commerce service.
  • service usage status request & result reception can be used for sequence management and AR message pop-up according to service usage status (reservation completed / parking lot entry / parking lot / parking lot exit / reservation cancellation).
  • Service member information linkage & result reception can be used to link commerce service member ⁇ AR service member (OEM Connectis service member) information.
  • the payment information management function may include a function of collecting a payment history (contents, amount) from an external commerce service and charging a fee to an external commerce company based on the payment history.
  • the database connector (DB Connector) 906 may perform an advertisement effect measurement data management function, a commerce data management function, an advertiser data management function, an advertisement content data management function, and an advertisement location data management function.
  • the advertisement effect measurement data management function can store/delete CPC/CPM/CPT&P related log data and search data (by POI, by brand, by time, by advertisement type).
  • the commerce data management function can store/delete payment details (content, amount) and data inquiry (by POI, by brand, by time, by ad type) in the external commerce service.
  • the advertiser data management function may store/modify/delete/inquire advertiser information and advertisement campaign settings for each advertiser.
  • the advertisement contents data management function can store/modify/delete/inquire advertisement contents in conjunction with advertiser information.
  • the advertisement location data management function can perform event wall section coordinates, building wall coordinates management (by brand) to display AR advertisements, and can be divided into coordinates directly registered by the user and specific coordinates obtained by interworking with company API .
  • the dashboard (Service Dashboard) 907 may perform an advertisement effect measurement data visualization function and a commerce service data visualization function.
  • the advertisement effect measurement data visualization function is: CPC: chart of total ad clicks by company/brand (viewable by period), CPC: aggregate chart of total ad clicks (viewable by period), CPM: company/brand Chart of total ad impressions by period (viewable by period), CPM: aggregate chart of total ad impressions (viewable by period), CPT&P: chart of ad clicks by company/brand (viewable by period) , CPT&P: It is possible to provide a chart of the number of advertisement impressions by company/brand (viewable by period).
  • Such a chart may be provided in various ways, such as a bar graph, a line graph, a pie chart, a word graph, and a geospatial graph.
  • CPT&P is billing per hour rather than clicks or impressions, but it can be used as data for measuring exposure effects.
  • the commerce service data visualization function can provide a chart for the accumulated amount of payments by company (available to inquire by period) and a chart for the total amount of payments (available to search by period).
  • the operation/function/control method performed by the AR service device 800 may be understood as being performed by the client 810 or the AR engine 820 of the AR service device 800 .
  • the AR service device 800 may vary information provided as an AR service based on the vehicle situation.
  • the vehicle situation includes various situations such as vehicle driving speed, driving direction, driving road, driving area (city or highway, etc.), surrounding objects (other vehicles, pedestrians, two-wheeled vehicles, etc.), weather, environment, vehicle driving information, etc. may include
  • the vehicle driving information includes vehicle information and surrounding information of the vehicle. Based on the frame of the vehicle, information related to the inside of the vehicle may be defined as vehicle information, and information related to the outside of the vehicle may be defined as surrounding information.
  • the vehicle information means information about the vehicle itself.
  • vehicle information includes vehicle driving speed, driving direction, acceleration, angular velocity, position (GPS), weight, number of occupants of the vehicle, braking force of the vehicle, maximum braking force of the vehicle, air pressure of each wheel, and centrifugal force applied to the vehicle.
  • the driving mode of the vehicle whether autonomous driving mode or manual driving
  • the parking mode of the vehicle autonomous parking mode, automatic parking mode, manual parking mode
  • whether the user is in the vehicle and information related to the user, etc. may include
  • the surrounding information means information about other objects located within a predetermined range around the vehicle and information related to the outside of the vehicle. For example, the condition of the road surface (friction force) on which the vehicle is traveling, the weather, the distance to the front (or rear) vehicle, the relative speed of the front (or rear) vehicle, the curvature of the curve when the driving lane is a curve, the vehicle Ambient brightness, information related to an object existing in a reference area (constant area) based on the vehicle, whether an object enters/leaves into the predetermined area, whether a user exists around the vehicle, and information related to the user (e.g., For example, whether the user is an authenticated user), and the like.
  • the condition of the road surface (friction force) on which the vehicle is traveling the weather
  • the distance to the front (or rear) vehicle the relative speed of the front (or rear) vehicle
  • the curvature of the curve when the driving lane is a curve the vehicle Ambient brightness
  • the surrounding information includes ambient brightness, temperature, sun location, object information located in the vicinity (person, other vehicle, sign, etc.), the type of road surface being driven, topographical features, line information, and driving lane (Lane). ) information, and information required for autonomous driving/autonomous parking/automatic parking/manual parking modes.
  • the surrounding information includes an object (object) existing in the vicinity of the vehicle and the distance to the vehicle, the possibility of collision, the type of the object, a parking space in which the vehicle can be parked, and an object (eg, a parking line) for identifying a parking space. , string, other vehicles, walls, etc.) may be further included.
  • the vehicle driving information is not limited to the example described above, and may include all information generated from components included in the vehicle.
  • the AR service device 800 renders the information transmitted from the server 900 to be output in augmented reality, and overlaps the rendered information on the image captured by the camera provided in the vehicle to provide the AR service. can provide
  • the AR service device 800 may output an image in which the information transmitted from the server 900 overlaps on a display provided in the vehicle.
  • the AR service device 800 may receive information related to the vehicle condition from the vehicle, and may request and receive information necessary to provide the AR service to the server based on the received vehicle condition related information. .
  • the information related to the condition of the vehicle may include information indicating the condition of the vehicle described above.
  • the AR service device 800 determines the current position of the vehicle and the driving speed of the vehicle based on the information related to the situation of the vehicle, and based on the determined current position of the vehicle and the driving speed of the vehicle, the next Information necessary for providing AR service at a guide point may be requested and received from the server.
  • the AR service device 800 may include an AR engine 820 that renders information necessary to provide the AR service as an AR object overlapping the image, based on map information and an image received through a camera. .
  • the AR engine 820 may determine a POI in which the AR object overlaps from the image, based on the type of the AR object.
  • the AR engine 820 may overlap the AR object on the image in a preset manner based on information related to the situation of the vehicle.
  • the AR service device 800 may determine the time of requesting AR service information to the server 900 based on the distance and speed from the current location to the next guide point ( S1010 ).
  • the AR service device 800 may request and receive AR service information corresponding to the next guide section from the server 900 ( S1020 ).
  • the AR service device 800 may load data configuration and display information according to the AR service type from the memory DB (S1030).
  • the AR service type includes a general POI, a landmark, an AR wall, a parking lot entrance, and the like, and display information may be determined according to a basic data configuration according to the service type.
  • the AR service device 800 may set an AR information display policy for the next guide section using dynamic information (S1040).
  • the AR service device 800 may determine the AR information display policy for the next guide station based on traffic flow, detailed map attribute information, camera recognition object, and the like.
  • the AR service device 800 may filter the POI for AR display ( S1050 ).
  • the filtering may include removing overlapping POIs, adjusting the size according to the distance, determining the arrangement order according to the priority, and the like.
  • the AR service device 800 may match (overlap) the driving image (ie, the image captured by the camera) and the AR content (ie, the AR object) and output it on the screen (the display of the vehicle) (S1060). ).
  • the AR service device 800 may repeatedly perform steps S1010 to S1060 in units of guidance points.
  • 11, 12, 13, 14, 15 and 16 are flowcharts and conceptual diagrams for explaining the control method illustrated in FIG. 10 .
  • the AR service device 800 of the present invention may receive current location information from a vehicle and request POI information located within a predetermined radius around the current location from the server 900 .
  • the AR service apparatus 800 of the present invention may request POI information existing in a bounding box of a predetermined size, not a predetermined radius, from the server 900 based on the current location.
  • the AR service device 800 may request from the server a neighboring POI corresponding to a radius of N (N is an arbitrary real number) km based on the current location.
  • the AR service device 800 may monitor the distance between the current location and the previous POI search request point, and request POI information from the server when driving over a certain distance.
  • the default radius for POI request may be set to N km, and may be dynamically changed in consideration of driving speed.
  • d denotes a movement distance between the current location and a previous search point
  • r denotes a POI search radius
  • x denotes a distance buffer (which may vary according to speed) in consideration of POI data request/download time.
  • the AR service device 800 may request POI information existing in an N km bounding box from the server 900 based on the current location.
  • the AR service device 800 may request POI information from the server when it enters within a predetermined distance by monitoring the distance between the current location and the four line segments constituting the bounding box.
  • the length of the basic Bounding Box line segment for POI request is N km, and may be dynamically changed in consideration of driving speed.
  • d is the shortest distance between the current position and the bounding box line segment
  • l is the line segment length of the bounding box
  • x is the distance buffer considering the POI data request/download time (which may vary depending on the speed).
  • the AR service device 800 may overlap an image and output the AR object in a preset manner, based on information related to the vehicle situation.
  • the AR service device 800 may output lane information, speed information, and the like, overlapping an edge region of an image that does not interfere with driving.
  • the AR carpet overlapping the plurality of objects A to F notifying the POI among the AR objects and the lane guiding the driving route of the vehicle overlaps the image captured by the vehicle camera under the control of the AR service device.
  • the AR service device may display the following method by applying the following method.
  • the AR service apparatus 800 may preferentially display a POI existing on a driving route among POIs existing within a predetermined radius with respect to the current location.
  • the AR service device 800 may display a POI that does not exist on the path to be distinguished from a general POI by adjusting the size and transparency.
  • the AR service apparatus 800 may output a plurality of types of AR objects overlapping an image.
  • the plurality of types of AR objects include a group POI (1500), a mini POI (1510), a long-distance POI (1520), a bubble POI (1530), a brand carpet (1540), and a POI (1550) that does not exist on the driving road.
  • the group POI 1500 may display POIs of the same category as icons and number information in consideration of the driver's visibility during high-speed driving.
  • the mini POI 1510 may display an icon of the POI at a corresponding position when driving/stopping at a low speed.
  • the long-distance POI 1520 does not exist in the screen display area, but a POI for which a user needs to be recommended may be displayed as a direction/distance/icon.
  • bubble POI 1530 additional information such as a user's favorite POI or a fueling/parking lot may be displayed together.
  • the brand carpet 1540 may be displayed with a POI icon on the AR carpet.
  • the POI 1550 that does not exist on the driving road may be displayed to be distinguished from the general POI by translucently displaying the POI 1550 that does not exist on the driving road but exists in the screen display area.
  • a 3D object 1560 When 3D rendering information of a POI closest to the current location among POIs existing on a driving route exists, a 3D object 1560 may be displayed.
  • the AR service device 800 may receive a POI existing within a predetermined radius around the current location from the server ( S1610 ).
  • the AR service apparatus 800 may classify the POI into a POI matching the driving road and a POI not matching the driving road in consideration of the navigation route ( S1620 ).
  • the AR service device may determine the type of the AR object to be output based on POI attribute information matching the road on which the vehicle is traveling.
  • the AR service apparatus may request the server for POI information existing within a predetermined radius based on the current location, and may receive POI information existing within a predetermined radius based on the current location from the server.
  • the AR service device may classify a POI that matches a driving road and a POI that does not match among the POI information received from the server, based on a preset navigation route.
  • the AR service device 800 may extract POI attribute information matching the driving road (S1630). In this case, the AR service device 800 may consider the POI type, user preference, driving speed, and distance to the current location.
  • the AR service device 800 may determine the type of the AR object (eg, any one of a mini POI, a bubble POI, a group POI, a 3D object, a brand carpet, and a remote POI) based on the POI attribute information. There is (S1640).
  • the type of the AR object eg, any one of a mini POI, a bubble POI, a group POI, a 3D object, a brand carpet, and a remote POI
  • the AR service device 800 may determine the type of the AR object overlapping the image captured by the vehicle camera, based on POI attribute information matching the driving road.
  • the POI attribute information matched to the driving road may mean attribute information on the corresponding POI when there is a matching (linked) POI to be output as an AR object on the road on which the vehicle is driving.
  • POI attribute information matching such a driving road may be managed in a server and updated by an AR service device provided in the vehicle.
  • the POI attribute information matching the driving road may include at least one of a POI type, user preference, vehicle driving speed, and a distance from the current location to the POI.
  • the AR service device 800 may extract POI attribute information that does not match the driving road (S1650), and then, the AR service device 800 responds to the POI attribute information that does not match the driving road.
  • the POI may be determined as an additional POI (S1660).
  • the AR service device 800 may remove the POI overlap ( S1670 ).
  • the AR service apparatus 800 may output a plurality of AR objects corresponding to the plurality of POIs based on a preset method.
  • the AR service device 800 may remove them according to priority.
  • the AR service device 800 may set a brand carpet display condition ( S1680 ).
  • the AR service device 800 may set the remote POI display condition.
  • the AR service device 800 may render a POI (ie, an AR object) according to a display condition ( S1695 ), and may overlap the rendered AR object on an image and output it.
  • a POI ie, an AR object
  • 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33 , 34, 35, 36, 37 and 38 are flowcharts and conceptual diagrams for explaining various AR service providing methods of the AR service platform of the present invention.
  • the AR service device 800 may extract POI attribute information matching the driving road on which the vehicle is traveling, and may overlap the AR object on the image based on the extracted POI attribute information.
  • the AR service device 800 may determine the type of the AR object based on attribute information of the POI to which the AR object will overlap, and may determine the size of the AR object based on the distance to the POI.
  • the AR service device 800 receives a POI existing within a predetermined radius around the current location from the server, and a POI (or AR object) to be displayed on the screen in consideration of the route and driving direction. can be filtered (S1710, S1720).
  • the AR service device 800 classifies the POIs displayed as different types of AR objects (eg, Mini POI and Bubble POI) according to the POI properties, and determines the icon image size in consideration of the distance to the POI.
  • the AR service device 800 may determine the type of the AR object based on attribute information of the POI to which the AR object will overlap, and may determine the size of the AR object based on the distance to the POI.
  • the AR service apparatus 800 may gradually enlarge the size of the AR object since the size of the POI appears larger as the distance to the POI from which the AR object is output increases.
  • 3D modeling data exists among the POIs closest to the current location and the AR service device 800 enters within a threshold distance, it may be displayed as a 3D object ( S1750 ).
  • the AR service device 800 displays the AR object for the closest POI in 3D. It can be output as an object.
  • the AR service device 800 outputs a general POI as a Mini POI, and when detailed information such as a frequently visited POI, fueling information, and parking information is required, it is displayed as a Bubble POI, and a specific brand If 3D modeling data of POI exists, it can be displayed as a 3D object within a critical distance.
  • the AR service device 800 may output the AR object in different ways based on whether the driving speed of the vehicle exceeds the threshold speed.
  • the AR service device 800 receives POIs existing within a predetermined radius around the current location from the server, and filters the POIs existing in the screen display area in consideration of the current location and driving direction. It can be done (S1910, S1920).
  • the AR service device 800 may determine whether the traveling speed of the vehicle is equal to or greater than a threshold speed (a preset speed) (S1930).
  • the AR service apparatus 800 may overlap the AR object on the image in the first manner when the vehicle speed is equal to or greater than the threshold speed.
  • the AR service device 800 may group POIs by category and map a category representative image ( S1940 ).
  • the AR service apparatus 800 may overlap the AR object on the image in a second method different from the first method.
  • the AR service device 800 may map individual POI images ( S1950 ).
  • the AR service apparatus 800 may perform a POI coordinate system transformation (longitude and latitude coordinates > screen coordinates), and may overlap and display the image (S1960).
  • a POI coordinate system transformation longitude and latitude coordinates > screen coordinates
  • the AR service apparatus 800 may also perform 3D rendering when 3D information of the nearest POI exists ( S1970 ).
  • the AR service device 800 may group and display POIs by category in order to secure visibility when driving at a high speed exceeding a threshold speed.
  • the AR service device 800 may display a POI (AR object) in the form of a mini/bubble when driving at a low speed less than a threshold speed.
  • a POI AR object
  • the AR service device 800 may determine whether a condition for outputting an AR carpet that is an AR object formed in a carpet shape is satisfied, and when the condition is satisfied, the AR carpet may be overlapped with the image.
  • the AR service device 800 may display an AR carpet (or AR object) overlapping the image by reflecting the corresponding brand logo and color.
  • the AR service device 800 may check a distance condition for displaying the brand carpet ( S2110 and S2120 ).
  • the AR service device 800 may determine that the condition for displaying the brand carpet is achieved.
  • the AR service device 800 may determine whether or not the brand carpet information exists (S2130), and if it exists, may load a brand image or brand carpet information (S2140).
  • the AR service device 800 may load basic carpet information ( S2150 ).
  • the AR service apparatus 800 may output the AR object in a manner that overlaps carpet information loaded on the driving lane ( S2160 ).
  • the AR service device 800 outputs an AR object corresponding to a POI set as a landmark to the image, and when an AR object corresponding to a POI set as a landmark output on the image is selected, the AR object received from the server Detailed information about the landmark can be output by overlapping the image.
  • the AR service device 800 may display detailed information about a specific landmark.
  • the AR service device 800 receives a POI existing within a predetermined radius around the current location from the server, and a landmark POI existing in the screen display area in consideration of the current location and driving direction. Information can be extracted (S2310, S2320).
  • the AR service device 800 may display a landmark icon and perform touch activation on the corresponding icon ( S2330 ).
  • the AR service device 800 may display detailed landmark information 2410 when the landmark icon 2400 is touched ( S2340 and S2350 ).
  • the AR service device 800 may provide detailed information when a corresponding icon is selected, and may provide services such as reservation, calendar schedule addition, and smartphone sharing through the detailed information.
  • the AR service device 800 may change the AR object according to the distance to the destination.
  • the AR service device 800 may receive a POI existing within a predetermined radius around the current location from the server, and determine whether a destination exists among the received POIs (S2510, S2520).
  • the AR service device 800 may extract detailed information for a building highlight (building geometry, height, highlight image, etc.) (S2530).
  • the AR service device 800 outputs an AR object in a first manner (eg, an AR object on an image to highlight a building outline) overlap) can be performed (S2540).
  • the AR service device 800 When the distance from the current location to the destination enters within the second threshold distance, the AR service device 800 outputs an AR object in a second method different from the first method (eg, a building outline and a POI logo image). can be displayed together) (S2550).
  • a second method different from the first method eg, a building outline and a POI logo image. can be displayed together
  • the AR service device 800 may highlight and display the corresponding building for accurate location guidance.
  • the AR service device 800 may display the building highlight based on the shape information of the building, and also display the corresponding brand icon on the building.
  • the AR service device 800 may output the AR object by overlapping the image as an AR Wall having the shape of a wall.
  • the server 900 may transmit AR advertisement information to the AR service device.
  • the AR advertisement information may include information on an output location and an output form.
  • the AR service device 800 extracts AR advertisement information mapped to the driving direction of the vehicle and the road based on the AR advertisement information, and uses the extracted AR advertisement information to display the AR advertisement in the output position at the output location.
  • the extracted AR advertisement information may be rendered to be output.
  • the AR service device 800 receives advertisement information (AR advertisement information) existing within a predetermined radius around the current location from the server, and provides advertisement information mapped to the vehicle driving direction and the road. can be extracted (S2710, S2720).
  • the AR service device 800 classifies data according to an advertisement type (Building Wall/Event Wall), extracts geometry information for displaying an AR Wall (AR object formed in the form of a wall), and displays data (image, video, etc.) (S2730, S2740).
  • an advertisement type Building Wall/Event Wall
  • AR object formed in the form of a wall AR object formed in the form of a wall
  • displays data image, video, etc.
  • the AR service device 800 may display the AR Wall (overlapping the image) (S2750).
  • the AR service device 800 may display specific brand information or event information in the form of an AR Wall.
  • the content may be displayed in the form of a building based on the shape information of the building on the building wall, and the content may be displayed in the form of a billboard using the edge coordinates of the road on the event wall.
  • the AR service apparatus 800 may output a page related to a service that can be provided at the destination overlapping the image when the destination is a place where the vehicle can enter, and the vehicle enters the destination.
  • the AR service device 800 may overlap an AR object on an image and output it in various ways in relation to a parking lot.
  • the AR service device 800 may receive parking lot information existing within a predetermined radius around the current location from the server, and extract parking lot information mapped to the vehicle driving direction and the road ( S2910, S2920).
  • the AR service device 800 may extract geometry information for displaying the entrance highlight and configure it as data (image) for display ( S2930 , S2940 ).
  • the AR service device 800 may display an entrance highlight ( S2950 ).
  • the AR service device 800 configures parking lot information including parking lot location, price information, and image information when the parking lot is not a destination, and when the distance from the current location to the corresponding parking lot enters within a threshold distance, It is possible to display the parking lot information (S2960, S2970).
  • the AR service device 800 may highlight and display the entrance to the parking lot by using the entrance coordinate information when the destination is the parking lot.
  • the AR service device 800 may display detailed parking lot information (pages related to services available at the destination) when the vehicle is close to the entrance of the parking lot (within a threshold distance) in order to display the parking information.
  • the AR service device 800 may process a payment using parking time and fee information when the vehicle is exited for payment of a parking fee (interworking with a payment system is required).
  • the display of various information described in this specification may mean that the AR object overlaps the image, and may include the meaning that the AR object is output to augmented reality as part of the AR service.
  • the AR service device 800 may output various AR objects in the case of a drive-thru.
  • the AR service device 800 may receive a POI existing within a predetermined radius around the current location from the server, and determine whether a Drive Thru store exists among the received POIs (or a destination). Extract if is a DT store) (S3110, S3120).
  • the AR service device 800 may extract detailed information (entrance geometry, height, highlight image, etc.) for guiding the entrance of the DT store (S3130).
  • AR service device 800 when the distance from the current location to the DT entrance enters within the first threshold distance, displays the first type of AR object (eg, brand carpet), from the current location to the DT entrance
  • the first type of AR object eg, brand carpet
  • a second type of AR object may be displayed ( S3140 and S3150 ).
  • the AR service device 800 may receive order information from the server and output a menu screen (a page related to a service that can be provided at a destination) as an AR object, thereby performing a menu order (S3160, S3170).
  • the AR service device 800 may guide the entrance to Drive Thru using the AR object, and if the destination is a Drive Thru store, the AR service device 800 may highlight it using the entrance coordinate information.
  • the AR service device 800 may display order information and perform payment through it (external service interworking is required).
  • the AR service device 800 may overlap an AR object related to a gas station on an image.
  • the AR service device 800 may receive a POI existing within a predetermined radius around the current location from the server, and determine whether a gas station store exists among the received POIs (or, Extracted when the destination is a gas station) (S3310, S3320).
  • the AR service device 800 may extract detailed information (entrance geometry, height, highlight image, etc.) for guiding the entrance to the gas station (S3330).
  • the AR service device 800 displays the first type of AR object (brand carpet) when the distance from the current location to the gas station entrance is within the first critical distance, and the distance from the current location to the gas station entrance is 2 When the vehicle enters within the threshold distance, a second type of AR object (entrance highlight) may be displayed ( S3340 and S3350 ).
  • the AR service device 800 receives payment information from the server, outputs a menu screen (page related to services that can be provided at the destination), and performs gas quantity/price setting and payment through this. It can be (S3350, S3360).
  • the AR service device 800 may overlap the AR object on the image to guide the entrance to the gas station, and if the destination is the gas station, the AR object may be highlighted using the entrance coordinate information.
  • the AR service device 800 may display order information and provide a payment function when the vehicle enters a gas station (requires interworking with an external service).
  • the server 900 may receive information related to an AR object provided as an AR service from the AR service device.
  • the information related to the AR object may include at least one of the type, number, output time, and number of times selected by the user of the AR object overlapping the image.
  • the server 900 stores the information related to the AR object in association with the location information of the AR service device, and determines information to be transmitted when a next request is received from the AR service device based on the information related to the AR object.
  • 35 is a diagram illustrating an embodiment of information output on a dashboard included in the server 900 of the AR service platform.
  • data related to information provided to the AR service device 800 may be output to the server 900 .
  • dashboard 907 of the server 900 feedback of advertisement results exposed or clicked in the AR area may be collected.
  • the server 900 may collect data when an advertisement exposure or click event occurs from the AR engine 820 , and may perform flexibility/scalability/big data collection and analysis.
  • the server 900 may generate (output) an advertisement result reporting for an advertisement operation manager and an advertiser, and may visualize the advertisement reporting result by region/hour/advertiser as shown in FIG. 35 .
  • the present invention can provide an AR service in conjunction with voice recognition.
  • the AR service device 800 may output a voice indicating the number of gas stations.
  • the AR service device 800 overlaps the image and outputs an AR object (AR bubble) at the cheapest gas station when there is a request for a search for the cheapest gas station, and when there is a request for a search for the nearest gas station, the nearest gas station
  • An AR object (AR carpet) to guide can be output by overlapping the image.
  • the AR service device 800 may output a guide voice (eg, payment information, gas station location, etc.) that may be performed at the gas station.
  • a guide voice eg, payment information, gas station location, etc.
  • the AR service device 800 may search for parking lot information according to a preset method and output the search result by voice.
  • the AR service device 800 may output an AR object (AR bubble) indicating the parking price to the image as shown in FIG. 37( b ). Information on the number of available parking spaces may also be displayed.
  • AR bubble AR object
  • the AR service device 800 displays an AR object (AR carpet) indicating a parking space on the image as shown in FIG. 37(c). Overlap can be printed.
  • the AR service device 800 may output a search result by voice when a route guidance request for a drive-through is received, and displays an AR object for a drive-through set as a destination in FIG. 38 .
  • the image can be overlapped and output.
  • the AR service device 800 When the AR service device 800 enters within a predetermined distance to the drive-through set as the destination, as shown in FIG. 38(c) , the AR object (AR carpet) highlighting the entrance may be overlapped and outputted on the image.
  • 39, 40, 41, 42, 43, and 44 are conceptual diagrams for explaining a method for the AR service platform of the present invention to output an AR object on a building using an AR wall.
  • the AR service device 800 of the present invention may identify a building included in an image, and may overlap an AR object on the wall of the building and output it. In this case, the AR service device 800 may output the AR object by classifying it for each floor of the building.
  • the AR object output on the wall of the building may be called a signage.
  • the AR navigation-based system for signage expression for each building floor of the present invention is, as shown in FIG. 39, a service provider, an AR service platform, an embedded system, and It may include an output device (Display Device).
  • the service provider may provide dynamic information such as map data (POI, image information, etc.), building floor information, and traffic information to the AR service platform.
  • map data POI, image information, etc.
  • the AR service platform may include a server and an AR service device, and may perform primary processing through a service data collection interface that collects data provided from a service provider.
  • the AR service platform may perform secondary processing of data filtering for screen display.
  • information provided from a module for processing vehicle sensing data collected from a camera provided in the vehicle, an ADAS sensor, and GPS/DR, and a module for storing and processing user data may be used.
  • the AR service platform may match the primary processed information and the secondary processed information (AR merging) and transmit it to the embedded system for AR output.
  • the embedded system may AR-render the matched information for AR output based on navigation.
  • AR-rendered information may be transmitted to a display device, and AR may be output through a vehicle display such as a CID, RSE, or HUD.
  • AR signage refers to multimedia information displayed on a specific area on a building or screen using AR (augmented reality), and refers to a technology that expresses functions such as a physical billboard with AR.
  • the signage for each building floor is a technology that, when a plurality of POIs exist in a building, identifies the floor information on which the POI is located, and displays advertisement information corresponding to each floor.
  • the floor-by-floor signage may display a plurality of pieces of advertisement information by dividing the building area into floors.
  • the AR service device 800 may obtain the number of building floors and height information from map data or a service provider, or may calculate the number of floors through camera sensing information.
  • the AR service device 800 may arrange an image for each floor using map data.
  • the AR service device 800 may identify the number of floors by checking the coordinates of the origin (reference point).
  • the AR service device 800 calculates the origin for the signage display for each floor by using the building coordinate information, the building height, and the number of floors, and considers the driving direction of the vehicle. have.
  • the AR service device 800 may set the image display position by moving the height by the number of floors based on the origin. That is, the AR service device 800 may display images for each floor by moving by a height offset from the reference point.
  • the AR service device 800 may arrange an image using camera sensing information.
  • the AR service device 800 may determine the origin coordinates and calculate the number of floors of the building by using camera sensing information.
  • the AR service device 800 may use edge information of a building recognized by a camera to designate a point closest to the current location as an origin, and use a predefined height for each floor.
  • the AR service device 800 calculates the number of floors of the building using the height of the building recognized through camera sensing and the height of each floor, and moves the height by the number of floors based on the origin to designate the image display position ( Move by reference point + height offset to display floor-by-floor images).
  • the AR service device 800 may provide a floor height processing and image correction method for accurate signage display for each floor.
  • the AR service device 800 may correct the image using the building height information DB.
  • the AR service device 800 may obtain the height of each floor by using a DB including building height information such as a 3D navigation map and an indoor map, and may use the information to correct the image display position. .
  • the AR service device 800 may use the DB information to correct the image display position.
  • the AR service device 800 may sense the height of each floor and correct the position through the camera sensor.
  • the AR service device 800 senses the height between floors of a building displayed on the screen through a camera sensor, and uses the information to determine the image display position. can be corrected.
  • the AR service device 800 may continuously correct the image according to the vehicle driving direction and speed. That is, the AR service device 800 may perform a control to continuously change the image size according to the driving of the vehicle.
  • the AR service device 800 may continuously correct the image in consideration of the driving direction and speed of the vehicle.
  • the AR service device 800 may determine that the image is a 'straight line section' in which continuous image correction is possible.
  • the AR service device 800 may not display the AR signage by determining it as a rotation section.
  • the image size change control of the AR service device 800 can be performed only when the vehicle speed is driving at a low speed within a threshold value, and as shown in FIG. 42 , the image size change rate can be dynamically adjusted in proportion to the driving speed. have.
  • the AR service device 800 may change the POI (AR object) display method according to user preference and service class.
  • the AR service device 800 may differentially display it according to user preference and advertisement service level.
  • the AR service device 800 may rearrange the contents according to the priority for the entire area of the building.
  • AR service device 800 signage display type (content shape, form) according to the purpose
  • the signage display types according to the above purpose include brand icon (brand icon corresponding to POI), 3D modeling (3D modeling content related to POI), still image (still image for POI-related information or advertisement), and video (POI-related video). content (advertisement, promotional video)).
  • the AR service device 800 may sort POIs (AR objects) according to priorities.
  • the AR service apparatus 800 assigns weights to a plurality of POIs existing in a building according to an affiliate service class, a user preference POI, and a search frequency and arranges the POIs.
  • the AR service device 800 may set a display rule.
  • the advertisement display area content is displayed by integrating one layer or two or more layers in order to emphasize the content for increasing the advertisement effect, and when a plurality of affiliate services having the same priority exist, the advertisement display area content may be sequentially displayed on the .
  • the AR service device 800 may 1) display an affiliate brand advertisement by integrating the two-layer display area, or 2) display a brand icon in which the display area is applied differently according to priorities.
  • the AR service device 800 may 3) display a 3D model or 4) output an affiliate service still image advertisement.
  • the AR service device 800 may 5) output an affiliate service video advertisement using the entire area of one floor.
  • the AR service apparatus 800 of the present invention may provide an AR service by overlapping an advertisement with an AR object on an image captured by a camera in various ways.
  • the AR service apparatus 800 may display a portion 4400 of content having the highest priority in the entire area.
  • the present invention may change the display method of the AR object in consideration of the complexity of the real world.
  • FIG. 45 is a flowchart for explaining a method of providing an AR service according to the TPO complexity of the present invention
  • FIGS. 46, 47, 48, 49, and 50 are conceptual diagrams for explaining the control method shown in FIG. 45 .
  • the server 900 of the present invention may include a TPO complexity calculation module 4600 that calculates the TPO complexity level of the real world and determines the amount of information to be transmitted to the AR service device using the calculated complexity.
  • the TPO complexity calculation module 4600 may collect TPO information in the real world from the AR service device 800 ( S4510 ).
  • the TPO complexity calculation module 4600 may calculate (classify, analyze) fixed complexity and variable complexity based on the collected TPO information (S4520).
  • the TPO complexity calculation module 4600 may calculate the TPO complexity based on the fixed complexity and the variable complexity ( S4530 ).
  • the TPO complexity calculation module 4600 may vary (determine, set) at least one of a type and an amount of information to be transmitted to the AR service device based on the calculated TPO complexity.
  • the TPO complexity calculation module 4600 may determine and optimize (or process) the configuration of service content information (ie, an AR object provided as an AR service) based on the TPO complexity ( S4540 ).
  • the TPO complexity calculation module may establish a display policy for the AR object output to the AR service based on the calculated TPO complexity.
  • the display policy may include a setting value for at least one of a type, information amount, location, and display time of the AR object.
  • the TPO complexity calculation module 4600 may process the AR object transmitted to the AR service device to correspond to the display policy.
  • the TPO complexity calculation module 4600 may process information received from an external service server (3rd party partners, external service server) based on the display policy, and transmit the processed information to the AR service device 800 . have.
  • the AR service device 800 may display service content (AR object, object output from augmented reality/virtual reality) information processed according to the TPO complexity calculated by the TPO complexity calculation module 4600 ( S4550).
  • service content AR object, object output from augmented reality/virtual reality
  • the AR service device 800 repeats the process (S4510 to S4550) for outputting an AR object corresponding to the user interaction to the server. have.
  • the TPO complexity calculation module 4600 transmits the calculated TPO complexity information to the AR service device 800, and the service device 800 provides information on the AR object based on the received TPO complexity information.
  • a labeling policy can be established.
  • the AR service apparatus 800 may process (optimize) the AR object to correspond to the display policy, and overlap the processed AR object with an image captured by the vehicle's camera to provide the AR service.
  • the AR service platform of the present invention uses artificial intelligence to determine the complexity based on TPO (Time, Place Occasion) (time, location, and direction (or situation)), and according to the level of complexity, augmented reality (AR) (or virtual By varying the amount of content information displayed in reality (MR), extended reality (XR), etc., it is possible to provide a user interface that adaptively optimizes the user's information recognition and acquisition experience for each situation.
  • TPO Time, Place Occasion
  • AR augmented reality
  • MR content information displayed in reality
  • XR extended reality
  • Such a function may be performed by the TPO complexity calculation module 4600 described above, and the TPO complexity calculation module 4600 is included (included) in the server 900, for example, as shown in FIG. 46 .
  • the TPO complexity calculation module 4600 is included (included) in the server 900, for example, as shown in FIG. 46 .
  • the TPO complexity calculation module 4600 can build a system that can continuously update TPO complexity information by region-by-region DB (introduction of crowd-sourcing method/introduction of machine learning technique)
  • the TPO complexity calculation module 4600 may analyze and utilize regional complexity information in a digital twin that is a metaverse space.
  • the TPO complexity calculation module 4600 can continuously collect and analyze TPO complexity-related factor information through artificial intelligence (AI) to increase its accuracy, and optimize the complexity value/weight to support personalized service for each user. .
  • AI artificial intelligence
  • the TPO complexity calculation module 4600 may recommend an optimal target viewpoint and region for displaying information based on the TPO complexity information.
  • the TPO complexity calculation module 4600 may adjust the TPO complexity calculation and content information amount according to an angle viewed from the moving object.
  • the TPO complexity calculation module 4600 may quantify the TPO complexity (TPO.CL-Time Place Occasion Complexity Level) (CL-Complexity Level, Step 3: High/Middle/Low).
  • the TPO complexity calculation module 4600 may calculate FC-Fixed Complexity and VC-Variable Complexity to calculate TPO complexity.
  • the fixed complexity (FC) may be classified (FC. upper, FC. middle, FC. lower) based on a location-based fixed topographical feature such as a road type, a building configuration, and a location (city center, residential area, outskirts, etc.).
  • Variable complexity can be quantified (VC. upper, VC. middle, VC. lower) factors that can variably affect space and situation complexity, such as the number of vehicles, floating population, and risk information.
  • each condition is quantified according to importance (eg 20-50, weighted according to important condition), and can be classified into upper/middle/low sections.
  • the TPO complexity calculation module 4600 may classify the numerical values of fixed complexity and variable complexity as high/middle/low according to a condition section by adding up the numerical values of fixed complexity and variable complexity or by applying a weight according to the importance of each complexity.
  • the TPO complexity calculation module 4600 may calculate the TPO complexity as follows.
  • the TPO complexity calculation module 4600 may adjust the amount of information of content (objects such as AR/MR/XR) for each section according to the TPO complexity.
  • Content information amount control criteria include exposure frequency, content occupied space (space size), exposure effect (Animation etc.), content complexity (Color, Text etc.), whether to add interaction (voice, touch) functions, etc. can do.
  • the TPO complexity calculation module 4600 in the TPO-CL.High section (that is, when the TPO complexity is a merchant section, when the TPO complexity belongs to the first section, the real world complexity is complicated section), the user information recognition ability is lowered.
  • the amount of information can be adjusted in the simplest form of the content, and can be displayed at a lower level (the first level, the most simply displayed level) according to the information amount display level.
  • the TPO complexity calculation module 4600 recognizes user information in the TPO-CL.Middle section (that is, the section in which the TPO complexity is in progress, the second section in which the TPO complexity is lower than the first section, and the section in which the complexity of the real world is less complex) Since the ability is at an average level, the content information amount can be adjusted in a slightly more complex form, and the content information amount can be adjusted to a medium level (a second level higher than the first level, a level displayed in a more complex form than the first level) according to the information amount display level. can be displayed
  • the TPO complexity calculation module 4600 is configured to recognize user information in the TPO-CL.Low section (that is, a section in which the TPO complexity is lower, a third section in which the TPO complexity is lower than the second section, and a section in which the complexity of the real world is simple). Since the ability is high, the content information amount can be adjusted in a complex form, and the content information amount can be displayed at a higher level (a third level higher than the second level, a level displayed in a more complex form than the second level) according to the information amount display level. can
  • the TPO complexity calculation module 4600 may determine the information amount of the AR object displayed by the AR service device 800 based on the TPO complexity.
  • the TPO complexity calculation module 4600 sets the information amount of the AR object to the first level, and the TPO complexity is lower than the first section in the second section (that is, If it corresponds to a section less complicated than the first section), the information amount of the AR object may be set to a second level (a second level having a larger amount of information than the first level), and the AR object may be rendered according to the set level.
  • the TPO complexity calculation module 4600 is configured to, when the TPO complexity corresponds to a third section lower than the second section (that is, a section less complicated than the second section), calculates the information amount of the AR object higher than the second level. It is set to a level (a third level having a greater amount of information than the second level), and the AR object may be rendered according to the set level.
  • the TPO complexity may be a standard of a display policy for displaying the AR object, and the TPO complexity may be calculated by the fixed complexity (FC) and the variable complexity (VC), as described above.
  • the TPO complexity calculation module 4600 calculates the fixed complexity (FC) of the road type (automobile-only road, general road, residential road backside road (living road, width less than 9m)) and shape (wide width, main road, medium road, small road), building It can be calculated based on at least one of the composition (high-rise building, residential complex, low-rise shopping mall), area (city center, residential area, outskirts), and concentration of attention (around school, area with frequent traffic accidents).
  • FC fixed complexity
  • the TPO complexity calculation module 4600 may periodically determine the fixed complexity in units of movement within a radius of 1 km.
  • the high-rise town refers to an area where high-rise buildings with 16 stories or more are expected to be most effectively used, and refers to the central commercial area and general commercial area. (Estimated floor area ratio: 800% or more)
  • Mid-rise town is an area where 11 to 15-story buildings are judged to be the most effective use, and it refers to general commercial areas, neighborhood commercial areas, and semi-residential areas that are being transformed into high-rise towns. (Estimated floor area ratio: 550-750%)
  • a low-rise urban area is an area where buildings with 4 to 10 floors are judged to be the most effective use. They are commercial areas such as general commercial areas, neighborhood commercial areas, semi-residential areas, and residential areas (including industrial complex areas). refers to the area (Estimated floor area ratio: 200-500%)
  • Residential areas include residential areas, green areas, industrial areas, etc., which are pure residential areas with three stories or less, and areas that are expected to be converted into residential areas in the near future. (Estimated floor area ratio: around 100%)
  • Farmland and forest land refer to areas where it is difficult to develop residential land in the near future in terms of social, economic and administrative aspects, such as green areas where farmland and forest land are most effectively used.
  • Criteria for judging dense areas can be classified according to the number of buildings in a unit area (400mx400m) (eg, more than 10 units in a unit area of a dense area, less than 10 units in a unit area of a non-dense area).
  • the TPO complexity calculation module 4600 may determine the fixed complexity, for example, based on the following [Table 1].
  • the TPO complexity calculation module 4600 may calculate variable complexity by using a plurality of variable factors.
  • the plurality of variable factors is a first variable factor (vehicle traffic volume (congested, slow moving, smooth), dynamic flow factors such as pedestrians (aggregate the number of communication in each cell of the telecommunication company in units of 50mx50m - statistics by day and time of the week), second variable Factors (non-dynamic and unspecified variable factors such as construction/event information, potholes, weather, etc.) and third variable factors (vehicle condition information, destination information, user information acceptance intention, etc. in-vehicle variable factors) (weighted according to the importance of each condition) 50%, 30%, and 20%) are given and quantified, and the values are summed to determine).
  • first variable factor vehicle traffic volume (congested, slow moving, smooth)
  • dynamic flow factors such as pedestrians (aggregate the number of communication in each cell of the telecommunication company in units of 50mx50m - statistics by day and time of the week)
  • second variable Factors non-dynamic and unspecified variable factors such as construction/event
  • the TPO complexity calculation module 4600 may, for example, re-determine as a top priority when a variable factor event occurs, and periodically calculate it in units of movement in a radius of 1 km.
  • the road risk index can be calculated by fusing the traffic accident DB and environmental factors (communication, weather information, etc.).
  • the TPO complexity calculation module 4600 may determine the variable complexity based on the following [Table 2], for example. In this case, the TPO complexity calculation module 4600 may determine the variable complexity by assigning a weight to each of the plurality of variable factors.
  • the TPO complexity calculation module 4600 may calculate a fixed complexity through the sum of values of each corresponding complexity item, and calculate a variable complexity (VC) through the sum of the values of each corresponding variable factor item.
  • VC variable complexity
  • the TPO complexity calculation module 4600 may set a numerical section for each fixed complexity by assigning a weight to each item for calculating the fixed complexity.
  • the TPO complexity calculation module 4600 may set a numerical section for each variable complexity by assigning a weight to each item for calculating the variable complexity.
  • the TPO complexity calculation module 4600 may update weight, complexity factor, numerical value for each complexity factor, and complexity numerical interval information according to a service operation situation.
  • the TPO complexity calculation module 4600 may calculate the TPO complexity by using the fixed complexity and the variable complexity, for example, as shown in [Table 5].
  • the initial weight value may be updated based on the results of service operation log analysis, user propensity information, and service user experience satisfaction index survey results after starting at 60%, and may be personalized for each user.
  • the TPO complexity calculation module 4600 may adjust the amount of content information displayed as an AR object based on the calculated TPO complexity.
  • the TPO complexity calculation module 4600 may establish a display policy according to the TPO complexity numerical standard.
  • the TPO complexity calculation module 4600 may configure the corresponding information by referring to the information classification and display method, which is the information selection criterion, according to the complexity criterion as shown in [Table 6].
  • the amount of information to be displayed can be divided into essential/additional information in the safety/convenience/commercial information category.
  • the display position is largely classified into the center/left/right/side/upper space, and only the highest priority information such as the most safety can be displayed in the center.
  • Other spaces can be selected from among the existing AR view service exposure features such as carpet/bubble POI/building wall/virtual wall (however, follow the display space occupancy standard).
  • safety-related information may be repeatedly displayed in advance before arrival at the corresponding location, and other information may follow exposure frequency conditions.
  • the information suitability determination criteria can be operated in a direction to obtain service use log information including service user interaction with user consent, determine it ex post and improve it.
  • the TPO complexity calculation module 4600 may be provided in the server 900 , and may receive input data for analysis from the client 810 of the AR service device 800 .
  • the input data for analysis may include user feedback, vehicle location, speed, destination, routing information, camera image, and the like.
  • the server 900 converts the input data for analysis (TPO information) into information (or format) usable in the TPO complexity calculation module 4600 through the TPO data interface (I/F), and the TPO complexity calculation module 4600 can be entered as
  • the TPO complexity calculation module 4600 may calculate a fixed complexity and a variable complexity using the input TPO information, and calculate the TPO complexity by using the TPO complexity calculation module 4600 .
  • the TPO complexity calculation module 4600 receives the POI, advertisement, commerce, service, area, environment, weather, traffic information, danger area information, etc. received from the external service server 4650, and refers to the TPO complexity can be calculated.
  • the TPO complexity calculation module 4600 may establish a display policy according to the TPO complexity numerical standard as shown in Table 6 based on the TPO complexity ( 4610 ).
  • the TPO complexity calculation module 4600 transmits information on information type, information amount, location, and display time according to the established display policy to the server 900, and the server 900 displays AR service device according to the display policy. Optimization (processing) of data to be transmitted to 800 may be performed ( 4620 ).
  • the server 900 may transmit the processed (optimized) AR object (ie, display data) based on the display policy to the AR service device 800 (or the client 810 ).
  • the AR engine 820 of the AR service device 800 may output data processed by reflecting the TPO complexity and an AR object reflecting the display policy to the display unit 250 of the vehicle.
  • the AR object may be overlapped and output on the captured image.
  • the TPO complexity calculation module 4600 may be implemented as a separate configuration independent of the server 900 , as shown in FIG. 47 .
  • the TPO complexity calculation module 4600 is transmitted from the information (region, environment, weather, traffic information, dangerous area information, etc.) received from the external service server 4650b and the AR service device 800 to the server.
  • TPO complexity can be calculated using the input data for analysis (TPO information) transmitted through the
  • TPO complexity calculation module 4600 When the TPO complexity calculation module 4600 is separated from the server 900 , establishment of a display policy based on the TPO complexity value may be performed on the server 900 side.
  • information for TPO analysis includes road type and shape, building configuration, regional characteristics, concentration of attention, traffic received from an external service server, pedestrian density, construction/event information, environment/ Risk information and information collected from the vehicle's camera, sensor, HMI, and navigation system received from the AR service device 800 may be included.
  • the input data for analysis may include map/location information, environment information, and vehicle information.
  • the TPO complexity calculation module 4600 calculates / quantifies the fixed complexity and the variable complexity through the received data, and thereby calculates / quantifies the TPO complexity. have.
  • the TPO complexity calculation module 4600 may establish a display policy as shown in Table 6 on the basis of the TPO complexity, and the display policy includes information type, information location, information display time, information amount, information display method, and interaction. Whether on/off may be included.
  • the server 900 (or the AR service device 800 ), according to the display policy determined by the TPO complexity calculation module 4600 , provides an AR object (POI information, advertisement content, and cover related information) from an external server (3rd party partners). ) can be processed (optimized).
  • an AR object POI information, advertisement content, and cover related information
  • the AR engine 820 of the AR service device 800 may display the processed AR object on the display unit 250 of the vehicle.
  • FIG. 49 is a conceptual diagram for explaining an example of displaying an AR object when the TPO complexity is calculated as .
  • the TPO complexity calculation module 4600 may process the AR object so that the AR object is displayed as the first level (the simplest displayed level) according to the display policy when the TPO complexity is determined to be high (the first section). .
  • the processing of the AR object may be performed by the server 900 or the AR service device 800 .
  • the AR object 4900 is displayed at the first level as the TPO complexity is set to the first section, and is visualized based on essential information, minimizes the screen occupancy, simplifies centered on safety information, and increases the screen occupancy. can be machined to a minimum.
  • 50 is a conceptual diagram for explaining an example in which an AR object is displayed when the TPO complexity is calculated as lower.
  • the TPO complexity calculation module 4600 When the TPO complexity calculation module 4600 is determined to be low (a second section or a third section lower than the first section), the TPO complexity calculation module 4600 sets the AR object higher (complex) than the first level according to a display policy. AR objects can be processed to be displayed as levels (levels that are displayed as complex).
  • the AR object 5000 may expose advertisement information to an area other than a place to secure a front view, and may be processed to occupy a large area in the form of an AR wall.
  • the AR object 5000 may be processed to increase the visibility of the advertisement by applying an animation effect such as size change.
  • an AR service platform capable of providing an AR service optimized to a passenger in a vehicle.
  • the present invention it is possible to provide a new AR service platform that can dynamically adjust the information and the amount of information to be displayed in AR according to the vehicle situation and select the information to be emphasized.
  • an AR service platform capable of providing an AR service optimized according to the complexity by changing the display policy of the AR object according to the TPO complexity.
  • the AR service apparatus 800 described above may be included in the vehicle 100 .
  • the operation or control method of the AR service device 800 described above may be analogously applied to the operation or control method of the vehicle 100 (or the controller 170 ).
  • control method of the vehicle 100 is,
  • a more specific embodiment may be substituted for the above-described content, or analogously applied in the same/similar manner.
  • Each of the above steps may be performed not only by the AR service device 800 , but also by the controller 170 provided in the vehicle 100 .
  • all functions, configurations, or control methods performed by the vehicle control device 800 described above may be performed by the controller 170 provided in the vehicle 100 . That is, all the control methods described in this specification may be applied to a vehicle control method or may be applied to a control method of a control device.
  • the AR service device 800 described above may be a mobile terminal.
  • all functions, configurations, or control methods performed by the AR service apparatus 800 may be performed by the controller of the mobile terminal.
  • all of the control methods described in this specification may be analogously applied to the control method of the mobile terminal in the same/similar manner.
  • the present invention described above can be implemented as computer-readable code on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.
  • the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Marketing (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

본 발명은 AR 서비스를 제공하는 AR 서비스 플랫폼을 제공한다. 본 발명의 일 실시 예에 따른 AR 서비스 플랫폼은, 차량 외부에 구비되며, AR 서비스에 필요한 정보를 수집 및 가공하여 상기 차량으로 전송하는 서버 및 상기 차량에 구비되며, 상기 서버에서 전송된 정보를 이용하여 AR 서비스를 제공하는 AR 서비스 장치를 포함하고, 상기 서버는, 현실세계의 TPO 복잡도(Time Place Occasion Complexity Level)를 산출하고, 산출된 복잡도를 이용하여 상기 AR 서비스 장치로 전송할 정보량을 결정하는 TPO 복잡도 산출 모듈을 포함는 것을 특징으로 한다.

Description

증강현실 서비스를 제공하는 AR 서비스 플랫폼
본 발명은 증강현실 서비스를 제공하는 AR 서비스 플랫폼에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위해 차량 운전자 보조 시스템(ADAS : Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어 지고 있다.
최근에는 증강현실(AUGMENTED REALITY, 이하 AR) 기술을 활용하여 차량의 주행에 도움을 주는 UI/UX 및 서비스에 대한 개발이 활발히 이루어지고 있다.
증강현실 기술을 활용하는 경우, 실제 현실세계를 기반으로 차량의 주행에 필요한 다양한 정보를 제공할 수 있고, 추가적으로 주행뿐만 아니라 다양한 분야의 정보, 컨텐츠 등을 차량 탑승자들에게 제공할 수 있다는 이점이 있다.
본 발명은 차량 주행 중 최적화된 증강현실 서비스를 제공하는 AR 서비스 플랫폼을 제공하는데 목적이 있다.
본 발명은 차량의 상황에 따라 최적화된 AR 서비스를 제공하는 것이 가능한 AR 서비스 플랫폼을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 AR 서비스 플랫폼은, AR 서비스를 제공하는 AR 서비스 플랫폼으로, 차량 외부에 구비되며, AR 서비스에 필요한 정보를 수집 및 가공하여 상기 차량으로 전송하는 서버 및 상기 차량에 구비되며, 상기 서버에서 전송된 정보를 이용하여 AR 서비스를 제공하는 AR 서비스 장치를 포함하고, 상기 서버는, 현실세계의 TPO 복잡도(Time Place Occasion Complexity Level)를 산출하고, 산출된 복잡도를 이용하여 상기 AR 서비스 장치로 전송할 정보량을 결정하는 TPO 복잡도 산출 모듈을 포함한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 상기 AR 서비스 장치로부터 현실세계의 TPO 정보를 수집하고, 수집된 TPO 정보에 근거하여 고정 복잡도 및 가변 복잡도를 산출하는 것을 특징으로 한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 상기 고정 복잡도 및 가변 복잡도에 근거하여, 상기 TPO 복잡도를 산출하는 것을 특징으로 한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 상기 산출된 TPO 복잡도에 근거하여, 상기 AR 서비스 장치로 전송할 정보의 종류 및 정보량 중 적어도 하나를 가변하는 것을 특징으로 한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 상기 산출된 TPO 복잡도에 근거하여, 상기 AR 서비스로 출력되는 AR 객체에 대한 표시 정책을 수립하는 것을 특징으로 한다.
실시 예에 있어서, 상기 표시 정책은, 상기 AR 객체에 대한 종류, 정보량, 위치 및 표시시간 중 적어도 하나에 대한 설정값을 포함하는 것을 특징으로 한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 상기 표시 정책에 대응되도록 상기 AR 서비스 장치로 전송되는 AR 객체를 가공하는 것을 특징으로 한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 외부 서비스 서버로부터 수신된 정보를 상기 표시 정책에 근거하여 가공하고, 가공된 정보를 상기 AR 서비스 장치로 전송하는 것을 특징으로 한다.
실시 예에 있어서, 상기 TPO 복잡도 산출 모듈은, 상기 산출된 TPO 복잡도에 대한 정보를 상기 AR 서비스 장치로 전송하고, 상기 AR 서비스 장치는, 상기 수신된 TPO 복잡도에 대한 정보를 기준으로 상기 AR 서비스로 출력되는 AR 객체에 대한 표시 정책을 수립하는 것을 특징으로 한다.
실시 예에 있어서, 상기 AR 서비스 장치는, 상기 표시 정책에 대응되도록 상기 AR 객체를 가공하고, 가공된 AR 객체를 차량의 카메라를 통해 촬영된 영상에 오버랩하여 상기 AR 서비스를 제공하는 것을 특징으로 한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 본 발명에 따르면, 차량에 탑승한 탑승자에게 최적화된 AR 서비스를 제공할 수 있는 AR 서비스 플랫폼을 제공할 수 있다.
둘째, 본 발명에 따르면, 본 발명은 AR로 표시할 정보와 정보량을 차량 상황에 따라 동적으로 조절하고 강조할 정보를 선별할 수 있는 새로운 AR 서비스 플랫폼을 제공할 수 있다.
셋째, 본 발명에 따르면, 본 발명은 TPO 복잡도에 따라 AR 객체의 표시 정책을 달리하여, 복잡도에 따라 최적화된 AR 서비스를 제공할 수 있는 AR 서비스 플랫폼을 제공할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량을 외부의 다양한 각도에서 본 도면이다.
도 3 내지 도 4는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 5 내지 도 6은 본 발명의 실시예에 따른 오브젝트를 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 8은 본 발명의 AR 서비스를 제공하기 위한 시스템을 설명하기 위한 개념도이다.
도 9는 본 발명의 AR 서비스 플랫폼을 설명하기 위한 개념도이다.
도 10은 본 발명의 대표적인 제어방법을 설명하기 위한 흐름도이다.
도 11, 도 12, 도 13, 도 14, 도 15 및 도 16은 도 10에서 살펴본 제어방법을 설명하기 위한 흐름도 및 개념도이다.
도 17, 도 18, 도 19, 도 20, 도 21, 도 22, 도 23, 도 24, 도 25, 도 26, 도 27, 도 28, 도 29, 도 30, 도 31, 도 32, 도 33, 도 34, 도 35, 도 36, 도 37 및 도 38은 본 발명의 AR 서비스 플랫폼의 다양한 AR 서비스 제공 방법을 설명하기 위한 흐름도 및 개념도이다.
도 39, 도 40, 도 41, 도 42, 도 43 및 도 44는 본 발명의 AR 서비스 플랫폼이 AR 벽을 이용하여 건물 상에 AR 객체를 출력하는 방법을 설명하기 위한 개념도이다.
도 45는 본 발명의 TPO 복잡도에 따라 AR 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 46, 도 47, 도 48, 도 49 및 도 50은 도 45에서 살펴본 제어방법을 설명하기 위한 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량을 외부의 다양한 각도에서 본 도면이다.
도 3 내지 도 4는 본 발명의 실시예에 따른 차량의 내부를 도시한 도면이다.
도 5 내지 도 6은 본 발명의 실시예에 따른 오브젝트를 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 1 내지 도 7을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치(510)를 포함할 수 있다.
차량(100)은 자율 주행 차량일 수 있다.
차량(100)은, 사용자 입력에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다.
예를 들면, 차량(100)은, 사용자 인터페이스 장치(200)를 통해, 수신되는 사용자 입력에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)은, 주행 상황 정보에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 주행 상황 정보는, 오브젝트 검출 장치(300)에서 제공된 오브젝트 정보에 기초하여 생성될 수 있다.
예를 들면, 차량(100)은, 오브젝트 검출 장치(300)에서 생성되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
예를 들면, 차량(100)은, 통신 장치(400)를 통해 수신되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)은, 외부 디바이스에서 제공되는 정보, 데이터, 신호에 기초하여 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.
차량(100)이 자율 주행 모드로 운행되는 경우, 자율 주행 차량(100)은, 운행 시스템(700)에 기초하여 운행될 수 있다.
예를 들면, 자율 주행 차량(100)은, 주행 시스템(710), 출차 시스템(740), 주차 시스템(750)에서 생성되는 정보, 데이터 또는 신호에 기초하여 운행될 수 있다.
차량(100)이 메뉴얼 모드로 운행되는 경우, 자율 주행 차량(100)은, 운전 조작 장치(500)를 통해 운전을 위한 사용자 입력을 수신할 수 있다. 운전 조작 장치(500)를 통해 수신되는 사용자 입력에 기초하여, 차량(100)은 운행될 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.
도 7에 예시된 바와 같이, 차량(100)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 운전 조작 장치(500), 차량 구동 장치(600), 운행 시스템(700), 내비게이션 시스템(770), 센싱부(120), 인터페이스부(130), 메모리(140), 제어부(170) 및 전원 공급부(190)를 포함할 수 있다.
실시예에 따라, 차량(100)은, 본 명세서에서 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
사용자 인터페이스 장치(200)는, 차량(100)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(100)에서 생성된 정보를 제공할 수 있다. 차량(100)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.
사용자 인터페이스 장치(200)는, 입력부(210), 내부 카메라(220), 생체 감지부(230), 출력부(250) 및 프로세서(270)를 포함할 수 있다.
실시예에 따라, 사용자 인터페이스 장치(200)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수도 있다.
입력부(200)는, 사용자로부터 정보를 입력받기 위한 것으로, 입력부(120)에서 수집한 데이터는, 프로세서(270)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다.
입력부(200)는, 차량 내부에 배치될 수 있다. 예를 들면, 입력부(200)는, 스티어링 휠(steering wheel)의 일 영역, 인스투루먼트 패널(instrument panel)의 일 영역, 시트(seat)의 일 영역, 각 필러(pillar)의 일 영역, 도어(door)의 일 영역, 센타 콘솔(center console)의 일 영역, 헤드 라이닝(head lining)의 일 영역, 썬바이저(sun visor)의 일 영역, 윈드 쉴드(windshield)의 일 영역 또는 윈도우(window)의 일 영역 등에 배치될 수 있다.
입력부(200)는, 음성 입력부(211), 제스쳐 입력부(212), 터치 입력부(213) 및 기계식 입력부(214)를 포함할 수 있다.
음성 입력부(211)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
음성 입력부(211)는, 하나 이상의 마이크로 폰을 포함할 수 있다.
제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.
실시예에 따라, 제스쳐 입력부(212)는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부(212)는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다.
제스쳐 입력부(212)는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다.
터치 입력부(213)는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
터치 입력부(213)는, 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다.
실시예에 따라, 터치 입력부(213)는 디스플레이부(251)와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 차량(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.
기계식 입력부(214)는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부(214)에 의해 생성된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.
기계식 입력부(214)는, 스티어링 휠, 센테 페시아, 센타 콘솔, 칵픽 모듈, 도어 등에 배치될 수 있다.
내부 카메라(220)는, 차량 내부 영상을 획득할 수 있다. 프로세서(270)는, 차량 내부 영상을 기초로, 사용자의 상태를 감지할 수 있다. 프로세서(270)는, 차량 내부 영상에서 사용자의 시선 정보를 획득할 수 있다. 프로세서(270)는, 차량 내부 영상에서 사용자의 제스쳐를 감지할 수 있다.
생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있다. 생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있는 센서를 포함하고, 센서를 이용하여, 사용자의 지문 정보, 심박동 정보 등을 획득할 수 있다. 생체 정보는 사용자 인증을 위해 이용될 수 있다.
출력부(250)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다.
출력부(250)는, 디스플레이부(251), 음향 출력부(252) 및 햅틱 출력부(253) 중 적어도 어느 하나를 포함할 수 있다.
디스플레이부(251)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다.
디스플레이부(251)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(251)는 터치 입력부(213)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.
디스플레이부(251)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(251)가 HUD로 구현되는 경우, 디스플레이부(251)는 투사 모듈을 구비하여 윈드 쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 출력할 수 있다.
디스플레이부(251)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드 쉴드 또는 윈도우에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
한편, 사용자 인터페이스 장치(200)는, 복수의 디스플레이부(251a 내지 251g)를 포함할 수 있다.
디스플레이부(251)는, 스티어링 휠의 일 영역, 인스투루먼트 패널의 일 영역(521a, 251b, 251e), 시트의 일 영역(251d), 각 필러의 일 영역(251f), 도어의 일 영역(251g), 센타 콘솔의 일 영역, 헤드 라이닝의 일 영역, 썬바이저의 일 영역에 배치되거나, 윈드 쉴드의 일영역(251c), 윈도우의 일영역(251h)에 구현될 수 있다.
음향 출력부(252)는, 프로세서(270) 또는 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(252)는, 하나 이상의 스피커를 포함할 수 있다.
햅틱 출력부(253)는, 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(253)는, 스티어링 휠, 안전 벨트, 시트(110FL, 110FR, 110RL, 110RR)를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
프로세서(270)는, 사용자 인터페이스 장치(200)의 각 유닛의 전반적인 동작을 제어할 수 있다.
실시예에 따라, 사용자 인터페이스 장치(200)는, 복수의 프로세서(270)를 포함하거나, 프로세서(270)를 포함하지 않을 수도 있다.
사용자 인터페이스 장치(200)에 프로세서(270)가 포함되지 않는 경우, 사용자 인터페이스 장치(200)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
한편, 사용자 인터페이스 장치(200)는, 차량용 디스플레이 장치로 명명될 수 있다.
사용자 인터페이스 장치(200)는, 제어부(170)의 제어에 따라 동작될 수 있다.
오브젝트 검출 장치(300)는, 차량(100) 외부에 위치하는 오브젝트를 검출하기 위한 장치이다.
오브젝트는, 차량(100)의 운행과 관련된 다양한 물체들일 수 있다.
도 5 내지 도 6을 참조하면, 오브젝트(O)는, 차선(OB10), 타 차량(OB11), 보행자(OB12), 이륜차(OB13), 교통 신호(OB14, OB15), 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 포함할 수 있다.
차선(Lane)(OB10)은, 주행 차선, 주행 차선의 옆 차선, 대향되는 차량이 주행하는 차선일 수 있다. 차선(Lane)(OB10)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타 차량(OB11)은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 예를 들면, 타 차량(OB11)은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다.
보행자(OB12)는, 차량(100)의 주변에 위치한 사람일 수 있다. 보행자(OB12)는, 차량(100)으로부터 소정 거리 이내에 위치하는 사람일 수 있다. 예를 들면, 보행자(OB12)는, 인도 또는 차도상에 위치하는 사람일 수 있다.
이륜차(OB12)는, 차량(100)의 주변에 위치하고, 2개의 바퀴를 이용해 움직이는 탈것을 의미할 수 있다. 이륜차(OB12)는, 차량(100)으로부터 소정 거리 이내에 위치하는 2개의 바퀴를 가지는 탈 것일 수 있다. 예를 들면, 이륜차(OB13)는, 인도 또는 차도상에 위치하는 오토바이 또는 자전거일 수 있다.
교통 신호는, 교통 신호등(OB15), 교통 표지판(OB14), 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.
도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리를 포함할 수 있다.
지형물은, 산, 언덕, 등을 포함할 수 있다.
한편, 오브젝트는, 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들면, 이동 오브젝트는, 타 차량, 보행자를 포함하는 개념일 수 있다. 예를 들면, 고정 오브젝트는, 교통 신호, 도로, 구조물을 포함하는 개념일 수 있다.
오브젝트 검출 장치(300)는, 카메라(310), 레이다(320), 라이다(330), 초음파 센서(340), 적외선 센서(350) 및 프로세서(370)를 포함할 수 있다.
실시예에 따라, 오브젝트 검출 장치(300)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
카메라(310)는, 차량 외부 영상을 획득하기 위해, 차량의 외부의 적절한 곳에 위치할 수 있다. 카메라(310)는, 모노 카메라, 스테레오 카메라(310a), AVM(Around View Monitoring) 카메라(310b) 또는 360도 카메라일 수 있다.
예를 들면, 카메라(310)는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다.
예를 들면, 카메라(310)는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다.
예를 들면, 카메라(310)는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
카메라(310)는, 획득된 영상을 프로세서(370)에 제공할 수 있다.
레이다(320)는, 전자파 송신부, 수신부를 포함할 수 있다. 레이더(320)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(320)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다.
레이더(320)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
레이더(320)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다(330)는, 레이저 송신부, 수신부를 포함할 수 있다. 라이다(330)는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다.
라이다(330)는, 구동식 또는 비구동식으로 구현될 수 있다.
구동식으로 구현되는 경우, 라이다(330)는, 모터에 의해 회전되며, 차량(100) 주변의 오브젝트를 검출할 수 있다.
비구동식으로 구현되는 경우, 라이다(330)는, 광 스티어링에 의해, 차량(100)을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(100)은 복수의 비구동식 라이다(330)를 포함할 수 있다.
라이다(330)는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
라이다(330)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
초음파 센서(340)는, 초음파 송신부, 수신부를 포함할 수 있다. 초음파 센서(340)은, 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
초음파 센서(340)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
적외선 센서(350)는, 적외선 송신부, 수신부를 포함할 수 있다. 적외선 센서(340)는, 적외선 광을 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
적외선 센서(350)는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
프로세서(370)는, 오브젝트 검출 장치(300)의 각 유닛의 전반적인 동작을 제어할 수 있다.
프로세서(370)는, 획득된 영상에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 영상 처리 알고리즘을 통해, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 전자파가 오브젝트에 반사되어 되돌아오는 반사 전자파에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 전자파에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 레이저가 오브젝트에 반사되어 되돌아오는 반사 레이저 광에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 레이저 광에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 초음파가 오브젝트에 반사되어 되돌아오는 반사 초음파에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 초음파에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
프로세서(370)는, 송신된 적외선 광이 오브젝트에 반사되어 되돌아오는 반사 적외선 광에 기초하여, 오브젝트를 검출하고, 트래킹할 수 있다. 프로세서(370)는, 적외선 광에 기초하여, 오브젝트와의 거리 산출, 오브젝트와의 상대 속도 산출 등의 동작을 수행할 수 있다.
실시예에 따라, 오브젝트 검출 장치(300)는, 복수의 프로세서(370)를 포함하거나, 프로세서(370)를 포함하지 않을 수도 있다. 예를 들면, 카메라(310), 레이다(320), 라이다(330), 초음파 센서(340) 및 적외선 센서(350) 각각은 개별적으로 프로세서를 포함할 수 있다.
오브젝트 검출 장치(300)에 프로세서(370)가 포함되지 않는 경우, 오브젝트 검출 장치(300)는, 차량(100)내 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
오브젝트 검출 장치(400)는, 제어부(170)의 제어에 따라 동작될 수 있다.
통신 장치(400)는, 외부 디바이스와 통신을 수행하기 위한 장치이다. 여기서, 외부 디바이스는, 타 차량, 이동 단말기 또는 서버일 수 있다.
통신 장치(400)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
통신 장치(400)는, 근거리 통신부(410), 위치 정보부(420), V2X 통신부(430), 광통신부(440), 방송 송수신부(450) 및 프로세서(470)를 포함할 수 있다.
실시예에 따라, 통신 장치(400)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
근거리 통신부(410)는, 근거리 통신(Short range communication)을 위한 유닛이다. 근거리 통신부(410)는, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신부(410)는, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다.
위치 정보부(420)는, 차량(100)의 위치 정보를 획득하기 위한 유닛이다. 예를 들면, 위치 정보부(420)는, GPS(Global Positioning System) 모듈 또는 DGPS(Differential Global Positioning System) 모듈을 포함할 수 있다.
V2X 통신부(430)는, 서버(V2I : Vehicle to Infra), 타 차량(V2V : Vehicle to Vehicle) 또는 보행자(V2P : Vehicle to Pedestrian)와의 무선 통신 수행을 위한 유닛이다. V2X 통신부(430)는, 인프라와의 통신(V2I), 차량간 통신(V2V), 보행자와의 통신(V2P) 프로토콜이 구현 가능한 RF 회로를 포함할 수 있다.
광통신부(440)는, 광을 매개로 외부 디바이스와 통신을 수행하기 위한 유닛이다. 광통신부(440)는, 전기 신호를 광 신호로 전환하여 외부에 발신하는 광발신부 및 수신된 광 신호를 전기 신호로 전환하는 광수신부를 포함할 수 있다.
실시예에 따라, 광발신부는, 차량(100)에 포함된 램프와 일체화되게 형성될 수 있다.
방송 송수신부(450)는, 방송 채널을 통해, 외부의 방송 관리 서버로부터 방송 신호를 수신하거나, 방송 관리 서버에 방송 신호를 송출하기 위한 유닛이다. 방송 채널은, 위성 채널, 지상파 채널을 포함할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 수 있다.
프로세서(470)는, 통신 장치(400)의 각 유닛의 전반적인 동작을 제어할 수 있다.
실시예에 따라, 통신 장치(400)는, 복수의 프로세서(470)를 포함하거나, 프로세서(470)를 포함하지 않을 수도 있다.
통신 장치(400)에 프로세서(470)가 포함되지 않는 경우, 통신 장치(400)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.
한편, 통신 장치(400)는, 사용자 인터페이스 장치(200)와 함께 차량용 디스플레이 장치를 구현할 수 있다. 이경우, 차량용 디스플레이 장치는, 텔레 매틱스(telematics) 장치 또는 AVN(Audio Video Navigation) 장치로 명명될 수 있다.
통신 장치(400)는, 제어부(170)의 제어에 따라 동작될 수 있다.
운전 조작 장치(500)는, 운전을 위한 사용자 입력을 수신하는 장치이다.
메뉴얼 모드인 경우, 차량(100)은, 운전 조작 장치(500)에 의해 제공되는 신호에 기초하여 운행될 수 있다.
운전 조작 장치(500)는, 조향 입력 장치(510), 가속 입력 장치(530) 및 브레이크 입력 장치(570)를 포함할 수 있다.
조향 입력 장치(510)는, 사용자로부터 차량(100)의 진행 방향 입력을 수신할 수 있다. 조향 입력 장치(510)는, 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.
가속 입력 장치(530)는, 사용자로부터 차량(100)의 가속을 위한 입력을 수신할 수 있다. 브레이크 입력 장치(570)는, 사용자로부터 차량(100)의 감속을 위한 입력을 수신할 수 있다. 가속 입력 장치(530) 및 브레이크 입력 장치(570)는, 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 장치 또는 브레이크 입력 장치는, 터치 스크린, 터치 패드 또는 버튼 형태로 형성될 수도 있다.
운전 조작 장치(500)는, 제어부(170)의 제어에 따라 동작될 수 있다.
차량 구동 장치(600)는, 차량(100)내 각종 장치의 구동을 전기적으로 제어하는 장치이다.
차량 구동 장치(600)는, 파워 트레인 구동부(610), 샤시 구동부(620), 도어/윈도우 구동부(630), 안전 장치 구동부(640), 램프 구동부(650) 및 공조 구동부(660)를 포함할 수 있다.
실시예에 따라, 차량 구동 장치(600)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
한편, 차량 구동 장치(600)는 프로세서를 포함할 수 있다. 차량 구동 장치(600)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
파워 트레인 구동부(610)는, 파워 트레인 장치의 동작을 제어할 수 있다.
파워 트레인 구동부(610)는, 동력원 구동부(611) 및 변속기 구동부(612)를 포함할 수 있다.
동력원 구동부(611)는, 차량(100)의 동력원에 대한 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진이 동력원인 경우, 동력원 구동부(610)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(611)는, 제어부(170)의 제어에 따라, 엔진 출력 토크를 조정할 수 있다.
예를 들면, 전기 에너지 기반의 모터가 동력원인 경우, 동력원 구동부(610)는, 모터에 대한 제어를 수행할 수 있다. 동력원 구동부(610)는, 제어부(170)의 제어에 따라, 모터의 회전 속도, 토크 등을 조정할 수 있다.
변속기 구동부(612)는, 변속기에 대한 제어를 수행할 수 있다.
변속기 구동부(612)는, 변속기의 상태를 조정할 수 있다. 변속기 구동부(612)는, 변속기의 상태를, 전진(D), 후진(R), 중립(N) 또는 주차(P)로 조정할 수 있다.
한편, 엔진이 동력원인 경우, 변속기 구동부(612)는, 전진(D) 상태에서, 기어의 물림 상태를 조정할 수 있다.
샤시 구동부(620)는, 샤시 장치의 동작을 제어할 수 있다.
샤시 구동부(620)는, 조향 구동부(621), 브레이크 구동부(622) 및 서스펜션 구동부(623)를 포함할 수 있다.
조향 구동부(621)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 조향 구동부(621)는, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(622)는, 차량(100) 내의 브레이크 장치(brake apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다.
한편, 브레이크 구동부(622)는, 복수의 브레이크 각각을 개별적으로 제어할 수 있다. 브레이크 구동부(622)는, 복수의 휠에 걸리는 제동력을 서로 다르게 제어할 수 있다.
서스펜션 구동부(623)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 서스펜션 구동부(623)는 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
한편, 서스펜션 구동부(623)는, 복수의 서스펜션 각각을 개별적으로 제어할 수 있다.
도어/윈도우 구동부(630)는, 차량(100) 내의 도어 장치(door apparatus) 또는 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다.
도어/윈도우 구동부(630)는, 도어 구동부(631) 및 윈도우 구동부(632)를 포함할 수 있다.
도어 구동부(631)는, 도어 장치에 대한 제어를 수행할 수 있다. 도어 구동부(631)는, 차량(100)에 포함되는 복수의 도어의 개방, 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 트렁크(trunk) 또는 테일 게이트(tail gate)의 개방 또는 폐쇄를 제어할 수 있다. 도어 구동부(631)는, 썬루프(sunroof)의 개방 또는 폐쇄를 제어할 수 있다.
윈도우 구동부(632)는, 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 차량(100)에 포함되는 복수의 윈도우의 개방 또는 폐쇄를 제어할 수 있다.
안전 장치 구동부(640)는, 차량(100) 내의 각종 안전 장치(safety apparatus)에 대한 전자식 제어를 수행할 수 있다.
안전 장치 구동부(640)는, 에어백 구동부(641), 시트벨트 구동부(642) 및 보행자 보호 장치 구동부(643)를 포함할 수 있다.
에어백 구동부(641)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 에어백 구동부(641)는, 위험 감지시, 에어백이 전개되도록 제어할 수 있다.
시트벨트 구동부(642)는, 차량(100) 내의 시트벨트 장치(seatbelt appartus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 시트벨트 구동부(642)는, 위험 감지시, 시트 밸트를 이용해 탑승객이 시트(110FL, 110FR, 110RL, 110RR)에 고정되도록 제어할 수 있다.
보행자 보호 장치 구동부(643)는, 후드 리프트 및 보행자 에어백에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 보행자 보호 장치 구동부(643)는, 보행자와의 충돌 감지시, 후드 리프트 업 및 보행자 에어백 전개되도록 제어할 수 있다.
램프 구동부(650)는, 차량(100) 내의 각종 램프 장치(lamp apparatus)에 대한 전자식 제어를 수행할 수 있다.
공조 구동부(660)는, 차량(100) 내의 공조 장치(air cinditioner)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 공조 구동부(660)는, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
차량 구동 장치(600)는, 프로세서를 포함할 수 있다. 차량 구동 장치(600)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
차량 구동 장치(600)는, 제어부(170)의 제어에 따라 동작될 수 있다.
운행 시스템(700)은, 차량(100)의 각종 운행을 제어하는 시스템이다. 운행 시스템(700)은, 자율 주행 모드에서 동작될 수 있다.
운행 시스템(700)은, 주행 시스템(710), 출차 시스템(740) 및 주차 시스템(750) 을 포함할 수 있다.
실시예에 따라, 운행 시스템(700)은, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
한편, 운행 시스템(700)은, 프로세서를 포함할 수 있다. 운행 시스템(700)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다.
한편, 실시예에 따라, 운행 시스템(700)이 소프트웨어적으로 구현되는 경우, 제어부(170)의 하위 개념일 수도 있다.
한편, 실시예에 따라, 운행 시스템(700)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 차량 구동 장치(600) 및 제어부(170) 중 적어도 어느 하나를 포함하는 개념일 수 있다.
주행 시스템(710)은, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
주행 시스템(710)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주행을 수행할 수 있다.
출차 시스템(740)은, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
출차 시스템(740)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 출차를 수행할 수 있다.
주차 시스템(750)은, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 내비게이션 시스템(770)으로부터 내비게이션 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 오브젝트 검출 장치(300)로부터 오브젝트 정보를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
주차 시스템(750)은, 통신 장치(400)를 통해, 외부 디바이스로부터 신호를 제공받아, 차량 구동 장치(600)에 제어 신호를 제공하여, 차량(100)의 주차를 수행할 수 있다.
내비게이션 시스템(770)은, 내비게이션 정보를 제공할 수 있다. 내비게이션 정보는, 맵(map) 정보, 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 경로 상의 다양한 오브젝트에 대한 정보, 차선 정보 및 차량의 현재 위치 정보 중 적어도 어느 하나를 포함할 수 있다.
내비게이션 시스템(770)은, 메모리, 프로세서를 포함할 수 있다. 메모리는 내비게이션 정보를 저장할 수 있다. 프로세서는 내비게이션 시스템(770)의 동작을 제어할 수 있다.
실시예에 따라, 내비게이션 시스템(770)은, 통신 장치(400)를 통해, 외부 디바이스로부터 정보를 수신하여, 기 저장된 정보를 업데이트 할 수 있다.
실시예에 따라, 내비게이션 시스템(770)은, 사용자 인터페이스 장치(200)의 하위 구성 요소로 분류될 수도 있다.
센싱부(120)는, 차량의 상태를 센싱할 수 있다. 센싱부(120)는, 자세 센서(예를 들면, 요 센서(yaw sensor), 롤 센서(roll sensor), 피치 센서(pitch sensor)), 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
센싱부(120)는, 차량 자세 정보, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(120)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
인터페이스부(130)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(130)는 이동 단말기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기와 연결할 수 있다. 이경우, 인터페이스부(130)는 이동 단말기와 데이터를 교환할 수 있다.
한편, 인터페이스부(130)는 연결된 이동 단말기에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기가 인터페이스부(130)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(130)는 전원 공급부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다.
메모리(140)는, 제어부(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(140)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
실시예에 따라, 메모리(140)는, 제어부(170)와 일체형으로 형성되거나, 제어부(170)의 하위 구성 요소로 구현될 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
차량(100)에 포함되는, 하나 이상의 프로세서 및 제어부(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
한편, 본 발명과 관련된 차량(100)은 AR 서비스 장치(800)를 포함할 수 있다.
AR 서비스 장치(800)는, 도 7에서 설명한 구성요소들 중 적어도 하나를 제어하는 것이 가능하다. 이러한 관점에서 봤을 때, 상기 AR 서비스 장치(800)는 제어부(170)일 수 있다.
이에 한정되지 않고, AR 서비스 장치(800)는, 제어부(170)와 독립된 별도의 구성일 수 있다. AR 서비스 장치(800)가 제어부(170)와 독립된 구성요소로 구현되는 경우, 상기 AR 서비스 장치(800)는 차량(100)의 일부분에 구비될 수 있다.
한편, 본 명세서에서 설명하는 AR 서비스 장치(800)는, 차량을 제어하는 것이 가능한 모든 종류의 기기를 포함할 수 있으며, 일 예로, 이동 단말기일 수 있다. AR 서비스 장치(800)가 이동 단말기인 경우, 이동 단말기와 차량(100)은 유/무선 통신을 통해 통신 가능하도록 연결될 수 있다. 또한, 이동 단말기는 통신 연결된 상태에서 다양한 방식으로 차량(100)을 제어할 수 있다.
AR 서비스 장치(800)가 이동 단말기인 경우, 본 명세서에서 설명하는 프로세서(870)는, 이동 단말기의 제어부일 수 있다.
이하에서는, 설명의 편의를 위해 AR 서비스 장치(800)를 제어부(170)와 독립된 별도의 구성인 것으로 설명하기로 한다. 본 명세서에서 AR 서비스 장치(800)에 대하여 설명하는 기능(동작) 및 제어방법은, 차량의 제어부(170)에 의해 수행될 수 있다. 즉, AR 서비스 장치(800)와 관련하여 설명한 모든 내용은, 제어부(170)에도 동일/유사하게 유추적용될 수 있다.
또한, 본 명세서에서 설명하는 AR 서비스 장치(800)는, 도 7에서 설명한 구성요소 및 차량에 구비되는 다양한 구성요소들 중 일부분이 포함될 수 있다. 본 명세서에서는, 설명의 편의를 위해, 도 7에서 설명한 구성요소 및 차량에 구비되는 다양한 구성요소들을 별도의 명칭과 도면부호를 부여하여 설명하기로 한다.
이하에서는, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 AR 서비스 장치(800)에 포함되는 구성요소들에 대하여 보다 구체적으로 살펴보기로 한다.
도 8은 본 발명의 AR 서비스를 제공하기 위한 시스템을 설명하기 위한 개념도이다.
본 발명의 일 실시 예에 따른 AR 서비스를 제공하기 위한 AR 서비스 플랫폼은, 서버(900), 서버와 통신 가능하도록 형성된 차량(100) 및 차량에 구비된 AR 서비스 장치(800)를 포함할 수 있다.
AR 서비스 장치(800)는, 차량(100)에 구비되며, 도 7에서 살펴본 차량에 구비된 전장품과 통신을 수행하여 데이터를 송수신하고, 차량에 구비된 전장품을 제어할 수 있다.
서버(900)는, AR 서비스를 제공하기 위한 클라우드 서버를 포함할 수 있으며, 적어도 하나의 차량들과의 데이터 통신을 수행하고, 차량들로부터 각 차량의 상황과 관련된 정보를 수신하고, 통신 가능한 차량으로 AR 서비스에 필요한 정보를 전송할 수 있다.
차량(100)는, AR 서비스 장치(800)를 포함할 수 있다. 상기 AR 서비스 장치(800)는, 차량(100)의 일 구성요소로 이해될 수 있으며, 차량에 탈부착 가능하도록 형성될 수 있으며, 차량에 구비된 전장품들과의 통신 또는 제어를 위해 인터페이스부(미도시)를 구비될 수 있다.
서버(900)에서 차량으로 어느 데이터 또는 어느 정보를 전송한다는 것은, AR 서비스 장치(800)로 상기 어느 데이터 또는 상기 어느 정보를 전송한다는 의미를 포함할 수 있다.
도 9는 본 발명의 AR 서비스 플랫폼을 설명하기 위한 개념도이다.
본 발명의 AR 서비스를 제공하는 AR 서비스 플랫폼은, AR 서비스 시스템으로 명명될 수 있다.
상기 AR 서비스 플랫폼은, 차량 외부에 구비되며, AR 서비스에 필요한 정보를 수집 및 가공하여 상기 차량으로 전송하는 서버(900) 및 상기 차량에 구비되며, 상기 서버에서 전송된 정보를 이용하여 AR 서비스를 제공하는 AR 서비스 장치(800)를 포함할 수 있다.
상기 서버(900)에서 AR 서비스에 필요한 정보를 수집 및 가공하여 차량으로 전송한다는 것은, 상기 서버(900)가 상기 AR 서비스에 필요한 정보를 수집 및 가공하여 차량에 구비된 AR 서비스 장치(800)로 전송한다는 의미를 포함할 수 있다.
상기 AR 서비스 장치(800)는, 차량의 상황에 근거하여, AR 서비스로 제공되는 정보를 가변시킬 수 있다.
즉, 본 발명의 AR 서비스 장치(800)는, AR로 표시할 정보와 정보량을 차량의 상황에 따라 동적으로 조절(가변)하고, 강조할 정보를 선별할 수 있다.
또한, 본 발명의 AR 서비스 플랫폼은, 차량 상황, 광고 노출 조건 등 특정 조건에 따라 차량에서 제공되는 AR 서비스가 달라지도록 제어할 수 있다.
종래의 AR 내비게이션의 경우, 목적지나 주요 POI(Point of Interest)를 AR 내비게이션에서 표시할 때, 지도 데이터에 저장된 정보를 이용하기 때문에 최신 정보를 반영하기 어렵고, 주유/주차 등과 같이 실시간 속성이 포함된 POI는 제공하지 못하는 한계가 존재한다.
반면, 본 발명의 AR 서비스 플랫폼은, 차량의 위치 정보, 지도 정보, 복수의 센서 데이터, 실시간 POI 정보, 광고/이벤트 정보 등을 융합하여 AR 내비게이션에 표시할 수 있다.
일 예로, AR 정보 표시를 위해, 본 발명의 AR 서비스 장치(800)는, 차량의 현위치, 내비게이션 경로/안내 정보를 기반으로 서버로부터 AR 서비스 정보를 수신하고, AR 내비게이션 화면에 표시하기 위한 형태로 가공할 수 있다.
일 예로, 본 발명의 AR 서비스 장치(800)는, 실시간 AR 표시 정보 재구성할 수 있다. AR 서비스 장치(800)는, 서버로부터 수신 받은 서비스 데이터를 주행 상황을 고려하여 AR 컨텐츠의 표시 형식, 크기, 위치, 노출 방법 등을 판단하여 AR 내비게이션 화면에 표시하도록 재구성할 수 있다(예, 주행 속도에 따라 POI 노출 위치 및 크기 가변화, 교통 트래픽 상황에 따른 서비스 정보 노출 위치 변경, AR Wall 표시 위치 및 노출 시간 조정 등).
또한, 본 발명의 AR 서비스 장치(800)는, 사용자 피드백을 통한 AR 표시 정보 노출 빈도 분석할 수 있다.
서버(900)는 AR 서비스 컨텐츠에 대한 사용자 입력 정보(터치, 주문 등의 입력 정보)를 수집하여 컨텐츠 노출 빈도 분석을 수행하고, 해당 정보를 기반으로 서비스 컨텐츠 노출 정책을 조정할 수 있다.
이러한 구성을 통해, 본 발명은, 다양한 외부 서비스 컨텐츠를 융합하여 AR 내비게이션에 표현이 가능하고, 실시간 속성이 포함된 POI 정보를 통해 다양한 서비스를 제공할 수 있다.
또한, 본 발명은, POI 정보뿐만 아니라 광고, 이벤트, 주요 랜드마크 정보 등 다양한 형태의 AR 컨텐츠 표시가 가능하다.
또한, 본 발명에서 제안하는 UX 시나리오 기반의 실시예를 통하여, AR 내비게이션의 새로운 사용자 경험을 제시할 수 있다.
본 발명은, AR로 표시할 정보량(POI 데이터, 광고)을 차량 상황과 광고 노출 조건에 따라 동적으로 조절하는 서비스 플랫폼 구조 및 AR 정보 표시 방법(UX), AR 표현을 위한 POI 정보와 커머스 서비스 정보를 수집하고 AR 엔진에서 렌더링하기 쉬운 형태로 가공하는 모듈, 차량 내/외 상황에 따라 특정 POI 정보를 강조하도록 처리하는 모듈, 차량 상황 정보를 수집하고 상황에 맞게 UX 정책을 적용하는 모듈 및 UX 정책에 따라 AR 오브젝트(Group Poi, Mini Poi, 3D Object, Event wall 등)를 렌더링하는 AR 엔진 모듈을 제공할 수 있다.
또한, 본 발명은, 차량 전석, 후석 디스플레이간 인터랙션 및 데이터를 송수신하는 클라이언트 모듈, POI와 연계된 커머스 서비스 정보를 노출하는 Service App 모듈, AR 광고 오브젝트 노출 결과, 클릭 등 광고에 대한 사용자 액션을 수집하는 클라이언트 모듈 및 AR 광고 오브젝트 노출 결과, 클릭 등 광고에 대한 사용자 액션을 수집/분석하는 클라우드 모듈을 제공할 수 있다.
도 9를 참조하면, 본 발명의 AR 서비스 플랫폼은, 차량 외부에 존재하는 구성(Off-board)인 서버(900)와, 차량에 구비되는 구성(On-board)인 AR 서비스 장치(800)를 포함할 수 있다.
우선, 서버(900)는, POI 데이터 애그리게이터(POI Data Aggregator)(901), 광고 매니저부(Ads manager)(902), 광고 모니터링부(Ads Monitoring)(903), 서비스 및 광고 매니저부(Service & Ads Manager)(904), 커머스 매니저부(Commerce Manager)(905), 데이터베이스 커넥터(DB Connector)(906) 및 대쉬보드(Dashboard)(907)를 포함할 수 있다.
POI 데이터 애그리게이터(POI Data Aggregator)(901)는 AR 서비스에 필요한 정보를 복수개의 외부 서버로부터 받아와 AR 서비스 플랫폼의 메시지 포맷으로 변환/통합할 수 있다.
광고 매니저부(Ads manager)(902)는, 광고 정보/컨텐츠 관리, 광고 캠페인(광고 노출 조건) 관리를 수행할 수 있다.
광고 모니터링부(Ads Monitoring)(903)는, 광고 노출, 클릭 결과 수집/저장할 수 있다.
서비스 및 광고 매니저부(Service & Ads Manager)(904)는, 서비스 정보에 노출 조건에 맞는 광고 정보를 삽입하여 클라이언트에 제공할 수 있다.
커머스 매니저부(Commerce Manager)(905)는, 커머스 서비스 연동 / 결제 정보 수집할 수 있다.
데이터베이스 커넥터(DB Connector)(906)는, 광고 컨텐츠, 광고 노출 결과 정보, 커머스 결제 정보 저장/쿼리할 수 있다.
대쉬보드(Dashboard)(907)는, 광고 노출 결과/결제 내역 결과를 시각화한 실시간 AR 서비스 현황을 표시할 수 있다.
또한, 서버(900)는, 차량의 AR 서비스 장치(800)로부터 전송된 정보를 서버에서 이용 가능한 데이터 형식으로 변환하고, 서버에서 가공/생성된 정보를 AR 서비스 장치(800)에서 이용 가능한 데이터 형식으로 변환하기 위한 AR 서비스 클라우드 API(또는, 데이터 변환부)를 더 포함할 수 있다.
한편, AR 서비스 장치(800)는, 클라우드 인터페이스, 커머스 앱, CID-RSE 인터랙션 매니저, 정책 매니저, 광고 모니터링, 주행 컨텍스트, 개인화된 추천 등을 포함하는 클라이언트(810) 및 POI 렌더러, 표시 매니저, 터치 매니저 등을 포함하는 AR 엔진(820)을 포함할 수 있다.
클라이언트(810)는, 서버로부터 POI 정보, 광고 등을 수신할 수 있다.
또한, 클라이언트(810)는, 주문/결제 정보를 서버(900)와 송수신할 수 있으며, 광고 노출 결과를 서버(900)에 전송할 수 있다.
AR 엔진(820)은, AR로 출력된 AR 객체가 터치된 횟수, 노출 횟수 등의 데이터를 클라이언트(810)에 전송할 수 있다.
또한, AR 엔진(820)은, 전/후석(CID, RSE) 연동 데이터를 클라이언트(810)와 송수신할 수 있으며, 클라이언트(810)로부터 수신된 AR 표시 정책에 따라 AR 객체를 출력할 수 있다.
또한, AR 엔진(820)은, 차량에 구비된 자이로 센서, 카메라, 통신부, 내비게이션, ADAS(Advanced Driver Assistance Systems), GPS 등으로부터 수집된 데이터를 기반으로 AR 서비스를 통해 제공된 AR 객체의 종류, 출력 위치, POI 종류, 출력 크기, 등을 결정할 수 있다.
차량에 구비된(On-board) AR 서비스 장치(800)는, 클라우드 서버로부터 전송 받은 데이터를, 전방 카메라 영상에 AR로 표시하도록 서비스 컨텐츠를 AR 렌더링할 수 있다.
또한, AR 서비스 장치(800)는, AR엔진으로 부터 광고 게시 결과 데이터 수집 및 서버에 전달하는 등 서버와 AR 엔진 사이의 데이터 전달을 중개할 수 있다.
또한, AR 서비스 장치(800)는, CID-RSE(즉, 전/후석)간 AR로 발생한 데이터를 연동할 수 있다.
또한, AR 서비스 장치(800)는, AR 표시 정책에 대한 데이터 관리를 수행할 수 있으며, 구체적으로, 주행 상황에 따른 AR표시 정책 데이터를 AR엔진에 제공할 수 있다.
또한, AR 서비스 장치(800)는, 상황 인지 및 개인화 서비스 제공할 수 있으며, 구체적으로, 차량 내 데이터를 활용한 주행 상황(속도, TBT(Turn-by-Turn) 등)에 따라 AR 객체를 AR 엔진에 제공할 수 있다.
본 명세서에서는, 차량에 구비된 카메라를 통해 촬영(수신, 처리)된 영상에 AR 정보(또는, AR 객체, AR 컨텐츠, POI 정보 등)를 오버랩하여 출력하여 AR 서비스를 제공하는 것을 예로 설명하기로 한다.
그러나, 이에 한정되지 않고, 본 명세서에서 설명하는 AR 서비스는, 운전자 또는탑승객 기준으로, 차량의 윈드쉴드 상에 바로 AR 정보가 현실 세계의 공간에 오버랩되어 보이도록 출력되거나, HUD(Head-up Display)를 통해 AR 정보가 출력되는 등 다양한 증강현실의 구현방법에 동일/유사하게 유추적용될 수 있다.
AR 서비스를 제공하기 위해 사용되는 입력 데이터(입력 정보)와 AR 서비스 플랫폼을 통해 제공되는 출력 데이터(출력 정보)는 다음과 같다.
우선, 입력 데이터의 종류는, 지도 정보(내비게이션 정보), 서비스 컨텐츠 정보(POI, 광고 등), 다이내믹 정보, 차량 센서 정보, 히스토리컬 정보, 주행 관련 정보를 포함할 수 있다.
지도 정보(내비게이션 정보)는, 목적지까지의 경로 정보 (내비게이션 경로), 안내정보 (Turn-by-Turn), 전방 도로 형상 (Road/Lane), 복수개의 지도 속성 정보(도로 종별/속성, 도로 및 차선의 폭, 곡률, 경사도, 제한속도 등), Localization Object (Road marking, Traffic sign 등) 정보 등을 포함할 수 있다.
서비스 컨텐츠 정보(POI, 광고 등)는, 복수의 서비스 프로바이더로부터 수신 받은 POI 정보, 현위치에서 제공 가능한 광고 정보 및 주유소, 충전소, 주차장 등 예약/결제 서비스를 위한 실시간 정보를 포함할 수 있다.
다이내믹 정보는, Traffic 정보 (Road단위 traffic, Lane 단위 traffic), 이벤트 정보 (사고, Hazard warning 등), 날씨 정보, V2X (V2V, V2I)(Vehicle to Everything, Vehicle to Vehicle, Vehicle to Infra) 등을 포함할 수 있다.
차량 센서 정보는, 현위치 정보 (GPS/DR), 카메라 입력 정보 (ADAS 정보, Object 인식 정보) 및 V2X (V2V와 V2I를 통해 수집 가능한 실시간 주변 상황 정보)를 포함할 수 있다.
히스토리컬 정보는, 과거 주행 경로, Traffic History (예, 시간대 별 소통량), 지역(Zone)과 시간에 따른 통신 속도 등에 대한 정보를 포함할 수 있다.
주행 관련 정보는, 주행모드 (수동, 자율주행, 반자율주행, ADAS 기능 작동 여부 등), 목적지나 경유지 진입 여부, 주차장 진입 여부 등을 포함할 수 있다.
AR 서비스 플랫폼을 통해 제공할 수 있는 출력 정보는, 현위치/경로 기반 AR 서비스 표시 데이터를 포함할 수 있다.
현위치/경로 기반 AR 서비스 표시 데이터는, 경로상 AR 광고 표시 가능 지점(AR Wall, POI 건물 하이라이트), 선택 가능한 AR 빌딩 정보(랜드마크와 같이 선택 가능한 주요 건물 정보), 일반 POI 정보(아이콘이나 말풍선과 같은 POI 요약 정보), 원거리 POI 정보(경로상에는 존재하지 않지만 운행에 도움이 되는 중요 POI 정보의 거리/방향 표시), 동일 건물에 복수개의 POI가 존재할 경우 출력되는 표시 정보, 목적지 건물 및 실시간 주차장 상태 정보, 주유소/충전소의 실시간 상태 정보 및 위치 기반 광고/이벤트 정보 등을 포함할 수 있다.
본 발명의 AR 서비스 플랫폼은, 실시간 정보에 따른 AR 서비스 정보를 필터링하고, 표시 방법을 결정할 수 있다.
구체적으로, AR 서비스 플랫폼은, 주행 속도 기반의 실시간 POI 노출 개수, POI 겹침제거, 크기 조절, 노출 시간 등을 결정할 수 있다.
또한, AR 서비스 플랫폼은, 위험 정보 인식에 따른 POI 노출 방법을 결정할 수 있으며, 구체적으로, 사고, 공사, 다수의 무빙오브젝트 인식 상황 등에 따라 POI 표시 방법을 동적으로 변경할 수 있다.
또한, AR 서비스 플랫폼은, 트래픽으로 인한 AR 표시 시인성 저하 상황 발생 시, POI 표시 위치 동적 변경할 수 있다.
또한, AR 서비스 플랫폼은, 전/후석 AR 표시 데이터 재구성할 수 있으며, 일 예로, 주행속도, 위험정보, 날씨 정보 등을 고려하여 전석 디스플레이에는 AR 서비스 정보를 최소화 하고 후석 디스플레이는 표시 가능한 모든 정보를 표시할 수 있도록 재구성할 수 있다.
이와 같은 AR 서비스 플랫폼의 동작/기능/제어방법은, AR 서비스 플랫폼에 포함된 서버 또는 AR 서비스 장치에 의해 구현되거나, 서버와 AR 서비스 장치의 유기적인 상호 작용에 의해 구현될 수 있다.
도 9를 참조하여, AR 서비스 플랫폼의 서버(900)의 구성에 대하여 보다 구체적으로 설명하면 다음과 같다.
서비스 및 광고 매니저부(904)는, 클라이언트 연동(request) 기능, POI 정보와 광고 정보 통합 (data processing & aggregation) 기능, 클라이언트 연동 (respond) 기능을 수행할 수 있다.
구체적으로, 클라이언트 연동(request) 기능은, Unified API로 POI 정보를 요청/수신(위치, 카테고리)하거나, Unified API로 목적지 입구 위치 정보를 요청/수신 (목적지 좌표/주소/id 중 택 1)하는 것을 포함할 수 있다.
여기서, Unified API는 특정 data provider에 의존성없는 AR 서비스 클라우드에서 정의한 API (클라이언트 변동 최소화를 위함)를 의미한다.
POI 정보와 광고 정보 통합 (data processing & aggregation) 기능은, 클라이언트가 요청한 위치의 반경 000m 내 POI 정보 및 광고 정보를 통합하거나 (from data manager, ads manager) 또는 클라이언트가 요청한 목적지의 입구 위치 및 POI 광고 정보를 통합 (from data manager, ads manager)하는 것을 포함할 수 있다.
구체적으로, POI 정보와 광고 정보 통합 기능은, Building wall, Event wall 정보 포함한 광고 정보와 POI 정보 정합하거나, 같은 건물에 다수의 POI가 있는 경우, 서버에서 우선순위를 정해 필터링하는 기능(e.g. 파트너 업체만 남기고 다른 POI 정보는 제외시킴)을 포함할 수 있다.
여기서, 필터링 기준은 각 POI별 우선순위 점수 부여하고 이를 비교하는 것을 포함할 수 있다.
클라이언트 연동 (respond) 기능은, Unified API로 POI 정보 및 광고 정보 전송하거나, Unified API로 목적지 입구 위치 및 광고 정보를 정송하는 것을 포함할 수 있다.
서버(900)에 포함된 데이터 매니저부(Data Manager)(미도시)는, POI 정보 수집/전달 기능, 빌딩 형상(polygon) 정보 수집/전달 기능, 목적지 입구 정보 수집/전달기능을 포함할 수 있다.
POI 정보 수집/전달 기능은, 3rd party API에 POI 정보를 요청하거나, 3rd party API에서 받아온 POI 정보를 (Unified API response 형식으로 변환하여) 전달 (to Service & Ads Aggregator)하는 기능을 수행할 수 있다.
빌딩 형상(polygon) 정보 수집/전달 기능은, 3rd party API/data set에 빌딩 외곽 형상 정보를 요청하거나, 3rd party API에서 받아온 POI 정보를 (Unified API response 형식으로 변환하여) 전달 (to Service & Ads Aggregator)하는 기능을 수행할 수 있다.
목적지 입구 정보 수집/전달 기능은, 3rd party API에 목적지 입구 정보를 요청하거나, 3rd party API에서 받아온 목적지 입구 정보를 (Unified API response 형식으로 변환하여) 전달 (to Service & Ads Aggregator)하는 기능을 수행할 수 있다.
광고 매니저부(Ads Manager)(902)는, 파트너(광고) 업체 관리 인터페이스, 광고 캠페인 관리 인터페이스, 광고 컨텐츠 관리 인터페이스를 제공할 수 있다.
광고 모니터링부(Ads Monitoring)(903)는, 광고 효과 측정 피드백 수신 기능 및 광고 정보 전달 기능을 수행할 수 있다.
파트너(광고) 업체 관리 인터페이스는, POI 광고주 관리 (광고주 정보 추가/수정/삭제) 및 일반 광고주 관리 (광고주 정보 추가/삭제)를 수행할 수 있다.
POI 지원 광고 포맷은, Brand poi pin, Building wall, 3D rendering, Event wall 등을 포함할 수 있으며, 실제 POI/위치와는 관련 없는 브랜드 광고의 (e.g. 코카콜라 광고 등) 지원 광고 포맷(일반 지원 광고 포맷)은, Event wall일 수 있다.
광고 캠페인 관리 인터페이스는, 광고 캠페인(광고 위치, 유형, 시간 등) 추가/수정/삭제를 수행할 수 있다.
광고 컨텐츠 관리 인터페이스는 광고 포맷 별 컨텐츠 추가/수정/조회/삭제 (POI 브랜드 아이콘 이미지, building wall 이미지, event wall 이미지/동영상, 3D rendering 이미지)를 수행할 수 있다.
광고 효과 측정 피드백 수신 기능은, 클라이언트가 전송한 광고 노출 피드백 수신하여 DB Manager에 전달 (CPC/CMP/CPT&P)하는 기능을 포함할 수 있다.
광고 정보 전달 기능은, Service & Ads Aggregator가 요청한 위치의 반경 000m 내 노출해야할 광고 캠페인 정보 조회하여 전달 (CPT&P인 경우 시간 조건에 맞는 광고만 전달)하는 기능을 포함할 수 있다.
커머스 매니저부(Commerce Manager)(905)는, 클라이언트 연동 기능, 외부 커머스 서비스 연동 기능, 결제 정보 관리 기능을 수행할 수 있다.
클라이언트 연동 기능은, Unified API로 클라이언트 연동하여 요청 수신, Unified API로 받은 요청 내용을 외부 커머스 API 스펙으로 변환, 외부 API에서 받은 데이터를 Unified API의 메세지 포맷으로 변환 및 클라이언트에 데이터 전달 기능을 포함할 수 있다.
커머스 매니저부는, Unified API로 받은 요청 내용을 외부 커머스 API 스펙으로 변환한 후 변환된 내용으로 외부 서비스 연동 기능을 수행할 수 있다.
외부 API에서 받은 데이터를 Unified API의 메세지 포맷으로 변환하는 것은 외부 서비스 연동에서 수신한 데이터를 Unified API로 변환하는 작업을 의미할 수 있다.
외부 커머스 서비스 연동 기능은, 현재 위치에서 인접한 매장 리스트 및 메타 정보 요청 & 결과 수신, 위 리스트 중 특정 매장에 대한 상세 정보 요청 & 결과 수신, 예약/주문 요청 & 결과 수신, 서비스 이용 상태 요청 & 결과 수신 및 커머스 서비스의 회원 정보 연동 & 결과 수신 기능을 포함할 수 있다.
여기서, 서비스 이용 상태 요청 & 결과 수신은, 서비스 이용 상태(예약 완료 / 주차장 입차 / 주차 중 / 주차장 출차 / 예약 취소)에 따른 시퀀스 관리 및 AR 메시지 팝업 용도로 사용될 수 있다.
서비스의 회원 정보 연동 & 결과 수신은 커머스 서비스 회원 ↔ AR 서비스 회원(OEM 커넥티스 서비스 회원) 정보 연동에 사용될 수 있다.
결제 정보 관리 기능은, 외부 커머스 서비스에서 결제한 내역 수집(내용, 금액) 및 결제 내역을 기반으로 외부 커머스 사에게 수수료 청구하는 기능을 포함할 수 있다.
데이터베이스 커넥터(DB Connector)(906)는, 광고 효과 측정 데이터 관리 기능, 커머스 데이터 관리 기능, 광고주 데이터 관리 기능, 광고 컨텐츠 데이터 관리 기능 및 광고 위치 데이터 관리 기능을 수행할 수 있다.
광고 효과 측정 데이터 관리 기능은 CPC/CPM/CPT&P 관련 로그 데이터 저장/삭제하고, 데이터 조회 (POI별, 브랜드별, 시간별, 광고 타입별)할 수 있다.
커머스 데이터 관리 기능은, 외부 커머스 서비스에서 결제한 내역 저장/삭제 (내용, 금액), 데이터 조회 (POI별, 브랜드별, 시간별, 광고 타입별)를 수행할 수 있다.
광고주 데이터 관리 기능은, 광고주 정보 및 광고주별 광고 캠페인 설정 내용 저장/수정/삭제/조회를 수행할 수 있다.
광고 컨텐츠 데이터 관리 기능은, 광고주 정보와 연동하여 광고 컨텐츠 저장/수정/삭제/조회할 수 있다.
광고 위치 데이터 관리 기능은, AR 광고를 표시할, Event wall 구간 좌표, Building wall 좌표 관리 (브랜드별)를 수행할 수 있으며, 사용자가 직접 등록한 좌표, 업체 API 연동으로 얻은 특정 좌표로 구분될 수 있다.
대쉬보드(Service Dashboard)(907)는, 광고 효과 측정 데이터 시각화 기능 및 커머스 서비스 데이터 시각화 기능을 수행할 수 있다.
광고 효과 측정 데이터 시각화 기능은, CPC: 업체/브랜드별 총 광고 click 수에 대한 차트 (기간별로 조회 가능), CPC: 전체 광고 click 수에 대한 집계 차트 (기간별로 조회 가능), CPM: 업체/브랜드별 총 광고 노출 수에 대한 차트 (기간별로 조회 가능), CPM: 전체 광고 노출 수에 대한 집계 차트 (기간별로 조회 가능), CPT&P: 업체/브랜드별 광고 click 수에 대한 차트 (기간별로 조회 가능), CPT&P: 업체/브랜드별 광고 노출 수에 대한 차트 (기간별로 조회 가능)를 제공할 수 있다.
이러한 차트는, Bar graph, Line graph, Pie Chart, Word graph, Geospatial graph 등 다양한 방식으로 제공될 수 있다.
CPT&P는 정산 방식이 클릭 횟수나 노출 횟수가 아닌 시간당 과금이지만, 노출 효과 측정을 위한 데이터로 사용될 수 있다.
커머스 서비스 데이터 시각화 기능은, 업체별 결제 누적 액수에 대한 차트 (기간별로 조회 가능), 전체 결제 누적 액수에 대한 차트 (기간별로 조회 가능)를 제공할 수 있다.
이하에서는, 본 발명의 일 실시 예에 따른 AR 서비스 플랫폼을 통해 제공할 수 있는 다양한 AR 서비스와 관련된 실시 예에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴보기로 한다.
AR 서비스 장치(800)가 수행하는 동작/기능/제어방법은, AR 서비스 장치(800)의 클라이언트(810) 또는 AR 엔진(820)이 수행하는 것으로 이해될 수 있다.
AR 서비스 장치(800)는, 차량의 상황에 근거하여, AR 서비스로 제공되는 정보를 가변시킬 수 있다.
차량의 상황은, 차량의 주행 속도, 주행 방향, 주행중인 도로, 주행중인 영역(시내인지 고속도로인지 등), 주변 객체(타차량, 보행자, 이륜차 등), 날씨, 환경, 차량 주행 정보 등 다양한 상황을 포함할 수 있다.
차량 주행 정보는 차량 정보 및 차량의 주변 정보를 포함한다. 차량의 프레임을 기준으로 차량 내부와 관련된 정보를 차량 정보, 차량 외부와 관련된 정보를 주변 정보로 정의할 수 있다.
차량 정보는 차량 자체에 관한 정보를 의미한다. 예를 들어, 차량 정보는 차량의 주행속도, 주행방향, 가속도, 각속도, 위치(GPS), 무게, 차량의 탑승인원, 차량의 제동력, 차량의 최대 제동력, 각 바퀴의 공기압, 차량에 가해지는 원심력, 차량의 주행모드(자율주행모드인지 수동주행인지 여부), 차량의 주차모드(자율주차모드, 자동주차모드, 수동주차모드), 차량 내에 사용자가 탑승해있는지 여부 및 상기 사용자와 관련된 정보 등을 포함할 수 있다.
주변 정보는 차량을 중심으로 소정 범위 내에 위치하는 다른 물체에 관한 정보 및 차량 외부와 관련된 정보를 의미한다. 예를 들어, 차량이 주행중인 노면의 상태(마찰력), 날씨, 전방(또는 후방) 차량과의 거리, 전방(또는 후방) 차량의 상대속도, 주행중인 차선이 커브인 경우 커브의 굴곡률, 차량 주변밝기, 차량을 기준으로 기준영역(일정영역) 내에 존재하는 객체와 관련된 정보, 상기 일정영역으로 객체가 진입/이탈하는지 여부, 차량 주변에 사용자가 존재하는지 여부 및 상기 사용자와 관련된 정보(예를 들어, 상기 사용자가 인증된 사용자인지 여부) 등일 수 있다.
또한, 상기 주변 정보는, 주변밝기, 온도, 태양위치, 주변에 위치하는 객체 정보(사람, 타차량, 표지판 등), 주행중인 노면의 종류, 지형지물, 차선(Line) 정보, 주행 차로(Lane) 정보, 자율주행/자율주차/자동주차/수동주차 모드에 필요한 정보를 포함할 수 있다.
또한, 주변 정보는, 차량 주변에 존재하는 객체(오브젝트)와 차량까지의 거리, 충돌 가능성, 상기 객체의 종류, 차량이 주차 가능한 주차공간, 주차공간을 식별하기 위한 객체(예를 들어, 주차선, 노끈, 타차량, 벽 등) 등을 더 포함할 수 있다.
상기 차량 주행 정보는 이상에서 설명한 예에 한정되지 않으며, 상기 차량에 구비된 구성요소로부터 생성된 모든 정보를 포함할 수 있다.
구체적으로, AR 서비스 장치(800)는, 서버(900)에서 전송된 정보를 증강 현실로 출력 가능하도록 렌더링하고, 상기 차량에 구비된 카메라를 통해 촬영된 영상에 렌더링된 정보를 오버랩하여 AR 서비스를 제공할 수 있다.
AR 서비스 장치(800)는, 상기 서버(900)에서 전송된 정보가 오버랩된 영상을 상기 차량에 구비된 디스플레이에 출력할 수 있다.
AR 서비스 장치(800)는, 상기 차량으로부터 차량의 상황과 관련된 정보를 수신하고, 수신한 차량의 상황과 관련된 정보에 근거하여, 상기 서버로 AR 서비스를 제공하는데 필요한 정보를 요청 및 수신할 수 있다.
상기 차량의 상황과 관련된 정보는, 앞서 설명한 차량의 상황을 나타내는 정보를 포함할 수 있다.
구체적으로, AR 서비스 장치(800)는, 상기 차량의 상황과 관련된 정보에 근거하여, 차량의 현재 위치 및 차량의 주행 속도를 결정하고, 결정된 차량의 현재 위치 및 차량의 주행 속도에 근거하여, 다음 안내 지점에서 AR 서비스를 제공하는데 필요한 정보를 상기 서버로 요청 및 수신할 수 있다.
AR 서비스 장치(800)는, 지도 정보 및 카메라를 통해 수신된 영상에 근거하여, 상기 AR 서비스를 제공하는데 필요한 정보를 상기 영상에 오버랩되는 AR 객체로 렌더링하는 AR 엔진(820)을 포함할 수 있다.
AR 엔진(820)은, 상기 AR 객체의 종류에 근거하여, 상기 AR 객체가 오버랩될 POI를 상기 영상에서 결정할 수 있다.
구체적으로, AR 엔진(820)은, 상기 차량의 상황과 관련된 정보에 근거하여, 상기 AR 객체를 기 설정된 방식으로 상기 영상에 오버랩할 수 있다.
도 10을 참조하면, AR 서비스 장치(800)는, 현위치에서 다음 안내 지점까지의 거리와 속도를 기반으로 서버(900)에 AR서비스 정보 요청 시점 결정할 수 있다(S1010).
AR 서비스 장치(800)는, 다음 안내 구간에 해당하는 AR 서비스 정보를 서버(900)에 요청 및 수신할 수 있다(S1020).
AR 서비스 장치(800)는, AR 서비스 종류에 따른 데이터 구성 및 표시 정보를 메모리(DB)에서 로딩할 수 있다(S1030).
여기서, AR 서비스 종류는, 일반 POI, 랜드마크, AR Wall, 주차장 입구 등을 포함하며, 표시 정보는 서비스 종류에 따른 기본 데이터 구성에 따라 결정될 수 있다.
AR 서비스 장치(800)는, 다이내믹 정보를 이용하여 다음 안내 구간에 대한 AR 정보 표시 정책을 설정할 수 있다(S1040).
이 때, AR 서비스 장치(800)는, 트래픽 flow, 상세 지도 속성 정보, 카메라 인식 오브젝트 등을 기반으로 다음 안내 국나에 대한 AR 정보 표시 정책을 판단할 수 있다.
이후, AR 서비스 장치(800)는, AR 표시를 위한 POI를 필터링할 수 있다(S1050).
여기서, 필터링은, POI 겹침 제거, 거리에 따른 크기 조절, 우선순위에 따른 배열순서 결정 등을 포함할 수 있다.
이후, AR 서비스 장치(800)는, 주행 영상(즉, 카메라를 통해 촬영된 영상)과 AR 컨텐츠(즉, AR 객체)를 정합(오버랩)하여 화면(차량의 디스플레이)에 출력할 수 있다(S1060).
AR 서비스 장치(800)는, 안내 지점 단위로 상기 S1010에서 상기 S1060단계를 반복적으로 수행할 수 있다.
도 11, 도 12, 도 13, 도 14, 도 15 및 도 16은 도 10에서 살펴본 제어방법을 설명하기 위한 흐름도 및 개념도이다.
도 11을 참조하면, 본 발명의 AR 서비스 장치(800)는, 차량으로부터 현재 위치 정보를 수신하고, 현재 위치를 중심으로 소정 반경 이내에 위치한 POI 정보를 서버(900)로 요청할 수 있다.
또한, 본 발명의 AR 서비스 장치(800)는, 현 위치를 기반으로 소정 반경이 아닌, 소정 크기의 바운딩 박스(Bounding box) 내에 존재하는 POI 정보를 서버(900)로 요청할 수 있다.
도 12를 참조하면, AR 서비스 장치(800)는, 현재 위치를 기준으로 반경 N(N은 임의의 실수)km에 해당하는 주변 POI를 서버에 요청할 수 있다.
이 때, AR 서비스 장치(800)는, 현재 위치와 이전 POI 검색 요청 지점 간 거리를 모니터링하여, 일정 거리 이상 주행 시 서버에 POI 정보를 요청할 수 있다.
POI 요청을 위한 기본 반경은 N km로 설정될 수 있으며, 주행 속도를 고려하여 동적으로 변경될 수 있다.
도 12에서, d는 현위치와 이전 검색 지점간의 이동 거리, r은 POI 검색 반경, x는 POI 데이터 요청/다운로드 시간을 고려한 거리 buffer (속도에 따라 가변할 수 있음)를 의미할 수 있다.
도 13을 참조하면, AR 서비스 장치(800)는, 현재 위치를 기준으로, N km 바운딩 박스 내에 존재하는 POI 정보를 서버(900)에 요청할 수 있다.
구체적으로, AR 서비스 장치(800)는 현위치와 바운딩 박스를 구성하는 4개의 선분까지의 거리를 모니터링 하여 일정 거리 이내로 진입하였을 경우 서버에 POI 정보를 요청할 수 있다.
마찬가지로, POI 요청을 위한 기본 Bounding Box 선분의 길이는 N km이며, 주행 속도를 고려하여 동적으로 변경될 수 있다.
도 13에서, d는 현위치와 바운딩 박스 선분까지의 최단 거리, l은 Bounding Box의 선분 길이, x는 POI 데이터 요청/다운로드 시간을 고려한 거리 buffer (속도에 따라 가변할 수 있음)를 의미할 수 있다.
도 14를 참조하면, AR 서비스 장치(800)는, 차량의 상황과 관련된 정보에 근거하여, AR 객체를 기 설정된 방식으로 영상에 오버랩하여 출력할 수 있다.
예를 들어, AR 서비스 장치(800)는, 차선 정보, 속도 정보 등은 주행의 방해가 되지 않는 영상의 가장자리 영역에 오버랩하여 출력할 수 있다.
또한, AR 객체 중 POI를 알리는 복수의 객체(A 내지 F) 및 차량의 주행 경로를 가이드하는 차로에 오버랩되는 AR 카펫은, AR 서비스 장치의 제어에 의해, 차량의 카메라를 통해 촬영되는 영상에 오버랩될 수 있다.
도 15에 도시된 것과 같이, AR 내비게이션 화면에 다양한 POI 정보를 효과적으로 제공 위하여 AR 서비스 장치는, 다음과 같은 방법을 적용하여 표시할 수 있다.
일 예로, AR 서비스 장치(800)는, 현위치를 중심으로 소정의 반경 내에 존재하는 POI 중 주행 경로상에 존재하는 POI를 우선 표시할 수 있다.
또한, AR 서비스 장치(800)는, 경로상에 존재하지 않는 POI는 크기와 투명도 등을 조절하여 일반 POI와 구별하여 표시할 수 있다.
도 15를 참조하면, AR 서비스 장치(800)는 복수 종류의 AR 객체를 영상에 오버랩하여 출력할 수 있다.
상기 복수의 종류의 AR 객체는, 그룹 POI(1500), 미니 POI(1510), 원거리 POI(1520), 버블 POI(1530), 브랜드 카펫(1540), 주행 도로상에 존재하지 않는 POI(1550), 주행 경로상 존재하는 POI 중 현위치에서 가장 가까운 POI의 3D 렌더링 정보가 존재할 경우 출력되는 3D 오브젝트(1560)를 포함할 수 있다.
그룹 POI(1500)는, 고속 주행 시, 운전자의 시인성을 고려하여 동일한 카테고리의 POI를 아이콘과 개수 정보로 표시될 수 있다.
미니 POI(1510)는, 저속 주행/정차 시, POI의 아이콘을 해당 위치에 표시될 수 있다.
원거리 POI(1520)는, 화면 표시 영역에는 존재하지 않으나, 사용자에게 추천이 필요한 POI를 방향/거리/아이콘으로 표시될 수 있다.
버블 POI(1530)는, 사용자 favorite POI 또는 주유/주차장과 같이 부가정보가 함께 표시될 수 있다.
브랜드 카펫(1540)은 AR 카펫에 POI 아이콘가 함께 표시될 수 있다.
주행 도로상에 존재하지 않는 POI(1550)는, 주행 도로상에는 존재하지 않지만 화면 표시 영역에 존재하는 POI를 반투명으로 표시하여 일반 POI와 구별되게 표시될 수 있다.
주행 경로상 존재하는 POI 중 현위치에서 가장 가까운 POI의 3D 렌더링 정보가 존재할 경우, 3D 오브젝트(1560)가 표시될 수 있다.
도 16을 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신할 수 있다(S1610).
AR 서비스 장치(800)는, 내비게이션 경로를 고려하여 주행 도로에 매칭되는 POI와 매칭되지 않는 POI로 분류할 수 있다(S1620).
상기 AR 서비스 장치는, 차량이 주행중인 도로에 매칭되는 POI 속성 정보에 근거하여, 출력될 AR 객체의 종류를 결정할 수 있다.
즉, AR 서비스 장치는, 현재 위치를 기준으로 소정 반경 내에 존재하는 POI 정보를 상기 서버로 요청하고, 상기 서버로부터 현재 위치를 기준으로 소정 반경 내에 존재하는 POI 정보를 수신할 수 있다.
상기 AR 서비스 장치는, 미리 설정된 내비게이션 경로에 근거하여, 상기 서버로부터 수신한 POI 정보 중 주행 도로에 매칭되는 POI와 매칭되지 않는 POI를 분류할 수 있다.
이후, AR 서비스 장치(800)는, 주행 도로에 매칭되는 POI 속성 정보를 추출할 수 있다(S1630). 이 때, AR 서비스 장치(800)는, POI 유형, 사용자 선호 여부, 주행 속도, 현위치까지의 거리를 고려할 수 있다.
이후, AR 서비스 장치(800)는, POI 속성 정보에 근거하여, AR 객체의 종류(예를 들어, 미니POI, 버블POI, 그룹POI, 3D 오브젝트, 브랜드 카펫, 원거리 POI 중 어느 하나)를 결정할 수 있다(S1640).
즉, AR 서비스 장치(800)는, 주행 도로에 매칭되는 POI 속성 정보에 근거하여, 차량의 카메라를 통해 촬영되는 영상에 오버랩되는 AR 객체의 종류를 결정할 수 있다.
여기서, 주행 도로에 매칭되는 POI 속성 정보는, 차량이 주행중인 도로에 AR 객체로 출력될 수 있도록 매칭(연계)된 POI가 존재하는 경우, 해당 POI에 대한 속성 정보를 의미할 수 있다.
이러한 주행 도로에 매칭되는 POI 속성 정보는, 서버에서 관리될 수 있으며, 차량에 구비된 AR 서비스 장치에 의해 업데이트될 수 있다.
상기 주행 도로에 매칭되는 POI 속성 정보는, POI 유형, 사용자 선호도, 차량 주행 속도 및 현재 위치에서 POI까지의 거리 중 적어도 하나를 포함할 수 있다.
한편, AR 서비스 장치(800)는, 주행 도로에 매칭되지 않는 POI 속성 정보를 추출할 수 있다(S1650), 이후, AR 서비스 장치(800)는, 주행 도로에 매칭되지 않는 POI 속성 정보에 대응하는 POI를 부가 POI로 결정할 수 있다(S1660).
이후, AR 서비스 장치(800)는, POI 겹침을 제거할 수 있다(S1670).
구체적으로, AR 서비스 장치(800)는, 현재 차량의 위치에서 바라본 복수의 POI들이 겹쳐진 경우, 기 설정된 방식에 근거하여, 상기 복수의 POI에 대응하는 복수의 AR 객체를 출력할 수 있다.
일 예로, AR 서비스 장치(800)는, POI가 일정 범위 이상 겹칠 경우 우선순위에 따라 제거할 수 있다.
AR 서비스 장치(800)는, 결정된 AR 객체의 종류가 브랜드 카펫일 경우, 브랜드 카펫 표시 조건을 설정할 수 있다(S1680).
또한, AR 서비스 장치(800)는, 결정된 AR 객체의 종류가 원거리 POI일 경우원거리 POI 표시 조건을 설정할 수 있다.
이후, AR 서비스 장치(800)는, 표시 조건에 따라 POI(즉, AR 객체)를 렌더링할 수 있으며(S1695), 렌더링된 AR 객체를 영상에 오버랩하여 출력할 수 있다.
이하에서는, 첨부된 도면을 참조하여 차량의 상황별로 AR 객체를 출력하는 다양한 방법에 대하여 보다 구체적으로 살펴보기로 한다.
도 17, 도 18, 도 19, 도 20, 도 21, 도 22, 도 23, 도 24, 도 25, 도 26, 도 27, 도 28, 도 29, 도 30, 도 31, 도 32, 도 33, 도 34, 도 35, 도 36, 도 37 및 도 38은 본 발명의 AR 서비스 플랫폼의 다양한 AR 서비스 제공 방법을 설명하기 위한 흐름도 및 개념도이다.
AR 서비스 장치(800)는, 차량이 주행중인 주행 도로에 매칭되는 POI 속성 정보를 추출하고, 추출된 POI 속성 정보에 근거하여 AR 객체를 영상에 오버랩할 수 있다.
구체적으로, AR 서비스 장치(800)는, AR 객체가 오버랩될 POI의 속성 정보에 근거하여 AR 객체의 종류를 결정하고, POI까지의 거리에 근거하여 AR 객체의 크기를 결정할 수 있다.
도 17 및 도 18을 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신하고, 경로와 주행 방향을 고려하여 화면에 표시할 POI(또는 AR 객체)를 필터링할 수 있다(S1710, S1720).
이후, AR 서비스 장치(800)는, POI 속성에 따라 서로 다른 종류의 AR 객체(예를 들어, Mini POI와 Bubble POI)로 표시된 POI를 분류하고, POI까지의 거리를 고려하여 아이콘 이미지 크기를 결정할 수 있다(S1730, S1740).
구체적으로, AR 서비스 장치(800)는, AR 객체가 오버랩될 POI의 속성 정보에 근거하여 AR 객체의 종류를 결정하고, POI까지의 거리에 근거하여 AR 객체의 크기를 결정할 수 있다.
즉, AR 서비스 장치(800)는, AR 객체가 출력되는 POI까지의 거리가 가까워질수록, POI의 크기가 크게 보이게 되므로, AR 객체의 크기를 점점 확대할 수 있다.
또한, AR 서비스 장치(800)는, 현위치에서 가장 가까운 POI 중 3D 모델링 데이터가 존재하고, 임계 거리 이내로 진입한 경우, 3D 오브젝트(Object)로 표시할 수 있다(S1750).
구체적으로, AR 서비스 장치(800)는, 영상에 AR 객체가 표시되는 복수의 POI 중 차량에서 가장 가까운 POI에 대한 3D 정보를 상기 서버로부터 수신한 경우, 상기 가장 가까운 POI에 대한 AR 객체를 3차원 객체로 출력할 수 있다.
즉, 도 18을 참조하면, AR 서비스 장치(800)는, 일반적인 POI를 Mini POI로 출력하고, 자주 방문하는 POI, 주유정보, 주차정보 등 상세 정보가 필요한 경우에 Bubble POI 로 표시하며, 특정 브랜드 POI의 3D 모델링 데이터가 존재할 경우, 임계거리 이내에서는 3D 오브젝트로 표시할 수 있다.
한편, AR 서비스 장치(800)는, 차량의 주행 속도가 임계속도를 넘는지 여부에 근거하여, 서로 다른 방식으로 AR 객체를 출력할 수 있다.
도 19 및 도 20을 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신하고, 현위치와 주행 방향을 고려하여 화면 표시 영역에 존재하는 POI를 필터링할 수 있다(S1910, S1920).
이후, AR 서비스 장치(800)는, 차량의 주행 속도가 임계속도(미리 설정해 놓은 속도) 이상인지 여부를 판단할 수 있다(S1930).
AR 서비스 장치(800)는, 차량의 속도가 임계속도 이상인 경우, 제1 방식으로 AR객체를 영상에 오버랩할 수 있다.
구체적으로, AR 서비스 장치(800)는, 차량의 속도가 임계속도 이상인 경우, 카고리별로 POI를 그룹핑하고, 카테고리 대표이미지를 맵핑할 수 있다(S1940).
AR 서비스 장치(800)는, 차량의 속도가 임계속도 미만인 경우, 상기 제1 방식과 다른 제2 방식으로 AR 객체를 영상에 오버랩할 수 있다.
구체적으로, AR 서비스 장치(800)는, 차량의 속도가 임계속도 미만인 경우, 개별 POI 이미지를 매핑할 수 있다(S1950).
이후, AR 서비스 장치(800)는, POI 좌표계 변환을 수행하고(경위도좌표 > 화면좌표), 영상에 오버랩하여 표시할 수 있다(S1960).
이 때도 AR 서비스 장치(800)는, 가장 가까운 POI의 3D 정보가 존재하는 경우, 3D 렌더링을 수행할 수 있다(S1970).
즉, 도 20(a)를 참조하면, AR 서비스 장치(800)는, 임계속도 이상으로 고속 주행 시에는 시인성 확보를 위하여 카테고리별로 POI를 그룹핑하여 표시할 수 있다.
또한, 도 20(b)를 참조하면, AR 서비스 장치(800)는, 임계속도 미만으로 저속 주행시에는 Mini/Bubble 형태로 POI(AR 객체)를 표시할 수 있다.
한편, AR 서비스 장치(800)는, 카펫 형태로 형성된 AR 객체인 AR 카펫을 출력하기 위한 조건을 만족하는지 여부를 판단하고, 조건이 만족되는 경우, 상기 AR 카펫을 상기 영상에 오버랩할 수 있다.
일 예로, AR 서비스 장치(800)는, 특정 브랜드 POI로 목적지 설정 시, 해당 브랜드 로고와 색상을 반영하여 AR 카펫(또는, AR 객체)을 영상에 오버랩하여 표시할 수 있다.
도 21 및 도 22를 참조하면, AR 서비스 장치(800)는, 사용자에 의해 목적지가 설정되면, 브랜드 카펫 표시를 위한 거리 조건을 확인할 수 있다(S2110, S2120).
예를 들어, AR 서비스 장치(800)는, 출발지/목적지까지의 거리가 임계값 이내인 경우, 브랜드 카펫 표시를 위한 조건이 달성된 것으로 판단할 수 있다.
AR 서비스 장치(800)는, 브랜드 카펫 정보가 존재하는지 여부를 판단하고(S2130), 존재하는 경우 브랜드 이미지 또는 브랜드 카펫 정보를 로딩할 수 있다(S2140).
반면, AR 서비스 장치(800)는, 브랜드 카펫 정보가 미존재하는 경우, 기본 카펫 정보를 로딩할 수 있다(S2150).
이후, AR 서비스 장치(800)는, 주행 차선에 로딩된 카펫 정보를 오버랩하는 방식으로 AR 객체를 출력할 수 있다(S2160).
한편, AR 서비스 장치(800)는, 랜드마크로 설정된 POI에 대응하는 AR 객체를 상기 영상에 출력하고, 상기 영상에 출력된 랜드마크로 설정된 POI에 대응하는 AR 객체가 선택되면, 상기 서버로부터 수신한 상기 랜드마크에 대한 상세정보를 상기 영상에 오버랩하여 출력할 수 있다.
AR 서비스 장치(800)는, 특정 랜드마크에 대하여 상세 정보를 표시할 수 있다.
도 23 및 도 24를 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신하고, 현위치와 주행 방향을 고려하여 화면 표시 영역에 존재하는 랜드마크 POI 정보를 추출할 수 있다(S2310, S2320).
이후, AR 서비스 장치(800)는, 랜드마크 아이콘을 표시하고, 해당 아이콘에 대한 터치 활성화를 수행할 수 있다(S2330).
AR 서비스 장치(800)는, 도 24에 도시된 것과 같이, 랜드마크 아이콘(2400)이 터치되면, 랜드마크 상세 정보(2410)를 표시할 수 있다(S2340, S2350).
즉, AR 서비스 장치(800)는, 특정 랜드마크의 경우, 해당 아이콘 선택 시 상세정보를 제공할 수 있으며, 상세정보를 통해 예약, 캘린더 일정 추가, 스마트폰 공유 등의 서비스를 제공할 수 있다.
한편, AR 서비스 장치(800)는, 영상에서 AR 객체가 오버랩되는 POI가 목적지에 해당하는 장소인 경우, 상기 목적지까지의 거리에 따라 AR 객체를 가변시킬 수 있다.
도 25 및 도 26을 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신하고, 수신된 POI 중 목적지가 존재하는지 여부를 판단할 수 있다(S2510, S2520).
이후, AR 서비스 장치(800)는, 목적지 POI의 경우, 빌딩하이라이트를 위한 상세 정보(빌딩 Geometry, 높이, 하이라이트 이미지 등)를 추출할 수 있다(S2530).
이후, AR 서비스 장치(800)는, 현위치에서 목적지까지의 거리가 1차 임계 거리 이내로 진입한 경우, 제1 방식으로 AR 객체를 출력(예를 들어, 빌딩 외곽선을 하이라이트하도록 AR 객체를 영상에 오버랩)할 수 있다(S2540).
AR 서비스 장치(800)는, 현위치에서 목적지까지의 거리가 2차 임계 거리 이내로 진입한 경우, 상기 제1 방식과 다른 제2 방식으로 AR 객체를 출력(예를 들어, 빌딩 외곽선과 POI 로고 이미지를 함께 표시)할 수 있다(S2550).
도 26을 참조하면, AR 서비스 장치(800)는, 목적지가 특정 브랜드인 경우, 정확한 위치 안내를 위하여 해당 건물을 하이라이트하여 표시할 수 있다.
또한, AR 서비스 장치(800)는, 빌딩 하이라이트는 건물의 형상 정보를 기반으로 표시하며, 건물에 해당 브랜드 아이콘을 함께 표시할 수도 있다.
한편, AR 서비스 장치(800)는, AR 객체를 벽의 형태를 갖는 AR Wall로 영상에 오버랩하여 출력할 수 있다.
서버(900)는 AR 광고 정보를 상기 AR 서비스 장치로 전송할 수 있다.
상기 AR 광고 정보는, 출력 위치 및 출력 형태에 대한 정보를 포함할 수 있다.
AR 서비스 장치(800)는, 상기 AR 광고 정보에 근거하여, 차량의 주행 방향과 도로에 매핑되는 AR 광고 정보를 추출하고, 추출된 AR 광고 정보를 이용하여, 출력 위치에 출력 형태로 AR 광고가 출력되도록 상기 추출된 AR 광고 정보를 렌더링할 수 있다.
도 27 및 도 28을 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 광고 정보(AR 광고 정보)를 수신하고, 차량 주행 방향과 도로에 맵핑되는 광고 정보를 추출할 수 있다(S2710, S2720).
AR 서비스 장치(800)는, 광고 유형에 따라 데이터를 분류하고(Building Wall/Event Wall), AR Wall(벽 형태로 형성되는 AR 객체) 표시를 위한 Geometry 정보를 추출하고, 표시용 데이터(이미지, 동영상 등)로 구성할 수 있다(S2730, S2740).
AR 서비스 장치(800)는, 현위치에서 해당 AR Wall까지의 거리가 임계 거리 이내로 진입한 경우, AR Wall을 표시(영상에 오버랩)할 수 있다(S2750).
도 28을 참조하면, AR 서비스 장치(800)는, 특정 브랜드 정보나 이벤트 정보를 AR Wall의 형태로 표시할 수 있다.
일 예로, Building Wall에는 건물의 형상 정보를 기반으로 빌딩 형태로 컨텐츠가 표시되고, Event Wall에는 도로의 가장자리 좌표를 이용하여 광고판 형태로 컨텐츠가 표시될 수 있다.
한편, AR 서비스 장치(800)는, 목적지가 차량이 진입하는 것이 가능한 장소이고, 상기 차량이 상기 목적지에 진입하면, 상기 목적지에서 제공 가능한 서비스와 관련된 페이지를 상기 영상에 오버랩하여 출력할 수 있다.
일 예로, AR 서비스 장치(800)는, 주차장과 관련하여 다양한 방식으로 AR 객체를 영상에 오버랩하여 출력할 수 있다.
도 29 및 도 30을 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 주차장 정보를 수신하고, 차량 주행 방향과 도로에 맵핑되는 주차장 정보를 추출할 수 있다(S2910, S2920).
이후, AR 서비스 장치(800)는, 주차장이 목적지인 경우, 입구 하이라이트 표시를 위한 Geometry 정보를 추출하고 표시용 데이터(이미지)로 구성할 수 있다(S2930, S2940).
이후, AR 서비스 장치(800)는, 현위치에서 해당 주차장 입구까지의 거리가 임계 거리 이내로 진입한 경우, 입구 하이라이트를 표시할 수 있다(S2950).
반면, AR 서비스 장치(800)는, 주차장이 목적지가 아닌 경우, 주차장 위치, 가격정보, 이미지 정보를 포함하는 주차장 정보를 구성하고, 현위치에서 해당 주차장까지의 거리가 임계 거리 이내로 진입한 경우, 주차장 정보를 표시할 수 있다(S2960, S2970).
도 30을 참조하면, 주차장 입구 안내를 위해, AR 서비스 장치(800)는, 목적지가 주차장인 경우, 입구 좌표 정보를 이용하여 주차장 입구를 하이라이트하여 표시할 수 있다.
또한, AR 서비스 장치(800)는, 주차 정보를 표시하기 위해, 차량이 주차장 입구에 근접(임계거리 이내)한 경우, 주차장 상세 정보(목적지에서 제공 가능한 서비스와 관련된 페이지)를 표시할 수 있다.
또한, AR 서비스 장치(800)는, 주차 요금 결제를 위해, 차량 출차 시, 주차 시간과 요금 정보를 이용하여 결제를 처리할 수 있다(결제시스템 연동 필요).
본 명세서에서 설명하는 다양한 정보의 표시는, AR 객체가 영상에 오버랩된다는 것을 의미할 수 있으며, AR 서비스의 일환으로 증강현실로 출력된다는 의미를 포함할 수 있다.
한편, AR 서비스 장치(800)는, 드라이브 스루(Drive Thru)의 경우 다양한 AR 객체를 출력할 수 있다.
도 31 및 도 32를 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신하고, 수신된 POI 중 Drive Thru 매장 존재 여부를 판단할 수 있다(또는 목적지가 DT 매장인 경우 추출)(S3110, S3120).
AR 서비스 장치(800)는, DT 매장의 입구 안내를 위한 세부 정보(입구 Geometry, 높이, 하이라이트 이미지 등)를 추출할 수 있다(S3130).
AR 서비스 장치(800)는, 현위치에서 DT 입구까지의 거리가 1차 임계 거리 이내로 진입한 경우, 제1 종류의 AR 객체(에를 들어, 브랜드카펫)를 표시하고, 현위치에서 DT 입구까지의 거리가 2차 임계 거리 이내로 진입한 경우, 제2 종류의 AR 객체(입구 하이라이트)를 표시할 수 있다(S3140, S3150).
AR 서비스 장치(800)는, DT 입구 통과 시, 서버로부터 주문 정보 수신 및 메뉴 화면(목적지에서 제공 가능한 서비스와 관련된 페이지)을 AR 객체로 출력하고, 이를 통해 메뉴 주문을 수행할 수 있다(S3160, S3170).
즉, 도 32를 참조하면, AR 서비스 장치(800)는, AR 객체를 이용하여 Drive Thru 입구를 안내할 수 있으며, 목적지가 Drive Thru 매장인 경우, 입구 좌표 정보를 이용하여 하이라이트 표시할 수 있다.
또한, AR 서비스 장치(800)는, 차량이 Drive Thru 진입 시, 주문 정보를 표시하고 이를 통해 결제도 수행할 수 있다(외부 서비스 연동 필요).
한편, AR 서비스 장치(800)는, 주유소와 관련된 AR 객체를 영상에 오버랩할 수 있다.
도 33 및 도 34를 참조하면, AR 서비스 장치(800)는, 서버로부터 현위치 주변 소정의 반경 내에 존재하는 POI를 수신하고, 수신된 POI 중 주유소 매장의 존재 여부를 판단할 수 있다(또는, 목적지가 주유소인 경우 추출)(S3310, S3320).
AR 서비스 장치(800)는, 주유소 입구 안내를 위한 세부 정보(입구 Geometry, 높이, 하이라이트 이미지 등)를 추출할 수 있다(S3330).
AR 서비스 장치(800)는, 현위치에서 주유소 입구까지의 거리가 1차 임계 거리 이내로 진입한 경우, 제1 종류의 AR 객체(브랜드카펫)를 표시하고, 현위치에서 주유소 입구까지의 거리가 2차 임계 거리 이내로 진입한 경우, 제2 종류의 AR 객체(입구 하이라이트)를 표시할 수 있다(S3340, S3350).
이후, AR 서비스 장치(800)는, 주유소 입구 통과 시, 서버로부터 결제 정보를 수신하고, 메뉴 화면(목적지에서 제공 가능한 서비스와 관련된 페이지)을 출력하며, 이를 통해 주유량/가격 설정 및 결제를 수행할 수 있다(S3350, S3360).
즉, 도 34를 참조하면, AR 서비스 장치(800)는, AR객체를 영상에 오버랩하여, 주유소 입구 안내할 수 있으며, 목적지가 주유소인 경우, 입구 좌표 정보를 이용하여 하이라이트 표시할 수 있다.
또한, AR 서비스 장치(800)는, 차량이 주유소 진입 시, 주문 정보 표시 및 결제 기능을 제공할 수 있다(외부 서비스 연동 필요).
한편, 서버(900)는, AR 서비스 장치로부터 AR 서비스로 제공된 AR 객체와 관련된 정보를 수신할 수 있다.
여기서, 상기 AR 객체와 관련된 정보는, 영상에 오버랩된 AR 객체의 종류, 횟수, 출력시간 및 사용자에 의해 선택된 횟수 중 적어도 하나를 포함할 수 있다.
서버(900)는, 상기 AR 객체와 관련된 정보를 상기 AR 서비스 장치의 위치 정보와 연계하여 저장하고, 상기 AR 객체와 관련된 정보에 근거하여, AR 서비스 장치로부터 다음 요청이 수신되는 경우 전송할 정보를 결정할 수 있다.
도 35는, AR 서비스 플랫폼의 서버(900)에 포함된 대쉬보드에 출력되는 정보의 일 실시 예를 나타낸 도면이다.
도 35를 참조하면, 서버(900)에는, AR 서비스 장치(800)로 제공된 정보와 관련한 데이터가 출력될 수 있다.
구체적으로, 서버(900)의 대쉬보드(907)에는, AR 영역에 노출 또는 클릭된 광고 결과 피드백이 수집될 수 있다.
예를 들어, 상기 서버(900)는, AR 엔진(820)으로부터 광고 노출 또는 클릭 이벤트 발생 시 데이터를 수집할 수 있으며, 유연성/확장성/빅데이터 수집 및 분석을 수행할 수 있다.
또한, 서버(900)는, 광고 운영 관리자 및 광고주를 위한 광고 결과 리포팅을 생성(출력)할 수 있으며, 시역별/시간별/광고주별 광고 리포팅 결과를 도 35와 같이 가시화할 수 있다.
한편, 본 발명은, 음성인식과 연동하여 AR 서비스를 제공할 수 있다.
예를 들어, 도 36에 도시된 것과 같이, AR 서비스 장치(800)는, 주유소를 검색 요청하는 음성이 수신되는 경우, 주유소 개수를 알려주는 음성을 출력할 수 있다.
또한, AR 서비스 장치(800)는, 가장 싼 주유소 검색 요청이 있는 경우, 가장 싼 주유소에 AR 객체(AR 버블)를 영상에 오버랩하여 출력하고, 가장 가까운 주유소 검색 요청이 있는 경우, 가장 가까운 주유소를 안내하는 AR 객체(AR 카펫)를 영상에 오버랩하여 출력할 수 있다.
이후, AR 서비스 장치(800)는, 차량이 주유소에 진입하는 경우, 주유소에서 수행될 수 있는 안내 음성(예를 들어, 결제 정보, 주유구 위치 등)을 출력할 수 있다.
도 37에 도시된 것과 같이, AR 서비스 장치(800)는, 음성으로 주차장 검색 요청이 수신되면, 기 설정된 방식에 따라 주차장 정보를 검색하여 검색 결과를 음성으로 출력할 수 있다.
예를 들어, AR 서비스 장치(800)는, 주차 가격을 기준으로 주차장 검색이 이루어진 경우, 도 37(b)와 같이, 주차 가격이 나타난 AR 객체(AR 버블)을 영상에 출력할 수 있다. 주차 가능한 자리의 개수에 대한 정보도 함께 표시될 수 있다.
다른 예로, AR 서비스 장치(800)는, 도로 상(on-street) 주차 가능한 곳에 대한 검색이 수행된 경우, 도 37(c)와 같이, 주차 가능한 공간을 나타내는 AR 객체(AR 카펫)을 영상에 오버랩하여 출력할 수 있다.
도 38에 도시된 것과 같이, AR 서비스 장치(800)는, 드라이브 스루에 대한 경로 안내 요청이 수신된 경우, 검색 결과를 음성으로 출력할 수 있으며, 목적지로 설정된 드라이브 스루에 대한 AR 객체를 도 38(b)와 같이 영상에 오버랩하여 출력할 수 있다.
AR 서비스 장치(800)는, 목적지로 설정된 드라이브 스루까지 일정 거리 이내에 진입하면, 도 38(c)와 같이, 입구를 하이라이트하는 AR 객체(AR 카펫)을 영상에 오버랩하여 출력할 수 있다.
본 명세서에서 어느 정보를 출력한다고 표현한 것은, 어느 정보를 AR 객체로 렌더링하여, 차량에 구비된 카메라를 통해 촬영된 영상에 오버랩하여 출력한다는 의미를 포함하는 것으로 이해되어야 한다.
도 39, 도 40, 도 41, 도 42, 도 43 및 도 44는 본 발명의 AR 서비스 플랫폼이 AR 벽을 이용하여 건물 상에 AR 객체를 출력하는 방법을 설명하기 위한 개념도이다.
본 발명의 AR 서비스 장치(800)는, 영상에 포함된 건물을 식별하고, 건물의 벽면 상에 AR 객체를 오버랩하여 출력할 수 있다. 이 때, AR 서비스 장치(800)는, 건물의 층별로 구분하여 AR 객체를 출력할 수 있다.
이와 같이, 건물 벽면 상에 출력되는 AR 객체는, 사이니지로 명명될 수 있다.
이를 위한 본 발명의 AR 내비게이션 기반의 빌딩 층별 사이니지 표현을 위한 시스템은, 도 39에 도시된 것과 같이, 서비스 제공자(Service Provider), AR 서비스 플랫폼(AR Service Platform), 임베디드 시스템(Embedded system) 및 출력 장치(Display Device)를 포함할 수 있다.
서비스 제공자는, 지도 데이터(POI, 이미지 정보 등), 빌딩 층수 정보, 교통정보 등의 다이내믹 정보를 AR 서비스 플랫폼에 제공할 수 있다.
AR 서비스 플랫폼은, 앞서 살핀 바와 같이, 서버 및 AR 서비스 장치를 포함할 수 있으며, 서비스 제공자로부터 제공된 데이터를 수집하는 서비스 데이터 수집 인터페이스를 통해 1차 가공을 수행할 수 있다.
또한, AR 서비스 플랫폼은, 화면 표시를 위한 데이터 필터링을 수행하는 2차 가공을 수행할 수 있다.
이러한 2차 가공에는, 차량에 구비된 카메라, ADAS 센서, GPS/DR로부터 수집된 차량 센싱 데이터를 가공하는 모듈과, 사용자 데이터를 저장 및 처리하는 모듈로부터 제공되는 정보가 이용될 수 있다.
이후, AR 서비스 플랫폼은, 1차 가공된 정보와, 2차 가공된 정보를 정합(AR Merging)하고, AR 출력을 위해 임베디드 시스템으로 전송할 수 있다.
임베디드 시스템은, AR 출력을 위해 정합된 정보를 내비게이션에 기반하여 AR 렌더링할 수 있다.
이후, AR 렌더링된 정보를 표시 장치로 전송하여, CID, RSE, HUD 등 차량의 디스플레이를 통해 AR 출력할 수 있다.
AR 사이니지는, AR(증강현실)을 이용하여 빌딩 또는 화면상의 특정 영역에 표시하는 멀티미디어 정보를 의미 하며, 물리적인 전광판과 같은 기능을 AR로 표현하는 기술을 의미한다.
빌딩 층별 사이니지는, 빌딩에 복수의 POI가 존재할 경우, 해당 POI가 위치하는 층 정보를 파악하여, 각 층에 대응되는 광고 정보를 표시하는 기술이다.
종래의 AR 사이니지는 하나의 표시 영역에 한 가지 광고 정보를 표시하는 반면, 층별 사이니지는 빌딩 영역을 층별로 분할하여 복수의 광고 정보를 표시할 수 있다.
도 40을 참조하면, AR 서비스 장치(800)는, 빌딩 층수와 높이 정보는 지도 데이터 또는 서비스 프로바이더로부터 획득하거나, 카메라 센싱 정보를 통하여 층수를 계산할 수 있다.
이 때, AR 서비스 장치(800)는, 지도 데이터를 이용한 층별 이미지를 배치할 수 있다.
일 예로, AR 서비스 장치(800)는, 원점(기준점) 좌표를 확인하여 층수를 구분할 수 있다.
AR 서비스 장치(800)는, 빌딩 좌표 정보, 건물 높이, 층수 정보를 이용하여 층별 사이니지 표시를 위한 원점을 계산하고, 차량의 주행 방향을 고려하여 현위치에서 가장 가까운 빌딩 좌표를 원점으로 설정할 수 있다.
이후, AR 서비스 장치(800)는, 원점을 기준으로 층수만큼 높이를 이동하여 이미지 표시 위치를 설정할 수 있다. 즉, AR 서비스 장치(800)는, 기준점으로부터 높이 offset 만큼씩 이동하여 층별 이미지를 표시할 수 있다.
다른 예로, AR 서비스 장치(800)는, 카메라 센싱 정보를 이용한 이미지를 배치할 수 있다.
도 41을 참조하면, AR 서비스 장치(800)는, 빌딩에 대한 지도 데이터가 존재하지 않는 경우, 카메라 센싱 정보를 이용하여 원점 좌표 결정 및 건물 층수를 계산할 수 있다.
예를 들어, AR 서비스 장치(800)는, 카메라로 인식된 빌딩의 엣지(edge) 정보를 이용하여 현위치에서 가장 가까운 점을 원점으로 지정하고, 미리 정의된 층별 높이를 이용할 수 있다.
즉, AR 서비스 장치(800)는, 카메라 센싱을 통해 인식된 빌딩의 높이와 층별 높이 갚을 이용하여 빌딩의 층수를 계산하고, 원점을 기준으로 층수만큼 높이를 이동하여 이미지 표시 위치를 지정할 수 있다(기준점 + 높이 offset 만큼 이동하여 층별 이미지를 표시).
AR 서비스 장치(800)는, 정확한 층별 사이니지 표시를 위한 층 높이 가공 및 이미지 보정 방법을 제공할 수 있다.
우선, AR 서비스 장치(800)는, 빌딩 높이 정보 DB를 이용한 이미지 보정할 수 있다.
구체적으로, AR 서비스 장치(800)는, 3D 내비게이션 지도, 실내 지도 등 빌딩 높이 정보가 포함된 DB를 이용하여 각 층의 높이를 얻을 수 있으며, 해당 정보를 이용하여 이미지 표시 위치를 보정할 수 있다.
즉, AR 서비스 장치(800)는, 최초 계산한 층간 높이 정보와 DB를 통해 얻은 높이 정보가 임계값 이상으로 차이가 발생하는 경우, DB 정보를 이용하여 이미지 표시 위치를 보정할 수 있다.
AR 서비스 장치(800)는, 카메라 센서를 통해 층별 높이 센싱 및 위치를 보정할 수 있다.
구체적으로, AR 서비스 장치(800)는, 빌딩 높이 정보를 얻을 수 있는 DB가 존재하지 않는 경우, 카메라 센서를 통하여 화면상에 표시되는 빌딩의 층간 높이를 센싱하고 해당 정보를 이용하여 이미지 표시 위치를 보정할 수 있다.
또한, AR 서비스 장치(800)는, 차량 주행 방향 및 속도에 따라 이미지를 연속적으로 보정할 수 있다. 즉 AR 서비스 장치(800)는 차량의 주행에 따라 이미지 크기를 지속적으로 변경할 수 있는 제어를 수행할 수 있다.
구체적으로, AR 서비스 장치(800)는, 차량의 주행 방향 및 속도를 고려하여 연속적으로 이미지를 보정할 수 있다.
이 때, AR 서비스 장치(800)는, 차량의 Heading 각도 변화량이 임계값 이내를 유지할 경우, 이미지 연속 보정이 가능한 ‘직선 구간’으로 판단할 수 있다.
만약, AR 서비스 장치(800)는, Heading 각도가 순차적으로 증가할 경우, 회전 구간으로 판단하여 AR 사이니지를 표시하지 않을 수 있다.
AR 서비스 장치(800)의 이미지 크기 변경 제어는 차량 속도가 임계값 이내로 저속 주행인 경우에만 수행될 수 있으며, 도 42에 도시된 것과 같이, 주행 속도에 비례하여 이미지 크기 변경 비율을 동적으로 조정할 수 있다.
또한, AR 서비스 장치(800)는, 사용자 선호도, 서비스 등급에 따라 POI(AR 객체) 표시 방법을 변경할 수 있다.
예를 들어, AR 서비스 장치(800)는, 층별 사이니지 표시 시, 사용자 선호도와 광고 서비스 등급에 따라 차등 표시할 수 있다.
AR 서비스 장치(800)는, 사용자 선호도와 서비스 등급에 따른 POI를 표시할 경우, 빌딩 전체 영역을 대상으로 우선순위에 따라 컨텐츠를 재배치할 수 있다.
AR 서비스 장치(800)는, 목적에 따른 사이니지 표시 유형(컨텐츠 모양, 형태)
상기 목적에 따른 사이니지 표시 유형은 브랜드 아이콘(POI에 해당하는 브랜드 아이콘), 3D 모델링(POI와 관련된 3D 모델링 컨텐츠), 스틸 이미지(POI관련 정보나 광고를 위한 스틸 이미지) 및 동영상(POI 관련 동영상 컨텐츠 (광고, 홍보 영상))을 포함할 수 있다.
도 43을 참조하면, AR 서비스 장치(800)는, 우선순위에 따라 POI(AR 객체)를 정렬할 수 있다.
일 예로, AR 서비스 장치(800)는, 빌딩에 존재하는 복수의 POI에 대하여, 제휴 서비스 등급, 사용자 선호 POI, 검색 빈도에 따라 가중치를 부여하여 정렬한다.
또한, AR 서비스 장치(800)는, 표시 규칙을 설정할 수 있다.
예를 들어, 제휴 서비스 광고는, 광고 효과 증대를 위한 컨텐츠 강조를 위해, 한 개 층 또는 두 개 이상의 층을 통합하여 컨텐츠가 표시되고, 우선순위가 같은 복수개의 제휴 서비스가 존재할 경우, 광고 표시 영역에 순차적으로 컨텐츠가 표시될 수 있다(동일 영역에 복수개의 컨텐츠를 로테이션으로 표시).
또한, 차량이 빌딩에 인접하여 빌딩 일부 영역만 화면에 존재하는 경우, 해당 영역에 우선순위가 가장 높은 컨텐츠만 표시될 수 있다(최우선 컨텐츠 선택 및 강조).
도 43을 참조하면, AR 서비스 장치(800)는, 1) 두 개 층 표시 영역을 통합하여 제휴 브랜드 광고를 표시하거나 2) 우선순위에 따라 표시 영역을 다르게 적용한 브랜드 아이콘을 표시할 수 있다.
또한, AR 서비스 장치(800)는, 3) 3D 모델을 표시하거나, 4) 제휴 서비스 스틸 이미지 광고를 출력할 수 있다.
또한, AR 서비스 장치(800)는, 5) 한 개 층 전체 영역을 이용하여 제휴 서비스 동영상 광고를 출력할 수 있다.
이와 같이, 본 발명의 AR 서비스 장치(800)는, 광고를 다양한 방식으로 카메라를 통해 촬영된 영상에 AR 객체로 오버랩하여 AR 서비스를 제공할 수 있다.
한편, 도 44에 도시된 것과 같이, AR 서비스 장치(800)는, 건물 일부 영역만 표시 가능한 경우, 가장 우선순위가 높은 컨텐츠의 일부(4400)를 해당 영역 전체에 표시할 수 있다.
한편, 본 발명은 현실세계의 복잡도를 고려하여, AR 객체의 표시 방식을 가변할 수 있다.
도 45는 본 발명의 TPO 복잡도에 따라 AR 서비스를 제공하는 방법을 설명하기 위한 흐름도이고, 도 46, 도 47, 도 48, 도 49 및 도 50은 도 45에서 살펴본 제어방법을 설명하기 위한 개념도이다.
본 발명의 서버(900)는, 현실세계의 TPO 복잡도(Time Place Occasion Complexity Level)를 산출하고, 산출된 복잡도를 이용하여 AR 서비스 장치로 전송할 정보량을 결정하는 TPO 복잡도 산출 모듈(4600)을 포함할 수 있다.
도 45를 참조하면, TPO 복잡도 산출 모듈(4600)은, AR 서비스 장치(800)로부터 현실세계의 TPO 정보를 수집할 수 있다(S4510).
또한, TPO 복잡도 산출 모듈(4600)은, 숮비된 TPO 정보에 근거하여, 고정 복잡도 및 가변 복잡도를 산출(분류, 분석)할 수 있다(S4520).
TPO 복잡도 산출 모듈(4600)은 고정 복잡도 및 가변 복잡도에 근거하여, TPO 복잡도를 산출할 수 있다(S4530).
이후, TPO 복잡도 산출 모듈(4600)은, 산출된 TPO 복잡도에 근거하여, AR 서비스 장치로 전송할 정보의 종류, 정보량 중 적어도 하나를 가변(결정, 설정)할 수 있다.
다른 말로, TPO 복잡도 산출 모듈(4600)은, TPO 복잡도를 기준으로 서비스 컨텐츠 정보(즉, AR 서비스로 제공되는 AR 객체)의 구성을 판단하고 최적화(또는 가공)할 수 있다(S4540).
구체적으로, TPO 복잡도 산출 모듈은, 상기 산출된 TPO 복잡도에 근거하여, 상기 AR 서비스로 출력되는 AR 객체에 대한 표시 정책을 수립할 수 있다.
상기 표시 정책은, 상기 AR 객체에 대한 종류, 정보량, 위치 및 표시시간 중 적어도 하나에 대한 설정값을 포함할 수 있다.
상기 TPO 복잡도 산출 모듈(4600)은, 상기 표시 정책에 대응되도록 상기 AR 서비스 장치로 전송되는 AR 객체를 가공할 수 있다.
또한, TPO 복잡도 산출 모듈(4600)은, 외부 서비스 서버(3rd party partners, external service server)로부터 수신된 정보를 상기 표시 정책에 근거하여 가공하고, 가공된 정보를 AR 서비스 장치(800)로 전송할 수도 있다.
이후, AR 서비스 장치(800)는, TPO 복잡도 산출 모듈(4600)에 의해 산출된 TPO 복잡도에 따라 가공된 서비스 컨텐츠(AR 객체, 증강 현실/가상 현실에서 출력되는 객체) 정보를 표시할 수 있다(S4550).
이후, AR 서비스 장치(800)는, 상기 서비스 컨텐츠 정보에 대한 사용자 인터랙션(음성 또는 터치)가 감지되면, 서버에 사용자 인터렉션에 대응되는 AR 객체를 출력하기 위한 과정(S4510 내지 S4550)을 반복할 수 있다.
한편, TPO 복잡도 산출 모듈(4600)은, 산출된 TPO 복잡도에 대한 정보를 AR 서비스 장치(800)로 전송하고, 상기 서비스 장치(800)는 수신된 TPO 복잡도에 대한 정보를 기준으로 AR 객체에 대한 표시 정책을 수립할 수 있다.
이후, AR 서비스 장치(800)는, 표시 정책에 대응되도록 AR 객체를 가공(최적화)하고, 가공된 AR 객체를 차량의 카메라를 통해 촬영된 영상에 오버랩하여 AR 서비스를 제공할 수 있다.
본 발명의 AR 서비스 플랫폼은, 인공지능을 활용해 TPO(Time, Place Occasion)(시간, 위치 및 진행방향(또는 상황)) 기준 복잡도를 판단하고, 복잡도 수준에 따라 증강현실(AR)(또는 가상현실(MR), 확장현실(XR)) 등에서 표시되는 컨텐츠 정보량을 가변하여 상황별로 적응적으로 사용자의 정보 인지 및 획득 경험을 최적화하는 사용자 인터페이스를 제공할 수 있다.
이러한 기능은, 앞서 설명한 TPO 복잡도 산출 모듈(4600)에 의해 수행될 수 있으며, 상기 TPO 복잡도 산출 모듈(4600)은, 일 예로, 도 46에 도시된 것과 같이, 서버(900)에 포함(구비)될 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO 복잡도 정보를 지역별로 DB화 하여 지속 업데이트 할 수 있는 체계를 구축할 수 있따(Crowd-sourcing 방법 도입/Machine learning기법 도입)
TPO 복잡도 산출 모듈(4600)은, 메타버스 공간인 digital twin 에서 지역별 복잡도 정보를 분석하여 활용할 수도 있다.
TPO 복잡도 산출 모듈(4600)은, 인공지능(AI)을 통해 지속적으로 TPO 복잡도 관련 인자 정보를 수집 및 분석하여 그 정확도를 높일 수 있으며, 사용자별 개인화 서비스 지원하도록 복잡도 수치/가중치를 최적화시킬 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO복잡도 정보에 기반하여 정보를 표시하기 위한 최적의 타겟 시점과 영역을 추천할 수 있다.
또한, TPO 복잡도 산출 모듈(4600)은, 이동체에서 바라보는 각도에 따른 TPO 복잡도 계산 및 컨텐츠 정보량을 조절할 수도 있다.
TPO 복잡도 산출 모듈(4600)은, TPO 복잡도(TPO.CL-Time Place Occasion Complexity Level)를 수치화(CL-Complexity Level, 3단계: 상/중/하)할 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO 복잡도를 산출하기 위해, 고정복잡도(FC-Fixed Complexity), 가변복잡도(VC-Variable Complexity)를 산출할 수 있다.
고정복잡도(FC)는, 도로형태, 건물 구성, 위치(도심, 주택가, 외곽 등) 등 위치기준 고정적인 지형지물을 기준으로 구분(FC.상, FC.중, FC.하)될 수 있다.
가변 복잡도(VC)는, 차량수, 유동인구수, 위험정보 등 가변적으로 공간과 상황 복잡도에 영향을 미칠 수 있는 요소를 수치화(VC.상, VC.중, VC.하)될 수 있다.
고정 복지도 및 가변 복잡도는 조건을 중요도에 따라 각각 수치화(예. 20~50, 중요 조건에 따라 가중치 적용)하고, 상/중/하구간으로 분류할 수 있다.
TPO 복잡도 산출 모듈(4600)은, 수치화된 고정 복잡도 및 가변 복잡도 수치를 합산하거나, 각 복잡도 별 중요도에 따른 가중치 적용하여 조건 구간에 따라 상/중/하로 분류할 수 있다.
일 예로, 가중치를 적용하는 경우, TPO 복잡도 산출 모듈(4600)은, TPO 복잡도를 아래와 같이 계산할 수 있다.
계산식 : TPO.CL = FC*(100%-weight(%))+VC*weight(%), weight는 가중치
TPO 복잡도 산출 모듈(4600)은, TPO 복잡도에 따라 구간 별 컨텐츠(AR/MR/XR 등의 객체)의 정보량을 조절할 수 있다.
컨텐츠 정보량 조절 기준은, 노출 빈도(Frequency), 컨텐츠 점유 공간(Space size), 노출 효과(Animation etc.), 컨텐츠 복잡도(Color, Text etc.), 인터렉션(음성, Touch)기능 추가 여부 등을 포함할 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO-CL.High구간(즉, TPO 복잡도가 상인 구간, TPO 복잡도가 제1 구간에 속하는 경우, 현실 세계의 복잡도가 복잡한 구간)에서는 사용자 정보 인지 능력이 저하되므로 컨텐츠를 가장 단순한 형태로 정보량을 조절할 수 있으며, 정보량 표시 수준에 따라 하 수준(제1 레벨, 가장 단순하게 표시되는 레벨)으로 표시할 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO-CL.Middle구간(즉, TPO 복잡도가 중인 구간, TPO 복잡도가 상기 제1 구간보다 낮은 제2 구간, 현실 세계의 복잡도가 덜 복잡한 구간)에서는 사용자 정보 인지 능력이 보통 수준이므로 컨텐츠를 조금 더 복잡한 형태로 컨텐츠 정보량을 조절할 수 있으며, 정보량 표시 수준에 따라 중 수준(상기 제1 레벨보다 높은 제2 레벨, 제1 레벨보다 더 복잡한 형태로 표시되는 레벨)으로 표시할 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO-CL.Low구간(즉, TPO 복잡도가 하인 구간, TPO 복잡도가 상기 제2 구간보다 낮은 제3 구간, 현실 세계의 복잡도가 단순한 구간)에서는, 사용자 정보 인지 능력이 높은 상태이므로 컨텐츠를 복잡한 형태로 컨텐츠 정보량을 조절할 수 있으며, 정보량 표시 수준에 따라 상 수준(상기 제2 레벨보다 높은 제3 레벨, 제2 레벨보다 더 복잡한 형태로 표시되는 레벨)으로 표시할 수 있다.
즉, TPO 복잡도 산출 모듈(4600)은, TPO 복잡도에 근거하여, AR 서비스 장치(800)에서 표시하는 AR 객체의 정보량을 결정할 수 있다.
예를 들어, TPO 복잡도 산출 모듈(4600)은, TPO 복잡도가 제1 구간에 해당하면, AR 객체의 정보량을 제1 레벨로 설정하고, TPO 복잡도가 상기 제1 구간보다 낮은 제2 구간(즉, 제1 구간보다 덜 복잡한 구간)에 해당하면, AR 객체의 정보량을 제2 레벨(제1 레벨보다 정보량이 많은 제2 레벨)로 설정하고, 설정된 레벨에 따라 AR 객체를 렌더링할 수 있다.
또한, TPO 복잡도 산출 모듈(4600)은는, TPO 복잡도가 상기 제2 구간보다 낮은 제3 구간(즉, 제2 구간보다 덜 복잡한 구간)에 해당하면, AR 객체의 정보량을 제2 레벨보다 높은 제3 레벨(제2 레벨보다 정보량이 많은 제3 레벨)로 설정하고, 설정된 레벨에 따라 AR 객체를 렌더링할 수 있다.
이와 같이 TPO 복잡도는, AR 객체를 표시하는 표시 정책의 기준이 될 수 있으며, TPO 복잡도는, 앞서 설명한 것과 같이, 고정 복잡도(FC)와 가변 복잡도(VC)에 의해 산출될 수 있다.
고정 복잡도에 대하여 보다 구체적으로 살펴본다.
TPO 복잡도 산출 모듈(4600)은, 고정 복잡도(FC)를 도로 종류(자동차 전용도로, 일반도로, 주택가 이면도로(생활도로, 폭 9m미만)) 및 형태(광폭, 대로, 중로, 소로), 건물 구성(고층빌딩, 주거단지, 저층 상가), 지역(도심, 주택가, 외곽) 및 주의력 집중도(학교 주변, 교통사고 다발 지역) 중 적어도 하나에 근거하여 산출할 수 있다.
일 예로, TPO 복잡도 산출 모듈(4600)은, 반경 1km 범위 이동 단위로 주기적으로 고정복잡도를 판단할 수 있다.
여기서, 고층시가지란 16층 이상 고층건물이 최유효이용으로 예상되는 지역으로 중심상업지역과 일반상업지역 등을 말한다. (예상용적률:800퍼센트 이상)
중층시가지란 11∼15층 건물이 최유효이용으로 판단되는 지역으로 고층 시가지로 변화되고 있는 일반상업지역, 근린상업지역, 준주거지역 등을 말한다. (예상용적률:550∼750퍼센트)
저층시가지란 4∼10층 건물이 최유효이용으로 판단되는 지역으로 일반상업지역, 근린상업지역, 준주거지역, 주거지역(공단지역 포함)등 상가로서 성숙도가 낮은 주택ㆍ공정ㆍ상가 등이 혼재된 지역을 말한다. (예상용적률:200∼500퍼센트)
주택지란 3층 이하 건물의 순수주택가인 주거지역, 녹지지역, 공업지역 등으로 가까운 장래에 택지화가 예상되는 지역을 포함한다. (예상용적률:100퍼센트 내외)
농지ㆍ임지란 농지ㆍ임지가 최유효 이용인 녹지지역 등으로 사회, 경제 및 행정적 측면에서 가까운 장래에 택지화가 어려운 지역을 말한다.
밀집지역 판단 기준은, 단위 구역(400mx400m)내 건물 수에 따라 분류(예. 밀집지역 단위구역 내 10개 이상, 비 밀집 지역 단위구역 내 10개 이하)될 수 있다.
TPO 복잡도 산출 모듈(4600)은, 일 예로, 다음 [표 1]에 근거하여 고정 복잡도를 결정할 수 있다.
[표 1] 고정 복잡도(FC) 판단 기준
Figure PCTKR2022000561-appb-img-000001
가변 복잡도에 대하여 보다 구체적으로 살펴본다.
TPO 복잡도 산출 모듈(4600)은, 복수의 가변인자를 활용하여 가변 복잡도를 산출할 수 있다.
복수의 가변인자는, 제1 가변인자(차량 통행량(정체, 서행, 원활), 보행자등 동적 유동 인자(통신사 cell단위 통신횟수를 50mx50m단위로 집계-요일별, 시간대별로 통계화)), 제2 가변인자(공사/행사 정보, 포트홀, 날씨 등 비동적이며 불특정 가변인자) 및 제3 가변인자(차량 상태 정보, 목적지 정보, 사용자 정보 수용 의도 등 차량 내부 가변인자)(각 조건 별 중요도에 따라 가중치(50%, 30%, 20%)를 부여하고 수치화 한 후 수치 합산하여 판단)를 포함할 수 있다.
TPO 복잡도 산출 모듈(4600)은, 일 예로, 가변인자 이벤트 발생 시 최우선으로 재 판단하고 그외 반경 1km 이동 단위로 주기적 계산할 수 있다.
도로 위험도 지수는 교통사고 DB 및 환경적요인(소통, 기상정보 등)을 융합하여 위험도가 산출될 수 있다.
TPO 복잡도 산출 모듈(4600)은, 일 예로, 다음 [표 2]에 근거하여 가변 복잡도를 결정할 수 있다. 이 때, TPO 복잡도 산출 모듈(4600)은, 복수의 가변인자 별로 가중치를 부여하여 가변 복잡도를 결정할 수 있다.
[표 2] 가변 복잡도(VC) 판단 기준
Figure PCTKR2022000561-appb-img-000002
TPO 복잡도 산출 모듈(4600)은, 각 해당 복잡도 항목 수치의 합을 통해 고정 복잡도를 산출하고, 각 해당 가변인자 항목 수치의 합을 통해 가변복잡도(VC)를 산출할 수 있다.
또한, TPO 복잡도 산출 모듈(4600)은, [표 3]과 같이, 고정 복잡도를 산출하는 각 항목들에 가중치를 부여하여 고정 복잡도별 수치 구간을 설정할 수 있다.
[표 3]
Figure PCTKR2022000561-appb-img-000003
또한, TPO 복잡도 산출 모듈(4600)은, [표 4]과 같이, 가변 복잡도를 산출하는 각 항목들에 가중치를 부여하여 가변 복잡도별 수치 구간을 설정할 수 있다.
[표 4]
Figure PCTKR2022000561-appb-img-000004
TPO 복잡도 산출 모듈(4600)은, 서비스 운영 상황에 따라 가중치, 복잡도 인자, 복잡도 인자별 수치 및 복잡도 수치 구간 정보를 업데이트할 수 있다.
이후, TPO 복잡도 산출 모듈(4600)은, 고정 복잡도와 가변 복잡도를 이용하여 TPO 복잡도를 산출할 수 있으며, 일 예로, [표 5]와 같을 수 있다.
[표 5]
Figure PCTKR2022000561-appb-img-000005
일 예로, Weight 초기값은 60%로 시작 후 서비스 운영 로그 분석, 사용자 성향 정보 및 서비스 사용자 경험 만족도 지표 조사 결과 기반하여 업데이트될 수 있으며, 사용자 별로 개인화 될 수도 있다.
TPO 복잡도 산출 모듈(4600)은, 산출된 TPO 복잡도에 근거하여, AR 객체로 표시되는 컨텐츠 정보량을 조절할 수 있다.
일 예로, TPO 복잡도 산출 모듈(4600)은, TPO 복잡도 수치 기준에 따라 표시 정책을 수립할 수 있다.
TPO 복잡도 산출 모듈(4600)은, [표 6]과 같이 복잡도 기준에 따라 정보 선정 기준인 정보 구분 및 표시 방법을 참고하여 해당 정보를 구성할 수 있다.
[표 6]
Figure PCTKR2022000561-appb-img-000006
표시될 정보량은 안전/편의/상업정보 범주에서 필수/부가정보로 구분될 수 있다.
표시 위치는 크게 중앙/좌우 양옆/상단 공간으로 분류되고, 중앙은 가장 안전 등 최우선 정보만이 표시할 수 있다.
그외 공간은 카펫/Bubble POI/건물 wall/가상wall 등 기존 AR뷰 서비스 노출 feature 중 선정하여 될 수 있다(단, 표시 공간 점유율 기준을 따른다.)
표시 시간은, 안전 관련 정보는 해당 위치 도착 전부터 미리 반복적으로 표시하여 알려주고 그외 정보는 노출 빈도 조건을 따를 수 있다.
정보 적합도 판단 기준은, 서비스 사용자 인터렉션 포함 서비스 이용 log 정보를 사용자 동의하에 입수하여 사후적으로 판단하고 개선해 나가는 방향으로 운영될 수 있다.
도 46을 참조하면, TPO 복잡도 산출 모듈(4600)은, 서버(900)에 구비될 수 있으며, AR 서비스 장치(800)의 클라이언트(810)로부터 분석용 입력 데이터를 수신할 수 있다.
상기 분석용 입력 데이터(분석용 input Data)는, 사용자 피드백, 차량 위치, 속도, 목적지, 라우팅 정보, 카메라 영상 등을 포함할 수 있다.
서버(900)는, TPO 데이터 Interface(I/F)를 통해 분석용 입력 데이터(TPO 정보)를 TPO 복잡도 산출 모듈(4600)에서 사용 가능한 정보(또는 형식)으로 변환하여 TPO 복잡도 산출 모듈(4600)로 입력할 수 있다.
TPO 복잡도 산출 모듈(4600)는, 입력된 TPO 정보를 이용하여 고정 복잡도 및 가변 복잡도를 산출하고, 이를 이용하여 TPO 복잡도를 산출할 수 있다.
이 때, TPO 복잡도 산출 모듈(4600)는, 외부 서비스 서버(4650)로부터 수신된 POI, 광고, 커머스, 서비스, 지역, 환경, 날씨, 교통정보, 위험 지역 정보 등을 수신하고, 이를 참조하여 TPO 복잡도를 산출할 수 있다.
이후, TPO 복잡도 산출 모듈(4600)는 TPO 복잡도에 근거하여, 표 6과 같이, TPO 복잡도 수치 기준에 따른 표시 정책을 수립할 수 있다(4610).
TPO 복잡도 산출 모듈(4600)는, 수립된 표시 정책에 따른 정보 종류, 정보량, 위치, 표시 시간에 대한 정보를 서버(900)에 전달하고, 서버(900)는, 표시 정책에 따라 표시 AR 서비스 장치(800)로 전송할 데이터의 최적화(가공)을 수행할 수 있다(4620).
서버(900)는, 표시 정책 기반으로 가공(최적화)된 AR 객체(즉, 표시 Data)를 AR 서비스 장치(800)(또는 클라이언트(810))로 전송할 수 있다.
AR 서비스 장치(800)의 AR 엔진(820)은, TPO 복잡도가 반영되어 가공된 데이터 및 표시 정책이 반영된 AR 객체를 차량의 디스플레이부(250)에 출력할 수 있으며, 일 예로, 차량의 카메라를 통해 촬영된 영상에 상기 AR 객체를 오버랩하여 출력할 수 있다.
한편, TPO 복잡도 산출 모듈(4600)는, 도 47에 도시된 것과 같이, 서버(900)와는 독립된 별개의 구성으로 구현될 수 있다.
이 경우, TPO 복잡도 산출 모듈(4600)은, 외부 서비스 서버(4650b)로부터 수신된 정보(지역, 환경, 날씨, 교통정보, 위험지역 정보 등)와, AR 서비스 장치(800)에서 전송되어 서버를 통해 전송된 분석용 입력 데이터(TPO 정보)를 이용하여 TPO 복잡도를 산출할 수 있다.
TPO 복잡도 산출 모듈(4600)가 서버(900)와 분리된 경우, TPO 복잡도 수치를 기준으로 한 표시 정책 수립은 서버(900)측에서 수행될 수 있다.
도 48을 참조하면, TPO 분석용 정보(즉, TPO 정보)는, 도로 종류 및 형태, 건물 구성, 지역 특성, 주의력 집중도, 외부 서비스 서버로부터 수신되는 통행량, 보행자 밀집도, 공사/행사정보, 환경/위험정보 및 AR 서비스 장치(800)로부터 수신되는 차량의 카메라, 센서, HMI, 네비게이션에서 수집된 정보를 포함할 수 있다.
즉, 분석용 입력 데이터는 맵/위치 정보, 환경 정보, 차량 정보를 포함할 수 있다.
TPO 복잡도 산출 모듈(4600)(또는, TPO 복잡도 분석 / 수치와/ 표시정책 수립 모듈)은, 수신된 데이터를 통해 고정 복잡도와 가변 복잡도를 산출/수치화하고, 이를 통해 TPO 복잡도를 산출/수치화할 수 있다.
TPO 복잡도 산출 모듈(4600)은, TPO 복잡도를 기준으로, 표 6과 같이, 표시 정책을 수립할 수 있으며, 표시 정책은, 정보 종류, 정보 위치, 정보 표시 시간, 정보 량, 정보 표시 방법, 인터렉션 온/오프 여부 등을 포함할 수 있다.
서버(900)(또는 AR 서비스 장치(800))는, TPO 복잡도 산출 모듈(4600)에서 결정된 표시 정책에 따라 외부 서버(3rd party partners)에서 제공된 AR 객체(POI 정보, 광고 컨텐츠, 커버스 연관 정보)에 대한 가공(최적화)를 수행할 수 있다.
AR 서비스 장치(800)의 AR 엔진(820)은, 가공된 AR 객체를 차량의 디스플레이부(250)에 표시할 수 있다.
일 예로, 도 49는, TPO 복잡도가 상으로 산출된 경우의 AR 객체가 표시되는 예를 설명하기 위한 개념도이다.
TPO 복잡도 산출 모듈(4600)는, TPO 복잡도가 상(제1 구간)으로 결정된 경우, 표시 정책에 따라 AR 객체를 제1 레벨(가장 단순하게 표시되는 레벨)로 표시되도록 AR 객체를 가공할 수 있다.
상기 AR 객체의 가공은, 서버(900) 또는 AR 서비스 장치(800)에서 수행될 수도 있다.
일 예로, AR 객체(4900)는, TPO 복잡도가 제1 구간으로 설정됨에 따라 제1 레벨로 표시되어, 필수 정보 중심으로 시각화되고, 화면 점유율을 최소화하며, 안전정보 중심으로 단순화하고, 화면 점유율을 최소화하도록 가공될 수 있다.
도 50은 TPO 복잡도가 하로 산출된 경우의 AR 객체가 표시되는 예를 설명하기 위한 개념도이다.
TPO 복잡도 산출 모듈(4600)는, TPO 복잡도가 하(상기 제1 구간보다 낮은 제2 구간 또는 제3 구간)으로 결정된 경우, 표시 정책에 따라 AR 객체를 상기 제1 레벨보다 높은(복잡한) 제2 레벨(복잡하게 표시되는 레벨)로 표시되도록 AR 객체를 가공할 수 있다.
일 예로, 상기 AR 객체(5000)는, 전면 시야를 확보하는 곳 외의 영역에 광고 정보 노출할 수 있으며, AR wall 등의 형태로 많은 영역을 차지하도록 가공될 수 있다. 또한, AR 객체(5000)는, 크기 변환 등 애니베이션 효과를 적용하여 광고의 시인성이 높아지도록 가공될 수 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 본 발명에 따르면, 차량에 탑승한 탑승자에게 최적화된 AR 서비스를 제공할 수 있는 AR 서비스 플랫폼을 제공할 수 있다.
둘째, 본 발명에 따르면, 본 발명은 AR로 표시할 정보와 정보량을 차량 상황에 따라 동적으로 조절하고 강조할 정보를 선별할 수 있는 새로운 AR 서비스 플랫폼을 제공할 수 있다.
셋째, 본 발명에 따르면, 본 발명은 TPO 복잡도에 따라 AR 객체의 표시 정책을 달리하여, 복잡도에 따라 최적화된 AR 서비스를 제공할 수 있는 AR 서비스 플랫폼을 제공할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
이상에서 설명한 AR 서비스 장치(800)는, 차량(100)에 포함될 수 있다.
또한, 위에서 설명한 AR 서비스 장치(800)의 동작 또는 제어방법은, 차량(100)(또는 제어부(170))의 동작 또는 제어방법으로 동일/유사하게 유추적용될 수 있다.
예를 들어, 차량(100)의 제어방법(또는 차량제어장치(800)의 제어방법)은,
보다 구체적인 실시 예는, 앞서 설명한 내용으로 갈음하거나, 동일/유사하게 유추적용될 수 있다.
위와 같은 각 단계는, AR 서비스 장치(800)뿐만 아니라, 차량(100)에 구비된 제어부(170)에 의해 수행될 수 있다.
또한, 위에서 살펴본 차량제어장치(800)가 수행하는 모든 기능, 구성 또는 제어방법들은, 차량(100)에 구비된 제어부(170)에 의해 수행될 수 있다. 즉, 본 명세서에서 설명하는 모든 제어방법은, 차량의 제어방법에 적용될 수도 있고, 제어 장치의 제어방법에 적용될 수도 있다.
나아가, 위에서 살펴본 AR 서비스 장치(800)는 이동 단말기일 수 있다. 이 경우, 상기 AR 서비스 장치(800)가 수행하는 모든 기능, 구성 또는 제어방법들은, 이동 단말기의 제어부에 의해 수행될 수 있다. 또한, 본 명세서에서 설명하는 모든 제어방법들은, 이동 단말기의 제어방법에 동일/유사하게 유추적용될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (10)

  1. AR 서비스를 제공하는 AR 서비스 플랫폼으로,
    차량 외부에 구비되며, AR 서비스에 필요한 정보를 수집 및 가공하여 상기 차량으로 전송하는 서버; 및
    상기 차량에 구비되며, 상기 서버에서 전송된 정보를 이용하여 AR 서비스를 제공하는 AR 서비스 장치를 포함하고,
    상기 서버는,
    현실세계의 TPO 복잡도(Time Place Occasion Complexity Level)를 산출하고, 산출된 복잡도를 이용하여 상기 AR 서비스 장치로 전송할 정보량을 결정하는 TPO 복잡도 산출 모듈을 포함하는 AR 서비스 플랫폼.
  2. 제 1 항에 있어서,
    상기 TPO 복잡도 산출 모듈은,
    상기 AR 서비스 장치로부터 현실세계의 TPO 정보를 수집하고, 수집된 TPO 정보에 근거하여 고정 복잡도 및 가변 복잡도를 산출하는 것을 특징으로 하는 AR 서비스 플랫폼.
  3. 제 2 항에 있어서,
    상기 TPO 복잡도 산출 모듈은,
    상기 고정 복잡도 및 가변 복잡도에 근거하여, 상기 TPO 복잡도를 산출하는 것을 특징으로 하는 AR 서비스 플랫폼.
  4. 제 1 항에 있어서,
    상기 TPO 복잡도 산출 모듈은,
    상기 산출된 TPO 복잡도에 근거하여, 상기 AR 서비스 장치로 전송할 정보의 종류 및 정보량 중 적어도 하나를 가변하는 것을 특징으로 하는 AR 서비스 플랫폼.
  5. 제 4 항에 있어서,
    상기 TPO 복잡도 산출 모듈은,
    상기 산출된 TPO 복잡도에 근거하여, 상기 AR 서비스로 출력되는 AR 객체에 대한 표시 정책을 수립하는 것을 특징으로 하는 AR 서비스 플랫폼.
  6. 제 5 항에 있어서,
    상기 표시 정책은, 상기 AR 객체에 대한 종류, 정보량, 위치 및 표시시간 중 적어도 하나에 대한 설정값을 포함하는 것을 특징으로 하는 AR서비스 플랫폼.
  7. 제 5 항에 있어서,
    상기 TPO 복잡도 산출 모듈은,
    상기 표시 정책에 대응되도록 상기 AR 서비스 장치로 전송되는 AR 객체를 가공하는 것을 특징으로 하는 AR 서비스 플랫폼.
  8. 제 5 항에 있어서,
    상기 TPO 복잡도 산출 모듈은,
    외부 서비스 서버로부터 수신된 정보를 상기 표시 정책에 근거하여 가공하고, 가공된 정보를 상기 AR 서비스 장치로 전송하는 것을 특징으로 하는 AR 서비스 플랫폼.
  9. 제 5 항에 있어서,
    상기 TPO 복잡도 산출 모듈은, 상기 산출된 TPO 복잡도에 대한 정보를 상기 AR 서비스 장치로 전송하고,
    상기 AR 서비스 장치는,
    상기 수신된 TPO 복잡도에 대한 정보를 기준으로 상기 AR 서비스로 출력되는 AR 객체에 대한 표시 정책을 수립하는 것을 특징으로 하는 AR 서비스 플랫폼.
  10. 제 9 항에 있어서,
    상기 AR 서비스 장치는,
    상기 표시 정책에 대응되도록 상기 AR 객체를 가공하고, 가공된 AR 객체를 차량의 카메라를 통해 촬영된 영상에 오버랩하여 상기 AR 서비스를 제공하는 것을 특징으로 하는 AR 서비스 플랫폼.
PCT/KR2022/000561 2021-01-12 2022-01-12 증강현실 서비스를 제공하는 ar 서비스 플랫폼 WO2022154478A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/272,052 US20240071074A1 (en) 2021-01-12 2022-01-12 Ar service platform for providing augmented reality service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0004116 2021-01-12
KR20210004116 2021-01-12

Publications (1)

Publication Number Publication Date
WO2022154478A1 true WO2022154478A1 (ko) 2022-07-21

Family

ID=82447351

Family Applications (7)

Application Number Title Priority Date Filing Date
PCT/KR2021/019615 WO2022154299A1 (ko) 2021-01-12 2021-12-22 디지털 사이니지 플랫폼 제공 장치와 동작방법, 및 이를 포함하는 시스템
PCT/KR2021/020065 WO2022154323A1 (ko) 2021-01-12 2021-12-28 차량과 연동된 디스플레이 장치 및 그것의 동작방법
PCT/KR2022/000206 WO2022154369A1 (ko) 2021-01-12 2022-01-06 차량과 연동된 디스플레이 장치 및 그것의 동작방법
PCT/KR2022/000484 WO2022154437A1 (ko) 2021-01-12 2022-01-11 증강현실 서비스를 제공하는 ar 서비스 플랫폼
PCT/KR2022/000483 WO2022154436A1 (ko) 2021-01-12 2022-01-11 증강현실 서비스를 제공하는 ar 서비스 플랫폼
PCT/KR2022/000442 WO2022154425A1 (ko) 2021-01-12 2022-01-11 차량과 연동된 내비게이션 장치, ar 플랫폼 장치, 이들을 포함하는 ar 플랫폼 시스템 및 동작방법
PCT/KR2022/000561 WO2022154478A1 (ko) 2021-01-12 2022-01-12 증강현실 서비스를 제공하는 ar 서비스 플랫폼

Family Applications Before (6)

Application Number Title Priority Date Filing Date
PCT/KR2021/019615 WO2022154299A1 (ko) 2021-01-12 2021-12-22 디지털 사이니지 플랫폼 제공 장치와 동작방법, 및 이를 포함하는 시스템
PCT/KR2021/020065 WO2022154323A1 (ko) 2021-01-12 2021-12-28 차량과 연동된 디스플레이 장치 및 그것의 동작방법
PCT/KR2022/000206 WO2022154369A1 (ko) 2021-01-12 2022-01-06 차량과 연동된 디스플레이 장치 및 그것의 동작방법
PCT/KR2022/000484 WO2022154437A1 (ko) 2021-01-12 2022-01-11 증강현실 서비스를 제공하는 ar 서비스 플랫폼
PCT/KR2022/000483 WO2022154436A1 (ko) 2021-01-12 2022-01-11 증강현실 서비스를 제공하는 ar 서비스 플랫폼
PCT/KR2022/000442 WO2022154425A1 (ko) 2021-01-12 2022-01-11 차량과 연동된 내비게이션 장치, ar 플랫폼 장치, 이들을 포함하는 ar 플랫폼 시스템 및 동작방법

Country Status (3)

Country Link
US (7) US20230304821A1 (ko)
EP (6) EP4083930A4 (ko)
WO (7) WO2022154299A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020121838A1 (ja) * 2018-12-12 2020-06-18 日立オートモティブシステムズ株式会社 外界認識装置
KR20220110967A (ko) * 2021-02-01 2022-08-09 현대자동차주식회사 사용자 단말 및 그 제어 방법
KR20220117550A (ko) * 2021-02-17 2022-08-24 현대자동차주식회사 정보 표시 방법 및 정보 표시 방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체
WO2024025018A1 (ko) * 2022-07-29 2024-02-01 엘지전자 주식회사 차량의 ar 사이니지 디스플레이 장치 및 그것의 동작방법
DE102022120236B3 (de) * 2022-08-11 2023-03-09 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum harmonisierten Anzeigen von Kamerabildern in einem Kraftfahrzeug und entsprechend eingerichtetes Kraftfahrzeug

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120092369A1 (en) * 2010-10-19 2012-04-19 Pantech Co., Ltd. Display apparatus and display method for improving visibility of augmented reality object
KR20140143505A (ko) * 2013-06-07 2014-12-17 삼성전자주식회사 뷰 모드에서 정보 제공 방법 및 장치
US20160004914A1 (en) * 2014-07-01 2016-01-07 Itx Security Co., Ltd. Intelligent video analysis system and method
KR20190000860A (ko) * 2018-12-20 2019-01-03 주식회사 비즈모델라인 적응형 증강현실 제공 방법
KR20190104272A (ko) * 2019-08-19 2019-09-09 엘지전자 주식회사 차량 운전과 관련된 정보를 제공하는 방법 및 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101331827B1 (ko) * 2007-01-31 2013-11-22 최윤정 차량용 디스플레이 장치 및 이를 이용한 디스플레이 방법
US8952983B2 (en) * 2010-11-04 2015-02-10 Nokia Corporation Method and apparatus for annotating point of interest information
KR20130000160A (ko) * 2011-06-22 2013-01-02 광주과학기술원 사용자 적응형 증강현실 이동통신 장치와 서버 및 그 방법
US9235553B2 (en) * 2012-10-19 2016-01-12 Hand Held Products, Inc. Vehicle computer system with transparent display
EP3742405A3 (en) * 2013-09-24 2021-01-13 Apple Inc. Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
KR101848612B1 (ko) * 2015-12-10 2018-04-13 현대자동차주식회사 내비게이션 시스템, 이의 할인 쿠폰 사용가능한 관심 지점 표시 방법
JP6496671B2 (ja) * 2016-01-13 2019-04-03 株式会社ぐるなび 情報処理装置、端末装置、情報処理方法及びプログラム
DE112018004847B4 (de) * 2017-08-31 2024-02-08 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiles objekt
KR20190058999A (ko) * 2017-11-22 2019-05-30 이화여자대학교 산학협력단 증강현실 기반의 프로모션 시스템 및 방법
KR102014261B1 (ko) * 2017-12-12 2019-08-26 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
KR102103980B1 (ko) * 2017-12-27 2020-04-23 주식회사 버넥트 사용자의 응시정보에 따른 증강영상의 동적 표현기술이 적용된 증강현실 시스템
JP7144164B2 (ja) * 2018-03-19 2022-09-29 株式会社Lifull 情報提供システム、サーバ装置、及び端末用プログラム
JP6542956B2 (ja) * 2018-06-11 2019-07-10 ヤフー株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120092369A1 (en) * 2010-10-19 2012-04-19 Pantech Co., Ltd. Display apparatus and display method for improving visibility of augmented reality object
KR20140143505A (ko) * 2013-06-07 2014-12-17 삼성전자주식회사 뷰 모드에서 정보 제공 방법 및 장치
US20160004914A1 (en) * 2014-07-01 2016-01-07 Itx Security Co., Ltd. Intelligent video analysis system and method
KR20190000860A (ko) * 2018-12-20 2019-01-03 주식회사 비즈모델라인 적응형 증강현실 제공 방법
KR20190104272A (ko) * 2019-08-19 2019-09-09 엘지전자 주식회사 차량 운전과 관련된 정보를 제공하는 방법 및 장치

Also Published As

Publication number Publication date
US20240062432A1 (en) 2024-02-22
EP4280165A1 (en) 2023-11-22
WO2022154425A1 (ko) 2022-07-21
WO2022154436A1 (ko) 2022-07-21
EP4083931A4 (en) 2024-02-14
US20230296394A1 (en) 2023-09-21
EP4083931A1 (en) 2022-11-02
EP4280166A1 (en) 2023-11-22
EP4083930A1 (en) 2022-11-02
WO2022154437A1 (ko) 2022-07-21
WO2022154323A1 (ko) 2022-07-21
US20230332915A1 (en) 2023-10-19
EP4280167A1 (en) 2023-11-22
US20240071074A1 (en) 2024-02-29
US20240071012A1 (en) 2024-02-29
EP4083932A1 (en) 2022-11-02
US20230304821A1 (en) 2023-09-28
EP4083930A4 (en) 2024-04-03
US20230258466A1 (en) 2023-08-17
EP4083932A4 (en) 2024-04-03
WO2022154369A1 (ko) 2022-07-21
WO2022154299A1 (ko) 2022-07-21

Similar Documents

Publication Publication Date Title
WO2022154478A1 (ko) 증강현실 서비스를 제공하는 ar 서비스 플랫폼
WO2020235813A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2019031853A1 (ko) 지도 제공 장치
WO2021045257A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2019117333A1 (ko) 차량에 구비된 디스플레이 장치 및 디스플레이 장치의 제어방법
WO2021141142A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021090971A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021141143A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021045256A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2018088614A1 (ko) 차량용 사용자 인터페이스 장치 및 차량
WO2021157760A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021045255A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2020149431A1 (ko) 경로 제공 장치 및 그것의 제어 방법
WO2021025216A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2020149427A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021246534A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021230387A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021182655A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2024014709A1 (ko) 혼합 현실에 기반한 디스플레이 장치 및 경로 안내 시스템
WO2021246551A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021225195A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2020138515A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2022119267A1 (ko) 경로 안내 장치 및 경로 안내 시스템
WO2021157759A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법
WO2021149846A1 (ko) 경로 제공 장치 및 그것의 경로 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22739673

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18272052

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22739673

Country of ref document: EP

Kind code of ref document: A1