KR20190107286A - 차량용 광고 제공 장치 및 차량용 광고 제공 방법 - Google Patents

차량용 광고 제공 장치 및 차량용 광고 제공 방법 Download PDF

Info

Publication number
KR20190107286A
KR20190107286A KR1020190107731A KR20190107731A KR20190107286A KR 20190107286 A KR20190107286 A KR 20190107286A KR 1020190107731 A KR1020190107731 A KR 1020190107731A KR 20190107731 A KR20190107731 A KR 20190107731A KR 20190107286 A KR20190107286 A KR 20190107286A
Authority
KR
South Korea
Prior art keywords
vehicle
processor
augmented reality
display
signal
Prior art date
Application number
KR1020190107731A
Other languages
English (en)
Inventor
제갈찬
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20190107286A publication Critical patent/KR20190107286A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0265Vehicular advertisement
    • G06Q30/0266Vehicular advertisement based on the position of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/04Mobile visual advertising by land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 적어도 하나의 서버에서 생성된 데이터를 수신하고, 상기 데이터에 기초하여, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성하고, 상기 광고 데이터에 기초한 그래픽 객체가 차량에 구비된 적어도 하나의 디스플레이에 표시되도록 신호를 제공하는 프로세서;를 포함하는 차량용 광고 제공 장치에 관한 것이다. 차량용 광고 제공 장치는 자율 주행 차량에 구비될 수 있다. 자율 주행 차량은 로봇과 연동될 수 있다. 차량용 광고 제공 장치는, 인공 지능(artificial intelligence, AI) 알고리즘을 이용해 구현될 수 있다.

Description

차량용 광고 제공 장치 및 차량용 광고 제공 방법{Advertisement providing apparatus for vehicle and method for operating the same}
본 발명은 차량용 광고 제공 장치 및 차량용 광고 제공 방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자율 주행 차량은 인간의 운전 조작 없이 자동으로 주행할 수 있는 차량을 의미한다. 자율 주행 차량에 탑승한 사용자는, 운전을 하지 않기 때문에 차량 주행 중에 다른 활동을 할 수 있다. 일예로, 자율 주행 차량에 탑승한 사용자는, 광고를 시청할 수 있다. 광고 제공시 차량의 주행과 연관되면서 광고 효과를 극대화하는 방식이 필요하다.
본 발명은 상기한 문제점을 해결하기 위하여, 차량의 주행 중에 증강 현실 광고를 출력하는 차량용 광고 제공 장치 및 차량용 광고 제공 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 광고 제공 장치는, 적어도 하나의 서버에서 생성된 데이터를 수신하고, 상기 데이터에 기초하여, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성하고, 상기 광고 데이터에 기초한 그래픽 객체가 차량에 구비된 적어도 하나의 디스플레이에 표시되도록 신호를 제공하는 프로세서;를 포함한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실 사이니지가 표시되도록 신호를 제공하고, 상기 증강 현실 사이니지에 상기 그래픽 객체가 표시되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 서버에서 생성된 데이터는, 상기 증강 현실 사이니지와 매칭되는 위치에 대한 정보를 포함하고, 상기 위치는, 차량이 주행 중인 도로의 외곽에서의 일 지점이다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 서버에서 생성된 데이터는, 상기 증강 현실 사이니지의 크기에 대한 정보, 상기 증강 현실 사이니지의 표시 시간에 대한 정보, 상기 증강 현실 사이니지의 표시 위치에 대한 정보, 상기 증강 현실 사이니지의 표시 내용에 대한 정보 중 적어도 어느 하나를 포함한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽 빈 공간 또는 구조물에 매칭되어 증강 현실 사이니지가 표시되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 사용자의 시선에 대한 정보를 획득하고, 상기 사용자의 시선이 상기 빈 공간 또는 상기 구조물을 향한 상태로 상기 디스플레이에 교차되는 지점에 상기 증강 현실 사이니지가 표시되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 주행 상황 정보에 기초하여, 상기 그래픽 객체의 표시 영역, 상기 그래픽 객체의 크기, 상기 그래픽 객체의 내용, 광고와 관련된 사용자 인터페이스 방법 중 적어도 어느 하나를 결정한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 자율 주행 모드에 대한 정보를 수신하고, 차량이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량이 수동 주행 상태로 주행 중인 경우에 비해 상기 그래픽 객체가 상대적으로 더 크게 표시되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 자율 주행 모드에 대한 정보를 수신하고, 차량이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량이 수동 주행 상태로 주행 중인 경우와 다른 형상의 그래픽 객체가 표시되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 자율 주행 모드에 대한 정보를 수신하고, 차량이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량이 수동 주행 상태로 주행 중인 경우와 다른 방식의 사용자 인터페이스가 구현되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 사용자 센싱 데이터를 수신하고, 상기 사용자 센싱 데이터에 기초하여, 상기 그래픽 객체에 대한 사용자의 관심도를 판단하고, 상기 관심도에 연동되는 그래픽 객체가 상기 디스플레이에 표시되도록 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 관심도에 기초하여, 자율 주행 모드의 전환, 차량의 조향, 가속, 감속 중 적어도 어느 하나의 제어를 위한 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 관심도에 기초하여, 상기 광고 데이터와 연관된 목적지 설정을 위한 신호를 제공한다.
본 발명의 일 실시예에 따르면, 상기 프로세서는, 상기 관심도에 기초하여, 상기 광고 데이터와 연관된 컨텐츠 출력을 위한 신호를 제공한다.
본 발명의 실시예에 따른 차량용 광고 제공 방법은, 적어도 하나의 프로세서가, 적어도 하나의 서버에서 생성된 데이터를 수신하는 단계; 적어도 하나의 프로세서가, 상기 데이터에 기초하여, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성하는 단계; 및 적어도 하나의 프로세서가, 상기 광고 데이터에 기초한 그래픽 객체가 차량에 구비된 적어도 하나의 디스플레이에 표시되도록 신호를 제공하는 단계;를 포함한다.
본 발명의 일 실시예에 따르면, 상기 신호를 제공하는 단계는, 적어도 하나의 프로세서가, 상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계; 및 적어도 하나의 프로세서가, 상기 증강 현실 사이니지에 상기 그래픽 객체가 표시되도록 신호를 제공하는 단계;를 포함한다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 서버에서 생성된 데이터는, 상기 증강 현실 사이니지와 매칭되는 위치에 대한 정보를 포함하고, 상기 위치는, 차량이 주행 중인 도로의 외곽에서의 일 지점이다.
본 발명의 일 실시예에 따르면, 상기 적어도 하나의 서버에서 생성된 데이터는, 상기 증강 현실 사이니지의 크기에 대한 정보, 상기 증강 현실 사이니지의 표시 시간에 대한 정보, 상기 증강 현실 사이니지의 표시 위치에 대한 정보, 상기 증강 현실 사이니지의 표시 내용에 대한 정보 중 적어도 어느 하나를 포함한다.
본 발명의 일 실시예에 따르면, 상기 신호를 제공하는 단계는, 적어도 하나의 프로세서가, 상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽 빈 공간 또는 구조물에 매칭되어 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계;를 포함한다.
본 발명의 일 실시예에 따르면, 상기 신호를 제공하는 단계는, 적어도 하나의 프로세서가, 사용자의 시선에 대한 정보를 획득하는 단계; 및 적어도 하나의 프로세서가, 상기 사용자의 시선이 상기 빈 공간 또는 상기 구조물을 향한 상태로 상기 디스플레이에 교차되는 지점에 상기 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계;를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 물리적인 옥외 광고판을 설치하지 않아도 되어, 광고 제공시, 공간/비용 등의 제약이 제거되는 효과가 있다.
둘째, 광고 내용의 변경 및 업데이트가 매우 용이한 효과가 있다.
셋째, 각각의 사용자의 선호도에 적합한 광고를 출력하여 맞춤형 광고를 제공하는 효과가 있다.
넷째, 멀티 모달리티를 통해, 구매, 더 알아보기 등 상호 작용이 가능한 광고를 제공하는 효과가 있다.
다섯째, 광고 효과를 극대화할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 광고 제공 장치의 제어 블럭도이다.
도 4는 본 발명의 실시예에 따른 광고 제공 장치의 플로우 차트이다.
도 5 내지 도 6은 본 발명의 실시예에 따라 광고를 출력하는 동작을 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 광고 제공 장치의 플로우 차트이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(10)은, 공유형 차량일 수 있다. 차량(10)은 자율 주행 차량일 수 있다. 차량(10)에는 광고 제공 장치(100)가 포함될 수 있다.
한편, 차량(10)은, 적어도 하나의 로봇(robot)과 상호 작용할 수 있다. 로봇은, 자력으로 주행이 가능한 이동 로봇(Autonomous Mobile Robot, AMR)일 수 있다. 이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행 중 장애물 등을 피하기 위한 다수의 센서가 구비되어 장애물을 피해 주행할 수 있다. 이동 로봇은, 비행 장치를 구비하는 비행형 로봇(예를 들면, 드론)일 수 있다. 이동 로봇은, 적어도 하나의 바퀴를 구비하고, 바퀴의 회전을 통해 이동되는 바퀴형 로봇일 수 있다. 이동 로봇은, 적어도 하나의 다리를 구비하고, 다리를 이용해 이동되는 다리식 로봇일 수 있다.
로봇은 차량(10) 사용자의 편의를 보완하는 장치로 기능할 수 있다. 예를 들면, 로봇은, 차량(10)에 적재된 짐을 사용자의 최종 목적지까지 이동하는 기능을 수행할 수 있다. 예를 들면, 로봇은, 차량(10)에서 하차한 사용자에게 최종 목적지까지 길을 안내하는 기능을 수행할 수 있다. 예를 들면, 로봇은, 차량(10)에서 하차한 사용자를 최종 목적지까지 수송하는 기능을 수행할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 통신 장치(220)를 통해, 로봇과 통신을 수행할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇에 차량에 포함되는 적어도 하나의 전자 장치에서 처리한 데이터를 제공할 수 있다. 예를 들면, 차량에 포함되는 적어도 하나의 전자 장치는, 오브젝트 데이터, HD 맵 데이터, 차량 상태 데이터, 차량 위치 데이터 및 드라이빙 플랜 데이터 중 적어도 어느 하나를 로봇에 제공할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇으로부터, 로봇에서 처리된 데이터를 수신할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 로봇에서 생성된 센싱 데이터, 오브젝트 데이터, 로봇 상태 데이터, 로봇 위치 데이터 및 로봇의 이동 플랜 데이터 중 적어도 어느 하나를 수신할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇으로부터 수신된 데이터에 더 기초하여, 제어 신호를 생성할 수 있다. 예를 들면, 차량에 포함되는 적어도 하나의 전자 장치는, 오브젝트 검출 장치(210)에 생성된 오브젝트에 대한 정보와 로봇에 의해 생성된 오브젝트에 대한 정보를 비교하고, 비교 결과에 기초하여, 제어 신호를 생성할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 차량(10)의 이동 경로와 로봇의 이동 경로간의 간섭이 발생되지 않도록, 제어 신호를 생성할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능(artificial intelligence, AI)를 구현하는 소프트웨어 모듈 또는 하드웨어 모듈(이하, 인공 지능 모듈)을 포함할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 획득되는 데이터를 인공 지능 모듈에 입력(input)하고, 인공 지능 모듈에서 출력(output)되는 데이터를 이용할 수 있다.
인공 지능 모듈은, 적어도 하나의 인공 신경망(artificial neural network, ANN)을 이용하여, 입력되는 데이터에 대한 기계 학습(machine learning)을 수행할 수 있다. 인공 지능 모듈은, 입력되는 데이터에 대한 기계 학습을 통해, 드라이빙 플랜 데이터를 출력할 수 있다.
차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능 모듈에서 출력되는 데이터에 기초하여, 제어 신호를 생성할 수 있다.
실시예에 따라, 차량에 포함되는 적어도 하나의 전자 장치는, 통신 장치(220)를 통해, 외부 장치로부터, 인공 지능에 의해 처리된 데이터를 수신할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능에 의해 처리된 데이터에 기초하여, 제어 신호를 생성할 수 있다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 2를 참조하면, 차량(10)은, 차량용 광고 제공 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.
차량용 광고 제공 장치(100)는, 적어도 하나의 서버에서 제공되는 데이터에 기초하여 광고 데이터를 생성할 수 있다. 차량용 광고 제공 장치(100)는, 차량(10)에 구비된 적어도 하나의 디스플레이에 광고 데이터에 기초한 그래픽 객체가 표시되도록 신호를 제공할 수 있다. 한편, 본 명세서에서는 차량용 광고 제공 장치(100)가 차량(10)에 포함되는 실시예를 중심으로 설명하나, 차량용 광고 제공 장치(100)는, 차량(10) 외부에 배치될 수 있다. 이경우, 차량용 광고 제공 장치(100)는, 무선 통신 방식을 통해, 차량(10)에 신호, 데이터 또는 정보를 제공할 수 있다.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다. 사용자 인터페이스 장치(200)는, 차량(10)에 장착되는 디스플레이 장치, HUD(head up display) 장치, 윈도우 디스플레이 장치, 클러스터 장치 등으로 구현될 수 있다. 사용자 인터페이스 장치(200)는, 입력 장치, 출력 장치 및 사용자 모니터링 장치를 포함할 수 있다. 사용자 인터페이스 장치(200)는, 터치 입력 장치, 기계식 입력 장치, 음성 입력 장치, 제스쳐 입력 장치 등과 같은 입력 장치를 포함할 수 있다. 사용자 인터페이스 장치(200)는, 스피커, 디스플레이, 햅틱 모듈과 같은 출력 장치를 포함할 수 있다. 사용자 인터페이스 장치(200)는, DMS(Driver Monitoring System), IMS(Internal Monitoring System)과 같은 사용자 모니터링 장치를 포함할 수 있다.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
통신 장치(220)는, 5G(예를 들면, 뉴 라디오(new radio, NR)) 방식을 이용하여, 차량(10) 외부에 위치하는 디바이스와 통신할 수 있다. 통신 장치(220)는, 5G 방식을 이용하여, V2X(V2V, V2D, V2P,V2N) 통신을 구현할 수 있다.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.
구동 제어 장치(250)는, 차량(10)내 각종 차량 구동 장치를 전기적으로 제어하는 장치이다. 구동 제어 장치(250)는, 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는, 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다.
한편, 안전 장치 구동 제어 장치는, 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.
차량 구동 제어 장치(250)는, 제어 ECU(Electronic Control Unit)로 명명될 수 있다.
주행 시스템(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. 주행 시스템(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.
주행 시스템(260)은, ADAS를 포함하는 개념일 수 있다. ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.
주행 시스템(260)은, 자율 주행 ECU(Electronic Control Unit)를 포함할 수 있다. 자율 주행 ECU는, 차량(10) 내 다른 전자 장치들 중 적어도 어느 하나로부터 수신되는 데이터에 기초하여, 자율 주행 경로를 설정할 수 있다. 자율 주행 ECU는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나로부터 수신되는 데이터에 기초하여, 자율 주행 경로를 설정할 수 있다. 자율 주행 ECU는, 자율 주행 경로를 따라 차량(10)이 주행하도록 제어 신호를 생성할 수 있다. 자율 주행 ECU에서 생성된 제어 신호는, 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나로 제공될 수 있다.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.
위치 데이터 생성 장치(280)는, 위치 측위 장치로 명명될 수 있다. 위치 데이터 생성 장치(280)는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
도 3은 본 발명의 실시예에 따른 전자 장치의 제어 블럭도이다.
도 3을 참조하면, 광고 제공 장치(100)는, 메모리(140), 프로세서(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 광고 제공 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(180)는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
전원 공급부(190)는, 광고 제공 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 광고 제공 장치(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(190)는, 메인 ECU(140)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 전원 공급부(190)는, SMPS(switched-mode power supply)로 구현될 수 있다.
프로세서(170)는, 메모리(140), 인터페이스부(180), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(170)는, 전원 공급부(190)로부터 제공되는 전원에 의해 구동될 수 있다. 프로세서(170)는, 전원 공급부(190)에 의해 전원이 공급되는 상태에서 데이터를 수신하고, 데이터를 처리하고, 신호를 생성하고, 신호를 제공할 수 있다.
프로세서(170)는, 인터페이스부(180)를 통해, 차량(10) 내 다른 전자 장치로부터 정보를 수신할 수 있다. 프로세서(170)는, 인터페이스부(180)를 통해, 차량(10) 내 다른 전자 장치로 제어 신호를 제공할 수 있다.
프로세서(170)는, 적어도 하나의 서버에서 생성된 데이터를 수신할 수 있다. 서버는, 광고 관련 데이터를 생성하여, 차량(10)에 제공할 수 있다. 통신 장치(220)는, 서버로부터 광고 관련 데이터를 수신하여, 차량용 광고 제공 장치에 전송할 수 있다. 프로세서(170)는, 통신 장치(220)를 통해, 적어도 하나의 서버에서 생성된 데이터를 수신할 수 있다. 적어도 하나의 서버에서 생성된 데이터는, 증강 현실 사이니지와 매칭되는 위치에 대한 정보를 포함할 수 있다. 여기서, 상기 위치는 차량(10)이 주행 중인 도로의 외곽의 일 지점일 수 있다. 적어도 하나의 서버에서 생성된 데이터는, 증강 현실 사이니지의 크기에 대한 정보, 증강 현실 사이니지의 표시 시간에 대한 정보, 증강 현실 사이니지의 표시 위치에 대한 정보, 증강 현실 사이니지의 표시 내용에 대한 정보 중 적어도 어느 하나를 포함할 수 있다. 증강 현실 사이니지의 표시 위치에 대한 정보는, 디스플레이에서의 표시 위치일 수 있다.
프로세서(170)는, 데이터에 기초하여, 차량(10)이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성할 수 있다. 프로세서(170)는, 주행 중인 도로의 외곽에 위치한 공간 또는 구조물에 매칭되는 증강 현실 광고 데이터를 생성할 수 있다. 구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리, 연석, 건물 중 적어도 어느 하나를 포함할 수 있다.
프로세서(170)는, 광고 데이터에 기초한 그래픽 객체가 차량(10)에 구비된 적어도 하나의 디스플레이에 표시되도록 신호를 제공할 수 있다. 디스플레이는 제동되는 신호에 기초하여, 증강 현실 광고 데이터에 기초한 증강 현실 그래픽 객체를 표시할 수 있다. 가령, 윈드 쉴드에 그래픽 객체가 투사되는 방식으로 HUD가 구현되는 경우, 디스플레이는, 도로의 외곽을 향해는 사용자의 시선과 윈드 실드가 교차하는 지점에 그래픽 객체를 표시할 수 있다. 이를 통해, 디스플레이는 증강 현실 광고 데이터에 기초한 증강 현실 그래픽 객체를 표시할 수 있다. 예를 들면, 증강 현실 그래픽 객체는, 증강 현실 사이니지를 포함할 수 있다. 예를 들면, 증강 현실 그래픽 객체는, 증강 현실 사이니지와 증강 현실 사이니지에 표시되는 그래픽 객체를 포함할 수 있다.
프로세서(170)는, 적어도 하나의 디스플레이에, 주행 중인 도로의 외곽에 매칭되는 증강 현실 사이니지가 표시되도록 신호를 제공할 수 있다. 증강 현실 사이니지는, 주행 중인 도로의 외곽의 공간 또는 구조물에 매칭되는 가상의 광고판으로 설명될 수 있다. 프로세서(170)는, 적어도 하나의 디스플레이에, 차량(10)이 주행 중인 도로의 외곽 빈 공간 또는 구조물에 매칭되어 증강 현실 사이니지가 표시되도록 신호를 제공할 수 있다.
프로세서(170)는, 증강 현실 사이니지에 그래픽 객체가 표시되도록 신호를 제공할 수 있다. 디스플레이는, 증강 현실 사이니지를 표시하고, 증강 현실 사이니지 상에 그래픽 객체를 표시할 수 있다. 이로 인해, 사용자는, 옥외 광고물이 설치된 것 같은 느낌을 받을 수 있다.
프로세서(170)는, 사용자의 시선에 대한 정보를 획득할 수 있다. 프로세서(170)는, 사용자 인터페이스 장치(200)의 사용자 모니터링 장치로부터 사용자의 시선에 대한 정보를 획득할 수 있다.
프로세서(170)는, 사용자의 시선이 빈 공간 또는 구조물을 향한 상태로 디스플레이에 교차되는 지점에 증강 현실 사이니지가 표시되도록 신호를 제공할 수 있다.
프로세서(170)는, 차량(10) 내 다른 전자 장치로부터, 주행 상황 정보를 수신할 수 있다. 프로세서(170)는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 메인 ECU(240), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나로부터 주행 상황 정보를 수신할 수 있다. 주행 상황 정보는, 차량(10)의 주행 모드에 대한 정보, 차량(10)의 주행 상태에 대한 정보, 차량(10)의 주행 환경에 대한 정보, 사용자 상태에 대한 정보 중 적어도 어느 하나를 포함할 수 있다. 주행 모드에 대한 정보는, 주행 모드가 자율 주행 모드인지 수동 주행 모드인지에 대한 정보를 포함할 수 있다. 차량(10)의 주행 상태에 대한 정보는, 차량(10)의 속도 정보, 방향 정보, 가속도 정보, 위치 정보 중 적어도 어느 하나를 포함할 수 있다. 차량(10)의 주행 환경에 대한 정보는, 주행 중인 구간 또는 주행 예정 구간이 커브, 오르막, 내리막, 고속도로, 시내 도로, 교차로, 횡단보도, 진입로, 진출로 중 적어도 어느 하나에 해당하는지 여부에 대한 정보를 포함할 수 있다. 사용자 상태에 대한 정보는, 출력되는 광고 컨텐츠에 대한 관심도 정보를 포함할 수 있다.
프로세서(170)는, 주행 상황 정보에 기초하여, 그래픽 객체의 표시 영역, 그래픽 객체의 크기, 그래픽 객체의 내용, 광고와 관련된 사용자 인터페이스 방법 중 적어도 어느 하나를 결정할 수 있다. 프로세서(170)는, 주행 상황 정보에 기초하여, 증강 현실 사이니지의 표시 영역, 증강 현실 사이니지의 크기, 증강 현실 사이니지에 표시되는 내용 중 적어도 어느 하나를 결정할 수 있다. 프로세서(170)는, 주행 상황 정보에 기초하여, 광고와 관련된 사용자 인터페이스 방법으로, 음성 입력, 제스쳐 입력, 터치 입력, 기계식 입력 중 어느 하나를 선택할 수 있다.
프로세서(170)는, 자율 주행 모드에 대한 정보를 수신할 수 있다. 예를 들면, 프로세서(170)는, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 주행 시스템(260) 중 적어도 어느 하나로부터 자율 주행 모드에 대한 정보를 수신할 수 있다.
프로세서(170)는, 차량(10)이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량(10)이 수동 주행 상태로 주행 중인 경우에 비해 그래픽 객체가 상대적으로 더 크게 표시되도록 신호를 제공할 수 있다.
프로세서(170)는, 차량(10)이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량(10)이 수동 주행 상태로 주행 중인 경우와 다른 형상의 그래픽 객체가 표시되도록 신호를 제공할 수 있다.
프로세서(170)는, 차량(10)이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량(10)이 수동 주행 상태로 주행 중인 경우와 다른 방식의 사용자 인터페이스가 구현되도록 신호를 제공할 수 있다.
프로세서(170)는, 사용자 센싱 데이터를 수신할 수 있다. 예를 들면, 프로세서(170)는, 사용자 인터페이스 장치(200)에 포함된 내부 카메라로부터, 사용자 센싱 데이터를 수신할 수 있다. 사용자 센싱 데이터는, 영상 데이터를 포함할 수 있다.
프로세서(170)는, 사용자 센싱 데이터에 기초하여, 그래픽 객체에 대한 사용자의 관심도를 판단할 수 있다. 사용자의 관심도는, 그래픽 객체를 본 사용자의 리액션으로 판단될 수 있다. 예를 들면, 프로세서(170)는, 영상 데이터에 기초하여, 그래픽 객체를 응시하는 사용자의 제스쳐가 검출되는 경우, 관심도를 높음으로 판단할 수 있다. 예를 들면, 프로세서(170)는, 영상 데이터에 기초하여, 그래픽 객체와 관련한 인터페이스를 조작하는 제스쳐가 검출되는 경우, 관심도를 높음으로 판단할 수 있다. 예를 들면, 프로세서(170)는, 영상 데이터에 기초하여, 그래픽 객체가 아닌 다른쪽을 응시하는 사용자의 제스쳐가 검출되는 경우, 관심도를 낮음으로 판단할 수 있다. 예를 들면, 프로세서(170)는, 영상 데이터에 기초하여, 수면을 취하는 사용자의 제스쳐가 검출되는 경우, 관심도를 낮음으로 판단할 수 있다.
프로세서(170)는, 관심도에 연동되는 그래픽 객체가 디스플레이에 표시되도록 신호를 제공할 수 있다. 관심도에 연동되는 그래픽 객체는, 상대적으로 상세한 정보가 포함되는 그래픽 객체일 수 있다. 예를 들면, 프로세서(170)는, 상품 광고에 대한 제1 그래픽 객체가 표시된 상태에서, 사용자의 관심도가 높음으로 판단되는 경우, 상품 상세 정보에 대한 제2 그래픽 객체를 표시할 수 있다.
프로세서(170)는, 사용자의 관심도에 기초하여, 자율 주행 모드의 전환, 차량의 조향, 가속, 감속 중 적어도 어느 하나의 제어를 위한 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)이 수동 주행 모드로 주행 중인 상태에서, 그래픽 객체에 대한 사용자의 관심도가 높음으로 판단되는 경우, 자율 주행 모드로 주행 모드가 전환되도록 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 차량(10) 제1 속도값으로 주행 중인 상태에서, 그래픽 객체에 대한 사용자의 관심도가 높음으로 판단되는 경우, 제1 속도값보다 낮은 제2 속도값으로 차량(10)이 주행되도록 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)이 차로에서 주행 중인 상태에서, 그래픽 객체에 대한 사용자의 관심도가 높음으로 판단되는 경우, 차량(10)이 갓길로 이동되도록 신호를 제공할 수 있다.
프로세서(170)는, 사용자의 관심도에 기초하여, 광고 데이터와 연관된 목적지 설정을 위한 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 특정 장소와 매칭되는 그래픽 객체에 대한 사용자의 관심도가 높음으로 판단되는 경우, 상기 특정 장소를 목적지로 설정하기 위한 신호를 제공할 수 있다.
프로세서(170)는, 사용자의 관심도에 기초하여, 광고 데이터와 연관된 컨텐츠 출력을 위한 신호를 제공할 수 있다. 예를 들면, 프로세서(170)는, 엔터테인먼트 컨텐츠와 매칭되는 그래픽 객체에 대한 사용자의 관심도가 높음으로 판단되는 경우, 상기 엔터테인먼트 컨텐츠 출력을 위한 신호를 제공할 수 있다.
광고 제공 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 메모리(140), 인터페이스부(180), 전원 공급부(190) 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.
한편, 실시예에 따라, 차량용 광고 제공 장치(100)는, 디스플레이를 더 포함할 수 있다. 상술한 바와 같이, 디스플레이는, 프로세서(170)에서 제공되는 신호에 기초하여, 증강 현실 광고 데이터에 기초한 증강 현실 그래픽 객체를 표시할 수 있다.
도 4는 본 발명의 실시예에 따른 광고 제공 장치의 플로우 차트이다.
도 4를 참조하면, 프로세서(170)는, 적어도 하나의 서버에서 생성된 데이터를 수신할 수 있다(S410). 적어도 하나의 서버에서 생성된 데이터는, 증강 현실 사이니지와 매칭되는 위치에 대한 정보를 포함할 수 있다. 여기서, 위치는, 차량(10)이 주행 중인 도로의 외곽에서의 일 지점일 수 있다. 적어도 하나의 서버에서 생성된 데이터는, 증강 현실 사이니지의 크기에 대한 정보, 증강 현실 사이니지의 표시 시간에 대한 정보, 증강 현실 사이니지의 표시 위치에 대한 정보, 증강 현실 사이니지의 표시 내용에 대한 정보 중 적어도 어느 하나를 포함할 수 있다.
프로세서(170)는, 데이터에 기초하여, 차량(10)이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성할 수 있다(S420).
프로세서(170)는, 광고 데이터에 기초한 그래픽 객체가 차량(10)에 구비된 적어도 하나의 디스플레이에 표시되도록 제1 신호를 제공할 수 있다(S430).
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 적어도 하나의 디스플레이에, 차량(10)이 주행 중인 도로의 외곽에 매칭되는 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계 및 적어도 하나의 프로세서(170)가, 증강 현실 사이니지에 그래픽 객체가 표시되도록 신호를 제공하는 단계를 포함할 수 있다.
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 적어도 하나의 디스플레이에, 차량(10)이 주행 중인 도로의 외곽 빈 공간 또는 구조물에 매칭되어 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계를 포함할 수 있다.
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 사용자의 시선에 대한 정보를 획득하는 단계 및 적어도 하나의 프로세서(170)가 사용자의 시선이 상기 빈 공간 또는 상기 구조물을 향한 상태로 디스플레이에 교차되는 지점에 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계를 포함할 수 있다.
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 주행 상황 정보를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 주행 상황 정보에 기초하여, 그래픽 객체의 표시 영역, 그래픽 객체의 크기, 그래픽 객체의 내용, 광고와 관련된 사용자 인터페이스 방법 중 적어도 어느 하나를 결정하는 단계를 포함할 수 있다.
주행 상황 정보를 수신하는 단계는, 자율 주행 모드에 대한 정보를 수신하는 단계를 포함할 수 있다.
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 차량(10)이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량(10)이 수동 주행 상태로 주행 중인 경우에 비해 그래픽 객체가 상대적으로 더 크게 표시되도록 신호를 제공하는 단계를 포함할 수 있다.
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 차량(10)이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량(10)이 수동 주행 상태로 주행 중인 경우와 다른 형상의 그래픽 객체가 표시되도록 신호를 제공하는 단계를 포함할 수 있다.
신호를 제공하는 단계(S430)는, 적어도 하나의 프로세서(170)가, 차량(10)이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량(10)이 수동 주행 상태로 주행 중인 경우와 다른 방식의 사용자 인터페이스가 구현되도록 신호를 제공하는 단계를 포함할 수 있다.
프로세서(170)는, 표시되는 그래픽 객체에 대한 사용자의 관심도를 판단할 수 있다(S440). 관심도를 판단하는 단계(S440)는, 적어도 하나의 프로세서(170)가 사용자 센싱 데이터를 수신하는 단계 및 적어도 하나의 프로세서(170)가, 사용자 센싱 데이터에 기초하여, 그래픽 객체에 대한 사용자의 관심도를 판단하는 단계를 포함할 수 있다.
관심도가 높은 것으로 판단되는 경우(S450), 프로세서(170)는, 관심도에 연동되는 그래픽 객체가 디스플레이에 표시되도록 제2 신호를 제공할 수 있다(S460).
제2 신호를 제공하는 단계(S460)는, 적어도 하나의 프로세서(170)가, 사용자의 관심도에 기초하여, 자율 주행 모드의 전환, 차량(10)의 조향, 가속, 감속 중 적어도 어느 하나의 제어를 위한 신호를 제공하는 단계를 포함할 수 있다.
제2 신호를 제공하는 단계(S460)는, 적어도 하나의 프로세서(170)가, 사용자의 관심도에 기초하여, 광고 데이터와 연관된 목적지 설정을 위한 신호를 제공하는 단계를 포함할 수 있다.
제2 신호를 제공하는 단계(S460)는, 적어도 하나의 프로세서(170)가, 사용자의 관심도에 기초하여, 광고 데이터와 연관된 컨텐츠 출력을 위한 신호를 제공하는 단계를 포함할 수 있다.
도 5 내지 도 6은 본 발명의 실시예에 따라 광고를 출력하는 동작을 설명하는데 참조되는 도면이다.
도 5 내지 도 6을 참조하면, 차량(10)은 적어도 하나의 디스플레이(500)를 포함할 수 있다. 적어도 하나의 디스플레이(500)는, 차량용 광고 제공 장치(100)의 하위 구성으로 분류될 수 있다. 적어도 하나의 디스플레이(500)는, 윈드 쉴드를 이용한 HUD를 포함할 수 있다.
디스플레이(500)는, 차량용 광고 제공 장치(100)로부터 신호를 수신할 수 있다. 디스플레이(500)는, 수신되는 신호에 기초하여 그래픽 객체를 표시할 수 있다. 디스플레이(500)는, 차량(10)이 주행 중인 도로의 외곽에 매칭되는 증강 현실 그래픽 객체를 표시할 수 있다.
도 5에 예시된 바와 같이, 디스플레이(500)는, 주행 중인 도로의 외곽에 위치한 공간에 증강 현실 사이니지(510)를 표시할 수 있다. 디스플레이(500)는, 사용자(530)의 눈과 도로 외곽의 공간 사이를 가상의 선으로 연결하는 경우, 상기 가상의 선이 윈드 쉴드에 교차하는 지점에 증강 현실 사이니지(510)를 표시할 수 있다.
증강 현실 사이니지(510)는, 특정 공간과 매칭되어 있으므로, 사용자(530) 입장에서, 차량(10)이 전진할 때, 증강 현실 사이니지(510)는, 상대적으로 뒤쪽 방향으로 움직이는 것처럼 보인다.
도 6에 예시된 바와 같이, 디스플레이(500)는, 주행 중인 도로의 외곽에 위치한 구조물(610) 주변에 증강 현실 사이니지(510)를 표시할 수 있다. 예를 들면, 디스플레이(500)는, 구조물(610)과 적어도 일부가 겹쳐서 보이도록 증강 현실 사이니지(510)를 표시할 수 있다. 예를 들면, 디스플레이(500)는, 구조물(610) 위쪽, 왼쪽 또는 오른쪽에 증강 현실 사이니지(510)를 표시할 수 있다.
디스플레이(500)는, 사용자(530)의 눈과 구조물(610)을 가상의 선으로 연결하는 경우, 상기 가상의 선이 윈드 쉴드에 교차하는 지점에 증강 현실 사이니지(510)를 표시할 수 있다.
증강 현실 사이니지(510)는, 구조물과 매칭되어 있으므로, 사용자(530) 입장에서, 차량(10)이 전진할 때, 증강 현실 사이니지(510)는, 구조물(610)과 함께 상대적으로 뒤쪽 방향으로 움직이는 것처럼 보인다.
디스플레이(500)는, 증강 현실 사이니지(510)에 광고 데이터에 기초한 그래픽 객체(520)를 표시할 수 있다.
도 7은 본 발명의 실시예에 따른 광고 제공 장치의 플로우 차트이다.
도 7을 참조하면, 프로세서(170)는, 광고 시작 신호를 수신할 수 있다(S710). 프로세서(170)는, 광고 시작 신호를 적어도 하나의 서버로부터 수신할 수 있다. 프로세서(170)는, API(Application Programming Interface)로부터 광고 표시 지점, 광고 컨텐츠 등을 수신할 수 있다.
프로세서(170)는, 사용자의 선호도에 기초하여 광고의 출력 여부를 결정할 수 있다(S720). 예를 들면, 프로세서(170) 인공 지능 알고리즘을 통해, 사용자 선호도가 높은 광고를 선택할 수 있다. 프로세서(170)는, 누적 저장된 광고에 대한 사용자의 관심도를 인공 지능 알고리즘에 입력하여, 사용자의 선호도를 결정할 수 있다. 프로세서(170)는, 사용자의 선호도에 따라 광고를 선택할 수 있다. 수신된 데이터에 기초한 광고가 사용자가 관심 없거나 싫어하는 것으로 판단되는 경우, 프로세서(170)는, 광고를 수행하지 않을 수 있다(S770).
프로세서(170)는, 광고의 표시 방법을 판단하여 광고 출력 여부를 결정할 수 있다(S730). 프로세서(170)는, 사용자 인터페이스 장치(200)에 포함된 구성들 중 어느 하나를 광고의 표시 방법으로 선택할 수 있다. 차량(10)에 광고에 필요한 인터페이스가 구비되지 않은 것으로 판단되는 경우, 프로세서(170)는, 광고를 수행하지 않을 수 있다(S770).
프로세서(170)는, 주행 상황 정보에 기초하여 광고 출력 여부를 결정할 수 있다(S740). 프로세서(170)는, 차량의 주행 모드, 위치, 방향, 속도, 위험도, 사용자의 운전 집중도 중 적어도 어느 하나에 기초하여, 차량(10) 상태가 위험하거나 사용자가 광고를 보기 싫어하는지 판단할 수 있다. 차량(10)의 상태가 위험하거나 사용자가 광고를 보기 싫어하는 것으로 판단되는 경우, 프로세서(170)는, 광고를 수행하지 않을 수 있다(S770).
프로세서(170)는, 차량(10)의 제어 필요성을 판단할 수 있다(S750). 차량(10)의 제어가 필요하다고 판단되는 경우, 프로세서(170)는, 주행 모드, 차량 속도, 주행 경로, 차선 등의 변경 제어를 수행할 수 있다.
프로세서(170)는, 광고를 수행할 수 있다(S760). 광고는, 수동 주행용 광고, 자율 주행용 광고로 구분될 수 있다.
프로세서(170)는, 지정된 장소에 가상으로 증강 현실 사이니지가 표시되도록 신호를 제공할 수 있다. 프로세서(170)는, 각종 서비스 프로바이더(service provider)로부터 증강 현실 사이니지 표시 위치, 크기, 컨텐츠 등의 정보를 수신할 수 있다. 프로세서(170)는, 맵에 증강 현실 사이니지 표시 위치를 매칭시켜 표시할 수 있다.
프로세서(170)는, 오브젝트 검출용 카메라에서 수신된 데이터 및 운전자 시선을 인식하는 내부 카메라로부터 수신된 데이터에 기초하여, 차량에 포함되는 디스플레이에 증강 현실 사이니지를 표시할 수 있다. 사용자는 증강 현실 사이니지를 보면서 옥외 광고물이 설치된 것과 같은 느낌을 받을 수 있다.
프로세서(170)는, 주행 상태에 따라 증강 현실 사이니지의 광고의 내용, 표시 영역 및 조작 방법 중 적어도 어느 하나를 다르게 할 수 있다. 프로세서(170)는, 수동 주행 모드인지 자율 주행 모드인지에 따라 광고의 내용, 표시 영역 및 조작 방법 중 적어도 하나를 다르게 할 수 있다. 프로세서(170)는, 차량(10)의 방향, 속도, 위치 좌표, 주행 위험도에 따라 광고의 내용, 표시 영역 및 조작 방법 중 적어도 어느 하나를 다르게 할 수 있다.
프로세서(170)는, 주행 상태에 적합한 증강 현실 사이니지의 광고 내용을 결정할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)이 수동 주행 모드로 주행 중인 경우, 수동 주행 모드용 광고를 선택할 수 있다. 예를 들면, 프로세서(170)는, 차량(10)이 자율 주행 모드로 주행 중인 경우, 자율 주행 모드용 광고를 선택할 수 있다.
프로세서(170)는, 증강 현실 사이니지의 표시 영역을 결정할 수 있다. 프로세서(170)는, 증강 현실 사이니지의 표시 영역을 제한하거나 확장할 수 있다. 예를 들면, 프로세서(170)는, 음성만으로 구성된 광고 컨텐츠를 출력할 수 있다. 예를 들면, 프로세서(170)는, 전방향 증강 현실 사이니지를 출력할 수 있다.
프로세서(170)는, 광고에 따른 조작 방법을 결정할 수 있다. 프로세서(170)는, 주행 상태에 따라 사용 가능한 인터페이스를 제한하거나 확장할 수 있다. 예를 들면, 프로세서(170)는, 터치 입력만을 이용할 수 있다. 예를 들면, 프로세서(170)는, 제스쳐 입력 또는 시선 인식을 통한 입력을 이용할 수 있다.
프로세서(170)는, 사용자의 광고에 대한 반응에 따라 차량(10)을 제어할 수 있다. 사용자의 광고에 대한 반응은, 광고를 보기 싫어하는 반응, 광고에 관심있어하는 반응, 광고에 대해 인터페이스 조작을 하는 반응으로 구분될 수 있다. 사용자의 광고에 대한 반응은, 내부 카메라로부터 획득된 사용자 영상에 기초하여 판단될 수 있다. 프로세서(170)는, 주행 모드 변경, 주행 경로 변경, 속도 변경, 차선 변경 중 적어도 어느 하나를 위한 신호를 제공할 수 있다.
차량(10)이 수동 주행 모드로 주행 중인 상태에서, 증강 현실 사이니지가 표시될 수 있다. 프로세서(170)는, 사용자 선호도가 높은 영화 광고가 표시되는 증강 현실 사이니지가 도로 주변 빈 공간에 표시되도록 신호를 제공할 수 있다. 차량(10)이 수동 주행 모드에서 자율 주행 모드로 변경될 수 있다. 프로세서(170)는, 영화 광고에 대한 사용자의 반응을 감지할 수 있다. 프로세서(170)는, 사용자의 관심도가 높음으로 판단되는 경우, 수동 주행 모드에서 자율 주행 모드로 전환하기 위한 신호를 제공할 수 있다. 프로세서(170)는, 영화 광고와 연관된 영화 컨텐츠가 출력되도록 신호를 제공할 수 있다. 이경우, 영화 컨텐츠는 증강 현실로 출력될 수 있다. 프로세서(170)는, 영화 광고와 연관된 장소로 목적지를 설정하기 위한 신호를 제공할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
10 : 차량
100 : 차량용 광고 제공 장치

Claims (20)

  1. 적어도 하나의 서버에서 생성된 데이터를 수신하고,
    상기 데이터에 기초하여, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성하고,
    상기 광고 데이터에 기초한 그래픽 객체가 차량에 구비된 적어도 하나의 디스플레이에 표시되도록 신호를 제공하는 프로세서;를 포함하는 차량용 광고 제공 장치.
  2. 제 1항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실 사이니지가 표시되도록 신호를 제공하고,
    상기 증강 현실 사이니지에 상기 그래픽 객체가 표시되도록 신호를 제공하는 차량용 광고 제공 장치.
  3. 제 2항에 있어서,
    상기 적어도 하나의 서버에서 생성된 데이터는,
    상기 증강 현실 사이니지와 매칭되는 위치에 대한 정보를 포함하고,
    상기 위치는,
    차량이 주행 중인 도로의 외곽에서의 일 지점인 차량용 광고 제공 장치.
  4. 제 2항에 있어서,
    상기 적어도 하나의 서버에서 생성된 데이터는,
    상기 증강 현실 사이니지의 크기에 대한 정보, 상기 증강 현실 사이니지의 표시 시간에 대한 정보, 상기 증강 현실 사이니지의 표시 위치에 대한 정보, 상기 증강 현실 사이니지의 표시 내용에 대한 정보 중 적어도 어느 하나를 포함하는 차량용 광고 제공 장치.
  5. 제 2항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽 빈 공간 또는 구조물에 매칭되어 증강 현실 사이니지가 표시되도록 신호를 제공하는 차량용 광고 제공 장치.
  6. 제 5항에 있어서,
    상기 프로세서는,
    사용자의 시선에 대한 정보를 획득하고,
    상기 사용자의 시선이 상기 빈 공간 또는 상기 구조물을 향한 상태로 상기 디스플레이에 교차되는 지점에 상기 증강 현실 사이니지가 표시되도록 신호를 제공하는 차량용 광고 제공 장치.
  7. 제 1항에 있어서,
    상기 프로세서는,
    주행 상황 정보에 기초하여, 상기 그래픽 객체의 표시 영역, 상기 그래픽 객체의 크기, 상기 그래픽 객체의 내용, 광고와 관련된 사용자 인터페이스 방법 중 적어도 어느 하나를 결정하는 차량용 광고 제공 장치.
  8. 제 7항에 있어서,
    상기 프로세서는,
    자율 주행 모드에 대한 정보를 수신하고, 차량이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량이 수동 주행 상태로 주행 중인 경우에 비해 상기 그래픽 객체가 상대적으로 더 크게 표시되도록 신호를 제공하는 차량용 광고 제공 장치.
  9. 제 7항에 있어서,
    상기 프로세서는,
    자율 주행 모드에 대한 정보를 수신하고, 차량이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량이 수동 주행 상태로 주행 중인 경우와 다른 형상의 그래픽 객체가 표시되도록 신호를 제공하는 차량용 광고 제공 장치.
  10. 제 7항에 있어서,
    상기 프로세서는,
    자율 주행 모드에 대한 정보를 수신하고, 차량이 자율 주행 상태로 주행 중인 것으로 판단되는 경우, 차량이 수동 주행 상태로 주행 중인 경우와 다른 방식의 사용자 인터페이스가 구현되도록 신호를 제공하는 차량용 광고 제공 장치.
  11. 제 7항에 있어서,
    상기 프로세서는,
    사용자 센싱 데이터를 수신하고,
    상기 사용자 센싱 데이터에 기초하여, 상기 그래픽 객체에 대한 사용자의 관심도를 판단하고,
    상기 관심도에 연동되는 그래픽 객체가 상기 디스플레이에 표시되도록 신호를 제공하는 차량용 광고 제공 장치.
  12. 제 11항에 있어서,
    상기 프로세서는,
    상기 관심도에 기초하여, 자율 주행 모드의 전환, 차량의 조향, 가속, 감속 중 적어도 어느 하나의 제어를 위한 신호를 제공하는 차량용 광고 제공 장치.
  13. 제 11항에 있어서,
    상기 프로세서는,
    상기 관심도에 기초하여, 상기 광고 데이터와 연관된 목적지 설정을 위한 신호를 제공하는 차량용 광고 제공 장치.
  14. 제 11항에 있어서,
    상기 프로세서는,
    상기 관심도에 기초하여, 상기 광고 데이터와 연관된 컨텐츠 출력을 위한 신호를 제공하는 차량용 광고 제공 장치.
  15. 적어도 하나의 프로세서가, 적어도 하나의 서버에서 생성된 데이터를 수신하는 단계;
    적어도 하나의 프로세서가, 상기 데이터에 기초하여, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실(augmented reality, AR) 광고 데이터를 생성하는 단계; 및
    적어도 하나의 프로세서가, 상기 광고 데이터에 기초한 그래픽 객체가 차량에 구비된 적어도 하나의 디스플레이에 표시되도록 신호를 제공하는 단계;를 포함하는 차량용 광고 제공 방법.
  16. 제 15항에 있어서,
    상기 신호를 제공하는 단계는,
    적어도 하나의 프로세서가, 상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽에 매칭되는 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계; 및
    적어도 하나의 프로세서가, 상기 증강 현실 사이니지에 상기 그래픽 객체가 표시되도록 신호를 제공하는 단계;를 포함하는 차량용 광고 제공 방법.
  17. 제 16항에 있어서,
    상기 적어도 하나의 서버에서 생성된 데이터는,
    상기 증강 현실 사이니지와 매칭되는 위치에 대한 정보를 포함하고,
    상기 위치는,
    차량이 주행 중인 도로의 외곽에서의 일 지점인 차량용 광고 제공 방법.
  18. 제 16항에 있어서,
    상기 적어도 하나의 서버에서 생성된 데이터는,
    상기 증강 현실 사이니지의 크기에 대한 정보, 상기 증강 현실 사이니지의 표시 시간에 대한 정보, 상기 증강 현실 사이니지의 표시 위치에 대한 정보, 상기 증강 현실 사이니지의 표시 내용에 대한 정보 중 적어도 어느 하나를 포함하는 차량용 광고 제공 방법.
  19. 제 16항에 있어서,
    상기 신호를 제공하는 단계는,
    적어도 하나의 프로세서가, 상기 적어도 하나의 디스플레이에, 차량이 주행 중인 도로의 외곽 빈 공간 또는 구조물에 매칭되어 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계;를 포함하는 차량용 광고 제공 방법.
  20. 제 19항에 있어서,
    상기 신호를 제공하는 단계는,
    적어도 하나의 프로세서가, 사용자의 시선에 대한 정보를 획득하는 단계; 및
    적어도 하나의 프로세서가, 상기 사용자의 시선이 상기 빈 공간 또는 상기 구조물을 향한 상태로 상기 디스플레이에 교차되는 지점에 상기 증강 현실 사이니지가 표시되도록 신호를 제공하는 단계;를 포함하는 차량용 광고 제공 방법.
KR1020190107731A 2019-07-04 2019-08-30 차량용 광고 제공 장치 및 차량용 광고 제공 방법 KR20190107286A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KRPCT/KR2019/008209 2019-07-04
PCT/KR2019/008209 WO2021002519A1 (ko) 2019-07-04 2019-07-04 차량용 광고 제공 장치 및 차량용 광고 제공 방법

Publications (1)

Publication Number Publication Date
KR20190107286A true KR20190107286A (ko) 2019-09-19

Family

ID=68067783

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190107731A KR20190107286A (ko) 2019-07-04 2019-08-30 차량용 광고 제공 장치 및 차량용 광고 제공 방법

Country Status (3)

Country Link
US (1) US11403669B2 (ko)
KR (1) KR20190107286A (ko)
WO (1) WO2021002519A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220019113A (ko) * 2020-08-05 2022-02-16 한양대학교 에리카산학협력단 자율주행 차량 시스템
KR20230007237A (ko) 2021-07-05 2023-01-12 주식회사 애니랙티브 Ar을 이용한 광고판 관리 및 거래 플랫폼
WO2024010125A1 (ko) * 2022-07-08 2024-01-11 엘지전자 주식회사 사이니지 제공을 위한 에지 및 클라우드 간 협업 플랫폼
WO2024025016A1 (ko) * 2022-07-29 2024-02-01 엘지전자 주식회사 차량의 ar 사이니지 디스플레이 장치 및 그것의 동작방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6881242B2 (ja) * 2017-11-02 2021-06-02 トヨタ自動車株式会社 移動体及び広告提供方法
US11347218B2 (en) * 2017-11-21 2022-05-31 Shawn Wang Portable universal autonomous driving system
KR20230065287A (ko) * 2020-09-02 2023-05-11 엘지전자 주식회사 차량용 ar 화면을 위한 시스템 및 차량용 ar 화면 서비스 제공 방법
US11878707B2 (en) 2022-03-11 2024-01-23 International Business Machines Corporation Augmented reality overlay based on self-driving mode

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040091788A (ko) * 2003-04-22 2004-11-02 현대자동차주식회사 고속도로 자율주행 시스템 및 그의 제어방법
JP2005070231A (ja) * 2003-08-21 2005-03-17 Denso Corp 車両における表示方法
KR20170010645A (ko) * 2015-07-20 2017-02-01 엘지전자 주식회사 자율 주행 차량 및 이를 구비하는 자율 주행 차량 시스템
KR101822945B1 (ko) * 2016-07-05 2018-01-29 엘지전자 주식회사 이동 단말기
US20180260638A1 (en) * 2017-03-10 2018-09-13 Toyota Research Institute, Inc. Systems and methods for providing updatable roadway codes
KR102309833B1 (ko) * 2017-05-29 2021-10-07 현대모비스 주식회사 자율 주행 차량에서 자율 주행 중 광고 제공 장치 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220019113A (ko) * 2020-08-05 2022-02-16 한양대학교 에리카산학협력단 자율주행 차량 시스템
KR20230007237A (ko) 2021-07-05 2023-01-12 주식회사 애니랙티브 Ar을 이용한 광고판 관리 및 거래 플랫폼
WO2024010125A1 (ko) * 2022-07-08 2024-01-11 엘지전자 주식회사 사이니지 제공을 위한 에지 및 클라우드 간 협업 플랫폼
WO2024025016A1 (ko) * 2022-07-29 2024-02-01 엘지전자 주식회사 차량의 ar 사이니지 디스플레이 장치 및 그것의 동작방법

Also Published As

Publication number Publication date
WO2021002519A1 (ko) 2021-01-07
US20200118172A1 (en) 2020-04-16
US11403669B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
CN110641472B (zh) 基于神经网络的用于自主车辆的安全监控系统
US10766500B2 (en) Sensory stimulation system for an autonomous vehicle
KR20190107286A (ko) 차량용 광고 제공 장치 및 차량용 광고 제공 방법
CN108205830B (zh) 识别对于无人驾驶车辆的个人驾驶偏好的方法和系统
CN108139756B (zh) 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统
US11790613B2 (en) Image output device
US20210211576A1 (en) Camera peek into turn
US20210356257A1 (en) Using map information to smooth objects generated from sensor data
EP3920159A1 (en) Image output device
US20220103789A1 (en) Method for sharing images between vehicles
KR20210017897A (ko) 차량용 전자 장치 및 그의 동작 방법
US11972268B2 (en) Activating new device based on container in vehicle
US20220080879A1 (en) External facing communications for autonomous vehicles
KR20220087429A (ko) 차량용 내비게이션의 영상 제공 방법
KR20220061956A (ko) 차량용 인포테인먼트 장치 및 그의 동작 방법
US11030818B1 (en) Systems and methods for presenting virtual-reality information in a vehicular environment
US20220097522A1 (en) Image output device
KR20210083048A (ko) 경로 제공 장치 및 그것의 경로 제공 방법
US20230415652A1 (en) Camera module, information processing system, information processing method, and information processing apparatus
KR102645700B1 (ko) 디지털 트윈 기반 충전소 관제 시스템
US20240011788A1 (en) Animated route preview facilitated by autonomous vehicles
US20230195107A1 (en) Systems, Methods, and Apparatus for using Remote Assistance to Annotate Images of an Environment
US20220178716A1 (en) Electronic device for vehicles and operation method thereof