KR20180003393A - 실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법 - Google Patents

실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법 Download PDF

Info

Publication number
KR20180003393A
KR20180003393A KR1020160161051A KR20160161051A KR20180003393A KR 20180003393 A KR20180003393 A KR 20180003393A KR 1020160161051 A KR1020160161051 A KR 1020160161051A KR 20160161051 A KR20160161051 A KR 20160161051A KR 20180003393 A KR20180003393 A KR 20180003393A
Authority
KR
South Korea
Prior art keywords
content
driving vehicle
image
item
user
Prior art date
Application number
KR1020160161051A
Other languages
English (en)
Other versions
KR101932003B1 (ko
Inventor
리윤 리
샤오샨 리우
슈앙 우
제임스 펭
진가오 왕
Original Assignee
바이두 유에스에이 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 유에스에이 엘엘씨 filed Critical 바이두 유에스에이 엘엘씨
Publication of KR20180003393A publication Critical patent/KR20180003393A/ko
Application granted granted Critical
Publication of KR101932003B1 publication Critical patent/KR101932003B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/232Content retrieval operation locally within server, e.g. reading video streams from disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • G06F17/30017
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/04Mobile visual advertising by land vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

일 실시형태에 있어서, 무인 운전 차량에 장착된 카메라를 사용하여 포착한, 무인 운전 차량의 외부환경을 표시하는 이미지에 대해 이미지 분석을 실행한다. 시점에서 무인 운전 차량 주위의 위치 결정 정보를 취득한다. 상기 이미지 분석 및 상기 위치 결정 정보에 기초하여, 무인 운전 차량 외부의 시청자들의 감지를 결정한다. 시청자들의 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신한다. 무인 운전 차량 외면에 장착된 표시 장치에 하나 또는 다수의 콘텐츠 아이템으로부터 선택되는 제1 콘텐츠 아이템을 표시한다.

Description

실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING CONTENT IN AUTONOMOUS VEHICLES BASED ON PERCEPTION DYNAMICALLY DETERMINED AT REAL-TIME}
본 발명의 실시형태는 총체적으로 콘텐츠 검색과 전송에 관한 것이다. 보다 구체적으로는, 본 발명의 실시형태는, 감지에 기초하여, 무인 운전 차량에서 콘텐츠 검색과 전송을 진행하는 것에 관한 것이다.
자율 모드로 주행(예컨대 무인 운전)하는 차량은, 승객, 특히 운전기사로 하여금 일부 운전과 관련되는 책임에서 벗어나도록 할 수 있다. 자율 모드로 주행할 경우, 차량탑재 센서를 사용하여 차량을 여러 위치로 인도할 수 있음으로써, 차량으로 하여금 최소의 인간-컴퓨터 인터랙션을 통해, 또는 아무런 승객도 없는 상황에서 주행할수 있도록 한다. 따라서, 무인 운전 차량은, 승객, 특히 별도로 차량을 운전하는 사람에게 여행 길에서 다른 일을 할 수 있는 기회를 제공한다. 무인 운전 차량을 탑승할 경우, 운전기사는 운전과 관련되는 많은 책임에 집중하는 대신, 자유롭게 영화 또는 기타 미디어 콘텐츠를 감상할 수 있다.
또한, 무인 운전 차량은 일반적으로 보다 많은 센서가 배치되어 있으므로, 기존의 차량에서 콘텐츠를 전송하는 것과 비교할 경우, 보다 좋은 맥락 정보(contextual information)를 갖는다. 무인 운전 차량이 일반적으로 차창을 통해 취득한 실제 시각적 지식이 아닌 센서 정보에 따라 작동되는 점을 감안하면, 무인 운전 차량에 있어서, 차문과 차창은 더 이상 필수적인 것이 아니다.
그러나, 무인 운전 차량에 있어서, 기존의 콘텐츠 전송 시스템은 일반적으로 사용자에게 정적 콘텐츠를 제공하는바, 무인 운전 차량이 주행 중인 실시간적인 환경은 고려하지 않는다. 전송된 콘텐츠는 시청자들의 이목을 끌수도 있지만 그러지 아니할 수도 있다.
본 출원은 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법, 콘텐츠를 무인 운전 차량으로 전송하기 위한 장치, 및 데이터 처리 시스템을 제공한다.
본 출원의 한 측면에 따르면, 무인 운전 차량에 장착된 카메라를 사용하여 포착한, 무인 운전 차량의 외부환경을 표시하는 이미지에 대해 이미지 분석을 실행하는 단계; 시점에서 무인 운전 차량 주위의 위치 결정 정보를 취득하는 단계; 이미지 분석 및 위치 결정 정보에 기초하여, 무인 운전 차량 외부의 시청자와 관련되는 감지를 결정하는 단계; 시청자와 관련되는 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신하는 단계; 및 무인 운전 차량 외면에 장착된 표시 장치에 하나 또는 다수의 콘텐츠 아이템으로부터 선택되는 제1 콘텐츠 아이템을 표시하는 단계를 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법을 제공한다.
본 출원의 다른 측면에 따르면, 무인 운전 차량에 장착된 카메라를 사용하여 포착한, 무인 운전 차량의 외부환경을 표시하는 이미지에 대해 이미지 분석을 실행하는 장치; 시점에서 무인 운전 차량 주위의 위치 결정 정보를 취득하는 장치; 이미지 분석 및 위치 결정 정보에 기초하여, 무인 운전 차량 외부의 시청자와 관련되는 감지를 결정하는 장치; 시청자와 관련되는 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신하는 장치; 및 무인 운전 차량 외면에 장착된 표시 장치에 하나 또는 다수의 콘텐츠 아이템으로부터 선택되는 제1 콘텐츠 아이템을 표시하는 장치를 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 장치를 제공한다.
본 출원의 또 다른 측면에 따르면, 본 출원의 실시형태에 따른 콘텐츠를 무인 운전 차량으로 전송하기 위한 장치를 포한한 데이터 처리 시스템을 제공한다.
첨부된 도면의 각 도면에서 본 발명의 실시형태에 대해 예시적으로 나타내지만, 본 발명은 이에 제한되지 않는다. 도면 중의 동일한 부호는 유사한 소자를 의미한다.
도1은 본 발명의 일 실시형태에 따른 네트워크화 시스템을 나타내는 블록도이다.
도2는 본 발명의 일 실시형태에 따른 무인 운전 차량의 네트워크 구성을 나타내는 블록도이다.
도3은 본 발명의 일 실시형태에 따른, 무인 운전 차량의 시청자들에게 콘텐츠를 제공하는 모델을 나타내는 도면이다.
도4는 일 실시형태에 따른 무인 운전 차량의 콘텐츠 전송 매커니즘을 나타내는 프로세스의 흐름도이다.
도5는 본 발명의 일 실시형태에 따른, 무인 운전 차량의 콘텐츠 처리에 사용되는 프로세스를 나타내는 흐름도이다.
도6은 일 실시형태에 따른 데이터 처리 시스템을 나타내는 블록도이다.
이하, 검토한 세부 내용을 참조하여, 본 발명의 다양한 실시형태와 양태를 설명한다. 도면은 본 발명의 다양한 실시형태를 나타낸다. 이하, 설명과 도면은 단지 본 발명을 설명하기 위한 것으로, 본 발명이 이에 한정되지 않는다. 본 발명의 여러가지 실시형태를 전면적으로 이해하도록 많은 구체적인 세부 내용을 설명한다. 그러나, 일부 실예에서, 본 발명의 실시형태에 대한 검토가 간결하도록 하기 위해, 공지 또는 일반적인 세부 내용에 대한 설명을 생략한다.
본 명세서에서, “일 실시형태”에 대한 언급은, 실시형태에서 설명한 특정된 특징, 구성 또는 특성은 본 발명의 적어도 하나의 실시형태 중에 포함될 수 있음을 의미한다. 본 명세서의 여러 곳에 있어서 “일 실시형태에서”라고 기재함은, 전부 동일한 실시형태를 의미하는 것은 아니함에 유의하여야 한다.
일부 실시형태에 따르면, 무인 운전 차량의 콘텐츠 전송 시스템은 무인 운전 차량 내부의 여행중의 승객 및 무인 운전 차량 외부의 시청자의 유니크한 장면을 고려한다. 기존의 표시에 기초한 콘텐츠 기술, 현실감을 증강시키는 증강 기능 및 무인 운전 차량의 유니크한 정보를 이용함으로써, 콘텐츠 전송 시스템은 무인 운전 차량의 상황에서 외부 시청자에게 동적 콘텐츠를 전송하는 문제를 해결하였다. 실제적으로, 무인 운전 차량은 이동하는 콘텐츠 표시 플랫폼으로 볼 수 있고, 여기서, 무인 운전 차량에 부착된 센서(예컨대 카메라)에 의해 포착된 환경 정보로 유니크한 맥락 감지 미디어 콘텐츠에 대해 렌더링(rendering)할 수 있다.
일 실시형태에 따르면, 무인 운전 차량에 장착된 카메라를 사용하여 포착한 이미지에 대해 이미지 분석을 실행한다. 상기 이미지는 무인 운전 차량의 외부환경을 표시하거나 또는 묘사한다. 시점에서 무인 운전 차량 주위의 위치 결정 정보를 취득한다. 위치 결정 정보의 예로는, 위치와 노선정보, 지도와 관심 포인트(MPOI) 정보, 및 이미지를 포착하는 시점의 실시간 교통 정보를 포함할 수 있다. 이미지 분석 및 위치 결정 정보에 기초하여, 무인 운전 차량 외부의 시청자의 감지를 결정한다. 시청자의 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신한다. 하나 또는 다수의 콘텐츠 아이템으로부터 적어도 하나의 콘텐츠 아이템을 선택하여, 무인 운전 차량의 외면에 장착되는 표시 장치에 상기 적어도 하나의 콘텐츠 아이템을 표시한다.
특정된 실시형태에서, 네트워크를 통해 감지 정보를 콘텐츠 교환 플랫폼으로 전송한다. 상기 콘텐츠 교환 플랫폼은 콘텐츠 교환포럼 또는 입찰포럼을 호스팅함으로써, 다수의 콘텐츠 제공업체가 감지 정보에 기초하여 입찰을 진행하여, 이들의 관련 콘텐츠를 전송하는 것을 허용한다. 교환 플랫폼 및/또는 무인 운전 차량을 통해 콘텐츠에 대해 랭킹을 정함으로써, 무인 운전 차량 외면에 장착되는 하나 또는 다수의 표시 장치에 표시하려는 하나 또는 다수의 최종 콘텐츠 후보 아이템을 선택하도록 한다. 외부 시청자(예컨대, 무인 운전 차량에 장착된 표시 장치(다수의 표시 장치)를 관람하고 있는 사람)를 상대로, 표시할 콘텐츠를 구체적으로 선택하고 맞춤 제작한다. 일 실시형태에서, 콘텐츠를 표시하는 표시 장치와 이미지를 포착하는 카메라는 동일한 표면 또는 동일한 방향 또는 방위로 장착되고, 여기서, 콘텐츠는 상기 동일한 표면 또는 동일한 방향 또는 방위에서 인식되고 선택된다. 따라서, 카메라에 의해 포착된 동일한 시청자를 상대로 표시할 콘텐츠를 맞춤 제작할 수 있다. 상기 기술은 무인 운전 차량 내부의 시청자에 대해 응용될 수도 있다.
도1은 본 발명의 일 실시형태에 따른, 무인 운전 차량에 사용되는 콘텐츠 전송 시스템을 나타내는 블록도이다. 도1을 참조하면, 무인 운전 차량(101)은 무인 운전 차량(101)의 외면에 장착되는 한 세트의 센서(예컨대, 카메라(181A~181B)), 및 무인 운전 차량(101) 주위 외부환경의 이미지를 포착하기 위한 센서에 연결되는 데이터 처리 시스템(110)을 포함하지만, 이에 한정되지는 않는다. 데이터 처리 시스템(110)은 센서로부터 취득한 포착된 정보를 처리하고, 하나 또는 다수의 원격 콘텐츠 제공업체(예컨대, 콘텐츠 서버(102A~102C))와 통신한다.
데이터 처리 시스템(110)은 포착된 정보를 분석하여 시청자(예컨대, 무인 운전 차량(101) 내에 앉아 있는 내부 시청자 및/또는 무인 운전 차량(101) 밖에 서있는 외부 시청자)의 시각으로부터 감지를 얻는다. 그리고, 데이터 처리 시스템(110)은 콘텐츠 서버(102A~102C) 또는 콘텐츠 서버(102A~102C)를 호스팅하는 콘텐츠 교환 플랫폼과 통신함으로써, 무인 운전 차량(101)과 관련되는 표시 장치 중의 임의의 하나(예컨대, 내부 표시 장치(182A~182B) 및/또는 외부 표시 장치(183A~183B))에 표시하려는 콘텐츠를 수신한다. 무인 운전 차량(101) 내의 시청자를 상대로 한 맞춤 제작에 따라, 내부 표시 장치(182A~182B)에 표시되는 콘텐츠(예컨대, 가상 현실 및/또는 증강 콘텐츠)를 인식하고 렌더링할 수 있다. 무인 운전 차량(101) 밖의 시청자을 상대로 한 맞춤 제작에 따라 외부 표시 장치(183A~183B)에 표시되는 콘텐츠(예컨대, 시점에서의 외부 장면 또는 외부 시청자 주위의 주제에 기초하여 컴파일링된 콘텐츠)를 인식하고 렌더링할 수 있다.
도2는 본 발명의 일 실시형태에 따른 무인 운전 차량의 네트워크 구성을 나타내는 블록도이다. 도2를 참조하면, 네트워크 구성(200)은, 네트워크(103)를 통해 통신 가능하게 하나 또는 다수의 서버(102)(예컨대, 콘텐츠 서버)에 연결되는 무인 운전 차량(101)을 포함한다. 비록 하나의 무인 운전 차량을 도시하였지만, 다수의 무인 운전 차량이 네트워크(103)를 통해 서버(102)에 연결될 수 있다. 네트워크(103)는 임의의 유형의 네트워크일 수 있는 바, 예컨대, 유선 또는 무선의 랜(LAN),인터넷, 셀룰러 네트워크(cellular network), 위성 네트워크와 같은 광역 통신망(WAN) 또는 이들의 조합일 수 있다. 서버(다수의 서버)(102)는 임의의 유형의 서버 또는 서버 클러스터(cluster)일 수 있는 바, 예컨대, 웹 서버 또는 클라우드 서버, 애플리케이션(application) 서버, 백엔드(backend) 서버 또는 이들의 조합일 수 있다.
일 실시형태에서, 무인 운전 차량(101)은 센서 시스템(115)및 데이터 처리 시스템(110)을 포함하지만 이에 한정되지 않는다. 센서 시스템(115)는 무인 운전 차량(101)이 각종 도로와 장소로 인도하는데 필요한 다양한 센서 또는 센싱 장치를 포함한다. 예컨대, 센서 시스템(115)은 하나 또는 다수의 카메라, 마이크, 전 지구 위치 파악 시스템(GPS), 내부 측정 유닛(IMU), 레이더 시스템 및/또는 빛 감지 및 측정(LIDAR) 시스템을 포함할 수 있다. 데이터 처리 시스템(110)은, 예컨대 버스(bus), 인터커넥트(interconnect) 또는 네트워크를 통해 통신 가능하게 센서 시스템(115)에 연결된다. 데이터 처리 시스템(110)을 조작하여 센서 시스템(115)으로부터 수신된 임의의 데이터를 처리하고, 센서 시스템(115)을 관리 또는 제어할 수 있다. 데이터 처리 시스템(110)은 센서 시스템(115)으로부터 수신된 정보를 처리하고, 또한, 무인 운전 차량(101)을 제어하고 운전하는데 필요한 소프트웨어와 하드웨어를 구비한 전용 컴퓨터일 수 있다.
일 실시형태에서, 데이터 처리 시스템(110)은 위치 결정 모듈(121), 콘텐츠 선택 모듈(122), 콘텐츠 교환 모듈(123), 시각 시스템 모듈(VSM)(124) 및 감지 모듈(125)을 포함하지만, 이에 한정되지 않는다. 모듈(121~125)은 소프트웨어, 하드웨어 또는 이들의 조합에 의해 실현될 수 있다. 예컨대, 모듈(121~125)은 시스템 메모리 중에 로딩(loading)되여, 데이터 처리 시스템(110)의 하나 또는 다수의 프로세서에 의해 실행될 수 있다. 위치 결정 모듈(121)(트립(trip) 모듈이라고도 함)은 사용자의 트립과 관련되는 임의의 데이터를 관리한다. 사용자는 예컨대 사용자 인터페이스를 통해 로그인하여, 트립의 시작 위치와 목적지를 지정할 수 있다. 위치 결정 모듈(121)은 무인 운전 차량(101)의 기타 컴포넌트와 통신함으로써, 트립과 관련된 데이터를 취득한다. 예컨대, 위치 결정 모듈(121)은 위치 서버(106) 및 지도와 POI(MPOI) 서버(105)로부터 위치와 노선정보를 취득할 수 있다. 위치 서버(106)는 위치 서비스를 제공하고, MPOI 서버(105)는 지도 서비스와 일부 위치의 POI를 제공한다. 무인 운전 차량(101)이 노선을 따라 주행하는 동안, 위치 결정 모듈(121)은 교통 정보 시스템 또는 서버(TIS)(104)로부터 실시간 교통 정보를 취득할 수 있다. 서버(104~106)는 제3자객체(third party entity)에 의해 조작될 수 있음에 유의하여야 한다. 또한, 서버(104~106)의 기능은 서버(102)와 통합될 수 있다.
일 실시형태에 따르면, VSM 모듈(124)은 센서 시스템(115)에 의해 포착된 이미지에 응답하여 상기 이미지에 대해 분석을 실행함으로써, 상기 이미지를 묘사하는 이미지 메타데이터를 취득한다. VSM 모듈(124)은 상기 이미지에 대해 이미지 인식을 실행함으로써, 상기 이미지에 의해 표시되는 콘텐츠(예컨대, 사람,건축물의 배경, 간판 등)를 결정할 수 있다. 감지 모듈(125)은 이미지 분석 및 위치 결정 모듈(121)에 의해 취득된 위치 결정 정보에 기초하여 감지를 결정한다. 그리고, 감지 정보는 콘텐츠 교환 모듈(123)에 의해 하나 또는 다수의 콘텐츠 서버(102)로 전송됨으로써, 콘텐츠 서버(102)에 의해 제공된 콘텐츠를 교환한다. 서버(102)의 콘텐츠 교환 모듈(135)은 상기 감지 정보에 응답하여 콘텐츠 데이터베이스(131)에서 검색을 진행함으로써, 하나 또는 다수의 콘텐츠 아이템을 인식하도록 한다. 감지 정보는 감지를 표시하는 특정 키워드를 포함할 수 있다. 이러한 키워드는 콘텐츠 아이템을 인식할 수 있다. 예컨대, 키워드와 콘텐츠ID의 매핑 테이블(미도시)에 설정하여, 특정 키워드(예컨대, 비드 워드(bidword))를 콘텐츠 아이템을 인식하는 콘텐츠ID와 매핑시킬 수 있다. 인식된 콘텐츠 아이템(다수의 콘텐츠 아이템)은 이후 다시 데이터 처리 시스템(110)으로 전송될 수 있다. 콘텐츠 선택 모듈(122)은 무인 운전 차량(101)의 하나 또는 다수의 표시 장치에 표시될 콘텐츠 중의 하나 또는 다수에 대해 랭킹을 정하고 선택한다.
도3은 본 발명의 일 실시형태에 따른, 무인 운전 차량의 시청자들에게 콘텐츠를 제공하는 모델을 나타내는 도면이다. 도3을 참조하면, 감지 모듈(125)은 VSM 모듈(124)에 의해 취득된 VSM정보(301) 및 위치 결정 모듈(121)에 의해 컴파일링된 위치 결정 정보(302)를 이용하여 감지(303)를 생성한다. 감지 정보는 콘텐츠 선택 단계(304)에서 사용될 수 있고, 상기 콘텐츠 선택 단계(304)에서 감지 정보는 콘텐츠 교환 플랫폼(305)에 표시된다. 다수의 콘텐츠 제공업체(306)가 콘텐츠 서버스에 대해 입찰하는 것을 허용하도록, 콘텐츠 교환 플랫폼(305)은 제3자(예컨대, Ad입찰 플랫폼)에 의해 호스팅될 수 있다. 사전에 결정된 랭킹 알고리즘을 사용하여 콘텐츠 제공업체(306)가 제공하는 콘텐츠에 대해 랭킹을 정한다. 그리고, 하나 또는 다수의 콘텐츠 아이템을 선택하고, 렌더링 단계(307)에서 콘텐츠 렌더링 모듈(미도시)이 이에 대해 렌더링한다. 렌더링된 콘텐츠는 다수의 표시 장치(308A~308C)에 표시될 수 있다. 표시 장치(308A~308C)는 내부 또는 외부에 장착될 수 있는 바, 이는 구체적인 시청자에 의해 결정된다. 구체적으로 내부 시청자을 상대로 렌더링된 콘텐츠는 무인 운전 차량 내에 장착되는 표시 장치에 표시될 수 있다. 마찬가지로, 구체적으로 외부 시청자를 상대로 렌더링된 콘텐츠는 무인 운전 차량 외면에 장착되는, 외부 시청자를 상대로 한 표시 장치에 표시될 수 있다.
일 실시형태에서, 내부 표시 장치에 표시될 콘텐츠를 준비 할 경우, 카메라에 의해 포착된 이미지를 분석하여 이미지 중의 사람 또는 물체를 인식하도록 한다. 인식을 거친 이미지와 관련되는 하나 또는 다수의 키워드 또는 관심 포인트(POI)을 결정한다. 콘텐츠 선택 모듈은 상기 키워드에 기초하여 하나 또는 다수의 콘텐츠 아이템을 검색하고 인식하는 바, 예컨대 무인 운전 차량에 의해 저장된 콘텐츠 데이터베이스에서 검색하거나 또는 클라우드 중의 콘텐츠 교환 플랫폼 또는 콘텐츠 서버와 통신하여 검색을 진행한다. 그리고, 이러한 콘텐츠 아이템에 대해 랭킹을 정하고, 콘텐츠 선택 엔진이, 랭킹된 콘텐츠 아이템 중의 적어도 하나를 선택하여 표시하도록 한다. 예컨대, 선택된 콘텐츠 아이템을 이미지에 증강시켜 증강된 이미지를 생성함으로써, 콘텐츠 아이템에 대해 렌더링한다. 콘텐츠 프리젠테이션(presentation) 모듈(미도시)은 차량 승객에게 선택된 콘텐츠 아이템을 표시하고, 상기 선택된 콘텐츠 아이템은 이미지의 관찰 각도와 관련되는 위치에서 승객의 이미지에 대한 관찰을 증강시킨다.
선택된 콘텐츠 아이템을 이미지에 중첩시킴으로써, 증강된 이미지가 되도록 할 수 있다. 그리고, 무인 운전 차량 내의 표시 장치에서 증강된 이미지를 표시한다. 표시 장치는 차량의 일반적인 차창을 표현하도록 구성될 수 있다. 사용자가 표시 장치를 감상할 경우, 이미지의 물체는 마치 사용자가 일반적인 차창을 통해 물리적 물체를 감상하듯이, 가상 현실 방식으로 가상 물체로 표시된다. 표시 장치는 실시간으로 유사하거나 또는 모의적으로 증강 현실(AR) 환경의 증강된 이미지의 스트림(stream)(예컨대, 증강된 비디오)을 표시할 수 있다. 예컨대, 표시 장치는 승객이 콘텐츠 아이템을 완전히 관람하고, 콘텐츠 아이템이 제안하는 동작을 취하며, 콘텐츠 아이템에 의해 제공되는 옵션으로부터 콘텐츠 아이템을 선택하거나 바로 폐기하는 방식으로 콘텐츠 아이템에 대해 응답할 수 있도록, 인터랙션을 위한 터치 스크린을 포함할 수 있다.
도4는 일 실시형태에 따른 무인 운전 차량의 콘텐츠 전송 매커니즘을 나타내는 프로세스 흐름도이다. 프로세스(400)는 도1~2에 도시된 시스템 구성에 의해 실행될 수 있다. 도4를 참조하면, 위치 결정 모듈(121)은, 예컨대 위치와 노선정보(401), 실시간 교통 정보(402) 및 MPOI정보(403)와 같은 위치 결정 정보를 실시간으로 취득한다. 이러한 정보는 제3자 정보 제공업체(예컨대, 도2의 서버(104~106))로부터 취득할 수 있다.
또한, VSM 모듈(124)을 통해 센서 시스템(115)에 의해 포착된 이미지를 분석함으로써, 상기 이미지를 묘사하는 메타데이터를 컴파일링 하도록 한다. 상기 이미지는 무인 운전 차량 주위의 외부환경을 표시한다. VSM 모듈(124)은 상기 이미지에 대해 이미지 인식을 실행할 수 있다. 예컨대, VSM 모듈(124)은 사용자를 상기 환경 중의 시청자로 인식할 수 있다. VSM 모듈(124)은 사용자가 성인인지 아니면 아동인지, 남성인지 아니면 여성인지, 상기 사용자에 의해 실행되는 활동 등을 결정할 수 있다. VSM 모듈(124)은 또 상기 이미지의 배경(예를 들어 건축물(예컨대, 쇼핑몰)과 간판(예컨대, 빌보드)) 및 여기에 표시되는 콘텐츠를 인식할 수 있다.
일 실시형태에서, 상기 환경에서의 감지를 생성하도록, 위치 결정 정보와 이미지 분석 결과는 감지 모듈(125)에 제공된다. 감지는 대응되는 시청자에 관한 사용자 프로필을 포함할 수 있는 바, 여기서, 사용자 프로필은 시점에서 위치 결정 정보 및 이미지 분석에 기초하여 동적으로 컴파일링될 수 있다. 감지 정보 및 사용자 프로필은 콘텐츠 선택 모듈(122) 및/또는 콘텐츠 교환 모듈(123)에 제공될 수 있다. 콘텐츠 교환 모듈(123)은 콘텐츠 제공업체(102)(예컨대, 콘텐츠 서버 또는 상기 콘텐츠 서버를 호스팅하는 콘텐츠 교환 플랫폼)과 통신함으로써, 콘텐츠 제공업체(102)가 제공하는 콘텐츠를 교환한다. 콘텐츠 교환 모듈(123)은 감지를 표시하는 데이터를 콘텐츠 서버(102)로 전송할 수 있다. 감지 데이터는 콘텐츠 제공업체(102)와 콘텐츠 교환 모듈(123) 간의 협의에 의해 결정된 표준화 용어, 키워드 또는 라벨(예컨대, 비드 워드)을 포함할 수 있다.
일 실시형태에서, 감지 정보를 콘텐츠 교환 플랫폼(예컨대, 광고 서버 또는Ad 서버)으로 전송함으로써, 콘텐츠 제공업체(예컨대, 광고주)가 콘텐츠 서비스(예컨대, Ad)에 대해 비딩할 수 있도록 할 수 있다. 콘텐츠 선택 모듈(122)의 랭킹 모듈(미도시)은 콘텐츠 제공업체(102)에 의해 제출된 콘텐츠에 응답하여, 사전에 결정된 랭킹 알고리즘(예컨대 사용자 프로필을 감안하여)을 사용하여, 콘텐츠에 대해 랭킹을 정한다. 그리고, 콘텐츠 선택 모듈(122)의 콘텐츠 렌더링 모듈(미도시)은 하나 또는 다수의 콘텐츠 아이템(415)에 대해 선택하고 렌더링한다. 그 다음, 목표 시청자를 상대로 한 하나 또는 다수의 표시 장치(420)(예컨대 무인 운전 차량 외면에 장착된 표시 장치) 에 렌더링한 콘텐츠 아이템을 표시한다.
도4에 도시된 프로세스는 주기적으로 또는 연속적으로 반복하여 실행될 수 있음에 유의해야 한다. 신규 또는 업데이트된 포착된 정보를 분석할 수 있고, 위치 결정 정보를 업데이트할 수 있다. 콘텐츠 제공업체(102)로부터 신규 또는 업데이트된 콘텐츠를 인식하고 검색할 수 있는바, 상기 콘텐츠 제공업체(102)가 한 번의 반복으로부터 다른 한번의 반복에 이르기까지 동일하거나 다른 콘텐츠 제공업체일 수 있다. 그리고, 표시 장치에 신규 또는 업데이트된 콘텐츠를 표시할 수 있다. 콘텐츠 제공업체(102)에 의해 제공된 콘텐츠 중의 일부는 콘텐츠 데이터베이스의 형태로 로컬 저장 장치 중에 캐싱되어, 클라우드 중의 콘텐츠 제공업체(102)에 의해 주기적으로 업데이트될 수 있다. 이러한 구성은 클라우드의 네트워크 접속이 일시적으로 유실된 상황까지 포함할 수 있다.
일 실시형태에 따르면, 사용자와 표시되는 콘텐츠 사이의 인터랙션은 카메라에 의해 포착되고, 시스템에 의해 분석될 수 있다. 사용자 인터랙션에 기초하여 콘텐츠를 업데이트할 수 있다. 예컨대, 카메라는, 사용자가 콘텐츠를 감상중이거나, 표시 콘텐츠를 가리키거나, 콘텐츠에 대해 사진을 촬영하거나, 콘텐츠의 일부분으로 표시되는 기계 판독 가능한 코드를 스캔하는 등 상황의 이미지를 포착할 수 있다. 이러한 유형의 광경은 현재 표시되는 콘텐츠에 따라 다른 콘텐츠를 인식하는데 사용될 수 있다. 따라서, 콘텐츠는 시점에서 더욱 시청자의 이목을 끌 수 있다.
이상의 상기 기술은 외부 시청자를 상대로 콘텐츠를 전송하는 것 임을 유의하여야 한다. 이상의 상기의 기술은, 무인 운전 차량 내의 시청자에 대해 사용될 수도 있다. 예컨대, 무인 운전 차량 내에 장착된 표시 장치를 사용하여, 가상 현실 방식으로 실시간으로 포착한 외부환경을 표시하는 이미지 또는 비디오를 표시할 수 있다. 이상에서 설명한 기술 중의 적어도 일부를 사용하여 클라우드 중의 콘텐츠 제공업체로부터 추가 콘텐츠를 인식할 수 있다. 추가 콘텐츠를 실시간으로 포착한 이미지에 증강시켜, 무인 운전 차량 내에 장착된 표시 장치에 표시할 수 있다. 무인 운전 차량 내에 장착된 표시 장치는 사용자가 표시된 콘텐츠와 인터랙션할 수 있도록 하는 터치 스크린을 포함할 수 있다. 이러한 사용자 인터랙션은 표시할 다른 콘텐츠를 선택하는데 사용될 수 있다.
도5는 본 발명의 일 실시형태에 따른, 무인 운전 차량의 콘텐츠 처리에 사용되는 프로세스를 나타내는 흐름도이다. 프로세스(500)는 소프트웨어, 하드웨어 또는 이들의 조합을 포함할 수 있는 처리 로직에 의해 실행될 수 있다. 예컨대, 프로세스(500)는 도2의 데이터 처리 시스템(110)에 의해 실행될 수 있다. 도5를 참조하면, 블록(501)에서, 처리 로직은 무인 운전 차량에 장착된 카메라를 사용하여, 무인 운전 차량 주위의 외부환경을 표시하는 이미지를 포착한다. 블록(502)에서, 처리 로직은 시점에서 무인 운전 차량과 관련되는 위치 결정 정보(예컨대, 위치와 노선정보, MPOI정보, 교통 정보)를 취득한다. 블록(503)에서, 처리 로직은 이미지에 대한 분석 및 위치 결정 정보에 기초하여, 무인 운전 차량의 외부환경과 관련되는 감지를 결정한다. 블록(504)에서,처리 로직은 감지 정보를 하나 또는 다수의 콘텐츠 서버 또는 하나 또는 다수의 콘텐츠 서버를 호스팅하는 콘텐츠 교환 플랫폼으로 전송함으로써, 하나 또는 다수의 콘텐츠 제공업체로부터의 콘텐츠 아이템을 교환하도록 한다. 블록(505)에서, 처리 로직은 사전에 결정된 랭킹 알고리즘 또는 콘텐츠 선택 방법을 사용하여, 하나 또는 다수의 콘텐츠 아이템에 대해 랭킹을 정하고 선택한다. 블록(506)에서, 무인 운전 차량의 외면(예컨대, 차창, 차문 및 상면)에 장착된 하나 또는 다수의 표시 장치에 선택한 콘텐츠 아이템을 표시한다.
본 출원 명세서에서 설명한 기술은, 시점에서 트립에 따른 노선의 주행 환경(예컨대, 위치와 노선정보, 실시간 교통 상황 및 지도와 관심 포인트)에 기초하여, 무인 운전 차량에 탑승한 사용자에게 특정된 협찬 콘텐츠(예컨대, 광고 또는 Ad)를 제공할 수 있다. 또한, 협찬 콘텐츠를 실시간 포착한 무인 운전 차량 주위 환경의 하나 또는 다수의 이미지에 증강시킴으로써, 증강 현실 콘텐츠 전송 환경을 구축할 수 있다.
이상에서 설명한 무인 운전 차량은 자율 모드로 설정되도록 구성될 수 있는 차량을 의미하는 바, 여기서, 자율 모드에 있어서, 차량은 운전기사의 입력이 극히 적거나 또는 전혀 없는 상황에서 환경을 통과하도록 인도한다. 이러한 무인 운전 차량은 차량 운행 환경과 관련되는 정보를 검출하도록 구성되는 하나 또는 다수의 센서를 갖는 센서 시스템을 포함할 수 있다. 상기 차량과 기타 관련되는 컨트롤러는 검출된 정보를 사용하여 환경을 통과하도록 인도한다. 센서 시스템은 하나 또는 다수의 카메라, 마이크, 전 지구 위치 파악 시스템(GPS), 내부 측정 유닛(IMU), 레이더 시스템 및/또는 빛 감지 및 측정(LIDAR) 시스템을 포함할 수 있다.
GPS 시스템은 무인 운전 차량의 지리적 위치를 추산할 수 있다. GPS 시스템은 무인 운전 차량의 위치와 관련되는 정보를 제공하하도록 조작 가능한 송수신기를 포함할 수 있다. IMU 유닛은 관성 가속도에 기초하여, 무인 운전 차량의 위치 변화와 방향 변화를 감지할 수 있다. 레이더 유닛은 무선 신호를 이용하여 무인 운전 차량의 로컬 환경 내의 물체를 감지하는 시스템을 의미할 수 있다. 일부 실시형태에서, 레이더 유닛은 물체를 감지하는 외에도, 별도로 물체의 속도 및/또는 전진방향을 감지할 수 있다. LIDAR 유닛은 레이저를 사용하여 무인 운전 차량이 처한 환경 중의 물체를 감지할 수 있다. 기타 시스템 구성요소 외에, LIDAR 유닛은 하나 또는 다수의 레이저 광원, 레이저 스캐너 및 하나 또는 다수의 검출기를 포함할 수 있다. 카메라는 무인 운전 차량 주위 환경의 이미지를 포착하는 하나 또는 다수의 장치를 포함할 수 있다. 카메라는 스틸 카메라(still camera) 또는 비디오 카메라일 수 있다. 예컨대, 카메라가 장착된 플랫폼을 회전 및/또는 경사지게 함으로써, 카메라를 기계적으로 이동시킬 수 있다. 마이크는 무인 운전 차량 주위의 환경으로부터 소리를 포착하도록 구성될 수 있다.
무인 운전 차량은 하나 또는 다수의 카메라에 의해 포착된 이미지를 처리하고 분석하여, 무인 운전 차량 환경 중의 물체 및/또는 특징을 인식하도록, 컴퓨터 시각 시스템을 더 포함할 수 있다. 상기 물체는 교통 신호, 차선 경계선, 기타 차량, 행인 및/또는 장애물 등을 포함할 수 있다. 컴퓨터 시각 시스템은 물체 인식 알고리즘, 비디오 추적 및 기타 컴퓨터 시각 기술을 사용할 수 있다. 일부 실시형태에서, 컴퓨터 시각 시스템은 환경 지도를 제작하거나, 물체 추적, 물체의 속도 추산 등을 진행할 수 있다.
무인 운전 차량은 무인 운전 차량의 주행 경로를 결정하도록 하는 네비게이션 시스템을 더 포함할 수 있다. 예컨대, 네비게이션 시스템은, 무인 운전 차량으로 하여금 총체적으로 최종 목적지를 향한 주행 경로에 기초하여 전진하는 동시에, 기본적으로 감지된 장애물을 피할 수 있는 경로를 따라 효과적으로 이동할 수 있도록 하기 위한 일련의 속도 및 전진방향을 결정한다. 목적지는 사용자 인터페이스를 통한 사용자 입력에 의해 설정될 수 있다. 네비게이션 시스템은, 무인 운전 차량이 주행하는 기간 동적으로 운전 경로를 업데이트할 수 있다. 네비게이션 시스템은 GPS 시스템으로부터의 데이터와 하나 또는 다수의 지도를 조합하여 무인 운전 차량의 운전 경로를 결정할 수 있다.
무인 운전 차량은 충돌 방지 시스템을 더 포함함으로써, 무인 운전 차량 환경중의 잠재적인 장애물을 인식, 평가하여 장애물을 피하거나 다른 방식으로 에둘러갈 수 있도록 한다. 예컨대, 충돌 방지 시스템은, 제어 시스템중의 하나 또는 다수의 서브 시스템을 제어하여 회전 동작, 터닝 동작, 제동 동작 등을 취함으로써, 무인 운전 차량의 네비게이팅 기간중의 변화를 실현한다. 충돌 방지 시스템은 주위의 교통모드, 도로 상황 등에 기초하여, 자동으로 가능한 장애물 회피동작을 결정한다. 충돌 방지 시스템은 다른 센서 시스템이 무인 운전 차량이 곧 회전하여 진입할 인접구역에 차량, 건축 장애물 등이 존재함을 감지하였을 경우, 회전동작을 진행하지 않도록 구성될 수 있다. 충돌 방지 시스템은 자동으로 가능하고 또한 무인 운전 차량 탑승자의 안전성을 최대화하는 동작을 선택할 수 있다. 충돌 방지 시스템은 무인 운전 차량 탑승실내에서 최소의 가속도를 발생하는 회피동작을 선택할 수 있다.
무인 운전 차량은, 무인 운전 차량과 그 주위 환경 내의 외부 시스템(예컨대, 장치, 센서, 기타 차량 등) 및/또는 컨트롤러, 서버 등 사이에서 통신할수 있도록, 무선 통신 시스템을 더 포함할 수 있고, 상기 외부 시스템 및/또는 컨트롤러, 서버 등은, 예컨대, 교통 정보, 날씨 정보 등 차량 주위 환경과 관련되는 유용한 정보를 제공할 수 있다. 예컨대, 무선 통신 시스템은, 직접적으로 또는 통신 네트워크를 통해 하나 또는 다수의 장치와 무선으로 통신할 수 있다. 무선 통신 시스템은, 임의의 셀룰러 통신 네트워크 또는 무선 랜(WLAN), 예컨대 WiFi를 사용할 수 있다. 무선 통신 시스템은, 예컨대 적외선 링크, 블루투스 등을 사용하여 직접적으로 장치와 통신할 수 있다.
이상에서 도시하고 설명한 구성요소 중의 일부분 또는 전부는 소프트웨어, 하드웨어 또는 이들의 조합 으로 실현될 수 있음에 유의해야 한다. 예컨대, 이러한 구성요소는, 영구성 저장 장치 중에 인스톨되고 저장되는 소프트웨어로 실현될 수 있고, 상기 소프트웨어는 프로세서(미도시)에 의해 메모리에 로딩되어 실행됨으로써 본 출원 발명이 설명하는 프로세스 또는 동작을 실시할 수 있다. 대체 가능하게, 이러한 구성요소는 전용 하드웨어(예컨대, 집적 회로(예컨대, 전용 IC 또는 ASIC), DSP(Digital Signal Processor) 또는FPGA (Field-Programmable Gate Array)) 중에 프로그래밍 또는 임베딩(embedding)된 실행 가능한 코드로 실현될 수 있고, 상기 실행 가능한 코드는 애플리케이션으로부터의 대응 드라이버 프로그램 및/또는 운영 시스템(operating system)을 통해 방문할 수 있다. 또한, 이러한 구성요소는 프로세서 또는 프로세서 코어 중의, 소프트웨어 구성요소에 의해 하나 또는 다수의 특정 명령을 통해 방문할 수 있는 명령 세트의 일부분의 특정 하드웨어 로직으로 실현될 수 있다.
도6은 본 발명의 하나의 실시형태와 함께 사용되는 데이터 처리 시스템의 실예의 블록도를 나타낸다. 예컨대, 시스템(1500)은 이상에서 설명한 상기 프로세스 또는 방법 중의 임의의 하나를 실행하는 데이터 처리 시스템 중의 임의의 하나를 표시할 수 있는바, 예를 들어, 도2의 데이터 처리 시스템(110) 또는 서버(102)를 표시할 수 있다. 시스템(1500)은, 서로 다른 많은 구성요소를 포함할 수 있다. 이러한 구성요소는 집적 회로(IC), 집적 회로의 일부분, 분산 전자 장치(discrete electronic device) 또는 회로기판에 적용되는 기타 모듈(예컨대, 컴퓨터 시스템의 마더보드 또는 삽입 카드(add-in card))로 실현될 수 있거나, 또는 기타 방식으로 컴퓨터 시스템의 섀시(chassis) 내에 조합되는 구성요소로 실현될 수 있다.
시스템(1500)은, 컴퓨터 시스템의 많은 구성요소를 하이 레벨 뷰(high level view)로 도시하기 위한 것임을 유의하여야 한다. 그러나, 일부 실현 방식에서는 추가적인 구성요소를 가질 수 있고, 또한, 기타 실현방식에서 도시된 구성요소는 다르게 배치될 수 있다. 시스템(1500)은 데스크탑 컴퓨터, 랩톱, 태블릿 컴퓨터, 서버, 모바일 폰, 미디어 플레이어, 개인 휴대 정보 단말기(PDA), 스마트 와치, 개인 커뮤니케이터, 게임 장치, 네트워크 라우터 또는 허브(hub), 무선 액세스 포인트(AP) 또는 리피터(repeater), 셋톱 박스(set-top box) 또는 이들의 조합을 의미할 수 있다. 그리고, 비록 단일한 기계 또는 시스템만 도시되어 있지만, 용어 “머신” 또는 “시스템”은 별도로 또는 공동으로 하나(또는 다수)의 명령 세트를 실행함으로써 본 명세서에서 검토하는 방법 중의 임의의 하나 또는 다수의 머신 또는 시스템의 임의의 세트를 실행하는 것으로 이해해야 한다.
일 실시형태에서, 시스템(1500)은 버스 또는 인터커넥터 (1510)를 통해 연결되는 프로세서(1501), 메모리(1503) 및 장치(1505~1508)를 포함한다. 프로세서(1501)는 단일한 프로세서 코어 또는 다수의 프로세서 코어를 포함하는 단일한 프로세서 또는 다수의 프로세서를 의미할 수 있다. 프로세서(1501)는, 예컨대, 마이크로 프로세서, CPU(Central Processing Unit) 등과 같이 하나 또는 다수의 통용 프로세서를 의미할 수 있다. 보다 구체적으로는, 프로세서(1501)는 CISC (Complex Instruction Set Computer) 마이크로 프로세서, RISC(Reduced Instruction Set Compute) 마이크로 프로세서, VLIW (Very Long Instruction Word) 마이크로 프로세서, 또는 기타 명령 세트를 실현하는 프로세서, 또는 명령 세트 조합을 실현하는 프로세서일 수 있다. 프로세서(1501)는, 예컨대, 전용 집적 회로(ASIC), 셀룰러 또는 베이스밴드 프로세서, FPGA (Field-Programmable Gate Array), DSP(Digital Signal Processor), 네트워크 프로세서, 그래픽 프로세서, 네트워크 프로세서, 통신 프로세서, 암호화 프로세서, 코프로세서(co-processor), 임베디드 프로세서(embedded processor)와 같은 하나 또는 다수의 전용 프로세서이거나, 또는 명령을 처리할 수 있는 임의의 기타 유형의 로직일 수 있다.
프로세서(1501)(예를 들어 초저 전압 프로세서의 저전력 멀티코어 프로세서 소켓일 수 있음)는 시스템의 각 구성요소와 통신하는 메인 처리 유닛과 중앙 허브으로 사용될 수 있다. 이러한 프로세서는 온칩 시스템(SoC, on chip system)으로 실현될 수 있다. 프로세서(1501)는 본 명세서에서 검토하는 동작과 단계를 실행하는 명령을 실행하도록 구성된다. 시스템(1500)은 선택 가능한 그래픽 서브 시스템(1504)과 통신하는 그래픽 인터페이스를 더 포함할 수 있고, 그래픽 서브 시스템(1504)은 표시 컨트롤러, 그래픽 프로세서 및/또는 표시 장치를 포함할 수 있다.
프로세서(1501)는 메모리(1503)와 통신할 수 있고, 일 실시형태에서, 메모리(1503)는 다수의 메모리 장치로 구현되여 소정의 양의 시스템 메모리를 제공한다. 메모리(1503)는, 예컨대, RAM(Random Access Memory), DRAM(Dynamic Random Access Memory), SDRAM(Synchronous Dynamic RAM), SRAM(Static Random Access Memory) 또는 기타 유형의 저장 장치와 같은, 하나 또는 다수의 휘발성 저장(또는 기억) 장치를 포함할 수 있다. 메모리(1503)는 프로세서(1501) 또는 기타 장치에 의해 실행되는 명령 시퀀스를 포함하는 정보를 저장할 수 있다. 예컨대, 다양한 운영 시스템, 장치 드라이버, 펌웨어(firmware)(예컨대, 입출력 기본 시스템 또는 BIOS) 및/또는 애플리케이션의 실행 가능한 코드 및/또는 데이터는, 메모리(1503) 에 로딩여, 프로세서(1501)에 의해 실행될 수 있다. 운영 시스템은, 임의의 유형의 운영 시스템일 수 있는바, 예를 들어, Microsoft®회사의 Windows®운영 시스템, 애플 회사의 Mac OS®/iOS®, Google®회사의 Android®, Linux®, Unix® 또는 기타 실시간 또는 임베디드 운영 시스템(예컨대, VxWorks)과 같은 운영 시스템일 수 있다.
시스템(1500)은 I/O 장치를 더 포함할 수 있는 바, 예컨대 장치(1505~1508)는 네트워크 인터페이스 장치(다수의 네트워크 인터페이스 장치)(1505), 선택 가능한 입력 장치(다수의 선택 가능한 입력 장치)(1506) 및 기타 선택 가능한 I/O 장치(다수의 기타 선택 가능한 I/O 장치)(1507)를 포함할 수 있다. 네트워크 인터페이스 장치(1505)는 무선 송수신기 및/또는 네트워크 인터페이스 카드(NIC)를 포함할 수 있다. 무선 송수신기는 WiFi송수신기, 적외선 송수신기, 블루투스 송수신기, WiMax 송수신기, 무선 셀룰러 전화 송수신기, 위성 송수신기(예컨대, 전 지구 위치 파악 시스템(GPS) 송수신기) 또는 기타 무선 주파수(RF) 송수신기 또는 이들의 조합일 수 있다. NIC는 이더넷 카드(Ethernet card)일 수 있다.
입력 장치(다수의 입력 장치)(1506)는 마우스, 터치 패드, 터치 스크린(표시 장치(1504)와 통합될 수 있음), 포인터 장치(예를 들어 스타일러스(stylus)) 및/또는 키보드(예컨대, 물리적 키보드 또는 터치 스크린의 일부분으로서 표시되는 가상 키보드)를 포함할 수 있다. 예컨대, 입력 장치(1506)는 터치 스크린에 연결되는 터치 스크린 컨트롤러를 포함할 수 있다. 터치 스크린과 터치 스크린 컨트롤러는, 예컨대 다양한 터치 감지 기술(전기 용량, 저항, 적외선 및 표면 탄성파 기술을 포함할 수 있는데 이에 한정되지 않음) 중의 임의이 한가지를 사용하거나, 터치 스크린과의 하나 또는 다수의 접속점을 결정하기 위한 기타 근접 센서 어레이 또는 기타 소자를 사용함으로써 접속점,이동 또는 중단을 검출한다.
I/O장치(1507)는 오디오 장치를 포함할 수 있다. 오디오 장치는 스피커 및/또는 마이크를 포함함으로써, 예컨대, 음성 인식, 음성 복제, 디지털 기록 및/또는 전화 기능과 같은 음성 기능에 대한 지지를 향상시킬 수 있다. 기타 I/O장치(1507)는 USB(Universal Serial Bus) 포트(다수의 USB 포트), 병렬 포트(다수의 병렬 포트), 직렬 포트(다수의 직렬 포트), 프린터, 네트워크 인터페이스, 버스 브리지(예컨대, PCI-PCI 브리지), 센서(다수의 센서)(예컨대, 가속도계의 운동 센서, 자이로스코프, 마그네토미터, 광센서, 나침반, 근접 센서 등) 또는 이들의 조합을 더 포함할 수 있다. 장치(1507)는 이미지 처리 서브 시스템(예컨대, 카메라)을 포함할 수 있고, 이미지 처리 서브 시스템은, 예컨대CCD (Charge Coupled Device)또는CMOS (Complementary Metal-Oxide Semiconductor) 광학 센서와 같이 카메라 기능(예컨대, 사진과 비디오 클립 기록)을 향상시키는 광학 센서를 포함할 수 있다. 일부 센서는 센서 허브(미도시)를 통해 인터커넥터(1510)에 연결될 수 있지만, 키보드 또는 열 센서와 같은 기타 장치는 임베디드 컨트롤러(미도시)에 의해 제어될 수 있고, 이는 시스템(1500)의 구체적인 구성 또는 설계에 의해 결정된다.
데이터, 애플리케이션, 하나 또는 다수의 운영 시스템 등과 같은 정보의 영구성 저장을 제공하기 위하여, 대용량 메모리(미도시)는 프로세서(1501)에 연결될 수도 있다. 다양한 실시형태에서, 보다 얇고 보다 가벼운 시스템 설계를 실현하여, 시스템의 응답 능력을 개선하기 위하여, 이러한 대용량 메모리는 SSD (Solid-State Device)를 통해 실현될 수 있다. 그러나, 기타 실시형태에서, 대용량 메모리는 주로HDD(Hard Disk Driver)를 사용하여 실현될 수 있고, 비교적 작은 양의 SSD 메모리는 SSD 캐시로서 사용되어, 정전 이벤트 기간에 맥락 상태 및 기타 이러한 유형의 정보의 비휘발성 저장을 실현함으로써, 시스템 활동이 리부팅될 경우, 신속하게 파워 온을 실현할 수 있다. 또한, 플래시 장치는, 예컨대 직렬 주변 장치 인터페이스(SPI)를 통해 프로세서(1501)에 연결될 수 있다. 이러한 플래시 장치는 시스템 소프트웨어의 비휘발성 저장을 제공할 수 있고, 시스템 소프트웨어는 시스템의 기본 입력/출력 소프트웨어(BIOS) 및 기타 펌웨어를 포함한다.
저장 장치(1508)는 컴퓨터 접속이 가능한 저장 매체(1509)(기계 판독 가능한 저장 매체 또는 컴퓨터 판독 가능한 매체라고도 함)를 포함할 수 있고, 이에는 본 명세서에 기재된 방법 또는 기능 중의 임의의 하나 또는 다수를 실현하는 하나 또는 다수의 명령 세트 또는 소프트웨어(예컨대, 모듈, 유닛 및/또는 로직(1528))가 저장되어 있다. 모듈/유닛/로직(1528)은, 예를 들어, 상술한 바와 같은 검색 엔진, 인코더, 인터랙션 로깅(logging) 모듈과 같은 상기 구성요소 중의 임의의 하나를 의미할 수 있다. 모듈/유닛/로직(1528)은, 데이터 처리 시스템(1500), 메모리(1503)와 프로세서(1501)에 의해 실행되는 동안, 완전히 또는 적어도 부분적으로 메모리(1503) 내 및/또는 프로세서(1501) 내에 남아서, 별도로 기계 접속이 가능한 저장 매체를 구성한다. 모듈/유닛/로직(1528)은, 네트워크를 통해, 네트워크 인터페이스 장치(1505)를 거쳐, 송신되거나 또는 수신될 수 있다.
컴퓨터 판독이 가능한 저장 매체(1509)는 이상에서 설명한 일부 소프트웨어 기능을 영구성으로 저장할 수도 있다. 비록 컴퓨터 판독이 가능한 저장매체(1509)는 예시적인 실시형태에서 단일 매체로 표시되였지만, 용어 “컴퓨터 판독이 가능한 저장 매체”는하나 또는 다수의 명령 세트를 저장하는 단일 매체 또는 다수의 매체(예컨대, 집중식 데이터베이스 또는 분산식 데이터베이스, 및/또는 관련되는 캐시와 서버)를 포함하는 것으로 이해하여야 한다. 또한, 용어 “컴퓨터 판독이 가능한 저장 매체”는 명령 세트를 저장 또는 인코딩할 수 있는 임의의 매체를 포함하는 것으로 이해하여야 하는 바, 여기서, 명령 세트는 기계에 의해 실행되고, 머신으로 하여금 본 발명의 방법 중의 임의의 하나 또는 다수를 실행하도록 한다. 따라서, 용어 “컴퓨터 판독이 가능한 저장 매체”는 솔리드 메모리, 및 광학 매체와 자기 매체, 또는 기타 임의의 비휘발성 기계 판독이 가능한 기록매체를 포함할 수 있지만, 이에 한정되지 않는 것으로 이해하여야 한다.
본 명세서에 기재된 모듈/유닛/로직(1528), 구성요소 및 기타 특징은 분산 하드웨어 구성요소로 실현되거나 또는 하드웨어 구성요소(예를 들어 ASICS, FPGA, DSP또는 유사한 장치)의 기능에 통합될 수 있다. 또한, 모듈/유닛/로직(1528)은 하드웨어 장치 내의 펌웨어 또는 기능 회로로 실현될 수 있다. 또한, 모듈/유닛/로직(1528)은 하드웨어 장치와 소프트웨어 구성요소의 임의의 조합으로 실현될 수 있다.
비록 시스템(1500)은, 데이터 처리 시스템의 여러가지 구성요소를 갖는 것으로 표시되였지만, 이는 어느 한 구체적인 아키텍쳐 또는 구성요소를 서로 연결하는 방식을 표시하려는 것이 아님에 유의하여야 한다. 이는 이러한 유형의 세부 사항은 본 발명의 실시형태와 밀접한 관계가 없기 때문이다. 보다 적은 구성요소를 갖거나 또는 보다 많은 구성요소를 가질 수 있는 네트워크 컴퓨터, 휴대용 컴퓨터, 모바일 폰, 서버 및/또는 기타 데이터 처리 시스템도 본 발명의 실시형태와 함께 사용될 수 있음을 이해할 수 있을 것이다.
전술한 상세한 설명 중의 일부분은 이미 컴퓨터 메모리 내에서 데이터 비트에 대한 연산의 알고리즘과 부호의 표시에 의하여 나타나게 되었다. 이러한 알고리즘 설명과 표시는 데이터 처리 기술분야의 통상의 지식을 가진 자가 사용하는 방법으로서, 가장 효과적으로 이들의 작업 실질을 다른 당업자에게 전달하기 위한 것이다. 여기서, 알고리즘은 일반적으로 희망하는 결과가 전후 일치하도록 하는 동작 시퀀스로 간주된다. 이러한 동작은 물리적인 양에 대해 물리적 제어가 필요한 동작을 의미한다
그러나, 모든 이러한 용어와 유사한 용어는 모두 적당한 물리량과 관련되고, 단지 이러한 양에 적용되는 간편한 표시에 불과함을 명심하여야 한다. 이상의 설명에서 별도로 명확하게 설명하지 아니한, 본 명세서에서 용어(예컨대, 이하 청구항에 기재된 용어)를 이용한 설명은 컴퓨터 시스템 또는 전자계산장치의 동작과 처리를 의미하고, 컴퓨터 시스템 또는 전자 계산 장치는 컴퓨터 시스템의 레지스터와 메모리 내의, 물리(예컨대, 전자)량으로 표시되는 데이터를 제어하고, 상기 데이터를 컴퓨터 시스템 메모리 또는 레지스터 또는 기타 이러한 유형의 정보 메모리, 전송 또는 표시 장치 내의 유사하게 물리량으로 표시되는 기타 데이터로 변환시킨다는 것으로 이해해야 한다.
본 발명의 실시형태는, 또 본 명세서 중의 동작을 실행하는 장비에 관한 것이다. 이러한 컴퓨터 프로그램은 비휘발성 컴퓨터 판독이 가능한 매체에 저장된다. 기계 판독이 가능한 매체는 기계(예컨대, 컴퓨터) 판독이 가능한 형식으로 정보를 저장하는 임의의 수단을 포함한다. 예컨대, 기계 판독이 가능한(예컨대, 컴퓨터 판독이 가능한) 매체는 기계(예컨대, 컴퓨터) 판독이 가능한 저장 매체(예컨대, ROM (Read Only Memory), RAN(Random Access Memeory), 디스크 저장 매체, 광 저장 매체, 플래시 메모리 장치)를 포함한다.
전술한 도면에서 설명한 프로세스 또는 방법은 처리 로직에 의해 실행될 수 있는 바, 여기서, 처리 로직은 하드웨어(예컨대, 회로, 전용 로직 등), 소프트웨어(예컨대, 비휘발성 컴퓨터 판독이 가능한 매체에서 실현됨) 또는 양자의 조합을 포함한다. 비록 프로세스 또는 방법은 앞에서 순차적인 동작에 기초하여 설명하였지만, 상기 동작중의 일부는 다른 순서에 따라 실행될 수 있음을 이해하여야 한다. 또한, 일부 동작은 순차적이 아닌 병렬적으로 실행될 수 있다.
본 발명의 실시형태는 어느 한 특정된 프로그래밍 언어를 참조여 설명한 것이 아니다. 다양한 프로그래밍 언어를 사용하여 본 명세서에서 설명하는 바와 같은, 본 발명의 실시형태의 시사를 실현할 수 있음을 이해할 것이다.
이상의 명세서에서, 이미 본 발명의 구체적인 예시적인 실시형태를 참조하여 그 실시형태를 설명하였다. 첨부된 청구항에서 상세하게 기재한 본 발명의 보다 넓은 사상과 범위를 벗어나지 않고, 이에 대해 여러가지 보정을 진행할 수 있는 것은 자명한 것이다. 따라서, 본 발명의 명세서와 도면은 제한적인 의미가 아닌 설명적인 의미에서 이해하여야 한다.

Claims (24)

  1. 상기 무인 운전 차량에 장착된 카메라를 사용하여 포착한, 상기 무인 운전 차량의 외부환경을 표시하는 이미지에 대해 이미지 분석을 실행하는 단계;
    시점에서 상기 무인 운전 차량 주위의 위치 결정 정보를 취득하는 단계;
    상기 이미지 분석 및 상기 위치 결정 정보에 기초하여, 상기 무인 운전 차량 외부의 시청자와 관련되는 감지를 결정하는 단계;
    상기 시청자와 관련되는 상기 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신하는 단계; 및
    상기 무인 운전 차량 외면에 장착된 표시 장치에 상기 하나 또는 다수의 콘텐츠 아이템으로부터 선택되는 제1 콘텐츠 아이템을 표시하는 단계를 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  2. 제1항에 있어서,
    상기 콘텐츠 서버에 의해 제공되는 콘텐츠 아이템을 교환하도록, 상기 감지를 묘사하는 감지 정보를 다수의 콘텐츠 서버로 전송하는 단계를 더 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  3. 제2항에 있어서,
    상기 감지 정보는, 상기 감지를 묘사하는 하나 또는 다수의 키워드를 포함하고, 상기 콘텐츠 서버는 클라우드 네트워크를 통해 통신 가능하게 상기 무인 운전 차량에 연결되는 클라우드 서버인, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  4. 제1항에 있어서,
    사전에 결정된 랭킹 알고리즘을 사용하여, 상기 감지에 기초하여 상기 콘텐츠 서버로부터 수신된 상기 콘텐츠 아이템에 대해 랭킹을 정하는 단계; 및
    상기 랭킹에 기초하여, 상기 하나 또는 다수의 콘텐츠 아이템으로부터 상기 제1 콘텐츠 아이템을 선택하는 단계를 더 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  5. 제4항에 있어서,
    상기 이미지 분석에 기초하여, 상기 이미지에 의해 표시되는 상기 시청자를 인식하고 결정하되, 상기 제1 콘텐츠 아이템은 결정된 시청자에 기초하여 선택된 것인 단계를 더 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  6. 제2항에 있어서,
    상기 카메라를 사용하여, 상기 시청자의 일부분인 제1 사용자의, 상기 제1 콘텐츠 아이템과 관련되는 사용자 인터랙션(interaction)을 표시하는 제2 이미지를 포착하는 단계;
    상기 카메라에 의해 포착된, 상기 제1 사용자의 사용자 이미지를 포함하는 상기 제2 이미지에 기초하여, 상기 제1 사용자와 관련되는 사용자 프로필에 대해 컴파일링(compiling)하는 단계;
    제2 콘텐츠 아이템을 교환하도록, 상기 사용자 인터랙션과 상기 사용자 프로필을 상기 하나 또는 다수의 콘텐츠 서버로 전송하는 단계; 및
    상기 표시 장치에 상기 제2 콘텐츠 아이템을 표시하는 단계를 더 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  7. 제6항에 있어서,
    상기 하나 또는 다수의 콘텐츠 서버 외에도, 상기 사용자 인터랙션과 상기 사용자 프로필을 다른 다수의 콘텐츠 서버로 전송하는 단계;
    상기 사용자 인터랙션과 상기 사용자 프로필을 수신한 상기 콘텐츠 서버 중의 적어도 일부로부터 제2 세트 콘텐츠 아이템을 수신하는 단계; 및
    사전에 결정된 랭킹 알고리즘을 사용하여,상기 제2 세트 콘텐츠 아이템에 대해 랭킹을 정하되, 상기 제2 콘텐츠는 상기 랭킹에 기초하여 선택된 것인 단계를 더 포함하는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  8. 제1항에 있어서,
    상기 표시 장치는, 상기 무인 운전 차량의, 상기 카메라가 장착되어 있는 외면과 동일한 외면에 장착되는, 콘텐츠를 무인 운전 차량으로 전송하기 위한 컴퓨터 실현 방법.
  9. 명령이 저장되여 있는 비휘발성 기계 판독 가능 매체에 있어서,
    프로세서에 의해 상기 명령이 실행될 경우, 상기 프로세서로 하여금, 무인 운전 차량에 콘텐츠를 제공하는 동작을 실행하도록 하되,
    상기 동작은,
    상기 무인 운전 차량에 장착된 카메라를 사용하여 포착한, 상기 무인 운전 차량의 외부환경을 나타내는 이미지에 대해 이미지 분석을 실행하는 동작;
    시점에서 상기 무인 운전 차량 주위의 위치 결정 정보를 취득하는 동작;
    상기 이미지 분석 및 상기 위치 결정 정보에 기초하여, 상기 무인 운전 차량 외부의 시청자와 관련되는 감지를 결정하는 동작;
    상기 시청자와 관련되는 상기 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신하는 동작; 및
    상기 무인 운전 차량 외면에 장착된 표시 장치에 상기 하나 또는 다수의 콘텐츠 아이템으로부터 선택되는 제1 콘텐츠 아이템을 표시하는 동작을 포함하는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  10. 제9항에 있어서,
    상기 동작은,
    상기 콘텐츠 서버에 의해 제공되는 콘텐츠 아이템을 교환하도록, 상기 감지를 묘사하는 감지 정보를 다수의 콘텐츠 서버로 전송하는 동작을 더 포함하는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  11. 제10항에 있어서,
    상기 감지 정보는, 상기 감지를 묘사하는 하나 또는 다수의 키워드를 포함하고, 상기 콘텐츠 서버는 클라우드 네트워크를 통해 통신 가능하게 상기 무인 운전 차량에 연결되는 클라우드 서버인, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  12. 제9항에 있어서,
    상기 동작은,
    사전에 결정된 랭킹 알고리즘을 사용하여, 상기 감지에 기초하여 상기 콘텐츠 서버로부터 수신된 상기 콘텐츠 아이템에 대해 랭킹을 정하는 동작; 및
    상기 랭킹에 기초하여, 상기 하나 또는 다수의 콘텐츠 아이템으로부터 상기 제1 콘텐츠 아이템을 선택하는 동작을 더 포함하는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  13. 제12항에 있어서,
    상기 동작은,
    상기 이미지 분석에 기초하여, 상기 이미지에 의해 표시되는 상기 시청자를 인식하고 결정하되, 상기 제1 콘텐츠 아이템은 결정된 시청자에 기초하여 선택된 것인 동작을 더 포함하는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  14. 제10항에 있어서,
    상기 동작은,
    상기 시청자의 일부분인 제1 사용자의, 상기 제1 콘텐츠 아이템과 관련되는 사용자 인터랙션을 표시하는 제2 이미지를 포착하는 동작;
    상기 카메라에 의해 포착된, 상기 제1 사용자의 사용자 이미지를 포함하는 상기 제2 이미지에 기초하여, 상기 제1 사용자와 관련되는 사용자 프로필에 대해 컴파일링하는 동작;
    제2 콘텐츠 아이템을 교환하도록, 상기 사용자 인터랙션과 상기 사용자 프로필을 상기 하나 또는 다수의 콘텐츠 서버로 전송하는 동작; 및
    상기 표시 장치에 상기 제2 콘텐츠 아이템을 표시하는 동작을 더 포함하는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  15. 제14항에 있어서,
    상기 동작은,
    상기 하나 또는 다수의 콘텐츠 서버 외에도, 상기 사용자 인터랙션과 상기 사용자 프로필을다른 다수의 콘텐츠 서버로 전송하는 동작;
    상기 사용자 인터랙션과 상기 사용자 프로필을 수신한 상기 콘텐츠 서버 중의 적어도 일부로부터 제2 세트 콘텐츠 아이템을 수신하는 동작; 및
    사전에 결정된 랭킹 알고리즘을 사용하여, 상기 제2 세트 콘텐츠 아이템에 대해 랭킹을 정하되, 상기 제2 콘텐츠는 상기 랭킹에 기초하여 선택된 것인 동작을 더 포함하는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  16. 제9항에 있어서,
    상기 표시 장치는, 상기 무인 운전 차량의 상기 카메라가 장착되어 있는 외면과 동일한 외면에 장착되는, 명령이 저장되여 있는 비휘발성 기계 판독이 가능한 매체.
  17. 프로세서; 및
    상기 프로세서에 연결되고, 명령을 저장하기 위한 메모리,를 포함하는 데이터 처리 시스템에 있어서,
    상기 프로세서에 의해 상기 명령이 실행될 경우, 상기 프로세서로 하여금 무인 운전 차량에서 콘텐츠를 제공하는 동작을 실행하도록 하되,
    상기 동작은,
    상기 무인 운전 차량에 장착된 카메라를 사용하여 포착한, 상기 무인 운전 차량의 외부환경을 표시하는 이미지에 대해 이미지 분석을 실행하는 동작;
    시점에서 상기 무인 운전 차량 주위의 위치 결정 정보를 취득하는 동작;
    상기 이미지 분석과 상기 위치 결정 정보에 기초하여, 상기 무인 운전 차량 외부의 시청자와 관련되는 감지를 결정하는 동작;
    상기 시청자와 관련되는 상기 감지에 응답하여, 네트워크를 통해 하나 또는 다수의 콘텐츠 서버로부터 하나 또는 다수의 콘텐츠 아이템을 수신하는 동작; 및
    상기 무인 운전 차량 외면에 장착된 표시 장치에 상기 하나 또는 다수의 콘텐츠 아이템으로부터 선택되는 제1 콘텐츠 아이템을 표시하는 동작을 포함하는 데이터 처리 시스템.
  18. 제17항에 있어서,
    상기 동작은,
    상기 콘텐츠 서버에 의해 제공되는 콘텐츠 아이템을 교환하도록, 상기 감지를 묘사하는 감지 정보를 다수의 콘텐츠 서버로 전송하는 동작을 더 포함하는 데이터 처리 시스템.
  19. 제18항에 있어서,
    상기 감지 정보는, 상기 감지를 묘사하는 하나 또는 다수의 키워드를 포함하고, 상기 콘텐츠 서버는 클라우드 네트워크를 통해 통신 가능하게 상기 무인 운전 차량에 연결되는 클라우드 서버인 데이터 처리 시스템.
  20. 제17항에 있어서,
    상기 동작은,
    사전에 결정된 랭킹 알고리즘을 사용하여, 상기 감지에 기초하여 상기 콘텐츠 서버로부터 수신된 상기 콘텐츠 아이템에 대해 랭킹을 정하는 동작; 및
    상기 랭킹에 기초하여, 상기 하나 또는 다수의 콘텐츠 아이템에서 상기 제1 콘텐츠 아이템을 선택하는 동작을 더 포함하는 데이터 처리 시스템.
  21. 제20항에 있어서,
    상기 동작은,
    상기 이미지 분석에 기초하여, 상기 이미지에 의해 표시되는 상기 시청자를 인식하고 결정하되, 상기 제1 콘텐츠 아이템은 결정된 시청자에 기초하여 선택된 것인 동작을 더 포함하는 데이터 처리 시스템.
  22. 제18항에 있어서,
    상기 동작은,
    상기 시청자의 일부분인 제1 사용자의, 상기 제1 콘텐츠 아이템과 관련되는 사용자 인터랙션을 표시하는 제2 이미지를 포착하는 동작;
    상기 카메라에 의해 포착된, 상기 제1 사용자의 사용자 이미지를 포함하는 상기 제2 이미지에 기초하여, 상기 제1 사용자와 관련되는 사용자 프로필에 대해 컴파일링하는 동작;
    제2 콘텐츠 아이템을 교환하도록, 상기 사용자 인터랙션과 상기 사용자 프로필을 상기 하나 또는 다수의 콘텐츠 서버로 전송하는 동작; 및
    상기 표시 장치에 상기 제2 콘텐츠 아이템을 표시하는 동작을 더 포함하는 데이터 처리 시스템.
  23. 제22항에 있어서,
    상기 동작은,
    상기 하나 또는 다수의 콘텐츠 서버 외에도, 상기 사용자 인터랙션과 상기 사용자 프로필을, 다른 다수의 콘텐츠 서버로 전송하는 동작;
    상기 사용자 인터랙션과 상기 사용자 프로필을 수신한 상기 콘텐츠 서버 중의 적어도 일부로부터 제2 세트 콘텐츠 아이템을 수신하는 동작; 및
    사전에 결정된 랭킹 알고리즘을 사용하여, 상기 제2 세트 콘텐츠 아이템에 대해 랭킹을 정하되, 상기 제2 콘텐츠는 상기 랭킹에 기초하여 선택된 것인 동작을 더 포함하는 데이터 처리 시스템.
  24. 제17항에 있어서,
    상기 표시 장치는, 상기 무인 운전 차량의 상기 카메라가 장착되어 있는 외면과 동일한 외면에 장착되는, 데이터 처리 시스템.
KR1020160161051A 2016-06-30 2016-11-30 실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법 KR101932003B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/199,378 US10015537B2 (en) 2016-06-30 2016-06-30 System and method for providing content in autonomous vehicles based on perception dynamically determined at real-time
US15/199,378 2016-06-30

Publications (2)

Publication Number Publication Date
KR20180003393A true KR20180003393A (ko) 2018-01-09
KR101932003B1 KR101932003B1 (ko) 2019-03-20

Family

ID=57482200

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160161051A KR101932003B1 (ko) 2016-06-30 2016-11-30 실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법

Country Status (5)

Country Link
US (2) US10015537B2 (ko)
EP (1) EP3264366A1 (ko)
JP (2) JP6494589B2 (ko)
KR (1) KR101932003B1 (ko)
CN (1) CN107563267B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210005415A (ko) * 2019-07-04 2021-01-14 한양대학교 에리카산학협력단 자율주행차량의 커스터마이징 제공 시스템, 이를 위한 차량 커스터마이징 서버

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331122B2 (en) * 2017-04-13 2019-06-25 Alexander Terzian Autonomous self-driving vehicle with advertising platform
US11361594B1 (en) * 2017-05-17 2022-06-14 Wells Fargo Bank, N.A. Utilization of free time in autonomous vehicles
KR102340665B1 (ko) * 2017-09-29 2021-12-16 애플 인크. 프라이버시 스크린
JP6881242B2 (ja) * 2017-11-02 2021-06-02 トヨタ自動車株式会社 移動体及び広告提供方法
US20190156690A1 (en) * 2017-11-20 2019-05-23 Medical Realities Limited Virtual reality system for surgical training
US10303045B1 (en) * 2017-12-20 2019-05-28 Micron Technology, Inc. Control of display device for autonomous vehicle
US10884422B2 (en) * 2018-04-16 2021-01-05 Baidu Usa Llc Method for generating trajectories for autonomous driving vehicles (ADVS)
US10816992B2 (en) * 2018-04-17 2020-10-27 Baidu Usa Llc Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs)
US11284051B2 (en) 2018-07-30 2022-03-22 Pony Ai Inc. Systems and methods for autonomous vehicle interactive content presentation
US10816979B2 (en) * 2018-08-24 2020-10-27 Baidu Usa Llc Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras
CN109116720A (zh) 2018-08-31 2019-01-01 百度在线网络技术(北京)有限公司 自动驾驶车辆的远程控制方法、装置和服务器
CN109345512A (zh) * 2018-09-12 2019-02-15 百度在线网络技术(北京)有限公司 汽车图像的处理方法、装置及可读存储介质
EP3627172B1 (de) 2018-09-18 2022-02-09 Siemens Healthcare GmbH Verfahren und gerät für das mrt-schicht-multiplexing
US11188765B2 (en) * 2018-12-04 2021-11-30 Here Global B.V. Method and apparatus for providing real time feature triangulation
JP7196683B2 (ja) * 2019-02-25 2022-12-27 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
JP2020144332A (ja) * 2019-03-08 2020-09-10 トヨタ自動車株式会社 仮想現実システムおよび仮想現実方法
CN110533944A (zh) * 2019-08-21 2019-12-03 西安华运天成通讯科技有限公司 基于5g的无人驾驶汽车的通讯方法及其系统
US11027650B2 (en) 2019-11-07 2021-06-08 Nio Usa, Inc. Method and apparatus for improving operation of a motor vehicle
CN113448322A (zh) * 2020-03-26 2021-09-28 宝马股份公司 用于车辆的远程操作方法和系统以及存储介质和电子设备
CN112291622B (zh) * 2020-10-30 2022-05-27 中国建设银行股份有限公司 用户的喜好上网时间段的确定方法及装置
US11811836B2 (en) 2021-09-27 2023-11-07 Gm Cruise Holdings Llc Video communications system for rideshare service vehicle
CN114298772A (zh) * 2021-12-30 2022-04-08 阿波罗智联(北京)科技有限公司 信息展示方法、装置、设备以及存储介质
US11836874B2 (en) 2022-03-24 2023-12-05 Gm Cruise Holdings Llc Augmented in-vehicle experiences

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152719A (ja) * 2007-12-19 2009-07-09 Panasonic Corp カメラを用いたお勧め番組情報提供装置
JP2010237411A (ja) * 2009-03-31 2010-10-21 Denso It Laboratory Inc 広告表示装置、システム、方法及びプログラム
KR20130089818A (ko) * 2012-01-04 2013-08-13 현대모비스 주식회사 클라우드 컴퓨팅 시스템용 클라우드 서버와 차량 단말 및 클라우드 컴퓨팅 서비스 제공 방법
KR20140000032A (ko) * 2012-06-22 2014-01-02 에스케이플래닛 주식회사 차량 외부 환경에 따른 컨텐츠 추천 시스템 및 방법
KR20150108817A (ko) * 2013-01-14 2015-09-30 인텔 코포레이션 차량에서의 감각 체험 생성
JP2016065938A (ja) * 2014-09-24 2016-04-28 エイディシーテクノロジー株式会社 広告表示装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073321A (ja) * 2000-04-18 2002-03-12 Fuji Photo Film Co Ltd 画像表示方法
WO2002021839A2 (en) * 2000-09-06 2002-03-14 Cachestream Corporation Multiple advertising
JP2003241698A (ja) * 2002-02-20 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> 位置に応じて表示内容を変更する移動広告システムおよび移動広告方法
DE10323915A1 (de) 2003-05-23 2005-02-03 Daimlerchrysler Ag Kamerabasierte Positionserkennung für ein Straßenfahrzeug
US20060143082A1 (en) * 2004-12-24 2006-06-29 Peter Ebert Advertisement system and method
JP2006235311A (ja) * 2005-02-25 2006-09-07 Seiko Epson Corp 情報出力システム、情報出力装置、情報出力方法、情報出力プログラム、および記録媒体
US7899583B2 (en) * 2005-04-12 2011-03-01 Ehud Mendelson System and method of detecting and navigating to empty parking spaces
US20120069136A1 (en) * 2006-11-10 2012-03-22 Earnest Smith Methods and systems of displaying advertisement or other information and content via non-mobile platforms
WO2010143388A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 コンテンツ再生装置、コンテンツ再生方法、プログラム、及び集積回路
US20120098977A1 (en) * 2010-10-20 2012-04-26 Grant Edward Striemer Article Utilization
US9098529B1 (en) 2011-05-25 2015-08-04 Google Inc. Determining content for delivery based on imagery
US20130042261A1 (en) * 2011-08-10 2013-02-14 Bank Of America Electronic video media e-wallet application
US20130138508A1 (en) * 2011-11-30 2013-05-30 Walter S. Gee Method and System for Media Content Delivery On a Display Device
US9235941B2 (en) * 2012-03-14 2016-01-12 Autoconnect Holdings Llc Simultaneous video streaming across multiple channels
US20140309863A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Parental control over vehicle features and child alert system
US9476970B1 (en) 2012-03-19 2016-10-25 Google Inc. Camera based localization
CA2786205A1 (en) * 2012-08-17 2014-02-17 Modooh Inc. Information display system for transit vehicles
JP6028457B2 (ja) * 2012-08-24 2016-11-16 ソニー株式会社 端末装置、サーバ及びプログラム
JP2014061786A (ja) * 2012-09-21 2014-04-10 Sony Corp 移動体およびプログラム
US9043072B1 (en) 2013-04-04 2015-05-26 Google Inc. Methods and systems for correcting an estimated heading using a map
US9276855B1 (en) 2013-07-16 2016-03-01 Google Inc. Systems and methods for providing navigation filters
US20150025975A1 (en) * 2013-07-22 2015-01-22 Adam Wallach Personal Expression and Advertising Display for a Vehicle
US20150094897A1 (en) * 2013-09-30 2015-04-02 Ford Global Technologies, Llc Autonomous vehicle entertainment system
US20150220991A1 (en) * 2014-02-05 2015-08-06 Harman International Industries, Incorporated External messaging in the automotive environment
JP2015225450A (ja) 2014-05-27 2015-12-14 村田機械株式会社 自律走行車、及び自律走行車における物体認識方法
JP6453579B2 (ja) 2014-08-08 2019-01-16 株式会社ジャパンディスプレイ 有機el表示装置
CN104267721A (zh) * 2014-08-29 2015-01-07 陈业军 一种智能汽车的无人驾驶系统
US9563201B1 (en) * 2014-10-31 2017-02-07 State Farm Mutual Automobile Insurance Company Feedback to facilitate control of unmanned aerial vehicles (UAVs)
EP3035315B1 (en) 2014-12-15 2023-06-21 Volvo Car Corporation Information retrieval arrangement
US20150348112A1 (en) * 2015-08-12 2015-12-03 Madhusoodhan Ramanujam Providing Advertisements to Autonomous Vehicles
US9701315B2 (en) * 2015-11-13 2017-07-11 At&T Intellectual Property I, L.P. Customized in-vehicle display information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152719A (ja) * 2007-12-19 2009-07-09 Panasonic Corp カメラを用いたお勧め番組情報提供装置
JP2010237411A (ja) * 2009-03-31 2010-10-21 Denso It Laboratory Inc 広告表示装置、システム、方法及びプログラム
KR20130089818A (ko) * 2012-01-04 2013-08-13 현대모비스 주식회사 클라우드 컴퓨팅 시스템용 클라우드 서버와 차량 단말 및 클라우드 컴퓨팅 서비스 제공 방법
KR20140000032A (ko) * 2012-06-22 2014-01-02 에스케이플래닛 주식회사 차량 외부 환경에 따른 컨텐츠 추천 시스템 및 방법
KR20150108817A (ko) * 2013-01-14 2015-09-30 인텔 코포레이션 차량에서의 감각 체험 생성
JP2016065938A (ja) * 2014-09-24 2016-04-28 エイディシーテクノロジー株式会社 広告表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210005415A (ko) * 2019-07-04 2021-01-14 한양대학교 에리카산학협력단 자율주행차량의 커스터마이징 제공 시스템, 이를 위한 차량 커스터마이징 서버

Also Published As

Publication number Publication date
JP2018005880A (ja) 2018-01-11
US10511878B2 (en) 2019-12-17
EP3264366A1 (en) 2018-01-03
CN107563267B (zh) 2021-03-02
JP2019023879A (ja) 2019-02-14
US10015537B2 (en) 2018-07-03
US20180278982A1 (en) 2018-09-27
US20180007414A1 (en) 2018-01-04
CN107563267A (zh) 2018-01-09
KR101932003B1 (ko) 2019-03-20
JP6494589B2 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
KR101932003B1 (ko) 실시간 동적으로 결정된 감지에 기초하여 무인 운전 차량에서 콘텐츠를 제공하는 시스템 및 방법
KR102043588B1 (ko) 자율 주행 차량 내에서 미디어 콘텐츠를 표시하기 위한 시스템 및 방법
JP6456902B2 (ja) リアルタイム交通情報に基づいて自律走行車においてコンテンツを提供するシステムおよび方法
JP6310531B2 (ja) 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法
KR102096726B1 (ko) 자율 주행 차량의 운행을 위한 제어 오류 보정 계획 방법
JP6606532B2 (ja) 自律走行車のために車両群を管理する方法及びシステム
CN107577227B (zh) 操作无人驾驶车辆的方法、装置和数据处理系统
US20200363216A1 (en) Localizing transportation requests utilizing an image based transportation request interface
KR102139426B1 (ko) 자율 주행 차량을 위한 차량 위치점 전달 방법
JP2018531385A6 (ja) 自律走行車を運行させるための制御エラー補正計画方法
EP4019898A1 (en) Method, apparatus, and system for capturing an image sequence for a visual positioning service request

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant