CN107315988B - 用于在无人驾驶车辆中呈现媒体内容的系统和方法 - Google Patents
用于在无人驾驶车辆中呈现媒体内容的系统和方法 Download PDFInfo
- Publication number
- CN107315988B CN107315988B CN201611001907.5A CN201611001907A CN107315988B CN 107315988 B CN107315988 B CN 107315988B CN 201611001907 A CN201611001907 A CN 201611001907A CN 107315988 B CN107315988 B CN 107315988B
- Authority
- CN
- China
- Prior art keywords
- image
- unmanned vehicle
- content
- user
- physical object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 46
- 238000012545 processing Methods 0.000 claims description 49
- 230000003993 interaction Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000004044 response Effects 0.000 description 14
- 230000003190 augmentative effect Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 238000009877 rendering Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 229910000078 germane Inorganic materials 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/2866—Architectures; Arrangements
- H04L67/30—Profiles
- H04L67/306—User profiles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/214—Specialised server platform, e.g. server located in an airplane, hotel, hospital
- H04N21/2143—Specialised server platform, e.g. server located in an airplane, hotel, hospital located in a single building, e.g. hotel, hospital or museum
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/92—Driver displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
Abstract
在一个实施方案中,接收无人驾驶车辆外部的物理对象的第一图像,其中所述第一图像是由附接到无人驾驶车辆的图像传感器捕获的。对所述第一图像执行图像识别以导出与所述物理对象相关的一个或多个关键字。基于所述一个或多个关键字识别一个或多个内容项目的列表。将选自所述内容项目列表的第一内容项目填加到所述第一图像上以生成第二图像。在无人驾驶车辆内的显示装置上显示第二图像。
Description
技术领域
本发明的实施方案总体涉及在无人驾驶车辆中的内容选择和呈现。更具体地,本发明的实施方案涉及在无人驾驶车辆中选择并且交互地显示填加有外部物理视图的媒体内容。
背景技术
无人驾驶车辆是指可以被配置成处于自主模式下的车辆,在所述自主模式下车辆在极少或没有来自驾驶员的输入的情况下导航通过环境。无人驾驶车辆内部的旅行场景已成为内容递送的独特的机会。乘坐无人驾驶汽车旅行的人不再需要专注于驾驶或留意周围的交通,而是花费更多的时间来享受媒体内容。
现有的内容递送方法,诸如显示内容和搜索内容,不能够完全利用无人驾驶汽车的独特旅行场景。首先,无人驾驶车辆通常配备有图像识别组件,所述图像识别组件帮助无人驾驶车辆识别对象,诸如标志和障碍物。此类动态识别的视觉对象对无人驾驶车辆行车场景来说是固有的。然而,常规的内容递送并不能够容易地使用它们。此外,在无人驾驶车辆中对内容进行渲染的格式本质上不同于显示内容或搜索内容,在显示内容或搜索内容中用户把注意力集中在与某些预定义的屏幕区域进行交互上。
先前的尝试专注于如何沿路线选择内容,而它们并未特别地将建立内容递送系统(该内容递送系统被定制用于无人驾驶体验)作为目的。尽管使用了如兴趣点(POI)的信息来选择内容,但是现有的提议并未特别利用无人驾驶车辆的独特信息,诸如摄像机捕获的图片和传感器输入。传统的方法(诸如显示内容和搜索内容)以及其渲染格式并不是针对无人驾驶车辆中的旅行的环境而设计的。因此,在以传统格式向无人驾驶车辆内的乘客递送内容的场景下,它们的效果不是最佳的。
发明内容
本申请的目的在于提供一种在无人驾驶车辆中呈现内容的计算机实现方法,在无人驾驶车辆中呈现内容的装置以及数据处理系统。
根据一个方面,提供了一种用于在无人驾驶车辆中呈现内容的计算机实现方法,该方法可包括:接收无人驾驶车辆外部的物理对象的第一图像,其中第一图像是由附接到无人驾驶车辆的图像传感器捕获的;对第一图像执行图像识别以导出与物理对象相关的一个或多个关键字;基于一个或多个关键字识别一个或多个内容项目的列表;将选自内容项目列表的第一内容项目填加到第一图像上以生成第二图像;以及在无人驾驶车辆内的显示装置上显示所述第二图像。
根据另一个方面,提供了一种在无人驾驶车辆中呈现内容的装置,可包括:接收无人驾驶车辆外部的物理对象的第一图像的装置,其中第一图像是由附接到无人驾驶车辆的图像传感器捕获的;对第一图像执行图像识别以导出与物理对象相关的一个或多个关键字的装置;基于一个或多个关键字识别一个或多个内容项目的列表的装置;将选自内容项目列表的第一内容项目填加到第一图像上以生成第二图像的装置;以及在无人驾驶车辆内的显示装置上显示所述第二图像的装置。
根据又一个方面,提供了一种数据处理系统,可包括根据本申请实施方案的在无人驾驶车辆中呈现内容的装置。
附图说明
本发明的实施方案在附图的各图中以示例而非限制的方式示出,附图中相似的附图标记指示相似的元件。
图1A是示出根据本发明一个实施方案的一个或多个无人驾驶车辆的框图,所述一个或多个无人驾驶车辆中的每一个均包括内容呈现设备。
图1B是示出根据本发明一个实施方案的用于无人驾驶车辆的对内容进行渲染的处理流程的图。
图2是示出根据本发明一个实施方案的图像处理模块的框图。
图3是示出根据本发明一个实施方案的内容选择引擎的框图。
图4是示出根据本发明一个实施方案的内容呈现模块的框图。
图5是示出根据本发明一个实施方案的选择并呈现内容项目的过程的流程图。
图6是示出根据本发明另一个实施方案的选择并呈现内容项目的过程的流程图。
图7是示出根据一个实施方案的车载内容呈现设备的框图。
具体实施方式
将参考以下所讨论的细节来描述本发明的各种实施方案和方面,附图将示出各种实施方案。以下描述和附图是对本发明的说明,而不应当解释为限制本发明。描述了许多具体细节以提供对本发明各种实施方案的全面理解。然而,在某些实例中,为了提供对本发明实施方案的简洁讨论,并未描述众所周知的或常规的细节。
在本说明书中对“一个实施方案”或“一实施方案”的提及意味着结合该实施方案所描述的具体特征、结构或特性可包括在本发明的至少一个实施方案中。短语“在一个实施方案中”在本说明书中各个地方的出现不必全部是指同一实施方案。
本发明的实施方案通过以下方式克服了常规系统的限制:优选地以实时方式选择与无人驾驶车辆外部的物理对象相关的内容项目,并且以增强乘员对物理对象的观看的方式向车辆的成员呈现所述内容项目。
在一个实施方案中,车载设备包括图像处理模块、内容选择引擎、内容渲染模块以及内容呈现模块。图像处理模块从安装在车辆上的摄像机接收图像并且执行图像识别过程以便从所述图像中识别外部物理对象。图像处理模块随后确定与所识别的物理对象相关的一个或多个关键字或兴趣点(POI)。内容选择引擎基于所述关键字搜索并识别一个或多个内容项目。随后对这些内容项目进行排序并且内容选择引擎选择所排序的内容项目中的至少一个以供呈现。内容渲染模块例如通过将所选择的内容项目填加到图像上以产生增强的图像来进行渲染。内容呈现模块向车辆乘员呈现所选择的内容项目,所述内容项目在相对于物理对象的视图的位置处增强乘员对物理对象的观看。
将所选择的内容项目叠加到图像上以变成增强的图像。随后,在显示装置上显示增强的图像。显示装置可被配置成表现为车辆的普通窗口。当用户观看显示装置时,物理对象以虚拟现实方式显示为虚拟对象,好像用户通过普通窗口观看物理对象一样。显示装置可实时显示类似或模拟增强现实(AR)环境的增强图像流(例如,增强视频)。显示装置可包括交互式触摸屏,以使得乘员可通过以下方式对内容项目作出响应:例如,完成查看所述内容项目、采取由所述内容项目建议的动作、在所述内容项目提供的选项中作出选择或立即删除所述内容项目。
在一个实施方案中,接收在无人驾驶车辆外部的物理对象的第一图像,其中所述第一图像是由附接到无人驾驶车辆的图像传感器捕获的。第一图像可以是由摄像机实时捕获的正在进行的视频流的一部分。对第一图像执行图像识别以导出与物理对象相关的一个或多个关键字。基于所述一个或多个关键字识别一个或多个内容项目的列表。将选自内容项目列表的第一内容项目填加到第一图像上以生成第二图像。在无人驾驶车辆内的显示装置上显示第二图像。
图1A是示出根据本发明一个实施方案的一个或多个无人驾驶车辆的框图,所述一个或多个无人驾驶车辆中的每一个均包括内容呈现设备。图1A中示出N个无人驾驶车辆中的两个,即106和106N,但是更少或更多的无人驾驶车辆也是适用的。出于说明的目的,主要参考无人驾驶车辆106。无人驾驶车辆,也称为无人驾驶汽车、自动驾驶汽车或机器人汽车,是能够在不具有人类输入或仅具有最少人类输入的情况下感测其环境并进行导航的车辆。无人驾驶车辆使用传感器系统130探测周围环境,所述传感器系统130可包括雷达、LIDAR(基于雷达原理的距离探测,但是使用来自激光器的光)、GPS、测距法(使用运动传感器数据来估算随时间的位置变化)以及计算机视觉(例如,具有各种机器学习和模式识别软件的摄像机)。
装配在无人驾驶车辆106上的内容呈现设备108是车载内容呈现装置,能够以有吸引力的方式向无人驾驶车辆106的乘员呈现内容项目。乘员可以是无人驾驶车辆的乘客或负责控制车辆的自动驾驶功能的“驾驶员”。内容呈现设备108(也称为内容递送系统或模块)包括图像处理模块110、内容选择引擎112、内容渲染模块113以及内容呈现模块114。图像处理模块110被配置成接收由安装在无人驾驶车辆106上的摄像机捕获的车辆周围环境的图像,识别所述图像中的物理对象,并且提取与所述物理对象相关的一个或多个关键字。内容选择引擎112从存储在内容存储装置120中的可用内容项目中选择用于通过内容呈现模块114呈现给乘员的一个或多个内容项目。内容渲染模块113将例如通过以下方式对所述内容进行渲染:将选自内容数据库140的内容项目填加到由图像处理模块110处理过的图像上。根据本发明的各种实施方案,内容呈现模块114将所述内容项目呈现给乘员。下文将参考图2、图3和图4更详细地描述内容呈现设备108的这些组件中的每一个。
图像可以是由摄像机实时捕获的正在进行的视频流的一部分。显示装置可实时显示类似或模拟增强现实环境的增强图像流(例如,增强视频)。增强现实(AR)是对物理的现实世界环境的即时直接或间接的显示,所述环境的要素由计算机生成的感觉输入(诸如声音、视频、图形或GPS数据)来填加(或补充)。这涉及称为介导现实的更一般的概念,其中通过计算机来修改(甚至有可能减少而不是增强)现实视图。因此,所述技术通过增强个人当前对现实的感知来起作用。相比之下,虚拟现实利用模拟的世界来代替现实世界。增强通常是实时的并且是处于具有环境要素的语义情境下的,诸如在比赛期间TV上的体育得分。借助于先进的AR技术(例如,添加计算机视觉和对象识别),关于用户周围的现实世界的信息变成交互的且数字化可操纵的。关于环境和其对象的信息覆盖在现实世界上。这种信息可以是虚拟的或现实的,例如看到其他感测到或测量到的现实信息,诸如以与它们在空间中的实际位置准确对准的方式覆盖的电磁无线电波。
一个或多个无人驾驶车辆通过网络104连接到服务器102。网络104可以是任何类型的移动网络或无线网络,诸如无线局域网(WLAN)、诸如互联网、卫星访问网络、任何蜂窝访问网络(诸如各种2G、3G和4G蜂窝网络)的广域网(WAN),或其任何组合。
服务器102包括用于存储内容项目的内容存储装置120以及用于存储不同用户的用户简档的用户简档存储装置122。可以分别从服务器102的内容存储装置120和用户简档存储装置上传内容数据库140和乘坐无人驾驶车辆的用户的用户简档132。服务器102还至少包括处理器和用于存储将由处理器执行的数据和指令的存储器,它们两个在图1A中未示出。无人驾驶车辆106和106N中的每一个与服务器102通信以检索内容项目和用户简档。无人驾驶车辆106和106N还可以向服务器102发送更新内容(例如,用户交互)以保持用户简档为最新的。例如,服务器102可以调用简档编译器(未示出)以便周期性地分析正在收集的用户交互并且编译或更新相关联的用户简档。在一个实施方案中,用户简档在无人驾驶车辆106中本地地存储或高速缓存。这可以是以下情况:无人驾驶车辆106可能并不总是具有对服务器102的网络访问权,因此对于无人驾驶车辆106来说将用户简档加载到其本地存储装置中是有利的。
内容存储装置120和用户简档存储装置122可以以各种形式存储和组织数据。数据可以存储为位于非易失性存储装置(例如,持久性存储装置,诸如硬盘)中的常规文件。可替代地,数据可以仅存在于服务器102的存储器中,在系统启动期间由服务器102从另一位置检索并加载到所述存储器中。数据也可以存储在一个或多个数据库中,以借助于使用例如SQL(结构化查询语言)(所述SQL由特定数据库管理系统支持)的应用来支持复杂的数据查询。本领域的普通技术人员知晓在多个情况下选择何种形式来在内容存储装置120和用户简档存储装置122中存储和组织数据。
存储在内容存储装置120中的内容项目的示例包括但不限于:信息媒体或文本内容、用于娱乐的短媒体剪辑、新闻项目、基于订阅的任何内容项目等。在一个实施方案中,至少一些内容项目能够交互式地呈现,从而允许内容项目观看者对所述内容项目作出响应。来自观看者的此类响应包括:例如,完全完成观看内容项目、采取由所述内容项目建议的动作、提供电话号码或电子邮件地址以向其转发所述内容项目、提供指示观看者对未来接收其他类似内容项目的感兴趣程度的评级、由于无论什么原因删除所述内容项目等。
用户简档中所包括的信息可包括但不限于:用户过去的关于用户希望接收的内容项目的行为模式和/或偏好、乘员的统计信息等。用户交互的历史(例如,历史日志)随后可用于内容选择,其中用户的交互历史可以由数据收集系统(未示出)来收集。
应注意,仅出于说明的目的描述如图1A所示的配置。也可存在其他实现方式。根据另一个实施方案,一些操作可以在服务器102而不是无人驾驶车辆106处执行。例如,图像处理模块110和/或内容选择引擎112可以保存在服务器102处。无人驾驶车辆106可以简单地将所捕获的图像传输到服务器102以便在其中进行处理和识别。可以在服务器102处对内容项目列表进行识别。所选择的内容项目可以被传输回到无人驾驶车辆106以便进行填加。可替代地,内容渲染模块113也可保存在服务器102处,用于将所选择的内容项目填加到图像上并且将增强的图像返回到无人驾驶车辆106以供呈现。也可存在其他配置。
图1B是示出根据本发明一个实施方案的用于无人驾驶车辆的对内容进行渲染的处理流程的图。过程180可以由图1A的无人驾驶车辆106执行。参考图1B,无人驾驶车辆的传感器系统130(例如,一个或多个摄像机)捕获物理对象182的图像184。物理对象182可以是路边的建筑物、标志(例如,对象的推广、描述)。摄像机可以安装在普通车辆的普通窗口处于的位置上。因此,图像184可以表示从用户的视角通过窗口观看车辆外部的视图(这种配置也被称为增强虚拟现实环境)。在无人驾驶车辆中,可能不存在窗口。相反,“窗口”可以由显示装置(即模制成车窗形状的平的或弯曲的屏幕显示装置)表示或代替。显示装置将显示通过一个或多个适当的摄像机实时动态地捕获的图像或图像流(例如,视频),好像用户正在透过透明窗口观察或观看实际的物理内容一样。对于每个“窗口”(例如,显示装置),存在相应的显示信道以流式传输待实时显示的内容,所述内容可由至少包括内容呈现设备108的增强现实系统进行集中处理。
再次参考图1B,图像184由图像处理模块110进行处理,其中图像处理模块110对图像184执行图像识别以导出一个或多个关键字或兴趣点(POI)192。例如,所导出的关键字可包括在所捕获的图像(例如,带关键字的标志或具有带关键字的标志的建筑物)中。可替代地,关键字可以是基于图像184的内容而被导出的(例如,语义上与图像的内容相关)。图像处理模块110可以对图像的内容进行分析以确定由图像表示的内容的类别。
基于关键字192,内容选择模块或引擎112在内容数据库140中进行搜索以识别内容项目列表。可基于排序算法对内容项目进行排序。可基于用户的用户简档(例如,用户的先前交互历史)以及其他信息(例如,位置和路线信息、实时交通信息、所述路线沿线的兴趣点)来确定内容项目的排序。随后,从内容项目候选项列表中选择内容项目186。内容渲染模块113将内容项目186合并或填加到图像184上以生成增强的图像188。例如,可以将内容项目186叠加到图像184上。内容项目186可以是文本或另一图像。随后通过内容呈现模块114在显示装置190上呈现增强的图像188。
图2是示出根据本发明一个实施方案的图像处理模块的框图。在图2中,图像处理模块210包括图像识别模块212和图像分析模块214。图像处理模块210被配置成接收车辆周围环境的图像并且确定与所述图像相关的一个或多个关键字。更具体地,图像处理模块210从安装在车辆上的摄像机202(作为传感器系统130的一部分)接收图像并且从所述图像中识别外部物理对象。图像处理模块210随后确定与所识别的物理对象相关的一个或多个关键字或POI。将图像转换成与所述图像相关的一个或多个关键字被称为自动图像标注、自动图像标记或语言索引。这是由计算机系统使用计算机视觉技术自动为数字图像指定元数据(诸如关键字)的过程。计算机视觉、人工智能、机器学习或模式识别领域的普通技术人员知晓如何使用这些技术来实现此类功能。
图像识别模块212被配置成从无人驾驶车辆的一个或多个摄像机接收图像并且从所述图像中识别物理对象。例如,图像中的物理对象可以是电影院、购物中心或具有销售信息的高速公路广告牌。在一个实施方案中,图像识别模块212在无人驾驶车辆沿路线行驶时连续不断地进行操作。
图像分析模块214被配置成分析物理对象以确定与物理对象相关的一个或多个关键字。图像处理模块210随后将所述关键字提供给内容选择引擎112以便基于这些关键字来选择内容项目。当图像包括多于一个所识别的物理对象时,图像分析模块214可对每个物理对象单独进行分析以确定与它们相关的关键字。
图3是示出根据本发明一个实施方案的内容选择引擎的框图。内容选择引擎312包括内容映射模块302、内容检索模块304和内容项目排序模块306。内容选择引擎312基于多种因素(如以下更详细地讨论的)来选择与图像处理模块110所提供的关键字相关的内容项目以呈现给车辆的乘员。
内容映射模块302对与图像处理模块110所提供的关键字相关联的一个或多个内容项目进行匹配。例如,内容映射模块302可以执行对索引的查找。所述索引包括许多映射条目,每个映射条目将关键字映射到识别一个或多个图像的一个或多个图像标识符(ID)。所述索引可以是先前例如在服务器102处编译并下载到无人驾驶车辆的。在一个实施方案中,每个候选内容项目与表征所述内容项目的一些方面的一个或多个关键字相关联。用于每个内容项目的此类信息被存储为搜索索引,其中索引键是关键字并且编入索引的项目是内容项目。内容映射模块302可以向内容检索模块304提供匹配的内容项目的标识信息。
内容检索模块304使用匹配的内容项目的标识信息来通过网络104从服务器102中检索那些内容项目。在一个实施方案中,内容呈现设备108可以选择来存储所有候选内容项目的本地副本。在另一个实施方案中,内容呈现设备108可以在检索匹配的内容项目的同时,尤其是在无人驾驶车辆106通过访问免费Wi-Fi网络而连接到网络104时检索不匹配的、但类似的内容项目。每个候选内容项目与提供关于内容项目的一些基本信息(例如,在匹配关键字“电影院”的情况下,关于新电影内容项目(例如,预告片)的传记信息)的元数据相关联。
在一个实施方案中,内容项目排序模块306基于每个所检索的内容项目的元数据以及乘员过去的行为模式和/或偏好对所检索的内容项目进行排序。要做到这一点,内容项目排序模块306还从服务器102检索乘员的用户简档,所述用户简档包括乘员过去的行为模式和/或偏好信息(例如,所述用户或其他类似用户的先前交互历史)。可替代地,乘员可以将他或她自己的用户简档存储在无人驾驶车辆106中。另外或可替代地,对所检索的内容项目的排序可进一步基于一个或多个其他个人过去的行为模式和/或偏好。在一个实施方案中,对所检索的内容项目的排序可基于乘员和/或一个或多个其他个人的人口统计信息。通常,当用户或乘员输入用户信息和路线信息(例如,起始位置和目的地)时,可以例如从中央服务器102或从本地存储装置获得用户的用户简档。在一个实施方案中,对所检索的内容项目的排序可基于车辆上下文信息。所述车辆上下文信息包括但不限于当前时间、车辆位置、路线、当前交通以及车辆状态。
对排序得分进行计算可以是基于内容的、基于协作的或混合方式。基于内容的排序方法是基于对内容项目的描述和对用户偏好的简介。在基于内容的排序中,使用关键字来描述内容项目并且建立用户简档以指示这个用户喜欢的项目类型。换句话说,这些算法试图执行对与用户过去喜欢的项目类似的项目有利的排序。协作排序涉及多个用户之间的协作,并且通常包括以下两个步骤:1)寻找与当前用户(例如,将要观看所选择内容项目的车辆乘员)具有相同评级模式的用户;以及2)使用在步骤1)中找到的那些志趣相投的用户的排序得分来计算用于当前用户的预测得分。混合方式将基于内容的排序和基于协作的排序结合并且在一些情况下可能是更有效的。
图4是示出根据本发明一个实施方案的内容呈现模块的框图。在图4中,内容呈现模块416包括用于向乘员显示内容项目的显示装置414。在一个实施方案中,显示装置414可操作来将内容项目显示为文本、图片或视频内容。显示装置414包括用于由车辆乘员对所呈现的内容项目作出响应的一个或多个输入装置420。另外或可替代地,内容呈现模块416可包括并不是显示装置414的一部分的一个或多个输入装置422。
通过输入装置,显示装置414支持向乘员递送交互式内容项目。这种呈现是交互式的,原因在于,例如,所述内容项目可包括多于一个阶段,其中将显示接下来的阶段中的哪一个取决于乘员通过使用输入装置420或422作出的响应。乘员的响应包括但不限于:完成观看所述内容项目、采取由所述内容项目建议的动作、在所述内容项目提供的选项中作出选择或立即删除所述内容项目。一般来说,所述响应可指示乘员是否有兴趣观看所述内容项目和/或对观看所述内容项目的感兴趣程度,并且以后能够用来预测乘员对其他类似内容项目的响应。在一个实施方案中,记录乘员的每一个响应以建立用于所述乘员的用户简档或改进现有的用户简档。内容呈现设备108被配置成定期向服务器102发送响应信息,以便服务器102合并所述响应并且相应地更新用户简档。
在一个实施方案中,显示装置对于乘员是透明的以致于物理对象通过显示装置对乘员可见。显示装置上显示的内容项目的位置接近于从乘员的视角来看物理对象在显示装置上的投影。因此,当乘员在坐着时稍微四处移动一下,显示在显示装置上的内容项目也将围绕乘员对物理对象的观看而移动。
在一个实施方案中,显示装置414是以下部件中的一部分或嵌入其中:车辆的挡风玻璃、车窗中的一个或多个、车辆的月亮天窗或它们的任何组合。如上所述,在无人驾驶车辆中,可能不存在物理的窗口。相反,“窗口”可以由显示装置(即模制成车窗形状的平的或弯曲的屏幕显示装置)表示或代替。显示装置将显示通过一个或多个适当的摄像机实时动态地捕获的图像或图像流(例如,视频),好像用户正在透过透明窗口观察或观看实际的物理内容一样。对于每个“窗口”(例如,显示装置),存在相应的显示信道以流式传输待实时显示的内容,所述内容可由至少包括内容呈现设备108的增强现实系统进行集中处理。
在一个实施方案中,显示装置414是抬头显示器,所述抬头显示器是呈现内容项目而不需要乘员(尤其是传统车辆中的驾驶员)把他们的目光从通常的观看点移开的透明显示器。抬头显示器还具有以下优点:观看者的眼睛不需要在观看光学上较近的仪器之后重新聚焦来观看外部。
图5是示出根据本发明一个实施方案的选择并呈现内容项目的过程的流程图。过程500可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,包含在非暂时性计算机可读介质上)或其组合。例如,过程500可以由内容呈现设备108来执行。
参考图5,在框502处,处理逻辑接收车辆周围环境的图像并且确定与所述图像相关的一个或多个关键字。所述图像可以由车辆的摄像机捕获。处理逻辑识别所述图像中的物理对象并且确定与所述物理对象相关的一个或多个关键字。
在框504处,处理逻辑基于所述关键字来从内容数据库中识别内容项目候选项列表。每个候选内容项目与一个或多个关键字相关联,并且匹配是通过对索引进行搜索而进行的,其中索引键是关键字并且编入索引的项目是内容项目。在框506处,处理逻辑基于每个候选内容项目的元数据以及乘员过去的行为模式和/或偏好对所检索的内容项目进行排序。乘员过去的行为模式和/或偏好可通过访问服务器上的乘员的用户简档来获得。
在框508处,处理逻辑例如通过将内容项目填加到图像上将图像与内容项目合并,以生成增强的图像。在框510处,处理逻辑向车辆乘员呈现所述内容项目,所述内容项目在相对于物理对象的视图的位置处增强乘员对物理对象的观看。处理逻辑在显示装置上显示所述内容项目,所述显示装置对于乘员是透明的。在一个实施方案中,所述透明的显示装置是抬头显示器。
图6是示出根据本发明另一个实施方案的选择并呈现内容项目的过程的流程图。过程600可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,包含在非暂时性计算机可读介质上)或其组合。例如,过程600可以由内容呈现设备108来执行。
参考图6,在框602处,处理逻辑接收车辆周围环境的图像并且确定与所述图像相关的一个或多个关键字。所述图像可以由车辆的摄像机捕获。处理逻辑识别所述图像中的物理对象并且确定与所述物理对象相关的一个或多个关键字。在框604处,处理逻辑基于每个候选内容项目的元数据、乘员过去的行为模式和/或偏好、以及一个或多个其他个人过去的行为模式和/或偏好来选择与所述关键字相关的内容项目。乘员和一个或多个其他个人过去的行为模式和/或偏好可通过访问服务器上他们的用户简档来获得。
随后,在框606处,处理逻辑在交互式显示装置上向乘员显示所述内容项目。交互式显示装置能够接收乘员对内容项目的响应,所述响应指示乘员对内容项目的兴趣。在框608处,处理逻辑接收来自乘员的对所述内容项目的响应。在一个实施方案中,此类响应包括但不限于:完成观看所述内容项目、采取由所述内容项目建议的动作、在所述内容项目提供的选项中作出选择或立即删除所述内容项目。随后,在框610处,处理逻辑记录乘员的响应并且更新乘员的用户简档以合并乘员的响应。这些更新对于建立用于所述乘员的用户简档或改进现有的用户简档可以是有用的。
如上所述的无人驾驶车辆可包括传感器系统,所述传感器系统具有被配置成探测与车辆运行环境相关的信息的一个或多个传感器。所述车辆和其相关联的控制器使用所探测的信息来导航通过所述环境。所述传感器系统可包括一个或多个摄像机、麦克风、全球定位系统(GPS)、内部测量单元(IMU)、雷达系统和/或光探测和测距(LIDAR)系统。
GPS系统可以估算无人驾驶车辆的地理位置。GPS系统可包括收发器,所述收发器可操作来提供关于无人驾驶车辆的位置的信息。IMU单元可基于惯性加速度来感测无人驾驶车辆的位置和定向变化。雷达单元可表示利用无线电信号来感测无人驾驶车辆的本地环境内的对象的系统。在一些实施方案中,除了对对象进行感测之外,雷达单元另外可以感测对象的速度和/或前进方向。LIDAR单元可以使用激光器来感测无人驾驶车辆所处环境中的对象。除其他系统组件之外,LIDAR单元还可包括一个或多个激光源、激光扫描器以及一个或多个探测器。摄像机可包括用于捕获无人驾驶车辆周围环境的图像的一个或多个装置。摄像机可以是静物摄影机或视频摄像机。摄像机可以是可机械地移动的,诸如通过使安装摄像机的平台旋转和/或倾斜。麦克风可以被配置成从无人驾驶车辆周围的环境中捕获声音。
无人驾驶车辆还可包括计算机视觉系统以处理并分析由一个或多个摄像机捕获的图像,从而识别无人驾驶车辆环境中的对象和/或特征。所述对象可包括交通信号、车行道边界、其他车辆、行人和/或障碍物等。计算机视觉系统可以使用对象识别算法、视频跟踪以及其他计算机视觉技术。在一些实施方案中,计算机视觉系统可以绘制环境地图,跟踪对象,估算对象的速度等。
无人驾驶车辆还可包括导航系统,以确定用于无人驾驶车辆的行车路径。例如,导航系统可以确定一系列速度和定向前进方向,以实现无人驾驶车辆沿以下路径的移动:所述路径在使无人驾驶车辆总体上沿通往最终目的地的基于车行道的路径前进的同时,基本上避免感知到的障碍物。目的地可以根据通过用户界面进行的用户输入来设定。导航系统可以在无人驾驶车辆正在运行的同时动态地更新行车路径。导航系统可将来自GPS系统和一个或多个地图的数据合并以确定用于无人驾驶车辆的行车路径。
无人驾驶车辆还可包括防撞系统,以识别、评估并且避免或以其他方式绕过无人驾驶车辆环境中的潜在障碍物。例如,防撞系统可通过以下方式在无人驾驶车辆的导航中实现变化:操作控制系统中的一个或多个子系统来采取转弯策略、转向策略、制动策略等。防撞系统可基于周围的交通模式、道路状况等自动确定可行的障碍物回避策略。防撞系统可以被配置成使得当其他传感器系统探测到位于无人驾驶车辆将转弯进入的相邻区域中的车辆、建筑障碍物等时不采取转弯策略。防撞系统可以自动选择既可用又使得无人驾驶车辆乘员的安全性最大化的策略。防撞系统可以选择预测的避障策略以在无人驾驶车辆的乘客舱中引起最小量的加速度。
无人驾驶车辆还可包括无线通信系统,以允许无人驾驶车辆与在其周围环境内的外部系统(诸如装置、传感器、其他车辆等)之间的通信,和/或与控制器、服务器等之间的通信,所述外部系统和/或控制器、服务器等可以提供关于车辆周围环境的有用信息,诸如交通信息、天气信息等。例如,无线通信系统可以直接地或通过通信网络与一个或多个装置无线地通信。无线通信系统可以使用任何蜂窝通信网络或无线局域网(WLAN),例如使用WiFi。无线通信系统可以例如使用红外链路、蓝牙等与装置直接通信。
应注意,如以上示出和描述的组件(例如,图像处理模块110、内容选择引擎112、内容呈现模块114等)中的一些或全部可以以软件、硬件或其组合来实现。例如,此类组件可以实现为安装并存储在永久性存储装置中的软件,所述软件可以由处理器(未示出)在存储器中加载并执行以实施贯穿本申请所描述的过程或操作。可替代地,此类组件可以实现为编程或嵌入到专用硬件(诸如集成电路(例如,专用集成电路或ASIC)、数字信号处理器(DSP)或现场可编程门阵列(FPGA))中的可执行代码,所述可执行代码可通过相应驱动程序和/或操作系统从应用来进行访问。此外,此类组件可以实现为处理器或处理器内核中的特定硬件逻辑,作为可由软件组件通过一个或多个特定指令访问的指令集的一部分。
图7是示出可以与本发明一个实施方案一起使用的用于车载内容呈现的系统的示例的框图。例如,系统700可以表示以上所描述的执行上述过程或方法中的任一个的任一数据处理系统(例如,图1A的内容呈现设备108或服务器102)。系统700可包括许多不同的组件。这些组件可以实现为集成电路(IC)、集成电路的部分、离散电子装置或适配于电路板的其他模块(诸如计算机系统的主板或插入卡),或者实现为以其他方式并入计算机系统的底盘内的组件。
还应注意,系统700旨在示出计算机系统的许多组件的高级视图。然而,应当理解的是,某些实现方式中可出现附加的组件,此外,其他实现方式中可出现所示组件的不同的布置。系统700可以表示台式计算机、膝上型计算机、平板计算机、服务器、移动电话、媒体播放器、个人数字助理(PDA)、智能手表、个人通信器、游戏装置、网络路由器或集线器、无线接入点(AP)或中继器、机顶盒或其组合。此外,虽然仅示出了单个机器或系统,但是术语“机器”或“系统”还应当被理解为包括单独地或共同地执行一个(或多个)指令集以执行本文所讨论的任何一种或多种方法的机器或系统的任何集合。
在一个实施方案中,系统700包括通过总线或互连件710连接的处理器701、存储器703以及装置705至708。处理器701可表示其中包括单个处理器内核或多个处理器内核的单个处理器或多个处理器。处理器701可表示一个或多个通用处理器,诸如微处理器、中央处理单元(CPU)等。更具体地,处理器701可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、或实现其他指令集的处理器、或实现指令集组合的处理器。处理器701还可以是一个或多个专用处理器,诸如专用集成电路(ASIC)、蜂窝或基带处理器、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、网络处理器、图形处理器、通信处理器、加密处理器、协同处理器、嵌入式处理器或能够处理指令的任何其他类型的逻辑。
处理器701(其可以是低功率多核处理器插座,诸如超低电压处理器)可充当用于与所述系统的各种组件通信的主处理单元和中央集线器。这种处理器可以实现为片上系统(SoC)。处理器701被配置成执行指令以执行本文所讨论的操作和步骤。系统700还可包括与可选的图形子系统(显示控制器和/或显示装置)704通信的图形接口,图形子系统(显示控制器和/或显示装置)704可包括显示控制器、图形处理器和/或显示装置。
处理器701可以与存储器703通信,存储器703在一个实施方案中可以通过多个存储器装置来实现以提供给定量的系统存储器。存储器703可包括一个或多个易失性存储(或存储器)装置,诸如随机存取存储器(RAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、静态RAM(SRAM)或其他类型的存储装置。存储器703可以存储包括由处理器701或任何其他装置执行的指令序列的信息。例如,多种操作系统、装置驱动程序、固件(例如,输入输出基本系统或BIOS)和/或应用的可执行代码和/或数据可以加载到存储器703中并由处理器701执行。操作系统可以是任何种类的操作系统,例如像来自公司的操作系统、来自苹果公司的Mac来自公司的或其他实时或嵌入式操作系统(诸如VxWorks)。
系统700还可包括I/O装置,诸如装置705至708,包括网络接口装置705、可选的输入装置706以及其他可选的I/O装置707。网络接口装置705可包括无线收发器和/或网络接口卡(NIC)。无线收发器可以是WiFi收发器、红外收发器、蓝牙收发器、WiMax收发器、无线蜂窝电话收发器、卫星收发器(例如,全球定位系统(GPS)收发器)或其他射频(RF)收发器或其组合。NIC可以是以太网卡。
输入装置706可包括鼠标、触摸板、触敏屏幕(其可以与显示装置704集成在一起)、指示装置(诸如指示笔)和/或键盘(例如,物理键盘或作为触敏屏幕的一部分显示的虚拟键盘)。例如,输入装置706可包括联接到触摸屏的触摸屏控制器。触摸屏和触摸屏控制器例如可以使用多种触摸灵敏度技术(包括但不限于电容、电阻、红外和表面声波技术)中的任一种来探测接触点和移动或其间断,以及可以使用用于确定与触摸屏发生的一个或多个接触点的其他接近传感器阵列或其他元件来探测接触点和移动或其间断。
I/O装置707可包括音频装置。音频装置可包括扬声器和/或麦克风,以促进支持语音的功能,诸如语音识别、语音复制、数字记录和/或电话功能。其他I/O装置707还可包括通用串行总线(USB)端口、并行端口、串行端口、打印机、网络接口、总线桥(例如,PCI-PCI桥)、传感器(例如,运动传感器,诸如加速度计、陀螺仪、磁强计、光传感器、罗盘、接近传感器等)或其组合。装置707还可包括成像处理子系统(例如,摄像机),所述成像处理子系统可包括用来促进摄像机功能(诸如录下照片和视频片段)的光学传感器,诸如电荷耦合装置(CCD)或互补金属氧化物半导体(CMOS)光学传感器。某些传感器可以通过传感器集线器(未示出)联接到互连件710,而其他装置诸如键盘或热传感器可以由嵌入式控制器(未示出)来控制,这取决于系统700的具体配置或设计。
为了提供对信息(诸如数据、应用、一个或多个操作系统等)的永久性存储,大容量存储装置(未示出)也可联接到处理器701。在各种实施方案中,为了实现更薄且更轻的系统设计并且为了改进系统响应能力,这种大容量存储装置可以通过固态装置(SSD)实现。然而,在其他实施方案中,大容量存储装置可以主要使用硬盘驱动器(HDD)来实现,其中较小量的SSD存储装置充当SSD高速缓存以在断电事件期间实现对上下文状态以及其他此类信息的非易失性存储,从而使得在系统活动重新启动时能够实现快速上电。另外,闪存装置可以例如通过串行外围接口(SPI)联接到处理器701。这种闪存装置可以提供对系统软件的非易失性存储,所述系统软件包括所述系统的基本输入/输出软件(BIOS)以及其他固件。
存储装置708可包括计算机可访问的存储介质709(也被称为机器可读存储介质或计算机可读介质),其上存储有体现任何一种或多种本文所描述的方法或功能的一个或多个指令集或软件(例如,模块、单元和/或逻辑728)。模块/单元/逻辑728可以表示任一上述组件,例如像如上所描述的搜索引擎、编码器、交互日志模块。模块/单元/逻辑728还可以在数据处理系统700对其进行执行期间完全地或至少部分地驻留在存储器703内和/或处理器701内,存储器703和处理器701同样构成机器可访问的存储介质。模块/单元/逻辑728还可以经由网络接口装置705通过网络被发送或接收。
计算机可读存储介质709也可以用来永久性地存储以上描述的一些软件功能。虽然计算机可读存储介质709在示例性实施方案中被示为单个介质,但是术语“计算机可读存储介质”应当被认为包括存储一个或多个指令集的单个介质或多个介质(例如,集中式或分布式数据库和/或相关联的高速缓存和服务器)。术语“计算机可读存储介质”还应当被认为包括能够存储或编码指令集的任何介质,所述指令集用于由机器执行并且引起所述机器执行本发明的任何一种或多种方法。因此,术语“计算机可读存储介质”应当被认为包括但不限于固态存储器以及光学介质和磁性介质或者任何其他非暂时性机器可读介质。
本文所描述的模块/单元/逻辑728、组件以及其他特征可以实现为离散硬件组件或集成在硬件组件(诸如ASICS、FPGA、DSP或类似装置)的功能中。另外,模块/单元/逻辑728可以实现为硬件装置内的固件或功能电路。此外,模块/单元/逻辑728可以以硬件装置和软件组件的任何组合实现。
应注意,虽然系统700被示出为具有数据处理系统的各种组件,但是其不欲表示任何具体的架构或互连组件的方式;因为此类细节和本发明的实施方案没有密切关系。还应当认识到,具有更少组件或可能具有更多组件的网络计算机、手持计算机、移动电话、服务器和/或其他数据处理系统也可与本发明的实施方案一起使用。
前述详细描述中的一些部分已经依据在计算机存储器内对数据位进行的运算的算法和符号表示而呈现。这些算法描述和表示是数据处理领域中的技术人员所使用以便最有效地将他们的工作实质传达给本领域其他技术人员的方法。这里,算法通常被认为是产生所期望结果的有条理的操作序列。这些操作是指需要对物理量进行物理操控的操作。
然而,应当牢记,所有这些和类似的术语均意图与适当的物理量关联,并且仅仅是应用于这些量的便利的标记。除非在以上讨论中另外明确地说明清楚,否则应当了解,贯穿本说明书利用术语(诸如随附权利要求书中所阐述的术语)进行的讨论是指计算机系统或类似的电子计算装置的动作和处理,所述计算机系统或类似的电子计算装置操控数据(所述数据在计算机系统的寄存器和存储器内表示为物理(电子)量),并将所述数据变换成其它数据(所述其它数据在计算机系统存储器或寄存器或其他此类信息存储装置、传输或显示装置内同样表示为物理量)。
本发明的实施方案还涉及用于执行本文中的操作的设备。这种计算机程序被存储在非暂时性计算机可读介质中。机器可读介质包括用于以机器(例如,计算机)可读的形式存储信息的任何机构。例如,机器可读(例如,计算机可读)介质包括机器(例如,计算机)可读存储介质(例如,只读存储器(“ROM”)、随机存取存储器(“RAM”)、磁盘存储介质、光存储介质、闪存存储器装置)。
前述附图中所描绘的过程或方法可以由处理逻辑来执行,所述处理逻辑包括硬件(例如,电路、专用逻辑等)、软件(例如,包含在非暂时性计算机可读介质上)或两者的组合。尽管所述过程或方法在上文是依据一些有顺序操作来描述的,但是应当了解,所描述的操作中的一些可以按不同的次序执行。此外,一些操作可以并行地而不是顺序地执行。
并未参考任何特定的编程语言来描述本发明的实施方案。将认识到的是,可以使用多种编程语言来实现如本文描述的本发明的实施方案的教导。
在以上的说明书中,已经参考本发明的具体示例性实施方案对本发明的实施方案进行了描述。将显而易见的是:在不脱离如随附权利要求书中阐述的本发明的较宽泛的精神和范围的情况下,可以对其做出各种修改。因此,应当在说明性意义而不是限制性意义上来理解本说明书和附图。
Claims (17)
1.一种用于在无人驾驶车辆中呈现内容的计算机实现方法,所述方法包括:
接收无人驾驶车辆外部的物理对象的第一图像,其中所述第一图像是由附接到所述无人驾驶车辆的图像传感器捕获的;
对所述第一图像执行图像识别以导出与所述物理对象相关的一个或多个关键字;
基于所述一个或多个关键字识别一个或多个内容项目的列表;
将选自所述内容项目列表的第一内容项目填加到所述第一图像上以生成第二图像;以及
在所述无人驾驶车辆内的显示装置上显示所述第二图像。
2.如权利要求1所述的方法,其中生成所述第二图像包括:
将所述第一内容项目叠加到所述第一图像上以生成所述第二图像。
3.如权利要求1所述的方法,其中所述显示装置被配置并定位成表现为所述无人驾驶车辆的在用户与所述物理对象之间的虚拟窗口。
4.如权利要求3所述的方法,其中所述第二图像是以虚拟现实方式显示的,以使用户在观看所述第二图像时,感受通过所述虚拟窗口直接观看所述物理对象。
5.如权利要求4所述的方法,其中所述物理对象在所述显示装置上显示为从所述用户的视角所展现的虚拟对象。
6.如权利要求1所述的方法,其还包括基于每个内容项目列表的元数据和用户的用户简档对所述内容项目列表排序,其中基于所述排序来选择所述第一内容项目。
7.如权利要求6所述的方法,其中所述显示装置包括触摸屏以接收与所述第二图像进行的用户交互,并且其中利用所述用户交互来更新所述用户简档。
8.如权利要求1所述的方法,其还包括:
获得沿所述无人驾驶车辆行驶路线的位置和路线信息;以及
基于所述位置和路线信息获得兴趣点,其中基于所述兴趣点来识别所述内容项目列表。
9.一种在无人驾驶车辆中呈现内容的装置,包括:
接收无人驾驶车辆外部的物理对象的第一图像的装置,其中所述第一图像是由附接到所述无人驾驶车辆的图像传感器捕获的;
对所述第一图像执行图像识别以导出与所述物理对象相关的一个或多个关键字的装置;
基于所述一个或多个关键字识别一个或多个内容项目的列表的装置;
将选自所述内容项目列表的第一内容项目填加到所述第一图像上以生成第二图像的装置;以及
在所述无人驾驶车辆内的显示装置上显示所述第二图像的装置。
10.如权利要求9所述的在无人驾驶车辆中呈现内容的装置,其中所述第二图像包括所述第一图像以及叠加在所述第一图像上的所述第一内容项目。
11.如权利要求9所述的在无人驾驶车辆中呈现内容的装置,其中所述显示装置被配置并定位成表现为所述无人驾驶车辆的在用户与所述物理对象之间的虚拟窗口。
12.如权利要求11所述的在无人驾驶车辆中呈现内容的装置,其中所述第二图像是以虚拟现实方式显示的,以使用户在观看所述第二图像时,感受通过所述虚拟窗口直接观看所述物理对象。
13.如权利要求12所述的在无人驾驶车辆中呈现内容的装置,其中所述物理对象在所述显示装置上显示为从所述用户的视角所展现的虚拟对象。
14.如权利要求9所述的在无人驾驶车辆中呈现内容的装置,还包括:基于每个内容项目列表的元数据和用户的用户简档对所述内容项目列表排序的装置,其中基于所述排序来选择所述第一内容项目。
15.如权利要求14所述的在无人驾驶车辆中呈现内容的装置,其中所述显示装置包括触摸屏以接收与所述第二图像进行的用户交互,并且其中利用所述用户交互来更新所述用户简档。
16.如权利要求9所述的在无人驾驶车辆中呈现内容的装置,还包括:
获得沿所述无人驾驶车辆行驶的路线的位置和路线信息的装置;以及
基于所述位置和路线信息获得兴趣点的装置,其中基于所述兴趣点来识别所述内容项目列表。
17.一种数据处理系统,其包括如权利要求9-16中任一项所述的在无人驾驶车辆中呈现内容的装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/139,079 US10323952B2 (en) | 2016-04-26 | 2016-04-26 | System and method for presenting media contents in autonomous vehicles |
US15/139,079 | 2016-04-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107315988A CN107315988A (zh) | 2017-11-03 |
CN107315988B true CN107315988B (zh) | 2020-12-11 |
Family
ID=57482173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611001907.5A Active CN107315988B (zh) | 2016-04-26 | 2016-11-14 | 用于在无人驾驶车辆中呈现媒体内容的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10323952B2 (zh) |
EP (1) | EP3240258B1 (zh) |
JP (1) | JP6456901B2 (zh) |
KR (2) | KR20170122092A (zh) |
CN (1) | CN107315988B (zh) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105432090B (zh) * | 2013-07-31 | 2019-01-18 | 麦克赛尔株式会社 | 影像显示装置 |
US10779055B2 (en) * | 2016-02-12 | 2020-09-15 | Rovi Guides, Inc. | Systems and methods for recording broadcast programs that will be missed due to travel delays |
US20170349184A1 (en) * | 2016-06-06 | 2017-12-07 | GM Global Technology Operations LLC | Speech-based group interactions in autonomous vehicles |
EP3481661A4 (en) | 2016-07-05 | 2020-03-11 | Nauto, Inc. | AUTOMATIC DRIVER IDENTIFICATION SYSTEM AND METHOD |
US10037471B2 (en) | 2016-07-05 | 2018-07-31 | Nauto Global Limited | System and method for image analysis |
WO2018031678A1 (en) | 2016-08-09 | 2018-02-15 | Nauto Global Limited | System and method for precision localization and mapping |
US10733460B2 (en) * | 2016-09-14 | 2020-08-04 | Nauto, Inc. | Systems and methods for safe route determination |
WO2018053175A1 (en) * | 2016-09-14 | 2018-03-22 | Nauto Global Limited | Systems and methods for near-crash determination |
CN110178104A (zh) | 2016-11-07 | 2019-08-27 | 新自动公司 | 用于确定驾驶员分心的系统和方法 |
US10929462B2 (en) * | 2017-02-02 | 2021-02-23 | Futurewei Technologies, Inc. | Object recognition in autonomous vehicles |
WO2018229550A1 (en) | 2017-06-16 | 2018-12-20 | Nauto Global Limited | System and method for adverse vehicle event determination |
JP6881242B2 (ja) * | 2017-11-02 | 2021-06-02 | トヨタ自動車株式会社 | 移動体及び広告提供方法 |
KR102434580B1 (ko) * | 2017-11-09 | 2022-08-22 | 삼성전자주식회사 | 가상 경로를 디스플레이하는 방법 및 장치 |
KR102418992B1 (ko) * | 2017-11-23 | 2022-07-11 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 증강 현실 서비스 제공 방법 |
AU2017443912A1 (en) * | 2017-12-19 | 2020-04-23 | Nihon Onkyo Engineering Co., Ltd. | Device for collecting aircraft flight history information |
US10303045B1 (en) * | 2017-12-20 | 2019-05-28 | Micron Technology, Inc. | Control of display device for autonomous vehicle |
WO2019132930A1 (en) * | 2017-12-28 | 2019-07-04 | Intel Corporation | System and method for simulation of autonomous vehicles |
CN108389160A (zh) * | 2017-12-29 | 2018-08-10 | 中兴智能交通股份有限公司 | 一种虚拟现实技术的交通仿真方法和装置 |
US10963706B2 (en) * | 2018-01-13 | 2021-03-30 | Toyota Jidosha Kabushiki Kaisha | Distributable representation learning for associating observations from multiple vehicles |
WO2019144000A1 (en) * | 2018-01-22 | 2019-07-25 | Dakiana Research Llc | Method and device for presenting synthesized reality content in association with recognized objects |
US10123078B1 (en) | 2018-02-02 | 2018-11-06 | Rovi Guides, Inc. | Methods and systems for selecting a media content item for presentation during a trip |
WO2019169031A1 (en) | 2018-02-27 | 2019-09-06 | Nauto, Inc. | Method for determining driving policy |
DE102018003130A1 (de) * | 2018-04-17 | 2019-10-17 | Psa Automobiles Sa | Erprobung eines Fahrzeugs mit simulierten Verkehrsteilnehmern |
KR102617120B1 (ko) * | 2018-07-10 | 2023-12-27 | 삼성전자주식회사 | 차량의 글래스 윈도우 상에 멀티미디어 컨텐트를 디스플레이하는 방법 및 시스템 |
KR102095333B1 (ko) * | 2018-07-24 | 2020-04-01 | 인하대학교 산학협력단 | 증강현실 기반 실차 테스트 방법 및 시스템 |
US10916077B2 (en) | 2018-08-13 | 2021-02-09 | Baidu Usa Llc | User privacy protection on autonomous driving vehicles |
US10900723B2 (en) * | 2018-09-17 | 2021-01-26 | Pony Ai Inc. | Cover for creating circular airflows inside an enclosure |
DE102018218256A1 (de) | 2018-10-25 | 2020-04-30 | Volkswagen Aktiengesellschaft | Verfahren zur Bereitstellung eines Rückzugsraumes zur zeitweiligen Erholung einer Person, Fahrzeug zur Verwendung bei dem Verfahren, sowie portables Gerät zur Verwendung bei dem Verfahren |
KR102148704B1 (ko) | 2018-11-02 | 2020-08-27 | 경희대학교 산학협력단 | Mec 환경에서 자율 주행을 위한 딥러닝 기반 캐싱 시스템 및 방법 |
WO2020118273A2 (en) | 2018-12-07 | 2020-06-11 | Warner Bros. Entertainment Inc. | Trip-configurable content |
WO2020163801A1 (en) * | 2019-02-08 | 2020-08-13 | Warner Bros. Entertainment Inc. | Intra-vehicle games |
US11027650B2 (en) | 2019-11-07 | 2021-06-08 | Nio Usa, Inc. | Method and apparatus for improving operation of a motor vehicle |
CN111026937B (zh) * | 2019-11-13 | 2021-02-19 | 百度在线网络技术(北京)有限公司 | 提取poi名称的方法、装置、设备和计算机存储介质 |
US11760370B2 (en) * | 2019-12-31 | 2023-09-19 | Gm Cruise Holdings Llc | Augmented reality notification system |
KR102266138B1 (ko) | 2020-06-17 | 2021-06-17 | (주)인티그리트 | 통합 멀티미디어 제공 시스템 및 방법, 이를 이용한 자율 주행 장치 |
KR20210158443A (ko) | 2020-06-23 | 2021-12-31 | 인포뱅크 주식회사 | 자율주행 차량내 탑승객 선호 콘텐츠 표시 장치 및 방법 |
US11878707B2 (en) * | 2022-03-11 | 2024-01-23 | International Business Machines Corporation | Augmented reality overlay based on self-driving mode |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000038949A3 (en) * | 1998-12-31 | 2004-03-04 | Automotive Tech Int | Methods for determining the identification and position of and monitoring objects in a vehicle |
CN102567449A (zh) * | 2010-11-09 | 2012-07-11 | 哈曼贝克自动系统股份有限公司 | 视觉系统及分析图像的方法 |
KR101329102B1 (ko) * | 2012-02-28 | 2013-11-14 | 주식회사 케이쓰리아이 | 레이아웃 기술자와 이미지 특징점을 이용한 실시간 증강현실 이미지 검색시스템 |
WO2015107665A1 (ja) * | 2014-01-17 | 2015-07-23 | 株式会社日立製作所 | 作業支援用データ作成プログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09305107A (ja) * | 1996-05-17 | 1997-11-28 | Sony Corp | ナビゲーション装置 |
JPH10100737A (ja) * | 1996-09-27 | 1998-04-21 | Honda Motor Co Ltd | 自動運転車 |
JP3822546B2 (ja) * | 2002-09-05 | 2006-09-20 | 株式会社東芝 | 移動体用コンテンツ提供システム |
JP2005014784A (ja) | 2003-06-26 | 2005-01-20 | Hitachi Ltd | 映像情報配信表示システム、並びに鉄道列車 |
CN1696926A (zh) * | 2004-05-15 | 2005-11-16 | 鸿富锦精密工业(深圳)有限公司 | Mac地址自动分配系统及方法 |
GB2424091A (en) * | 2005-03-11 | 2006-09-13 | Alamy Ltd | Ranking of images in the results of a search |
JP4446188B2 (ja) * | 2005-07-19 | 2010-04-07 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP4737523B2 (ja) * | 2005-08-03 | 2011-08-03 | 三菱電機株式会社 | 車載ナビゲーション装置 |
US8131118B1 (en) * | 2008-01-31 | 2012-03-06 | Google Inc. | Inferring locations from an image |
JP2010028492A (ja) * | 2008-07-21 | 2010-02-04 | Denso Corp | 撮影情報閲覧システム |
KR101219933B1 (ko) * | 2010-09-13 | 2013-01-08 | 현대자동차주식회사 | 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법 |
KR101338818B1 (ko) | 2010-11-29 | 2013-12-06 | 주식회사 팬택 | 이동 단말기 및 이를 이용한 정보 표시 방법 |
US20130030074A1 (en) * | 2011-07-26 | 2013-01-31 | Basf Se | Process for the continuous production of polyetherols |
US20130083061A1 (en) * | 2011-09-30 | 2013-04-04 | GM Global Technology Operations LLC | Front- and rear- seat augmented reality vehicle game system to entertain & educate passengers |
JP2013101450A (ja) * | 2011-11-08 | 2013-05-23 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
US8891907B2 (en) * | 2011-12-06 | 2014-11-18 | Google Inc. | System and method of identifying visual objects |
JP6012729B2 (ja) | 2012-07-03 | 2016-10-25 | 三菱電機株式会社 | ナビゲーション装置 |
US9096128B2 (en) * | 2013-01-14 | 2015-08-04 | Intel Corporation | Creating a sensory experience in a vehicle |
KR20140127527A (ko) | 2013-04-25 | 2014-11-04 | 삼성전자주식회사 | 디스플레이장치 및 디스플레이장치를 이용한 추천정보 제공 방법 |
JP2015064282A (ja) * | 2013-09-25 | 2015-04-09 | 日産自動車株式会社 | 車両用案内表示装置及び方法 |
JP6303403B2 (ja) * | 2013-10-31 | 2018-04-04 | 日産自動車株式会社 | 車両用走行案内装置および方法 |
WO2015094371A1 (en) * | 2013-12-20 | 2015-06-25 | Intel Corporation | Systems and methods for augmented reality in a head-up display |
US20150321606A1 (en) | 2014-05-09 | 2015-11-12 | HJ Laboratories, LLC | Adaptive conveyance operating system |
KR101659027B1 (ko) * | 2014-05-15 | 2016-09-23 | 엘지전자 주식회사 | 이동 단말기 및 차량 제어 장치 |
KR102322027B1 (ko) * | 2014-05-15 | 2021-11-08 | 삼성전자주식회사 | 개인화 정보 제공 시스템 및 그 방법 |
US20160022150A1 (en) * | 2014-07-24 | 2016-01-28 | Canon Kabushiki Kaisha | Photoacoustic apparatus |
KR102178892B1 (ko) * | 2014-09-15 | 2020-11-13 | 삼성전자주식회사 | 정보 제공 방법 및 그 전자 장치 |
US9649979B2 (en) * | 2015-01-29 | 2017-05-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation in view-obstructed environments |
KR20170015112A (ko) * | 2015-07-30 | 2017-02-08 | 삼성전자주식회사 | 자율 주행 차량 및 그의 동작 방법 |
US20150348112A1 (en) | 2015-08-12 | 2015-12-03 | Madhusoodhan Ramanujam | Providing Advertisements to Autonomous Vehicles |
-
2016
- 2016-04-26 US US15/139,079 patent/US10323952B2/en active Active
- 2016-11-14 CN CN201611001907.5A patent/CN107315988B/zh active Active
- 2016-11-28 JP JP2016230434A patent/JP6456901B2/ja active Active
- 2016-11-29 EP EP16201149.8A patent/EP3240258B1/en active Active
- 2016-11-30 KR KR1020160162060A patent/KR20170122092A/ko active Application Filing
-
2019
- 2019-04-08 KR KR1020190041007A patent/KR102043588B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000038949A3 (en) * | 1998-12-31 | 2004-03-04 | Automotive Tech Int | Methods for determining the identification and position of and monitoring objects in a vehicle |
CN102567449A (zh) * | 2010-11-09 | 2012-07-11 | 哈曼贝克自动系统股份有限公司 | 视觉系统及分析图像的方法 |
KR101329102B1 (ko) * | 2012-02-28 | 2013-11-14 | 주식회사 케이쓰리아이 | 레이아웃 기술자와 이미지 특징점을 이용한 실시간 증강현실 이미지 검색시스템 |
WO2015107665A1 (ja) * | 2014-01-17 | 2015-07-23 | 株式会社日立製作所 | 作業支援用データ作成プログラム |
Also Published As
Publication number | Publication date |
---|---|
KR102043588B1 (ko) | 2019-11-11 |
US20170309072A1 (en) | 2017-10-26 |
EP3240258B1 (en) | 2019-01-09 |
US10323952B2 (en) | 2019-06-18 |
KR20170122092A (ko) | 2017-11-03 |
JP6456901B2 (ja) | 2019-01-23 |
CN107315988A (zh) | 2017-11-03 |
JP2017198647A (ja) | 2017-11-02 |
KR20190039915A (ko) | 2019-04-16 |
EP3240258A1 (en) | 2017-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107315988B (zh) | 用于在无人驾驶车辆中呈现媒体内容的系统和方法 | |
CN107436153B (zh) | 基于实时交通信息在无人驾驶车辆中提供内容的系统和方法 | |
CN107563267B (zh) | 在无人驾驶车辆中提供内容的系统和方法 | |
JP6310531B2 (ja) | 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法 | |
CN107577227B (zh) | 操作无人驾驶车辆的方法、装置和数据处理系统 | |
CN108205830B (zh) | 识别对于无人驾驶车辆的个人驾驶偏好的方法和系统 | |
CN108027243B (zh) | 用于操作自动驾驶车辆的控制误差校正规划方法 | |
US20210021957A1 (en) | Method and apparatus for presenting pivacy-respectful and personalized location-based comments based on passenger context and vehicle proximity to the location | |
US11615327B2 (en) | Artificial intelligence device for providing search service and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |