CN109910749A - 设于车辆的车辆控制装置及车辆的控制方法 - Google Patents
设于车辆的车辆控制装置及车辆的控制方法 Download PDFInfo
- Publication number
- CN109910749A CN109910749A CN201810443006.4A CN201810443006A CN109910749A CN 109910749 A CN109910749 A CN 109910749A CN 201810443006 A CN201810443006 A CN 201810443006A CN 109910749 A CN109910749 A CN 109910749A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- destination
- processor
- building
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012360 testing method Methods 0.000 claims abstract description 58
- 230000008859 change Effects 0.000 claims description 18
- 230000002093 peripheral effect Effects 0.000 claims description 7
- 241001074085 Scophthalmus aquosus Species 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 description 74
- 230000005540 biological transmission Effects 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 239000000725 suspension Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004378 air conditioning Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000010363 phase shift Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005611 electricity Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241001122767 Theaceae Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000005465 channeling Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000018199 S phase Effects 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 1
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- B60K35/60—
-
- B60K35/81—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/141—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
- G08G1/143—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
-
- B60K2360/21—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Abstract
本发明涉及设于车辆的车辆控制装置及车辆的控制方法。本发明的一实施例的车辆控制装置包括:包括相机的检测部;显示部;以及处理器,通过所述相机接收影像,并基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到所述显示部。
Description
技术领域
本发明涉及设于车辆的车辆控制装置及车辆的控制方法。
背景技术
车辆是用于将乘坐的用户朝所需的方向移动的装置。作为代表性的可举例有汽车。
另外,为了给利用车辆的用户提供便利,车辆中配备各种传感器和电子装置成为一种趋势。特别是,为了用户的驾驶便利而积极进行关于车辆驾驶辅助系统(ADAS:Advanced Driver Assistance System)研究。进一步,积极开展有关于自主驾驶汽车(Autonomous Vehicle)的开发。
车辆中可设有多个种类的车灯。一般而言,车辆中可设有多种车辆用灯泡,其具有在夜间行驶时用于容易地确认位于车辆周边的对象物的照明功能,以及用于向其他车辆或其他道路利用者告知自身车辆的行驶状态的信号功能。
例如,车辆中可具有利用车灯直接发光的方式进行工作的装置,例如向前方照射光以确保驾驶者的视野的前照灯、在踩踏制动器时被点亮的刹车灯、在右转或左转时使用的方向指示灯等。
作为另一例,在车辆的前方及后方安装有用于反射光的反射器等,从而能够从外部容易地识别自身车辆。
这样的车辆用灯泡在法规上规定有其设置标准和规格,以能够充分地发挥各自的功能。
另外,最近随着对先进驾驶辅助系统(Advanced Driving Assist System,ADAS)的开发逐渐活跃,亟需开发出在车辆运行时能够使用户便利和安全达到最大的技术。
另外,最近用于车辆的自主行驶的各种技术已被积极开发。
发明内容
本发明的一目的在于提供一种车辆控制装置及车辆的控制方法,能够实现以最优化的方法引导目的地。
本发明的另一目的在于提供一种车辆控制装置及车辆的控制方法,能够提供形成为容易确认到用户所设定的目的地的用户界面。
本发明的目的并不限定于以上提及到的目的,本领域的技术人员能够通过以下的记载明确理解未被提及到的其他目的。
为了达成上述目的,本发明的实施例的车辆控制装置包括:包括相机的检测部;显示部;以及处理器,通过所述相机接收影像,并基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到所述显示部。
在实施例中,所述显示部包括车辆的挡风玻璃和玻璃窗,所述处理器将所述图形客体输出到所述挡风玻璃或所述车窗上。
在实施例中,所述处理器将所述图形客体输出到所述挡风玻璃或所述车窗上,使得当驾驶者看向所述目的地时重叠于所述目的地。
在实施例中,所述处理器基于驾驶者所看到的所述目的地的位置和形态随着车辆的行驶发生改变,从而改变所述图形客体的输出位置和输出形态。
在实施例中,当所述目的地包含在建筑物时,所述处理器将与所述建筑物的外围边缘相对应的图形客体以重叠于所述建筑物的方式进行输出。
在实施例中,当所述目的地为空地时,所述处理器将墙壁形态的图形客体以重叠于所述空地的方式进行输出,以能够识别出所述空地的界线。
在实施例中,所述处理器基于从通过所述相机接收到的影像中是否能够识别出包含所述目的地的建筑物,以及包含所述目的地的建筑物是否全部包含在所述影像中,以相互不同的方式将所述图形客体输出到所述显示部。
在实施例中,当从所述影像中未识别出包含所述目的地的建筑物时,所述处理器将包含与所述目的地相关的信息的第一图形客体输出到所述显示部,当从所述影像中识别出包含所述目的地的建筑物时,将形成为与所述建筑物的边缘相对应的第二图形客体与所述第一图形客体一并输出到所述显示部。
在实施例中,当从所述影像中可识别出包含所述目的地的建筑物,而所述影像中仅包括所述建筑物的一部分时,所述处理器将第三图形客体以重叠于所述建筑物中所述目的地所在的位置的方式输出到所述显示部。
在实施例中,所述处理器根据车辆和目的地之间的距离,将与所述目的地的停车场相关的图形客体以预设定的方式输出到所述显示部。
在实施例中,当包含所述目的地的建筑物和车辆之间的距离为第一距离时,所述处理器将与所述停车场相关的图形客体以第一方式输出到所述显示部,当所述建筑物和车辆之间的距离为小于所述第一距离的第二距离时,将与所述停车场相关的图形客体以不同于所述第一方式的第二方式输出到所述显示部。
在实施例中,当从通过所述相机接收到的影像中识别出包含所述目的地的建筑物的停车场入口时,所述处理器将图形客体以重叠于所述停车场入口的方式进行输出。
在实施例中,当车辆进入距包含所述目的地的建筑物规定距离以内的位置时,所述处理器将与包含所述目的地的建筑物的停车场相关的第一图形客体,以及与距所述建筑物的停车场规定距离以内所在的其他停车场相关的第二图形客体,以重叠于行驶中的道路上的方式输出到所述显示部。
在实施例中,当所述目的地的停车场车位已满时,所述处理器在包含所述目的地的建筑物上重叠输出第一颜色的图形客体,在距所述目的地规定距离以内所在的可以驻车的建筑物上重叠输出不同于所述第一颜色的第二颜色的图形客体。
在实施例中,所述处理器根据当前行驶中的车辆的速度,将所述图形客体以相互不同的形态输出到所述显示部。
在实施例中,当检测到可以在道路上驻车的空间时,所述处理器将提示可以在所述空间驻车的图形客体以重叠于所述空间的方式输出到所述显示部。
在实施例中,当在通过所述影像未识别出目的地的状态下到达交叉路时,所述处理器将每条道路到达目的地所需的时间信息以重叠于所述每条道路上的方式分别输出到所述显示部。
在实施例中,当从所述影像中识别出所述预设定的目的地时,所述处理器将提示包含在与所述目的地相同类别中的多个目的地的多个图形客体输出到所述显示部,当选择所述多个图形客体中的任一种时,在与所选择的图形客体相对应的目的地上重叠显示所述图形客体。
本发明的一实施例的车辆包括本说明书中说明的车辆控制装置。
本发明的一实施例的车辆的控制方法包括:通过相机接收影像的步骤;以及,基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到显示部的步骤。
其他实施例的具体事项包括于详细的说明及附图中。
本发明的实施例具有如下效果的一种或其以上。
第一、本发明可以提供一种车辆控制装置及车辆控制方法,通过在挡风玻璃上以重叠于目的地的方式输出图形客体,当驾驶者的视野中出现目的地时,可以将目的地直观地提示给驾驶者。
第二、本发明可以提供一种新的用户界面,能够以AR-HUD方式输出与目的地和所述目的地的停车场相关的最优化的用户界面。
第三、本发明可以提供一种车辆控制装置及车辆的控制方法,即便在目的地不包括在驾驶者视野中的情况下,也能够通过挡风玻璃直观地提供形成为能够行驶到目的地的路径信息。
本发明的效果并不限定于以上提及到的效果,本领域的技术人员能够从权利要求书的记载明确理解未被提及到的其他效果。
附图说明
图1是示出本发明的实施例的车辆的外观的图。
图2是从外部的多种角度看去本发明的实施例的车辆的图。
图3至图4是示出本发明的实施例的车辆的内部的图。
图5至图6是在说明本发明的实施例的对象时作为参照的图。
图7是在说明本发明的实施例的车辆时作为参照的框图。
图8是用于说明本发明的实施例的车辆控制装置的概念图。
图9是用于说明本发明的代表性的控制方法的流程图。
图10是具体说明本发明的一实施例的控制方法的流程图。
图11A至图25是用于说明图9及图10中说明的控制方法的概念图。
具体实施方式
以下参照附图对本说明书所揭示的实施例进行详细的说明,在此,与附图标记无关的对相同或类似的结构要素赋予相同的参照标记,并将省去对其重复的说明。在以下说明中使用的针对结构要素的接尾词“模块”及“部”仅是考虑到便于说明书的撰写而被赋予或混用,其自身并不带有相互划分的含义或作用。并且,在对本发明揭示的实施例进行说明的过程中,如果判断为对于相关的公知技术的具体说明会导致混淆本说明书所揭示的实施例的技术思想,则将省去对其详细的说明。并且,所附的附图仅是为了容易理解本说明书所揭示的实施例,不应由所附的附图来限定本发明所揭示的技术思想,而是应当涵盖了本发明的思想及技术范围中所包括的所有变更、均等物乃至替代物。
第一、第二等包含序数的术语可用于说明多种结构要素,但是所述结构要素并不由所述术语所限定。所述术语仅是用于将一个结构要素与其他结构要素划分的目的来使用。
如果提及到某个结构要素“连接”或“接触”于另一结构要素,其可能是直接连接于或接触于另一结构要素,但也可被理解为是他们中间存在有其他结构要素。反之,如果提及到某个结构要素“直接连接”或“直接接触”于另一结构要素,则应当被理解为是他们之间不存在有其他结构要素。
除非在上下文明确表示有另行的含义,单数的表达方式应包括复数的表达方式。
在本申请中,“包括”或“具有”等术语仅是为了指定说明书上记载的特征、数字、步骤、动作、结构要素、部件或其组合的存在,而并不意在排除一个或其以上的其他特征或数字、步骤、动作、结构要素、部件或其组合的存在或添加的可能性。
本说明书中说明的车辆可以是包括汽车、摩托车的概念。以下,对于车辆将以汽车为主进行说明。
本说明书中所述的车辆可以是将作为动力源具有引擎的内燃机车辆、作为动力源具有引擎和电动电机的混合动力车辆、作为动力源具有电动电机的电动汽车等均涵盖的概念。
在以下的说明中,车辆的左侧表示车辆的行驶方向的左侧,车辆的右侧表示车辆的行驶方向的右侧。
图1是示出本发明的实施例的车辆的外观的图。
图2是从外部的多种角度看去本发明的实施例的车辆的图。
图3至图4是示出本发明的实施例的车辆的内部的图。
图5至图6是在说明本发明的实施例的对象时作为参照的图。
图7是在说明本发明的实施例的车辆时作为参照的框图。
参照图1至图7,车辆100可包括:利用动力源进行旋转的车轮;转向输入装置510,用于调节车辆100的行驶方向。
车辆100可以是自主行驶车辆。
车辆100可基于用户输入而转换为自主行驶模式或手动模式(manual mode)。
例如,车辆100可基于通过用户界面装置200接收的用户输入,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
车辆100可基于行驶状况信息转换为自主行驶模式或手动模式。行驶状况信息可基于由对象检测装置300提供的对象信息来生成。
例如,车辆100可基于对象检测装置300生成的行驶状况信息,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
例如,车辆100可基于通过通信装置400接收的行驶状况信息,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
车辆100可基于外部设备提供的信息、数据、信号,从手动模式转换为自主行驶模式,或者从自主行驶模式转换为手动模式。
在车辆100以自主行驶模式运行的情况下,自主行驶车辆100可基于运行系统700来运行。
例如,自主行驶车辆100可基于行驶系统710、出车系统740、驻车系统750中生成的信息、数据或信号来运行。
在车辆100以手动模式运行的情况下,自主行驶车辆100可通过驾驶操作装置500接收用于驾驶的用户输入。车辆100可基于驾驶操作装置500接收的用户输入来运行。
总长度(overall length)表示从车辆100的前部分至后部分的长度,总宽度(width)表示车辆100的宽度,总高度(height)表示从车轮下部至车顶的长度。在以下的说明中,总长度方向L可表示作为车辆100的总长度测量的基准的方向,总宽度方向W可表示作为车辆100的总宽度测量的基准的方向,总高度方向H可表示作为车辆100的总高度测量的基准的方向。
如图7所示,车辆100可包括:用户界面装置200、对象检测装置300、通信装置400、驾驶操作装置500、车辆驱动装置600、运行系统700、导航系统770、检测部120、接口部130、存储器140、控制部170以及供电部190。
根据实施例,车辆100可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
用户界面装置200是用于车辆100和用户进行交流的装置。用户界面装置200可接收用户输入,并向用户提供车辆100中生成的信息。车辆100可通过用户界面装置200实现用户界面(User Interfaces,UI)或用户体验(User Experience,UX)。
用户界面装置200可包括:输入部210、内部相机220、身体特征检测部230、输出部250以及处理器270。
根据实施例,用户界面装置200可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
输入部210用于供用户输入信息,从输入部210收集的数据可被处理器270分析并处理为用户的控制指令。
输入部210可配置在车辆内部。例如,输入部210可配置在方向盘(steeringwheel)的一区域、仪表板(instrument panel)的一区域、座椅(seat)的一区域、各柱饰板(pillar)的一区域、车门(door)的一区域、中控台(center console)的一区域、顶板(headlining)的一区域、遮阳板(sun visor)的一区域、挡风玻璃(windshield)的一区域或车窗(window)的一区域等。
输入部200可包括:语音输入部211、举止输入部212(gesture)、触摸输入部213以及机械式输入部214。
语音输入部211可将用户的语音输入转换为电信号。被转换的电信号可提供给处理器270或控制部170。
语音输入部211可包括一个以上的麦克风。
举止输入部212可将用户的举止输入转换为电信号。被转换的电信号可提供给处理器270或控制部170。
举止输入部212可包括用于检测用户的举止输入的红外线传感器以及图像传感器中的一种以上。
根据实施例,举止输入部212可检测用户的三维举止输入。为此,举止输入部212可包括用于输出多个红外线光的光输出部或一个以上的图像传感器。
举止输入部212可通过TOF(Time of Flight)方式、结构光(Structured light)方式或视差(Disparity)方式来检测用户的三维举止输入。
触摸输入部213可将用户的触摸输入转换为电信号。被转换的电信号可提供给处理器270或控制部170。
触摸输入部213可包括用于检测用户的触摸输入的触摸传感器。
根据实施例,触摸输入部213可通过与显示部251形成一体来实现触摸屏。这样的触摸屏可一同提供车辆100和用户之间的输入界面以及输出界面。
机械式输入部214可包括按键、圆顶开关(dome switch)、操纵杆、调节旋钮(jogwheel)以及轻摇开关(jog switch)中的一种以上。由机械式输入部214生成的电信号可提供给处理器270或控制部170。
机械式输入部214可配置在方向盘、中控仪表盘、中控台、驾驶舱模块、车门等。
内部相机220可获取车辆内部影像。处理器270可基于车辆内部影像检测用户的状态。处理器270可从车辆内部影像中获取用户的视线信息。处理器270可从车辆内部影像中检测用户的举止。
身体特征检测部230可获取用户的身体特征信息。身体特征检测部230包括可获取用户的身体特征信息的传感器,利用传感器获取用户的指纹信息、心率信息等。身体特征信息可被利用于用户认证。
输出部250用于产生与视觉、听觉或触觉等相关的输出。
输出部250可包括显示部251、音响输出部252以及触觉输出部253中的一种以上。
显示部251可显示与多种信息对应的图形客体。
显示部251可包括液晶显示器(liquid crystal display,LCD)、薄膜晶体管液晶显示器(thin film transistor-liquid crystal display,TFT LCD)、有机发光二极管(organic light-emitting diode、OLED)、柔性显示器(flexible display)、3D显示器(3Ddisplay)、电子墨水显示器(e-ink display)中的一种以上。
显示部251可通过与触摸输入部213构成相互层次结构或一体地形成,从而能够实现触摸屏。
显示部251可由平视显示器(Head Up Display,HUD)来实现。在显示部251由HUD实现的情况下,显示部251可设置有投射模块,从而通过投射在挡风玻璃或车窗的图像来输出信息。
显示部251可包括透明显示器。透明显示器可贴附在挡风玻璃或车窗。
透明显示器可以具有规定的透明度的方式显示规定的画面。为使透明显示器具有透明度,透明显示器可包括透明薄膜电致发光(Thin Film Electroluminescent,TFEL)、透明有机发光二极管(Organic Light-Emitting Diode,OLED)、透明LCD(Liquid CrystalDisplay)、透过型透明显示器、透明LED(Light Emitting Diode)显示器中的一种以上。透明显示器的透明度可进行调节。
另外,用户界面装置200可包括多个显示部251a-251g。
显示部251可配置在方向盘的一区域、仪表板的一区域251a、251b、251e、座椅的一区域251d、各柱饰板的一区域251f、车门的一区域251g、中控台的一区域、顶板(headlining)的一区域,遮阳板(sunvisor)的一区域,或者可实现于挡风玻璃的一区域251c、车窗的一区域251h。
音响输出部252将处理器270或控制部170提供的电信号变换为音频信号并输出。为此,音响输出部252可包括一个以上的扬声器。
触觉输出部253用于产生触觉方式的输出。例如,触觉输出部253可通过振动方向盘、安全带、座椅110FL、110FR、110RL、110RR,来使用户能够认知输出。
处理器270可控制用户界面装置200的各单元的整体上的动作。
根据实施例,用户界面装置200可包括多个处理器270,或者可不包括处理器270。
在用户界面装置200不包括处理器270的情况下,用户界面装置200可根据车辆100内其他装置的处理器或控制部170的控制来进行动作。
另外,可将用户界面装置200称为车辆用显示装置。
用户界面装置200可根据控制部170的控制进行动作。
对象检测装置300是用于检测位于车辆100外部的对象的装置。
对象可以是与车辆100的运行相关的多种物体。
参照图5至图6,对象O可包含车线OB10、其他车辆OB11、行人OB12、二轮车OB13、交通信号OB14、OB15、光、道路、结构物、限速带、地形物、动物等。
车线OB10(Lane)可以是行驶车线、行驶车线的旁边车线、会车的车辆行驶的车线。车线OB10(Lane)可以是包含形成车线(Lane)的左右侧的线(Line)的概念。
其他车辆OB11可以是在车辆100的周边行驶中的车辆。其他车辆可以是距车辆100位于规定距离以内的车辆。例如,其他车辆OB11可以是比车辆100前行或后行的车辆。
行人OB12可以是位于车辆100的周边的人。行人OB12可以是距车辆100位于规定距离以内的人。例如,行人OB12可以是位于人行道或行车道上的人。
二轮车OB13可表示位于车辆100的周边并且可利用两个车轮移动的供乘坐的装置。二轮车OB13可以是距车辆100位于规定距离以内的具有两个车轮的供乘坐的装置。例如,二轮车OB13可以是位于人行道或行车道上的摩托车或自行车。
交通信号可包含:交通信号灯OB15、交通标识牌OB14、画在道路面的纹样或文本。
光可以是设置在其他车辆的车灯中生成的光。光可以是路灯中生成的光。光可以是太阳光。
道路可包括道路面、弯道(curve)、上坡、下坡等倾斜等。
结构物可以是位于道路周边并且固定在地面的物体。例如,结构物可包括路灯、行道树、建筑物、电线杆、信号灯、桥。
地形物可包括山、丘等。
另外,对象可被分类为移动对象和固定对象。例如,移动对象可以是包含其他车辆、行人的概念。例如,固定对象可以是包含交通信号、道路、结构物的概念。
对象检测装置300可包括:相机310、雷达320、激光雷达330、超声波传感器340、红外线传感器350以及处理器370。
根据实施例,对象检测装置300可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
为了获取车辆外部影像,相机310可位于车辆的外部的适当的位置。相机310可以是单色相机(Mono camera)、立体相机310a、环视监控(Around View Monitoring,AVM)相机310b或360度相机。
例如,为了获取车辆前方的影像,相机310可在车辆的室内与前挡风玻璃相靠近地配置。或者,相机310可配置在前保险杠或散热器格栅周边。
例如,为了获取车辆后方的影像,相机310可在车辆的室内与后窗玻璃相靠近地配置。或者,相机310可配置在后保险杠、后备箱或尾门周边。
例如,为了获取车辆侧方的影像,相机310可在车辆的室内与侧窗中的至少一方相靠近地配置。或者,相机310可配置在侧镜、挡泥板或车门周边。
相机310可将获取的影像提供给处理器370。
雷达320可包括电磁波发送部、接收部。雷达320在电波发射原理上可实现为脉冲雷达(Pulse Radar)方式或连续波雷达(Continuous Wave Radar)方式。雷达320在连续波雷达方式中可根据信号波形而实现为调频连续波(Frequency Modulated ContinuousWave,FMCW)方式或频移监控(Frequency Shift Keying,FSK)方式。
雷达320可以电磁波作为媒介,基于飞行时间(Time of Flight,TOF)方式或相移(phase-shift)方式来检测对象,并检测被检测出的对象的位置、与检测出的对象的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,雷达320可配置在车辆的外部的适当的位置。
激光雷达330可包括激光发送部、接收部。激光雷达330可实现为TOF(Time ofFlight)方式或相移(phase-shift)方式。
激光雷达330可由驱动式或非驱动式来实现。
在由驱动式来实现的情况下,激光雷达330可通过电机进行旋转,并检测车辆100的周边的对象。
在由非驱动式来实现的情况下,激光雷达330可利用光偏转(light steering来检测以车辆100为基准位于规定范围内的对象。车辆100可包括多个非驱动式激光雷达330。
激光雷达330可以激光作为媒介,基于TOF(Time of Flight)方式或相移(phase-shift)方式检测对象,并检测被检测出的对象的位置、与检测出的对象的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,激光雷达330可配置在车辆的外部的适当的位置。
超声波传感器340可包括超声波发送部、接收部。超声波传感器340可基于超声波检测对象,并检测被检测出的对象的位置、与检测出的对象的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,超声波传感器340可配置在车辆的外部的适当的位置。
红外线传感器350可包括红外线发送部、接收部。红外线传感器350可基于红外线光检测对象,并检测被检测出的对象的位置、与检测出的对象的距离以及相对速度。
为了检测位于车辆的前方、后方或侧方的对象,红外线传感器350可配置在车辆的外部的适当的位置。
处理器370可控制对象检测装置300的各单元的整体上的动作。
处理器370可基于获取的影像检测对象并进行跟踪。处理器370可通过影像处理算法执行与对象的距离计算、与对象的相对速度计算等动作。
处理器370可基于发送的电磁波被对象反射回的反射电磁波来检测对象并进行跟踪。处理器370可基于电磁波执行与对象的距离计算、与对象的相对速度计算等动作。
处理器370可基于发送的激光被对象反射回的反射激光来检测对象并进行跟踪。处理器370可基于激光执行与对象的距离计算、与对象的相对速度计算等动作。
处理器370可基于发送的超声波被对象反射回的反射超声波来检测对象并进行跟踪。处理器370可基于超声波执行与对象的距离计算、与对象的相对速度计算等动作。
处理器370可基于发送的红外线光被对象反射回的反射红外线光来检测对象并进行跟踪。处理器370可基于红外线光执行与对象的距离计算、与对象的相对速度计算等动作。
根据实施例,对象检测装置300可包括多个处理器370,或者可不包括处理器370。例如,相机310、雷达320、激光雷达330、超声波传感器340以及红外线传感器350可分别单独地包括处理器。
在对象检测装置300中不包括处理器370的情况下,对象检测装置300可根据车辆100内装置的处理器或控制部170的控制来进行动作。
对象检测装置300可根据控制部170的控制进行动作。
通信装置400是用于与外部设备执行通信的装置。其中,外部设备可以是其他车辆、移动终端或服务器。
通信装置400为了执行通信,其可包括发送天线、接收天线、可实现各种通信协议的无线射频(Radio Frequency,RF)电路以及RF元件中的一种以上。
通信装置400可包括:近距离通信部410、位置信息部420、V2X通信部430、光通信部440、广播收发部450以及处理器470。
根据实施例,通信装置400可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
近距离通信部410是用于进行近距离通信(Short range communication)的单元。近距离通信部410可利用蓝牙(BluetoothTM)、无线射频(Radio FrequencyIdentification,RFID)、红外线通信(Infrared Data Association;IrDA)、超宽带(UltraWideband,UWB)、无线个域网(ZigBee)、近场通信(Near Field Communication,NFC)、无线高保真(Wireless-Fidelity,Wi-Fi)、无线高保真直连(Wi-Fi Direct)、无线通用串行总线(Wireless Universal Serial Bus,Wireless USB)技术中的一种以上来支持近距离通信。
近距离通信部410可利用形成近距离无线通信网(Wireless Area Networks)来执行车辆100和至少一个外部设备之间的近距离通信。
位置信息部420是用于获取车辆100的位置信息的单元。例如,位置信息部420可包括全球定位系统(Global Positioning System,GPS)模块或差分全球定位系统(Differential Global Positioning System,DGPS)模块。
V2X通信部430是用于执行与服务器(V2I:Vehicle to Infra、其他车辆(V2V:Vehicle to Vehicle)或行人(V2P:Vehicle to Pedestrian)的无线通信的单元。V2X通信部430可包括能够实现与基础设施(infra的通信(V2I)、车辆间通信(V2V)、与行人的通信(V2P)协议的RF电路。
光通信部440为以光作为媒介与外部设备执行通信的单元。光通信部440可包括:光发送部,将电信号转换为光信号并向外部发送;以及光接收部,将接收到的光信号转换为电信号。
根据实施例,光发送部可与车辆100中包括的车灯以整体的方式形成。
广播收发部450是通过广播频道从外部的广播管理服务器接收广播信号,或者向广播管理服务器发送广播信号的单元。广播频道可包括卫星频道、地面波频道。广播信号可包含TV广播信号、电台广播信号、数据广播信号。
处理器470可控制通信装置400的各单元的整体上的动作。
根据实施例,通信装置400可包括多个处理器470,或者可不包括处理器470。
在通信装置400中不包括处理器470的情况下,通信装置400可根据车辆100内其他装置的处理器或控制部170的控制来进行动作。
另外,通信装置400可与用户界面装置200一同实现车辆用显示装置。在此情况下,可将车辆用显示装置称为车载信息系统(telematics)装置或影音导航(Audio VideoNavigation,AVN)装置。
通信装置400可根据控制部170的控制进行动作。
驾驶操作装置500是用于接收用于驾驶的用户输入的装置。
在手动模式的情况下,车辆100可基于驾驶操作装置500提供的信号来运行。
驾驶操作装置500可包括:转向输入装置510、加速输入装置530以及制动输入装置570。
转向输入装置510可接收来自用户的车辆100的行驶方向输入。转向输入装置510优选地形成为轮(wheel)形态,以能够通过旋转实现转向输入。根据实施例,转向输入装置可形成为触摸屏、触摸板或按键形态。
加速输入装置530可接收来自用户的用于车辆100的加速的输入。制动输入装置570可接收来自用户的用于车辆100的减速的输入。加速输入装置530和制动输入装置570优选地形成为踏板形态。根据实施例,加速输入装置或制动输入装置可形成为触摸屏、触摸板或按键形态。
驾驶操作装置500可根据控制部170的控制进行动作。
车辆驱动装置600是以电性方式控制车辆100内各种装置的驱动的装置。
车辆驱动装置600可包括:传动驱动部610(power train)、底盘驱动部620、车门/车窗驱动部630、安全装置驱动部640、车灯驱动部650以及空调驱动部660。
根据实施例,车辆驱动装置600可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
另外,车辆驱动装置600可包括处理器。车辆驱动装置600的各单元可分别单独地包括处理器。
传动驱动部610可控制传动装置的动作。
传动驱动部610可包括动力源驱动部611以及变速器驱动部612。
动力源驱动部611可执行针对车辆100的动力源的控制。
例如,在以基于化石燃料的引擎作为动力源的情况下,动力源驱动部611可执行针对引擎的电子式控制。由此,能够控制引擎的输出扭矩等。动力源驱动部611可根据控制部170的控制而调节引擎输出扭矩。
例如,在以基于电的电机作为动力源的情况下,动力源驱动部611可执行针对电机的控制。动力源驱动部611可根据控制部170的控制而控制电机的转速、扭矩等。
变速器驱动部612可执行针对变速器的控制。
变速器驱动部612可调节变速器的状态。变速器驱动部612可将变速器的状态调节为前进D、倒车R、空挡N或驻车P。
另外,在引擎为动力源的情况下,变速器驱动部612可在前进D状态下调节齿轮的啮合状态。
底盘驱动部620可控制底盘装置的动作。
底盘驱动部620可包括:转向驱动部621、制动驱动部622以及悬架驱动部623。
转向驱动部621可执行针对车辆100内的转向装置(steering apparatus)的电子式控制。转向驱动部621可变更车辆的行驶方向。
制动驱动部622可执行针对车辆100内的制动装置(brake apparatus)的电子式控制。例如,可通过控制配置在车轮的制动器的动作来减小车辆100的速度。
另外,制动驱动部622可对多个制动器分别单独地进行控制。制动驱动部622可对施加给多个车轮的制动力相互不同地进行控制。
悬架驱动部623可执行针对车辆100内的悬架装置(suspension apparatus)的电子式控制。例如,在道路面存在有曲折的情况下,悬架驱动部623可通过控制悬架装置来减小车辆100的振动。
另外,悬架驱动部623可对多个悬架分别单独地进行控制。
车门/车窗驱动部630可执行针对车辆100内的车门装置(door apparatus)或车窗装置(window apparatus)的电子式控制。
车门/车窗驱动部630可包括车门驱动部631以及车窗驱动部632。
车门驱动部631可执行针对车门装置的控制。车门驱动部631可控制车辆100中包括的多个车门的开放、关闭。车门驱动部631可控制后备箱(trunk)或尾门(tail gate)的开放或关闭。车门驱动部631可控制天窗(sunroof)的开放或关闭。
车窗驱动部632可执行针对车窗装置(window apparatus)的电子式控制。车窗驱动部632可控制车辆100中包括的多个车窗的开放或关闭。
安全装置驱动部640可执行针对车辆100内的各种安全装置(safety apparatus)的电子式控制。
安全装置驱动部640可包括:气囊驱动部641、安全带驱动部642以及行人保护装置驱动部643。
气囊驱动部641可执行针对车辆100内的气囊装置(airbag apparatus)的电子式控制。例如,在检测出危险时,气囊驱动部641可控制气囊被展开。
安全带驱动部642可执行针对车辆100内的安全带装置(seatbelt apparatus)的电子式控制。例如,在检测出危险时,安全带驱动部642可利用安全带将乘坐者固定在座椅110FL、110FR、110RL、110RR。
行人保护装置驱动部643可执行针对发动机罩提升和行人气囊的电子式控制。例如,在检测出与行人的碰撞时,行人保护装置驱动部643可控制发动机罩被提升(hood liftup)以及行人气囊被展开。
车灯驱动部650可执行针对车辆100内的各种车灯装置(lamp apparatus)的电子式控制。
空调驱动部660可执行针对车辆100内的空调装置(air conditioner)的电子式控制。例如,在车辆内部的温度高的情况下,空调驱动部660可控制空调装置进行动作,从而向车辆内部供给冷气。
车辆驱动装置600可包括处理器。车辆驱动装置600的各单元可分别单独地包括处理器。
车辆驱动装置600可根据控制部170的控制进行动作。
运行系统700是控制车辆100的各种运行的系统。运行系统700可在自主行驶模式下进行动作。
运行系统700可包括:行驶系统710、出车系统740以及驻车系统750。
根据实施例,运行系统700可还包括除了所描述的结构要素以外的其他结构要素,或者可不包括所描述的结构要素中的一部分。
另外,运行系统700可包括处理器。运行系统700的各单元可分别单独地包括处理器。
另外,根据实施例,在运行系统700以软件方式实现的情况下,运行系统700可以是控制部170的下位概念。
另外,根据实施例,运行系统700可以是包括用户界面装置200、对象检测装置300、通信装置400、车辆驱动装置600以及控制部170中的一种以上的概念。
行驶系统710可执行车辆100的行驶。
行驶系统710可接收导航系统770提供的导航信息,向车辆驱动装置600提供控制信号以执行车辆100的行驶。
行驶系统710可接收对象检测装置300提供的对象信息,向车辆驱动装置600提供控制信号来执行车辆100的行驶。
行驶系统710可通过通信装置400接收外部设备提供的信号,向车辆驱动装置600提供控制信号来执行车辆100的行驶。
出车系统740可执行车辆100的出车。
出车系统740可接收导航系统770提供的导航信息,向车辆驱动装置600提供控制信号来执行车辆100的出车。
出车系统740可接收对象检测装置300提供的对象信息,向车辆驱动装置600提供控制信号来执行车辆100的出车。
出车系统740可通过通信装置400接收外部设备提供的信号,向车辆驱动装置600提供控制信号来执行车辆100的出车。
驻车系统750可执行车辆100的驻车。
驻车系统750可接收导航系统770提供的导航信息,向车辆驱动装置600提供控制信号来执行车辆100的驻车。
驻车系统750可接收对象检测装置300提供的对象信息,向车辆驱动装置600提供控制信号来执行车辆100的驻车。
驻车系统750可通过通信装置400接收外部设备提供的信号,向车辆驱动装置600提供控制信号来执行车辆100的驻车。
导航系统770可提供导航信息。导航信息可包含地图(map)信息、所设定的目的地信息、与所述目的地设定对应的路径信息、关于路径上的多种对象的信息、车线信息以及车辆的当前位置信息中的一种以上。
导航系统770可包括存储器、处理器。存储器可存储导航信息。处理器可控制导航系统770的动作。
根据实施例,导航系统770可通过通信装置400从外部设备接收信息,并对预先存储的信息进行更新。
根据实施例,导航系统770可被分类为用户界面装置200的下位结构要素。
检测部120可检测车辆的状态。检测部120可包括姿势传感器(例如,横摆传感器(yaw sensor)、滚动传感器(roll sensor)、斜角传感器(pitch sensor))、碰撞传感器、车轮传感器(wheel sensor)、速度传感器、倾斜传感器、重量检测传感器、航向传感器(heading sensor)、陀螺仪传感器(gyro sensor)、定位模块(position module)、车辆前进/倒车传感器、电池传感器、燃料传感器、轮胎传感器、基于方向盘旋转的转向传感器、车辆内部温度传感器、车辆内部湿度传感器、超声波传感器、照度传感器、加速踏板位置传感器、制动踏板位置传感器等。
检测部120可获取车辆姿势信息、车辆碰撞信息、车辆方向信息、车辆位置信息(GPS信息)、车辆角度信息、车辆速度信息、车辆加速度信息、车辆斜率信息、车辆前进/倒车信息、电池信息、燃料信息、轮胎信息、车灯信息、车辆内部温度信息、车辆内部湿度信息、关于方向盘旋转角度、车辆外部照度、施加给加速踏板的压力、施加给制动踏板的压力等的检测信号。
除此之外,检测部120可还包括加速踏板传感器、压力传感器、引擎转速传感器(engine speed sensor)、空气流量传感器(AFS)、吸气温度传感器(ATS)、水温传感器(WTS)、节气门位置传感器(TPS)、TDC传感器、曲轴转角传感器(CAS)等。
接口部130可执行与和车辆100相连接的多种外部装置的通道作用。例如,接口部130可设置有可与移动终端相连接的端口,通过所述端口能够与移动终端进行连接。在此情况下,接口部130可与移动终端进行数据交换。
另外,接口部130可执行向连接的移动终端供给电能的通道作用。在移动终端与接口部130进行电连接的情况下,根据控制部170的控制,接口部130可将供电部190供给的电能提供给移动终端。
存储器140与控制部170进行电连接。存储器140可存储关于单元的基本数据、用于单元的动作控制的控制数据、输入输出的数据。存储器140在硬件上可以是ROM、RAM、EPROM、闪存盘、硬盘等多种存储装置。存储器140可存储用于控制部170的处理或控制的程序等、用于车辆100整体上的动作的多种数据。
根据实施例,存储器140可与控制部170以整体的方式形成,或者作为控制部170的下位结构要素来实现。
控制部170可控制车辆100内的各单元的整体上的动作。可将控制部170称为电子控制单元(Electronic Control Unit,ECU)。
供电部190可根据控制部170的控制而供给各结构要素的动作所需的电源。特别是,供电部190可接收车辆内部的电池等供给的电源。
车辆100中包括的一个以上的处理器以及控制部170可利用专用集成电路(application specific integrated circuits,ASICs)、数字信号处理器(digitalsignal processors,DSPs)、数字信号处理设备(digital signal processing devices,DSPDs)、可编程逻辑设备(programmable logic devices,PLDs)、现场可编程门阵列(fieldprogrammable gate arrays,FPGAs)、处理器(processors)、控制器(controllers)、微控制器(micro-controllers),微处理器(microprocessors)、用于执行其他功能的电性单元中的一种以上来实现。
另外,与本发明相关的车辆100可包括车辆控制装置800。
车辆控制装置800能够控制图7中说明的结构要素中的一种以上。在这种观点上,所述车辆控制装置800可以是控制部170。
本发明并不限定于此,车辆控制装置800还可以是独立于控制部170的额外的结构。在车辆控制装置800由独立于控制部170的结构要素来实现的情况下,所述车辆控制装置800可以设置在车辆100的一部分。
另外,本说明书中说明的车辆控制装置800可包括能够控制车辆的所有种类的设备,例如可以是移动终端。当车辆控制装置800为移动终端时,移动终端与车辆100可以能够通过有线/无线通信来进行通信的方式连接。另外,移动终端在通信连接的状态下可以多种方式来控制车辆100。
当车辆控制装置800为移动终端时,本说明书中说明的处理器870可以是移动终端的控制部。
以下,为了便于说明,以车辆控制装置800为独立于控制部170的额外的结构为例进行说明。本说明书中对车辆控制装置800进行说明的功能(动作)和控制方法可由车辆的控制部170来执行。即,与车辆控制装置800相关联进行说明的所有内容可相同或类似地类推适用于控制部170。
另外,本说明书中说明的车辆控制装置800可包括图7中说明的结构要素和设于车辆的多种结构要素中的一部分。在本说明书中,为了便于说明,对图7中说明的结构要素和设于车辆的多种结构要素将赋予额外的名称和附图标记来进行说明。
以下参照附图对本发明的一实施例的车辆控制装置800所包含的结构要素更具体地进行描述。
图8是用于说明本发明的实施例的车辆控制装置的概念图。
与本发明相关的车辆控制装置800可包括:通信部810、检测部820、显示部830以及处理器870等。
首先,与本发明相关的车辆控制装置800可具有通信部810。
通信部810可以是前述的通信装置400。通信部810可以能够与存在于车辆100中的移动终端进行通信的方式连接。
作为一例,车辆控制装置800(或者车辆100)与移动终端可以能够通过通信部810进行无线通信的方式连接。所述车辆控制装置800与移动终端可以能够基于用户请求相互无线通信的方式,或者如果先前已经通过能够无线通信的方式连接,则以能够基于所述移动终端进入所述车辆内部相互无线通信的方式无线连接。
这样的通信部810可以设置在车辆中(或者车辆控制装置中),也可形成为额外的模块的形态,以能够与车辆的结构要素进行通信(或者电耦合)的方式形成。
车辆控制装置800可通过通信部810来控制移动终端900。
具体而言,车辆控制装置800可通过通信部810向移动终端900传输用于控制移动终端900的控制信号。当移动终端900接收到所述控制信号时,可以执行与所述控制信号对应的功能/动作/控制。
相反,本发明可以使移动终端900能够控制车辆控制装置800(或者车辆100)。具体而言,移动终端900可以向车辆控制装置800传输用于控制车辆的控制信号。响应于此,车辆控制装置800可以执行与移动终端900传输的控制信号对应的功能/动作/控制。
另外,通信部810可与存在于车辆外部的外部装置(例如,服务器、云服务器(或云)、因特网等)执行通信。另外,通信部810可与其他车辆执行通信。
通信部810可以从外部装置接收与目的地相关的信息。其中,与目的地相关的信息可包括:拍摄的目的地的图像;目的地的位置;目的地的种类;当目的地包含在建筑物时,与建筑物相关的信息(例如,相应建筑物的结构和入驻于每一层的店面信息);以及,与目的地的停车场相关的信息等。
另外,通信部810还可以从外部装置接收与距车辆位于规定距离以内的建筑物相关的信息、与空地相关的信息以及与停车场相关的信息等多种信息。
这样的信息的接收例如可以在处理器870或外部装置的控制下执行。
与本发明相关的车辆控制装置800可包括检测部820。所述检测部820可以是图7中说明的对象检测装置300,也可以是设于车辆100的检测部120。
所述检测部120可包括相机。所述相机例如可包括:形成为拍摄车辆内部的内部相机;以及,形成为拍摄车辆外部的外部相机。
检测部120可使用内部相机来检测驾驶者的视线方向。
另外,检测部120可使用外部相机来拍摄车辆外部。
作为一例,检测部120还可以由所述对象检测装置300中包含的相机310、雷达320、激光雷达330、超声波传感器340、红外线传感器350以及检测部120中的一种以上的组合来实现。
检测部820可检测与本发明的车辆100相关的信息。
与所述车辆相关的信息可以是车辆信息(或者,车辆的行驶状态)和车辆的周边信息中的一种以上。
例如,车辆信息可包括:车辆的行驶速度、车辆的重量、车辆的乘坐人员、车辆的制动力、车辆的最大制动力、车辆的行驶模式(是自主行驶模式还是手动行驶)、车辆的驻车模式(自主驻车模式、自动驻车模式、手动驻车模式)、车辆中是否有乘坐的用户以及与所述用户相关的信息(例如,所述用户是否为认证的用户)等。
车辆的周边信息例如可以是:车辆行驶中的路面的状态(摩擦力)、天气、与前方(或者后方)车辆之间的距离、前方(或者后方)车辆的相对速度、行驶中的车线为曲线时曲线的曲率、车辆周边亮度、与以车辆为基准存在于基准区域(一定区域)内的客体相关的信息、客体是否进入/偏离所述一定区域、车辆周边是否存在用户以及与所述用户相关的信息(例如,所述用户是否为认证的用户)等。
另外,所述车辆的周边信息(或者周边环境信息)可包括:车辆的外部信息(例如,周边亮度、温度、太阳的位置、周边被摄体(人、其他车辆、标识牌等)信息、行驶中的路面的种类、地形地物、车线(Line)信息、行驶车道(Lane)信息)以及自主行驶/自主驻车/自动驻车/手动驻车模式所需要的信息。
另外,车辆的周边信息可还包括:存在于车辆周边的客体(对象)距车辆100的距离、所述客体的种类、车辆可以驻车的驻车空间以及用于识别驻车空间的客体(例如,驻车线、绳子、其他车辆、墙壁等)等。
另外,与所述车辆相关的信息可包括:移动终端是否置于设置在车辆中的支架上;移动终端是否进入(存在于)车辆内,或者移动终端是否进入(存在于)距车辆规定距离以内的位置;以及,移动终端与车辆控制装置是否建立通信连接等。
通过所述检测部820检测到的与车辆相关的信息可以在用于车辆的自主行驶的自主行驶模式下使用。具体而言,处理器870可使用通过检测部820检测到的与车辆相关的信息使车辆自主行驶。
另外,与本发明相关的车辆控制装置800可包括显示部830。
与本发明相关的车辆控制装置800中包含的显示部830作为设置在车辆100中的显示装置,可以是前述的显示部251。
所述显示部830可以是图7所述的输出部250或显示部251。另外,所述显示部830可包括能够与通信装置400进行通信的移动终端的输出部(例如,触摸屏)。
另外,显示部830可包括透明显示器。透明显示器可贴附在挡风玻璃或车窗上。即,本发明的显示部830可包括挡风玻璃和车窗。在本说明书中,处理器870将某种信息(或者图形客体)输出到显示部830包括:将所述某种信息(或者图形客体)输出到挡风玻璃,或者将所述某种信息(或者图形客体)输出到车窗。
另外,显示部830可配置在方向盘的一区域,仪表板的一区域251a、251b、251e,座椅的一区域251d,各柱饰板的一区域251f,车门的一区域251g,中控台的一区域,顶板的一区域以及遮阳板(sunvisor)的一区域,或者可实现于挡风玻璃的一区域251c、车窗的一区域251h。
例如,所述显示部830可包括:仪表盘(Cluster)、CID(Center InformationDisplay)、导航装置以及HUD(Head-Up Display)等。
显示部830可与触摸传感器构成相互层次结构或一体地形成,从而能够实现触摸屏。这样的触摸屏用作为提供车辆100(或者车辆控制装置800)和用户之间的输入界面的输入部210的同时,可还提供车辆100(或者车辆控制装置800)和用户之间的输出界面。
处理器870可以将与车辆相关的多种信息输出到所述显示部830。另外,所述处理器870可按照与车辆相关的信息的种类,将与所述车辆相关的信息输出到显示部830的相互不同的位置。
另外,处理器870可根据目的地的位置和驾驶者的视线,将图形客体以预设定的方式输出到显示部830。
对于输出到显示部830的多种信息,将在下述中参照附图更具体地进行说明。
所述显示部830可以是导航系统770(或者导航装置)。另外,所述显示部830可包括导航系统770。
即,所述显示部830可表示设于本车辆100的导航装置,所述导航装置可以是车辆100出厂前预先内置的,也可以是由用户安装的导航装置。
所述显示部830可表示车辆用导航,也可以表示独立于由移动终端900提供的导航系统的导航系统。
本说明书中对显示部830进行说明的内容可相同或类似地类推适用于导航系统770、导航装置或车辆用导航。
另外,本发明的车辆控制装置800可包括能够控制通信部810、检测部820以及显示部830等的处理器870。
所述处理器870可以是图7中说明的控制部170。
处理器870可以控制图7中说明的结构要素以及图8中说明的结构要素。
另外,所述处理器870可通过检测部820中包含的相机来接收影像。
另外,处理器870可以基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到显示部830。
以下参照附图对本发明中提供驾驶者能够以最优化的方法识别目的地的用户界面的方法更具体地进行描述。
图9是用于说明本发明的代表性的控制方法的流程图;图10是具体说明本发明的一实施例的控制方法的流程图。
图11A、图11B、图12、图13、图14、图15、图16、图17、图18、图19、图20、图21、图22、图23、图24及图25是用于说明图9及图10中说明的控制方法的概念图。
首先,参照图9,在本发明中执行通过相机接收影像的步骤(S910)。
具体而言,处理器870可通过检测部820中包含的相机来接收预览影像(或者实时影像)。
所述预览影像作为实时显示通过相机处理的影像的影像,可区别于被捕获的静态影像或动态影像。
另外,在本说明书中,针对术语所述预览影像,可以用术语影像来代替。
处理器870可以基于满足预设定的条件来启动所述相机。具体而言,处理器870可以基于满足所述预设定的条件来启动(或者开启(on))所述相机以接收影像。
其中,所述预设定的条件可包括:预设定的目的地和车辆之间的距离在规定距离以内;车辆进入距所述预设定的目的地规定距离以内的位置;以及,存在用于启动相机的用户请求等。
所述规定距离可以根据所述预设定的目的地而改变。
例如,当所述预设定的目的地周边的遮挡视野的障碍物较少时,所述规定距离可以是第一距离。另外,当所述预设定的目的地周边的遮挡视野的障碍物较多时,所述规定距离可以是小于所述第一距离的第二距离。
如上所述,处理器870可以基于满足所述预设定的条件来启动(或者开启)所述相机,并通过所述相机接收影像(例如,预览影像或实时影像)。
随后,在本发明中执行基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到显示部830的步骤(S920)。
具体而言,当根据用户请求来设定目的地时,处理器870可以设定从当前车辆的位置到所述设定的目的地的路径信息,并将所述路径信息输出到显示部830。
其中,在所述设定的路径信息中设定目的地,在本说明书中将所述目的地命名为预设定的目的地。
另外,处理器870可以基于满足预设定的条件(例如,车辆进入距所述预设定的目的地规定距离以内的位置)来启动(或者开启)相机,并通过所述相机接收影像。
处理器870可分析所述影像,并从所述影像中识别出与所述预设定的目的地相对应的客体。所述客体可表示通过相机拍摄的所述预设定的目的地的实际情景的影像。
其中,处理器870例如可以根据与所述目的地相关的信息(例如,位置信息、外观信息等),从所述影像中识别出所述预设定的目的地。
与所述目的地相关的信息例如可以存储在存储器中,或者可以通过通信部810从外部装置(例如,移动终端、其他车辆、因特网、服务器等)接收。
处理器870可使用通过相机接收到的影像以及与所述目的地相关的信息,从通过所述相机接收到的影像中识别出所述预设定的目的地。
处理器870可以基于通过所述影像识别出所述预设定的目的地,将图形客体以重叠于所述目的地的方式输出到所述显示部830。
其中,将图形客体以重叠于所述目的地的方式输出到显示部830可表示,将所述图形客体以AR(Augmented Reality)方式输出到由挡风玻璃(或者HUD(Head Up Display))或车窗上朝向目的地的驾驶者的视线所经由的位置。
所述显示部830可包括车辆的挡风玻璃(或者HUD)或玻璃窗。所述挡风玻璃可表示位于车辆的前方的玻璃窗,所述玻璃窗可表示位于车辆的两侧或车辆的后方的玻璃窗。
处理器870可以将所述图形客体输出到挡风玻璃或车窗上。
另外,处理器870可以将所述图形客体输出到挡风玻璃或车窗上,使得当驾驶者看向目的地时重叠于所述目的地。
在本说明书中,为了便于说明,以显示部830为挡风玻璃为例进行说明。
参照图11A,从通过相机接收到的影像中识别出目的地(或者与目的地相对应的客体)可表示,驾驶者可以看到目的地1100。
处理器870可通过检测部820来检测(判断、决定、检测、提取)驾驶者1130的视线1140。具体而言,处理器870可通过检测部820来检测驾驶者1130看向预设定的目的地1100的视线1140的区域。
作为一例,处理器870可使用检测部820的内部相机来拍摄驾驶者,并对拍摄的影像进行分析从而检测出驾驶者的视线(以及视线的区域)。
处理器870可根据驾驶者看向所述目的地110的视线1140,检测出所述视线1140(或者视线的区域)通过(贯通、经由)显示部830(例如,挡风玻璃)的区域。
随后,处理器870可以将图形客体1110输出到所述驾驶者的视线通过(贯通、经由)显示部830的区域上。
由此,处理器870可以将图形客体输出到显示部830(挡风玻璃或车窗)上,使得当驾驶者看向目的地时重叠于目的地。
处理器870可以基于驾驶者所看到的目的地1100的位置和形态随着车辆的行驶而发生改变,从而改变所述图形客体1110的输出位置和输出形态。
作为一例,当目的地1100随着车辆的行驶而拉近,则在驾驶者的角度(或者相机的角度)上所述目的地1100的大小将变大。由此,驾驶者的视线看向所述目的地的视线的区域也会变宽,由此所述驾驶者的视线通过显示部830(挡风玻璃)的区域也会变大。
由此,当所述目的地拉近时,处理器870可以放大以重叠于所述目的地的方式输出的图形客体的大小。
另外,当看向所述目的地1100的方向发生改变时,则在驾驶者的角度(或者相机的角度)所看到的所述目的地的形态也将发生改变。在此情况下,当所述目的地的形态随着车辆的相机(或者驾驶者)看向目的地的方向发生改变而改变时,处理器870可以改变以重叠于所述目的地的方式输出的图形客体的输出形态,使得与所述改变的目的地的形态相对应。
以下参照图10对提供本发明的一实施例的能够容易地确认到目的地的用户界面的方法更具体地进行描述。
首先,参照图10,处理器870可通过通信部810接收(获取)特定信息1000。
所述特定信息1000可包括:GPS信息、V2X(Vehicle to everything)信息、导航信息、大数据、地图数据、由IMU(Inertial Measurement Unit,惯性测量装置)测量的与车辆相关的信息、由ADAS(Advanced Driver Assist System)提供的信息以及Third Party信息等。
处理器870可以使用所述特定信息1000获取车辆的当前位置(GPS)、视觉里程(Visual odometry)、目的地位置(POI(Point of Interest)GPS)、相机图像、周边POI偏好以及目的地或POI的元数据。
另外,本发明的车辆控制装置800可包括能够存储或生成以重叠于目的地的方式输出的图形客体(Reference Image)的数据库(Reference Image DataBase)1010。
处理器870可以从所述数据库1010接收(获取)所述图形客体(Reference Image)。
随后,处理器870可以判断从通过相机接收到的影像中是否能够识别出(或者看得到)预设定的目的地(S1020)。
随后,处理器870可以判断车辆和目的地(POI)之间的距离是否在规定距离x以内(S1030)。
当所述车辆和目的地(POI)之间的距离在规定距离x以内时,处理器870可以根据与当前进入相机(或者相机的视野)的目的地(POI)相对应的客体,从数据库中筛选出以重叠于所述目的地的方式显示的图形客体(reference image)(S1040)。
随后,处理器870可使用通过当前相机接收到的影像(当前相机帧)和所述筛选出的图形客体(reference image),将所述图形客体与对应于目的地的区域(POI区域)进行匹配。其中,将所述图形客体与对应于目的地的区域进行匹配是指,如图11A所示,决定显示所述图形客体的输出区域,使得当驾驶者看向目的地时图形客体以重叠于目的地的方式显示。
另外,当车辆和目的地(POI)之间的距离大于规定距离x时,处理器870可使用GPS信息(车辆的位置信息和目的地的位置信息)、视觉里程计(Visual odometry)数据(信息)的插值以及相机影像的坐标变换来决定所述目的地的位置(或者在显示部830上显示)。其中,所决定的目的地的位置可包含目的地(POI)图形客体的相机坐标系坐标。
随后,目的地(POI)图形客体的相机坐标系坐标以及与所述目的地相关的信息(元数据)可传输到处理器870(或者车辆控制装置800)所包含的AR图形绘制引擎(S1070)。所述AR图形绘制引擎可以使用所述目的地图形客体的相机坐标系坐标以及与目的地相关的信息来执行AR图形绘制。
所述AR图形绘制可以是指,将图形客体输出到挡风玻璃或车窗上,使得当驾驶者看向目的地时重叠于目的地。
随后,处理器870(或者AR图形绘制引擎)可以根据相机影像、所述目的地图形客体的相机坐标系以及与目的地相关的信息中的一种以上,将目的地(POI)信息(或者图形客体)以重叠于目的地的方式输出(或者输出到目的地周边)(S1080)。
所述目的地信息可包含目的地的名称以及与目的地相关的多种信息(例如,层数、运营时间、偏好、评分、评论、目的地标志、停车场信息)作为与目的地相关的信息。
所述目的地信息可包含在显示部830所包含的图形客体中。另外,所述目的地信息在显示部830中可以重叠于目的地或者仅一部分重叠于目的地的方式显示,或者可以显示在目的地周边。
同样地,基于驾驶者所看到的(或者以车辆为基准的)目的地的位置和形态随着车辆行驶而发生改变,所述目的地信息的输出位置和输出形态也可以改变。
以下参照附图对以重叠于目的地的方式输出图形客体的多种方式更具体地进行说明。
以下,以显示部830为挡风玻璃,且当驾驶者看向目的地时图形客体在挡风玻璃上以重叠于目的地的方式以AR方式输出为例进行说明。
但是,在以下说明的内容中,当通过设置在车辆中的至少一个显示器输出通过相机接收到的影像时,可相同或类似地类推适用图形客体以重叠于从所述影像中识别出的目的地(或者与目的地相对应的客体)的方式输出。
另外,当从通过相机接收到的影像中识别出预设定的目的地时,处理器870可以将相互不同的种类的与所述目的地相关的信息(或者与目的地相关的图形客体)输出到显示部830。
参照图11B的(a),处理器870可以通过由相机接收到的影像来识别预设定的目的地1100。例如,处理器870可以从所述影像中识别出与所述预设定的目的地相对应的客体。
在此情况下,处理器870可以将图形客体1110a输出到显示部830,使得当驾驶者看向所述预设定的目的地1100时重叠于所述目的地1100。
其中,当目的地1100包含在建筑物(或者目的地1100为建筑物)时,处理器870可以将与所述建筑物的外围边缘相对应的图形客体1110a以重叠于所述建筑物的方式输出到显示部830。
此时,当车辆和所述预设定的目的地1100之间的距离为第一距离(例如,200m~500m)时,处理器870可还将第一种类的图形客体1120(例如,如图11B的(a)所示,包含用于从当前车辆的位置行驶到目的地的路径信息的地图信息)显示在显示部830中。
另外,当所述车辆和所述预设定的目的地1100之间的距离为小于所述第一距离的第二距离(例如,100~200m)时,处理器870可还将不同于所述第一种类的第二种类的图形客体(例如,如图11B的(b)所示,提示行驶到所述目的地的路径的图形地毯1150或转弯(turn-by-turn)导航信息1160)显示在所述显示部830中。
另外,处理器870可根据车辆和目的地之间的距离,将以重叠于目的地的方式显示的图形客体1110a、1110b以相互不同的方式进行输出。
例如,当所述车辆和目的地之间的距离为所述第一距离时,目的地的形态(轮廓)的可识别性有可能较低。在此情况下,在所述第一距离输出的图形客体可以统一为特定形态。
即,当所述车辆和目的地之间的距离为所述第一距离时,处理器870可以将特定形态的图形客体1110a以重叠于所述目的地的方式进行输出。
作为另一例,当所述车辆和目的地之间的距离为小于所述第一距离的所述第二距离时,目的地的形态(轮廓)的可识别性相比第一距离将增高。
在此情况下,当所述车辆和目的地之间的距离为小于所述第一距离的所述第二距离时,处理器870可以通过由相机接收到的影像来提取目的地的形态(轮廓)。
另外,当所述车辆和目的地之间的距离为所述第二距离时,处理器870可以将与所述目的地的形态(轮廓、外围边缘)相对应的图形客体1110b以重叠于所述目的地的方式进行输出。
另外,处理器870可以基于从通过相机接收到的影像中是否能够识别出包含所述目的地的建筑物,以及包含所述目的地的建筑物是否全部包含在所述影像中,以相互不同的方式将图形客体输出到所述显示部830。
例如,当从影像中未识别出包含目的地的建筑物时,处理器870可以将包含与所述目的地相关的信息的第一图形客体(例如,目的地信息)输出到所述显示部830。
作为一例,所述第一图形客体可以是图11B所示的目的地信息“Y站”。
此时,所述第一图形客体可以输出到驾驶者的视线能够朝向所述目的地所在的场所的位置。
作为另一例,当从所述影像中识别出包含目的地的建筑物时(图11B的(a)、(b)),处理器870可以将形成为对应于所述建筑物的边缘的第二图形客体1110a或1110b与所述第一图形客体(例如,目的地信息)一并输出到所述显示部830。
另外,当从所述影像中可识别出包含目的地的建筑物,而所述影像中仅包括所述建筑物的一部分时,处理器870可以将第三图形客体以重叠于所述建筑物中所述目的地所在的位置的方式输出到显示部830。
其中,从所述影像中可识别出包含目的地的建筑物,而所述影像中仅包括所述建筑物的一部分是指,随着车辆和目的地之间的距离在小于所述第二距离的第三距离(例如,0~100m)以内,驾驶者在车辆上无法看到整个所述建筑物的情况。
另外,所述影像中仅包括所述建筑物的一部分可表示:影像中不包括整个建筑物;驾驶者通过挡风玻璃无法看到整个所述建筑物;或者,驾驶者通过挡风玻璃仅看到建筑物的一部分。
例如,如图12A和图12B所示,当车辆和目的地之间的距离较近,从而所述影像中仅包括建筑物的一部分时,处理器870可以将第三图形客体1210以重叠于所述建筑物中包含的停车场入口1200的方式进行输出,或者将第三图形客体1230以重叠于所述建筑物中包含的目的地1220的方式输出到显示部830。
此时,处理器870可以将与所述建筑物的停车场相关的信息1212与所述第三图形客体1210一并进行输出,或者将所述目的地信息1222与所述第三图形客体1230一并进行输出。
另外,如图13A所示,当从影像中识别出整个建筑物1300时,处理器870可以将形成为仅重叠于所述建筑物的边缘的图形客体1310a以重叠于所述建筑物的外围边缘的方式输出到显示部830。
另外,如图13B所示,当从影像中仅识别出建筑物的一部分时,处理器870可以将所述建筑物的一部分内部也进行高亮处理的图形客体1310b以重叠于所述建筑物的一部分的方式输出到显示部830。
另外,如图13A所示,当从通过相机接收到的影像中识别出包含所述目的地的整个建筑物时,处理器870可以将与所述建筑物相关的信息1320输出到所述显示部830。
另外,如图13A所示,当从通过相机接收到的影像中识别出包含所述目的地的整个建筑物时,处理器870可以将与所述目的地相关的信息(目的地信息)1330a以仅重叠于所述建筑物周边或所述建筑物的一部分的方式输出到显示部830。
相反,如图13B所示,当从所述影像中仅识别出包含所述目的地的建筑物的一部分时,处理器870可不输出与所述建筑物相关的信息1320到显示部830。
另外,如图13B所示,当从所述影像中仅识别出包含所述目的地的建筑物的一部分时,处理器870可以将与所述目的地相关的信息1330b输出到与所述建筑物中所述目的地所在的场所相对应的位置。
另外,处理器870可根据车辆和目的地之间的距离,将与所述目的地的停车场相关的图形客体以预设定的方式输出到显示部。
例如,如图14A所示,当包含所述目的地的建筑物(或者所述目的地)和车辆之间的距离为第一距离时,处理器870可以将与所述停车场相关的图形客体1430a以第一方式输出到所述显示部830。
此时,所述第一方式例如可以是提示停车场名称或停车场是否存在的简单的图标。
如图14B所示,当所述建筑物和车辆之间的距离为小于所述第一距离的第二距离时,处理器870可以将与所述停车场相关的图形客体1430b以不同于所述第一方式的第二方式输出到所述显示部830。
其中,如图14B所示,所述第二方式可以是输出还包括停车场费用、停车场使用时间等详细信息的方式。以所述第二方式输出的与停车场相关的图形客体1430b中可包含比所述第一方式的图形客体更详细的信息。
另外,如图14B所示,当所述建筑物和所述车辆之间的距离进入所述第二距离以内,处理器870可还输出向包含目的地的建筑物的停车场引导路径的第一图形客体1432a,以及向距所述建筑物规定距离以内所在的停车场引导路径的第二图形客体1432b。
所述第一和第二图形客体1432a、1432b中可包括与各停车场相关的信息,并且可以重叠于行驶中的道路上的方式输出到显示部830。
即,当车辆进入距包含目的地的建筑物规定距离(例如,第二距离)以内的位置时,处理器870可以将与包含所述目的地的建筑物的停车场相关的第一图形客体(或者第一图形地毯),以及与距所述建筑物的停车场规定距离以内所在的其他停车场相关的第二图形客体(或者第二图形地毯),以重叠于行驶中的道路上的方式输出到所述显示部830。
随后,如图14C所示,当从通过相机接收到的影像中识别出包含所述目的地的建筑物的停车场入口时(或者,所述建筑物和车辆之间的距离为小于所述第二距离的第三距离时)(或者,从通过相机接收到的影像中仅识别出所述建筑物的一部分时),处理器870可以将图形客体1434以重叠于所述停车场入口的方式输出到显示部830。
此时,处理器870可还输出包含提示所述停车场的每一层中可以驻车的车位的信息的图形客体(或者第三方式的图形客体)到显示部830。
另外,当所述目的地的停车场车位已满时(即,没有可以驻车的车位时),处理器870可以在包含所述目的地的建筑物上重叠输出第一颜色(例如,红色系颜色)的图形客体。
另外,当所述目的地的停车场车位已满时,处理器870可还在距所述目的地规定距离以内所在的可以驻车的建筑物(或者停车场)上重叠输出不同于所述第一颜色的第二颜色(例如,蓝色系颜色)的图形客体。
另外,处理器870可以根据当前行驶中的车辆的速度,将与目的地相关的图形客体以相互不同的形态输出到显示部830。
停车场是否车位已满可以由处理器根据通过通信部810从建筑物的服务器或因特网接收的信息来进行判断。
例如,如图15所示,处理器870可以控制显示部830,使得包含与目的地相关的信息(例如,目的地名称、剩余距离、与目的地相关联的广告等)的图形客体输出到目的地周边。
此时,处理器870在当前行驶中的车辆的速度较快时,可简要显示与所述目的地相关的图形客体,在所述车辆的速度较慢时,可详细显示与所述目的地相关的图形客体。
例如,当当前行驶中的车辆的速度为第一速度(例如,特定速度以上的速度)时,处理器870可以将第一形态的图形客体1500a(例如,包含目的地的名称和距目的地所剩余的距离的信息)输出到显示部380。
作为另一例,当当前行驶中的车辆的速度为低于所述第一速度的第二速度(例如,低于特定速度的速度)时,处理器870可以显示与所述第一形态不同的第二形态的图形客体1500b(例如,目的地的名称、剩余距离、与目的地相关的详细信息(例如,当目的地为火车站/地铁站时是下一班火车的出发时刻,当目的地为餐厅时是畅销/活动等))。
即,处理器870在车辆的速度较快时,可简要显示与目的地相关的图形客体(或者信息),在车辆的速度较慢时,可详细显示与所述目的地相关的图形客体(或者信息)。
另外,处理器870可通过检测部820来判断车辆是否因信号而处于停车状态,并在所述车辆处于停车状态时,输出所述第二形态的图形客体1500b,在车辆因所述信号而出发时,将所述第一形态的图形客体1500a输出到显示部830。
另外,与本发明相关的以重叠于目的地的方式输出的图形客体可以多种形态输出。
当从通过相机接收到的影像中识别出目的地时,处理器870可以将图形客体输出到显示部830(或者挡风玻璃或车窗),使得当驾驶者看向所述目的地时重叠于目的地。
此时,如图16A所示,处理器870可以将特定形态的图形客体1610a以重叠于所述目的地的方式输出,以包括所述目的地的整体形态。在此情况下,即便所述目的地的形状随着车辆的行驶而发生改变,所述图形客体1610a的形态也能够保持,仅大小发生改变。
作为另一例,如图16B所示,处理器870可以将形成为与所述目的地的外观边缘相对应的图形客体1610b以重叠于所述目的地的方式输出到显示部830。
另外,处理器870在车辆和目的地之间的距离为第一距离时,可以输出所述特定形态的图形客体1610a,当所述车辆和目的地之间的距离为小于所述第一距离的第二距离时(即,车辆接近目的地时),可以将形成为与所述外观边缘相对应的图形客体1610b以重叠于所述目的地的方式输出到显示部830。
作为又一例,如图17所示,当从通过相机接收到的影像中识别出目的地时,处理器870可以将包含所述目的地信息的图形客体1700a输出到显示部830。
作为又一例,如图17所示,当从通过相机接收到的影像中识别出目的地时,处理器870可以将包含所述目的地信息的图形客体1700a以及引导所述目的地的位置的图标1700b一并输出到显示部830。
另外,当目的地为空地时(例如,位于外部平地上的停车场),处理器870可以将墙壁形态的图形客体以重叠于所述空地的方式进行输出,以能够识别出所述空地的界线。
例如,如图18A所示,当目的地为空地时,处理器870可以将墙壁形态(或者围栏形态)的图形客体1800a以重叠于所述空地的方式输出到显示部830,以能够识别出所述空地的界线。
此时,如图18A所示,处理器870可还将与所述空地相关的信息1810(例如,当所述空地为停车场时,将与停车场相关的信息)输出到所述显示部830。
另外,当从通过相机接收到的影像中识别出包含目的地的建筑物的停车场入口时,处理器870可以将图形客体以重叠于所述停车场入口的方式进行输出。
此时,如图18B所示,当所述停车场为地下停车场时,处理器870可以在所述停车场入口将隧道形态的图形客体1800b或引导进入所述停车场入口的路径的箭头形态的图形客体1820输出到显示部830。
另外,如图18C所示,当所述停车场为地下停车场时,处理器870还可以将形成为重叠于所述停车场入口的外观边缘的图形客体1800c以重叠于所述停车场入口的方式进行输出。
另外,欲进入停车场时,处理器870可使用检测部820或通信部810来判断是否存在所述停车场进入等待线。
具体而言,如图19A所示,当欲进入停车场的驻车车辆较多时,会出现停车场进入等待线。
在此情况下,处理器870可通过检测部820中包含的相机来判断所述等待线的末尾位置,或者通过通信部810的V2V通信来判断所述等待线的末尾位置。
随后,如图19B所示,处理器870可以将引导所述等待线的末尾位置(或者接下来的等待车辆将进入的位置)的图形客体2000输出到显示部830。
另外,如图20所示,当在通过由相机接收到的影像未识别出目的地的状态下到达交叉路时,处理器870可以将每条道路到达目的地所需的时间信息2100a、2100b以重叠于每条道路上的方式分别输出到显示部830。
例如,当以目的地预设定的状态行驶的过程中,在通过影像未识别出目的地的状态下车辆进入(或者到达)交叉路时,处理器870可针对交叉路的每条道路计算出进入相应道路时能够到达所述目的地的时间信息。
例如,处理器870可以根据通过通信部810从外部服务器(或者因特网)接收的每条道路的交通量或拥堵的信息、进入每条道路时距目的地的行驶距离以及每条道路的速度限制等,计算出进入每条道路时能够到达目的地的时间信息。
随后,如图20所示,处理器870可以将包括所述时间信息的图形客体输出到显示部830。此时,所述图形客体中可包括每条道路的道路名称。
另外,处理器870还可以在所述图形客体中包括与进入每条道路时可以进入的停车场相关的信息。
另外,如图21A和图21B所示,当通过检测部820检测到可以在道路上驻车的空间时,处理器870可以将提示可以在所述空间驻车的图形客体2200a、2200b以重叠于所述空间的方式输出到显示部830。
例如,如图21A所示,当在车辆进入距目的地规定距离以内的位置的状态下,通过检测部820检测到道路停车场时,处理器870可以将形成为与所述道路停车场相对应的图形客体2200a以重叠于所述道路停车场的方式输出到显示部830。
作为另一例,如图21B所示,当在车辆进入距目的地规定距离以内的位置的状态下,通过检测部820检测到道路停车场中可以驻车的车位时,处理器870可以将所述提示可以驻车的图形客体2200b(例如,图标)以重叠于所述可以驻车的车位的方式进行输出。
另外,如图22所示,当从通过相机接收到的影像中检测到停车场时,处理器870可以将图形客体以重叠于所述停车场的方式进行输出。
所述图形客体中可包括:墙壁形态的图形客体、相应停车场的剩余空车位数(或者百分比信息)2300、与停车场相关的信息2320以及除相应停车场以外的其他停车场列表2310。
处理器870可根据可以驻车的车位数(或者百分比),将所述墙壁形态的图形客体的颜色设定为相互不同的颜色。
另外,如图22所示,处理器870可以将引导路径以进入从影像中识别出的停车场的图形客体2330,以及向除所述停车场以外的其他停车场引导路径的图形客体2340,以重叠于道路上的方式输出到显示部830。
例如,当基于驾驶者的偏好(例如,距目的地所需的时间、费用等)来设定优先级时,处理器870可以将通过当前影像识别出的停车场以外的优先级较高的停车场信息追加输出到显示部830。
随后,当由于驾驶者的请求,通过用户界面装置选择优先级较高的停车场信息时,处理器870可以将目的地改变为所述优先级较高的停车场,并输出距所述改变的优先级较高的停车场的路径信息。
另外,当当前引导中的停车场车位已满,导致无法继续使用时,处理器870可以将路径信息自动改变为备用停车场。
另外,其中,如上所述,可以基于距目的地所需的时间、费用、是否存在空车位等选择备用停车场的用户设定因素来决定所述备用停车场。
另外,处理器870可以提供能够便捷地改变预设定的目的地的用户界面。
例如,如图23A所示,当从通过相机接收到的影像中识别出预设定的目的地2400a时,处理器870可以将提示包含在与所述目的地相同类别中的多个目的地的多个图形客体2400b、2400c、2400d输出到显示部830。
此时,如图23B所示,处理器870可以将提示包含在与预设定的目的地2400a相同类别中的多个目的地的多个图形客体2400b、2400c、2400d,以重叠于所述多个目的地(或者包含所述多个目的地的建筑物)的方式输出到显示部830。
另外,处理器870可还将所述多个目的地列表2410显示在显示部830中。
随后,当选择多个图形客体中的任一种时(或者,通过列表2410选择任一目的地时),处理器870可以在与所述所选择的图形客体相对应的目的地上重叠显示图形客体。
例如,如图23C所示,当选择多个目的地中的“贡茶”时,如图23D所示,处理器870可以将图形客体(例如,外观边缘图形客体或目的地信息)以重叠于包括所述“贡茶”的建筑物的方式输出到显示部830。
此时,选择所述多个目的地中的任一种可以根据某一地点通过视线保持一定时间段来执行,或者可以通过设于车辆的用户界面装置来执行,或者可以通过施加在显示部830上的触摸来执行。
另外,当车辆的行驶模式为自主行驶模式时,处理器870可以利用方向盘来移动图形客体。
例如,当在自主行驶模式下,随着通过影像识别出目的地,图形客体以重叠于目的地的方式显示的状态下,检测到方向盘的旋转时,处理器870可以响应于所述方向盘的旋转,改变图形客体的显示位置,以重叠于所述目的地周边的其他场所(例如,建筑物或空地)。
当所述图形客体的显示位置发生改变时,处理器870可以将与重叠所述图形客体的场所相关的信息或与重叠所述图形客体的场所所包含的包含在相同类别中的目的地相关的信息输出到所述显示部830。
通过这样的结构,本发明可以提供一种用户界面,当车辆进入预设定的目的地以内时,能够提出与所述目的地包含在相同类别中的其他的多个目的地,并且可以利用输出到挡风玻璃的图形客体来容易地改变目的地。
另外,如图24所示,处理器870可以将图形客体以重叠于目的地的方式进行输出。此时,随着车辆的行驶,当驾驶者通过设置在车辆侧面的车窗识别时,处理器870可以将所述图形客体2500a以重叠于所述车窗2510上的方式进行输出。
另外,处理器870可以将与所述目的地相关的信息2500b一并输出到输出所述图形客体的车窗2510上。即,处理器870可以在以驾驶者为基准能够看到目的地的车窗(或者挡风玻璃)上输出所述图形客体以及与目的地相关的信息中的一种以上。
另外,如图25所示,即便通过相机无法识别出目的地,处理器870也可以使用外部装置(例如,因特网或Third Party)将所述目的地的预拍摄影像2601输出到显示部830。所述目的地的预拍摄影像例如可以是街景或卫星照片。
其中,当车辆的行驶模式为手动行驶模式时,所述显示部830可以是CID或车辆标识牌或设置在车辆座椅上的显示器。另外,当车辆的行驶模式为自主行驶模式,所述显示部830可以是挡风玻璃或车窗。
处理器870还可以在所述目的地的预拍摄影像中包括引导进入包含目的地的建筑物的停车场的地图信息2610,以及与包含目的地的建筑物的停车场和周边附近的停车场相关的信息中的一种以上。
另外,处理器870还可以在所述目的地的预拍摄影像中,以重叠于用户设定的目的地(或者预设定的目的地)所对应的部分(或者包含所述目的地的建筑物)的方式显示图形客体2600。
本发明的实施例具有如下效果的一种或其以上。
第一、本发明可以提供一种车辆控制装置及车辆控制方法,通过在挡风玻璃上以重叠于目的地的方式输出图形客体,当驾驶者的视野中出现目的地时,可以将目的地直观地提示给驾驶者。
第二、本发明可以提供一种新的用户界面,能够以AR-HUD方式输出与目的地和所述目的地的停车场相关的最优化的用户界面。
第三、本发明可以提供一种车辆控制装置及车辆的控制方法,即便在目的地不包括在驾驶者视野中的情况下,也能够通过挡风玻璃直观地提供形成为能够行驶到目的地的路径信息。
本发明的效果并不限定于以上提及到的效果,本领域的技术人员能够从权利要求书的记载明确理解未被提及到的其他效果。
以上说明的车辆控制装置800可以被包括在车辆100中。
另外,以上说明的车辆控制装置800的动作或控制方法可相同或类似地类推适用于车辆100(或者控制部170)的动作或控制方法。
例如,车辆100的控制方法(或者车辆控制装置800的控制方法)包括:通过相机接收影像的步骤;以及,基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到显示部的步骤。
更具体的实施例可替换或者相同或类似地类推适用前述的内容。
上述各步骤不仅可以由车辆控制装置800来执行,还可以由设于车辆100的控制部170来执行。
另外,如上所述的本车辆控制装置800所执行的所有功能、结构或控制方法,可以由设于车辆100的控制部170来执行。即,本说明书中说明的所有控制方法不仅可以适用于车辆的控制方法,还可以适用于控制装置的控制方法。
进一步,如上所述的车辆控制装置800可以是移动终端。在此情况下,所述车辆控制装置800所执行的所有功能、结构或控制方法可以由移动终端的控制部来执行。另外,本说明书中说明的所有控制方法可相同或类似地类推适用于移动终端的控制方法。
具体而言,移动终端不仅可以形成为智能手机的形态,还可以形成为穿戴式设备的形态(例如,手表、眼镜等)。
另外,移动终端可以能够通过通信部与车辆控制装置执行通信的方式连接。
移动终端可通过通信部来收发本说明书中说明的所有种类的画面信息、与车辆控制相关的信号以及用户输入信号。
另外,移动终端可通过通信部接收本说明书中说明的所有种类的画面信息,并输出到移动终端的显示部。另外,当通过移动终端的显示部执行触摸(或者选择)时,可以将所触摸(选择)的信息传输到车辆控制装置。基于所述所触摸的信息可以控制车辆。
另外,当车辆的齿轮发生改变或车辆的行驶状态发生改变时,车辆控制装置可通过通信部将与车辆的齿轮的改变或车辆的行驶状态相关的信息传输到移动终端。在此情况下,输出到移动终端的与驻车相关的画面信息可以应用本说明书中说明的内容而改变。
前述的本发明可由在记录有程序的介质中计算机可读取的代码来实现。计算机可读取的介质包括存储有可由计算机系统读取的数据的所有种类的记录装置。计算机可读取的介质的例有硬盘驱动器(Hard Disk Drive,HDD)、固态盘(Solid State Disk,SSD)、硅盘驱动器(Silicon Disk Drive,SDD)、ROM、RAM、CD-ROM、磁带、软盘、光数据存储装置等。并且,所述计算机也可包括处理器或控制部。因此,以上所述的详细的说明在所有方面上不应被理解为限制性的,而是应当被理解为时例示性的。本发明的范围应当由对所附的权利要求书的合理的解释而定,本发明的等价范围内的所有变更应当落入本发明的范围。
Claims (20)
1.一种车辆控制装置,其中,包括:
包括相机的检测部;
显示部;以及
处理器,通过所述相机接收影像,并基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到所述显示部。
2.根据权利要求1所述的车辆控制装置,其特征在于,
所述显示部包括车辆的挡风玻璃和玻璃窗,
所述处理器将所述图形客体输出到所述挡风玻璃或所述车窗上。
3.根据权利要求2所述的车辆控制装置,其特征在于,
所述处理器以当驾驶者看向所述目的地时重叠于所述目的地的方式将所述图形客体输出到所述挡风玻璃或所述车窗上。
4.根据权利要求3所述的车辆控制装置,其特征在于,
所述处理器基于驾驶者所看到的所述目的地的位置和形态随着车辆的行驶发生改变,来改变所述图形客体的输出位置和输出形态。
5.根据权利要求3所述的车辆控制装置,其特征在于,
当所述目的地包含在建筑物时,所述处理器将与所述建筑物的外围边缘相对应的图形客体以重叠于所述建筑物的方式进行输出。
6.根据权利要求3所述的车辆控制装置,其特征在于,
当所述目的地为空地时,所述处理器将墙壁形态的图形客体以重叠于所述空地的方式进行输出,以能够识别出所述空地的界线。
7.根据权利要求3所述的车辆控制装置,其特征在于,
所述处理器基于在通过所述相机接收到的影像中是否能够识别出包含所述目的地的建筑物以及包含所述目的地的建筑物是否全部包含在所述影像中,以相互不同的方式将所述图形客体输出到所述显示部。
8.根据权利要求7所述的车辆控制装置,其特征在于,
当从所述影像中未识别出包含所述目的地的建筑物时,所述处理器将包含与所述目的地相关的信息的第一图形客体输出到所述显示部,
当从所述影像中识别出包含所述目的地的建筑物时,将形成为与所述建筑物的边缘相对应的第二图形客体与所述第一图形客体一并输出到所述显示部。
9.根据权利要求8所述的车辆控制装置,其特征在于,
当从所述影像中可识别出包含所述目的地的建筑物,而所述影像中仅包括所述建筑物的一部分时,所述处理器将第三图形客体以重叠于所述建筑物中所述目的地所在的位置的方式输出到所述显示部。
10.根据权利要求1所述的车辆控制装置,其特征在于,
所述处理器根据车辆和目的地之间的距离,将与所述目的地的停车场相关的图形客体以预设定的方式输出到所述显示部。
11.根据权利要求10所述的车辆控制装置,其特征在于,
当包含所述目的地的建筑物和车辆之间的距离为第一距离时,所述处理器将与所述停车场相关的图形客体以第一方式输出到所述显示部,
当所述建筑物和车辆之间的距离为小于所述第一距离的第二距离时,将与所述停车场相关的图形客体以不同于所述第一方式的第二方式输出到所述显示部。
12.根据权利要求11所述的车辆控制装置,其特征在于,
当从通过所述相机接收到的影像中识别出包含所述目的地的建筑物的停车场入口时,所述处理器将图形客体以重叠于所述停车场入口的方式进行输出。
13.根据权利要求10所述的车辆控制装置,其特征在于,
当车辆进入距包含所述目的地的建筑物规定距离以内的位置时,所述处理器将与包含所述目的地的建筑物的停车场相关的第一图形客体,以及与距所述建筑物的停车场规定距离以内所在的其他停车场相关的第二图形客体,以重叠于行驶中的道路上的方式输出到所述显示部。
14.根据权利要求10所述的车辆控制装置,其特征在于,
当所述目的地的停车场车位已满时,所述处理器在包含所述目的地的建筑物上重叠输出第一颜色的图形客体,
在距所述目的地规定距离以内所在的能够驻车的建筑物上重叠输出不同于所述第一颜色的第二颜色的图形客体。
15.根据权利要求1所述的车辆控制装置,其特征在于,
所述处理器根据当前行驶中的车辆的速度,将所述图形客体以相互不同的形态输出到所述显示部。
16.根据权利要求1所述的车辆控制装置,其特征在于,
当检测到能够在道路上驻车的空间时,所述处理器将提示能够在所述空间驻车的图形客体以重叠于所述空间的方式输出到所述显示部。
17.根据权利要求1所述的车辆控制装置,其特征在于,
当在通过所述影像未识别出目的地的状态下到达交叉路时,所述处理器将每条道路到达目的地所需的时间信息以重叠于所述每条道路上的方式分别输出到所述显示部。
18.根据权利要求1所述的车辆控制装置,其特征在于,
当从所述影像中识别出所述预设定的目的地时,所述处理器将提示包含在与所述目的地相同类别中的多个目的地的多个图形客体输出到所述显示部,
当选择所述多个图形客体中的任一种时,在与所选择的图形客体相对应的目的地上重叠显示所述图形客体。
19.一种车辆,包括权利要求1至18中任一项所述的车辆控制装置。
20.一种车辆的控制方法,其中,包括:
通过相机接收影像的步骤;以及
基于通过所述影像识别出预设定的目的地,将图形客体以重叠于所述目的地的方式输出到显示部的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170170666A KR102014261B1 (ko) | 2017-12-12 | 2017-12-12 | 차량에 구비된 차량 제어 장치 및 차량의 제어방법 |
KR10-2017-0170666 | 2017-12-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109910749A true CN109910749A (zh) | 2019-06-21 |
CN109910749B CN109910749B (zh) | 2022-07-05 |
Family
ID=63209157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810443006.4A Active CN109910749B (zh) | 2017-12-12 | 2018-05-10 | 设于车辆的车辆控制装置及车辆的控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10438390B2 (zh) |
EP (2) | EP3499191B1 (zh) |
KR (1) | KR102014261B1 (zh) |
CN (1) | CN109910749B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113140126A (zh) * | 2021-04-27 | 2021-07-20 | 云南电网有限责任公司电力科学研究院 | 一种基于封闭区域容积率的室外停车引导方法及系统 |
CN115315737A (zh) * | 2020-03-25 | 2022-11-08 | 罗伯特·博世有限公司 | 车辆位置确定系统及车辆位置确定装置 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019130827A1 (ja) * | 2017-12-25 | 2019-07-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7058585B2 (ja) * | 2017-12-25 | 2022-04-22 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7043256B2 (ja) * | 2017-12-28 | 2022-03-29 | 株式会社小糸製作所 | 車両用照明システム及び車両 |
JP7095291B2 (ja) * | 2018-01-30 | 2022-07-05 | トヨタ自動車株式会社 | 車両用表示装置 |
DE102018213634A1 (de) * | 2018-08-13 | 2020-02-13 | Audi Ag | Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Anzeigeeinrichtung und Anzeigeeinrichtung zum Verwenden in einem Kraftfahrzeug |
US11235708B2 (en) * | 2018-09-13 | 2022-02-01 | Steve Cha | Head-up display for a vehicle |
US10882398B2 (en) * | 2019-02-13 | 2021-01-05 | Xevo Inc. | System and method for correlating user attention direction and outside view |
JP7063316B2 (ja) * | 2019-02-14 | 2022-05-09 | 株式会社デンソー | 表示制御装置及び表示制御プログラム |
WO2020196385A1 (ja) * | 2019-03-25 | 2020-10-01 | 富士フイルム株式会社 | 画像処理装置、画像処理方法及びプログラム、撮影装置 |
US11378413B1 (en) * | 2019-04-22 | 2022-07-05 | Accelerate Labs, Llc | Augmented navigational control for autonomous vehicles |
US20220205800A1 (en) * | 2019-05-17 | 2022-06-30 | Kabushiki Kaisha Tokai Rika Denki Seisakusho | Control device and presentation system |
US10896609B2 (en) * | 2019-06-17 | 2021-01-19 | Toyota Motor North America, Inc. | Cooperative parking space search by a vehicular micro cloud |
US20210019908A1 (en) * | 2019-07-15 | 2021-01-21 | Microsoft Technology Licensing, Llc | Building Recognition via Object Detection and Geospatial Intelligence |
EP4079592A4 (en) * | 2019-12-18 | 2024-01-31 | Lg Electronics Inc | VEHICLE CONTROL DEVICE AND ASSOCIATED CONTROL METHOD |
KR20210080936A (ko) * | 2019-12-23 | 2021-07-01 | 엘지전자 주식회사 | Xr 컨텐트 제공 방법 및 xr 디바이스 |
CN111738191B (zh) * | 2020-06-29 | 2022-03-11 | 广州橙行智动汽车科技有限公司 | 一种车位显示的处理方法和车辆 |
WO2022154299A1 (ko) * | 2021-01-12 | 2022-07-21 | 엘지전자 주식회사 | 디지털 사이니지 플랫폼 제공 장치와 동작방법, 및 이를 포함하는 시스템 |
KR20220117550A (ko) * | 2021-02-17 | 2022-08-24 | 현대자동차주식회사 | 정보 표시 방법 및 정보 표시 방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독 가능한 기록매체 |
US11815679B2 (en) * | 2021-04-16 | 2023-11-14 | Industrial Technology Research Institute | Method, processing device, and display system for information display |
KR20230030706A (ko) * | 2021-08-25 | 2023-03-07 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
US20230290156A1 (en) * | 2022-03-11 | 2023-09-14 | GM Global Technology Operations LLC | System and method for providing lane identification on an augmented reality display |
KR102611338B1 (ko) * | 2022-06-10 | 2023-12-11 | 엘지전자 주식회사 | 차량의 ar 디스플레이 장치 및 그것의 동작방법 |
WO2023238992A1 (ko) * | 2022-06-10 | 2023-12-14 | 엘지전자 주식회사 | 차량의 ar 디스플레이 장치 및 그것의 동작방법 |
WO2024064394A1 (en) * | 2022-09-24 | 2024-03-28 | Apple Inc. | Navigation user interfaces |
CN116153083B (zh) * | 2023-04-20 | 2023-10-17 | 江铃汽车股份有限公司 | 一种应用于地下停车场的车辆召唤方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090079828A1 (en) * | 2007-09-23 | 2009-03-26 | Volkswagen Of America, Inc. | Camera System for a Vehicle and Method for Controlling a Camera System |
US20100253542A1 (en) * | 2009-04-02 | 2010-10-07 | Gm Global Technology Operations, Inc. | Point of interest location marking on full windshield head-up display |
US20110313653A1 (en) * | 2010-06-21 | 2011-12-22 | Research In Motion Limited | Method, Device and System for Presenting Navigational Information |
US20140214600A1 (en) * | 2013-01-31 | 2014-07-31 | Wal-Mart Stores, Inc. | Assisting A Consumer In Locating A Product Within A Retail Store |
US20140362195A1 (en) * | 2013-03-15 | 2014-12-11 | Honda Motor, Co., Ltd. | Enhanced 3-dimensional (3-d) navigation |
CN105599679A (zh) * | 2014-11-18 | 2016-05-25 | 现代摩比斯株式会社 | 车辆前方信息显示控制装置及方法 |
US20170017848A1 (en) * | 2015-07-17 | 2017-01-19 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
CN106467060A (zh) * | 2015-08-20 | 2017-03-01 | Lg电子株式会社 | 显示装置及包括该显示装置的车辆 |
CN106922140A (zh) * | 2014-11-12 | 2017-07-04 | 三菱电机株式会社 | 显示控制装置及信息显示装置 |
US20170278305A1 (en) * | 2016-03-24 | 2017-09-28 | Toyota Jidosha Kabushiki Kaisha | Three Dimensional Heads-up Display Unit Including Visual Context for Voice Commands |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8756000B2 (en) * | 2008-06-25 | 2014-06-17 | Tomtom International B.V. | Navigation apparatus and method of detection that a parking facility is sought |
KR101957943B1 (ko) * | 2012-08-31 | 2019-07-04 | 삼성전자주식회사 | 정보 제공 방법 및 이를 위한 정보 제공 차량 |
KR20150066036A (ko) * | 2013-12-06 | 2015-06-16 | 이동녀 | 투명 네비게이션을 이용한 위치 안내 시스템 및 그 방법 |
JP6176541B2 (ja) * | 2014-03-28 | 2017-08-09 | パナソニックIpマネジメント株式会社 | 情報表示装置、情報表示方法及びプログラム |
JP2016118851A (ja) * | 2014-12-19 | 2016-06-30 | アイシン・エィ・ダブリュ株式会社 | 虚像表示装置 |
-
2017
- 2017-12-12 KR KR1020170170666A patent/KR102014261B1/ko active IP Right Grant
-
2018
- 2018-01-19 US US15/875,844 patent/US10438390B2/en active Active
- 2018-05-10 CN CN201810443006.4A patent/CN109910749B/zh active Active
- 2018-07-13 EP EP18183386.4A patent/EP3499191B1/en active Active
- 2018-07-13 EP EP21166729.0A patent/EP3882576A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090079828A1 (en) * | 2007-09-23 | 2009-03-26 | Volkswagen Of America, Inc. | Camera System for a Vehicle and Method for Controlling a Camera System |
US20100253542A1 (en) * | 2009-04-02 | 2010-10-07 | Gm Global Technology Operations, Inc. | Point of interest location marking on full windshield head-up display |
US20110313653A1 (en) * | 2010-06-21 | 2011-12-22 | Research In Motion Limited | Method, Device and System for Presenting Navigational Information |
US20140214600A1 (en) * | 2013-01-31 | 2014-07-31 | Wal-Mart Stores, Inc. | Assisting A Consumer In Locating A Product Within A Retail Store |
US20140362195A1 (en) * | 2013-03-15 | 2014-12-11 | Honda Motor, Co., Ltd. | Enhanced 3-dimensional (3-d) navigation |
CN106922140A (zh) * | 2014-11-12 | 2017-07-04 | 三菱电机株式会社 | 显示控制装置及信息显示装置 |
CN105599679A (zh) * | 2014-11-18 | 2016-05-25 | 现代摩比斯株式会社 | 车辆前方信息显示控制装置及方法 |
US20170017848A1 (en) * | 2015-07-17 | 2017-01-19 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
CN106467060A (zh) * | 2015-08-20 | 2017-03-01 | Lg电子株式会社 | 显示装置及包括该显示装置的车辆 |
US20170278305A1 (en) * | 2016-03-24 | 2017-09-28 | Toyota Jidosha Kabushiki Kaisha | Three Dimensional Heads-up Display Unit Including Visual Context for Voice Commands |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115315737A (zh) * | 2020-03-25 | 2022-11-08 | 罗伯特·博世有限公司 | 车辆位置确定系统及车辆位置确定装置 |
CN113140126A (zh) * | 2021-04-27 | 2021-07-20 | 云南电网有限责任公司电力科学研究院 | 一种基于封闭区域容积率的室外停车引导方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
KR102014261B1 (ko) | 2019-08-26 |
EP3882576A1 (en) | 2021-09-22 |
EP3499191A1 (en) | 2019-06-19 |
KR20190078676A (ko) | 2019-07-05 |
EP3499191B1 (en) | 2021-05-12 |
US20190180485A1 (en) | 2019-06-13 |
US10438390B2 (en) | 2019-10-08 |
CN109910749B (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109910749A (zh) | 设于车辆的车辆控制装置及车辆的控制方法 | |
CN109895788B (zh) | 安装在车辆上的车辆控制装置以及用于控制车辆的方法 | |
KR101979694B1 (ko) | 차량에 구비된 차량 제어 장치 및 그의 제어방법 | |
CN111225845B (zh) | 驾驶辅助系统以及包括驾驶辅助系统的车辆 | |
CN108974122A (zh) | 停车辅助系统 | |
CN109693665A (zh) | 自动驻车装置及其控制方法 | |
CN108928351A (zh) | 车辆用用户界面装置 | |
EP3398820A1 (en) | Smart key for vehicle | |
CN109664887A (zh) | 自主行驶车辆及其控制方法 | |
CN107867296A (zh) | 安装在车辆上的车辆控制装置和控制该车辆的方法 | |
CN109849906A (zh) | 自主行驶车辆及其控制方法 | |
CN109542096A (zh) | 控制车辆的运行系统的方法及车辆的运行系统 | |
CN107867227A (zh) | 车辆驾驶辅助装置 | |
CN108928342A (zh) | 车辆用驻车系统及车辆 | |
CN109507994A (zh) | 安装在车辆上的车辆控制装置以及控制该车辆的方法 | |
KR101977092B1 (ko) | 차량에 구비된 차량 제어 장치 및 차량의 제어방법 | |
CN109572708A (zh) | 车辆行驶控制装置及车辆行驶方法 | |
KR20190088133A (ko) | 입출력 장치 및 그것을 포함하는 차량 | |
KR20200095313A (ko) | 영상 출력 장치 | |
CN109561379A (zh) | 获取行人相关的信息的方法及车辆用通信装置 | |
KR101995489B1 (ko) | 차량 제어 시스템 및 그의 제어방법 | |
KR20220125148A (ko) | 영상 출력 장치 및 그것의 제어 방법 | |
CN109484328A (zh) | 车辆的用户接口装置 | |
KR102043954B1 (ko) | 차량에 구비된 차량용 로봇 및 차량용 로봇의 제어방법 | |
KR102611338B1 (ko) | 차량의 ar 디스플레이 장치 및 그것의 동작방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |