CN107532917A - 显示控制装置、显示控制方法和显示控制程序 - Google Patents
显示控制装置、显示控制方法和显示控制程序 Download PDFInfo
- Publication number
- CN107532917A CN107532917A CN201580079586.8A CN201580079586A CN107532917A CN 107532917 A CN107532917 A CN 107532917A CN 201580079586 A CN201580079586 A CN 201580079586A CN 107532917 A CN107532917 A CN 107532917A
- Authority
- CN
- China
- Prior art keywords
- subject image
- extraction
- image
- tangent line
- distribution region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000000605 extraction Methods 0.000 claims abstract description 137
- 210000001508 eye Anatomy 0.000 claims abstract description 16
- 239000000284 extract Substances 0.000 claims abstract description 9
- 230000009471 action Effects 0.000 claims description 12
- 239000011521 glass Substances 0.000 claims description 11
- 210000005252 bulbus oculi Anatomy 0.000 description 36
- 238000001514 detection method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B27/0103—Head-up displays characterised by optical features comprising holographic elements
-
- B60K35/10—
-
- B60K35/213—
-
- B60K35/28—
-
- B60K35/29—
-
- B60K35/654—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- B60K2360/146—
-
- B60K2360/149—
-
- B60K2360/191—
-
- B60K2360/31—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Abstract
物体图像提取部(110)从车辆前方的拍摄图像中,提取多个物体图像中的符合提取条件的提取物体图像。显示分配区域指定部(130)在拍摄图像内,指定不与任何提取物体图像重合且与任意的提取物体图像相切的区域,作为引导信息的显示分配区域,确定与显示分配区域相切的相邻提取物体图像和相邻提取物体图像与显示分配区域之间的切线。物体空间坐标计算部(140)计算相邻提取物体图像的物体的三维空间坐标作为物体空间坐标。切线空间坐标计算部(160)根据物体空间坐标,计算假设在三维空间内存在切线的情况下切线的三维空间坐标作为切线空间坐标。显示区域决定部(170)根据切线空间坐标、驾驶者的眼睛的位置和挡风玻璃的位置的三维空间坐标,决定引导信息在挡风玻璃上的显示区域。
Description
技术领域
本发明涉及在车辆的挡风玻璃上显示引导信息的HUD(Head Up Display:平视抬头显示器)技术。
背景技术
在HUD中,在挡风玻璃上显示引导信息,因此,前方视野的一部分被引导信息遮挡。
其他车辆、步行者、道路标示、道路标识、信号灯等是在驾驶车辆时不能漏看的物体,但是,在由于引导信息的显示而使驾驶者无法视觉辨认这些物体的情况下,对驾驶造成障碍。
在专利文献1~5中公开有如下技术:通过计算来决定不对驾驶造成障碍的引导信息的显示区域,在所决定的显示区域显示引导信息。
但是,按照每个驾驶者,身高不同且眼睛的位置不同,因此,引导信息的适当显示区域按照每个驾驶者而不同。
并且,即使是相同驾驶者,如果驾驶时的姿态或落座位置不同,则眼睛的位置也不同,因此,引导信息的适当显示区域按照驾驶时的每个姿态以及每个落座位置而不同。
关于这一点,在专利文献6中公开有对应于驾驶者的眼睛的位置而在挡风玻璃上显示引导信息的技术。
现有技术文献
专利文献
专利文献1:日本特开2006-162442号公报
专利文献2:日本特开2014-37172号公报
专利文献3:日本特开2014-181927号公报
专利文献4:日本特开2010-234959号公报
专利文献5:日本特开2013-203374号公报
专利文献6:日本特开2008-280026号公报
发明内容
发明要解决的课题
作为以从驾驶者观察不与车辆前方的物体重合的方式在挡风玻璃上显示引导信息的方法,可考虑对专利文献1的方法和专利文献6的方法进行组合的方法。
具体而言,可考虑如下方法:根据专利文献6的方法,将驾驶者能看到的车辆前方的全部物体即拍摄图像中示出的全部物体的三维空间坐标投射到HUD的投影面(挡风玻璃)上,将投影面视为一幅图像,利用专利文献1的方式求出不与车辆前方的物体重合的引导信息的显示位置。
但是,在该方法中,需要进行针对拍摄图像中示出的全部物体的投影计算,存在计算量较多这样的课题。
本发明的主要目的之一在于解决上述课题,主要目的在于,以较少的计算量决定引导信息的适当显示区域。
用于解决课题的手段
本发明的显示控制装置搭载于在挡风玻璃显示引导信息的车辆上,所述显示控制装置具有:物体图像提取部,其从对所述车辆的前方进行拍摄而得到的拍摄图像中,提取示出所述车辆的前方存在的多个物体的多个物体图像中的符合提取条件的物体图像作为提取物体图像;显示分配区域指定部,其在所述拍摄图像内,指定不与任何提取物体图像重合且与任意的提取物体图像相切的区域,作为分配给所述引导信息的显示的显示分配区域,确定与所述显示分配区域相切的提取物体图像即相邻提取物体图像,确定所述相邻提取物体图像与所述显示分配区域之间的切线;物体空间坐标计算部,其计算所述相邻提取物体图像中示出的物体的三维空间坐标作为物体空间坐标;切线空间坐标计算部,其根据所述物体空间坐标,计算假设在三维空间内存在所述切线的情况下所述切线的三维空间坐标作为切线空间坐标;以及显示区域决定部,其根据所述切线空间坐标、所述车辆的驾驶者的眼睛的位置的三维空间坐标和所述挡风玻璃的位置的三维空间坐标,决定所述引导信息在所述挡风玻璃上的显示区域。
发明效果
在本发明中,仅针对相邻提取物体图像产生计算,因此,与针对拍摄图像的全部物体图像进行计算的情况相比,能够以较少的计算量决定引导信息的适当显示区域。
附图说明
图1是示出实施方式1的显示控制装置的功能结构例的图。
图2是示出实施方式1的拍摄图像中的提取物体图像的例子的图。
图3是示出实施方式1的引导信息的例子的图。
图4是示出实施方式1的显示分配区域的例子的图。
图5是示出实施方式1的显示控制装置的动作例的流程图。
图6是示出实施方式3的显示控制装置的功能结构例的图。
图7是示出实施方式3的显示控制装置的动作例的流程图。
图8是示出实施方式4的显示控制装置的功能结构例的图。
图9是示出实施方式4的显示控制装置的动作例的流程图。
图10是示出实施方式4的显示控制装置的动作例的流程图。
图11是示出实施方式1的显示分配区域的例子的图。
图12是示出实施方式1的显示分配区域的例子的图。
图13是示出实施方式1的显示区域的决定方法的概要的图。
图14是示出实施方式1~4的显示控制装置的硬件结构例的图。
具体实施方式
实施方式1
***结构的说明***
图1示出本实施方式1的显示控制装置100的功能结构例。
显示控制装置100搭载于与HUD对应的车辆,即在挡风玻璃上显示引导信息的车辆上。
根据图1对显示控制装置100的功能结构进行说明。
如图1所示,显示控制装置100与拍摄装置210、距离计测装置220、眼球位置检测装置230和HUD310连接。
并且,显示控制装置100包含物体图像提取部110、引导信息取得部120、显示分配区域指定部130、物体空间坐标计算部140、眼球位置检测部150、切线空间坐标计算部160和显示区域决定部170。
拍摄装置210设置在驾驶者的头部附近,对车辆前方的景色进行拍摄。
拍摄装置210只要能够拍摄能够由物体图像提取部110提取物体图像的拍摄图像即可,能够使用可见光摄像机、红外线摄像机等任意的拍摄装置。
物体图像提取部110从由拍摄装置210进行拍摄而得到的拍摄图像中,提取示出车辆前方存在的多个物体的多个物体图像中的符合提取条件的物体图像作为提取物体图像。
物体图像提取部110根据提取条件,提取驾驶者不应该漏看的物体、提供对驾驶有用的信息的物体的图像。
更具体而言,物体图像提取部110提取其他车辆、步行者、道路标示、道路标识、信号灯等的图像作为提取物体图像。
例如,物体图像提取部110从图2的拍摄图像211中提取步行者图像1110、道路标识图像1120、车辆图像1130、车辆图像1140、道路标示图像1150作为提取物体图像。
在步行者图像1110中示出步行者111。
在道路标识图像1120中示出道路标识112。
在车辆图像1130中示出车辆113。
在车辆图像1140中示出车辆114。
在道路标示图像1150中示出道路标示115。
如图2的1110~1150所示,物体图像是利用四边形的轮廓线包围物体而成的区域。
另外,作为从拍摄图像中检测特定物体的物体图像的技术,存在若干个公知手法。
物体图像提取部110能够使用任意的公知手法提取符合提取条件的物体图像。
引导信息取得部120取得挡风玻璃上显示的引导信息。
例如,在挡风玻璃上显示地图信息等与路径引导有关的引导信息的情况下,引导信息取得部120从导航设备取得引导信息。
并且,在挡风玻璃上显示与车辆有关的引导信息的情况下,引导信息取得部120从ECU(Engine Control Unit:引擎控制单元)取得引导信息。
在本实施方式中,如图3的引导信息121所示,引导信息取得部120取得四边形的引导信息。
显示分配区域指定部130在拍摄图像内,指定不与任何提取物体图像重合且与任意的提取物体图像相切的区域,作为分配给引导信息的显示的显示分配区域。
进而,显示分配区域指定部130确定与显示分配区域相切的提取物体图像即相邻提取物体图像,确定相邻提取物体图像与显示分配区域之间的切线。
显示分配区域指定部130例如能够在拍摄图像上扫描引导信息来搜索显示分配区域。
显示分配区域指定部130能够使用任意手法搜索显示分配区域。
图4示出显示分配区域指定部130指定的显示分配区域的例子。
在图4中,由虚线包围的显示分配区域131是拍摄图像211上能够显示引导信息121的区域。
图4的显示分配区域131不与任何物体图像重合,并且与道路标识图像1120和车辆图像1130相切。
显示分配区域指定部130确定道路标识图像1120和车辆图像1130作为相邻提取物体图像。
并且,显示分配区域指定部130确定道路标识图像1120与显示分配区域131之间的切线132以及车辆图像1130与显示分配区域131之间的切线133。
图4的显示分配区域131与道路标识图像1120和车辆图像1130相切,确定切线132和切线133。
根据提取物体图像在拍摄图像211中的位置,指定图11或图12这样的显示分配区域。
图11的显示分配区域134与道路标识图像1120、车辆图像1130、信号灯图像1160相切,确定切线132、切线133、切线135。
信号灯图像1160是对信号灯116进行拍摄而得到的图像。
并且,图12的显示分配区域136与道路标识图像1120、车辆图像1130、信号灯图像1160、道路标识图像1170相切,确定切线132、切线133、切线135、切线137。
道路标识图像1170是对道路标识117进行拍摄而得到的图像。
另外,虽然省略了图示,但是,有时会指定仅与一个提取物体图像相切的显示分配区域。
例如,在图2的拍摄图像211不包含步行者图像1110和道路标识图像1120的情况下,指定仅与车辆图像1130相切的显示分配区域。
该情况下,仅确定切线133。
距离计测装置220计测车辆前方的物体与距离计测装置220之间的距离。
优选距离计测装置220针对一个物体,计测与该物体上的多个点之间的距离。
距离计测装置220是立体摄像机、激光扫描仪等。
距离计测装置220能够确定与物体之间的距离以及物体的大致形状即可,能够使用任意装置。
物体空间坐标计算部140计算由显示分配区域指定部130确定的相邻提取物体图像中示出的物体的三维空间坐标作为物体空间坐标。
在图4的例子中,物体空间坐标计算部140计算道路标识图像1120中示出的道路标识112的三维空间坐标以及车辆图像1130中示出的车辆113的三维空间坐标。
物体空间坐标计算部140进行如下校准:使用距离计测装置220计测出的与相邻提取物体图像中示出的物体(道路标识112、车辆113)之间的距离计算三维空间坐标,决定三维空间坐标相当于拍摄图像的哪个像素。
眼球位置检测装置230检测驾驶者的眼球与眼球位置检测装置230之间的距离。
眼球位置检测装置230例如是设置在驾驶者前方的对驾驶者的头部进行拍摄的摄像机。
另外,只要能够测定与驾驶者的眼球之间的距离即可,眼球位置检测装置230能够使用任意装置。
眼球位置检测部150根据眼球位置检测装置230检测到的驾驶者的眼球与眼球位置检测装置230之间的距离,计算驾驶者的眼球位置的三维空间坐标。
切线空间坐标计算部160根据物体空间坐标计算部140计算出的物体空间坐标,计算假设在三维空间内存在显示分配区域与相邻提取物体图像之间的切线的情况下切线的三维空间坐标作为切线空间坐标。
在图4的例子中,眼球位置检测部150根据道路标识图像1120的物体空间坐标,计算假设在三维空间内存在切线132的情况下切线132的三维空间坐标。
并且,眼球位置检测部150根据车辆图像1130的物体空间坐标,计算假设在三维空间内存在切线133的情况下切线133的三维空间坐标。
切线空间坐标计算部160决定切线在三维空间内的方程式,计算切线的三维空间坐标。
下面,将用三维空间内的方程式表现的相邻提取物体图像与显示分配区域之间的切线称作实际空间切线。
实际空间切线是沿着切线空间坐标的假想线。
实际空间切线是水平或垂直的直线,位于与车辆的行进方向垂直的面上。
在实际空间切线是相对于拍摄图像垂直的线(与图4的切线132对应的实际空间切线)的情况下,实际空间切线穿过的水平方向的坐标是相邻提取物体图像中示出的物体的物体空间坐标中的、在水平方向上最接近显示分配区域的点的坐标。
在实际空间切线是相对于拍摄图像水平的线(与图4的切线133对应的实际空间切线)的情况下,实际空间切线穿过的垂直方向的坐标是相邻提取物体图中示出的物体的物体空间坐标中的、在垂直方向上最接近显示分配区域的点的坐标。
显示区域决定部170根据切线空间坐标、车辆的驾驶者的眼睛的位置的三维空间坐标和挡风玻璃的位置的三维空间坐标,决定引导信息在挡风玻璃上的显示区域。
更具体而言,显示区域决定部170根据切线空间坐标、车辆的驾驶者的眼睛的位置的三维空间坐标和挡风玻璃的位置的三维空间坐标,计算朝向车辆的驾驶者的眼睛的位置将沿着切线空间坐标的假想线即实际空间切线投射到挡风玻璃而得到的投影线在挡风玻璃内的位置。
然后,在拍摄图像中相邻提取物体图像为一个的情况下即拍摄图像的切线为一个的情况下,显示区域决定部170决定由投影线和挡风玻璃的边缘包围的区域作为引导信息在挡风玻璃上的显示区域。
并且,在拍摄图像中存在多个相邻提取物体图像的情况下即拍摄图像的切线为多个的情况下,显示区域决定部170按照与各切线对应的每个实际空间切线计算投影线在挡风玻璃内的位置。
然后,显示区域决定部170决定由多个投影线和挡风玻璃的边缘包围的区域作为引导信息在挡风玻璃上的显示区域。
只要在所决定的显示区域内即可,可以在任意位置显示引导信息。
显示区域决定部170在显示区域内决定引导信息的显示位置。
显示区域决定部170例如决定与引导信息的亮度或色相之差较大的位置作为显示位置。
通过这样决定显示位置,引导显示不会混入背景中而看不到。
并且,该方法也可以应用于由显示分配区域指定部130搜索的显示分配区域。
这里,图13示出显示区域决定部170决定显示区域的决定方法的概要。
图13示出三维的坐标空间,X轴对应于水平方向(车辆的车宽方向),Y轴对应于垂直方向(车辆的车高方向),Z轴对应于进深方向(车辆的行进方向)。
图13的坐标的原点(基准点)是车辆内的特定位置,例如是配置有距离计测装置220的位置。
实际空间切线1320是与图2的道路标识图像1120与显示分配区域131之间的切线132对应的三维空间内的假想线。
面1121表示道路标识图像1120中示出的道路标识112的物体空间坐标。
面1121的X轴上的位置和Z轴上的位置相当于由距离计测装置220测定出的距离计测装置220与道路标识112之间的距离。
切线132是道路标识图像1120的右端的切线,因此,当在三维空间内展开作为二维图像的拍摄图像121时,实际空间切线1320配置在面1121的右端。
另外,实际空间切线1320的轨道上的三维空间坐标是切线空间坐标。
挡风玻璃假想面400是与挡风玻璃的形状和位置对应的假想面。
眼球位置假想点560是与由眼球位置检测部150检测到的驾驶者的眼球位置对应的假想点。
投影线401是作为朝向眼球位置假想点560将实际空间切线1320投射到挡风玻璃假想面400上的结果的投影线。
显示区域决定部170朝向眼球位置假想点560将实际空间切线1320投射到挡风玻璃假想面400上,通过运算而取得投影线401在挡风玻璃假想面400上的位置。
即,显示区域决定部170进行描绘连接实际空间切线1320内的点和眼球位置假想点560的线与挡风玻璃假想面400的交点而得到投影线401的运算,计算投影线401在挡风玻璃假想面400上的位置。
***动作的说明***
接着,参照图5对本实施方式的显示控制装置100、拍摄装置210、距离计测装置220、眼球位置检测装置230和HUD310的动作例进行说明。
另外,图5所示的动作步骤中的由显示控制装置100进行的动作相当于显示控制方法和显示控制程序的例子。
在S1的引导信息取得处理中,引导信息取得部120取得引导信息,将所取得的引导信息输出到显示分配区域指定部130。
并且,在S2的拍摄图像取得处理中,拍摄装置210对车辆前方进行拍摄,得到拍摄图像。
并且,在S3的距离取得处理中,距离计测装置220计测车辆前方存在的物体与距离计测装置220之间的距离。
并且,在S4的眼球位置取得处理中,眼球位置检测装置230取得驾驶者的眼球与眼球位置检测装置230之间的距离。
另外,S1~S4可以并行进行,也可以依次进行。
在S5的物体图像提取处理中,物体图像提取部110从由拍摄装置210进行拍摄而得到的拍摄图像中,提取符合提取条件的物体图像作为提取物体图像。
在S6的眼球位置检测处理中,眼球位置检测部150根据在S4的眼球位置取得处理中取得的驾驶者的眼球与眼球位置检测装置230之间的距离,计算驾驶者的眼球位置的三维空间坐标。
接着,在S7的显示分配区域指定处理中,显示分配区域指定部130在拍摄图像内指定显示分配区域,确定相邻提取物体图像和切线。
在S8的物体空间坐标计算处理中,物体空间坐标计算部140计算相邻提取物体图像中示出的物体的三维空间坐标作为物体空间坐标。
另外,在S7的显示分配区域指定处理中确定了多个相邻提取物体图像的情况下,物体空间坐标计算部140按照每个相邻提取物体图像计算物体空间坐标。
在S9的切线空间坐标计算处理中,切线空间坐标计算部160根据物体空间坐标计算切线空间坐标。
另外,在S7的显示分配区域指定处理中确定了多个相邻提取物体图像的情况下,切线空间坐标计算部160按照每个相邻提取物体图像计算切线空间坐标。
接着,在S10的显示区域决定处理中,显示区域决定部170根据切线空间坐标、车辆的驾驶者的眼睛的位置的三维空间坐标和挡风玻璃的位置的三维空间坐标,决定引导信息在挡风玻璃上的显示区域。
并且,显示区域决定部170在显示区域内决定引导信息的显示位置。
在S11的显示处理中,HUD310在由显示区域决定部170决定的显示位置显示引导信息。
然后,在存在结束指示即HUD310的电源断开指示之前,反复进行S1~S11的处理。
***实施方式的效果***
如上所述,在本实施方式中,显示控制装置100在由拍摄装置210进行拍摄而得到的拍摄图像中,指定包围在HUD310的投影面(挡风玻璃)上能够显示引导信息的区域(显示分配区域)的物体图像(相邻提取物体图像)。
因此,显示控制装置100仅投射包围显示分配区域的相邻提取物体图像,就能够决定引导信息的显示位置。
因此,与将专利文献1的方法和专利文献6的方法组合而成的方法相比,能够以较少的投射处理的计算量显示引导信息。
实施方式2
在实施方式1中,设引导信息、提取物体图像、显示分配区域的形状为长方形。
在实施方式2中,利用多边形或polygon(相同形状的多边形的组合)表现引导信息、提取物体图像、显示分配区域的形状。
即,在本实施方式中,引导信息取得部120取得p边形(p为3或5以上)的引导信息。
并且,物体图像提取部110利用n边形(n为3或5以上)的轮廓线包围符合提取条件的物体图像,作为提取物体图像进行提取。
并且,显示分配区域指定部130在拍摄图像内指定m边形(m为3或5以上)的区域作为显示分配区域。
另外,在本实施方式中,根据相邻提取物体图像的形状和引导信息的形状来决定针对一个相邻提取物体图像的实际空间切线的数量。
实际空间切线是穿过与最接近显示分配区域和相邻提取物体图像相切的线段的顶点的像素的相邻提取物体图像内的像素相当的三维空间坐标的直线。
根据本实施方式,能够更加细致地表现引导信息的形状和提取物体图像的形状,能够增加显示分配区域的候选。
但是,在利用多边形表现提取物体图像的情况下,需要由距离计测装置220针对物体上的多个点检测距离。
实施方式3
在实施方式1中,引导信息的形状是固定的。
在实施方式3中,在未发现适合于引导信息的形状的显示分配区域的情况下,对引导信息的形状进行变形。
图6示出本实施方式的显示控制装置100的功能结构例。
在图6中,与图1的不同之处在于追加了引导信息变形部180。
在不存在适合于引导信息的形状的显示分配区域的情况下,引导信息变形部180使引导信息的形状变形。
引导信息变形部180以外的要素与图1相同。
图7示出本实施方式的动作例。
在图7中,S1~S4与图5所示的处理相同,因此省略说明。
在S12的变形方法/变形量指定处理中,指定基于引导信息变形部180的引导信息的变形方法和变形量。
例如,引导信息变形部180从既定的存储区域中读出定义了引导信息的变形方法和变形量的数据,由此,指定基于引导信息变形部180的引导信息的变形方法和变形量。
另外,变形方法是引导信息的形状的缩小或压缩。
缩小是指在维持引导信息的要素间的比率的状态下缩小引导信息的尺寸,如果引导信息为四边形,则在维持四边形的纵横比率的状态下缩小引导信息的尺寸。
压缩是指使引导信息的要素间的比率变化来缩小引导信息的尺寸,如果引导信息为四边形,则使四边形的纵横比率变化来缩小引导信息的尺寸。
并且,在进行引导信息的形状缩小的情况下,变形量是一次缩小处理中的缩小量,在进行引导信息的形状压缩的情况下,变形量是一次压缩处理中的压缩量。
S5~S7与图5所示的处理相同,因此省略说明。
在S7的显示分配区域指定处理中显示分配区域指定部130无法取得形状适合于引导信息的形状的显示分配区域的情况下,即无法取得能够包含默认的引导信息的尺寸的显示分配区域的情况下,进行S13的引导信息变形处理。
在S13的引导信息变形处理中,引导信息变形部180根据在S12中指定的变形方法和变形量,使引导信息的形状变形。
显示分配区域指定部130再次进行S7的显示分配区域指定处理,搜索适合于变形后的引导信息的形状的显示分配区域。
反复进行S7、S13其,直到发现适合于引导信息的形状的显示分配区域为止。
在本实施方式中,在未发现适合于引导信息的形状的显示分配区域的情况下,使引导信息的形状变形,因此,能够增加显示分配区域的候选。
实施方式4
在实施方式1中,假设在1秒内反复进行20次~30次左右的图5所示的动作步骤。
即,在实施方式1中,以在1秒内20次~30次的频度,由拍摄装置210得到新的拍摄图像,物体图像提取部110从新得到的拍摄图像中提取提取物体图像。
然后,物体空间坐标计算部140以在1秒内20次~30次的频度,根据新提取出的提取物体图像指定新的显示分配区域。
但是,一般而言,位于车辆前方的物体的组合不会以毫秒为单位变化。
即,在HUD的显示更新紧后,与显示分配区域相邻的物体是与紧前相同的物体的可能性较高。
因此,在本实施方式中,在各循环中,追踪在从新得到的拍摄图像中提取出的提取物体图像中是否包含被确定为相邻提取物体图像的物体图像。
然后,在从新得到的拍摄图像中提取出的提取物体图像中包含被确定为相邻提取物体图像的物体图像的情况下,省略S7的显示分配区域指定处理。
图8示出本实施方式的显示控制装置100的功能结构例。
在图8中,与图1的不同之处在于追加了物体图像追踪部190。
在由显示分配区域指定部130指定了显示分配区域并确定了相邻提取物体图像后,每当由物体图像提取部110从新得到的拍摄图像中提取提取物体图像时,物体图像追踪部190判定在由物体图像提取部110提取出的提取物体图像中是否包含被确定为相邻提取物体图像的物体图像。
然后,在本实施方式中,在由物体图像追踪部190判定为在由物体图像提取部110提取出的提取物体图像中包含被确定为相邻提取物体图像的物体图像的情况下,显示分配区域指定部130省略显示分配区域的指定。
即,再次利用在以前的循环中指定的显示分配区域、相邻提取物体图像和切线。
物体图像提取部110和物体图像追踪部190以外的要素与图1相同。
接着,图9和图10示出本实施方式的动作例。
在图9中,S1~S4与图5所示的处理相同,因此省略说明。
在S14的物体图像追踪处理中,物体图像追踪部190追踪由物体空间坐标计算部140指定的显示分配区域的相邻提取图像。
即,物体图像追踪部190判定在由物体图像提取部110从新得到的拍摄图像中提取出的提取物体图像中是否包含被确定为相邻提取物体图像的物体图像。
物体空间坐标计算部140判定是否是计数值k小于规定次数且由物体图像追踪部190检测到追踪中的物体图像。
在计数值k为规定次数以上的情况下或物体图像追踪部190无法检测到追踪中的物体图像的情况下,物体空间坐标计算部140将计数值k复位为“0”,进行S7的显示分配区域指定处理。
S7的显示分配区域指定处理与图5所示的处理相同,因此省略说明。
并且,S8以后的处理与图5所示的处理相同,因此省略说明。
另一方面,在计数值k小于规定次数且由物体图像追踪部190检测到追踪中的物体图像的情况下,物体空间坐标计算部140将计数值k加1,并且,省略S7的显示分配区域指定处理。
其结果是,对与上次的循环相同的显示分配区域、相邻提取物体图像和切线进行S8以后的处理。
另外,S8以后的处理与图5所示的处理相同,因此省略说明。
优选在进行一圈图9的流程的时间较短的情况下,规定次数取较大的值,在该时间较长的情况下,规定次数取较小的值。
例如,作为规定次数,假设5~10。
在本实施方式中,通过追踪相邻提取图像,能够减少搜索显示分配区域的频度,能够抑制显示控制装置的计算量。
***硬件结构例的说明***
最后,参照图14对显示控制装置100的硬件结构例进行说明。
显示控制装置100是计算机。
显示控制装置100具有处理器901、辅助存储装置902、存储器903、器件接口904、输入接口905、HUD接口906这样的硬件。
处理器901经由信号线910而与其它硬件连接,对这些其他硬件进行控制。
器件接口904经由信号线913而与器件908连接。
输入接口905经由信号线911而与输入装置907连接。
HUD接口906经由信号线912而与HUD301连接。
处理器901是进行处理的IC(Integrated Circuit:集成电路)。
处理器901例如是CPU(Central Processing Unit:中央处理单元)、DSP(DigitalSignal Processor:数字信号处理器)、GPU(Graphics Processing Unit:图形处理单元)。
辅助存储装置902例如是ROM(Read Only Memory:只读存储器)、闪存、HDD(HardDisk Drive:硬盘驱动器)。
存储器903例如是RAM(Random Access Memory:随机存取存储器)。
器件接口904与器件908连接。
器件908是图1等所示的拍摄装置210、距离计测装置220和眼球位置检测装置230。
输入接口905与输入装置907连接。
HUD接口906与图1等所示的HUD301连接。
输入装置907例如是触摸面板。
在辅助存储装置902中存储有实现图1所示的物体图像提取部110、引导信息取得部120、显示分配区域指定部130、物体空间坐标计算部140、眼球位置检测部150、切线空间坐标计算部160、显示区域决定部170、图6所示的引导信息变形部180、图8所示的物体图像追踪部190(下面,将它们统一记作“部”)的功能的程序。
该程序载入到存储器903,读入到处理器901,由处理器901来执行。
进而,在辅助存储装置902中还存储有OS(Operating System:操作系统)。
而且,OS的至少一部分载入到存储器903,处理器901执行OS,并且执行实现“部”的功能的程序。
在图14中,图示出一个处理器901,但是,显示控制装置100也可以具有多个处理器901。
而且,多个处理器901也可以协作执行实现“部”的功能的程序。
并且,表示“部”的处理结果的信息、数据、信号值和变量值存储在存储器903、辅助存储装置902或处理器901内的寄存器或缓存中。
也可以利用“电路系统(circuitry)”来提供“部”。
并且,也可以将“部”改写成“电路”或“工序”或“步骤”或“处理”。
“电路”和“电路系统”是不仅包含处理器901,而且包含逻辑IC或GA(Gate Array:门阵列)或ASIC(Application Specific Integrated Circuit:面向特定用途的集成电路)或FPGA(Field-Programmable Gate Array:现场可编程门阵列)这样的其他种类的处理电路的概念。
标号说明
100:显示控制装置;110:物体图像提取部;120:引导信息取得部;130:显示分配区域指定部;140:物体空间坐标计算部;150:眼球位置检测部;160:切线空间坐标计算部;170:显示区域决定部;180:引导信息变形部;190:物体图像追踪部;210:拍摄装置;220:距离计测装置;230:眼球位置检测装置;310:HUD。
Claims (8)
1.一种显示控制装置,其中,
所述显示控制装置搭载于在挡风玻璃显示引导信息的车辆上,
所述显示控制装置具有:
物体图像提取部,其从对所述车辆的前方进行拍摄而得到的拍摄图像中,提取示出所述车辆的前方存在的多个物体的多个物体图像中的符合提取条件的物体图像作为提取物体图像;
显示分配区域指定部,其在所述拍摄图像内,指定不与任何提取物体图像重合且与任意的提取物体图像相切的区域,作为分配给所述引导信息的显示的显示分配区域,确定与所述显示分配区域相切的提取物体图像即相邻提取物体图像,确定所述相邻提取物体图像与所述显示分配区域之间的切线;
物体空间坐标计算部,其计算所述相邻提取物体图像中示出的物体的三维空间坐标作为物体空间坐标;
切线空间坐标计算部,其根据所述物体空间坐标,计算假设在三维空间内存在所述切线的情况下所述切线的三维空间坐标作为切线空间坐标;以及
显示区域决定部,其根据所述切线空间坐标、所述车辆的驾驶者的眼睛的位置的三维空间坐标和所述挡风玻璃的位置的三维空间坐标,决定所述引导信息在所述挡风玻璃上的显示区域。
2.根据权利要求1所述的显示控制装置,其中,
所述显示区域决定部根据所述切线空间坐标、所述车辆的驾驶者的眼睛的位置的三维空间坐标和所述挡风玻璃的位置的三维空间坐标,计算朝向所述车辆的驾驶者的眼睛的位置将沿着所述切线空间坐标的假想线投射到所述挡风玻璃而得到的投影线在所述挡风玻璃内的位置,根据所述投影线在所述挡风玻璃内的位置,决定所述引导信息在所述挡风玻璃上的显示区域。
3.根据权利要求1所述的显示控制装置,其中,
所述显示分配区域指定部在所述拍摄图像内,指定不与任何提取物体图像重合且与多个提取物体图像相切的区域作为所述显示分配区域,确定与所述显示分配区域相切的多个相邻提取物体图像,按照每个相邻提取物体图像确定与所述显示分配区域之间的切线,
所述物体空间坐标计算部按照每个相邻提取物体图像计算物体空间坐标,
所述切线空间坐标计算部按照每个相邻提取物体图像计算切线空间坐标,
所述显示区域决定部根据多个切线空间坐标、所述车辆的驾驶者的眼睛的位置的三维空间坐标和所述挡风玻璃的位置的三维空间坐标,决定所述引导信息在所述挡风玻璃上的显示区域。
4.根据权利要求1所述的显示控制装置,其中,
所述物体图像提取部利用n边形(n为3或5以上)的轮廓线包围所述符合提取条件的物体图像,作为所述提取物体图像进行提取,
所述显示分配区域搜索部在所述拍摄图像内,指定m边形(m为3或5以上)的区域作为所述显示分配区域。
5.根据权利要求1所述的显示控制装置,其中,
所述显示控制装置还具有引导信息变形部,该引导信息变形部在不存在适合于所述引导信息的形状的显示分配区域的情况下,使所述引导信息的形状变形。
6.根据权利要求1所述的显示控制装置,其中,
每当新得到拍摄图像时,所述物体图像提取部反复进行从新得到的拍摄图像中提取提取物体图像的动作,
所述显示控制装置还具有物体图像追踪部,在由所述显示分配区域指定部指定了所述显示分配区域并确定了所述相邻提取物体图像后,每当由所述物体图像提取部从新得到的拍摄图像中提取提取物体图像时,该物体图像追踪部判定在由所述物体图像提取部提取出的提取物体图像中是否包含被确定为所述相邻提取物体图像的物体图像,
在由所述物体图像追踪部判定为在由所述物体图像提取部提取出的提取物体图像中包含被确定为所述相邻提取物体图像的物体图像的情况下,所述显示分配区域指定部省略所述显示分配区域的指定。
7.一种显示控制方法,其中,
搭载于在挡风玻璃显示引导信息的车辆上的计算机从对所述车辆的前方进行拍摄而得到的拍摄图像中,提取示出所述车辆的前方存在的多个物体的多个物体图像中的符合提取条件的物体图像作为提取物体图像,
所述计算机在所述拍摄图像内,指定不与任何提取物体图像重合且与任意的提取物体图像相切的区域,作为分配给所述引导信息的显示的显示分配区域,确定与所述显示分配区域相切的提取物体图像即相邻提取物体图像,确定所述相邻提取物体图像与所述显示分配区域之间的切线,
所述计算机计算所述相邻提取物体图像中示出的物体的三维空间坐标作为物体空间坐标,
所述计算机根据所述物体空间坐标,计算假设在三维空间内存在所述切线的情况下所述切线的三维空间坐标作为切线空间坐标,
所述计算机根据所述切线空间坐标、所述车辆的驾驶者的眼睛的位置的三维空间坐标和所述挡风玻璃的位置的三维空间坐标,决定所述引导信息在所述挡风玻璃上的显示区域。
8.一种显示控制程序,其中,所述显示控制程序使搭载于在挡风玻璃显示引导信息的车辆上的计算机执行以下处理:
物体图像提取处理,从对所述车辆的前方进行拍摄而得到的拍摄图像中,提取示出所述车辆的前方存在的多个物体的多个物体图像中的符合提取条件的物体图像作为提取物体图像;
显示分配区域指定处理,在所述拍摄图像内,指定不与任何提取物体图像重合且与任意的提取物体图像相切的区域,作为分配给所述引导信息的显示的显示分配区域,确定与所述显示分配区域相切的提取物体图像即相邻提取物体图像,确定所述相邻提取物体图像与所述显示分配区域之间的切线;
物体空间坐标计算处理,计算所述相邻提取物体图像中示出的物体的三维空间坐标作为物体空间坐标;
切线空间坐标计算处理,根据所述物体空间坐标,计算假设在三维空间内存在所述切线的情况下所述切线的三维空间坐标作为切线空间坐标;以及
显示区域决定处理,根据所述切线空间坐标、所述车辆的驾驶者的眼睛的位置的三维空间坐标和所述挡风玻璃的位置的三维空间坐标,决定所述引导信息在所述挡风玻璃上的显示区域。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/068893 WO2017002209A1 (ja) | 2015-06-30 | 2015-06-30 | 表示制御装置及び表示制御方法及び表示制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107532917A true CN107532917A (zh) | 2018-01-02 |
CN107532917B CN107532917B (zh) | 2018-06-12 |
Family
ID=57608122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580079586.8A Expired - Fee Related CN107532917B (zh) | 2015-06-30 | 2015-06-30 | 显示控制装置和显示控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170351092A1 (zh) |
JP (1) | JP6239186B2 (zh) |
CN (1) | CN107532917B (zh) |
DE (1) | DE112015006662T5 (zh) |
WO (1) | WO2017002209A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019140860A1 (en) * | 2018-01-16 | 2019-07-25 | Boe Technology Group Co., Ltd. | Method and apparatus for tracking an at least partially occluded object, vehicle and computer-program product thereof |
CN112484743A (zh) * | 2020-12-03 | 2021-03-12 | 安徽中科新萝智慧城市信息科技有限公司 | 车载hud融合实景导航显示方法及其系统 |
CN116152883A (zh) * | 2022-11-28 | 2023-05-23 | 润芯微科技(江苏)有限公司 | 一种车载眼球识别和前玻璃智能局部显示的方法和系统 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101916993B1 (ko) * | 2015-12-24 | 2018-11-08 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 그 제어방법 |
JP6872441B2 (ja) * | 2017-06-30 | 2021-05-19 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
CN111095363B (zh) * | 2017-09-22 | 2024-02-09 | 麦克赛尔株式会社 | 显示系统和显示方法 |
JP7255321B2 (ja) * | 2019-04-03 | 2023-04-11 | スズキ株式会社 | 車両用表示制御装置 |
CN111861865B (zh) * | 2019-04-29 | 2023-06-06 | 精工爱普生株式会社 | 电路装置、电子设备以及移动体 |
US11605152B1 (en) * | 2021-06-22 | 2023-03-14 | Arnold Chase | Dynamic positional control system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1766932A (zh) * | 2004-10-25 | 2006-05-03 | 索尼株式会社 | 信息处理装置及方法、程序以及导航装置 |
CN101029831A (zh) * | 2005-11-24 | 2007-09-05 | 株式会社拓普康 | 三维数据作成方法和三维数据作成装置 |
CN101248473A (zh) * | 2005-09-29 | 2008-08-20 | 松下电器产业株式会社 | 导航装置、导航方法及车辆 |
CN101617197A (zh) * | 2007-02-16 | 2009-12-30 | 三菱电机株式会社 | 道路地物测量装置、地物识别装置、道路地物测量方法、道路地物测量程序、测量装置、测量方法、测量程序、测量位置数据、测量终端装置、测量服务器装置、作图装置、作图方法、作图程序以及作图数据 |
CN103076018A (zh) * | 2011-09-12 | 2013-05-01 | 爱信艾达株式会社 | 图像显示控制系统、图像显示控制方法和图像显示控制程序 |
US20150145951A1 (en) * | 2012-10-30 | 2015-05-28 | Thinkware Systems Corporation | Navigation guidance apparatus and method using wide-angle lens camera image |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004322680A (ja) * | 2003-04-21 | 2004-11-18 | Denso Corp | ヘッドアップディスプレイ装置 |
JP2006162442A (ja) * | 2004-12-07 | 2006-06-22 | Matsushita Electric Ind Co Ltd | ナビゲーション装置及びナビゲーション方法 |
JP2008280026A (ja) | 2007-04-11 | 2008-11-20 | Denso Corp | 運転支援装置 |
JP5346650B2 (ja) | 2009-03-31 | 2013-11-20 | 株式会社エクォス・リサーチ | 情報表示装置 |
JP2013203374A (ja) | 2012-03-29 | 2013-10-07 | Denso It Laboratory Inc | 車両用表示装置、その制御方法及びプログラム |
JP6328366B2 (ja) | 2012-08-13 | 2018-05-23 | アルパイン株式会社 | ヘッドアップディスプレイの表示制御装置および表示制御方法 |
JP2014181927A (ja) | 2013-03-18 | 2014-09-29 | Aisin Aw Co Ltd | 情報提供装置、及び情報提供プログラム |
JP5962594B2 (ja) * | 2013-06-14 | 2016-08-03 | 株式会社デンソー | 車載表示装置およびプログラム |
-
2015
- 2015-06-30 US US15/541,506 patent/US20170351092A1/en not_active Abandoned
- 2015-06-30 JP JP2017503645A patent/JP6239186B2/ja not_active Expired - Fee Related
- 2015-06-30 DE DE112015006662.4T patent/DE112015006662T5/de active Pending
- 2015-06-30 WO PCT/JP2015/068893 patent/WO2017002209A1/ja active Application Filing
- 2015-06-30 CN CN201580079586.8A patent/CN107532917B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1766932A (zh) * | 2004-10-25 | 2006-05-03 | 索尼株式会社 | 信息处理装置及方法、程序以及导航装置 |
CN101248473A (zh) * | 2005-09-29 | 2008-08-20 | 松下电器产业株式会社 | 导航装置、导航方法及车辆 |
CN101029831A (zh) * | 2005-11-24 | 2007-09-05 | 株式会社拓普康 | 三维数据作成方法和三维数据作成装置 |
CN101617197A (zh) * | 2007-02-16 | 2009-12-30 | 三菱电机株式会社 | 道路地物测量装置、地物识别装置、道路地物测量方法、道路地物测量程序、测量装置、测量方法、测量程序、测量位置数据、测量终端装置、测量服务器装置、作图装置、作图方法、作图程序以及作图数据 |
CN103076018A (zh) * | 2011-09-12 | 2013-05-01 | 爱信艾达株式会社 | 图像显示控制系统、图像显示控制方法和图像显示控制程序 |
US20150145951A1 (en) * | 2012-10-30 | 2015-05-28 | Thinkware Systems Corporation | Navigation guidance apparatus and method using wide-angle lens camera image |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019140860A1 (en) * | 2018-01-16 | 2019-07-25 | Boe Technology Group Co., Ltd. | Method and apparatus for tracking an at least partially occluded object, vehicle and computer-program product thereof |
US11361553B2 (en) | 2018-01-16 | 2022-06-14 | Boe Technology Group Co., Ltd. | Method and apparatus for tracking an at least partially occluded object, vehicle and computer-program product thereof |
CN112484743A (zh) * | 2020-12-03 | 2021-03-12 | 安徽中科新萝智慧城市信息科技有限公司 | 车载hud融合实景导航显示方法及其系统 |
CN116152883A (zh) * | 2022-11-28 | 2023-05-23 | 润芯微科技(江苏)有限公司 | 一种车载眼球识别和前玻璃智能局部显示的方法和系统 |
CN116152883B (zh) * | 2022-11-28 | 2023-08-11 | 润芯微科技(江苏)有限公司 | 一种车载眼球识别和前玻璃智能局部显示的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2017002209A1 (ja) | 2017-01-05 |
CN107532917B (zh) | 2018-06-12 |
JP6239186B2 (ja) | 2017-11-29 |
JPWO2017002209A1 (ja) | 2017-06-29 |
DE112015006662T5 (de) | 2018-05-03 |
US20170351092A1 (en) | 2017-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107532917B (zh) | 显示控制装置和显示控制方法 | |
JP6227318B2 (ja) | 障害物及び急斜面を検出する検出装置およびそれを備えた車両 | |
US9317924B2 (en) | Information processing apparatus, three-dimensional position calculation method, and program | |
US9412034B1 (en) | Occlusion handling for computer vision | |
US9141873B2 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
US9454704B2 (en) | Apparatus and method for determining monitoring object region in image | |
JP2019096072A (ja) | 物体検出装置、物体検出方法およびプログラム | |
JP6201148B2 (ja) | キャリブレーション装置、キャリブレーション方法、キャリブレーション機能を備えた移動体搭載用カメラ及びプログラム | |
US20110216194A1 (en) | Camera calibration apparatus | |
US9665782B2 (en) | Obstacle detecting apparatus and obstacle detecting method | |
CN105551020B (zh) | 一种检测目标物尺寸的方法及装置 | |
CN107848415A (zh) | 显示控制装置、显示装置及显示控制方法 | |
EP3070430A1 (en) | Moving body position estimation device and moving body position estimation method | |
CN103810475A (zh) | 一种目标物识别方法及装置 | |
JP2008262333A (ja) | 路面判別装置および路面判別方法 | |
KR20180123302A (ko) | 볼의 궤적을 시각화하는 방법 및 장치 | |
CN111147834A (zh) | 一种基于增强现实抬头显示的虚拟图像标定方法 | |
CN114063295A (zh) | 增强现实图像的动态调整 | |
JP2020056717A (ja) | 位置検出装置 | |
JP5521217B2 (ja) | 障害物検出装置、及び障害物検出方法 | |
CN111343445A (zh) | 动态调整深度解析度的装置及其方法 | |
JP2021085855A (ja) | 補正距離算出装置、補正距離算出用プログラムおよび補正距離算出方法 | |
JP2019185475A (ja) | 特定プログラム、特定方法及び情報処理装置 | |
KR20160127264A (ko) | 시선 검출 시스템 및 그 방법 | |
JP6507590B2 (ja) | 画像変換装置および画像変換方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180612 Termination date: 20200630 |
|
CF01 | Termination of patent right due to non-payment of annual fee |