CN110263688A - 驾驶相关引导提供方法及装置、计算机可读记录介质 - Google Patents

驾驶相关引导提供方法及装置、计算机可读记录介质 Download PDF

Info

Publication number
CN110263688A
CN110263688A CN201910496468.7A CN201910496468A CN110263688A CN 110263688 A CN110263688 A CN 110263688A CN 201910496468 A CN201910496468 A CN 201910496468A CN 110263688 A CN110263688 A CN 110263688A
Authority
CN
China
Prior art keywords
mentioned
guidance
vehicle
place
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910496468.7A
Other languages
English (en)
Other versions
CN110263688B (zh
Inventor
趙浩亨
高锡弼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Thinkware Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thinkware Systems Corp filed Critical Thinkware Systems Corp
Publication of CN110263688A publication Critical patent/CN110263688A/zh
Application granted granted Critical
Publication of CN110263688B publication Critical patent/CN110263688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开驾驶相关引导提供方法及装置、计算机可读记录介质。本发明的驾驶相关引导提供方法包括:确定车辆的位置的步骤;以上述确定的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息的步骤;利用上述检测的引导地点的信息来生成表示上述引导地点的对象的步骤;以及根据上述车辆和上述引导地点的距离差移动变更而显示上述生成的对象的显现位置的步骤。

Description

驾驶相关引导提供方法及装置、计算机可读记录介质
本申请是申请日为2015年12月1日,申请号为201510868227.2,发明名称为“电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质”的发明专利申请的分案申请。
技术领域
本发明涉及驾驶相关引导提供方法及装置、计算机可读记录介质,更详细地,涉及在增强现实上向使用人员执行车辆驾驶相关引导的电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质。
背景技术
当车辆行驶时,最重要的是安全行驶及预防交通事故,为此,在车辆安装有执行控制车辆的姿势、控制车辆结构装置的功能等的多种辅助装置及安全带、安全气囊等安全装置。
不仅如此,近期,设置于车辆的黑匣子等的装置存储车辆的行驶影像及从各种传感器传输的数据,从而处于在车辆设置当车辆发生交通事故时用于查明车辆的事故原因的装置的趋势。由于也可以在智能手机、平板电脑等便携式终端设备安装黑匣子或导航仪应用等,因而被用作如上所述的车辆用装置。
但实际上,目前在这种车辆用装置中的行驶影像的利用率非常低。更具体地,即使通过目前安装于车辆的摄像头等的视觉传感器来获得车辆的行驶影像,车辆的电子装置仅停留于单纯地显示、传送这种影像或仅停留于生成是否脱离车道线等简单的周边通知信息。
并且,作为目前受关注的新的车辆电子装置,还提出平视显示器(HUD,Head-UpDisplay)或增强现实界面,但在这些装置中,对车辆的行驶影像的利用率也仅停留在单纯显示或生成简单的通知信息的层面。
发明内容
本发明根据上述必要性而提出,本发明的目的在于,提供若运行中的车辆接近距引导地点达规定距离以内的范围,则生成用于表示引导地点的对象,并通过增强现实来输出所生成的上述对象的电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质。
用于实现上述目的的本发明一实施例的电子装置的控制方法包括:确定运行中的车辆的位置的步骤;以所确定的上述车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息的步骤;利用上述引导地点的信息来生成用于表示上述引导地点的对象的步骤;以及通过增强现实来输出所生成的上述对象的步骤。
而且,上述通过增强现实来输出所生成的上述对象的步骤可包括:通过对摄像头执行校准(Calibration),来计算出摄像头参数的步骤;基于上述摄像头参数,来生成上述摄像头的拍摄影像的虚拟三维空间的步骤;以及向上述虚拟三维(3-Dimensional)空间映射所生成的上述对象的步骤。
并且,本发明的电子装置的控制方法还可包括:计算出上述车辆的位置和上述引导地点之间的位置差信息的步骤;以及利用上述位置差信息来在上述虚拟三维空间中确定所生成的上述对象的位置的步骤。
而且,上述对象可包括第一对象,上述第一对象用于在与现实世界相对应的增强现实中表示上述引导地点的位置。
并且,可根据上述车辆和上述引导地点的距离差移动变更上述第一对象的显现位置。
而且,若上述车辆经过上述引导地点,则用于表示所经过的上述引导地点的对象可从上述增强现实中消失。
并且,上述对象还可包括第二对象,上述第二对象用于引导上述引导地点。
而且,在上述车辆的运行过程中,若上述引导地点进入预先设定的距离内,则可激活上述通过增强现实来输出所生成的上述对象的步骤。
并且,可在上述引导地点体现为包括引导开始地点及引导结束地点的引导区间的情况下,在上述利用上述引导地点的信息来生成用于表示上述引导地点的对象的步骤中,利用上述引导开始地点的信息及上述引导结束地点的信息,来生成用于引导上述引导区间的对象,在上述通过增强现实来输出所生成的上述对象的步骤中,在上述车辆位于上述引导区间的期间,通过增强现实来输出所生成的上述对象。
另一方面,用于实现上述目的的本发明一实施例的电子装置包括:显示部,用于显示画面;检测部,以运行中的车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息;对象生成部,利用上述引导地点的信息来生成用于表示上述引导地点的对象;以及控制部,控制上述显示部来通过增强现实显示所生成的上述对象。
而且,本发明的电子装置还可包括:校准部,通过对摄像头执行校准,来计算出摄像头参数;三维空间生成部,基于上述摄像头参数,来生成上述摄像头的拍摄影像的虚拟三维空间;以及映射部,用于向所生成的上述虚拟三维空间映射所生成的对象。
并且,上述控制部可计算出上述车辆的位置和上述引导地点之间的位置差信息,并利用上述位置差信息来在上述虚拟三维空间中确定所生成的上述对象的位置。
而且,上述对象可包括第一对象,上述第一对象用于在与现实世界相对应的增强现实中表示上述引导地点的位置。
并且,可根据上述车辆和上述引导地点的距离差移动变更上述第一对象的显现位置。
而且,若上述车辆经过上述引导地点,则用于表示所经过的上述引导地点的对象可从上述增强现实中消失。
并且,本发明的电子装置还可包括用于引导上述引导地点的第二对象。
而且,在上述车辆的运行过程中,若上述引导地点进入预先设定的距离内,则可激活在上述增强现实中显现上述对象。
并且,可在上述引导地点体现为包括引导开始地点及引导结束地点的引导区间的情况下,上述对象生成部利用上述引导开始地点的信息及上述引导结束地点的信息,来生成用于引导上述引导区间的对象,上述控制部控制上述显示部,来使得在上述车辆位于上述引导区间的期间,通过增强现实显示所生成的上述对象。
另一方面,用于实现上述目的的本发明一实施例的存储于记录介质的计算机程序可通过与电子装置相结合来执行以下步骤:确定运行中的车辆的位置的步骤;以所确定的上述车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息的步骤;利用上述引导地点的信息来生成用于表示上述引导地点的对象的步骤;以及通过增强现实来输出所生成的上述对象的步骤。
另一方面,在用于实现上述目的的本发明一实施例的存储有用于执行电子装置的控制方法的计算机程序的计算机可读记录介质中,上述控制方法包括:确定运行中的车辆的位置的步骤;以所确定的上述车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息的步骤;利用上述引导地点的信息来生成用于表示上述引导地点的对象的步骤;以及通过增强现实来输出所生成的上述对象的步骤。
根据本发明的上述多种实施例,可通过反映车辆和引导地点之间的距离差来在增强现实画面中立体地呈现对象的显现位置,从而更加有效地向驾驶人员传递车辆和引导地点之间的距离差。
并且,根据本发明的上述多种实施例,通过反映车辆和引导地点之间的距离差来使对象的显现位置在增强现实画面中移动变更,从而可以以更加直观的方法向驾驶人员提供引导。
并且,根据本发明的上述多种实施例,在超速检查地点、区间测速路段、易滑路段等,通过增强现实方法动态地显现地点的位置及引导信息,从而可有效地向驾驶人员提供引导,并可引起驾驶人员的兴趣,而且还可谋求驾驶人员对车辆的安全驾驶及方便性。
附图说明
图1为表示本发明一实施例的电子装置的框图。
图2为具体表示本发明一实施例的增强现实提供部的框图。
图3为用于说明与本发明一实施例的电子装置相连接的系统的网络的图。
图4为简要表示本发明一实施例的电子装置的控制方法的流程图。
图5为具体表示本发明一实施例的在增强现实中映射用于表示引导地点的对象的方法的流程图。
图6为表示本发明一实施例的二维拍摄图像和虚拟三维空间之间的变换关系的图。
图7为具体表示本发明一实施例的电子装置的增强现实画面显示方法的流程图。
图8为表示本发明一实施例的显示超速检查地点的增强现实画面的图。
图9为表示本发明一实施例的显示岔路地点、中间地点的增强现实画面的图。
图10为表示本发明一实施例的显示超速检查地点的增强现实画面的图。
图11为表示本发明一实施例的显示道路交通指示牌的增强现实画面的图。
图12为表示本发明一实施例的显示施工路段、多雾路段的增强现实画面的图。
图13为表示本发明一实施例的显示事故多发路段、注意坠落路段、注意落石路段的增强现实画面的图。
图14为表示本发明一实施例的显示急转弯路段、易滑路段、注意野生动物路段的增强显示画面的图。
图15为表示本发明一实施例的显示铁路道口的增强现实画面的图。
图16为表示本发明一实施例的在摄像头和电子装置为分离型的情况下的体现形态的图。
图17为表示本发明一实施例的在摄像头和电子装置为一体型的情况下的体现形态的图。
图18为表示利用本发明一实施例的平视显示器及电子装置的体现形态的图。
具体实施方式
以下的内容仅仅例示本发明的原理。因此,本发明所属技术领域的技术人员可发明出虽然未在本说明书明确说明或图示,但可体现本发明的原理并包含于本发明的概念和范围的多种装置。并且,在本发明中列举的所有条件的术语及实施例在原则上明确用于理解本发明的概念,并且,应理解为并不限定以如上所述的方式特别列举的实施例及状态。
并且,用于列举本发明的原理、观点及实施例,并列举特定实施例的所有详细说明应被理解为包含这种事项的结构性及功能性的等同技术方案。并且,这种等同技术方案应被理解为包括当前公开的等同技术方案,还包括今后将被研发的等同技术方案,即,以与结构无关地执行相同功能的方式发明的所有元件。
因此,例如,本说明书的框图应被理解为表示将本发明的原理具体化的例示性的回路的概念的观点。与此类似,所有流程图、状态转换图、伪代码等应被理解为无论是否实质性地显示于计算机可读介质,无论是否明确示出计算机或处理器,均表示借助计算机或处理执行的多种程序。
处理器或包括以与处理器相似的概念显示的功能块的附图中所示的多种元件的功能不仅可提供为专用硬件,而且可提供为与适当的软件相关地使用具有可运行软件的功能的硬件。当通过处理器提供上述功能时,可借助单一专用处理器、单一共享处理器或多个个别处理器来提供上述功能,这些中的一部分可被共享。
并且,以处理、控制或与此相似的概念来提出的术语的明确使用不应以排除具有可运行软件的能力的硬件的方式来解释,应以不受限制的方式理解为暗示性地包括数字信号处理器(DSP)硬件、用于存储软件的只读存储器(ROM)、随机存取存储器(RAM)及非易失性存储器。还可包括周知的其他惯用的硬件。
在本说明书的发明要求保护范围中,表现为用于执行在详细的说明中所记载的功能的机构的结构要素包括如执行上述功能的回路元件的组合或包括执行含有固件/微码等的所有形式的软件的功能的所有方法,并与用于运行上述软件的适当的回路相结合,来执行上述功能。借助这种发明要求保护范围来定义的本发明,借助以多种方式列举的方法来提供的功能相结合,并与发明要求保护范围所要求的方式相结合,因而可提供上述功能的任何方法也应理解为等同于从本说明书掌握的方法相同。
通过与附图相关的以下详细的说明,可更加明确上述的目的、特征及优点,由此,本发明所属技术领域的普通技术人员可容易地实施本发明的技术思想。并且,在对本发明进行说明的过程中,若判断对公知技术的具体说明有可能使本发明的主旨变得模糊,则将省略其详细说明。
以下,参照附图,对本发明的多种实施例进行详细说明。
图1为表示本发明一实施例的电子装置的框图。参照图1,电子装置100包括存储部110、输入部120、输出部130、检测部140、增强现实提供部160、控制部170、通信部180、传感部190、电源部195中的全部或一部分。
在这里,电子装置100可以体现为可向处于驾驶状态的车辆驾驶人员提供驾驶相关引导的智能手机、平板电脑、笔记本电脑、个人数字助理(PDA,personal digitalassistant)、便携式多媒体播放器(PMP,portable multimedia player)、智能眼镜、拓展现实眼镜、导航仪(navigation)、黑匣子(Black-box)等多种装置,上述电子装置100可设于车辆。
在这里,车辆的运行状态可包括车辆的停车状态、车辆的运行状态、车辆的泊车状态等由驾驶人员驾驶的车辆的多种状态。
车辆驾驶相关引导可包括如导航、车道线脱离引导、前方车辆出发引导、信号灯变更引导、防止与前方车辆碰撞引导、车行道变更引导、车行道引导、车辆的油耗、瞬间加速度、交通信息、当前车辆的当前行驶速度、距前方特定地点为止的距离、到达前方特定地点为止的耗时等用于辅助驾驶人员驾驶车辆的多种引导。
在这里,导航可包括:增强现实导航,在拍摄正在运行中的车辆的前方的影像中结合使用人员的位置、方向等各种信息来执行导航;以及二维(2D,2-Dimensional)或三维(3D,3-Dimensional)导航,在二维或三维地图数据中结合使用人员的位置、方向等各种信息来执行导航。其中,导航可解释成不仅包括在使用人员乘坐车辆进行驾驶的情况下的导航,还包括使用人员以行走或奔跑的方式移动的情况下的导航的概念。
并且,车道线脱离引导可以为对行驶中的车辆是否脱离车道线进行引导。
并且,前方车辆出发引导可以为对位于停车中的车辆的前方的车辆是否出发所进行的引导。
并且,信号灯变更引导可以为对位于停车中的车辆的前方的信号灯是否变更所进行的引导。作为一例,若从表示停止信号的红灯亮起的状态变更为表示出发信号的绿灯,则可对此进行引导。
并且,防止与前方车辆碰撞的引导可以为若停车或行驶中的车辆与位于前方的车辆之间的距离在规定距离以内,则为了防止与前方车辆碰撞而进行的引导。
并且,车行道变更引导可以为为了引导目的地为止的路径而引导车辆从车辆所处的车行道变更到其他车行道。
并且,车行道引导可以为对车辆当前所处的车行道所进行的引导。
这种可提供多种引导的驾驶相关影像可通过朝向车辆的前方放置的摄像头来实时拍摄。在这里,摄像头可以为以与放置于车辆的电子装置100形成为一体,并拍摄车辆的前方的摄像头。在这种情况下,摄像头可以与智能手机、导航仪或黑匣子形成为一体,电子装置100可接收形成为一体的摄像头所拍摄的影像。
作为另一例,摄像头可以为与电子装置100分别放置于车辆,并拍摄车辆的前方的摄像头。在这种情况下,摄像头可以为朝向车辆的前方放置的单独的黑匣子,电子装置100通过有线/无线通信来接收单独放置的黑匣子所拍摄的影像,或若用于存储黑匣子所拍摄的影像的存储介质插入于电子装置100,则电子装置100可接收黑匣子所拍摄的影像。
以下,基于上述内容,对本发明一实施例的电子装置100进行更加具体的说明。
存储部110执行存储电子装置100的工作所需的多种数据及应用的功能。尤其,存储部110可存储电子装置100的工作所需的数据,如操作系统(OS)、路径探索应用、地图数据等。并且,存储部110可存储借助电子装置100的工作来生成的数据,如所探索到的路径数据、所接收的影像等。
其中,存储部110不仅可以体现为随机存取存储器(RAM,Random Access Memory)、闪存、只读存储器(ROM,Read Only Memory)、可擦除可编程式只读存储器(EPROM,ErasableProgrammable ROM)、电可擦除可编程式只读存储器(EEPROM,Electronically Erasableand Programmable ROM)、寄存器、硬盘、可移动磁盘、内存卡、通用用户识别模块(USIM,Universal Subscriber Identity Module)等内置型存储元件,还可以体现为通用串行总线存储器等可拆装形态的存储元件。
输入部120执行将从电子装置100的外部输入的物理输入转换为特定的电信号的功能。其中,输入部120可包括使用人员输入部121和传声器部123中的全部或一部分。
使用人员输入部121可接收触摸、推动动作等使用人员的输入。在这里,使用人员输入部121可利用多种按钮的形态、接收触摸式输入的触摸传感器、接收接近动作的接近传感器中的至少一个来体现。
传声器部123可接收使用人员的声音及从车辆的内外部产生的声音。
输出部130为用于输出电子装置100的数据的装置。其中,输出部130可包括显示部131和音频输出部133中的全部或一部分。
显示部131为电子装置100输出可以以视觉性的方式识别的数据的装置。显示部131可以体现为设于电子装置100的外壳的前面的显示部。并且,显示部131可以与电子装置100形成为一体,并输出视觉性的识别数据,还可如平视显示器,与电子装置100单独设置来输出视觉性的识别数据。
音频输出部133为电子装置100输出可以以听觉性的方式识别的数据的装置。音频输出部133可通过表现声音的扬声器来体现电子装置100的应告知使用人员的数据。
通信部180可以为了使电子装置100与其他设备进行通信而设。通信部180可包括位置数据部181、无线互联网部183、广播收发部185、移动通信部186、近距离通信部187、有线通信部189中的全部或一部分。
位置数据部181为通过全球导航卫星系统(GNSS,Global Navigation SatelliteSystem)来获得位置数据的装置。全球导航卫星系统意味着可利用从人工卫星接收的电波信号来计算出接收终端的位置的导航系统。作为全球导航卫星系统的具体例,可根据运营主体分为全球卫星定位系统(GPS,Global Positioning System)、伽利略定位系统(Galileo)、格洛纳斯卫星导航系统(GLONASS,Global Orbiting Navigational SatelliteSystem)、北斗卫星导航系统(COMPASS)、印度区域导航卫星系统(IRNSS,Indian RegionalNavigational Satellite System)、准天顶卫星系统(QZSS,Quasi-Zenith SatelliteSystem)等。本发明一实施例的电子装置100的位置数据部181可通过接收向使用电子装置100的地区提供服务的全球导航卫星系统的信号来获得位置信息。
无线互联网部183为通过与无线互联网相连接来获得数据或发送信息的装置。可通过无线互联网部183来连接的无线互联网可以为无线局域网(WLAN,Wireless LAN)、无线宽带(Wibro,Wireless broadband)、全球微波互联接入(Wimax,World interoperabilityfor microwave acess)、高速下行分组接入(HSDPA,High Speed Downlink Packet Acess)等。
广播收发部185为通过各种广播系统来收发广播信号的装置。可通过广播收发部185收发的广播系统可以为地面数字多媒体广播(DMBT,Digital MultimediaBroadcasting Terrestrial)、数字多媒体卫星广播(DMBS,Digital MultimediaBroadcasting Satellite)、高通提出的移动电视标准(MediaFLO,Media Forward LinkOnly)、手持数字视频广播(DVBH,Digital Video Broadcast Handheld)、日本数字音频广播方案(ISDBT,Integrated Services Digital Broadcast Tereestrial)等。通过广播收发部185收发的广播信号可包括交通数据、生活数据等。
移动通信部186可根据第三代移动通信技术(3G,3rd Generation)、第三代合作伙伴计划(3GPP,3rd Generation Partnership Project)、长期演进计划(LTE,Long TermEvoloution)等多种移动通信规格与移动通信网相连接并进行通信。
近距离通信部187为用于进行近距离通信的装置。如上所述,近距离通信部187可通过蓝牙(Bluetooth)、射频识别(RFID,Radio Frequency Idntification)、红外数据组织(IrDA、Infraed Data Association)、超宽带(UWB,Ultra WidBand)、紫蜂协议(ZigBee)、近场通信(NFC,Near Field Communication)、无线保真(Wi-Fi)等来进行通信。
有线通信部189为可以以有线方式使电子装置100与其他设备相连接的接口装置。有线通信部189可以为可通过通用串行总线端口(USB Port)来进行通信的通用串行总线模块。
这种通信部180可利用位置数据部181、无线互联网部183、广播收发部185、移动通信部186、近距离通信部187、有线通信部189中的至少一个来与其他设备通信。
作为一例,在电子装置100不包括摄像功能的情况下,可利用近距离通信部187、有线通信部189中的至少一个来接收黑匣子等车辆用摄像头拍摄的影像。
作为另一例,在与多个设备通信的情况下,也可由一个设备通过近距离通信部187来通信,另一个设备通过有线通信部189通信。
传感部190为可检测电子装置100的当前状态的装置。传感部190可包括动作传感部191、光传感部193中的全部或一部分。
动作传感部191可检测电子装置100的三维空间上的运动。动作传感部191可包括三轴地磁传感器及三轴加速度传感器。可将通过动作传感部191获得的运动数据和通过位置数据部191获得的位置数据相结合,来计算出附着有电子装置100的车辆的更加准确的轨迹。
光传感部193为测定电子装置100的周边照度(illuminance)的装置。利用通过光传感部193获得的照度数据,可使显示部195的亮度与周边亮度相对应地发生变化。
电源部195为用于供给电子装置100的工作或与电子装置100相连接的其他设备的工作所需的电源的装置。电源部195可以为从内置于电子装置100的电池或车辆等外部电源处接收电源的装置。并且,根据接收电源的形态,电源部195可体现为有线通信模块119或体现为以无线的方式接收电源的装置。
检测部140可以以运行中的车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息。具体地,检测部140可通过将从位置数据部181获得的车辆的位置信息适用于地图数据,来以车辆的位置为基准,检测位于前方规定距离范围的引导地点的信息。
其中,地图数据可从电子装置100内的存储部110获得,或者可从电子装置100以外的其他外部地图数据库(DB,Database)中获得,或者可从其他电子装置获得地图数据。这种地图数据为用于表示当前位置及周边地区的地图的数据,上述地图数据可包括:多个交通路线,用于表示多个区域内的道路;以及各上述多个交通路线的属性信息、引导地点的信息。交通路线的属性信息可包括用于表示上述交通路线是否为双向交通路线或单向交通路线的信息、上述交通路线的车道线线数量信息、与上述交通路线相对应的道路的种类信息(例如,高速公路、城市快速路、国道、地方公路、普通公路等)。引导地点的信息可包括引导地点的位置信息、引导地点的引导代码信息(例如,限速引导、减速带引导等的信息)。
其中,引导地点可包括超速检查地点、减速带地点、铁路道口地点、区间测速地点、道路交叉口地点、岔路地点等。并且,在引导地点体现为包括引导开始地点及引导结束地点的引导区间的情况下,可包括区间测速路段的开始地点及结束地点,儿童保护区域的开始地点及结束地点、老人保护区域的开始地点及结束地点、施工路段的开始地点及结束地点、多雾路段的开始地点及结束地点、事故多发路段的开始地点及结束地点、注意落石路段的开始地点及结束地点、急转弯路段的开始地点及结束地点、易滑路段的开始地点及结束地点、注意野生动物路段的开始地点及结束地点、限高路段的开始地点及结束地点等。
另一方面,本发明一实施例的电子装置100可包括用于提供增强现实视图模式的增强现实提供部160。其中,增强现实可以为在呈现使用人员实际观看的现实世界的画面中以在视觉上重叠的方式提供附加信息(例如,表示关注的地点(Point Of Interest:POI))的图形要素、表示至目的地的路径的图形要素等)的方法。对此,将参照图2来进行具体地说明。
图2为具体表示本发明一实施例的增强现实提供部160的框图。参照图2,增强显示提供部160可包括校准部161、三维空间生成部162、对象生成部163、映射部164中的全部或一部分。
校准部161可执行校准,来从由摄像头拍摄的拍摄影像中推定与摄像头相对应的摄像头参数。其中,摄像头参数为构成摄像头矩阵的参数,上述摄像头矩阵为用于表示真实空间映射在照片的关系的信息,上述摄像头参数可包括:摄像头外部参数(extrinsicparameters)和摄像头内部参数(intrinsic parameters)。
三维空间生成部162可基于由摄像头拍摄的拍摄影像生成虚拟三维空间。具体地,三维空间生成部162可通过将校准部161所推定的摄像头参数适用于二维的拍摄影像,来生成虚拟三维空间。
对象生成部163可在增强现实上生成用于引导的对象,例如,导航对象、车行道变更引导对象、车道线脱离引导对象等。尤其,对象生成部163可生成用于表示以车辆的位置为基准来位于前方规定距离范围的引导地点的对象。其中,对象可体现为三维对象、图像或艺术线条等。
映射部164可在由三维空间生成部162所生成的虚拟三维空间映射在对象生成部163所生成的对象。具体地,映射部164可确定在对象生成部163所生成的对象在虚拟三维空间中的位置,并在所确定的位置映射对象。
另一方面,控制部170控制电子装置100的整个工作。具体地,控制部170可控制存储部110、输入部120、输出部130、检测部140、增强现实提供部160、通信部180、传感部190中的全部或一部分。
尤其,若运行中的车辆接近距引导地点达规定距离以内的范围,则控制部170可控制对象生成部163生成用于表示引导地点的对象,并且,控制部可控制显示部131通过增强现实来显示所生成的对象。
具体地,控制部170可利用从位置数据部181获得的车辆的位置信息和从检测部140获得的引导地点的位置信息来计算出两者的位置差信息,基于所计算出的位置差信息来判断运行中的车辆是否接近距引导地点达规定距离以内的范围。
若,运行中的车辆接近距引导地点达规定距离以内的范围,则控制部170可利用所计算出的位置差信息来在由三维空间生成部162所生成的虚拟三维空间中确定上述引导地点的位置。作为一例,以与现实世界相对应的三维空间中的X(维度)、Y(经度)、Z(高度)坐标值为基准,在位置数据部181获得的车辆的位置信息为(10,20,30),引导地点的位置信息为(20,30,40)的情况下,控制部170可计算出作为位置信息的差的位置差信息(10,10,10)。而且,控制部170可利用所计算出的位置差信息来在由三维空间生成部162所生成的虚拟三维空间中确定上述引导地点的位置。其中,车辆的位置信息(10,20,30)及引导地点的位置信息(20,30,40)分别是以与现实世界相对应的三维空间中的X(维度)、Y(经度)、Z(高度)坐标值为基准来计算的,因此,例如在车辆的位置信息(10,20,30)中,10为与维度值相对应的数值,20为与经度值相对应的数值,30为与高度值相对应的数值。
并且,若运行中的车辆接近距引导地点达规定距离以内的范围,则控制部170可控制对象生成部163生成用于表示引导地点的引导对象。具体地,控制部170可控制对象生成部163生成用于在与现实世界相对应的增强现实中表示引导地点的位置的第一对象。并且,控制部170可控制对象生成部163通过利用在检测部140获得的引导代码信息来生成用于引导引导地点的第二对象。作为一例,当引导地点为超速检查地点的情况下,第二对象可包括:文本形态的对象,用于引导超速检查地点的限速;摄像头图像形态的对象,用于引导超速检查地点的检查方法。
另一方面,控制部170可控制映射部164基于在虚拟三维空间中所确定的引导地点的位置来映射在对象生成部163所生成的引导对象。
而且,控制部170可进行如下的控制:利用摄像机矩阵,将根据映射部164的映射来映射引导对象的虚拟三维空间变换为二维图像,以此生成二维的增强显示影像,并通过显示部131来显示所生成的增强现实影像。
像这样,根据本发明的一实施例,可通过反映车辆和引导地点之间的距离差来在增强现实画面中立体地呈现对象的显示位置,从而可更加有效地向驾驶人员传递车辆和引导地点之间的距离差。
另一方面,可根据车辆和引导地点的距离差移动变更用于在与现实世界相对应的增强现实中表示引导地点的位置的第一对象的显现位置。例如,随着车辆的运行,若车辆和引导地点的距离变短,则控制部170可控制映射部164根据车辆和引导地点的距离差移动变更第一对象的位置来进行映射。即,随着车辆的行驶,若车辆和引导地点的距离变短,则第一对象可在增强现实画面中显现在逐渐靠近车辆的位置。
并且,若车辆经过引导地点,则用于表示所经过的引导地点的对象可在增强画面中消失。即,随着车辆的行驶,若车辆经过引导地点,则用于表示所经过的引导地点的位置的第一对象及用于引导所经过的引导地点的第二对象可在增强现实画面中消失。
像这样,根据本发明的一实施例,通过反映车辆和引导地点之间的距离差来在增强现实画面中移动变更对象的显现位置,从而可以以更加直观的方法向驾驶人员提供引导。
另一方面,在车辆的运行过程中,若引导地点进入预先设定的距离内,则可激活在上述增强现实画面中显现引导对象的工作。
并且,上述引导地点可体现为如超速检查地点等的仅需要对单一地点进行引导的形态,或者还可体现为包括引导开始地点及引导结束地点的引导区间的形态。像这样,若以引导区间的形态体现上述引导地点,则控制部170控制对象生成部163利用引导开始地点的信息及引导结束地点的信息来生成用于对引导区间进行引导的对象,并且控制部170可进行如下的控制:在车辆位于引导区间的期间,通过增强现实来输出所生成的对象。例如,在引导区间为区间测速路段的情况下,若行驶中的车辆接近距区间测速开始地点达规定距离以内的范围,则控制部170通过增强现实来输出用于表示区间测速开始地点的位置的第一对象,若行驶中的车辆接近距区间测速结束地点达规定距离以内的范围,则控制部170可进行如下的控制:通过增强现实来输出用于表示区间测速结束地点的位置的第一对象,而且在车辆位于引导区间的期间,通过增强现实来输出用于对引导区间进行引导的第二对象,若行驶中的车辆经过区间测速结束地点,则可不通过增强现实来输出上述第一对象、第二对象。
图3为用于说明与本发明一实施例的电子装置相连接的系统的网络的图。参照图3,本发明的一实施例的电子装置100可体现为导航仪、黑匣子、智能手机或其他车辆用增强现实界面提供装置等设置于车辆的各种装置,并且可与多种通信网及其他电子设备61、62、63、64相连接。
并且,电子装置100可根据从人工卫星20接收的电波信号来与全球定位系统相联动,从而计算出当前的位置及当前的时间。
各个人工卫星20可发送频率波段不同的L波段频率。电子装置100可基于从各人工卫星20发送的L波段频率到达电子装置100所需的时间来计算出当前的位置。
另一方面,电子装置100可通过通信部180,并借助控制站(ACR)40、基站(RAS)50等来以无线方式与网络30相连接。若电子装置100与网络30相连接,则还可与以间接的方式与网络30相连接的其他电子设备61、62相连接,并交换数据。
另一方面,电子装置100还可以通过具有通信功能的其他设备63来以间接的方式与网络30相连接。例如,在电子装置未具有可以与网络30相连接的模块的情况下,可通过近距离通信等来与具有通信功能的其他设备63进行通信。
图4为简要表示本发明一实施例的电子装置的控制方法的流程图。参照图4,电子装置100可确定运行中的车辆的位置(步骤S101)。具体地,电子装置100的位置数据部181可通过全球卫星定位系统(GPS,Global Positioning System)/全球导航卫星系统(GMSS,Global Navigation Satellite System)来获得位置数据。
而且,电子装置100可以以所确定的车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息(步骤S102)。具体地,电子装置100的检测部140可将从位置数据部181获得的车辆的位置信息适用于地图数据,从而以车辆的位置为基准来检测位于前方规定距离范围的引导地点的信息。其中,引导地点的信息可包括引导地点的位置信息、引导地点的引导代码信息(例如,用于对限速引导、减速带引导等进行引导的信息)等。
而且,电子装置100可利用引导地点的信息来生成用于表示引导地点的对象(步骤S103)。具体地,电子装置100的对象生成部163可生成用于在与现实世界相对应的增强现实中表示引导地点的位置的第一对象及用于对引导地点进行引导的第二对象中的至少一个。其中,对象可体现为三维对象、图像或艺术线条。
而且,电子装置100可通过增强现实来显示所生成的对象(步骤S104)。在此情况下,电子装置100的控制部170计算出车辆和引导地点的位置差信息,并利用所计算出的位置差信息来在虚拟三维空间中确定所生成的上述对象所要被映射的位置,从而可通过增强现实来输出所生成的对象。参照图5至图6来具体说明这种增强现实画面的输出。
图5为具体表示本发明一实施例的在增强现实中映射用于表示引导地点的对象的方法的流程图。图6为表示本发明一实施例的二维拍摄图像和虚拟三维空间之间的变换关系的图。
参照图5至图6,电子装置100可通过对摄像头执行校准,来计算出摄像头参数(步骤S201)。具体地,电子装置100的校准部161可执行校准,来从由摄像头拍摄的拍摄影像推定与摄像头相对应的摄像头参数。其中,摄像头参数可以为构成摄像头矩阵的参数,上述摄像头矩阵为用于表示真实空间映射在照片的关系的信息。如图6的(a)部分所示,上述摄像头参数可包括摄像头外部参数601、摄像头内部参数602。其中,摄像头内部参数602的fx、fy可以为焦点距离(focal length),cx、cy可以为主点(principal point)、skew_c=tanα可以为偏斜系数(skew coefficient)。并且,摄像头外部参数601可以为用于将世界坐标系605(world coordinate system)上的三维点的坐标(X,Y,Z)变换为摄像头坐标系604(Camera Coordinate System)上的三维点的坐标(Xc,Yc,Zc)的旋转/移动变换矩阵。像这样,由于摄像头外部参数并非为摄像头固有的参数,因此,上述摄像头外部参数可根据摄像头的设置位置和设置方向而不同,并且,也可根据怎样定义世界坐标系而不同。
而且,电子装置100可基于摄像头参数来生成摄像头的拍摄影像的虚拟三维空间(步骤S202)。具体地,电子装置100的三维空间生成部162可通过将校准部161推定的摄像头参数适用于二维的拍摄影像来生成虚拟三维空间。即,参照图6的(b)部分,摄像头拍摄影像可通过将世界坐标系605的三维空间上的点透视投影(perspective projection)在二维图像平面来获得。因此,电子装置100的三维空间生成部162可通过基于摄像头参数来执行上述工作的逆过程,从而生成摄像头的拍摄影像的世界坐标系605的虚拟三维空间。
而且,电子装置100可计算出车辆的位置和引导地点的位置差信息(步骤S203)。具体地,电子装置100的控制部170可利用在位置数据部181获得的车辆的位置信息和在检测部140获得的引导地点的位置信息来计算出两者的位置差信息。作为一例,在位置数据部181获得的车辆的位置信息为(10,20,30),引导地点的位置信息为(20,30,40)的情况下,控制部170可计算出位置差信息(10,10,10)。
而且,电子装置100可利用位置差信息来在虚拟三维空间中确定引导地点的位置(步骤S204)。具体地,若计算出作为引导地点的位置和车辆的位置差的位置差信息,则可在世界坐标系605的虚拟三维空间中计算出位置差信息的坐标,从而在虚拟三维空间中确定引导地点的位置。
而且,电子装置100可基于虚拟三维空间中的引导地点的位置来在虚拟三维空间映射所生成的对象(步骤S205)。
而且,电子装置100可通过将映射对象的虚拟三维空间变换为二维图像来生成增强现实影像(步骤S206)。具体地,电子装置100的控制部170可利用摄像头矩阵来将根据映射部164的映射来映射引导对象的虚拟三维空间变换为二维图像,从而生成二维的增强现实影像。
而且,电子装置100可显示所生成的增强现实影像(步骤S207)。
图7为具体表示本发明一实施例的电子装置的增强现实画面显示方法的流程图。参照图7,电子装置100可确定运行中的车辆的位置(步骤S301)。
而且,电子装置100可以以所确定的车辆的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息(步骤S302)。
并且,电子装置100可利用引导地点的位置信息来生成用于在与现实世界相对应的增强现实中表示引导地点的位置的第一对象(步骤S303)。
而且,电子装置100可利用引导地点的引导代码信息来生成用于对引导地点进行引导的第二对象(步骤S304)。
并且,电子装置100可通过增强现实来显示所生成的对象(步骤S305)。
而且,若车辆经过引导地点,则电子装置100可在增强显示画面中去除用于表示所经过的引导地点的对象(步骤S306)。
以下,参照图8至图15具体说明本发明多种实施例的增强现实画面。
图8为表示本发明一实施例的显示超速检查地点的增强现实画面的图。参照图8,电子装置100可通过增强现实来显示用于在与现实世界相对应的增强现实中表示超速检查地点的位置的第一对象820、包括用于对超速检查地点的限速进行引导的文本的第二对象810。
尤其,参照图8,可根据车辆和引导地点的距离差移动变更第一对象820的显现位置。即,随着车辆的行驶,若车辆和引导地点的距离变短,则第一对象820可在增强现实画面中显现在逐渐靠近车辆的位置。
并且,如图8的(c)部分所示,随着车辆的行驶,若车辆和引导地点非常接近,则可通过调节第一对象、第二对象的透明度来透明地显现在增强现实画面中。
另一方面,虽然未在图8示出,但是,若车辆经过引导地点,则用于表示所经过的引导地点的第一对象、第二对象可从增强现实画面中消失。
图9为表示本发明一实施例的显示岔路地点、中间地点的增强现实画面的图。参照图9的(a)部分,电子装置100可通过增强现实显示用于在与现实世界相对应的增强现实中表示位于车辆的行驶路径的岔路地点的位置的第一对象920、包括用于对岔路地点的方向进行引导的文本的第二对象910。并且,参照图9的(b)部分,电子装置100可通过增强现实显示用于在与现实世界相对应的增强现实中表示位于车辆的行驶路径的中间地点的位置的第一对象940、包括对中间地点进行引导的文本的第二对象930。
图10为表示本发明一实施例的显示超速检查地点的增强现实画面的图。参照图10,电子装置100可通过增强现实来显示用于在与现实世界相对应的增强现实中表示超速检查地点的位置的第一对象1020、包括对超速检查地点的限速进行引导的文本的第二对象1010以及包括对超速检查地点的检查方法进行引导的图像的第三对象1031、1032、1033。
更具体地,在超速检查地点的检查方法为固定式摄像头的情况下,可通过增强现实显示如图10的(a)部分中的附图标记1031的对象,在超速检查地点的检查方法为箱式摄像头的情况下,可通过增强现实显示如图10的(b)部分的附图标记1032的对象,在超速检查地点的检查方法为移动式摄像头的情况下,可通过增强现实显示如图10的(c)部分的附图标记1033的对象。
图11为表示本发明一实施例的显示道路交通指示牌的增强现实画面的图。参照图11,电子装置100可通过增强现实来显示用于在与现实世界相对应的增强现实中要求驾驶人员注意的道路交通指示牌对象1101(例如,图11的(b)部分所示,用于表示事故多发路段的指示牌、用于表示易滑道路的指示牌、用于表示铁路道口的指示牌、用于表示河边道路的指示牌等)。
在此情况下,电子装置100的控制部170可进行使道路交通指示牌对象1101显现在车辆的非行驶道路的道路区域的控制。
图12为表示本发明一实施例的显示施工路段、多雾路段的增强现实画面的图。参照图12的(a)部分,电子装置100可通过增强现实来显示包括对施工路段进行引导的图像的对象1201。或者,参照图12的(b)部分,电子装置100可通过增强现实表示包括对多雾路段进行引导的图像的对象1202。
像这样,可仅在车辆位于引导区间的期间通过增强现实来显示用于对引导区间进行引导的对象1201、1202。
并且,虽然未在图12中示出,但根据本发明的一实施例,在车辆接近引导区间的引导开始地点及引导结束地点的情况下,可通过增强现实显示用于表示引导开始地点的位置的对象及用于表示引导结束地点的位置的对象。
图13为表示本发明一实施例的显示事故多发路段、注意坠落路段、注意落石路段的增强现实画面的图。参照图13的(a)部分,电子装置100可通过增强现实显示包括对事故多发路段进行引导的图像的对象1301。或者,参照图13的(b)部分,电子装置100可通过增强现实显示包括对注意坠落路段进行引导的图像的对象1302。或者,参照图13的(c)部分,电子装置100可通过增强现实显示包括对注意落石路段进行引导的图像的对象1303。
图14为表示本发明一实施例的显示急转弯路段、易滑路段、注意野生动物路段的增强显示画面的图。参照图14的(a)部分,电子装置100可通过增强现实显示包括对急转弯路段进行引导的图像的对象1401。或者参照图14的(b)部分,电子装置100可通过增强现实显示包括对易滑路段进行引导的图像的对象1402。或者,参照图14的(c)部分,电子装置可通过增强现实显示包括对注意野生动物路段进行引导的图像的对象1403。
图15为表示本发明一实施例的显示铁路道口的增强现实画面的图。参照图15,电子装置100可通过增强现实显示包括对铁路道口地点进行引导的图像的对象1501。
像这样,根据本发明的多种实施例,通过反映车辆和引导地点之间的距离差来在增强现实画面中立体地呈现对象的显现位置,从而可更加有效地向驾驶人员传递车辆和引导地点之间的距离差。
并且,通过反映车辆和引导地点之间的距离差来在增强现实画面中移动地变更对象的显现位置,从而可以以更加直观的方法向驾驶人员提供引导。
并且,在超速检查地点、区间测速路段、易滑路段等,通过增强现实方法动态地显现地点的位置及引导信息,从而可有效地向驾驶人员提供引导,并可引起驾驶人员的兴趣,而且还可谋求驾驶人员对车辆的安全驾驶及方便性。
图16为表示本发明一实施例的在摄像头和电子装置为分离型的情况下的体现形态的图。参照图16,分别设置的车辆用导航仪装置100和车辆用黑匣子200可利用有线/无线通信方式来构成本发明一实施例的系统。
车辆用导航仪100可包括:显示部131,设于导航仪的外壳191的前部面;导航仪操作键121;以及导航仪传声器123。
车辆用黑匣子200可包括黑匣子摄像头222、黑匣子传声器224及附着部281。
图17为表示本发明一实施例的在摄像头和电子装置为一体型的情况下的体现形态的图。参照图17,在导航仪装置100包括拍摄部150的情况下,使用人员可如下设置导航仪装置100,即,使导航仪装置100的拍摄部150拍摄车辆的前方,并使导航仪装置100的显示部分可识别使用人员。以此,可体现本发明一实施例的系统。
图18为表示利用本发明一实施例的平视显示器及电子装置的体现形态的图。参照图18,平视显示器可通过与其他设备之间的有线/无线通信来在平视显示器上显示增强现实引导画面。
作为一例,增强现实可通过利用车辆前挡风玻璃的平视显示器或利用其他影像输出装置的影像叠加等来提供,像这样,增强现实提供部160可生成现实影像或叠加于玻璃的界面图像等。以此,可体现增强现实导航仪或车辆信息娱乐系统等。
另一方面,可以以程序体现上述本发明多种实施例的电子装置的控制方法,从而向服务器或设备提供。以此,各装置可与存储有程序的服务器或设备相连接来下载上述程序。
并且,可以以程序体现上述本发明的多种实施例的电子装置的控制方法,从而存储于多种非临时性的可读介质(non-transitory computer readable medium)来提供。非临时性的可读介质并不意味着寄存器、高速缓冲存储器、存储器等短时间存储数据的介质,而是意味着半永久性存储数据,并可借助设备来读取(reding)的介质。具体地,上述的多种应用或程序可存储于光盘(CD)、数字多功能光盘(DVD)、硬盘、蓝光光盘、通用串行总线、记忆卡、只读存储器等非临时性的可读介质来提供。
并且,以上对本发明的优选实施例进行了图示和说明,但本发明并不局限于上述的特定实施例,在不脱离发明要求保护范围中申请的本发明的主旨的情况下,可由本发明所属技术领域的普通技术人员对本发明实施多种变形,并且,这些变形实施方式不应脱离本发明的技术思想或本发明的前景来单独理解。

Claims (15)

1.一种驾驶相关引导提供方法,包括:
确定车辆的位置的步骤;
以上述确定的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息的步骤;
利用上述检测的引导地点的信息来生成表示上述引导地点的对象的步骤;以及
根据上述车辆和上述引导地点的距离差移动变更而显示上述生成的对象的显现位置的步骤。
2.根据权利要求1所述的驾驶相关引导提供方法,其特征在于,
在上述显示的步骤中,利用平视显示器来将上述生成的对象显示在车辆的前挡风玻璃上。
3.根据权利要求1所述的驾驶相关引导提供方法,其特征在于,还包括获得上述车辆的行驶影像的步骤,
在上述显示的步骤中,将上述生成的对象叠加于上述车辆的行驶影像而显示增强现实影像。
4.根据权利要求1所述的驾驶相关引导提供方法,其特征在于,
在上述显示的步骤中,随着上述车辆的行驶,若上述车辆和上述引导地点的距离变短,则上述对象显示在逐渐靠近上述车辆的位置。
5.根据权利要求4所述的驾驶相关引导提供方法,其特征在于,
在上述显示的步骤中,随着上述车辆的行驶,若上述车辆和上述引导地点非常接近,则通过调节上述对象的透明度来透明地显示。
6.根据权利要求4所述的驾驶相关引导提供方法,其特征在于,
在上述显示的步骤中,若上述车辆经过上述引导地点,则上述对象的显示消失。
7.根据权利要求1所述的驾驶相关引导提供方法,其特征在于,
在上述显示的步骤中,若上述车辆进入上述引导地点的预先设定的距离内,则激活上述对象的显示。
8.一种驾驶相关引导提供装置,其包括:
显示部,显示能够以视觉性的方式识别的数据;
位置确定部,确定车辆的位置;
检测部,以上述确定的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息;
对象生成部,利用上述检测的引导地点的信息来生成用于表示上述引导地点的对象;以及
控制部,控制上述显示部,使得根据上述车辆和上述引导地点的距离差移动变更而显示上述生成的对象的显现位置。
9.根据权利要求8所述的驾驶相关引导提供装置,其特征在于,
上述显示部利用平视显示器来将上述生成的对象显示在车辆的前挡风玻璃上。
10.根据权利要求8所述的驾驶相关引导提供装置,其特征在于,还包括获得上述车辆的行驶影像的影像获得部,
上述显示部将上述生成的对象叠加于上述车辆的行驶影像而显示增强现实影像。
11.根据权利要求8所述的驾驶相关引导提供装置,其特征在于,
上述控制部控制上述显示部,使得随着上述车辆的行驶,若上述车辆和上述引导地点的距离变短,则上述对象显示在逐渐靠近上述车辆的位置。
12.根据权利要求11所述的驾驶相关引导提供装置,其特征在于,
上述控制部控制上述显示部,使得随着上述车辆的行驶,若上述车辆和上述引导地点非常接近,则通过调节上述对象的透明度来透明地显示。
13.根据权利要求11所述的驾驶相关引导提供装置,其特征在于,
上述控制部控制上述显示部,使得若上述车辆经过上述引导地点,则上述对象的显示消失。
14.根据权利要求8所述的驾驶相关引导提供装置,其特征在于,
上述控制部控制上述显示部,使得若上述车辆进入上述引导地点的预先设定的距离内,则激活上述对象的显示。
15.一种计算机可读记录介质,其记录有用于执行驾驶相关引导提供方法的程序代码,上述驾驶相关引导提供方法包括:
确定车辆的位置的步骤;
以上述确定的位置为基准,利用地图数据来检测位于前方规定距离范围的引导地点的信息的步骤;
利用上述检测的引导地点的信息来生成表示上述引导地点的对象的步骤;以及
根据上述车辆和上述引导地点的距离差移动变更而显示上述生成的对象的显现位置的步骤。
CN201910496468.7A 2014-12-01 2015-12-01 驾驶相关引导提供方法及装置、计算机可读记录介质 Active CN110263688B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2014-0170050 2014-12-01
KR20140170050 2014-12-01
KR1020150036151A KR102406491B1 (ko) 2014-12-01 2015-03-16 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR10-2015-0036151 2015-03-16
CN201510868227.2A CN105654030B (zh) 2014-12-01 2015-12-01 电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201510868227.2A Division CN105654030B (zh) 2014-12-01 2015-12-01 电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质

Publications (2)

Publication Number Publication Date
CN110263688A true CN110263688A (zh) 2019-09-20
CN110263688B CN110263688B (zh) 2024-05-31

Family

ID=

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101248473A (zh) * 2005-09-29 2008-08-20 松下电器产业株式会社 导航装置、导航方法及车辆
CN101894499A (zh) * 2009-05-18 2010-11-24 爱信精机株式会社 驾驶辅助设备
US20110052042A1 (en) * 2009-08-26 2011-03-03 Ben Tzvi Jacob Projecting location based elements over a heads up display
CN103105171A (zh) * 2011-11-15 2013-05-15 现代自动车株式会社 导航系统及其显示方法
KR101271235B1 (ko) * 2011-12-12 2013-06-10 자동차부품연구원 주행정보 제공장치 및 제공방법
WO2013145072A1 (ja) * 2012-03-26 2013-10-03 三菱電機株式会社 カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置
US20140285523A1 (en) * 2011-10-11 2014-09-25 Daimler Ag Method for Integrating Virtual Object into Vehicle Displays

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101248473A (zh) * 2005-09-29 2008-08-20 松下电器产业株式会社 导航装置、导航方法及车辆
CN101894499A (zh) * 2009-05-18 2010-11-24 爱信精机株式会社 驾驶辅助设备
US20110052042A1 (en) * 2009-08-26 2011-03-03 Ben Tzvi Jacob Projecting location based elements over a heads up display
US20140285523A1 (en) * 2011-10-11 2014-09-25 Daimler Ag Method for Integrating Virtual Object into Vehicle Displays
CN103105171A (zh) * 2011-11-15 2013-05-15 现代自动车株式会社 导航系统及其显示方法
KR101271235B1 (ko) * 2011-12-12 2013-06-10 자동차부품연구원 주행정보 제공장치 및 제공방법
WO2013145072A1 (ja) * 2012-03-26 2013-10-03 三菱電機株式会社 カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUNNAR BLOHM ET AL: "Computations for geometrically accurate visually guided reaching in 3-D space", 《JOURNAL OF VISION》, vol. 7, no. 4, 31 May 2007 (2007-05-31), pages 1 - 22 *
吴鑫: "融合Kinect深度和颜色信息的机器人视觉系统研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 December 2013 (2013-12-15), pages 140 - 364 *

Also Published As

Publication number Publication date
CN105654030B (zh) 2019-07-05
KR20160065724A (ko) 2016-06-09
CN110260877B (zh) 2023-07-21
KR102406491B1 (ko) 2022-06-10
CN105654030A (zh) 2016-06-08
CN110260877A (zh) 2019-09-20

Similar Documents

Publication Publication Date Title
CN105654030B (zh) 电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质
CN105185134B (zh) 电子装置、电子装置的控制方法及计算机可读记录介质
CN105300401B (zh) 电子装置及其控制方法
US10145703B2 (en) Electronic apparatus, control method thereof, computer program, and computer-readable recording medium
US9983018B2 (en) Electronic apparatus and control method thereof
CN110091798A (zh) 电子装置、电子装置的控制方法以及计算机可读存储介质
US20240075949A1 (en) Method, apparatus, electronic device, computer program and computer readable recording medium for measuring inter-vehicle distance using driving image
CN105185137B (zh) 电子装置、电子装置的控制方法及计算机可读记录介质
EP3715162B1 (en) Device and method for displaying content
CN107657825A (zh) 泊车方法及装置
CN105651299B (zh) 电子装置、电子装置的控制方法
CN108335507A (zh) 利用摄像头的拍摄影像的驾驶引导提供方法及装置
US20210173095A1 (en) Method and apparatus for determining location by correcting global navigation satellite system based location and electronic device thereof
CN105651298B (zh) 电子装置、电子装置的控制方法
KR102299501B1 (ko) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
CN110263688B (zh) 驾驶相关引导提供方法及装置、计算机可读记录介质
JP2023058334A (ja) 歩行者装置、移動体装置、測位システム、および測位方法
CN113945220A (zh) 导航方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210823

Address after: Seoul, South Kerean

Applicant after: Hyundai Motor Co.,Ltd.

Applicant after: Kia Co.,Ltd.

Address before: Gyeonggi Do, South Korea

Applicant before: THINKWARE SYSTEMS Corp.

GR01 Patent grant