CN105651299A - 电子装置、电子装置的控制方法 - Google Patents
电子装置、电子装置的控制方法 Download PDFInfo
- Publication number
- CN105651299A CN105651299A CN201510868584.9A CN201510868584A CN105651299A CN 105651299 A CN105651299 A CN 105651299A CN 201510868584 A CN201510868584 A CN 201510868584A CN 105651299 A CN105651299 A CN 105651299A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- bar
- event
- current vehicle
- electronic installation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000009434 installation Methods 0.000 claims description 116
- 230000011218 segmentation Effects 0.000 claims description 54
- 238000005728 strengthening Methods 0.000 claims description 28
- 230000000052 comparative effect Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 abstract description 6
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 27
- 230000002708 enhancing effect Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 9
- 238000013507 mapping Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000035126 Facies Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 235000000332 black box Nutrition 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
- G01C21/3638—Guidance using 3D or perspective road maps including 3D objects and buildings
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3691—Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Atmospheric Sciences (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本发明涉及电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质,上述电子装置的控制方法包括:若发生特定事件,则计算出当前车辆的平均速度的步骤;生成用于表示所计算出的平均速度和与特定事件相对应的事件速度之间的关系的对象的步骤;以及通过增强现实来输出所生成的对象的步骤。
Description
技术领域
本发明涉及电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质,更详细地,涉及在增强现实上向使用人员执行车辆驾驶相关引导的电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质。
背景技术
当车辆行驶时,最重要的是安全行驶及预防交通事故,为此,在车辆安装有执行控制车辆的姿势、控制车辆结构装置的功能等的多种辅助装置及安全带、安全气囊等安全装置。
不仅如此,近期,设置于车辆的黑匣子等的装置存储车辆的行驶影像及从各种传感器传输的数据,从而处于在车辆设置当车辆发生交通事故时用于查明车辆的事故原因的装置的趋势。由于也可以在智能手机、平板电脑等便携式终端设备安装黑匣子或导航仪应用等,因而被用作如上所述的车辆用装置。
但实际上,目前在这种车辆用装置中的行驶影像的利用率非常低。更具体地,即使通过目前安装于车辆的摄像头等的视觉传感器来获得车辆的行驶影像,车辆的电子装置仅停留于单纯地显示、传送这种影像或仅停留于生成是否脱离车道线等简单的周边通知信息。
并且,作为目前受关注的新的车辆电子装置,还提出平视显示器(HUD,Head-UpDisplay)或增强现实界面,但在这些装置中,对车辆的行驶影像的利用率也仅停留在单纯显示或生成简单的通知信息的层面。
发明内容
本发明根据上述必要性来提出,本发明的目的在于,提供生成用于表示当前车辆的平均速度和与特定事件相对应的事件速度之间的关系的对象,并通过增强现实来输出所生成的对象的电子装置、电子装置的控制方法、计算机程序及计算机可读的记录介质。
用于实现上述目的的本发明一实施例的电子装置的控制方法包括:若发生特定事件,则计算出当前车辆的平均速度的步骤;生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤;以及通过增强现实来输出所生成的上述对象的步骤。
而且,上述特定事件可包括进入分段限速区间事件、目的地为止的路径引导开始事件、进入交通信息提供区间事件中的至少一种。
并且,在上述进入分段限速区间事件的情况下,上述生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤可包括:对基于上述进入分段限速区间的时间点来计算出的当前车辆的平均速度与上述分段限速区间的限制平均速度进行比较的步骤;以及根据上述比较结果来生成表示上述当前车辆的平均速度和上述限制平均速度的关系的对象的步骤。
而且,在上述目的地为止的路径引导开始事件的情况下,上述生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤可包括:基于反映上述路径引导开始时间点的实时交通信息来计算出的预到达的时间,计算出路径平均速度的步骤;对上述当前车辆的平均速度和上述路径平均速度进行比较的步骤;以及根据上述比较结果来生成表示上述当前车辆的平均速度和上述路径平均速度之间的关系的对象的步骤。
并且,在上述进入交通信息提供区间事件的情况下,生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的上述步骤可包括:对基于进入上述交通信息提供区间的时间点来计算出的当前车辆的平均速度和上述交通信息提供区间的区间平均速度进行比较的步骤;根据上述比较结果来生成表示上述当前车辆的平均速度和上述区间平均速度之间的关系的对象的步骤。
而且,生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的上述步骤可包括:在上述当前车辆的平均速度小于上述事件速度的情况下,生成第一对象的步骤;以及在上述当前车辆的平均速度大于上述事件速度的情况下,生成第二对象的步骤。
并且,上述通过增强现实来输出所生成的上述对象的步骤可包括:对摄像头执行校准(Calibration)来计算出摄像头参数的步骤;基于上述摄像头参数来生成针对上述摄像头的拍摄影像的虚拟三维空间(3D,3-Dimensional)的步骤;以及使所生成的上述对象位于上述虚拟三维空间的步骤。
而且,在使所生成的上述对象位于上述虚拟三维空间的上述步骤中,能够以使上述第一对象、第二对象位于上述摄像头拍摄影像的消失点的下端来显现的方式进行控制。
并且,与上述第二对象相比,上述第一对象可位于更接近上述消失点的位置。
而且,上述第一对象和第二对象能够以互不相同的颜色相区别。
并且,上述第一对象、第二对象的显现位置可根据上述当前车辆的平均速度和上述事件速度的差异来以流动方式发生变更。
另一方面,用于实现上述目的的本发明一实施例的电子装置包括:显示部,用于显示画面;平均速度计算部,若发生特定事件,若发生特定事件,则上述平均速度计算部计算出当前车辆的平均速度;对象生成部,生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象;以及控制部,控制上述显示部通过增强现实来输出所生成的上述对象。
而且,上述特定事件可包括进入分段限速区间事件、目的地为止的路径引导开始事件及进入交通信息提供区间事件中的至少一种。
并且,在上述进入分段限速区间事件的情况下,上述控制部可对基于上述进入分段限速区间的时间点来计算出的当前车辆的平均速度与上述分段限速区间的限制平均速度进行比较,上述对象生成部根据上述比较结果来生成表示上述当前车辆的平均速度和上述限制平均速度的关系的对象。
而且,在上述目的地为止的路径引导开始事件的情况下,上述控制部可基于反映上述路径引导开始时间点的实时交通信息来计算出的预到达的时间,计算出路径平均速度,并与上述当前车辆的平均速度和上述路径平均速度进行比较,上述对象生成部根据上述比较结果来生成表示上述当前车辆的平均速度和上述路径平均速度之间的关系的对象。
并且,在进入交通信息提供区间事件的情况下,上述控制部可对基于上述进入交通信息提供区间的时间点来计算出的当前车辆的平均速度与上述交通信息提供区间的区间平均速度进行比较,上述对象生成部可根据上述比较结果来生成表示上述当前车辆的平均速度和上述区间平均速度的关系的对象。
而且,在上述当前车辆的平均速度小于上述事件速度的情况下,上述对象生成部可生成第一对象,在上述当前车辆的平均速度大于上述事件速度的情况下,上述对象生成部可生成第二对象。
并且,上述控制部可对摄像头执行校准来计算出摄像头参数,基于上述摄像头参数来生成针对上述摄像头的拍摄影像的虚拟三维空间,并使所生成的上述对象位于上述虚拟三维空间。
而且,上述控制部能够以使上述第一对象、第二对象位于上述摄像头拍摄影像的消失点的下端来显现的方式进行控制。
并且,与上述第二对象相比,上述第一对象可位于更接近上述消失点的位置。
而且,上述第一对象和第二对象能够以互不相同的颜色相区别。
并且,上述第一对象、第二对象的显现位置可根据上述当前车辆的平均速度和上述事件速度的差异来以流动方式发生变更。
另一方面,用于实现上述目的的本发明一实施例的存储于记录介质的计算机程序可执行如下步骤:若与电子装置相结合来发生特定事件,则计算出上述当前车辆的平均速度的步骤;生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤;以及通过增强现实来输出所生成的上述对象的步骤。
另一方面,用于实现上述目的的本发明一实施例的计算机可读记录介质可存储执行以下步骤的计算机程序:若发生特定事件,则计算出上述当前车辆的平均速度的步骤;生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤;以及通过增强现实来输出所生成的上述对象的步骤。
根据本发明的上述多种实施例,在具有分段限速摄像头的区间、提供实时交通信息的区间及目的地为止的路径引导区间等中,通过增强现实技术以动态化方式显现引导信息,从而可以有效地使驾驶人员引起兴趣,并可以谋求驾驶人员对车辆的安全驾驶及方便性。
并且,根据本发明的上述多种实施例,在增强现实(AugmentedReality:AR)上,使对象的显现位置根据车辆的速度来以流动方式发生变更,从而能够以更加直观的方法引导驾驶人员。
附图说明
图1为表示本发明一实施例的电子装置的框图。
图2为具体表示本发明一实施例的增强现实提供部的框图。
图3为表示本发明一实施例的消失点确定方法的图。
图4为用于说明与本发明一实施例的电子装置相连接的系统的网络的图。
图5为简要表示本发明一实施例的电子装置的控制方法的流程图。
图6为表示本发明一实施例的在发生进入分段限速区间事件时的电子装置的控制方法的流程图。
图7为表示本发明一实施例的在发生目的地为止的路径引导开始事件时的电子装置的控制方法的流程图。
图8为表示本发明一实施例的在发生进入交通信息提供区间事件时的电子装置的控制方法的流程图。
图9A-9C为表示本发明一实施例的增强现实画面的图。
图10A-10C为表示本发明另一实施例的增强现实画面的图。
图11为表示本发明另一实施例的增强现实画面的图。
图12为表示本发明一实施例的在摄像头和电子装置为分离型的情况下的体现形态的图。
图13为表示本发明一实施例的在摄像头和电子装置为一体型的情况下的体现形态的图。
图14为表示利用本发明一实施例的平视显示器及电子装置的体现形态的图。
具体实施方式
以下的内容仅仅例示本发明的原理。因此,本发明所属技术领域的技术人员可发明出虽然未在本说明书明确说明或图示,但可体现本发明的原理并包含于本发明的概念和范围的多种装置。并且,在本发明中列举的所有条件的术语及实施例在原则上明确用于理解本发明的概念,并且,应理解为并不限定以如上所述的方式特别列举的实施例及状态。
并且,用于列举本发明的原理、观点及实施例,并列举特定实施例的所有详细说明应被理解为包含这种事项的结构性及功能性的等同技术方案。并且,这种等同技术方案应被理解为包括当前公开的等同技术方案,还包括今后将被研发的等同技术方案,即,以与结构无关地执行相同功能的方式发明的所有元件。
因此,例如,本说明书的框图应被理解为表示将本发明的原理具体化的例示性的回路的概念的观点。与此类似,所有流程图、状态转换图、伪代码等应被理解为无论是否实质性地显示于计算机可读介质,无论是否明确示出计算机或处理器,均表示借助计算机或处理执行的多种程序。
处理器或包括以与处理器相似的概念显示的功能块的附图中所示的多种元件的功能不仅可提供为专用硬件,而且可提供为与适当的软件相关地使用具有可运行软件的功能的硬件。当通过处理器提供上述功能时,可借助单一专用处理器、单一共享处理器或多个个别处理器来提供上述功能,这些中的一部分可被共享。
并且,以处理、控制或与此相似的概念来提出的术语的明确使用不应以排除具有可运行软件的能力的硬件的方式来解释,应以不受限制的方式理解为暗示性地包括数字信号处理器(DSP)硬件、用于存储软件的只读存储器(ROM)、随机存取存储器(RAM)及非易失性存储器。还可包括周知的其他惯用的硬件。
在本说明书的发明要求保护范围中,表现为用于执行在详细的说明中所记载的功能的机构的结构要素包括如执行上述功能的回路元件的组合或包括执行含有固件/微码等的所有形式的软件的功能的所有方法,并与用于运行上述软件的适当的回路相结合,来执行上述功能。借助这种发明要求保护范围来定义的本发明,借助以多种方式列举的方法来提供的功能相结合,并与发明要求保护范围所要求的方式相结合,因而可提供上述功能的任何方法也应理解为等同于从本说明书掌握的方法相同。
通过与附图相关的以下详细的说明,可更加明确上述的目的、特征及优点,由此,本发明所属技术领域的普通技术人员可容易地实施本发明的技术思想。并且,在对本发明进行说明的过程中,若判断对公知技术的具体说明有可能使本发明的主旨变得模糊,则将省略其详细说明。
以下,参照附图,对本发明的多种实施例进行详细说明。
图1为表示本发明一实施例的电子装置的框图。参照图1,电子装置100包括存储部110、输入部120、输出部130、平均速度计算部140、增强现实提供部160、控制部170、通信部180、检测部190、电源部195中的全部或一部分。
在这里,电子装置100可以体现为可向处于驾驶状态的车辆驾驶人员提供驾驶相关引导的智能手机、平板电脑、笔记本电脑、个人数字助理(PDA,personaldigitalassistant)、便携式多媒体播放器(PMP,portablemultimediaplayer)、智能眼镜、拓展现实眼镜、导航仪(navigation)、黑匣子(Black-box)等多种装置,上述电子装置100可设于车辆。
在这里,车辆的驾驶状态可包括车辆的停车状态、车辆的行驶状态、车辆的泊车状态等由驾驶人员驾驶的车辆的多种状态。
车辆驾驶相关引导可包括如导航、车道线脱离引导、前方车辆出发引导、信号灯变更引导、防止与前方车辆碰撞引导、车行道变更引导、车行道引导、车辆的油耗、瞬间加速度、交通信息、当前当前车辆的行驶速度、距前方特定地点为止的距离、到达前方特定地点为止的耗时等用于辅助驾驶人员驾驶车辆的多种引导。
在这里,导航可包括:增强现实导航,在拍摄正在行驶中的车辆的前方的影像中结合使用人员的位置、方向等各种信息来执行导航;以及二维(2D,2-Dimensional)或三维(3D,3-Dimensional)导航,在二维或三维地图数据中结合使用人员的位置、方向等各种信息来执行导航。其中,导航可解释成不仅包括在使用人员乘坐车辆进行驾驶的情况下的导航,还包括使用人员以行走或奔跑的方式移动的情况下的导航的概念。
并且,车道线脱离引导可以为对行驶中的车辆是否脱离车道线进行引导。
并且,前方车辆出发引导可以为对位于停车中的车辆的前方的车辆是否出发所进行的引导。
并且,信号灯变更引导可以为对位于停车中的车辆的前方的信号灯是否变更所进行的引导。作为一例,若从表示停止信号的红灯亮起的状态变更为表示出发信号的绿灯,则可对此进行引导。
并且,防止与前方车辆碰撞的引导可以为若停车或行驶中的车辆与位于前方的车辆之间的距离在规定距离以内,则为了防止与前方车辆碰撞而进行的引导。
并且,车行道变更引导可以为为了引导目的地为止的路径而引导车辆从车辆所处的车行道变更到其他车行道。
并且,车行道引导可以为对车辆当前所处的车行道所进行的引导。
这种可提供多种引导的驾驶相关影像可通过朝向车辆的前方放置的摄像头来实时拍摄。在这里,摄像头可以为以与放置于车辆的电子装置100形成为一体,并拍摄车辆的前方的摄像头。在这种情况下,摄像头可以与智能手机、导航仪或黑匣子形成为一体,电子装置100可接收形成为一体的摄像头所拍摄的影像。
作为另一例,摄像头可以为与电子装置100分别放置于车辆,并拍摄车辆的前方的摄像头。在这种情况下,摄像头可以为朝向车辆的前方放置的单独的黑匣子,电子装置100通过有线/无线通信来接收单独放置的黑匣子所拍摄的影像,或若用于存储黑匣子所拍摄的影像的存储介质插入于电子装置100,则电子装置100可接收黑匣子所拍摄的影像。
以下,基于上述内容,对本发明一实施例的电子装置100进行更加具体的说明。
存储部110执行存储电子装置100的工作所需的多种数据及应用的功能。尤其,存储部110可存储电子装置100的工作所需的数据,如操作系统(OS)、路径探索应用、地图数据等。并且,存储部110可存储借助电子装置100的工作来生成的数据,如所探索到的路径数据、所接收的影像等。
其中,存储部110不仅可以体现为随机存取存储器(RAM,RandomAccessMemory)、闪存、只读存储器(ROM,ReadOnlyMemory)、可擦除可编程式只读存储器(EPROM,ErasableProgrammableROM)、电可擦除可编程式只读存储器(EEPROM,ElectronicallyErasableandProgrammableROM)、寄存器、硬盘、可移动磁盘、内存卡、通用用户识别模块(USIM,UniversalSubscriberIdentityModule)等内置型存储元件,还可以体现为通用串行总线存储器等可拆装形态的存储元件。
输入部120执行将从电子装置100的外部输入的物理输入转换为特定的电信号的功能。其中,输入部120可包括使用人员输入部121和传声器部123中的全部或一部分。
使用人员输入部121可接收触摸、推动动作等使用人员的输入。在这里,使用人员输入部121可利用多种按钮的形态、接收触摸式输入的触摸传感器、接收接近动作的接近传感器中的至少一个来体现。
传声器部123可接收使用人员的声音及从车辆的内外部产生的声音。
输出部130为用于输出电子装置100的数据的装置。其中,输出部130可包括显示部131和音频输出部133中的全部或一部分。
显示部131为电子装置100输出可以以视觉性的方式识别的数据的装置。显示部131可以体现为设于电子装置100的外壳的前面的显示部。并且,显示部131可以与电子装置100形成为一体,并输出视觉性的识别数据,还可如平视显示器,与电子装置100单独设置来输出视觉性的识别数据。
音频输出部133为电子装置100输出可以以听觉性的方式识别的数据的装置。音频输出部133可通过表现声音的扬声器来体现电子装置100的应告知使用人员的数据。
通信部180可以为了使电子装置100与其他设备进行通信而设。通信部180可包括位置数据部181、无线互联网部183、广播收发部185、移动通信部186、近距离通信部187、有线通信部189中的全部或一部分。
位置数据部181为通过全球导航卫星系统(GNSS,GlobalNavigationSatelliteSystem)来获得位置数据的装置。全球导航卫星系统意味着可利用从人工卫星接收的电波信号来计算出接收终端的位置的导航系统。作为全球导航卫星系统的具体例,可根据运营主体分为全球卫星定位系统(GPS,GlobalPositioningSystem)、伽利略定位系统(Galileo)、格洛纳斯卫星导航系统(GLONASS,GlobalOrbitingNavigationalSatelliteSystem)、北斗卫星导航系统(COMPASS)、印度区域导航卫星系统(IRNSS,IndianRegionalNavigationalSatelliteSystem)、准天顶卫星系统(QZSS,Quasi-ZenithSatelliteSystem)等。本发明一实施例的电子装置100的位置数据部181可通过接收向使用电子装置100的地区提供服务的全球导航卫星系统的信号来获得位置信息。
无线互联网部183为通过与无线互联网相连接来获得数据或发送信息的装置。可通过无线互联网部183来连接的无线互联网可以为无线局域网(WLAN,WirelessLAN)、无线宽带(Wibro,Wirelessbroadband)、全球微波互联接入(Wimax,Worldinteroperabilityformicrowaveaccess)、高速下行分组接入(HSDPA,HighSpeedDownlinkPacketAccess)等。
广播收发部185为通过各种广播系统来收发广播信号的装置。可通过广播收发部185收发的广播系统可以为地面数字多媒体广播(DMBT,DigitalMultimediaBroadcastingTerrestrial)、数字多媒体卫星广播(DMBS,DigitalMultimediaBroadcastingSatellite)、高通提出的移动电视标准(MediaFLO,MediaForwardLinkOnly)、手持数字视频广播(DVBH,DigitalVideoBroadcastHandheld)、日本数字音频广播方案(ISDBT,IntegratedServicesDigitalBroadcastTereestrial)等。通过广播收发部185收发的广播信号可包括交通数据、生活数据等。
移动通信部186可根据第三代移动通信技术(3G,3rdGeneration)、第三代合作伙伴计划(3GPP,3rdGenerationPartnershipProject)、长期演进计划(LTE,LongTermEvolution)等多种移动通信规格与移动通信网相连接并进行通信。
近距离通信部187为用于进行近距离通信的装置。如上所述,近距离通信部187可通过蓝牙(Bluetooth)、射频识别(RFID,RadioFrequencyIdentification)、红外数据组织(IrDA、InfraredDataAssociation)、超宽带(UWB,UltraWideBand)、紫蜂协议(ZigBee)、近场通信(NFC,NearFieldCommunication)、无线保真(Wi-Fi)等来进行通信。
有线通信部189为可以以有线方式使电子装置100与其他设备相连接的接口装置。有线通信部189可以为可通过通用串行总线端口(USBPort)来进行通信的通用串行总线模块。
这种通信部180可利用位置数据部181、无线互联网部183、广播收发部185、移动通信部186、近距离通信部187、有线通信部189中的至少一个来与其他设备通信。
作为一例,在电子装置100不包括摄像功能的情况下,可利用近距离通信部187、有线通信部189中的至少一个来接收黑匣子等车辆用摄像头拍摄的影像。
作为另一例,在与多个设备通信的情况下,也可由一个设备通过近距离通信部187来通信,另一个设备通过有线通信部189通信。
检测部190为可检测电子装置100的当前状态的装置。检测部190可包括动作检测部191、光检测部193中的全部或一部分。
动作检测部191可检测电子装置100的三维空间上的运动。动作检测部191可包括三轴地磁传感器及三轴加速度传感器。可将通过动作检测部191获得的运动数据和通过位置数据部191获得的位置数据相结合,来计算出附着有电子装置100的车辆的更加准确的轨迹。
光检测部193为测定电子装置100的周边照度(illuminance)的装置。利用通过光检测部193获得的照度数据,可使显示部195的亮度与周边亮度相对应地发生变化。
电源部195为用于供给电子装置100的工作或与电子装置100相连接的其他设备的工作所需的电源的装置。电源部195可以为从内置于电子装置100的电池或车辆等外部电源处接收电源的装置。并且,根据接收电源的形态,电源部195可体现为有线通信模块119或体现为以无线的方式接收电源的装置。
平均速度计算部140,可计算出具有电子装置100的车辆的平均速度。具体地,平均速度计算部140可基于由检测部190检测到的信号、由位置数据部181获得的运动数据,来计算出车辆的平均速度。或者,平均速度计算部140可利用车辆的控制器区域网络(CAN,ControllerAreaNetwork)来实时接收车辆的速度信息,并可基于此来计算出车辆的平均速度。
另一方面,本发明一实施例的电子装置100可包括用于提供增强现实视图模式的增强现实提供部160,对此,将参照图2进行具体说明。
图2为具体表示本发明一实施例的增强现实提供部160的框图。参照图2,增强显示提供部160可包括校准部161、三维空间生成部162、对象生成部163、映射部164中的全部或一部分。
校准部161可执行校准,来从由摄像头拍摄的拍摄影像中推定与摄像头相对应的摄像头参数。其中,摄像头参数可以为构成摄像头矩阵的参数,上述摄像头矩阵为用于表示真实空间映射在照片的关系的信息。
三维空间生成部162可基于由摄像头拍摄的拍摄影像生成虚拟三维空间。具体地,三维空间生成部162可通过校准部161所推定的摄像头参数来从摄像头所拍摄到的影像中获得深度信息(Depthsinformation),并可基于所获得的深度信息和所拍摄到的影像来生成虚拟三维空间。
对象生成部163可在增强现实上生成用于引导的对象,例如,导航对象、车行道变更引导对象、车道线脱离引导对象等。尤其,对象生成部163可生成用于表示由平均速度计算部140计算出的当前车辆的平均速度和与特定事件相对应的事件速度之间的关系(例如,速度差异等)的对象。其中,对象可体现为三维对象、图像或艺术线条等。
映射部164可在由三维空间生成部162所生成的虚拟三维空间映射在对象生成部163所生成的对象。
另一方面,控制部170控制电子装置100的整个工作。具体地,控制部170可控制存储部110、输入部120、输出部130、平均速度计算部140、增强现实提供部160、通信部180、传感部190中的全部或一部分。
尤其,控制部170可判断是否发生特定事件。在这里,特定事件可包括进入分段限速区间事件、目的地为止的路径引导开始事件及进入交通信息提供区间事件中的至少一种。
分段限速作为限制车辆超速的限速方式之一,以作为分段限速的起点的A地点的经过时间和经过速度及至B地点的移动距离为基准,来计算出车辆的平均速度,从而判断是否在区间存在超速的限速方式。在这里,进入分段限速区间事件可以为进入上述分段限速的起点的事件。
并且,路径引导开始事件可以为在接收到车辆从当前位置至目的地为止的路径引导邀请的情况下,电子装置100开始路径引导的事件。
并且,交通信息提供区间可以为通过传送协议专家组(TPEG,TransportProtocolExpertGroup)来提供包含道路交通信息(RTM:RoadTrafficMessage)和拥堵和旅游时间信息(CTT:CongestionandTravelTimeInformation)等基于文本的追加交通信息服务的道路区间。在这里,进入交通信息提供区间事件可以为在多个道路区间中进入提供上述交通信息的道路区间的事件。
另一方面,若判断发生上述事件,则控制部170可控制对象生成部163来生成由平均速度计算部140计算出的平均速度和与特定事件相对应的事件速度之间的关系的对象。在这里,平均速度和事件速度之间的关系可包含例如平均速度和事件速度之间的速度差异。
作为一例,在特定事件为进入分段限速区间事件的情况下,控制部170可控制对象生成部163来对基于进入分段限速区间的时间点来计算出的当前车辆的平均速度和分段限速区间的限制平均速度进行比较,并根据上述比较结果来生成用于表示当前车辆的平均速度和限制平均速度的关系的对象。
作为再一例,在特定事件为目的地为止的路径引导开始事件的情况下,控制部170可控制对象生成部163来基于反应路径引导开始时间点的实时交通信息(例如,传送协议专家组等道路交通信息)来计算出的预到达的时间,计算出路径平均速度,对当前车辆的平均速度和路径平均速度进行比较,并根据比较结果来生成表示当前车辆的平均速度和路径平均速度之间的关系的对象。
作为另一例,在特定事件为进入交通信息提供区间事件的情况下,控制部170可控制对象生成部163来对基于进入交通信息提供区间的时间点来计算出的当前车辆的平均速度和交通信息提供区间的区间平均速度进行比较,并根据比较结果来生成表示当前车辆的平均速度和上述区间平均速度之间的关系的对象。
另一方面在当前车辆的平均速度小于事件速度的情况下,控制部170可控制对象生成部163生成第一对象,在当前车辆的平均速度大于事件速度的情况下,控制部170可控制对象生成部163生成第二对象。
而且,控制部170可控制映射部164,使得第一对象、第二对象位于摄像头拍摄影像的消失点的下端来显现。在这里,可利用拍摄影像来检测消失点。对此,将参照图3进行具体说明。
参照图3,控制部170可从拍摄影像中抽取车道线信息310和车道线信息320,并可以抽取对所抽取的车道线信息310和车道线信息320进行延伸来相互交叉的点。在此情况下,控制部170可检测由车道线信息310和车道线信息320延伸并相互交叉的点作为消失点(Vanishingpoint)330。
另一方面,控制部170可控制映射部164使第一对象、第二对象位于消失点330的下端来显现。参照图3,控制部170可以确定消失点330的下端区域340,并可控制映射部164使第一对象、第二对象映射于下端区域。在这里,下端区域340可优选为道路区域。
根据这种本发明的一实施例,用于表示速度关系的对象能够以位于增强现实画面的道路上的方式显现,由此能够以更加直观的方法向驾驶人员提供路径引导。
另一方面,与上述第二对象相比,上述第一对象可位于更接近消失点的位置。例如,在当前车辆的平均速度小于分段限速区间的限制平均速度的情况下,控制部170可控制映射部164使所生成的第一对象位于消失点附近的下端区域。并且,在当前车辆的平均速度大于分段限速区间的限制平均速度的情况下,控制部170可控制映射部164使所生成的第二对象位于第一对象的下端区域。即,在增强现实的画面中,第一对象可远离当前车辆来显现,第二对象可接近当前车辆来显现。作为一例,在增强现实的画面中,第二对象可显现于与当前车辆的位置相对应的增强现实画面的最下端。由此,驾驶人员可通过增强现实画面来确认第一对象、第二对象,从而可以容易地识别当前车辆的平均速度和分段限速区间的限制平均速度之间的差异。
并且,第一对象和第二对象能够以互不相同的颜色相区别。例如,在当前车辆的平均速度小于分段限速区间的限制平均速度的情况下,控制部170可控制对象生成部163来生成绿色的第一对象,在当前车辆的平均速度大于分段限速区间的限制平均速度的情况下,控制部170可控制对象生成部163来生成红色的第二对象。
并且,第一对象、第二对象的显现位置可根据当前车辆的平均速度和上述事件速度的差异来以流动方式发生变更。例如,在当前车辆的平均速度小于分段限速区间的限制平均速度的状态下,若两者的差异发生变更,则控制部170可控制映射部164来使第一对象的位置根据两者的差异以流动方式发生变更。即,在当前车辆的平均速度小于分段限速区间的限制平均速度的情况下,若两者的差异逐渐变大,则可使第一对象在增强现实的画面中显现于逐渐远离当前车辆的位置,而在当前车辆的平均速度小于分段限速区间的限制平均速度的情况下,若两者的差异逐渐变小,则第一对象可在增强现实的画面中显现于逐渐接近当前车辆的位置。
图4为用于说明与本发明一实施例的电子装置相连接的系统的网络的图。参照图4,本发明的一实施例的电子装置100可体现为导航仪、黑匣子、智能手机或其他车辆用增强现实界面提供装置等设置于车辆的各种装置,并且可与多种通信网及其他电子设备61、62、63、64相连接。
并且,电子装置100可根据从人工卫星20接收的电波信号来与全球定位系统相联动,从而计算出当前的位置及当前的时间。
各个人工卫星20可发送频率波段不同的L波段频率。电子装置100可基于从各人工卫星20发送的L波段频率到达电子装置100所需的时间来计算出当前的位置。
另一方面,电子装置100可通过通信部180,并借助控制站(ACR)40、基站(RAS)50等来以无线方式与网络30相连接。若电子装置100与网络30相连接,则还可与以间接的方式与网络30相连接的其他电子设备61、62相连接,并交换数据。
另一方面,电子装置100还可以通过具有通信功能的其他设备63来以间接的方式与网络30相连接。例如,在电子装置未具有可以与网络30相连接的模块的情况下,可通过近距离通信等来与具有通信功能的其他设备63进行通信。
图5为简要表示本发明一实施例的电子装置的控制方法的流程图。参照图5,首先,判断电子装置100可以判断是否发生特定事件(步骤S101)。根据本发明的实施例,在发生进入分段限速区间事件、目的地为止的路径引导开始事件及进入交通信息提供区间事件中的至少一种时间的情况下,电子装置100可以判断特定事件的发生。
而且,若发生特定事件,则电子装置100可计算出当前车辆的平均速度(步骤S102)。
而且,电子装置100可生成用于表示所计算出的平均速度和与特定事件相对应的事件速度之间的关系的对象(步骤S103)。
而且,电子装置100可通过增强现实来输出所生成的对象(步骤S104)。
以下,参照图6至图8,对所发生的事件的电子装置的控制方法进行更具体的说明。
图6为表示本发明一实施例的在发生进入分段限速区间事件时的电子装置的控制方法的流程图。参照图6,电子装置100可判断是否发生进入分段限速区间事件(步骤S201)。
若判断发生事件,则电子装置100可对基于进入分段限速区间的时间点来计算出的当前车辆的平均速度和分段限速区间的限制平均速度进行比较(步骤S202)。
而且,在当前车辆的平均速度小于分段限速区间的平均平均速度的情况下,电子装置100可生成第一对象(步骤S203)。
或者,在当前车辆的平均速度大于分段限速区间的限制平均速度的情况下,电子装置100可生成第二对象(步骤S204)。
而且,电子装置100可通过增强现实来输出所生成的对象(步骤S205)。
在这里,为了使驾驶人员识别到当前车辆的平均速度小于分段限速区间的限制平均速度,可使第一对象在增强现实画面中远离当前车辆来显现。并且,为了使驾驶人员识别到当前车辆的平均速度大于分段限速区间的限制平均速度,可使第二对象在增强现实画面中显现于与当前车辆的位置相对应的增强现实画面的下端。
图7为表示本发明一实施例的在发生目的地为止的路径引导开始事件时的电子装置的控制方法的流程图。参照图7,电子装置100可判断是否发生进入路径引导开始事件(步骤S301)。
若判断发生事件,则电子装置100可基于反应路径引导开始时间点的实时交通信息来计算出的预到达时间,计算出路径平均速度(步骤S302)。在这里,实时交通信息可包含通过传送协议专家组来接收的道路交通信息和拥堵和旅游时间信息等。
而且,电子装置100可对当前车辆的平均速度和路径平均速度进行比较(步骤S303)。
而且,在当前车辆的平均速度小于上述路径平均速度的情况下,电子装置100可生成第一对象(步骤S304)。
或者,在当前车辆的平均速度大于上述路径平均速度的情况下,电子装置100可生成第二对象(步骤S305)。
而且,电子装置100可通过增强现实来输出所生成的对象(步骤S306)。在这里,为了使驾驶人员识别到当前车辆的平均速度小于路径平均速度,第一对象可在增强现实画面中远离当前车辆来显现。并且,为了使驾驶人员识别到当前车辆的平均速度大于路径平均速度,第二对象可在增强现实画面中显现于与当前车辆位置相对应的的增强现实画面的下端。
图8为表示本发明一实施例的在发生进入交通信息提供区间事件时的电子装置的控制方法的流程图。参照图8,电子装置100可判断是否发生进入交通信息提供区间事件(步骤S401)。
若判断发生事件,电子装置100可对基于进入交通信息提供区间的时间点来计算出的当前车辆的平均速度和交通信息提供区间的区间平均速度进行比较(步骤S402)。在这里,可基于通过传递协议专家组接收到的道路交通信息来计算出交通信息提供区间的区间平均速度。
而且,在当前车辆的平均速度小于交通信息提供区间的区间平均速度的情况下,电子装置100可生成第一对象(步骤S403)。
而且,在当前车辆的平均速度大于交通信息提供区间的区间平均速度的情况下,电子装置100可生成第二对象(步骤S404)。
而且,电子装置100可通过增强现实来输出所生成的对象(步骤S405)。在这里,为了使驾驶人员识别到当前车辆的平均速度小于路径区间的平均速度,可使第一对象在增强现实画面中远离当前车辆来显现。并且,为了使驾驶人员识别到当前车辆的平均速度大于区间平均速度,可使第二对象在增强现实画面中显现于与当前车辆位置相对应的的增强现实画面的最下端。
以下,参照图8至图9,对在发生进入分段限速区间事件的情况下的电子装置的增强现实画面显现方法进行具体说明。
图9为表示本发明一实施例的增强现实画面的图。参照图9的(a)部分,在当前车辆的平均速度②为91km而大于作为分段限速区间的限制平均速度①的90km的情况下,第二对象③可在增强现实画面中显现于与当前车辆的位置相对应的的增强现实画面的最下端。而且,第二对象③所包括的箭头可使方向朝向与当前车辆的行驶方向的相反的方向显现。而且,第二对象③的颜色可以体现为用于使驾驶人员识别到处于违规状态的颜色,例如,红色红色。由此,驾驶人员可以容易地识别到当前正处于分段限速违规状态,从而可以降低车辆的速度。
参照图9的(b)部分和9的(c)部分,在作为当前车辆的平均速度②的84km小于作为分段限速区间的限制平均速度①的90km的情况下,第一对象③可在增强现实画面中远离当前车辆来显现。而且,第一对象③的颜色可以体现为用于使驾驶人员识别到处于违规状态的颜色,,例如,绿色。
另一方面,第一对象③的显现位置可根据当前车辆的平均速度②与分段限速区间的限制平均速度①的差异来以流动方式发生变更。例如,若图9的(b)部分所示,在两者的速度差异为6km/h的状态下,如图9的(c)部分所示,两者的速度差异增加为27km/h,则第一对象③可在增强现实画面中远离当前车辆来显现。由此,驾驶人员可以容易地识别到当前平均速度小于分段限速区间的限制平均速度,从而可以增加车辆的速度。
图10为表示本发明另一实施例的增强现实画面的图。参照图10,第一对象和第二对象可以体现为警察的形象。作为一例,如图10的(a)部分所示,在当前车辆的平均速度大于分段限速区间的限制平均速度的情况下,第二对象901可在增强现实画面中接近当前车辆来显现。但在当前车辆的平均速度小于分段限速区间的限制平均速度的情况下,如图10的(b)部分、图10的(c)部分所示,第一对象902、903在增强现实画面中远离当前车辆来显现。
图11为表示本发明另一实施例的增强现实的画面的图。参照图11,在当前车辆的平均速度1001小于分段限速区间的限制平均速度1003的情况下,第一对象1004在增强现实的画面中远离当前车辆来显现,且为了识别到当前并非处于分段限速违规而体现为绿色。
只是,在图11的情况下,由于当前车辆的实时速度1002大于分段限速区间的限制平均速度1003,因而为了使驾驶人员识别到当前的实时速度正在超过限制平均速度而以红色显现路径引导线1005。
图12为表示本发明一实施例的导航装置未具备拍摄部的情况下的体现形态的图。参照图12,分别设置的车辆用导航装置100和车辆用黑匣子200可利用有线/无线通信方式来构成本发明一实施例的系统。
车辆用导航仪100可包括:显示部131,设于导航仪的外壳191的前部面;导航仪操作键121;以及导航仪传声器123。
车辆用黑匣子200可包括黑匣子摄像头222、黑匣子传声器224及附着部281。
图13为表示本发明一实施例的导航仪装置具备拍摄部的情况下的体现形态的图。参照图13,在导航仪装置100包括拍摄部150的情况下,使用人员可如下设置导航仪装置100,即,使导航仪装置100的拍摄部150拍摄车辆的前方,并使导航仪装置100的显示部分可识别使用人员。以此,可体现本发明一实施例的系统。
图14为表示利用本发明一实施例的平视显示器及电子装置的体现形态的图。参照图14,平视显示器可通过与其他设备之间的有线/无线通信来在平视显示器上显示增强现实引导画面。
作为一例,增强现实可通过利用车辆前挡风玻璃的平视显示器或利用其他影像输出装置的影像叠加等来提供,像这样,增强现实提供部160可生成现实影像或叠加于玻璃的界面图像等。以此,可体现增强现实导航仪或车辆信息娱乐系统等。
另一方面,可以以程序体现上述本发明多种实施例的电子装置的控制方法,从而向服务器或设备提供。以此,各装置可与存储有程序的服务器或设备相连接来下载上述程序。
并且,可以以程序体现上述本发明的多种实施例的电子装置的控制方法,从而存储于多种非临时性的可读介质(non-transitorycomputerreadablemedium)来提供。非临时性的可读介质并不意味着寄存器、高速缓冲存储器、存储器等短时间存储数据的介质,而是意味着半永久性存储数据,并可借助设备来读取(reading)的介质。具体地,上述的多种应用或程序可存储于光盘(CD)、数字多功能光盘(DVD)、硬盘、蓝光光盘、通用串行总线、记忆卡、只读存储器等非临时性的可读介质来提供。
并且,以上对本发明的优选实施例进行了图示和说明,但本发明并不局限于上述的特定实施例,在不脱离发明要求保护范围中申请的本发明的主旨的情况下,可由本发明所属技术领域的普通技术人员对本发明实施多种变形,并且,这些变形实施方式不应脱离本发明的技术思想或本发明的前景来单独理解。
Claims (22)
1.一种电子装置的控制方法,其特征在于,包括:
若发生特定事件,则计算出当前车辆的平均速度的步骤;
生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤;以及
通过增强现实来输出所生成的上述对象的步骤。
2.根据权利要求1所述的电子装置的控制方法,其特征在于,上述特定事件至少包括进入分段限速区间事件、目的地为止的路径引导开始事件及进入交通信息提供区间事件中的至少一种。
3.根据权利要求2所述的电子装置的控制方法,其特征在于,在上述进入分段限速区间事件的情况下,上述生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤包括:
对基于上述进入分段限速区间的时间点来计算出的当前车辆的平均速度与上述分段限速区间的限制平均速度进行比较的步骤;以及
根据上述比较结果来生成表示上述当前车辆的平均速度和上述限制平均速度的关系的对象的步骤。
4.根据权利要求2所述的电子装置的控制方法,其特征在于,在上述目的地为止的路径引导开始事件的情况下,上述生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤包括:
基于反映上述路径引导开始时间点的实时交通信息来计算出的预到达的时间,计算出路径平均速度的步骤;
对上述当前车辆的平均速度和上述路径平均速度进行比较的步骤;以及
根据上述比较结果来生成表示上述当前车辆的平均速度和上述路径平均速度之间的关系的对象的步骤。
5.根据权利要求2所述的电子装置的控制方法,其特征在于,在上述进入交通信息提供区间事件的情况下,上述生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的步骤包括:
对基于进入上述交通信息提供区间的时间点来计算出的当前车辆的平均速度和上述交通信息提供区间的区间平均速度进行比较的步骤;
根据上述比较结果来生成表示上述当前车辆的平均速度和上述区间平均速度之间的关系的对象的步骤。
6.根据权利要求1所述的电子装置的控制方法,其特征在于,生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象的上述步骤包括:
在上述当前车辆的平均速度小于上述事件速度的情况下,生成第一对象的步骤;以及
在上述当前车辆的平均速度大于上述事件速度的情况下,生成第二对象的步骤。
7.根据权利要求6所述的电子装置的控制方法,其特征在于,上述通过增强现实来输出所生成的上述对象的步骤包括:
对摄像头执行校准来计算出摄像头参数的步骤;
基于上述摄像头参数来生成针对上述摄像头的拍摄影像的虚拟三维空间的步骤;以及
使所生成的上述对象位于上述虚拟三维空间的步骤。
8.根据权利要求7所述的电子装置的控制方法,其特征在于,在使所生成的上述对象位于上述虚拟三维空间的上述步骤中,以使第一对象、第二对象位于上述摄像头拍摄影像的消失点的下端来显现的方式进行控制。
9.根据权利要求8所述的电子装置的控制方法,其特征在于,与上述第二对象相比,上述第一对象位于更接近上述消失点的位置。
10.根据权利要求8所述的电子装置的控制方法,其特征在于,上述第一对象和第二对象以互不相同的颜色相区别。
11.根据权利要求8所述的电子装置的控制方法,其特征在于,上述第一对象、第二对象的显现位置根据上述当前车辆的平均速度和上述事件速度的差异来以流动方式发生变更。
12.一种电子装置,其特征在于,包括:
显示部,用于显示画面;
平均速度计算部,若发生特定事件,则上述平均速度计算部计算出当前车辆的平均速度;
对象生成部,生成用于表示所计算出的上述平均速度和与上述特定事件相对应的事件速度之间的关系的对象;以及
控制部,控制上述显示部通过增强现实来输出所生成的上述对象。
13.根据权利要求12所述的电子装置,其特征在于,上述特定事件包括进入分段限速区间事件、目的地为止的路径引导开始事件及进入交通信息提供区间事件中的至少一种。
14.根据权利要求13所述的电子装置,其特征在于,在上述进入分段限速区间事件的情况下,上述控制部对基于上述进入分段限速区间的时间点来计算出的当前车辆的平均速度与上述分段限速区间的限制平均速度进行比较,上述对象生成部根据上述比较结果来生成表示上述当前车辆的平均速度和上述限制平均速度的关系的对象。
15.根据权利要求13所述的电子装置,其特征在于,在上述目的地为止的路径引导开始事件的情况下,上述控制部基于反映上述路径引导开始时间点的实时交通信息来计算出的预到达的时间,计算出路径平均速度,并与上述当前车辆的平均速度和上述路径平均速度进行比较,上述对象生成部根据上述比较结果来生成表示上述当前车辆的平均速度和上述路径平均速度之间的关系的对象。
16.根据权利要求13所述的电子装置,其特征在于,在进入交通信息提供区间事件的情况下,上述控制部对基于上述进入交通信息提供区间的时间点来计算出的当前车辆的平均速度与上述交通信息提供区间的区间平均速度进行比较,上述对象生成部根据上述比较结果来生成表示上述当前车辆的平均速度和上述区间平均速度的关系的对象。
17.根据权利要求12所述的电子装置,其特征在于,在上述当前车辆的平均速度小于上述事件速度的情况下,上述对象生成部生成第一对象,在上述当前车辆的平均速度大于上述事件速度的情况下,上述对象生成部生成第二对象。
18.根据权利要求17所述的电子装置,其特征在于,上述控制部对摄像头执行校准来计算出摄像头参数,基于上述摄像头参数来生成针对上述摄像头的拍摄影像的虚拟三维空间,并使所生成的上述对象位于上述虚拟三维空间。
19.根据权利要求18所述的电子装置,其特征在于,上述控制部以使上述第一对象、第二对象位于上述摄像头拍摄影像的消失点的下端来显现的方式进行控制。
20.根据权利要求19所述的电子装置,其特征在于,与上述第二对象相比,上述第一对象位于更接近上述消失点的位置。
21.根据权利要求19所述的电子装置,其特征在于,上述第一对象和第二对象以互不相同的颜色相区别。
22.根据权利要求19所述的电子装置,其特征在于,上述第一对象、第二对象的显现位置根据上述当前车辆的平均速度和上述事件速度的差异来以流动方式发生变更。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140170048 | 2014-12-01 | ||
KR10-2014-0170048 | 2014-12-01 | ||
KR10-2015-0036147 | 2015-03-16 | ||
KR1020150036147A KR102406490B1 (ko) | 2014-12-01 | 2015-03-16 | 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105651299A true CN105651299A (zh) | 2016-06-08 |
CN105651299B CN105651299B (zh) | 2019-07-12 |
Family
ID=56138966
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510868584.9A Active CN105651299B (zh) | 2014-12-01 | 2015-12-01 | 电子装置、电子装置的控制方法 |
CN201520983089.8U Active CN205541484U (zh) | 2014-12-01 | 2015-12-01 | 电子装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201520983089.8U Active CN205541484U (zh) | 2014-12-01 | 2015-12-01 | 电子装置 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102406490B1 (zh) |
CN (2) | CN105651299B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108072383A (zh) * | 2016-10-11 | 2018-05-25 | 现代自动车株式会社 | 导航设备、包括导航设备的车辆及车辆的控制方法 |
CN108335507A (zh) * | 2017-01-17 | 2018-07-27 | 星克跃尔株式会社 | 利用摄像头的拍摄影像的驾驶引导提供方法及装置 |
CN112764537A (zh) * | 2016-10-04 | 2021-05-07 | 宏达国际电子股份有限公司 | 虚拟实境处理方法及用于处理虚拟实境的电子装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108846920A (zh) * | 2018-07-06 | 2018-11-20 | 丘莲清 | 一种基于ar技术的行车记录仪 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101464153A (zh) * | 2007-12-17 | 2009-06-24 | 阿尔派电子(中国)有限公司 | 导航装置 |
CN102016930A (zh) * | 2008-04-30 | 2011-04-13 | 星克跃尔株式会社 | 用于创建3d方向显像的方法与设备 |
CN102027510A (zh) * | 2008-05-15 | 2011-04-20 | 星克跃尔株式会社 | 显示导引符号的系统和方法 |
CN102027509A (zh) * | 2008-05-14 | 2011-04-20 | 星克跃尔株式会社 | 用于3d路径的方法和装置 |
CN103105171A (zh) * | 2011-11-15 | 2013-05-15 | 现代自动车株式会社 | 导航系统及其显示方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100011041A (ko) * | 2008-07-24 | 2010-02-03 | 주식회사 현대오토넷 | 3d 자이로 센서 및 수치 표고값을 이용한 맵 매칭 기능을가지는 내비게이션 장치 |
KR101188105B1 (ko) * | 2011-02-11 | 2012-10-09 | 팅크웨어(주) | 영상 정보를 이용한 증강 현실 제공 장치 및 방법 |
KR101271235B1 (ko) * | 2011-12-12 | 2013-06-10 | 자동차부품연구원 | 주행정보 제공장치 및 제공방법 |
WO2013145072A1 (ja) * | 2012-03-26 | 2013-10-03 | 三菱電機株式会社 | カメラキャリブレーション方法、カメラキャリブレーションプログラムおよびカメラキャリブレーション装置 |
-
2015
- 2015-03-16 KR KR1020150036147A patent/KR102406490B1/ko active IP Right Grant
- 2015-12-01 CN CN201510868584.9A patent/CN105651299B/zh active Active
- 2015-12-01 CN CN201520983089.8U patent/CN205541484U/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101464153A (zh) * | 2007-12-17 | 2009-06-24 | 阿尔派电子(中国)有限公司 | 导航装置 |
CN102016930A (zh) * | 2008-04-30 | 2011-04-13 | 星克跃尔株式会社 | 用于创建3d方向显像的方法与设备 |
CN102027509A (zh) * | 2008-05-14 | 2011-04-20 | 星克跃尔株式会社 | 用于3d路径的方法和装置 |
CN102027510A (zh) * | 2008-05-15 | 2011-04-20 | 星克跃尔株式会社 | 显示导引符号的系统和方法 |
CN103105171A (zh) * | 2011-11-15 | 2013-05-15 | 现代自动车株式会社 | 导航系统及其显示方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112764537A (zh) * | 2016-10-04 | 2021-05-07 | 宏达国际电子股份有限公司 | 虚拟实境处理方法及用于处理虚拟实境的电子装置 |
CN108072383A (zh) * | 2016-10-11 | 2018-05-25 | 现代自动车株式会社 | 导航设备、包括导航设备的车辆及车辆的控制方法 |
CN108072383B (zh) * | 2016-10-11 | 2024-02-09 | 现代自动车株式会社 | 导航设备、包括导航设备的车辆及车辆的控制方法 |
CN108335507A (zh) * | 2017-01-17 | 2018-07-27 | 星克跃尔株式会社 | 利用摄像头的拍摄影像的驾驶引导提供方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20160065723A (ko) | 2016-06-09 |
CN105651299B (zh) | 2019-07-12 |
KR102406490B1 (ko) | 2022-06-10 |
CN205541484U (zh) | 2016-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105654778A (zh) | 电子装置、电子装置的控制方法 | |
CN105185134A (zh) | 电子装置、电子装置的控制方法及计算机可读记录介质 | |
US10719990B2 (en) | Electronic apparatus, control method thereof, computer program, and computer-readable recording medium | |
CN105654030A (zh) | 电子装置、电子装置的控制方法、计算机程序及计算机可读记录介质 | |
CN105300401B (zh) | 电子装置及其控制方法 | |
CN105185137B (zh) | 电子装置、电子装置的控制方法及计算机可读记录介质 | |
CN106494406A (zh) | 弯道导向方法、弯道导向装置、电子装置及程序 | |
US20200184812A1 (en) | Road speed limit identification method, road speed limit identification apparatus, electronic apparatus, computer program, and computer readable recording medium | |
CN105651299A (zh) | 电子装置、电子装置的控制方法 | |
KR20180090610A (ko) | 차선 정보를 출력하는 방법 및 장치. | |
CN107014387A (zh) | 电子装置及其路径引导方法、计算机程序及可读记录介质 | |
CN108335507A (zh) | 利用摄像头的拍摄影像的驾驶引导提供方法及装置 | |
EP4254320A1 (en) | Image processing method and apparatus, and storage medium | |
US20230278544A1 (en) | Systems, Devices, and Methods for Dynamically Leveraging Multi-Source Safety-Related Data | |
US9972207B2 (en) | Information collection system, communication device, and information generation method | |
CN115164910B (zh) | 行驶路径生成方法、装置、车辆、存储介质及芯片 | |
CN105651298A (zh) | 电子装置、电子装置的控制方法 | |
CN115170630B (zh) | 地图生成方法、装置、电子设备、车辆和存储介质 | |
CN114842455B (zh) | 障碍物检测方法、装置、设备、介质、芯片及车辆 | |
KR20200070100A (ko) | 차량 검출 방법 및 이를 수행하는 전자 기기 | |
CN114973178A (zh) | 模型训练方法、物体识别方法、装置、车辆及存储介质 | |
CN204833707U (zh) | 交通物联网地理信息特征点聚类系统 | |
WO2023201231A1 (en) | Systems, devices, and methods for dynamically leveraging multi-source safety-related data | |
WO2023133465A2 (en) | Safety systems, devices, and methods for improved road user safety and visibility | |
CN115620258A (zh) | 车道线检测方法、装置、存储介质及车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210818 Address after: Seoul, South Kerean Patentee after: Hyundai Motor Co.,Ltd. Patentee after: Kia Co.,Ltd. Address before: Gyeonggi Do, South Korea Patentee before: THINKWARE SYSTEMS Corp. |