CN105452811B - 用于显示地图的用户终端设备及其方法 - Google Patents

用于显示地图的用户终端设备及其方法 Download PDF

Info

Publication number
CN105452811B
CN105452811B CN201480045600.8A CN201480045600A CN105452811B CN 105452811 B CN105452811 B CN 105452811B CN 201480045600 A CN201480045600 A CN 201480045600A CN 105452811 B CN105452811 B CN 105452811B
Authority
CN
China
Prior art keywords
user
display
controller
path
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480045600.8A
Other languages
English (en)
Other versions
CN105452811A (zh
Inventor
郑钟宇
明寅植
李择宪
曹东彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202010511254.5A priority Critical patent/CN111678532B/zh
Publication of CN105452811A publication Critical patent/CN105452811A/zh
Application granted granted Critical
Publication of CN105452811B publication Critical patent/CN105452811B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3614Destination input or retrieval through interaction with a road map, e.g. selecting a POI icon on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0238Programmable keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04114Touch screens adapted for alternating or simultaneous interaction with active pens and passive pointing devices like fingers or passive pens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Abstract

提供了一种用户终端设备。用户终端设备包括:显示器,被配置为显示地图屏幕;检测器,被配置为感测用户操纵;以及控制器,被配置为,当通过在地图屏幕上的用户操纵确定了位置和方向时,在地图屏幕上显示与用户操纵的位置和方向对应的至少一个照片图像。

Description

用于显示地图的用户终端设备及其方法
技术领域
本示范性实施例大体上涉及一种用于显示地图的用户终端设备及其方法,并且更特别地,涉及一种将图像与地图一起提供的用户终端设备及其方法。
背景技术
随着电子技术的发展,各种类型的用户终端被使用。具体地,诸如移动电话机、个人数字助理(PDA)、平板个人计算机(PC)、膝上型PC、MP3播放器和导航设备的便携设备的使用已经大大增加。
这样的用户终端设备具有如下特性:用户能够方便且容易地安装对于用户来说有必要的应用,并且扩展其功能。特别是,随着汽车的使用增加了,很多用户终端设备提供导航功能。
然而,一般,相关技术中的导航方法仅显示到用户所设定的目的地的移动路径。因此,相关技术中的导航方法的问题是当用户遇到诸如复杂的道路、夜间导航和由于雨或雾而导致能见度差这样的状况时,该导航方法使得用户难以仅使用地图来找到路径。
因此,用户有必要拥有一种更容易且更方便使用的导航手段。
发明内容
解决方案
已经提供示范性实施例来解决上述问题,并且示范性实施例的一方面是要提供一种提供与方向对应的图像以便用户能够便利地使用地图的用户终端设备及其方法。
根据示范性实施例的用户终端设备包括:显示器,被配置为显示地图屏幕;检测器,被配置为检测用户操纵;以及控制器,被配置为,当路径由用户操纵输入在地图屏幕上时,显示基于路径选择的摄影图像。
在此,其中控制器被配置为,当位置和路径通过用户操纵被输入在地图屏幕上时,显示基于位置和与路径对应的方向可见的摄影图像。
或者,其中控制器被配置为,当位置和方向通过用户操纵被输入在地图屏幕上时,显示基于位置和方向可见的摄影图像。
在此,当地图屏幕上的路径通过用户操纵被输入时,控制器可以显示与沿着路径的多个位置对应的多个摄影图像,该图像与在其多个位置处的路径的方向对应。
或者,控制器可以顺序地显示多个摄影图像。
当确定了目的地时,控制器可以在地图屏幕上显示从当前位置到目的地的移动路径,并且也可以显示与移动路径对应的摄影图像当中、在地图屏幕上的移动路径的方向上的至少一个摄影图像。
在此,可以通过用户操纵在地图屏幕上画文本,并且控制器可以通过识别文本来确定目的地,并且自动地搜索从用户终端设备的当前位置到目的地的移动路径。
另外,当通过用户操纵在地图屏幕上画线时,控制器可以基于线的轨迹来确定移动路径。
另外,用户操纵可以包括沿着移动路径移动的笔悬停操纵,并且检测器可以检测笔悬停操纵,并且控制器可以根据笔悬停操纵顺序地在移动路径上的每个点处显示在移动方向上的摄影图像。
控制器可以从移动路径选择满足预定条件的条,并且控制器可以在每个选择的点处显示在移动路径的方向上的摄影图像。
在此,用户操纵可以包括触摸和拖动或轻弹。当用户操纵在地图屏幕被触摸之后在地图屏幕上在某一方向上被拖动或轻弹时,控制器可以基于触摸点来确定位置,并且基于拖动的方向或轻弹的方向来确定方向。
控制器可以基于用户操纵的触摸强度、触摸区域、触摸时间、移动距离和移动速度中的至少一个来选择放大、尺寸、显示位置和拍摄角度中的至少一个,并且自动地在地图屏幕上显示所选择的摄影图像。
另外,用户操纵还可以包括使用笔的操纵。
设备还可以包括存储器。在这种情况中,控制器可以从存储在存储器中的摄影图像当中选择与位置和方向对应的摄影图像。
另外,设备还可以包括被配置为与服务器通信的通信单元。在这种情况中,控制器可以从服务器搜索并下载与位置和方向对应的摄影图像,并且可以额外地在地图屏幕上显示下载的摄影图像。
设备还可以包括存储器和被配置为与服务器通信的通信单元。在这种情况中,控制器可以选择性地从存储器和服务器中的至少一个检测与位置和方向对应的摄影图像,并且当多个摄影图像被检测到时,通过连续地显示多个摄影图像来提供移动图像效果。
在此,分享命令可以经由检测器被输入,并且控制器可以根据分享命令通过使用通信单元来向其它用户终端设备发送摄影图像。
另外,控制器可以通过在与图像对应的位置处将图像重叠在地图屏幕上来显示摄影图像。
控制器可以将摄影图像显示为与地图屏幕分开的屏幕。
根据示范性实施例的用户终端设备的显示方法包括:显示地图屏幕,检测用户操纵,并且当路径通过用户操纵输入在地图屏幕上时,显示基于路径选择的摄影图像。
该方法还可以包括,当位置和路径通过用户操纵被输入在地图屏幕上时,显示基于位置和与路径对应的方向可见的摄影图像。
该方法还可以包括:当位置和方向通过用户操纵被输入在地图屏幕上时,显示基于位置和方向可见的摄影图像。
该方法还可以包括,当地图屏幕上的路径通过用户操纵被输入时,在多个位置处显示与路径上的多个位置对应并与路径的方向对应的多个摄影图像。
另外,可以顺序地显示多个摄影图像。
该方法还可以包括,当目的地通过用户操纵被确定时,在地图屏幕上显示从用户终端设备的当前位置到目的地的移动路径,并且在地图屏幕上显示在与移动路径对应的多个摄影图像当中的、在移动路径的方向上的至少一个摄影图像。
该方法还可以包括,当文本通过用户操纵被画在地图屏幕上时,通过识别文本来确定目的地,并且自动地搜索从用户终端设备的当前位置到目的地的移动路径。
该方法还可以包括,当线通过用户操纵画在地图屏幕上时,基于线的轨迹来确定移动路径。
在地图屏幕上显示摄影图像还可以包括,当沿着移动路径移动的用户操纵被检测到时,根据笔用户操纵在移动路径上的每个点处顺序地显示在移动方向上的摄影图像。
用户操纵可以包括笔悬停操纵。
另外,在地图屏幕上显示所选择的摄影图像可以包括从移动路径选择满足预定条件的点,并且在每个选择的点处显示在移动方向上的摄影图像。
该方法还可以包括从用户终端设备的存储器或外部服务器搜索与位置和方向对应的摄影图像。
当多个摄影图像被检测到时,所述显示的步骤可以包括连续地显示多个摄影图像,如同移动图像。
该方法还可以包括,输入分享命令,并且根据分享命令来发送摄影图像到其它用户终端设备。
根据另一示范性实施例,导航服务提供系统包括被配置为存储从多个用户终端设备上传的摄影图像的服务器。另外,当关于移动路径和移动方向的信息被从多个用户终端设备当中的用户终端设备发送时,服务器可以从预存储的摄影图像当中搜索在沿着移动路径的多个点处的在移动方向上的摄影图像,并且向用户终端设备发送搜索到的摄影图像。
根据另一示范性实施例,设备包括:显示器,显示至少一个图像;检测器,检测输入;以及控制器,其控制基于输入的至少一个图像的显示,其中所述输入对应于至少一个位置和至少一个方向。
所述位置可以包括关于移动路径的目的地,并且所述至少一个图像可以包括来自至少一个摄影图像和至少一个地图屏幕中的至少一个。
控制器还可以根据输入在所述至少一个位置处显示与相对于地表面的各种高度对应的至少一个照片。
另外,输入可以是用户触摸、笔、悬停操纵和语音命令当中的一个。
又另一示范性实施例提供一种显示方法,其可以包括:显示至少一个图像,感测输入,以及基于输入来控制至少一个图像的显示,其中所述输入对应于至少一个位置和至少一个方向。
所述位置可以包括关于移动路径的目的地,并且所述至少一个图像可以包括来自至少一个摄影图像和至少一个地图屏幕中的至少一个。
另外,该方法还可以包括根据输入在所述至少一个位置处显示与相对于地表面的各种高度对应的至少一个照片。
输入可以是用户触摸、笔、悬停操纵和语音命令当中的一个。
有益效果
如上,在地图屏幕被显示的同时,用户能够通过相对于地图屏幕执行用户操纵来输入位置和方向。
附图说明
根据以下参照附图对示范性实施例的描述,以上和/或其它方面将变得更加显然,附图中:
图1是示出根据示范性实施例的用户终端设备的配置的框图;
图2是用于说明根据示范性实施例的显示方法的流程图;
图3是用于说明根据示范性实施例的从服务器接收图像的过程的视图;
图4和图5是用于说明根据示范性实施例的根据在地图屏幕上选择的位置和方向来显示图像的方法的视图;
图6是用于说明根据示范性实施例的提供室内环境的地图屏幕的方法的视图;
图7是用于说明根据示范性实施例的通过使用室内环境的地图屏幕来显示图像的方法的视图;
图8是用于说明根据另一示范性实施例的显示方法的流程图;
图9和图10是用于说明根据示范性实施例的根据移动方向变化的图像的示例的视图;
图11是示出根据示范性实施例的根据运输工具的类型而变化的导航屏幕的配置的示例的视图;
图12是示出根据示范性实施例的可由笔控制的用户终端设备的配置的示例的框图;
图13是示出根据示范性实施例的在图5中的用户终端设备的显示器的特定配置的视图;
图14是用于说明根据示范性实施例的感测通过使用用户的身体的悬停操纵的方法的视图;
图15是用于说明根据示范性实施例的感测通过使用笔的悬停操纵的方法的视图;
图16是示出根据示范性实施例的用在用户终端设备中的软件结构的示例的视图;
图17是用于说明根据示范性实施例的根据悬停操纵来提供多个图像的方法的视图;
图18和图19是用于说明根据示范性实施例的显示如同移动图像的多个图像的方法的视图;
图20是用于说明根据示范性实施例的通过使用笔来输入目的地的方法的流程图;
图21是用于说明根据示范性实施例的根据图20的方法来设定移动路径的过程的视图;
图22是用于说明根据示范性实施例的通过使用笔来选择移动路径的方法的流程图;
图23是用于说明根据示范性实施例的根据图22的方法来设定移动路径的过程的视图;
图24是示出根据各种示范性实施例的用户终端设备的配置的框图;
图25、图26、图27和图28是用于说明根据示范性实施例的用于生成被附上图像的地图屏幕并且与其他人分享地图屏幕的各种方法的视图;
图29是示出根据示范性实施例的网络系统的配置的框图;
图30是用于说明根据示范性实施例的在图29中的网络系统中的导航方法的示例的时序图;
图31是示出根据示范性实施例的服务器的配置的框图;
图32是用于说明根据示范性实施例的汽车控制系统的操作的视图;
图33是示出根据示范性实施例的图32中的汽车控制系统的配置的框图;
图34是用于说明根据示范性实施例的与汽车控制系统互相作用的用户终端设备的操作的视图;
图35是示出根据示范性实施例的添加了增强现实(AR)对象的图像的示例的视图;以及
图36和图37是示出根据示范性实施例的根据选项设置来显示不同的图像的示例的视图。
具体实施方式
下面参照附图更详细地描述某些示范性实施例。
在下面的描述中,即使在不同的图中,相似的附图参考标号也用于相似的元件。在描述中定义的事项,诸如详细的结构和元件,被提供来帮助对示范性实施例的全面理解。然而,可以在没有那些具体定义的事项的情况下实践示范性实施例,并且本发明构思可以以很多不同的形式具体化,并且不应该被解释为限于在此阐述的示范性实施例。此外,当认为公知功能或结构会以不必要的细节模糊本申请时,不详细描述它们。
将理解,虽然在本说明书中使用的术语可以在此用来描述各种元件,但是这些元件不应该被这些术语限制。这些术语仅用来区分一个元件与另一个。
在下文中,术语“单元”指的是软件组件,或者诸如FPGA或ASIC的硬件组件,并且执行某一功能。然而,“单元”不限于软件或硬件。“单元”可以在可寻址存储介质中配置,并且可以被配置为由一个或多个处理器运行。因此,“单元”包括诸如如下的元件:软件元件、面向对象的软件元件、类元件和任务元件,和进程、函数、属性、过程、子程序、程序代码段、驱动器、固件、微代码、电路、数据、数据库、数据结构、表、数组和变量。在元件和单元中提供的功能可以被组合成更少数量的元件和单元,或者可以被划分成更大数量的元件和单元。
图1是示出根据示范性实施例的用户终端设备的配置的框图。根据图1,用户终端设备100包括显示器110、检测器120和控制器130。用户终端设备100指的是用户可以使用的各种类型的电子设备。具体地,用户终端设备100可以被实现为各种类型的设备,诸如移动电话机、平板PC、膝上型PC、PDA、MP3播放器、电子相框设备、TV、PC、导航设备、电话亭等。
在图1中,仅示出在根据各种示范性实施例的操作中涉及的组件,并且省略了对于其它特定组件的图示。显示器110可以显示各种类型的屏幕,诸如主页屏幕、图标屏幕、列表屏幕、应用运行屏幕、网络浏览器屏幕、内容播放屏幕等。另外,显示器110可以显示上面公开的那些屏幕之外的各种类型的屏幕。
具体地,当运行导航功能时,显示器110可以显示地图屏幕。
检测器120可以检测相对于显示器110执行的用户操纵。用户操纵指的是通过使用诸如用户的身体或笔的输入工具来控制用户终端设备100的功能的操作。可以用各种方式来执行用户操纵,诸如触摸操纵、接近操纵、按钮操纵、语音操纵、动作操纵等等。
在触摸操纵方法的情况中,检测器120可以被实现为各种类型的触摸检测器,诸如电容型、电阻型、压电型等等。电容型指的是当用户身体的一部分触摸显示器110的表面时通过使用涂在显示器110的表面的电介质来感测由用户的身体刺激的微电从而计算触摸坐标的方法。电阻型指的是当用户触摸屏幕时感测当嵌入在显示器110中的两个电极板被放置接触,即,在触摸点的上板和下板彼此接触时流动的电流从而计算接触坐标的方法。
当用户在地图屏幕上触摸并拖动随机点时,检测器120可以检测到触摸点及其拖动轨迹。检测器120也可以检测到使用另外的输入工具(诸如笔)的用户操纵。当输入工具是包括内部线圈的手写笔时,检测器120可以包括磁场检测器,该磁场检测器能够感测通过手写笔的内部线圈而变化的磁场。因此,检测器120可以检测接近操纵,即,悬停(hovering),以及触摸操纵。下面将更详细地说明检测器120的配置。
当检测到用户操纵时,检测器120向控制器130发送检测到的结果。例如,当用户通过使用手指或笔来触摸屏幕上的点时,检测器120向控制器130通知触摸点的x坐标值和y坐标值。当用户在维持触摸的同时移动触摸点时,检测器120实时地向控制器130通知正在改变的触摸坐标值。如上指定的,即使没有直接触摸,检测器120也可以检测到紧密的接近。
控制器130执行对应于检测器120提供的检测到的结果的控制操作。例如,当确定在地图屏幕上触摸菜单被显示的点时,控制器130执行与菜单对应的控制操作。
当地图屏幕被显示时,用户通过相对于地图屏幕执行用户操纵能够输入位置和方向。具体地,用户能够触摸地图屏幕上的点,并且在某一方向上拖动或轻弹触摸点从而输入位置和方向。当在地图屏幕被显示的同时通过对地图屏幕的用户操纵而确定了随机位置和方向时,控制器130在地图屏幕上额外显示在所述位置处在预定方向所见的图像。在此,图像可以是在由用户操纵所选择的位置处和方向上所拍摄的摄影图像。摄影图像可以可变地称为景色图像、街景图像、路景图像等等。
另外,当通过用户操纵向地图屏幕输入路径时,控制器130可以显示与路径上多个位置对应的多个摄影图像,并且可以显示其到多个位置的方向。可以根据每个位置来显示多个摄影图像,并且可以顺序地在一点上显示以便被识别为移动的图像。
具体地,当导航功能被运行时,控制器130可以根据由检测器120检测到的用户操纵来确定目的地。当确定了目的地时,控制器130在地图屏幕上额外地显示用户终端设备100的当前位置或者从用户输入的出发点开始到目的地的移动路径。可以将出发点自动地确定为用户终端设备100的当前位置。
控制器130可以在地图屏幕上额外地显示在移动路径的方向上所看见的图像。在单个点处,用户能够看见在沿着360度圆周的各个点处的图像。因而,在单个点处可以提供多个图像。控制器130可以从多个图像当中选择位于移动路径的方向上的图像,并且在移动路径的边上显示图像。因此,用户能够容易地跟随路径,并且正确地跟随表示用户当沿着移动路径移动时可以看见的实景的图像。
图2是用于解释根据示范性实施例的用户终端设备中显示图像的方法的流程图。
根据图2,用户终端设备100显示地图屏幕(S210)。当检测到用户操纵时(S220),用户终端设备100基于用户操纵在地图屏幕上确定位置和方向(S230)。当确定了位置和方向时,用户终端设备100与所确定的位置对应地在地图屏幕上显示在实际位置处在所确定的方向上看见的图像(S240)。
在此,图像可以是在用户正在移动的方向上拍摄的摄影图像。用户终端设备100可以从服务器下载图像。
图3是示出包括服务器的网络系统及其操作的视图。在图3中,服务器300可以被实现为各种类型的不同服务器,包括网络服务器、云服务器等。服务器300可以存储根据区域的在各种方向上的在各种位置处的摄影图像。
用户终端设备100和服务器300可以通过各种通信方法来彼此通信。
当地图屏幕显示菜单被选择时(S310),用户终端设备100访问服务器300并且请求地图的发送(S315)。在这种情况中,用户终端设备100可以将当前位置的信息与请求一起发送。服务顺300响应于请求发送地图数据(S320)。当接收到关于当前位置的信息时,服务器300可以发送与在当前位置的某一半径之内的区域对应的地图数据。另外,虽然图3示出服务器300提供地图数据,但是当地图数据被存储在用户终端设备100中时可以省略前述操作S315和S320。
用户终端设备100通过使用地图数据来显示地图屏幕(S325)。用户能够在地图屏幕之内选择位置和方向。当位置和方向被选择时(S330),用户终端设备100向服务器300发送位置信息和方向信息(S335)。当接收到位置信息和方向信息时,服务器300检测与位置信息和方向信息对应的图像(S340)。服务器300发送检测的图像到用户终端设备100(S345)。
用户终端设备100可以将接收的图像与地图屏幕一起显示(S350)。
如上,服务器300发送由用户终端设备100请求的图像。在正常相机的情况中,单一图像可能不包括在360度方向的景色。因此,即使在相同位置拍摄图像,根据相机的方向会拍摄不同的图像。服务器300存储各图像,并且当从用户终端设备100接收到位置信息和方向信息时,服务器300检测并发送与位置信息和方向信息对应的图像到用户终端设备100。在这种情况中,不必发送所有的摄影图像,并且将仅仅发送在特定方向上拍摄的一些图像。因而,减少网络负担变得可能,并且不必立即检查图像。
图4和图5示出根据示范性实施例的在地图屏幕上确定位置和方向的用户操纵的示例。根据图4,当用户在地图屏幕400被显示的同时触摸随机点(a)并且在箭头方向(d1)上拖动或轻弹该点时,控制器130确定初始触摸点(a)被选择,并且检测到关于该点的位置信息。控制器130还基于运行拖动操作或轻弹操作的方向来确定方向信息。因此,已经被拍摄并位于箭头的方向上的建筑1、2的图像410被控制器130显示在地图屏幕400上。
图5示出图4的相同点(a)被触摸并且在不同的方向(d2)上被拖动或轻弹的状态。在这种情况中,控制器130显示从图4的相同点(a)在不同的方向(d2)上拍摄的图像420。因此,用户能够看见包括在图4的图像410中没有示出的建筑3、4的图像420。
虽然图4和图5示出图像410被显示为在地图屏幕400之内在用户选择的点(a)上与地图屏幕400重叠,但是根据示范性实施例可以不同地修改图像410的显示位置或显示方法。例如,图像410可以被显示在与地图屏幕400分开的屏幕上。
其间,上述显示图像的方法可以用在室内环境以及室外环境中。
图6和图7是用于说明在室内环境中提供图像的示范性实施例的视图。
根据图6,当拥有用户终端设备100的用户进入特定建筑的外围或者内部时,服务器600和用户终端设备100连接并通信。通信可以通过诸如Wi-Fi、蓝牙、Zigbee、近场通信(NFC)等的各种方法来执行。
服务器600可以是由建筑的业主或管理人来操作的单独的服务器,或者可以是通过互联网连接的入口服务器。当用户终端设备在有效通信范围之内接近时,服务器600可以在与用户终端设备100自动连接和建立通信之后发送与该建筑有关的各种地图信息。地图信息可以包括建筑的平面图。接收到地图信息的用户终端设备100基于地图信息来显示该建筑的内部地图。
图7示出根据示范性实施例的显示建筑的内部的地图的状态。当建筑由多楼层组成时,可以根据楼层来提供地图。用户能够通过在地图之内触摸随机点来选择位置,并且能够通过在任何方向上拖动或轻弹该点来选择方向。
图7还示出根据示范性实施例的在点(a)被触摸之后方向(d3)被选择的状态。用户终端设备100的控制器130向服务器600发送与用户操纵对应的位置信息和方向信息。服务器600选择与位置信息和方向信息对应的图像,并且向用户终端设备100发送所选择的图像。控制器130通过显示器110显示所发送的图像710。显示的图像710可以是在用户选择的点上在所选择的方向上拍摄的摄影图像。先前的屏幕,即,用于返回地图屏幕700的菜单720也可以被显示在图像710之内。当菜单720被选择时,控制器130可以停止显示图像710,并且可以再次显示先前的地图屏幕700。
其间,虽然图7示出根据示范性实施例的图像710被显示在整个屏幕上的情况,但是图像710也可以被显示在地图屏幕700的部分区域上,如在上述其它示范性实施例中所描述。
在以上示范性实施例中,通过使用地图来检查图像的过程已经被详细说明,但是可以根据方向来提供地图和图像。例如,当用户运行导航程序并且设定目的地时,可以根据到目的地的移动路径及其移动方向来选择性地显示图像。
图8是用于解释根据示范性实施例的用户终端设备中的导航方法的流程图。根据图8,用户终端设备100显示地图屏幕(S810)。控制器130可以通过运行导航程序来显示地图屏幕。在这种状态中,根据示范性实施例,当检测到用户操纵(S820),并且目的的或移动路径根据用户操纵而被选择时,控制器130显示所选择的移动路径以及与所选择的移动路径对应的至少一个图像(S830)。在此,图像可以是在移动路径的方向(即,移动方向)上拍摄的摄影图像。
图9和图10是用于说明根据移动方向来提供不同的图像的方法的视图。根据图9,当在地图屏幕900被显示的同时确定了出发点910和目的地920时,控制器130显示从出发点910到目的地920的移动路径930。移动路径930可以基于地图屏幕900之内的道路信息来确定。
例如,当用户设定对于移动路径的搜索条件具有最小距离时,控制器130可以将从出发点910到目的地920的最短路径设定为移动路径930。当用户设定搜索条件用于最佳路径时,控制器130可以通过考虑出发点910和目的地920之间的距离、移动速度、交通情形等模拟移动路径930来将花费最短移动时间量的路径设定为移动路径930。
此外,根据能够由用户设定的各种条件,例如,设定最经济路径、穿过最大数量的旅游景点或著名景胜的路径等作为移动路径930是可能的。另外,当在目的地和出发点之间存在多条路径时,可以根据上述条件向用户推荐多条路径,并且当推荐的路径之一被选择时,将所选择的路径确定为移动路径930。当移动路径930被确定时,控制器130进一步在地图屏幕900上显示在移动路径930中包括的点上在移动方向上拍摄的图像941至944。
图9示出沿着移动路径顺序地布置多个图像941至944的状态。在图9中,距出发点910首先显示的第一图像941表示当多个建筑11、12被顺序地布置时拍摄的照片。其间,图10示出根据示范性实施例的移动方向在图9中的移动方向的相反方向的情况。即,当图9的出发点910和目的地920被交换时,控制器130显示与新的出发点910'和新的目的地920'对应的移动路径950。另外,控制器130显示与新的移动路径950及其移动方向对应的新的图像961至966。
在图10中,距目的地920首先显示的第六图像961表示在与第一图像941的点相同的点上在不同方向上拍摄的照片。即,图10的第六图像961示出建筑12、11的每个的布置次序是图9中的第一图像941的布置次序的相反次序。因而,控制器130在与实际移动方向对应的时间点提供图像,以便用户能够检查与移动方向对应的正确的图像。用户可以通过使用诸如手指或笔的输入工具触摸图像或对图像执行悬停操纵来旋转或放大图像。
图9和图10示出沿着移动路径以规律的间隔来顺序地布置每个图像的状态。在此,每个图像之间的间隔可以根据移动速度来变化。即,当用户通过步行来移动以及通过车辆或其它运输工具来移动时,可以使用本导航方法。当用户通过步行来移动时,与用户通过车辆移动的情况相比,移动速度明显减小了。因而,对用户来说显示更多图像是有利的。因此,假设当用户通过车辆来移动时沿着移动路径顺序地显示按照每100米的间隔拍摄的图像时,则考虑到当用户通过步行移动时的移动速度,可以沿着移动路径顺序地显示按照每10或20米的间隔拍摄的图像。
图11是用于说明根据运输工具而变化的导航方法的视图。根据图11,用户能够通过使用设置屏幕1100来设定目的地。在图11中,设置屏幕1100可以显示目的地输入区域1101、运输工具选择区域1102、设置完成按钮1103、取消按钮1104等。
虽然图11示出设置屏幕1100仅为了方便说明而设定目的地和运输工具,但是实际的设置屏幕1100还可以显示用于设定上述选项之外的其它各种选项的区域。例如,设置屏幕1100还可以显示区域,诸如出发点输入区域、停止输入区域、路径条件选择区域等等。
另外,设置屏幕1100可以被实现以便使用地图之内的一部分区域作为设置区域,并且允许用户在设置区域之内选择目的地或运输工具,而没有分开的设置屏幕。
当用户选择目的地和运输工具时,控制器130在从用户终端设备100的当前位置到目的地的路径当中选择用户能够通过使用所选择的运输工具来移动的最佳路径或最短路径。图11示出根据示范性实施例的车辆被选择的情况和步行被选择的情况。
在图11中,当车辆被选择时,控制器130显示地图屏幕1110,该地图屏幕1110示出从当前位置到目的地的第一路径1111。另外,控制器130在地图屏幕1110之内顺序地显示在第一路径1111的移动方向上拍摄的多个图像1112-1至1112-3。
当步行被选择时,控制器130显示地图屏幕1120,该地图屏幕1120包括用户能够通过步行来移动的第二路径1121。另外,控制器130顺序地显示在第二路径1121的移动方向上拍摄的多个图像1122-1至1122-8。
根据图11,当用户通过步行来移动时,由通过车辆不可以进入的通道的路径来确定移动路径。另外,通过考虑移动速度,当用户通过步行移动时显示的图像1122-1至1122-8可以以比当用户通过车辆移动时显示的图像1112-1至1112-3的间隔更窄的间隔来显示。
如上,本公开的提供图像的方法或导航方法可以在室内环境以及室外环境中实现,并且可以在用户通过步行移动以及通过车辆来移动时实现。
其间,除了被诸如手指的用户的身体的一部分的触摸来操纵外,用户终端设备100可以被诸如笔的输入工具来操纵。使用笔的触摸比使用手指的触摸更精确。因此,即使图像在地图屏幕330之内以小尺寸被显示,通过使用笔在向上、下、左和右方向上旋转图像的视点也是可能的。通过取决于移动方向,旋转角度可以限于某一范围。例如,根据示范性实施例,旋转角度可以被限于在向上、下、左和右方向上15度和30度之间的范围,但是不限于此,或者可以被实现为旋转360度。
图12是能够区分和识别用户触摸操纵与笔操纵的用户终端设备的特定配置的示例的框图。根据图12,用户终端设备100包括显示器110、检测器120、控制器130和存储器140。存储器140是用于存储操作用户终端设备100所必要的各种程序和数据的组件。控制器130通过使用存储在存储器140中的各种程序和数据来控制用户终端设备的全部操作。控制器130包括随机存取存储器(RAM)131、只读存储器(ROM)132、中央处理单元(CPU)133、图形处理单元(GPU)134和总线135。RAM 131、ROM 132、CPU 133和GPU 134可以通过总线135彼此连接。
CPU 133存取存储器140并且通过使用存储在存储器140中的操作系统(O/S)来执行启动。另外,CPU 133通过使用存储在存储器140中的各种程序、内容和数据来执行各种操作。ROM 132存储用于启动系统的命令集。当接通命令被输入并且电力被供应时,CPU 133通过将存储在存储器140中的O/S复制到RAM 131中并且操作O/S来启动系统。当启动被完成时,CPU133将存储在存储器140中的各种程序复制到RAM 131中,并且通过运行复制到RAM131中的程序来执行各种操作。
GPU 134显示各种类型的屏幕。当导航程序被运行时,GPU 134可以通过使用存储在存储器140中的地图数据来显示地图屏幕。具体地,GPU 134可以通过使用计算器(未示出)和渲染单元(未示出)来生成地图。地图屏幕可以被表示为二维(2D)类型或三维(3D)类型,并且可以包括用于表示各种建筑、道路和菜单的图形对象。计算器根据屏幕的布局计算每个对象将被显示的属性值,诸如坐标值,包括形状、尺寸、颜色等。渲染单元基于通过计算器计算的属性值来生成包括每个对象的地图屏幕。通过渲染单元生成的屏幕被提供给显示器110,并且被显示在显示区域之内。
根据由检测器120输出的检测的结果,CPU 133可以确定在地图屏幕上触摸了哪个点。因此,当确定目的地被输入时,CPU 133可以基于存储在存储器140中的屏幕数据或者存储在外部服务器中的数据来搜索到目的地的移动路径。GPU 134可以进一步显示搜索到的移动路径。
另外,CPU 133可以从存储在存储器140或外部服务器中的照片图像当中搜索与移动路径和移动方向对应的图像。GPU 134还可以在地图屏幕上显示搜索到的图像。在这种情况中,图像可以通过与不同于地图屏幕的图形层重叠而被显示,并且可以通过与地图屏幕组合来被表示为单一图像。
显示器110显示如上所述的各种屏幕。显示器110可以被实现为各种类型的显示器,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器、等离子显示面板(PDP)等等。显示器110还可以包括驱动电路、背光单元等,其可以被实现为硅(非晶硅)薄膜晶体管(TFT)、低温多硅(LTPS)TFT、有机TFT(OTFT)等。
图12示出根据示范性实施例的显示器110和检测器120被实现为单一触摸屏的情况。
当检测到使用各种输入工具的用户操纵时,检测器120向控制器130通知检测的结果。例如,用户通过使用手指或笔来触摸屏幕上的点,检测器120向控制器130通知触摸点的x坐标值和y坐标值。当用户在维持触摸的同时移动触摸点时,检测器120实时地向控制器130通知改变的触摸坐标值。
即使没有直接触摸,检测器120也可以检测到紧密的接近。具体地,检测器120可以包括笔识别面板121和触摸面板122。笔识别面板121检测到笔200的接近输入或触摸输入,并且根据检测到的结果来输出事件信号。笔识别面板121可以用EMR方法来实现,并且可以根据通过笔的接近或触摸引起的电磁场的强度变化来检测触摸输入或接近输入。
更详细地,笔识别面板121可以包括电感应线圈检测器(未示出)和电信号处理电路(未示出)。电感应线圈检测器以网格结构形成,其中多个环形线圈被布置为彼此交叉。电信号处理电路顺序地向电感应线圈检测器的每个环形线圈提供交流信号,并且向控制器130发送从每个环形线圈输出的信号。当笔200包括谐振电路并且存在于笔识别面板121的环形线圈周围时,从环形线圈发送的磁场基于笔200中的谐振电路上的相互电感应来生成电流。基于该电流,从构成笔中的谐振电路的线圈生成感应场,并且笔识别面板121在信号接收状态中检测来自环形线圈的感应场。因而,检测到笔的接近位置或触摸位置。
已经以笔作为输入工具的例子来描述了以上,但是可以基于电感应来生成电流的任何对象都可以用作输入工具。通过被布置在显示器110的下侧,笔识别面板121可以被默认地激活,或者根据特定事件的发生而被激活。触摸面板122是用于感测通过用户的身体或其它对象的物理触摸输入的组件。
例如,触摸板面122可以被实现为触摸薄膜、触摸片、触摸板等。当检测到触摸时,触摸面板122输出与检测到的点对应的触摸事件值。如上所述,触摸面板122可以包括各种类型的触摸检测器,诸如电容型、电阻型等。举例来说,当触摸面板122被实现为电容型时,触摸面板122被涂覆电介质,其用薄金属传导材料(例如,氧化铟锡(ITO)薄膜)来涂覆玻璃的两侧,以便电流在玻璃的表面上流动并且电荷被存储。当触摸面板122的表面被触摸时,一定量的电荷通过静电而移动到接触位置,并且触摸面板122通过识别根据电荷移动的电流变化而检测到触摸位置,并且追踪触摸事件。
在此,在触摸面板122上生成的触摸事件一般可以通过人的手指来生成,但是也可以通过可以改变电容的其它材料来生成,例如,可以改变电容的传导材料。
虽然图12示出笔识别面板121和触摸面板122是不同的面板,但是两个面板可以被实现为单一面板。因此,检测器120可以区分并识别用户手指的触摸操纵和接近操纵以及笔的触摸操纵和接近操纵。
控制器130可以根据检测的结果来执行各种控制操作。笔识别面板121可以按照像素单位来识别使用笔的操纵。因此,即使控制器130在笔使用模式中减小了显示在屏幕上的菜单的尺寸,用户也能够容易地选择菜单。为了检测到使用笔的精确的操纵,笔识别面板121可以被制造为大于显示器110中的显示面板。因此,从显示面板的边界侧按照像素单位检测用户操纵是可能的。
图13是用于说明显示器110的特定配置的示例的视图。根据图13,显示器110还可以包括其它处理电路,诸如定时控制器111、栅驱动器112、数据驱动器113、电压驱动单元114和显示面板115。
虽然在图13中未示出,但是显示器110还可以包括帧缓冲器等。定时控制器111从外部接收时钟信号、水平同步信号(Hsync)和垂直同步信号(Vsync),其适合于显示面板115。定时控制器111生成栅控制信号(扫描控制信号)和数据控制信号(数据信号),并且分别向栅驱动器112和数据驱动器113输出信号。
电压驱动单元114是用于向栅驱动器112、数据驱动器113、显示面板115等供应驱动电压的组件。具体地,电压驱动单元114可以提供对于显示面板115必要的电力供应电压(VDD)或者接地电压(VSS)。另外,电压驱动单元114可以生成栅-通电压(Vgh),并且向栅驱动器112提供所生成的栅-通电压(Vgh)。通过扫描线S1、S2、S3、...Sn将栅驱动器112连接到显示面板115。
栅驱动器112根据由定时控制器111生成的栅控制信号,将从电压驱动单元114接收的栅-通/断电压(Vgh/Vgl)施加到显示面板115。通过数据线D1、D2、D3、...Dm将数据驱动器113连接到显示面板115。数据驱动器113根据由定时控制器111生成的数据控制信号将图像帧的RGB数据输入到显示面板115。
显示面板115被实现使得多条栅线GL1至GLn以及多条数据线DL1至DLn通过彼此交叉来形成像素区域116。当显示面板115是与OLED方法一致的面板时,每个像素区域116可以被实现为如同OLED的包括发光元件R、G和B的形式。在每个像素区域116中,开关元件,即,TFT被形成。另外,在每个像素区域116的下侧,可以部署用于感测通过使用用户的身体或者笔的用户操纵的检测器。即,检测器120通过与显示器110布置在一起,可以按照像素单位来检测用户操纵。
如上指定,用户能够通过将诸如手指或笔的输入工具带近显示器110的屏幕而不触摸显示器110的屏幕来向用户终端设备100输入控制命令。在这种情况中,根据示范性实施例,检测器120可以通过使用接近检测器来感测接近触摸。接近触摸指的是当在空间中的有效识别范围之内识别到移动而没有对屏幕的直接触摸时被识别为触摸手势的操作。
图14是用于说明根据示范性实施例的通过使用接近检测器来感测用户的身体的接近操纵的方法的视图。参照图14,检测器120还可以包括红外源单元123和红外检测器124。红外源单元123和红外检测器124可以执行被配置为感测用户的接近的接近检测器的功能。具体地,红外源单元123被部署在显示器110内部的显示面板115的表面上,并且红外检测器124被部署在显示面板115的另一表面上。红外源单元123在显示面板115的表面的方向上照射红外光。
因此,在显示面板115的表面上存在能够识别用户手指50的接近的某一区域。该区域是能够识别接近触摸的有效识别区域5。红外检测器124可以包括以阵列形式部署的多个红外感测元件。因此,当用户手指50在有效识别区域5之内接近时,红外检测器124可以感测由用户手指50反射的红外光,并且可以生成红外扫描图像。用户终端设备100可以通过使用所生成的红外扫描图像来感测接近触摸输入。
其间,检测器120也可以感测笔200的接近。即,如上指定的,笔识别面板121可以包括电感应线圈检测器和电信号处理电路(未示出)。图15示出用于通过使用笔识别面板121来感测笔200的接近的配置的例子。根据图15,显示器110还可以包括电感应线圈检测器125。当笔200在某一距离5a之内接近时,接近的点的磁场由于笔200内部的磁场线圈而被改变,从而,在该点上的电感应线圈检测器125中感测到改变的磁场。
感测到的磁场被电信号处理电路处理,并被输入到控制器130中。控制器130可以基于输入的值来感测笔200靠近的点。另外,控制器130也可以根据磁场的变化量来确定直接触摸是否被执行。
如图14和图15中所示,通过使用红外源单元123、红外检测器124和笔识别面板121,识别用户是否通过使用人体的一部分诸如手50或通过使用笔200来执行触摸输入或接近输入是可能的。控制器130可以根据输入工具的类型的操纵方法来选择性地执行各种控制操作。
特别是,当如上所述通过使用笔200来执行精确的触摸变得可能时,用户能够通过用笔200精确地在地图屏幕上触摸每个点来指定期望的目的地。或者,用户能够通过使用笔200在地图屏幕上写目的地的名称或地址来指定目的地。另外,用户也能够通过使用笔200来在地图屏幕上画移动路径。在这种情况中,根据示范性实施例,控制器130可以在地图屏幕上将由笔200触摸或接近的点或其轨迹表示为图形线。
具体地,当用户通过使用手指或笔来在地图屏幕上执行绘画操作时,GPU 134根据操纵来渲染对象。GPU 134可以分别在不同的图形层上表示地图屏幕和对象。即,GPU 134可以将对象的层显示为与地图屏幕的层的上侧重叠。GPU 134可以区分手指操纵与笔操纵,并且可以显示具有不同属性的图形线。
例如,手指可以表示粗体线,因为它的边缘与笔的边缘相比是钝的(blunt),并且笔可以表示细图形线。诸如颜色、形状、厚度等的其它属性可以根据输入工具的类型而变化。控制器130可以识别由用户画的内容,并且可以根据所识别的内容来确定目的地、移动路径和其它设置细节。另外,控制器130可以根据所确定的结果来执行导航操作。控制器130的操作可以通过存储在用户终端设备100中的各种软件的运行来执行。
图16是示出根据示范性实施例的由用户终端设备100使用的软件配置的示例的视图。在图16中示出的软件可以被存储在存储器140中,但是不限于此,或者可以被存储在用户终端设备100之内使用的各种类型的存储工具中。
根据图16,用户终端设备100可以存储包括OS 141、内核142、中间件143、应用144等的软件。
操作系统(OS)141执行控制和管理硬件的全面操作的功能。即,OS 142是被配置为执行诸如硬件管理、存储器、安全等的基本功能的层级。
内核142执行用在向中间件143发送由检测器120感测到的各种信号中的传递。
中间件143包括被配置为控制用户终端设备100的操作的各种软件模块。根据图16,中间件143包括X11模块143-1、APP管理器143-2、连接管理器143-3、安全模块143-4、系统管理器143-5、多媒体框架143-6、用户接口(UI)框架143-7、窗口管理器143-8和写识别模块143-9。
X11模块143-1被配置为从部署在用户终端设备100中的各种硬件接收各种事件信号。在此,事件可以被不同地设定,如感测到用户操纵的事件、系统警报发生的事件、特定的程序被运行或关闭的事件等等。
APP管理器143-2是被配置为管理安装在存储器140中的各种应用的运行状态的模块。当感测到从X11模块143-2输入应用运行命令的事件时,APP管理器143-2调用并运行与感测到的事件对应的应用。即,当检测到在主页屏幕上选择至少一个对象的事件时,APP管理器143-2执行调用和运行与该对象对应的应用的操作。
连接管理器143-3是被配置为支持有线网络连接或无线网络连接的模块。连接管理器143-3可以包括各种特定的模块,诸如DNET模块、通用即插即用(UPnP)模块等等。
安全模块143-4是被配置为支持硬件的证明、请求的允许、安全存储等的模块。
系统管理器143-5监视用户终端设备100中的每个组件的状态,并且向其它模块提供监视的结果。例如,当剩余的电池能量不足以对用户终端设备100供电或者错误发生时,或者通信连接被断开时,系统管理器143-5可以向UI框架143-7提供监视的结果,从而输出通知消息或通知声音。
多媒体框架143-6是被配置为回放存储在用户终端设备100中或由外部源提供的多媒体内容的模块。多媒体框架143-6可以包括播放器模块、摄像机模块、声音处理模块等。因此,多媒体框架143-6可以执行通过回放各种多媒体内容来生成和回放屏幕和声音的操作。
UI框架143-7是被配置为提供各种UI的模块。UI框架143-7可以包括配置各种对象的图像合成模块、计算显示对象的坐标的坐标合成器、在所计算的坐标上渲染配置的对象的渲染模块、提供用于配置2D或3D形式的UI的工具的2D/3D UI工具包等等。
窗口管理器143-8可以感测使用用户的身体或笔的触摸事件或者其它输入事件。当感测到这样的事件时,窗口管理器143-8向UI框架143-7发送事件信号来执行与事件对应的操作。
写识别模块143-9是被配置为解析用户在显示器110的表面上画的轨迹并且识别其内容的模块。写识别模块143-9通过笔识别面板121接收触摸的点的坐标值,并且存储触摸点的坐标值作为笔划(stroke)。另外,写识别模块143-9可以通过使用笔划来生成笔划排列。另外,写识别模块143-9可以通过将预存储的书写库与生成的笔划排列比较来识别所写的内容。识别出的所写的内容被提供给APP管理器143-2,并且APP管理器143-2发送所写的内容到与用户写被执行的点上的对象对应的应用。当在导航程序在操作的同时执行用户写并且所写的内容是文本时,写识别模块143-9向APP管理器143-2提供包括文本的名称或地址。APP管理器143-2可以向导航程序提供识别出的名称或地址,并且导航程序可以通过使用所提供的名称或地址来识别目的地。
另外,当所写的内容是线时,写识别模块143-9可以通过APP管理器143-2向导航程序提供关于画线的点的信息。导航程序可以通过将当前显示的地图屏幕与用户画的线的位置比较来识别移动路径。因此,如上面指定的,应用可以基于所写的内容来执行控制操作。
其间,当用户通过使用诸如手或笔的各种输入工具来相对于显示器110的表面执行触摸操作或绘画操作时,UI框架143-7可以根据用户操纵来画各种图形线。
另外,当笔与用户终端设备100分离或者被安装在用户终端设备100上的事件发生时,UI框架143-7执行改变当前显示的UI屏幕的布局的操作。例如,当在地图屏幕被显示的同时笔200与用户终端设备100的主体分离时,UI框架143-7可以减小菜单区域的尺寸或者放大地图之内的地图区域的尺寸。即,用户通过使用笔200能够执行精确的触摸,因而,对用户来说,即使菜单区域的尺寸被减小,容易地选择每个菜单也是可能的。因此,在笔与用户终端设备100的主体分离的笔模式中,菜单区域可以被减小以便用户能够使用宽阔的地图区域。
应用模块144包括用于支持各种功能的应用144-1至144-n。例如,应用模块144可以包括用于提供各种服务的程序模块,诸如导航程序模块、游戏模块、电子书模块、日历模块、闹钟管理模块等。这样的应用可以被默认地安装,并且可以由用户在使用过程中任意地安装和使用。
在图16中示出的软件配置仅仅是一个示范性实施例,因而不限于此。因此,根据需要,软件配置的一部分可以被省略或者修改,或者被添加。例如,存储器140还可以包括各种程序,诸如用于分析由每个检测器感测的信号的感测模块、信使程序、消息模块(包括短消息服务(SMS)&多媒体消息程序(MMS))、电子邮件程序、呼叫信息聚集器(Aggregator)程序模块、VoIP模块、网络浏览器模块等。
如上所述,用户终端设备100可以区分和识别使用用户的身体的触摸操纵和接近操纵以及使用笔的触摸操纵和接近操纵。控制器130可以根据每个操纵来执行各种控制操作。特别是,根据示范性实施例,控制器130可以用各种方法来提供上述图像。在下文中,将描述可以在运行导航功能中执行的控制操作的各种示例。
图17是用于说明根据另一示范性实施例的导航方法的视图。根据图17,控制器130可以在地图屏幕900之内显示移动路径930。当在这种状态下用户通过使用笔200相对于移动路径930上的某一点执行悬停(hovering)操作时,控制器130显示在执行悬停操作的点处拍摄的图像当中的、与当前移动方向对应的图像1710。当用户在(a)到(e)的方向上沿着移动路径930移动悬停点时,控制器130顺序地显示根据悬停状态的每个点的图像1710至1750。因此,用户能够看见实际路景,就像用户实际上正在沿着移动路径930移动一样。确定悬停点的方法已经在图14和图15中详细说明,并且将省略重复的描述。
图18是用于说明根据另一示范性实施例的导航方法的视图。根据图18,当在移动路径930被显示在地图屏幕900上的同时预定事件发生时,控制器130可以在点1800上顺序地显示与移动路径930的每个点对应的多个图像1800-1至1800-n,如同移动图像一样。
图18示出移动图像显示点1800在当前位置附近,这仅仅是一个示范性实施例,并且显示点可以被不同地改变。另外,虽然图18示出移动图像显示点1800被布置在地图屏幕900之内,但是控制器130可以划分整个屏幕,并且与地图屏幕900分开地提供显示移动图像的屏幕。
图19示出根据示范性实施例的用户终端设备的操作。
根据图19,控制器130在地图屏幕900的一侧显示移动图像显示屏幕1800。控制器130通过在移动图像显示屏幕1800上顺序地显示沿着移动路径拍摄的多个图像,可以提供好像用户正在观看移动图像一样的效果。另外,与图像一起,控制器130可以在地图屏幕900的移动路径930上显示图标1801,该图标1801示出位置移动状态。
当移动模拟响应于用户选择而被执行时,控制器130可以沿着移动路径930移动图标1801,并且通过将图像显示与图标移动同步,来在移动图像显示屏幕1800上显示与显示图标1801的点对应的图像。因此,用户能够一次性看见移动路径上的每个点的主要图像。
其间,虽然图18和图19组合整个移动路径930上的每个点的图像并且将图像示出为移动图像,但是实际的移动内容可以被提供为图像。另外,当用户在移动路径上确定对于生成移动图像来说必要的一点或一段时,控制器130可以将与所选择的点或段对应的图像做成移动图像。
此外,可以根据各种方法来提供图像。例如,控制器130可以从移动路径中选择满足预定条件的点,并且可以显示与所选择的每个点对应的图像。具体地,控制器130可以将移动路径划分成某一间隔(例如,50m、100m、500m、1000m等)的段,并且可以在每段的边界点上显示图像。
或者,控制器130可以根据各种条件中的至少一个来选择显示图像的位置和图像,其中各种条件诸如十字路口点、事故黑点、航向偏差或重置的高频点、用户之前到访过的地点的附近、用户设置的高频地点的附近、具有很多用户推荐的地点的附近、景点、具有很多注册的图像的点、与用户设定的目的地有关的地点等。
如上,当出发点和目的地被确定时,用户终端设备100可以检测与所确定的出发点和目的地对应的移动路径,并且可以选择性地显示与移动路径对应的方向和位置的图像。在此,根据示范性实施例,可以根据各种方法来选择出发点、目的地和移动路径。
例如,用户通过使用笔能够容易地在地图屏幕上输入目的地或移动路径。
图20是用于说明根据另一示范性实施例的在用户终端设备中输入目的地的方法的示例的流程图。根据图20,当用户输入笔写(S2010)时,控制器130识别出所写的内容(S2020)。上面已经详细说明识别所写的内容的方法,并且将省略重复的描述。
当识别出所写的内容时,控制器130显示与所写的内容对应的至少一个可用的目的地(S2030)。当仅存在一个可用的目的地时,控制器130可以省略显示可用的目的地的过程。
用户能够选择所显示的可用目的地之一(S2040)。当用户选择某一目的地时,控制器130可以基于目的地和当前位置来检查移动路径,并且可以向用户推荐一条移动路径(S2050)。相对于移动路径,用户可以通过输入确认命令或重新搜索命令来选择移动路径(S2060)。
当用户选择移动路径时,控制器130可以显示移动路径以及与移动路径对应的图像(S2070)。
图21是用于说明根据图20的方法输入目的地的方法的视图。如图21中所示,当用户通过使用笔200在地图屏幕900上写文本2100(例如,ABC建筑)时,控制器130通过使用写识别模块来识别出所写的内容2100。
另外,控制器130从存储在存储器140或外部服务器中的数据库中搜索包括识别出的所写内容2100的目的地信息。当基于搜索结果确定了目的地时,控制器130立即在地图屏幕900上显示到目的地的移动路径2110。
其间,当存在多个包括识别出的所写内容2100的目的地信息时,控制器130可以显示用于选择多个目的地信息的选择UI。因此,当目的地信息从选择UI中被选择时,控制器130可以根据所选择的目的地信息来检测移动路径2110,并且可以在地图屏幕900上显示移动路径。
图22是用于说明根据示范性实施例的用户在地图屏幕上输入移动路径的方法的流程图。根据图22,用户通过使用诸如笔200的输入工具能够在地图屏幕上画线(S2210)。当线被画出时,控制器130可以通过将线的轨迹与地图屏幕上的道路信息比较,来预期移动路径(S2220)。
在这种情况中,初始画线的开始点可以被设定为出发点,并且完成线的笔触的点可以被设定为目的地。另外,当用户画的线轨迹与实际的道路一致时,控制器130可以将道路设定为移动路径。相反,关于画出的不与实际道路一致的线,控制器130可以在出发点和目的地之间的可用线路当中,将最接近该线的道路设定为移动路径,或者可以将最类似该线的段的路径设定为移动路径。
当确定移动路径时,控制器130在地图屏幕上显示移动路径(S2230)。在这种情况中,控制器130可以将与移动方向对应的图像与移动路径一起显示。
图23是用于说明在图22中选择移动路径的方法的视图。根据图23,当用户通过使用笔200在地图屏幕900上画随机线2300时,控制器130可以纠正线2300以与实际道路对应,并且可以选择线2300作为移动路径2310。
具体地,控制器130将用户在地图屏幕900上画的线2300的开始点确定为出发点,并且将线2300的最后的点确定为目的地。另外,控制器130在从出发点到目的地的路径当中,选择最接近用户画的线2300的路径作为移动路径。
在这种情况中,控制器130可以将每条路径划分为某一间隔的多段,根据每段来选择最类似于线2300的路径,连接每段的路径的全部,并且选择最终的移动路径。因此,用户能够通过使用各种输入工具来方便地选择目的地或移动路径。
其间,如上所述,用户终端设备100可以被实现为各种类型的设备,诸如移动电话机、平板PC、膝上型PC、PDA、MP3播放器、电子相框设备、TV、PC、电话亭等。在此,当用户终端设备被实现为具有各种功能(诸如通信功能、内容播放功能等)的如同移动电话机和平板PC的设备时,用户终端设备还可以包括用于执行这样的功能的组件。
图24是示出根据示范性实施例的包括各种组件的用户终端设备的示例的框图。
根据图24,用户终端设备100可以包括显示器110、检测器120、控制器130、存储器140、通信单元150、全球定位系统(GPS)芯片161、视频处理器162、音频处理器163、按钮164、麦克风165、相机166、扬声器167和动作检测器168。
如上所述,显示器110和检测器120可以被实现为触摸屏、显示各种屏幕,并且感测相对于屏幕执行的用户操纵。
控制器130通过使用存储在存储器140中的各种程序和数据来控制用户终端设备100的全面操作。特别是,控制器130可以运行导航程序,并且提供在上述各种示范性实施例中说明的导航方法。
显示器110、检测器120和控制器130已经在上面详细说明,并且将省略重复描述。
通信单元150是根据各种类型的通信方法与各种类型的外部设备通信的组件。通信芯片150包括Wi-Fi芯片151、蓝牙芯片152、无线通信芯片153和NFC芯片154。
Wi-Fi芯片151和蓝牙芯片152分别通过Wi-Fi方法和蓝牙方法来执行通信。当Wi-Fi芯片151或蓝牙芯片152被使用时,各种通信信息诸如子系统标识(SSID)和会话密钥被首先交换,然后在通过使用通信信息连接通信之后可以发送和接收各种信息。无线通信芯片153指的是根据诸如IEEE、Zigbee、第3代(3G)、第3代合作伙伴计划(3GPP)、长期演进(LTE)等的各种通信标准来执行通信的芯片。NFC芯片154指的是通过NFC方法来操作的芯片,其中NFC方法使用诸如135kHz、13.56MHz、433MHz、860~960MHz、2.45GHz等的各种射频识别(RF-ID)频带当中的13.56MHz频带。
控制器130通过使用通信单元150来与各种外部设备执行通信。当用户终端设备100不包括地图数据或导航数据库时,控制器130可以通过使用通信单元150来从外部服务器接收地图数据或其它位置信息。另外,当图像没有被存储在存储器140中时,控制器130可以从服务器下载图像。
通信单元150可以直接与非服务器的外部用户终端设备通信,并且可以分享由用户选择的移动路径或各种图像。具体地,分享菜单可以被显示在地图屏幕上。用户能够通过选择分享菜单来输入分享命令。当用户输入分享命令时,显示在地图上的图像或移动路径可以通过通信单元150被发送到其它用户终端设备并与其分享。
GPS芯片161是用于通过从GPS卫星接收GPS信号来计算用户终端设备100的当前位置的组件。当导航功能被选择时,控制器130可以通过使用GPS芯片161来确定用户终端设备100的当前位置,并且可以自动地将当前位置设定为出发点。
视频处理器162是用于处理通过通信单元150接收的内容或在存储器140中存储的内容中包括的视频数据的组件。视频处理器162可以执行对视频数据的各种图像处理操作,诸如解码、缩放、噪声过滤、帧速率转换和分辨率转换。当图像是照片或移动图像内容时,视频处理器162可以对内容执行前述图像处理,并且可以将内容转换为可以进一步显示在地图屏幕上的形式。
音频处理器163是用于处理通过通信单元150接收的内容或在存储器140中存储的内容中包括的音频数据的组件。音频处理器163可以执行对音频数据的各种处理操作,诸如解码、放大和噪声过滤。音频处理器163可以生成在导航功能被运行时所需要的各种语音引导消息或通知声音。
当多媒体内容播放程序被运行时,控制器130可以通过运行视频处理器162和音频处理器163来播放内容。显示器110可以显示由视频处理器162生成的图像帧。
另外,扬声器167输出由音频处理器163生成的音频数据。具体地,扬声器167可以在导航功能被运行的同时输出各种语音引导消息或通知声音。
按钮164可以是各种类型的按钮,包括物理按钮、触摸板和轮,其被安装在用户终端设备100的主体的外表面的任意区域上,诸如前部分、侧部分和后部分。
麦克风165是用于接收并转换用户语音或其它声音为音频数据的组件。控制器130可以使用在呼叫的同时通过麦克风165输入的用户语音,或者可以将用户语音转换为音频数据,并且将转换的音频数据存储在存储器140中。
相机166是用于根据用户控制来拍摄静止图像或移动图像的组件。相机166可以被实现为包括前相机和后相机的多个相机。
当用户终端设备100包括相机166和麦克风165时,控制器130可以根据通过麦克风165输入的用户语音或者通过相机166识别到的用户动作来执行控制操作。即,用户终端设备100可以在动作控制模式或语音控制模式中操作。当用户终端设备100在动作控制模式中操作时,控制器130通过激活相机166来拍摄用户,追踪用户的动作的变化,并且执行与动作对应的控制操作。当用户终端设备100在语音控制模式中操作时,控制器130可以分析通过麦克风165输入的用户语音,并且可以在根据分析的用户语音来执行控制操作的语音识别模式中操作。
在支持动作控制模式或语音控制模式的用户终端设备100中,语音识别技术或动作识别技术可以被应用在上述各种示范性实施例中。
例如,当用户执行被设定为触发控制操作的动作手势,其中控制操作诸如用于运行导航功能的操作或者用于选择目的地的操作时,控制器130可以执行与动作手势匹配的控制操作。另外,当用户发音目的地的名称时,控制器130可以通过分析发音来识别出目的地的名称,并且可以立即搜索用于识别出的目的地的移动路径。
动作检测器168是用于感测用户终端设备100的主体的动作的组件。即,用户终端设备100可以在各个方向上旋转或倾斜。动作检测器168通过使用包括地磁检测器、陀螺仪检测器、加速度计等的各种检测器中的至少一个,可以感测动作特性,诸如旋转方向、旋转角度、倾斜度等。
此外,虽然在图24中未示出,但是根据示范性实施例,用户终端设备100还可以包括通用串行总线(USB)连接器可以连接到的USB端口、用于连接到各种外部端(诸如耳机、鼠标)的各种外部输入端口,和局域网(LAN)、接收和处理DMB信号的数字多媒体广播(DMB)芯片等。
如上指定的,用户终端设备100包括通信单元150,用户可以与其它用户分享存储在他/她的用户终端设备中的照片、存储在其它用户终端设备中的照片以及存储在网络服务器或云服务器中的照片。在这种情况中,在运行导航功能时可用的图像的数量可以大大增加,因而,更多各种图像可以被显示。另外,可以与其它用户分享图像之外的其它各种信息,诸如关于用户频繁搜索的目的地的信息,或者关于具有更好的路况的路径的信息。
在下文中,将详细说明通过与其它设备的通信来提供更多的各种服务的示范性实施例。
图25是用于说明根据另一示范性实施例的用户终端设备的显示方法的视图。根据图25,用户能够通过附上地图和照片来发送邮件、信使和文本消息。
具体地,当用户运行信使或邮件程序时,控制器130显示运行屏幕2500。当用户从运行屏幕2500选择特定的菜单时,控制器130显示属于所选择的菜单的子菜单的列表2510。列表2510可以包括地图可以附上的菜单2511。
当用户选择菜单2511时,控制器130显示地图屏幕2520。地图屏幕2520可以基于用户终端设备100的当前位置来显示,但是不限于此。例如,地图屏幕2520可以基于由用户选择的位置来显示。
当地图屏幕2520被显示时,用户能够在地图屏幕2520之内选择随机位置和方向。图25示出根据示范性实施例的在方向(d4)上触摸并拖动或轻弹点(a)的状态。当位置和方向根据用户操纵而被确定时,控制器130在地图屏幕2520上或在地图2520的旁边添加在该位置处在该方向上拍摄的图像2530,并且生成校正的地图。
校正的地图可以显示图形图像2540,该图形图像2540表示与当前显示的图像2530对应的位置和方向。另外,虽然未示出,但是校正的地图可以显示用于附上、编辑和存储伴随图像或取消伴随图像的生成的各种菜单(未示出)。当用户选择附上菜单(未示出)时,控制器130将校正的地图附到邮件、信使、文本消息等。因此,用户能够与其他用户分享地图和图像。当用户选择存储菜单时,控制器130将校正的地图存储在存储器中。因此,必要时,可以在任何时间使用存储在存储器中的校正的地图。
其间,用户可以在地图屏幕2520或图像2530上添加期望的图片或手迹。
图26示出用户在地图屏幕2520或图像2530上添加各种图片和手迹的状态。用户通过使用诸如手指或笔的输入工具来在地图屏幕2520或图像2530上画各种对象2550,诸如图片和手迹。因此,可以生成还包括用户画的对象2550的地图屏幕。
图27示出与其它人分享地图的方法。图27示出发送和接收信使的屏幕的示例。如图27中所示,在图25中说明的方法中,控制器130可以在与其他人交换信使的同时生成和发送图像被附到的地图2710。在这种情况中,控制器130可以通过向其添加合适的图片或手迹来发送地图或图像,如图26中说明的。另外,当存在先前生成并存储的地图时,控制器130可以立即选择并发送该地图。
因此,以下变得可能:向另一方提供在实际的道路上的景色以及地图上的位置,以便另一方能够更容易地使用地图或图像。
另外,用户终端设备100可以用各种方法与其它设备分享数据。举例来说,用户终端设备100可以通过使用NFC方法的蓝牙方法来直接与其它设备分享数据,而不经过服务器。因此,用户能够直接与另一方分享图像被添加到的地图。
图28是用于说明在用户终端设备之间分享数据的方法的视图。根据图28,第一用户终端设备100-1可以根据用户操纵显示地图屏幕2800。图28示出包括移动路径2810和沿着移动路径所看见的多个图像2820-1至2820-4的地图屏幕2800被显示的状态。虽然图28示出包括移动路径2810的地图屏幕2800,但是当仅位置和方向被确定时,仅包括图像而没有移动路径的地图屏幕可以被显示,如在上述其它示范性实施例中。
用户能够选择地图屏幕2800并且输入分享命令。因此,所选择的地图屏幕2800可以被发送到第二用户终端设备100-2。
其间,通过使用存储在第一用户终端设备100-1中的地址列表或者由用户输入的电话号码,控制器130可以通过通信网络分享地图屏幕2800。或者,控制器130可以通过各种服务器来分享数据。
在下文中,将详细说明能够通过使用服务器来分享数据的网络系统的配置和操作。
图29是示出根据示范性实施例的网络系统的配置的视图。根据图29,网络系统包括多个用户终端设备100-1至100-3以及服务器2900。
虽然图29仅示出三个用户终端设备100-1至100-3,但是用户终端设备的数量可以变化。用户终端设备100-1至100-3的每个可以被实现为如上所述的各种配置,并且将省略其详细描述。
服务器2900可以向用户终端设备100-1至100-3的每个提供图像。具体地,当导航程序被运行,并且在地图之内位置和方向被确定或移动路径被确定时,用户终端设备100-1至100-3的每个向服务器2900请求在与其对应的方向上的图像。服务器2900向用户终端设备100-1至100-3发送所请求的图像。
服务器2900可以被实现为网络服务器、云服务器和其它各种服务器。
要被存储在服务器2900中的图像可以通过运营服务器2900的商业运营者来获得,或者可以由在服务器2900中注册的用户终端设备100-1至100-3的每个上传。
图30是用于说明在图29中的网络系统中运行的分享方法的时序图。
根据图30,当在作为连接到服务器2900的多个用户终端设备中的一个的第一用户终端设备100-1中拍摄图像(S3010)时,根据用户的选择,照片图像可以被上传到服务器2900(S3015和S3020)。服务器2900可以将上传的照片图像存储为图像(S3025)。照片图像可以包括移动图像以及静止图像。
另外,当拍摄照片时,用户终端设备100-1至100-3的每个可以将照片的数据与关于照片数据的元数据一起发送。元数据可以包括各种数据,诸如关于摄影照片的点的位置坐标信息、拍摄日期、关于在拍摄被执行时的用户终端设备的方位信息、照片的名称、关于拍摄照片的人的标识信息、应用到照片的拍摄选项等。
除了第一用户终端设备100-1上传的那些之外,服务器2900可以存储由其它用户终端设备100-2和100-3上传的图像及其元数据。服务器2900可以将每个照片图像分类和存储为各种类别,诸如区域、商业类型、用户等。
在这种状态中,当导航功能在第二用户终端设备100-2中被运行(S3030),并且目的地被确定(S3035)时,根据示范性实施例,第二用户终端设备100-2可以确定从当前位置到目的地的移动路径及其移动方向(S3040)。
第二用户终端设备100-2向服务器2900发送关于所确定的移动路径和移动方向的信息(S3045)。服务器2900在关于在移动路径中包括的位置处拍摄的照片的信息当中搜索与移动方向匹配的视角拍摄的图像(S3050)。
服务器2900发送搜索到的图像到第二用户终端设备100-2(S3055)。第二用户终端设备100-2可以在地图屏幕上进一步将发送的图像与移动路径一起显示(S3060)。可以如上说明地不同地实现显示图像的方法。
其间,虽然图30示出仅图像可以被上传到服务器2900并被使用,但是其它移动路径信息和地图也可以被上传到服务器2900并与其他用户分享。
当移动路径信息被提供时,网络系统可以是导航服务提供系统。即,网络系统可以被实现为各种类型的系统,诸如导航服务提供系统、地图提供系统、照片提供系统等。
图31是示出在图29中的网络系统中使用的服务器的示例的框图。根据图31,服务器2900包括网络通信单元2910、服务器控制器2920和数据库2930。
网络通信单元2910是用于根据各种通信方法与用户终端设备100-1至100-3执行通信的组件。
数据库2930是用于存储由用户上传的各种数据的组件。如上说明的,所接收的数据可以包括各种数据,诸如图像数据及其元数据、移动路径、目的地信息、地图等。此外,用户能够通过服务器2900分享各种导航数据,包括被频繁地指定为目的地的优选点或优选路径、存储在用户终端设备中的联系人信息等。
当各种数据通过网络通信单元2910被上传时,服务器控制器2920根据元数据来分类每个数据,并且将数据记录在数据库2930中。
随后,当搜索图像的请求从通过网络通信单元2910连接的用户终端设备被发送时,服务器控制器2920从数据库2930搜索与搜索请求对应的图像。另外,服务器控制器2920发送搜索的图像到用户终端设备。如上所述,即使在单一点上执行拍摄,根据视点也可能存在多个照片。例如,当假设存在东、西、南和北四个方向时,根据每个点,可能存在通过旋转90度来拍摄的四个图像。服务器控制器2920可以在图像当中选择与移动方向对应的仅仅一个图像,并且可以发送所选择的图像到用户终端设备。在这种情况中,每点仅一个图像被发送,并且即使用户终端设备之间的通信带宽不宽,提供很多点的图像也是可能的。
其间,服务器2900可以向用户频繁下载的图像分配高偏好。因此,当移动路径包括点的外围时,具有高偏好的图像可以被提供为表示吸引或用户优选的地点的图像。
虽然图29至图31示出服务器2900存储图像的系统,并且每个用户终端设备向服务器2900上传或下载图像,但是用户能够用其它各种方法来分享各种导航数据。
即,用NFC方法或蓝牙方法在用户终端设备之间直接分享导航数据是可能的。或者,当用户终端设备100-1在服务器2900中存储数据并且向另一用户终端设备100-2提供存储位置的链接地址时,用户终端设备100-2可以通过使用该链接地址直接访问服务器2900来接收导航数据。具体地,当数据是移动图像时,通过使用诸如flash、mov、avi、mpg等的压缩方法,将移动图像压缩成低容量的数据并分享是可能的。此外,通过使用社交网络服务、电子邮件、文本消息等来分享导航数据是可能的。
其间,如上所述,在各种类型的设备当中,用户终端设备100可以被实现为安装在汽车上的汽车控制系统。
图32是用于说明被实现为汽车控制系统的用户终端设备的操作的视图。根据图32,汽车控制系统3200可以被实现为包括透明显示器3210的形式。
透明显示器3210指的是具有透明度的面板,因而它的后背景被反射。可以使用透明氧化物半导体薄膜来实现透明显示设备。图32示出汽车的前玻璃窗被实现为透明显示器3210的情况。
当用户通过安装在汽车内部的接口(未示出)运行导航功能并且输入目的地时,汽车控制系统3200搜索到目的地的移动路径。当搜索到移动路径时,汽车控制系统3200从它自己的存储器(未示出)或外部服务器搜索与移动路径及其移动方向对应的图像。在合适的时间点,汽车控制系统3200可以在透明显示器3210上显示搜索到的图像3220。
例如,当存在在点A上拍摄的图像,并且汽车到达点A周围时,在点A上拍摄的图像可以被显示。或者,当车辆到达用户频繁地偏离路径的区域时,与区域对应的图像可以被显示。
图33是示出汽车控制系统3200的示例的框图。根据图33,汽车控制系统3200包括透明显示器3210、显示器3220、控制器3230、存储器3240和接口3250。
如上所述,透明显示器3210是可以以透明度来显示各种对象的组件。
透明显示器3210可以被实现为各种形式,诸如透明LCD类型、透明薄膜电荧光板(TFEL)类型、透明OLED类型、投影类型等。
透明LCD类型指的是通过从当前使用的LCD设备去除背光单元,并且安装几个偏振片、光学薄膜、透明薄膜晶体管、透明电极等来实现的透明显示设备。透明LCD设备具有实现了大型透明显示器同时由于偏振片或光学薄膜而透光度减小的优点,并且光学效率下降,因为代替背光单元而使用环境光。透明TFEL类型指的是使用交流电型-无机薄膜EL(AC-TFEL)显示器的设备,其由透明电极、无机荧光物质和绝缘薄膜组成。AC-TFEL是加速的电子通过穿过无机荧光物质刺激荧光物质以便发射光的显示器。当透明显示器3210被实现为透明TFEL类型时,控制器130可以通过调整电极以投影到合适的位置来确定显示信息的位置。无机荧光物质和绝缘薄膜具有透明度,因而实现非常透明的显示器是可能的。此外,透明的OLED类型指的是使用能够自动发射光的OLED的透明显示设备。有机发光层是透明的,因而,当透明电极被采用为两个电极时,将透明OLED实现为透明的设备是可能的。当电子和正穴从有机发光层的两侧注入时,OLED发射光,以便在有机发光层之内彼此组合。基于这样的原理,当电子和正穴被注入到期望的位置中时,透明的OLED设备显示信息。投影类型指的是通过使用光源、透镜、镜子等朝向透明屏幕投影光来显示各种对象的设备。透明显示器3210可以被实现为如上指定的各种形式。
显示器3220是用于与透明显示器3210分开地显示各种界面屏幕的组件。显示器3220可以被部署在汽车的中心仪表盘上。
存储器3240可以存储在操作汽车控制系统中使用的各种程序和数据。举例来说,存储器3240可以存储导航程序以及在导航程序中使用的地图和导航数据。
接口3250是用于连接到各种外部设备的组件。接口3250可以通过USB接口直接连接到外部设备,并且可以根据包括蓝牙方法、Wi-Fi方法、IEEE、NFC方法等的各种通信方法与外部设备通信。
控制器3230控制汽车控制系统的全面操作。当导航功能被显示在显示器3220的屏幕上的菜单或分开的按钮(未示出)的操纵选择时,控制器3230运行存储在存储器3240中的导航程序。控制器3230在显示器3220上显示地图屏幕。在这种状态中,当用户输入目的地或移动路径时,控制器3230从存储器3240和外部服务器中搜索与移动路径及其移动方向对应的图像。控制器3230在透明显示器3210上与显示在显示器3220上的地图屏幕分开地显示搜索到的图像。
一般,在车辆在运行的同时使用由汽车控制系统3200提供的导航功能,因而,用户可能不会看穿显示在显示器上的图像。因此,根据本示范性实施例的汽车控制系统3200在透明显示器3210上显示图像以便用户能够找到正确的路。具体地,当需要精确的路径引导时,例如,当用户位于十字路口或航向偏差频繁地发生的点时,控制器3230可以显示图像。另外,在由于雾或雨而能见度受限的环境中,控制器3230也可以在透明显示器3210上显示图像。
虽然图32和图33示出在透明显示器3210上显示图像的状态,但是根据示范性实施例,在汽车控制系统3200中,显示图像以与显示器3220的地图屏幕重叠是可能的。
其间,已经以图像以照片的形式被添加到地图屏幕的情况作为示例描述了上述各种示范性实施例,但是图像可以以其它AR(增强现实)对象而非照片的形式被提供。AR指的是将表示虚拟对象或信息的对象与实际图像或地图屏幕合成,以便被看成在原始环境中存在的对象的技术。另外,用户终端设备可以通过与外部设备互相作用来提供导航功能。
图34是用于说明通过与汽车控制系统相互作用来执行导航功能的方法的视图。
根据图34,当导航功能被运行时,用户终端设备100通过使用GPS芯片161来确定用户终端设备100的当前位置。用户终端设备100生成与所确定的位置和移动方向对应的图像和AR对象,并且向汽车控制系统3200发送数据。
汽车控制系统3200可以将从用户终端设备100接收的各种AR对象3410、3420和图像3430显示到透明显示器3210。
汽车控制系统3200可以从用户终端设备100接收关于各种AR对象3410、3420的信息和关于对象将显示的位置及其时序的信息,并且可以基于所述信息来显示AR对象3410、3420。
其间,这样的AR对象可以被显示为与显示在用户终端设备100上的图像重叠。图35是示出根据示范性实施例的用户终端设备100的操作的视图。
根据图35,用户终端设备100可以将在特定方向上看见的图像3500显示为与地图屏幕重叠或者在地图屏幕的旁边。在这种情况中,控制器130也可以显示在图像上显示的各种建筑或地标的AR对象3510。具体地,当用户从地图屏幕选择位置和方向或者选择移动路径时,控制器130显示与用户操纵对应的图像。这样,控制器130基于显示图像的点从各种服务器300、600和2900接收关于周围的地形的AR对象信息,并且将该信息显示为与图像重叠。
在这种情况中,以下是可能的:允许用户关于主题选择类别来显示其AR对象,以便仅属于所选择的类别(例如,商店、餐馆、电影院、加油站等)的AR对象可以被选择性地显示以与主题重叠。
或者,以下是可能的:选择性地仅显示具有用户输入的名称的主题的AR对象,或者选择性地仅显示具有通过社交网络(SNS)的高偏好的主题的AR对象。
具体地,如果以图4的示范性实施例实现,则当用户在地图屏幕之内设定随机位置和随机方向时,控制器可以选择在该位置处在该方向上存在的建筑或地形当中具有高偏好的主题,并且可以显示主题的AR对象以与图像重叠。
其间,虽然上述各种示范性实施例已经描述了显示与用户选择的位置、方向或移动路径对应的静止图像或移动图像的方法,但是可以显示诸如AR对象的其它各种对象。
另外,虽然上面已经详细描述了显示与用户选择的位置、方向和移动路径对应的图像的各种示范性实施例,但是可以选择除了位置、方向和移动路径之外的各种选项。例如,除了位置和方向之外,也可以选择诸如用户的眼睛方向、高度、移动速度、视角等的各种选项。用户终端设备100可以选择性地显示与各种选项对应的图像。
另外,可以根据各种示范性实施例来执行选项设置。例如,可以在屏幕上显示用于设定各种选项的UI菜单。另外,选项设置可以被实现以便用户选择显示在屏幕上的菜单或者被部署在用户终端设备100的主体上的按钮,然后通过拖动屏幕来选择各种选项。此外,可以实现使得根据如下来选择选项:施加用户操纵的区域、用户操纵的压力、操纵速度、执行用户操纵的点数等等。
图36和图37是根据示范性实施例的关于显示与额外的选项对应的图像的示范性实施例的视图。
图36示出用户在地图屏幕3600之内触摸随机点(a)并且选择随机方向(d1)的状态。当根据触摸点和拖动方向确定了位置(a)和方向(d1)时,控制器130在触摸点的旁边显示用于选择眼睛方向的UI菜单3610。虽然图36仅示出分别表示0度、30度和50度的菜单3611、3612和3613,但是UI菜单3610的类型不限于此,并且UI菜单3610可以以各种形式来显示并且可以具有各种数量。
在图36中,当用户选择0度菜单3611时,控制器130显示图像3620,其中在与地表面平行的方向上看在方向(d1)上的对象B1、B2。具体地,控制器130可以将关于眼睛方向(即,0度)的信息与位置信息和方向信息一起发送给服务器300,从而,可以接收和显示与眼睛方向对应的图像。
在图36中,当用户选择30度菜单3612或50度菜单3613时,控制器130显示在比地表面的角度高30度的方向上拍摄的图像3630,或者在比地表面的角度高50度的方向上拍摄的图像3640。因此,有可能看见前建筑B1的上侧或者被前建筑B1覆盖的建筑B2的外表。
图37是用于说明根据示范性实施例的用户通过触摸地图屏幕3700来选择高度的方法的视图。根据图37,用户通过在地图屏幕3700之内触摸和拖动随机点T1来选择位置和方向。另外,用户能够选择在地图屏幕3700之内显示的菜单3710。当菜单3710被选择时,控制器130可以根据之后执行的用户操纵T2来确定与菜单3710对应的选项值。即,当在高度选择菜单3710被选择之后触摸和拖动屏幕的用户操纵T2被执行时,控制器130确定拖动的距离。控制器130可以根据拖动的距离来确定用户的高度。
在图37中,当拖动的距离短于某一距离s1时,高度被选择为0m,当拖动的距离长于s1并且短于s2时,高度被选择为30m,并且当拖动的距离长于s2时,高度被选择为半空中(midair)。控制器130可以显示与用户的拖动轨迹的拖动距离对应的高度。图37示出以下操作:当拖动的距离短于某一距离s1时,显示0m的消息,当拖动的距离长于s1并且短于s2时,显示30m的消息,并且当拖动的距离长于s2时,显示“半空中”的消息。
当用户拖动被释放时,控制器130选择与直到拖动操作被释放为止的拖动距离对应的高度。在图37中,当0m的高度被选择时,控制器130在地图屏幕3700上显示从地表面看见的图像3720。当30m的高度被选择时,控制器130在地图屏幕3700上显示在比地表面高30m的位置上看见的图像3730。当与半空中对应的区域被选择时,控制器130显示在与半空中对应的区域看见的图像3740。
如上所述,控制器130可以向服务器300发送关于用户选择的位置、方向和高度的信息,并且可以从服务器300接收并显示与其对应的图像。
除了以上之外,根据示范性实施例,可能存在各种选项,并且选择选项的方法可以被不同地修改。
如上,用户终端设备可以通过被实现为各种形式而提供各种服务。必要时,上述示范性实施例可以通过与彼此组合来被实现。
根据上述各种示范性实施例的用户终端设备的显示方法和导航方法可以被存储在非瞬时性可读介质中。非瞬时性可读介质可以通过被安装在各种设备上而被使用。
举例来说,用于执行显示地图屏幕、感测用户操纵并且当目的地通过用户操纵被确定时,在地图上额外地显示到目的地的移动路径以及在移动路径的方向上看见的图像的操作的程序代码可以被存储在非瞬时性可读介质中并被提供。
另外,当通过显示地图并感测用户操纵的操作和用户操纵在地图之内确定位置和方向时,用于执行选择在所确定的位置处在所确定的方向上拍摄的图像并且在地图上额外地显示所选择的图像的操作的程序代码可以被存储在非瞬时性可读介质中,并被提供。
非瞬时性计算机可读介质不是短时段地存储数据的介质,诸如寄存器、高速缓冲或存储器,而是半永久性地存储数据并且通过设备可读的介质。具体地,非瞬时性计算机可读介质可以是光盘(CD)、数字多功能盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、存储卡和只读存储器(ROM)等。另外,如上面给出的,虽然已经示出和描述了几个可描述的示范性实施例,但是本公开不限于上述特定的示范性实施例,并且可以被本公开所属领域技术人员不同地修改和实现,而不脱离在权利要求中声明的本公开的本质,并且这样的修改不应该与本公开的技术构思或前景分开地理解。

Claims (14)

1.一种用户终端设备,包括:
显示器,被配置为显示地图屏幕;
检测器,被配置为检测用户操纵;以及
控制器,被配置为,当路径通过用户操纵被输入在地图屏幕上时,基于路径确定移动路径,以及控制显示器在地图屏幕上显示移动路径以及对应于移动路径的多个位置的多个摄影图像,
其中,该控制器被配置为,当通过用户操纵在地图屏幕上画线以输入路径时,基于线的轨迹的方向来确定该移动路径,并且
其中,该多个摄影图像是在移动路径的方向上在该移动路径包括的多个位置上拍摄的图像,以及
其中,所述多个摄影图像的连续摄影图像之间的空间间隔根据在移动路线上该用户终端设备的用户的移动速度来变化。
2.如权利要求1所述的设备,其中控制器被配置为,当位置和路径通过用户操纵被输入在地图屏幕上时,控制显示器显示基于位置和与路径对应的方向可见的摄影图像。
3.如权利要求1所述的设备,其中控制器被配置为,当位置和方向通过用户操纵被输入在地图屏幕上时,控制显示器显示基于位置和方向可见的摄影图像。
4.如权利要求3所述的设备,其中控制器被配置为控制显示器顺序地显示所述多个摄影图像。
5.如权利要求3所述的设备,其中控制器被配置为,当目的地根据用户操纵被确定时,控制显示器在地图屏幕上显示从用户终端设备的当前位置到目的地的移动路径,并且在地图屏幕上额外地显示与移动路径对应的多个摄影图像当中的、在移动路径的方向上的至少一个摄影图像。
6.如权利要求3所述的设备,其中用户操纵包括用户在地图屏幕上画文本,控制器被配置为通过识别文本来确定目的地,并且控制器被配置为自动地搜索从当前位置到目的地的移动路径。
7.如权利要求4所述的设备,其中用户操纵包括沿着移动路径移动的笔悬停操纵,并且控制器被配置为控制显示器根据笔悬停操纵顺序地在移动路径上的每个点处显示在移动方向上的摄影图像。
8.如权利要求4所述的设备,其中控制器被配置为从移动路径选择满足预定条件的点,并且控制器被配置为控制显示器在每个选择的点处显示在移动路径的方向上的至少一个摄影图像。
9.如权利要求3所述的设备,其中用户操纵包括触摸点和拖动或轻弹操纵,
其中控制器被配置为,当用户操纵在地图被触摸之后在地图上在某一方向上被拖动或轻弹时,基于触摸点来确定位置,并且基于拖动的方向或轻弹的方向来确定方向。
10.如权利要求9所述的设备,其中控制器被配置为基于用户操纵的触摸强度、触摸区域、触摸时间、移动距离和移动速度中的至少一个来从放大、尺寸、显示位置和拍摄角度当中选择至少一个,并且被配置为控制显示器在地图上显示所选择的拍摄的图像。
11.如权利要求9所述的设备,其中用户操纵进一步包括使用笔的操纵。
12.如权利要求3所述的设备,还包括:
存储器;
其中控制器被配置为从存储在存储器中的摄影图像当中选择与位置和方向对应的摄影图像。
13.一种用户终端设备的显示方法,包括:
显示地图屏幕;
检测用户操纵;并且
当路径通过用户操纵被输入在地图屏幕上时,基于路径确定移动路径,以及在地图屏幕上显示移动路径和对应于移动路径的多个位置的多个摄影图像,
其中,确定该移动路径包括,当通过用户操纵画线以输入路径时,基于线的轨迹的方向来确定该移动路径,
其中,该多个摄影图像是在移动路径的方向上在该移动路径包括的多个位置上拍摄的图像,以及
其中,所述多个摄影图像的连续摄影图像之间的空间间隔根据在移动路线上该用户终端设备的用户的移动速度来变化。
14.一种非瞬时性计算机可读介质,其上存储程序代码以用于实现如权利要求13所述的方法。
CN201480045600.8A 2013-08-19 2014-08-19 用于显示地图的用户终端设备及其方法 Active CN105452811B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010511254.5A CN111678532B (zh) 2013-08-19 2014-08-19 用于显示地图的用户终端设备及其方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2013-0097822 2013-08-19
KR1020130097822A KR102222336B1 (ko) 2013-08-19 2013-08-19 맵 화면을 디스플레이 하는 사용자 단말 장치 및 그 디스플레이 방법
PCT/KR2014/007659 WO2015026122A1 (en) 2013-08-19 2014-08-19 User terminal device for displaying map and method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202010511254.5A Division CN111678532B (zh) 2013-08-19 2014-08-19 用于显示地图的用户终端设备及其方法

Publications (2)

Publication Number Publication Date
CN105452811A CN105452811A (zh) 2016-03-30
CN105452811B true CN105452811B (zh) 2020-07-03

Family

ID=52467412

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201480045600.8A Active CN105452811B (zh) 2013-08-19 2014-08-19 用于显示地图的用户终端设备及其方法
CN202010511254.5A Active CN111678532B (zh) 2013-08-19 2014-08-19 用于显示地图的用户终端设备及其方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202010511254.5A Active CN111678532B (zh) 2013-08-19 2014-08-19 用于显示地图的用户终端设备及其方法

Country Status (5)

Country Link
US (2) US10066958B2 (zh)
EP (2) EP3598073A1 (zh)
KR (1) KR102222336B1 (zh)
CN (2) CN105452811B (zh)
WO (1) WO2015026122A1 (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11288633B2 (en) * 2010-04-02 2022-03-29 Vivint, Inc. Door to door sales management tool
US8812345B2 (en) 2010-04-02 2014-08-19 Vivint, Inc. Door to door sales management tool
KR102150289B1 (ko) 2012-08-30 2020-09-01 삼성전자주식회사 사용자 단말에서 사용자 인터페이스 장치 및 이를 지원하는 방법
US10126913B1 (en) * 2013-11-05 2018-11-13 Google Llc Interactive digital map including context-based photographic imagery
KR20170004702A (ko) 2015-07-03 2017-01-11 엘지전자 주식회사 디스플레이 장치 및 제어 방법
US9464914B1 (en) 2015-09-01 2016-10-11 International Business Machines Corporation Landmark navigation
JP2017096635A (ja) * 2015-11-18 2017-06-01 アイシン・エィ・ダブリュ株式会社 目的地設定システム、方法およびプログラム
KR20170059760A (ko) * 2015-11-23 2017-05-31 엘지전자 주식회사 이동단말기 및 그 제어방법
CN107015246B (zh) * 2016-01-28 2021-03-30 华为技术有限公司 一种基于场景共享的导航协助方法及终端
US10054460B2 (en) 2016-03-28 2018-08-21 Microsoft Technology Licensing, Llc Processing map-related user input to detect route requests
TWI626428B (zh) 2016-03-29 2018-06-11 群邁通訊股份有限公司 路線規劃系統及方法
KR102535056B1 (ko) * 2016-08-03 2023-05-22 삼성전자 주식회사 전자 장치 및 터치 인식 방법
KR102576654B1 (ko) * 2016-10-18 2023-09-11 삼성전자주식회사 전자 장치 및 그의 제어 방법
CN106484907A (zh) * 2016-10-24 2017-03-08 重庆联导金宏实业有限公司 基于地图引擎的快速搜索显示方法、装置以及地图引擎
CN106534775A (zh) * 2016-11-03 2017-03-22 北京小米移动软件有限公司 视频剪辑、视频拍摄方法及装置
US10907984B2 (en) 2017-06-02 2021-02-02 Apple Inc. Presenting suggested routes based on local route ranking
TWI687112B (zh) * 2018-01-29 2020-03-01 光禾感知科技股份有限公司 分散式室內定位系統及其方法
CN108801240A (zh) * 2018-03-30 2018-11-13 浙江大华技术股份有限公司 一种导航方法、装置及系统
KR20190140657A (ko) * 2018-06-12 2019-12-20 삼성전자주식회사 오브젝트를 생성하는 전자장치 및 시스템
CN109115238B (zh) * 2018-07-04 2021-03-23 百度在线网络技术(北京)有限公司 地图显示方法、装置及设备
US10627974B1 (en) * 2019-03-29 2020-04-21 Champ Vision Display Inc. Touch display apparatus and backlight module
US11164196B1 (en) * 2019-04-29 2021-11-02 Vivint, Inc. Techniques for lead scoring
KR102136807B1 (ko) * 2019-05-24 2020-07-22 서울시립대학교 산학협력단 도시 인프라를 이용한 맞춤형 조깅경로 제공장치 및 맞춤형 조깅경로 제공방법
EP4081759A4 (en) * 2019-12-27 2023-10-25 INTEL Corporation APPARATUS AND METHOD FOR ROUTE PLANNING
CN113132531B (zh) * 2020-01-14 2022-06-24 北京小米移动软件有限公司 照片展示方法、装置及存储介质
CN111750872B (zh) * 2020-06-17 2021-04-13 北京嘀嘀无限科技发展有限公司 信息交互方法、装置、电子设备和计算机可读存储介质
CN114475246B (zh) * 2021-12-31 2024-03-26 浙江零跑科技股份有限公司 一种带有显示保护的智能座舱仪表显示系统和显示方法
CN117032603A (zh) * 2022-05-09 2023-11-10 株式会社和冠 计算机

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1880918A (zh) * 2005-06-14 2006-12-20 Lg电子株式会社 匹配相机拍摄图像和便携终端中地图数据及旅程导航方法
CN101166952A (zh) * 2005-03-09 2008-04-23 通腾科技股份有限公司 用于编译组合图片并将其显示于显示器上的设备及方法
CN101197094A (zh) * 2006-12-08 2008-06-11 高德软件有限公司 电子地图中连续分歧的引导方法
CN101246018A (zh) * 2008-03-14 2008-08-20 凯立德欣技术(深圳)有限公司 一种支持图片的道路显示方法、装置及导航设备
CN102457617A (zh) * 2010-10-18 2012-05-16 Lg电子株式会社 移动终端以及在其中管理对象相关信息的方法
CN102804181A (zh) * 2009-10-28 2012-11-28 谷歌公司 导航查询

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7865306B2 (en) * 2000-09-28 2011-01-04 Michael Mays Devices, methods, and systems for managing route-related information
JP2002258740A (ja) * 2001-03-02 2002-09-11 Mixed Reality Systems Laboratory Inc 画像記録装置及び画像再生装置とそれらの方法
JP3603118B2 (ja) * 2001-06-08 2004-12-22 東京大学長 擬似3次元空間表現システム、擬似3次元空間構築システム、ゲームシステム、及び電子地図提供システム
JP2004053351A (ja) * 2002-07-18 2004-02-19 Fujitsu Ten Ltd ナビゲーション装置
JP2005077214A (ja) * 2003-08-29 2005-03-24 Mitsubishi Electric Corp 道案内システム
US7272498B2 (en) * 2004-09-30 2007-09-18 Scenera Technologies, Llc Method for incorporating images with a user perspective in navigation
US7474959B2 (en) * 2004-10-08 2009-01-06 Scenera Technologies, Llc Method for providing recommendations using image, location data, and annotations
US20070150188A1 (en) * 2005-05-27 2007-06-28 Outland Research, Llc First-person video-based travel planning system
ES2404164T3 (es) * 2005-06-06 2013-05-24 Tomtom International B.V. Dispositivo de navegación con cámara de información
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US20070055441A1 (en) * 2005-08-12 2007-03-08 Facet Technology Corp. System for associating pre-recorded images with routing information in a navigation system
US8332141B2 (en) * 2007-06-15 2012-12-11 Microsoft Corporation Route modifications
US8204684B2 (en) * 2007-06-28 2012-06-19 Apple Inc. Adaptive mobile device navigation
US8019536B2 (en) * 2007-12-28 2011-09-13 At&T Intellectual Property I, L.P. Methods, devices, and computer program products for geo-tagged photographic image augmented GPS navigation
JP2011515717A (ja) * 2008-03-24 2011-05-19 グーグル インコーポレイテッド 運転指図内のパノラマ画像
US8359157B2 (en) * 2008-04-07 2013-01-22 Microsoft Corporation Computing navigation device with enhanced route directions view
US20090289937A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Multi-scale navigational visualtization
US8291341B2 (en) * 2008-05-28 2012-10-16 Google Inc. Accelerated panning user interface interactions
US20090313124A1 (en) * 2008-06-13 2009-12-17 Blue Dasher Technologies Inc. Street-Level Routing
KR101612785B1 (ko) * 2009-06-01 2016-04-26 엘지전자 주식회사 차량 내비게이션 방법 및 그 장치
US9477400B2 (en) * 2009-06-11 2016-10-25 Alpine Electronics, Inc. Method and apparatus for navigation system for selecting icons and application area by hand drawing on map image
KR101635016B1 (ko) * 2009-11-19 2016-06-30 엘지전자 주식회사 이동단말기 및 그의 지도 검색 방법
JP5482320B2 (ja) * 2010-03-11 2014-05-07 株式会社デンソー 車両用運転支援装置
WO2011124271A1 (en) 2010-04-09 2011-10-13 Tomtom International B.V. Method of generating a route
KR101135098B1 (ko) 2010-05-10 2012-04-16 창원대학교 산학협력단 지도 기반 사진 제공 시스템 및 방법
US9582166B2 (en) * 2010-05-16 2017-02-28 Nokia Technologies Oy Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
KR101695812B1 (ko) * 2010-06-07 2017-01-23 엘지전자 주식회사 이동단말기 및 그 제어방법
US8762041B2 (en) * 2010-06-21 2014-06-24 Blackberry Limited Method, device and system for presenting navigational information
US20120092266A1 (en) * 2010-10-14 2012-04-19 Motorola Mobility, Inc. Method and Apparatus for Providing a Navigation Path on a Touch Display of a Portable Device
US9664527B2 (en) * 2011-02-25 2017-05-30 Nokia Technologies Oy Method and apparatus for providing route information in image media
US20130050131A1 (en) * 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
JP5978610B2 (ja) * 2011-12-09 2016-08-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20130162665A1 (en) * 2011-12-21 2013-06-27 James D. Lynch Image view in mapping
US9047691B2 (en) * 2012-06-05 2015-06-02 Apple Inc. Route display and review
CN103017750B (zh) * 2012-07-03 2015-11-18 腾讯科技(深圳)有限公司 移动终端导航方法及相应的导航系统
JP6159113B2 (ja) * 2013-03-22 2017-07-05 ヤフー株式会社 案内サーバ、案内方法および案内プログラム
US9404766B2 (en) * 2013-06-08 2016-08-02 Apple Inc. Navigation peek ahead and behind in a navigation application
CN103822626B (zh) * 2014-02-17 2018-04-10 惠州Tcl移动通信有限公司 移动终端及其生成数字地图或导航方法、装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101166952A (zh) * 2005-03-09 2008-04-23 通腾科技股份有限公司 用于编译组合图片并将其显示于显示器上的设备及方法
CN1880918A (zh) * 2005-06-14 2006-12-20 Lg电子株式会社 匹配相机拍摄图像和便携终端中地图数据及旅程导航方法
CN101197094A (zh) * 2006-12-08 2008-06-11 高德软件有限公司 电子地图中连续分歧的引导方法
CN101246018A (zh) * 2008-03-14 2008-08-20 凯立德欣技术(深圳)有限公司 一种支持图片的道路显示方法、装置及导航设备
CN102804181A (zh) * 2009-10-28 2012-11-28 谷歌公司 导航查询
CN102457617A (zh) * 2010-10-18 2012-05-16 Lg电子株式会社 移动终端以及在其中管理对象相关信息的方法

Also Published As

Publication number Publication date
EP3036619A1 (en) 2016-06-29
EP3036619A4 (en) 2017-04-05
US20180356247A1 (en) 2018-12-13
KR102222336B1 (ko) 2021-03-04
CN105452811A (zh) 2016-03-30
KR20150020850A (ko) 2015-02-27
US20150051835A1 (en) 2015-02-19
CN111678532B (zh) 2023-10-13
EP3036619B1 (en) 2019-08-07
US10883849B2 (en) 2021-01-05
US10066958B2 (en) 2018-09-04
EP3598073A1 (en) 2020-01-22
CN111678532A (zh) 2020-09-18
WO2015026122A1 (en) 2015-02-26

Similar Documents

Publication Publication Date Title
CN105452811B (zh) 用于显示地图的用户终端设备及其方法
US10788977B2 (en) System and method for displaying information on transparent display device
US9741149B2 (en) User terminal device for providing animation effect and display method thereof
US10257670B2 (en) Portable device and method for providing notice information thereof
US9406281B2 (en) Multi-display device and method of controlling thereof
KR102164453B1 (ko) 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체
KR102098058B1 (ko) 뷰 모드에서 정보 제공 방법 및 장치
US11054978B2 (en) Portable device and method for controlling brightness of the same
US20160309090A1 (en) Display apparatus and method for controlling the same
US20150253968A1 (en) Portable terminal and method of enlarging and displaying contents
US10353988B2 (en) Electronic device and method for displaying webpage using the same
US9245366B1 (en) Label placement for complex geographic polygons
US10572148B2 (en) Electronic device for displaying keypad and keypad displaying method thereof
KR20160015843A (ko) 디스플레이 장치 및 그 디스플레이 장치를 제어하는 방법
US20160162183A1 (en) Device and method for receiving character input through the same
WO2014102455A2 (en) Methods, apparatuses, and computer program products for retrieving views extending a user´s line of sight
US10055092B2 (en) Electronic device and method of displaying object
CN107710147B (zh) 能够控制其亮度的便携式终端及其亮度控制方法
KR20140037753A (ko) 투명 디스플레이 기기상에 정보를 디스플레이 하는 시스템 및 방법
US9109921B1 (en) Contextual based navigation element

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant