CN103312958B - 客户机终端、服务器以及程序 - Google Patents

客户机终端、服务器以及程序 Download PDF

Info

Publication number
CN103312958B
CN103312958B CN201310057576.7A CN201310057576A CN103312958B CN 103312958 B CN103312958 B CN 103312958B CN 201310057576 A CN201310057576 A CN 201310057576A CN 103312958 B CN103312958 B CN 103312958B
Authority
CN
China
Prior art keywords
special object
user
client terminal
visual angle
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310057576.7A
Other languages
English (en)
Other versions
CN103312958A (zh
Inventor
中村隆俊
佐古耀郎
佐古耀一郎
丹下明
竹原充
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN103312958A publication Critical patent/CN103312958A/zh
Application granted granted Critical
Publication of CN103312958B publication Critical patent/CN103312958B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本申请涉及客户机终端、服务器以及程序。提供了一种客户机终端,包括:确定单元,基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和引导单元,当所述确定单元确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户。

Description

客户机终端、服务器以及程序
技术领域
本公开涉及客户机终端、服务器以及程序。
背景技术
近年来,广泛使用将被摄对象图像作为数字图像信号存储并保持在记录介质中的数字照相机。用户将数字照相机指向被摄对象,视觉识别取景器上显示的图像,并在特定时机按下快门按钮。
在此,JP 2006-260338A作为与上述照相机相关的技术提出了一种能够获取特定被摄对象的过去和将来的图像的数字照相机。JP 2006-260338A中描述的数字照相机将例如由用户指示的年、月、日以及数字照相机过去的位置的信息发送给服务器。然后,数字照相机从服务器获取与所指示的年、月以及日对应的图像。数字照相机然后显示从服务器根据用户按压快门按钮的时机而获得的图像。
发明内容
JP 2006-260338A中描述的数字照相机通过显示用户正在看的过去/将来的风景图像,允许用户体验虚拟时间旅行。
然而,在使用典型数字照相机或2006-260338A中描述的数字照相机时,用户必须将数字照相机指向他/她希望拍摄的被摄对象,因而他/她必须搜索他/她能够视觉地识别被摄对象的方向。
此外,当用户通过观察取景器来搜索被摄对象时,不会向用户呈现与取景器中未示出的被摄对象有关的信息。
因此,本公开提出了一种新颖且改进的客户机终端、服务器以及程序,其能够引导用户到用户能够视觉地识别特定对象的方向。
根据本公开的一个实施例,提供了一种客户机终端,包括:确定单元,基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和引导单元,当所述确定单元确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户。
根据本公开的另一实施例,提供了一种服务器,包括:存储单元,存储与特定对象相关联的位置信息;接收单元,从客户机终端接收用于估计用户视觉地识别的视角的视觉识别信息;确定单元,基于所述位置信息确定所述特定对象是否被包括在基于所述视觉识别信息估计的用户视觉地识别的视角中;以及发送单元,当所述确定单元确定所述特定对象不被包括在用户视觉地识别的视角中时,向所述客户机终端发送用于引导用户的控制信息。
根据上述本公开的实施例,提供了一种记录有程序的记录介质,所述程序被配置成使得计算机执行:确定处理,基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和引导处理,当所述确定处理确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户。
根据上述本公开的实施例,提供了一种记录有程序的记录介质,所述程序被配置成使得计算机执行:接收处理,从客户机终端接收用于估计用户视觉地识别的视角的视觉识别信息;确定处理,基于与所述特定对象相关联的位置信息,确定所述特定对象是否被包括在基于所述视觉识别信息估计的用户视觉地识别的视角中;以及发送处理,当所述确定处理确定所述特定对象不被包括在用户视觉地识别的视角中时,向所述客户机终端发送用于引导用户的控制信息。
根据本公开的实施例,如上所述,可以将用户引导到能够视觉地识别特定对象的方向。
附图说明
图1是描述根据本公开一个实施例的引导系统的概要的图;
图2是说明根据第一实施例的数字照相机的结构的框图;
图3是说明根据第一实施例的对象DB中存储的数据示例的图;
图4是说明根据第一实施例的数字照相机的视角与每个对象之间的位置关系的图;
图5是说明根据第一实施例的引导处理的流程图;
图6是说明根据第一实施例的引导画面示例的图;
图7是说明根据第一实施例的另一引导画面示例的图;
图8是说明根据第一实施例的按照移位度的大小的引导图像显示示例的列表的图;
图9是描述根据第一实施例的引导画面响应于图像拍摄方向的变化的转变的图;
图10是说明根据第一实施例的在引导实际图像中未示出的对象的情况下的引导画面示例的图;
图11是描述根据第二实施例的引导系统的总体结构的图;
图12是说明根据第二实施例的引导处理的流程图;
图13是说明根据第三实施例的用于将用户引导到车辆的前玻璃的图像的显示示例的图;
图14是描述根据第四实施例的通过直接使电流流过用户身体来引导用户的引导方法的图;以及
图15是说明根据第四实施例的引导装置的结构的框图。
具体实施方式
以下,将参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,用相同的标号表示具有基本相同的功能和结构的结构要素,并略去对这些结构要素的重复说明。
按以下顺序描述本公开的实施例。
1.根据本公开实施例的引导系统的概要
2.实施例
2-1.第一实施例
2-1-1.数字照相机的结构
2-1-2.引导处理
2-1-3.引导画面示例
2-2.第二实施例
2-3.第三实施例
2-4.第四实施例
3.结论
<1.根据本公开实施例的引导系统的概要>
首先,将参照图1描述根据本公开一个实施例的引导系统的概要。如图1所示,在作为客户机终端的示例的数字照相机1中,将通过拍摄实际空间而获得的图像(实际图像210)显示在根据本公开实施例的引导系统中的取景器(显示单元21)上。然后,将作为用于把用户引导到用户视觉地识别的视角中未包括(具体来说,实际图像210中未示出)的特定对象的引导图像的缩略图S1至S4显示在画面的与相应缩略图所表示的特定对象位于的方向对应的端部。
更具体来说,数字照相机1基于根据与特定对象相关的位置信息而计算出的视角、所述位置信息、图像拍摄方向以及数字照相机1的图像拍摄参数(变焦率等),确定是否包括特定对象。当数字照相机1确定在用户视觉地识别的视角中不包括被摄对象时,数字照相机1还确定用户应当面向哪个方向以视觉地识别对象,将该方向通知用户,并将他/她引导到该方向。
如上所述,根据本实施例,用户能够直观地掌握存在特定对象的方向。用户还能够通过沿数字照相机1通知的方向上移动数字照相机1,来调节特定对象在实际空间中的位置与图像拍摄方向之间的移位。
下面参照多个实施例具体描述这种引导系统。尽管在每个实施例中将数字照相机1示出为客户机终端,但是根据本实施例的客户机终端并不限于此。例如,客户机终端可以是摄像机、带有照相机的智能电话、PDA(个人数字助手)、PC(个人计算机)、便携式电话、便携式音乐播放器、便携式图像处理设备、便携式游戏机、望远镜、双筒望远镜等。此外,根据本实施例的客户机终端并不限于带有照相机的设备。例如,客户机终端也可应用于能够获得设备的位置信息和方向信息的设备,如带有GPS或方向传感器的设备。
<2.实施例>
[2-1.第一实施例]
在数字照相机1中,根据第一实施例的引导系统确定用户视觉地识别的视角是否包括特定对象。如果不包括特定对象,那么将用户引导到用户应当面对从而视觉地识别特定对象的方向。以下顺序地描述根据这种第一实施例的数字照相机1的结构、引导处理等。
(2-1-1.数字照相机的结构)
图2是说明根据本实施例的数字照相机1的结构的框图。如图2所示,数字照相机1具有CPU 10、ROM 11、RAM 12、方向传感器13、GPS测量单元14、照相机模块15、操作输入单元16、对象DB 17、拍摄图像存储器19、显示控制单元20、显示单元21以及网络接口(I/F)22。以下描述每个结构。
方向传感器13检测照相机模块15的透镜光学器件的光轴的方向(即,图像拍摄方向),并输出与所检测到的图像拍摄方向有关的信息(方向信息)。此外,在此作为客户机终端的一个示例给出具有照相机模块15的数字照相机1,但是如上所述,根据本实施例的客户机终端并不限于具有照相机的装置。当方向传感器13是没有照相机的客户机终端时,可以作为方向信息输出客户机终端的给定部分面对的方向。
GPS(全球定位系统)测量单元14从GPS卫星接收无线电波,检测数字照相机1的位置,并输出所检测到的位置信息。GPS测量单元14是基于外部获得的信号来检测数字照相机1的位置的位置信息获取单元的一个示例。位置信息获取单元可以通过往来于WiFi、便携式电话、PHS、智能电话等或者通过近场通信等进行传输,来检测位置。
照相机模块15包括图像传感器、包括成像透镜的光学器件以及拍摄图像信号处理单元。照相机模块15作为数字信号输出拍摄图像的数据。此外,使用CCD(电荷耦合器件)成像器或CMOS(互补金属氧化物半导体)成像器来实现图像传感器。
操作输入单元16是诸如快门按钮之类的一组物体键、变焦拨盘以及用于检测用户执行的各种操作的各种开关、层叠在显示单元21上的触摸面板等。CPU 10根据ROM 11中的程序,响应于来自操作输入单元16的用户操作输入而执行处理。
对象DB 17是将包括人工对象和自然对象在内的对象与其位置信息相关联地存储的存储单元。对象DB 17还可以将对象与表示对象的类别的类别信息相关联地存储,作为与对象有关的信息。此外,对象DB 17可以将对象与表示对象的缩略图、字母、图形等相关联地存储,作为与对象有关的信息。
在此,图3示出了对象DB17中存储的数据示例。如图3所示,位置信息(例如,纬度和经度)P-1至P-4和类别信息与相应的对象相关联。
如图3所示,例如,表示“A门”的位置的位置信息P-1和表示类别“门”的类别信息与“A门”相关联。此外,如图3所示,位置信息P-2和表示类别“建筑物”的类别信息与“B建筑物”相关联。位置信息P-3和表示类别“宾馆”的类别信息与“C宾馆”相关联。位置信息P-4和表示类别“塔”的类别信息与“D塔”相关联。
使用诸如卡型存储器之类的闪速存储器作为拍摄图像存储器19。拍摄图像存储器19还可以是诸如DVD(数字多功能盘)等的记录介质。此外,拍摄图像存储器19不必是这种可移动存储介质,而可以是硬盘装置。
拍摄图像存储器19可以根据快门按钮的操作时机,作为拍摄图像存储从照相机模块15顺序地输出的被摄对象的图像。
CPU 10控制数字照相机1的每个结构。根据本实施例的CPU 10还具有确定单元的功能,确定单元基于与特定对象相关联的位置信息,确定该特定对象是否被包括在用户视觉地识别的视角中。具体来说,例如,CPU 10基于根据从GPS测量单元14输出的位置信息而计算出的视角、从方向传感器13输出的图像拍摄方向、以及从照相机模块15输出的图像拍摄参数(变焦率等),确定是否包括特定对象。
当CPU 10确定特定对象未被包括在用户视觉地识别的视角中时,CPU 10还可以确定用户应当面对哪个方向以视觉地识别特定对象。在本实施例中,用户应当面对从而视觉地识别特定对象的方向是存在基于数字照相机1的位置信息和图像拍摄方向以及与特定对象相关联的位置信息而确定的特定对象的方向。CPU 10将由此确定的存在特定对象的方向输出给显示控制单元20,显示控制单元20接着将该方向通知给用户,从而引导用户。
根据本实施例的CPU 10还具有计算单元的功能,计算单元计算存在特定对象的方向与数字照相机1的图像拍摄方向之间的移位度(差值)。CPU 10将计算出的移位度输出给显示控制单元20。显示控制单元20在引导用户时使用该移位度。
以下参照图4详细描述CPU 10对移位度的计算。图4是说明数字照相机1的视角与每个对象之间的位置关系的图。例如,如图4所示,CPU 10基于与对象DB 17中存储的每个对象相关联的位置信息以及数字照相机1的位置信息和图像拍摄方向,识别特定对象O1至O4的排列。然后,当计算出的视角C是如图4所示的范围时,CPU 10可以确定特定对象O1至O4未被包括在视角C中。
此外,CPU 10计算特定对象O1至O4中的每一个存在的方向与图像拍摄方向M之间的差值(角度A),作为移位度。例如,如图4所示,对象O1存在的方向与图像拍摄方向M之间移位了A1度。此外,如图4所示,对象O2存在的方向与图像拍摄方向M之间移位了A2度,对象O3存在的方向与图像拍摄方向M之间移位了A3度,对象O4存在的方向与图像拍摄方向M之间移位了A4度。
在本实施例中,尽管作为计算存在特定对象的方向(用户应当面对的方向或引导方向)的移位度的方法示例,计算图像拍摄方向M(视角C的中心)与存在特定对象的方向之间的差值,但是本实施例并不限于此。例如,CPU 10可以计算视角C的边界与存在特定对象的方向之间的差值,作为移位度。
此外,尽管在本实施例中CPU 10从对象DB 17提取与特定对象相关联的位置信息,但是根据本公开的实施例的从其获取位置信息的源并不限于此。例如,CPU 10可以通过网络I/F22从网络上的特定服务器或者不定数量的服务器提取与特定对象相关联的位置信息。
除了用于执行图像拍摄功能的程序以外,ROM 11还存储用于识别用户表示的位置的处理以及确定在用户视觉地识别的视角内是否包括特定对象的处理的程序等。ROM 11中存储的程序还由CPU 10使用RAM 12作为工作区来执行。
显示控制单元20在CPU 10基于ROM 11中的程序的控制下,执行对显示单元21中显示的显示画面的显示内容的显示控制。根据本实施例的显示控制单元20还具有引导单元的功能,所述引导单元提供与从CPU 10输出的用户应当面对的方向(存在特定对象的方向)有关的信息的,并引导用户。此外,显示控制单元20能够基于从CPU 10输出的移位度以更详细的方式引导用户。
除了菜单画面以外,根据显示控制单元20的控制,显示单元21还显示从照相机模块15输出的被摄对象的图像、实时的各种操作画面等以及拍摄图像存储器19中存储的拍摄图像。显示单元21是使用LCD(液晶显示器)、OLED(有机发光二极管)等实现的。
根据本实施例的显示单元21还在显示控制单元20(引导单元)的控制下,显示用于引导用户面对他/她应当面对从而视觉地识别特定对象的方向的引导画面。在以下“2-1-3.引导画面示例”中详细描述根据本实施例的显示单元21显示的引导画面。
尽管显示控制单元20控制本实施例中的数字照相机1中包括的显示单元21的显示,但是根据本实施例控制的装置并不限于显示单元21。例如,显示控制单元20可以控制连接到数字照相机1的外部显示装置的显示。
网络I/F 22是用于往来于外部装置传输数据和接收数据的通信模块。例如,根据本实施例的网络I/F 22可以从网络获取与特定对象相关联的位置信息。
以上详细描述了根据第一实施例的数字照相机1的结构。接着,将参照图5描述根据本实施例的引导处理。
(2-1-2.引导处理)
图5是说明根据本实施例的引导处理的流程图。如图5所示,首先,在步骤S103中,CPU 10从GPS测量单元14获取装置(数字照相机1)的位置信息,并从方向传感器13获取图像拍摄方向。
接着,在步骤S106中,CPU 10确定在用户视觉地识别的视角中是否包括特定对象。如上所述,CPU 10基于例如根据位置信息计算的视角、数字照相机1的图像拍摄方向以及从照相机模块15输出的图像拍摄参数,确定是否包括特定对象。
接着,在步骤S109中,当在步骤S106中确定视角中不包括特定对象时,CPU 10确定用户应当面对以视觉地识别特定对象的方向(存在特定对象的方向)。
此外,在步骤S112中,CPU 10计算图像拍摄方向与存在特定对象的方向之间的差值(移位度)。
接着,在步骤S115中,显示控制单元20基于存在特定对象的方向和所述差值,对引导画面执行显示控制。
以上详细描述了根据本实施例的基本引导处理。接着,将详细描述步骤S115中显示的引导画面。
(2-1-3.引导画面示例)
在显示有通过拍摄实际空间而获得的拍摄图像(以下,也称为实际图像)的画面上,显示控制单元20可以通过将表示特定对象的缩略图、字母、图形等重叠并显示在画面的与相应于存在特定对象的方向的方向(引导方向)对应的端部上,来引导用户。以下将给出用于以这种方式引导用户的重叠并显示在实际图像上的引导图像示例。
缩略图显示
首先,参照图1描述引导图像是特定对象的缩略图的情况。如图1所示,显示控制单元20将存在于左方向的特定对象的缩略图S1和S2重叠并显示在实际图像210的左端。显示控制单元20还将存在于右方向的特定对象的缩略图S3和S4重叠并显示在实际图像210的右端。
显示控制单元20还根据存在特定对象的方向的移位度,控制特定对象的缩略图的大小。
例如,当缩略图S1表示的“A门”的移位度小于缩略图S2表示的“B建筑物”时,显示控制单元20控制显示,使得缩略图S1大于缩略图S2,如图1所示。
因此,用户能够直观地理解如果将数字照相机1向左倾斜一点点,缩略图S1表示的“A门”就会被包括在视角中,如果将数字照相机1进一步向左倾斜,缩略图S2表示的“B建筑物”就会被包括在视角中。
还可以对右端显示的缩略图S3和S4执行类似的操作。当缩略图S3表示的“C宾馆”的移位度小于缩略图S4表示的“D塔”时,显示控制单元20控制显示,使得缩略图S3大于缩略图S4。
因此,用户能够直观地理解如果将数字照相机1向右倾斜一点点,缩略图S3表示的“C宾馆”就会被包括在视角中,如果将数字照相机1进一步向右倾斜,缩略图S4表示的“D塔”就会被包括在视角中。
缩略图显示和箭头显示
接着,参照图6所示的显示示例40,描述引导图像是特定对象的缩略图和箭头的情况。图6所示的显示示例40与图1所示的上述示例的类似之处在于将特定对象的缩略图显示在画面的与存在特定对象的方向对应的端部。在图1所示的示例中根据存在特定对象的方向的移位度来控制缩略图的大小,而在图6所示的显示示例40中根据移位度来控制与缩略图一起显示的箭头的大小、长度、线宽等。
例如,当缩略图S1表示的“A门”的移位度小于缩略图S2表示的“B建筑物”时,相比于与缩略图S2一起显示的箭头A2,与缩略图S1一起显示的箭头A1较大、较短并且宽度较宽。
因此,用户能够直观地理解为了将特定对象包括在视角中应当将数字照相机1的取向移位多大程度。
此外,可以对右端显示的缩略图S3和箭头A3以及缩略图S4和箭头A4执行类似的操作。
缩略图的部分显示
在上述示例中重叠并显示表示特定对象的缩略图的整个范围,但是根据本公开的实施例的引导图像的显示示例并不限于此。例如,可以根据移位度来控制缩略图的显示比例。
例如,如图6的显示示例42所示,当缩略图S1表示的“A门”的移位度小于缩略图S2表示的“B建筑物”时,显示控制单元20可以将缩略图S1的显示比例增大为大于缩略图S2的显示比例。
因此,用户能够直观地理解为了将特定对象包括在视角中应当将数字照相机1的取向移位多大程度。
引导画面的分离
在上述每个示例中在实际图像上重叠并显示引导图像,但是根据本公开的实施例的引导方法并不限于此。例如,实际图像的显示画面和显示引导图像的引导画面可以分离。
图7说明了在显示单元21的显示画面中,实际图像的显示画面21-2和引导图像的显示画面21-1和21-3分离开的情况的示例。如图7所示,显示控制单元20将位于左方向上的特定对象的缩略图S1和S2显示在显示画面的左端的引导画面21-1上。同时,显示控制单元20将位于右方向上的特定对象的缩略图S3和S4显示在显示画面的右端的引导画面21-3上。
如上所述,防止引导图像覆盖在实际图像210上,使得用户能够直观地掌握存在特定对象的方向,视觉地识别实际图像210上示出的所有被摄对象。
根据移位度的显示控制
上述每个示例已经描述了根据移位度控制特定对象的缩略图的大小、箭头的大小、长度以及线宽的情况,但是根据本公开的实施例的根据移位度对引导图像的显示控制并不限于此。
例如,根据本实施例的显示控制单元20可以根据移位度,控制引导图像(如缩略图、箭头等)的浓淡(gradation)和透明度、轮廓的强调(emphasis)和阴影。图8说明了根据移位度的引导图像的显示示例的列表。
如图8的上一行所示,显示控制单元20可以对缩略图执行显示控制,使得当移位度较小时,缩略图变暗,透明度变低,或者在轮廓上放置更重的强调。在这种情况下,如图8的下一行所示,显示控制单元20可以对缩略图执行显示控制,使得当移位度较大时,缩略图变亮,透明度变高,或者轮廓变得更模糊。
响应于图像拍摄方向的变化的画面转变
根据上述本实施例的数字照相机1通过每当数字照相机1的位置信息和图像拍摄方向改变时重复图5所示的流程,改变引导图像。以下参照图9描述在图像拍摄方向改变的情况下的引导图像的显示控制。
图9是根据本实施例的响应于图像拍摄方向的变化的画面转变的图。如图9的上图所示,根据特定对象位于的方向和移位度,首先在实际图像210-1上重叠并显示特定对象的缩略图S1至S4。
基于特定对象的缩略图S1至S4的显示位置或大小,用户能够直观地掌握特定对象从实际图像移位的方向和程度。例如,当用户希望拍摄重叠并显示在实际图像210-1的右端的缩略图S3所表示的“C宾馆”的图像时,用户将数字照相机1的机身指向右方向,使得缩略图S3被显示在实际图像的中央。
一旦数字照相机1的机身的取向(图像拍摄方向)变化了,“C宾馆”位于的方向或图像拍摄方向与“C宾馆”位于的方向之间的移位度也变化。因此,显示控制单元20根据这些变化移动缩略图S3的显示位置,如图9的下图所示。即使“C宾馆”被包括在视角中并且示出在实际图像中,显示控制单元20也可以根据与图像拍摄方向(见图4所示的图像拍摄方向M)的移位度来保持移动显示位置。
然后,通过调节数字照相机1的机身的取向,使得缩略图S3移动到实际图像210-2的中央,可以使缩略图S3表示的“C宾馆”被示出在实际图像210-2的中央。如上所述,用户可以通过基于引导图像来改变数字照相机1的机身的取向,来校正特定对象在实际空间中的位置(实际位置)与图像拍摄方向之间的移位。
隐藏在被摄对象后方的对象的引导
接着,将描述由于特定对象隐藏在另一对象(被摄对象)后方因而在实际图像中未示出特定对象的情况下的引导。
考虑以上参照图4已经描述的确定特定对象是否被包括在视角中的方法,CPU 10确定在视角C以外的对象不包括在视角中。然而,根据本公开实施例的确定方法并不限于此。例如,即使对象在视角C内,根据本实施例的CPU 10也可以确定实际图像中未示出的对象不被包括在用户视觉地识别的视角(视场)中。
参照图10描述在以这种方式引导实际图像中未示出的对象的情况下的引导画面示例。在图10所示的示例中,缩略图8所表示的特定对象未示出在实际图像中,因为特定对象隐藏在另一对象后方。因此,如图10所示,显示控制单元20可以与缩略图S8一起显示箭头A8以将用户引导到另一对象的后方。
这使得用户能够直观地理解,用户能够通过移动到另一对象的后方来拍摄特定对象的图像。
过滤的引导图像的显示
在此,根据本实施例的CPU 10可以通过基于与对象相关联的类别信息或其他相关信息(它是否为著名景点?等等)执行过滤,来确定应当将用户引导到的存在特定对象的方向。
例如,数字照相机1可以优选地将用户引导到著名景点、著名建筑物等,或者可以优选地将用户引导到基于用户指示的搜索键已经搜索过的对象(例如,与类别信息“建筑物”相关联的对象)。
数字照相机1还可以通过收集用户的操作历史的统计数据,优选地将用户引导到与用户的偏好匹配的对象。用户的操作历史可以是表示用户变焦曾经到哪个对象、哪个对象曾经在焦、或者曾经拍摄了哪个对象的历史。
例如,当用户曾经拍摄了特定对象的图像时,数字照相机1可以将用户引导到存在关联于与所述特定对象的类别详细相同的类别信息(例如,类别信息:塔)的另一对象的方向。
此外,根据本实施例的数字照相机1可以通过改变引导图像的颜色或引导图像的闪烁,使所显示的引导图像中的用于将用户引导到著名景点、著名建筑物等的引导图像比其他引导图像更醒目。
以上详细描述了第一实施例。根据本实施例,数字照相机1确定特定对象是否被包括在用户视觉地识别的视角中。当不包括特定对象时,数字照相机1确定用户应当面对以视觉地识别特定对象的方向,并将用户引导到该方向。
因此,用户能够直观地掌握存在特定对象的方向,并将数字照相机1指向特定对象。
[2-2.第二实施例]
在上述第一实施例中,数字照相机1确定特定对象是否被包括在用户视觉地识别的视角中。但是,并不限于数字照相机1方执行这种确定。以下参照图11和12详细描述服务器方确定特定对象是否被包括在数字照相机1视觉地识别的视角中的第二实施例。
(2-2-1.系统结构)
图11是描述根据第二实施例的引导系统的总体结构的图。如图11所示,根据本实施例的引导系统包括数字照相机1’和服务器3。此外,数字照相机1’和服务器3通过网路4彼此连接。
根据本实施例的数字照相机1’的结构不必具有图2所示的结构的对象DB 17。此外,CPU 10不必具有确定单元的功能。在本实施例中,服务器3具有对象DB和确定单元,如下所述。
如图11所示,根据本实施例的服务器3通信单元31、确定单元33以及对象DB 35。通信单元31通过网络4连接到数字照相机1’,并发送和接收数据。具体来说,例如,通信单元31从数字照相机1’接收用于估计用户视觉地识别的视角的视觉识别信息。
通信单元31还向数字照相机1’发送用于将用户引导到用户应当面对以视觉地识别未包括在用户视觉地识别的视角中的特定对象的方向的引导信息。
确定单元33具有与根据上述第一实施例的数字照相机1的CPU 10中包括的确定单元的功能类似的功能。具体来说,确定单元33确定特定对象是否被包括在用户视觉地识别的视角中。当确定特定对象未被包括在视角中时,确定单元33还确定用户应当面对以视觉地识别特定对象的方向(即,存在特定对象的方向),并将所确定的方向输出给通信单元31。
此外,当还接收到数字照相机1’的图像拍摄方向时,确定单元33计算图像拍摄方向与存在特定对象的方向之间的移位度,并将所计算出的移位度输出给通信单元31。
类似于根据上述第一实施例的数字照相机1的对象DB 17,对象DB35是将包括人工对象和自然对象在内的对象与其位置信息相关联地存储的存储单元(见图3)。类似于上述对象DB 17,对象DB 35还可以将对象与表示对象的类别的类别信息或表示对象的缩略图、字母、图形等相关联地存储。
以上描述了根据第二实施例的引导系统的系统结构。接着,参照图12描述根据本实施例的引导处理。
(2-2-2.引导处理)
图12是说明根据本实施例的引导处理的流程图。如图12所示,首先,在步骤S123中,数字照相机1’通过使用GPS测量单元14获取装置的位置信息,而且接着通过方向传感器13获取图像拍摄方向。
接着,在步骤S126中,数字照相机1’向服务器3发送用于估计(计算)用户视觉地识别的视角的视觉识别信息。在此,要发送给服务器3的视觉识别信息可以是从照相机模块15输出的图像拍摄参数。数字照相机1’还可以将在步骤S123中获得的位置信息和图像拍摄方向包括在要发送的视觉识别信息中。
此外,在步骤S129中,服务器3的确定单元33确定特定对象是否被包括在用户视觉地识别的视角中,所述视角是基于通信单元31从数字照相机1’接收的视觉识别信息而估计的。确定单元33还确定特定对象是否被包括在拍摄图像中。例如,确定单元33可以基于数字照相机1’的位置信息、图像拍摄方向以及估计的视角,确定是否包括特定对象。确定单元33还可以通过对拍摄图像执行模式识别来确定是否包括特定对象。
接着,当在步骤S129中确定特定对象未包括在视角中时,确定单元33在步骤S131中确定用户应当面对以视觉地识别特定对象的方向(存在特定对象的方向)。
此外,在步骤S132中,确定单元33计算数字照相机1’的图像拍摄方向与存在特定对象的方向之间的差值(移位度)。
接着,在步骤S135中,服务器3向数字照相机1’发送用于将用户引导到存在特定对象的方向的控制信息。在此,要传送给数字照相机1’的控制信息包括例如存在特定对象的方向、存在特定对象的方向与图像拍摄方向之间的移位度(差值)、以及引导图像(对象DB35中存储的对象的缩略图等)。
然后,在步骤S138中,数字照相机1’基于存在特定对象的方向和从服务器3接收的控制信息中包括的所述差值,对引导画面执行显示控制。
以上详细描述了根据第二实施例的系统结构和引导处理。根据本实施例,服务器3确定特定对象是否被包括在用户视觉地识别的视角中。如果不包括特定对象,那么服务器3确定用户应当面对以视觉地识别特定对象的方向,并将该方向发送给数字照相机1’。然后,数字照相机1’被告知了所述方向,从而可以引导用户。
[2-3.第三实施例]
在上述每个实施例中,作为客户机终端的示例给出了数字照相机1和1’,并在显示单元21上显示引导画面,从而向用户通知存在特定对象的方向。然而,根据本公开实施例的引导系统并不限于此。例如,根据本公开的实施例的引导系统可以应用于交通工具或自行车的导航系统。
例如,当在从交通工具的前玻璃看到的前方的风景(对应于第一和第二实施例中描述的实际图像)上重叠并显示引导图像时,可以告知用户未包括在用户视觉地识别的视角中的特定对象的方向,由此引导用户。
可以想到将引导图像重叠并显示在景色的前方的各种技术。例如,如图13所示,根据本实施例的客户机终端可以在前玻璃25的与存在相应的对象的方向对应的端部显示缩略图S3至S6。
在这种情况下,在前玻璃25上显示缩略图的方法例如可以是使用投影仪(未示出)将引导图像(缩略图S3至S6)投影在前玻璃25上的方法。所述方法还可以是通过使用具有透明度的显示装置来实现前玻璃25并用显示装置来显示引导图像的方法。
在本实施例中,通过安装在交通工具上的照相机拍摄从前玻璃观看到的前方的风景,并且可以在导航装置上显示通过在所拍摄的图像(实际图像)上重叠并显示引导图像而获得的画面。
[2-4.第四实施例]
此外,尽管在上述每个实施例中通过显示控制来通知用户应当面对的方向从而引导用户,但是根据本公开的实施例的引导方法并不限于此。例如,可以通过音频控制来通知用户应当面对的方向。作为替换方案,除了上述通知以外,还可以对用户施加物理压力或振动,或者使电流流过用户的身体,以引导用户。
以下,参照图14和15详细描述使电流流过用户的身体以引导用户的引导装置(客户机终端)。
图14是描述通过直接使电流流过用户身体来引导用户的引导方法的图。如图14所示,根据本实施例的引导装置5具有附接到用户耳后的一对电极65R和65L。电流从电极65R和65L流到身体以引导用户。
更具体来说,引导装置5根据存在特定对象的方向,使预定电流流到电极65R和65L,并通过经由电极向用户的前庭器官提供电刺激在没有物理加速度的情况下产生加速度感受。由于用户身体随电流流动而在一个方向上倾斜,因此用户能够直观地理解存在特定对象的方向。
接着,参照图15描述根据本实施例的引导装置5的结构。图15是说明根据第四实施例的引导装置5的结构的框图。
如图15所示,引导装置5具有CPU 50、ROM 51、RAM 52、方向传感器53、GPS测量单元54、对象DB 57、网络接口(I/F)62、电流控制单元64以及电极65R和65L。虽然以下将描述每个结构,但是在此略去与已经参照图2描述的数字照相机1的每个结构类似的模块的描述。
根据本实施例的方向传感器53作为方向信息输出引导装置5的给定部分(未示出)面对的方向。
类似于每个上述实施例,根据本实施例的CPU 50还具有确定单元的功能,该功能根据位置信息和方向信息,确定在用户视觉地识别的视角中是否包括特定对象。在此,CPU50可以基于与人类的视野角(angular field of view)有关的信息,估计用户视觉地识别的视角。
类似于每个上述实施例,当确定了在用户视觉地识别的视角中不包括特定对象时,CPU 50(确定单元)还确定用户应当面对以视觉地识别特定对象的方向。
类似于每个上述实施例,CPU 50(确定单元)还具有计算单元的功能,该计算单元计算存在特定对象的方向与方向信息所表示的方向之间的移位度(差值)。
CPU 50向电流控制单元64输出存在特定对象的方向和以这种方式确定的移位度,并使电流从电流控制单元64直接流过身体,以引导用户。
电流控制单元64在CPU 50基于ROM 51中的程序的控制下,控制从电极65R和65L输出的电流的方向和量值,从而电流流过用户并且可以将用户引导到任何方向。
具体来说,由于用户的身体向正方向的电流流向的一侧倾斜,因此电流控制单元64使电流流到用户应当面对的方向(存在特定对象的方向)的一侧的电极65,该方向是从CPU 50输出的。在此,可以将从电流控制单元64流出的电流量设定为例如约1.6mA,使得用户不担心皮肤刺激。
电极65R和65L是要附接在耳后的装置,并且能够使电流直接流过身体。此外,通过电流控制单元64切换电极65R和65L的极性。
如上所述,根据第四实施例,使电流直接流过用户身体,使得可以将用户引导到存在特定对象的方向。
当预先指示特定对象时,用户能够直观地掌握存在所指示的特定对象的方向,因为用户身体向与从附接的电极流动的电流的方向相应的一个方向倾斜。
当用户未预先指示特定对象时,或者当用户指示了多个特定对象时,根据本实施例的引导装置5还可以通过音频控制或显示控制来通知用户他/她被引导到的特定对象。
<3.结论>
如上所述,根据本实施例的引导系统能够将用户引导到能够视觉地识别特定对象的方向,该特定对象未包括在用户视觉地识别的视角中。
尽管参照附图详细描述了本公开的优选实施例,但是本公开并不限于此。对于本领域技术人员显而易见的是,可以作出各种修改或变型,只要它们在所附权利要求及其等同物的技术范围内。应当理解,这种修改或变型也在本公开的技术范围内。
例如,根据本公开的实施例的引导系统不仅可以计算存在特定对象的图4的水平方向与图像拍摄方向之间的移位度,而且可以计算例如垂直方向上的移位度。
因此,根据本公开实施例的引导系统能够引导用户以校正存在特定对象的方向与图像拍摄方向之间的垂直方向上的移位(上下取向的角度)。由于用户能够通过根据所述引导来改变数字照相机1的(上下)取向角度使特定对象显示在实际图像的中央,因此用户变得容易变焦到特定对象。
此外,在根据本公开实施例的引导系统中,移位度越大,作为引导图像显示在画面的端部的缩略图的宽度就越窄(被压缩)。
根据上述实施例的数字照相机1能够在显示单元21的显示区的一部分上显示根据按下快门按钮的时机而拍摄的图像的同时,使用显示单元21的其他显示区作为取景器。
在这种情况下,例如,数字照相机1能够通过拍摄第一个塔的图像并基于第一个塔的类别信息“塔”执行过滤,在显示区的一部分上显示拍摄的图像的同时,将用户引导到关联于相同的类别信息“塔”的第二个塔。
因此,用户能够视觉地比较显示单元21的显示区的一部分上显示的第一个塔与通过基于引导图像移动数字照相机1而获得的实际图像中示出的并且显示在显示单元21的另一显示区上的第二个塔。
此外,本技术还可以如下地构成。
(1)一种客户机终端,包括:
确定单元,基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和
引导单元,当所述确定单元确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户。
(2)根据(1)所述的客户机终端,其中所述引导单元通过基于所述确定单元的确定结果向用户发送通知、对用户身体直接施加压力或者使电流流过身体,来引导用户。
(3)根据(1)或(2)所述的客户机终端,
其中,当所述特定对象未被包括在用户视觉地识别的视角中时,所述确定单元确定用户应当面对以视觉地识别所述特定对象的方向,并且
其中所述引导单元向用户通知所述确定单元所确定的方向。
(4)根据(3)所述的客户机终端,还包括:
图像拍摄单元;以及
显示控制单元,控制所述图像拍摄单元拍摄的拍摄图像的显示,
其中所述显示控制单元通过在所述拍摄图像上重叠并显示用于将用户引导到所述确定单元所确定的方向的引导图像,来实现所述引导单元向用户的通知。
(5)根据(4)所述的客户机终端,其中在显示所述拍摄图像的画面上,所述引导图像被重叠并显示在画面的与所述确定单元所确定的方向对应的端部。
(6)根据(4)或(5)所述的客户机终端,其中所述显示控制单元根据存在所述特定对象并且基于关联于所述特定对象的位置信息的方向与所述图像拍摄单元的图像拍摄方向之间的移位度,控制所述引导图像的大小、浓淡或透明度中的至少一个。
(7)根据(4)至(6)中的任一项所述的客户机终端,其中所述引导图像是所述特定对象的缩略图。
(8)根据(4)至(7)中的任一项所述的客户机终端,
其中所述引导图像是表示所述确定单元所确定的方向的箭头,以及
其中所述显示控制单元根据存在所述特定对象并且基于关联于所述特定对象的位置信息的方向与所述图像拍摄单元的图像拍摄方向之间的移位度,控制所述箭头的大小、长度、线宽、浓淡或透明度中的至少一个。
(9)根据(4)至(8)中的任一项所述的客户机终端,
其中类别信息与所述特定对象相关联,以及
其中所述显示控制单元显示用于将用户引导到用户应当面对以视觉地识别基于所述类别信息过滤的特定对象的方向的引导图像。
(10)一种服务器,包括:
存储单元,存储与特定对象相关联的位置信息;
接收单元,从客户机终端接收用于估计用户视觉地识别的视角的视觉识别信息;
确定单元,基于所述位置信息确定所述特定对象是否被包括在基于所述视觉识别信息估计的用户视觉地识别的视角中;以及
发送单元,当所述确定单元确定所述特定对象不被包括在用户视觉地识别的视角中时,向所述客户机终端发送用于引导用户的控制信息。
(11)一种记录有程序的记录介质,所述程序被配置成使得计算机执行:
确定处理,基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和
引导处理,当所述确定处理确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户。
(12)一种记录有程序的记录介质,所述程序被配置成使得计算机执行:
接收处理,从客户机终端接收用于估计用户视觉地识别的视角的视觉识别信息;
确定处理,基于与所述特定对象相关联的位置信息,确定所述特定对象是否被包括在基于所述视觉识别信息估计的用户视觉地识别的视角中;以及
发送处理,当所述确定处理确定所述特定对象不被包括在用户视觉地识别的视角中时,向所述客户机终端发送用于引导用户的控制信息。
本公开包含与于2012年3月5日在日本专利局提交的日本在先专利申请JP 2012-048144中公开的主题相关的主题,通过引用将其全部内容并入于此。

Claims (14)

1.一种客户机终端,包括:
确定单元,基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和
引导单元,当所述确定单元确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户,
其中基于所述特定对象位于的方向和移位度,在显示画面上重叠并显示特定对象的缩略图以引导用户,其中基于与所述特定对象相关联的位置信息确定所述特定对象位于的方向和移位度,并且
在沿着所述特定对象的方向移动客户机终端以将所述特定对象包含在视角中的情况下,所述缩略图的显示位置被朝着显示画面的中央移动,从而引导用户校正所述特定对象在实际空间中的位置与图像拍摄方向之间的移位。
2.根据权利要求1所述的客户机终端,其中所述引导单元通过基于所述确定单元的确定结果向用户发送通知、对用户身体直接施加压力或者使电流流过身体,来引导用户。
3.根据权利要求1所述的客户机终端,
其中,当所述特定对象未被包括在用户视觉地识别的视角中时,所述确定单元确定用户应当面对以视觉地识别所述特定对象的方向,并且
其中所述引导单元向用户通知所述确定单元所确定的方向。
4.根据权利要求3所述的客户机终端,还包括:
图像拍摄单元;以及
显示控制单元,控制所述图像拍摄单元拍摄的拍摄图像的显示,
其中所述显示控制单元通过在所述拍摄图像上重叠并显示用于将用户引导到所述确定单元所确定的方向的引导图像,来实现所述引导单元向用户的通知。
5.根据权利要求4所述的客户机终端,其中在显示所述拍摄图像的画面上,所述引导图像被重叠并显示在画面的与所述确定单元所确定的方向对应的端部。
6.根据权利要求4所述的客户机终端,其中所述显示控制单元根据所述特定对象位于的并且基于关联于所述特定对象的位置信息的方向与所述图像拍摄单元的图像拍摄方向之间的移位度,控制所述引导图像的大小、浓淡或透明度中的至少一个。
7.根据权利要求4所述的客户机终端,其中所述显示控制单元根据所述特定对象位于的并且基于关联于所述特定对象的位置信息的方向与用户视觉地识别的视角的边界之间的移位度,控制所述引导图像的大小、浓淡或透明度中的至少一个。
8.根据权利要求4所述的客户机终端,其中所述引导图像是所述特定对象的缩略图。
9.根据权利要求4所述的客户机终端,
其中所述引导图像是表示所述确定单元所确定的方向的箭头,以及
其中所述显示控制单元根据所述特定对象位于的并且基于关联于所述特定对象的位置信息的方向与所述图像拍摄单元的图像拍摄方向之间的移位度,控制所述箭头的大小、长度、线宽、浓淡或透明度中的至少一个。
10.根据权利要求4所述的客户机终端,
其中所述引导图像是表示所述确定单元所确定的方向的箭头,以及
其中所述显示控制单元根据所述特定对象位于的并且基于关联于所述特定对象的位置信息的方向与用户视觉地识别的视角的边界之间的移位度,控制所述箭头的大小、长度、线宽、浓淡或透明度中的至少一个。
11.根据权利要求4所述的客户机终端,
其中类别信息与所述特定对象相关联,以及
其中所述显示控制单元显示用于将用户引导到用户应当面对以视觉地识别基于所述类别信息过滤的特定对象的方向的引导图像。
12.一种服务器,包括:
存储单元,存储与特定对象相关联的位置信息;
接收单元,从客户机终端接收用于估计用户视觉地识别的视角的视觉识别信息;
确定单元,基于所述位置信息确定所述特定对象是否被包括在基于所述视觉识别信息估计的用户视觉地识别的视角中;以及
发送单元,当所述确定单元确定所述特定对象不被包括在用户视觉地识别的视角中时,向所述客户机终端发送用于引导用户的控制信息,
其中基于所述特定对象位于的方向和移位度,所述控制信息使得在所述客户机终端的显示画面上重叠并显示特定对象的缩略图以引导用户,其中基于与所述特定对象相关联的位置信息确定所述特定对象位于的方向和移位度,并且
在沿着所述特定对象的方向移动客户机终端以将所述特定对象包含在视角中的情况下,所述缩略图的显示位置被朝着显示画面的中央移动,从而引导用户校正所述特定对象在实际空间中的位置与图像拍摄方向之间的移位。
13.一种引导方法,包括:
基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在用户视觉地识别的视角中;和
当确定所述特定对象未被包括在用户视觉地识别的视角中时,引导用户,
其中基于所述特定对象位于的方向和移位度,在显示画面上重叠并显示特定对象的缩略图以引导用户,其中基于与所述特定对象相关联的位置信息确定所述特定对象位于的方向和移位度,并且
在沿着所述特定对象的方向移动客户机终端以将所述特定对象包含在视角中的情况下,所述缩略图的显示位置被朝着显示画面的中央移动,从而引导用户校正所述特定对象在实际空间中的位置与图像拍摄方向之间的移位。
14.一种引导方法,包括:
从客户机终端接收用于估计用户视觉地识别的视角的视觉识别信息;
基于与特定对象相关联的位置信息,确定所述特定对象是否被包括在基于所述视觉识别信息估计的用户视觉地识别的视角中;以及
当确定所述特定对象不被包括在用户视觉地识别的视角中时,向所述客户机终端发送用于引导用户的控制信息,
其中基于所述特定对象位于的方向和移位度,所述控制信息使得在所述客户机终端的显示画面上重叠并显示特定对象的缩略图以引导用户,其中基于与所述特定对象相关联的位置信息确定所述特定对象位于的方向和移位度,并且
在沿着所述特定对象的方向移动客户机终端以将所述特定对象包含在视角中的情况下,所述缩略图的显示位置被朝着显示画面的中央移动,从而引导用户校正所述特定对象在实际空间中的位置与图像拍摄方向之间的移位。
CN201310057576.7A 2012-03-05 2013-02-25 客户机终端、服务器以及程序 Expired - Fee Related CN103312958B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-048144 2012-03-05
JP2012048144A JP2013183433A (ja) 2012-03-05 2012-03-05 クライアント端末、サーバ、およびプログラム

Publications (2)

Publication Number Publication Date
CN103312958A CN103312958A (zh) 2013-09-18
CN103312958B true CN103312958B (zh) 2018-11-02

Family

ID=49042637

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310057576.7A Expired - Fee Related CN103312958B (zh) 2012-03-05 2013-02-25 客户机终端、服务器以及程序

Country Status (3)

Country Link
US (1) US10235805B2 (zh)
JP (1) JP2013183433A (zh)
CN (1) CN103312958B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160096422A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 화면 표시 방법 및 전자 장치
US20170053621A1 (en) * 2015-08-20 2017-02-23 Microsoft Technology Licensing, Llc Roundtrip Reintegration of Asynchronous 3D Session
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
US11047702B1 (en) * 2016-09-16 2021-06-29 Apple Inc. Tracking systems for electronic devices
KR102418992B1 (ko) * 2017-11-23 2022-07-11 삼성전자주식회사 전자 장치 및 전자 장치의 증강 현실 서비스 제공 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1841290A (zh) * 2003-03-28 2006-10-04 精工爱普生株式会社 信息显示系统及其信息处理装置、指示装置和标记显示法
CN101374199A (zh) * 2007-08-23 2009-02-25 索尼株式会社 成像设备和成像方法
CN101578602A (zh) * 2006-12-07 2009-11-11 索尼株式会社 图像显示系统、显示设备和显示方法
WO2011093598A2 (ko) * 2010-01-29 2011-08-04 (주)올라웍스 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
CN102203850A (zh) * 2008-09-12 2011-09-28 格斯图尔泰克公司 相对于用户而定向所显示的元素

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
JP4366601B2 (ja) 2005-03-18 2009-11-18 ソニー株式会社 タイムシフト画像配信システム、タイムシフト画像配信方法、タイムシフト画像要求装置および画像サーバ
US9582937B2 (en) * 2008-01-02 2017-02-28 Nokia Technologies Oy Method, apparatus and computer program product for displaying an indication of an object within a current field of view
WO2011112940A1 (en) * 2010-03-12 2011-09-15 Tagwhat, Inc. Merging of grouped markers in an augmented reality-enabled distribution network
US20120019557A1 (en) * 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
US9727128B2 (en) * 2010-09-02 2017-08-08 Nokia Technologies Oy Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode
IL208600A (en) * 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
KR101740435B1 (ko) * 2010-10-18 2017-05-26 엘지전자 주식회사 이동 단말기 및 이것의 객체 관련 정보 관리 방법
KR101266198B1 (ko) * 2010-10-19 2013-05-21 주식회사 팬택 증강현실 객체정보의 가시성을 높이는 디스플레이 장치 및 디스플레이 방법
KR101357260B1 (ko) * 2010-10-22 2014-02-03 주식회사 팬택 증강 현실 사용자 인터페이스 제공 장치 및 방법
US8698843B2 (en) * 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US8681178B1 (en) * 2010-11-02 2014-03-25 Google Inc. Showing uncertainty in an augmented reality application
KR101295712B1 (ko) * 2010-11-22 2013-08-16 주식회사 팬택 증강 현실 사용자 인터페이스 제공 장치 및 방법
KR101350033B1 (ko) * 2010-12-13 2014-01-14 주식회사 팬택 증강 현실 제공 단말기 및 방법
KR101324336B1 (ko) * 2010-12-28 2013-10-31 주식회사 팬택 증강 현실 제공 단말기
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1841290A (zh) * 2003-03-28 2006-10-04 精工爱普生株式会社 信息显示系统及其信息处理装置、指示装置和标记显示法
CN101578602A (zh) * 2006-12-07 2009-11-11 索尼株式会社 图像显示系统、显示设备和显示方法
CN101374199A (zh) * 2007-08-23 2009-02-25 索尼株式会社 成像设备和成像方法
CN102203850A (zh) * 2008-09-12 2011-09-28 格斯图尔泰克公司 相对于用户而定向所显示的元素
WO2011093598A2 (ko) * 2010-01-29 2011-08-04 (주)올라웍스 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체

Also Published As

Publication number Publication date
CN103312958A (zh) 2013-09-18
JP2013183433A (ja) 2013-09-12
US10235805B2 (en) 2019-03-19
US20130229535A1 (en) 2013-09-05

Similar Documents

Publication Publication Date Title
CN103312958B (zh) 客户机终端、服务器以及程序
CN111126182B (zh) 车道线检测方法、装置、电子设备及存储介质
US8564710B2 (en) Photographing apparatus and photographing method for displaying information related to a subject
EP2302322B1 (en) Method and apparatus for providing location-based services using a sensor and image recognition in a portable terminal
EP3146500B1 (en) Adaptive low-light identification
CN104255022B (zh) 为相机添加虚拟变焦能力的服务器、客户终端、系统和可读介质
CN111125442B (zh) 数据标注方法及装置
CN110490186B (zh) 车牌识别方法、装置及存储介质
CN113205515B (zh) 目标检测方法、装置、及计算机存储介质
CN111192341A (zh) 生成高精地图的方法、装置、自动驾驶设备及存储介质
CN110570460A (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN112749613A (zh) 视频数据处理方法、装置、计算机设备及存储介质
CN112802369B (zh) 获取飞行航线的方法、装置、计算机设备及可读存储介质
CN114170349A (zh) 图像生成方法、装置、电子设备及存储介质
CN110136091A (zh) 图像处理方法及相关产品
CN111447562A (zh) 车辆行程轨迹分析方法及装置、计算机存储介质
CN111127541B (zh) 车辆尺寸的确定方法、装置及存储介质
KR101395388B1 (ko) 증강 현실 표현 장치 및 방법
CN111325701A (zh) 图像处理方法、装置及存储介质
CN113822263A (zh) 图像标注方法、装置、计算机设备及存储介质
CN112700647A (zh) 监测车辆行驶信息的方法及装置
CN111928861A (zh) 地图构建方法及装置
CN111754564A (zh) 视频展示方法、装置、设备及存储介质
Grewe et al. iSight: computer vision based system to assist low vision
EP3557386B1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181102