CN109196552B - 终端装置 - Google Patents

终端装置 Download PDF

Info

Publication number
CN109196552B
CN109196552B CN201780033528.0A CN201780033528A CN109196552B CN 109196552 B CN109196552 B CN 109196552B CN 201780033528 A CN201780033528 A CN 201780033528A CN 109196552 B CN109196552 B CN 109196552B
Authority
CN
China
Prior art keywords
target image
unit
feature
display
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780033528.0A
Other languages
English (en)
Other versions
CN109196552A (zh
Inventor
炭灶辰巳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suncorporation
Original Assignee
Sun Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Electronics Co Ltd filed Critical Sun Electronics Co Ltd
Publication of CN109196552A publication Critical patent/CN109196552A/zh
Application granted granted Critical
Publication of CN109196552B publication Critical patent/CN109196552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

终端装置具有拍摄部、显示部、控制部、存储部。控制部具有拍摄控制部、生成部、存储控制部、显示控制部。拍摄控制部使拍摄部执行拍摄。生成部生成特征信息,所述特征信息表示在拍摄部拍摄目标图像的目标时刻的终端装置的环境特征。存储控制部将拍摄的目标图像与生成的特征信息对应起来并存储于存储部。显示控制部在目标图像以及特征信息存储于存储部之后,在检测到特征的特定的情况下,使显示部显示与表示该特征的特征信息对应起来并存储于存储部的目标图像。

Description

终端装置
技术领域
本说明书公开的技术涉及一种使显示部显示图像的终端装置。
背景技术
在日本特开2014-93050号公报(以下称为专利文献1)中,公开了一种佩戴在用户的头部来使用的图像显示装置。这种图像显示装置具有:显示部,其显示与用户的视野对应的范围的图像(即现实图像);计算机,其将对象图像与现实图像合成显示,所述对象图像表示与在显示部显示的图像关联的对象,所述现实图像在显示部显示。
发明内容
发明要解决的课题
谋求提供一种在预定的条件成立的情况下能够将拍摄完毕的图像恰当地显示的技术。
在本说明书中,公开了一种在预定的条件成立的情况下能够将拍摄完毕的图像恰当地显示在显示部的技术。
用于解决课题的方案
本说明书公开的一个终端装置具有拍摄部、显示部、控制部、存储部。控制部具有拍摄控制部、生成部、存储控制部、显示控制部。拍摄控制部使拍摄部执行拍摄。生成部生成特征信息,所述特征信息表示在拍摄部拍摄目标图像的目标时刻的终端装置的环境特征。存储控制部将拍摄的目标图像与生成的特征信息对应起来并存储于存储部。显示控制部在目标图像以及特征信息存储于存储部之后,在检测到特征的特定的情况下,使显示部显示与表示该特征的特征信息对应起来并存储于存储部的目标图像。
上述的终端装置在将目标图像与特征信息对应起来并存储于存储部之后,在检测到特征的特定的情况下,使显示部显示与表示该特征的特征信息对应起来并存储于存储部的目标图像。因此,根据上述的终端装置,在预定的条件成立的情况即特定的情况下,能够恰当地使显示部显示拍摄完毕的目标图像。
本说明书公开的其它终端装置具有显示部、控制部、存储部。控制部具有取得部、存储控制部、显示控制部。取得部取得拍摄部拍摄的目标图像、和表示在拍摄部拍摄目标图像的目标时刻的拍摄部的环境特征的特征信息。存储控制部将取得的目标图像与特征信息对应起来并存储于存储部。显示控制部在目标图像以及特征信息存储于存储部之后,在检测到特征的特定的情况下,使显示部显示与表示该特征的特征信息对应起来并存储于存储部的目标图像。
在基于该终端装置的情况下,也与上述同样地在预定的条件成立的情况即特定的情况下,能够恰当地使显示部显示通过拍摄部预先拍摄的目标图像。
另外,用于实现上述的终端装置的控制方法、计算机程序以及存储该计算机程序的计算机可读记录介质也新颖且有用。
附图说明
图1表示终端装置的外观。
图2表示终端装置的结构。
图3表示第一实施例的记录处理的流程图。
图4表示第一实施例的再现处理的流程图。
图5表示在第一实施例中将目标图像与当前情况并列显示的显示例。
图6表示在第一实施例中将目标图像与当前情况重叠显示的显示例。
图7表示第二实施例的记录处理的流程图。
图8表示第二实施例的再现处理的流程图。
图9表示在第二实施例中将目标图像与当前情况并列显示的显示例。
图10表示在第二实施例中将目标图像与当前情况重叠显示的显示例。
图11表示在第三实施例中将目标图像与当前情况并列显示的显示例。
图12表示在第三实施例中将目标图像与当前情况重叠显示的显示例。
图13表示第四实施例使用的目标图像的示例。
图14表示在第四实施例中将目标图像与当前情况重叠显示的显示例。
具体实施方式
先列举出以下所说明的实施例的主要特征。另外,以下记载的技术要素为各自独立的技术要素,通过单独或各种组合来发挥技术的有益性,并不限定于申请时权利要求记载的组合。
(特征1)终端装置可以还具有对规定的区域内的终端装置的位置进行检测的位置检测单元。生成部也可以生成特征信息,所述特征信息表示包含在目标时刻通过位置检测单元检测到的目标位置的特征。显示控制部也可以在目标图像以及特征信息存储于存储部之后,在通过位置检测单元检测到目标位置的特定的情况下,使显示部显示与表示包含该目标位置的特征的特征信息对应起来并存储于存储部的目标图像。
在此,“位置检测单元”包含例如GPS接收器。“位置检测单元”除此之外也包含能够对在控制部和通信接口等规定的区域内的终端装置的位置进行检测的任意的单元。在控制部和通信接口用作位置检测单元的情况下,例如,控制部也可以通过经由通信接口而对Wi-Fi通信用的访问点进行检测,并计算该访问点与终端装置之间的位置关系而对终端装置的位置进行检测。
根据该结构,终端装置在将目标图像与特征信息对应起来并存储于存储部之后,在通过位置检测单元检测到目标位置的特定的情况下,能够使显示部显示目标图像。终端装置的用户将终端装置配置在拍摄目标图像的目标时刻检测到的位置即目标位置,则能够对在显示部显示的目标图像进行观察。因此,终端装置的用户将终端装置配置与拍摄目标图像时的位置相同的位置,则能够观察目标图像。因此,终端装置的用户能够恰当地对目标图像的拍摄时的情形与当前的情形进行比较。
(特征2)终端装置可以还具有对终端装置的姿态进行检测的传感器。生成部也可以生成特征信息,所述特征信息表示还包含在目标时刻通过传感器检测到的目标姿态的所述特征。显示控制部也可以在目标图像以及特征信息存储于存储部之后,在通过位置检测单元检测到目标位置并且通过传感器检测到目标姿态的特定的情况下,使显示部显示与表示包含该目标位置以及该目标姿态的特征的特征信息对应起来并存储于存储部的目标图像。
根据该结构,终端装置在将目标图像与特征信息对应起来并存储于存储部之后,在通过位置检测单元检测到目标位置并且通过传感器检测到目标位置的特定的情况下,能够使显示部显示目标图像。终端装置的用户将终端装置配置在拍摄目标图像的目标时刻检测到的位置即目标位置且保持为在目标时刻检测到的姿态,则能够对在显示部显示的目标图像进行观察。因此,终端装置的用户将终端装置配置在与拍摄目标图像时的位置相同的位置且保持相同姿态,则能够观察目标图像。终端装置的用户能够恰当地对目标图像的拍摄时的情形与当前的情形进行比较。
(特征3)生成部也可以对在目标时刻拍摄部拍摄的目标图像内包含的特征要素进行确定,生成表示包含被确定的特征要素的特征的特征信息。显示控制部也可以在目标图像以及特征信息存储于存储部之后,在检测到通过拍摄部拍摄的特征要素的特定的情况下,使显示部显示将表示包含该特征要素的特征的特征信息对应起来并存储于存储部的目标图像。
根据该结构,终端装置在将目标图像与特征信息对应起来并存储于存储部之后,在检测到通过拍摄部拍摄的特征要素的特定的情况下,能够使显示部显示目标图像。终端装置的用户通过拍摄部再次对在目标图像包含的特征要素进行拍摄,则能够对在显示部显示的目标图像进行观察。因此,终端装置的用户能够恰当地对目标图像的拍摄时的情形与当前的情形进行比较。
(特征4)终端装置可以还具有能够在用户的头部佩戴的框架。拍摄部也可以搭载于框架,能够对与佩戴框架的用户的视野范围对应的范围进行拍摄。显示部也可以搭载于框架,配置在与佩戴框架的用户的右眼和左眼至少一方相向的位置。
根据该结构,终端装置对与用户的视野范围对应的范围的目标图像进行拍摄并存储于存储部,能够在特定的情况使显示部显示目标图像。终端装置的用户能够以自身的视野范围为基准来对目标图像的拍摄时的情形与当前的情形进行比较。
(第一实施例)
(终端装置2的结构;图1、图2)
图1所示的终端装置2为在用户的头部佩戴使用的图像显示装置(所谓的头戴式显示器)。终端装置2具有框架4、显示部10a、10b、投影部11a、11b、第一摄像机12、第二摄像机14、控制盒16、操作部18。
框架4为眼镜框状的部件。用户通过以佩戴眼镜的方式佩戴框架4,能够将终端装置2佩戴在头部。
显示部10a、10b分别为透光性的显示部件。当用户将终端装置2佩戴在头部时,显示部10a配置在与用户的右眼相向的位置,显示部10b配置在与左眼相向的位置。以下,有时将左右的显示部10a、10b统称为显示部10。在本实施例中,用户透过显示部10能够观看到周围。
投影部11a、11b为将图像投影在显示部10a、10b的部件。投影部11a、11b在显示部10a、10b的侧部设置。以下,有时将左右的投影部11a、11b统称为投影部11。在本实施例中,投影部11根据控制部30的指示而将规定的目标图像投影在显示部10。以下,在本说明书中,在对控制部30通过向投影部11指示图像的投影而显示在显示部10期望的画面进行说明的情况下,省略投影部11的动作的说明,有时仅表述为“控制部30显示在显示部10期望的图像”。
第一摄像机12为配置在框架4中显示部10a的上方位置(即与用户的右眼对应的位置)的摄像机。另一方面,第二摄像机14为配置在框架4中显示部10b的上方位置(即与用户的左眼对应的位置)的摄像机。通过各第一摄像机12和第二摄像机14,能够从不同的角度对与佩戴终端装置2的用户的视野范围对应的范围(以下称为“特定范围”)进行拍摄。以下,有时将第一摄像机12与第二摄像机14仅统称为“摄像机”。
控制盒16为在框架4的局部安装的箱体。在控制盒16收纳有对终端装置2的控制系統进行管理的各要素。具体而言,如图2所示,在控制盒16收纳有GPS(Global PositioningSystem:全球定位系统的缩写)接收器20、传感器22、通信接口24、控制部30、存储器32。在以下中,将接口记载为“I/F”。
操作部18位于控制盒16的外表面。操作部18是用户能够进行操作的按钮,用户通过操作操作部18能够向终端装置2输入包含后述的拍摄指示的各种指示。
参照图2,对控制盒16内的各结构要素进行说明。GPS接收器20GPS的用户部分,接收来自GPS卫星的电波,计算并输出地球上的本机的位置。控制部30使用从GPS接收器20输出的位置,能够对终端装置2的位置进行确定。
传感器22为3轴加速度传感器。传感器22对X、Y、Z的3轴的加速度进行检测。控制部30使用传感器22的检测值而能够对终端装置2的姿态以及运动状态进行确定。
通信I/F24为用于执行外部的装置(例如,具有通信功能的其它的终端装置)无线通信的I/F。
控制部30根据存储于存储器32的应用程序34来执行各种处理。控制部30执行的处理的内容在此后详细说明。此外,如图2所示,控制部30与显示部10、投影部11、第一摄像机12、第二摄像机14、操作部18、GPS接收器20、传感器22、通信I/F24以及存储器32电连接,并能够对这些各要素的动作进行控制。
存储器32对包含应用程序34的各种程序进行存储。应用程序34为用于使控制部30执行后述的记录处理(参照图3)、再现处理(参照图4)等各种处理的程序。此外,在存储器32中,设置有用于通过执行后述的记录处理生成的目标图像与特征信息的组合进行存储的图像存储区域36。
(记录处理;图3)
参照图3,对本实施例的终端装置2的控制部30执行的记录处理进行说明。当用户将终端装置2佩戴在自身的头部,在开启终端装置2的电源之后向操作部18输入规定的记录处理开始指示时,控制部30开始图3的记录处理。
在S10中,控制部30启动摄像机(即第一摄像机12以及第二摄像机14)。当摄像机启动时,摄像机以用于对上述的特定范围进行拍摄的拍摄模式开始动作。当摄像机以拍摄模式开始动作时,摄像机成为对特定范围进行持续拍摄的状态,但是只要不输入拍摄指示(后述)则不放开快门,摄像机拍摄的图像(静止图像)不存储于存储器32。
接着,在S12中,控制部30对拍摄指示的输入进行监视。用户操作操作部18,能够在希望进行图像拍摄的时刻输入规定的拍摄指示。当输入拍摄指示时,控制部30在S12中判断为是,进入S14。
在S14中,控制部30使摄像机执行拍摄,生成目标图像。具体而言,控制部30打开第一摄像机12的快门而拍摄图像,并且打开第二摄像机14的快门而拍摄图像。而且,使用基于第一摄像机12的拍摄图像和基于第二摄像机14的拍摄图像,生成作为一个图像的目标图像。
接着,在S16中,控制部30对作为该时刻(即生成了目标图像的时刻)的终端装置2的位置的目标位置与作为该时刻的终端装置2的姿态的目标姿态进行确定。具体而言,控制部30根据在该时刻GPS接收器20输出的位置来对终端装置2的目标位置进行确定,并根据在该时刻传感器22确定的姿态来对终端装置2的目标姿态进行确定。
接着,在S18中,控制部30生成在S16中确定的包含表示目标位置的信息以及表示目标姿态的信息的特征信息。在特征信息中,除了表示目标位置的信息以及表示目标姿态的信息,还包含用于识別目标图像的拍摄日期、目标图像的图像号码等各种信息。
接着,在S20中,控制部30将在S14中生成的目标图像与在S18中生成的特征信息对应起来并存储在存储器32的图像存储区域36。由此,在图像存储区域36存储目标图像与特征信息的组合。
当S20结束时,控制部30返回S12并对新的拍摄指示的输入进行监视。每次输入新的拍摄指示,在图像存储区域36存储目标图像与特征信息的新的组合(S14~S20)。另外,在图3的记录处理的执行中,当在操作部18中规定的处理结束指示被输入时,控制部30停止摄像机,结束图3的记录处理。
(再现处理;图4)
参照图4,对本实施例的终端装置2的控制部30执行的再现处理进行说明。当用户将终端装置2佩戴在自身的头部,在开启终端装置2的电源后向操作部18输入规定的再现处理开始指示时,控制部30开始图4的再现处理。
在S30中,控制部30启动摄像机。如上述地,当摄像机启动时,摄像机以拍摄模式开始动作。接着,在S32中,控制部30根据GPS接收器20输出的位置与传感器22确定的姿态,对该时刻的终端装置2的位置以及姿态进行确定。
接着,在S34中,控制部30对在存储器32的图像存储区域36内是否存储有包括与在S32中确定的位置以及姿态一致的表示目标位置的信息以及表示目标姿态的信息的特征信息(以下,在本实施例中有时称为“第一种特征信息”)进行判断。在图像存储区域36内存在第一种特征信息的情况下,控制部30在S34中判断为是,进入S36。另一方面,在图像存储区域36内不存在第一种特征信息的情况下,控制部30在S34中判断为否,进入S32。
在S36中,控制部30对在图像存储区域36内与第一种特征信息对应起来的目标图像(以下为“第一种目标图像”)进行确定。
接着,在S38中,控制部30将在S36中确定的第一种目标图像显示在显示部10。在S38中将第一种目标图像显示在显示部10的显示例参照图5、图6在此后详细说明。在第一种目标图像显示在显示部10的期间,用户能够操作操作部18而输入规定的显示切换指示。控制部30在显示切换指示被输入时,根据输入的显示切换指示对第一种目标图像的显示方式进行改变。
接着,在S40中,控制部30对规定的显示结束指示的输入进行监视。在第一种目标图像显示在显示部10的期间,用户能够操作操作部18而输入规定的显示切换指示。控制部30在显示切换指示被输入时,在S40中判断为是,在S42中结束第一种目标图像的显示。此后,返回S32,根据在S32中取得的终端装置2的位置以及姿态,再次执行S34的判断。另外,在图4的再现处理的执行中,当在操作部18中规定的处理结束指示被输入时,控制部30停止摄像机,结束图4的再现处理。
(第一种目标图像的显示例;图5、图6)
参照图5、图6,在本实施例中,对第一种目标图像显示在显示部10时(参照图4的S38)的显示例进行说明。在图5、图6的例中,假定用户希望比较对入住时的公寓的居室内的状态进行拍摄的第一种目标图像50与当前(例如退住前的交接时刻)的公寓的居室内的状态(在以下中有时称为“当前情况”)60这一情形。更具体而言,假定希望对入住时的居室的状态与当前的居室的状态进行比较,确认在居住期间中产生的损坏、存在有多少污渍这一情形。图5、图6均表示在上述的情形下的第一种目标图像50的显示例。控制部30在显示切换指示被输入时,能够以对图5的显示方式和图6的显示方式进行切换的方式使显示部10显示。
在图5的例中,在显示部10的左侧(即用户的视野范围的左侧)显示第一种目标图像50。根据图5的显示方式,用户能够对在显示部10的左侧显示的第一种目标图像50与用户透过显示部10的右侧(即用户的视野范围的右侧)能够直接观看到的当前情况60进行观察比较。在第一种目标图像50包含窗框52的图像。此外,在第一种目标图像50一起显示作为目标图像的主旨的显示和该目标图像的拍摄日期(“2006.04.01”)。另一方面,在当前情况60中,存在与第一种目标图像50的窗框52相同的窗框62,但是关于在窗户安装有窗帘64这一点与第一种目标图像50不同。此外,在当前情况60中,在墙上存在损伤66以及污渍68这一点也与第一种目标图像50不同。以此方式,用户能够对第一种目标图像50与当前情况60进行比较来确定差异点。因此,能够对以前拍摄的第一种目标图像50与当前情况60进行比较地实施例如公寓的退住时的恢复原状确认作业等。因此,有助于用户的方便性,并且有助于抑制在确认时产生纠纷。
在图6的例子中,在显示部10(即用户的视野范围)的整面显示第一种目标图像50。由于显示部10具有光透射性,所以用户透过第一种目标图像50能够观看到存在于其相向侧的当前情况60。如图6所示,用户能够通过以窗框52与窗框62重叠的方式进行位置重合,对以前拍摄的第一种目标图像50与当前情况60进行比较。
(本实施例的作用效果)
如上所述,在本实施例中,终端装置2在将第一种目标图像与第一种特征信息对应起来并存储于存储器32之后(图3的S20),在检测到与第一种特征信息所表示的特征(即目标位置以及目标姿态)一致的特征(即终端装置2的位置以及姿态)的情况(图4的S34中的是)下,与该第一种特征信息对应起来并将存储于存储器32的第一种目标图像显示在显示部10(S36、S38)。因此,根据本实施例的终端装置2,在预定的条件成立的情况(即在检测到与第一种特征信息表示的特征一致的特征的情况)下,能够将拍摄完毕的第一种目标图像恰当地显示在显示部10。
此外,在本实施例中,特征信息包括表示目标位置的信息以及表示目标姿态的信息。终端装置2在将第一种目标图像与第一种特征信息对应起来并存储于存储器32之后,在通过GPS接收器20检测到在第一种特征信息包含的信息表示的目标位置,并且通过传感器22检测到在第一种特征信息包含的信息表示的目标位置的情况(S34中为是)下,能够将第一种目标图像显示在显示部10。用户如果将终端装置2配置在作为在拍摄第一种目标图像的时刻检测出的位置的目标位置且保持为在该时刻检测到的姿态,则能够对显示在显示部10的第一种目标图像进行观察。换言之,终端装置2的用户如果将终端装置2配置在与拍摄第一种目标图像时的位置相同的位置且保持与此时相同的姿态,则能够对第一种目标图像进行观察。终端装置2的用户能够恰当地对目标图像的拍摄时的情形与当前的情形进行比较。
此外,在本实施例中,终端装置2具有能够在用户的头部佩戴的框架4,各结构要素均搭载在框架4。摄像机(即第一摄像机12以及第二摄像机14)能够对佩戴框架4的用户的视野范围对应的范围进行拍摄,显示部10a、10b分别配置在与佩戴框架4的用户的右眼与左眼相向的位置。因此,本实施例的终端装置2拍摄与用户的视野范围对应的范围的目标图像并存储于存储器32,在上述的情况(图4的S34中的是)下,能够将第一种目标图像显示在与用户的视野范围对应的显示部10。用户能够以自身的视野范围为基准来对目标图像的拍摄时的情形与当前的情形进行比较。
(对应关系)
对本实施例与权利要求的对应关系进行说明。第一摄像机12以及第二摄像机14为“拍摄部”的一个示例。GPS接收器20为“位置检测单元”的一个示例。存储器32为“存储部”的一个示例。图4的S34中的是的情况为“特定的情况”的一个示例。
(第二实施例)
以与第一实施例不同的点为中心来进行说明。本实施例的终端装置2的基本的结构与第一实施例的终端装置2(参照图1、图2)是共通的,与第一实施例不同的是不具有GPS接收器20以及传感器22。因此,在本实施例中,记录处理与再现处理的内容的一部分也与第一实施例不同(参照图7、图8)。
(记录处理;图7)
由于S50~S54的处理与图3的S10~S14的处理相同而省略说明。在S56中,控制部30对在S54生成的目标图像中的特征要素进行抽取。例如,如图9的例所示,在目标图像包含汽车72的图像的情况下,将该汽车72的前部分74的结构(例如车头灯、中网、车牌的各形状以及配置等)抽取为特征要素。
接着,在S58中,控制部30生成包含表示在S56抽取的特征要素的信息的特征信息。而且,在S60中,将在S54生成的目标图像与在S58生成的特征信息对应起来并在存储器32的图像存储区域36存储。当S60结束时,返回S52。
(再现处理;图8)
在S70中,控制部30启动摄像机,以动作模式使摄像机动作。而且,接着,在S72中,控制部30对以动作模式动作的摄像机拍摄的图像中的特征要素进行抽取。即,在S72中,控制部30实时地对摄像机拍摄的图像中的特征要素进行抽取。
接着,在S74中,控制部30对在存储器32的图像存储区域36内是否存在包含与在S72抽取的特征要素一致的表示特征要素的信息的特征信息(以下,在本实施例中有时称为“第二种特征信息”)进行判断。在图像存储区域36内存在第二特征信息的情况下,控制部30在S74中判断为是,进入S76。
在S76中,控制部30在图像存储区域36内对与第二种特征信息对应起来的目标图像(以下为“第二种目标图像”)进行确定。
在S78中,控制部30将在S76确定的第二种目标图像显示在显示部10。在S78中将第二种目标图像显示在显示部10的显示例参照图9、图10并在此后详细说明。接着,由于S80、S82的各处理几乎与图4的S40、S42的各处理相同,所以省略详细说明。
(第二种目标图像的显示例;图9,图10)
参照图9、图10,在本实施例中,对第二种目标图像显示在显示部10时(参照图8的S78)的显示例进行说明。在图9、图10的例中,假定用户希望对拍摄租车的租借开始时刻的状态的第二种目标图像70与当前(例如返还时刻)的租车的状态(在以下有时称为“当前情况”)80进行比较这一情形。图9、图10均表示上述的情形下的第二种目标图像70的显示例。控制部30在显示切换指示被输入时,能够切换图9的显示方式和图10的显示方式地使显示部10显示。
在图9的例中,在显示部10的左侧显示第二种目标图像70。根据图9的显示方式,用户能够对在显示部10的左侧显示的第二种目标图像70与用户透过显示部10的右侧能够直接观看到的当前情况80进行观察比较。在第二种目标图像70包含租借目标的汽车72的图像。在第二种目标图像70的拍摄时刻处,汽车72的前部分74的结构被抽取为特征要素(参照图7的S56)。此外,在第二种目标图像70中一起显示有作为目标图像的主旨的显示和该目标图像的拍摄日期。另一方面,在当前情况80中,存在与第二种目标图像70的汽车72相同的汽车82。前部分84的结构(即特征要素)也与第二种目标图像70的汽车72共通。但是,当前情况80的汽车82关于在保险杠部分存在损伤86这一点与第二种目标图像70不同。以此方式,用户能够对第二种目标图像70与当前情况80进行比较来对差异点进行确定。因此,能够对过去拍摄的第二种目标图像70与当前情况80进行比较地实施例如租车的返还时的损伤认作业等。因此,有助于用户的方便性,并且有助于抑制在确认时产生纠纷。
在图10的例中,在显示部10(即用户的视野范围)的整面显示第二种目标图像70。由于显示部10具有光透射性,所以用户透过第二种目标图像70能够观看到存在于其相向侧的当前情况80。如图10所示,用户能够通过以汽车72与汽车82重合的方式进行位置重合,对过去拍摄的第二种目标图像70与当前情况80进行比较。
(本实施例的作用效果)
如上所述,在本实施例中,特征信息包含表示目标图像中的特征要素的信息。终端装置2在将第二种目标图像与第二种特征信息对应起来并存储于存储器32之后,在通过摄像机再次拍摄到特征要素的情况(图8的S74中的是)下,能够将第二种目标图像显示在显示部10。用户如果使摄像机再次拍摄在拍摄第二种目标图像的时刻抽取的特征要素,能够对显示在显示部10的第二种目标图像进行观察。因此,终端装置2的用户能够恰当地对第二种目标图像的拍摄时的情形与当前的情形进行比较。在本实施例中,图8的S74中的是的情况为“特定的情况”的一个示例。
特别地,在本实施例中与第一实施例不同地、由于特征信息不包含表示位置的信息以及表示姿态的信息,所以即使在有必要对例如汽车那样的动产的过去与当前的情形进行比较的情况下,具有能够与该动产的存在位置无关地对过去与当前的情形进行比较的优点。
(第三实施例)
第三实施例为第二实施例的改变例。在第三实施例中,以与第二实施例不同的点作为中心来说明。本实施例的终端装置2的基本结构与第二实施例的终端装置2共通。在本实施例中,控制部30关于不执行记录处理(参照图7)这一点与第二实施例不同。在本实施例中,控制部30取代预先地执行记录处理,预先地实施从其它装置(例如具有拍摄部的终端装置等)经由通信I/F24而取得目标图像与特征信息的组合,并将取得的目标图像与特征信息的组合在存储器32的图像存储区域36存储的处理。即,在本实施例中在图像存储区域36存储的目标图像与特征信息的组合预先通过其它装置生成。本实施例的目标图像为通过其它装置拍摄的图像。基于此,在本实施例中,控制部30也执行与第三实施例相同的再现处理(参照图8)。
(第二种目标图像的显示例;图11、图12)
参照图11、图12,在本实施例中,对第二种目标图像显示在显示部10时(参照图8的S78)的显示例进行说明。在图11、图12的例中,假定用户希望对拍摄基于游戏机(具体为弹珠台)的审查机关的审查合格时刻(或者为游戏机生产商的出货时刻)的状态的第二种目标图像90与当前(例如在游戏店开始工作之后的时刻)的同种的游戏机的状态(在以下中有时称为“当前情况”)100进行比较这一情形。更具体而言,假定希望对游戏机的审查合格时刻的游戏机的钉的朝向与当前的钉的朝向进行比较,对钉的朝向是否过度地改变进行确认这一情形。图11、图12均为表示上述的情形下的第二种目标图像90的显示例。另外,图12是为了便于理解而将游戏机的中奖口94(104)周边部分放大的显示例。在本实施例中,控制部30也在显示切换指示被输入时,能够切换图11的显示方式与图12的显示方式地使显示部10显示。
在图11的例中,在显示部10的左侧显示第二种目标图像90。根据图11的显示方式,用户能够对在显示部10的左侧显示的第二种目标图像90与用户透过显示部10的右侧能够直接观看到的当前情况100进行观察比较。在第二种目标图像90包含在游戏机92的审查合格时刻拍摄的游戏机92的图像。在游戏机92主要设置投入游戏介质(具体为弹珠)的游戏区域(盘面)93、向盘面93投入的弹珠进入的中奖口94、在盘面93配置的装饰95、用于改变投入的弹珠的轨道的钉96。在第二种目标图像90的拍摄时刻处,这些各结构93、94、95、96被抽取为特征要素(参照图7的S56)。此外,与游戏机92相同种类的其它游戏机也具有相同的特征要素。
另一方面,在右侧的当前情况100中,存在与第二种目标图像90的游戏机92相同种类的游戏机102。因此,游戏机102也具有与第二种目标图像90的游戏机92共通的盘面103、中奖口104、装饰105以及钉106。但是,在当前情况100的游戏机102中,钉106的朝向(即钉106的头部的位置)与第二种目标图像90的游戏机92的钉96的朝向不同。以此方式,用户能够对第二种目标图像90与当前情况100进行比较来确定差异点。因此,用户能够对审查合格时刻的游戏机92的钉96的朝向与当前的游戏机102的钉106的朝向进行比较,对钉106的朝向是否过度地改变进行确认。
在图12的例中,在显示部10(即用户的视野范围)的整面显示第二种目标图像90。由于显示部10具有光透射性,用户透过第二种目标图像90能够观看到存在于其相向侧的当前情况100。如图12所示,用户通过中奖口94以中奖口104重叠的方式进行位置合叠,能够更容易地对审查合格时刻的游戏机92的钉96的朝向与当前的游戏机102的钉106的朝向进行比较。
(本实施例的作用效果)
如上所述,在本实施例的终端装置2中,控制部30取代执行记录处理(参照图7),预先从其它装置(例如,具有拍摄部的终端装置等)取得目标图像与特征信息的组合,将取得的目标图像与特征信息的组合在存储器32的图像存储区域36存储。而且,执行再现处理(参照图8)。因此,在基于本实施例的情况下,也与第二实施例同样地使摄像机再次拍摄在拍摄到第二种目标图像的时刻抽取的第二种特征要素,则能够对显示在显示部10的第二种目标图像进行观察。因此,终端装置2的用户能够恰当地对第二种目标图像的拍摄时的情形与当前的情形进行比较。在本实施例中,具有拍摄部的其它装置为“拍摄部”的一个示例。
(第四实施例)
第四实施例为第三实施例的改变例。在第四实施例中,以与第三实施例不同的点作为中心来说明。在本实施例中,控制部30也取代预先执行记录处理,实施预先从其它装置经由通信I/F24来取得目标图像与特征信息的组合,并将取得的目标图像与特征信息的组合在存储器32的图像存储区域36存储的处理。但是,在本实施例中,预先从其它装置取得的目标图像并非通过其它装置的摄像机等预先拍摄的图像(即拍摄图像),而是在其它装置中预先生成的虚拟图像,关于此点与第三实施例不同。
参照图13,对在本实施例使用的目标图像110的例进行说明。该目标图像110包含表示在游戏机(参照图9、图10)设置的中奖口114和钉的头部116的虚拟图像。钉的头部116的虚拟图像以明显的颜色被着色。在其它装置中生成目标图像110时,分别将中奖口114的形状以及配置、钉的头部116的位置抽取为特征要素。特征信息包含表示这些的特征要素的信息。而且,在本实施例中,控制部30也执行与第三实施例相同的再现处理(参照图8)。
(第二种目标图像的显示例;图14)
参照图14,在本实施例中,对第二种目标图像(即图13的目标图像110)显示在显示部10时(参照图8的S78)的显示例进行说明。在图14的例中,与图12的例同样地在显示部10的整面显示第二种目标图像110。由于显示部10具有光透射性,用户透过第二种目标图像110能够观看到存在于其相向侧的当前情况100。如图14所示,用户通过虚拟图像的中奖口114与现实的中奖口104重叠的方式进行位置重叠,能够更容易地对虚拟图像的钉的头部116与当前的游戏机102的钉106的头部的位置进行比较。
(本实施例的作用效果)
在基于本实施例的情况下,使摄像机拍摄与第二种目标图像对应起来并存储于存储器32的第二种特征要素,则也能够对显示在显示部10的第二种目标图像进行观察。因此,终端装置2的用户能够恰当地对第二种目标图像与当前的情形进行比较。
以上,对在本说明书公开的技术的实施例进行了详细说明,但上述的实施例只不过是例示,并不地专利权利要求进行限定。在专利权利要求记载的技术包含对以上例示的具体例进行各种改变而成的改变例。例如,也可以以下的改变例。
(改变例1)在上述的各实施例中,终端装置2结构在框架4搭载全部结构要素10~32的一个装置。但并不限于此,终端装置2的结构要素的一部分也可以设置在框架4外。例如,也可以摄像机以能够与控制部30进行通信的方式在框架4外设置。在该情况下,控制部30能够取得摄像机拍摄的图像即可。例如,摄像机也可以为存在于其它装置(例如行车记录仪等)的摄像机。此外,例如,存储器32以能够与控制部30进行通信的方式在框架4外设置也可以。在该改变例中,通过对在框架4搭载的结构要素与在框架4外设置的结构要素进行组合来形成终端装置2即可。
(改变例2)在上述的各实施例中,终端装置2具有在控制盒16的外面具有的操作部18。但并不限于此,也可以在终端装置2不设置物理的操作部18。在该情况下,记录处理开始指示、拍摄指示、再现处理开始指示等的各种指示的输入也可以通过控制部30在摄像机的拍摄范围(即上述的特定范围)内实施对用户的姿态进行检测来实施。
(改变例3)在上述的各实施例中,终端装置2具有第一摄像机12与第二摄像机14的两个摄像机。并不限于此,终端装置2也可以仅具有一个摄像机。
(改变例4)在上述的第一实施例中,终端装置2具有GPS接收器20和传感器22。而且,特征信息包含表示目标位置的信息和表示目标姿态的信息。并不限于此,终端装置2也可以不具有传感器22。在该情况下,特征信息只要包含表示目标位置的信息,则也可以不包含表示目标姿态的信息。
(改变例5)在上述的第一实施例中,控制部30使用GPS接收器20输出的位置来对终端装置2的位置进行确定,但是对终端装置2的位置进行确定的单元并不限于此。例如,控制部30也可以经由通信I/F24而对用于Wi-Fi通信访问点的存在进行检测,计算终端装置2与访问点的位置(已知的信息)之间的距离,对终端装置2的位置进行确定。即,“位置检测单元”不限于GPS接收器,也可以包含能够对终端装置2的位置进行检测的任意的单元。
(改变例6)在上述的第三、第四实施例中,终端装置2也可以具有GPS接收器20以及传感器22。而且,特征信息也可以包含表示规定的目标位置和表示规定的目标姿态的信息。控制部30也可以取代图8的再现处理,执行图4的再现处理(即基于终端装置2的位置以及姿态的再现处理)。
(改变例7)在上述的各实施例中,如图1所示,终端装置2具有能够在用户的头部佩戴的形状。但是,终端装置2并不限于能够在用户的头部佩戴的形状,也可以采用其它任意的形状(例如,用户能够把持的形状)。
(改变例8)在在上述的各实施例中,由摄像机拍摄的目标图像均为静态图像,但并不限于此,目标图像也可以为动态图像。
(改变例9)在上述的各实施例中,终端装置2的显示部10为透光性的显示部件。但并不限于此,终端装置2的显示部也可以为遮光性的显示器。
此外,在本说明书或附图说明的技术要素通过单独或各种组合地使用来发挥技术效果,并不限定于申请时权利要求记载的组合。此外,本说明书或附图例示的技术同时达成多个目的,并且达成其中一个目的即具有技术的有用性。

Claims (6)

1.一种终端装置,具有:
显示部,其具有光透射性;
控制部;
存储部,
所述控制部具有:
取得部,其取得拍摄部拍摄的目标图像、和表示在所述拍摄部拍摄所述目标图像的目标时刻的所述拍摄部的环境特征的特征信息,所述特征信息表示包含特征要素的所述特征,所述特征要素是所述拍摄部在所述目标时刻拍摄的所述目标图像内包含的;
存储控制部,其将取得的所述目标图像与所述特征信息对应起来并存储于所述存储部;
显示控制部,其在所述目标图像以及所述特征信息存储于所述存储部之后,在检测到通过所述拍摄部拍摄到所述特征要素的特定的情况下,为了通过将所述目标图像与能够通过所述显示部直接观看到存在于所述目标图像相向侧的当前情况进行比较来确定所述目标时刻的所述目标图像的拍摄时的情况与所述当前情况的差异点,使所述显示部显示与表示包含该特征要素的所述特征的所述特征信息对应起来并存储于所述存储部的所述目标图像。
2.如权利要求1所述的终端装置,其中,
所述终端装置还具有对规定的区域内的所述终端装置的位置进行检测的位置检测单元,
表示所述特征的所述特征信息包含在所述目标时刻通过所述位置检测单元检测到的目标位置,
所述显示控制部在所述目标图像以及所述特征信息存储于所述存储部之后,在通过所述位置检测单元检测到所述目标位置的所述特定的情况下,使所述显示部显示与表示包含该目标位置的所述特征的所述特征信息对应起来并存储于所述存储部的所述目标图像。
3.如权利要求2所述的终端装置,其中,
所述终端装置还具有对所述终端装置的姿态进行检测的传感器,
表示所述特征的所述特征信息还包含在所述目标时刻通过所述传感器检测到的目标姿态,
所述显示控制部在所述目标图像以及所述特征信息存储于所述存储部之后,在通过所述位置检测单元检测到所述目标位置且通过所述传感器检测到所述目标姿态的所述特定的情况下,使所述显示部显示与表示包含该目标位置以及该目标姿态的所述特征的所述特征信息对应起来并存储于所述存储部的所述目标图像。
4.如权利要求1至3中的任一项所述的终端装置,其中,
所述终端装置还具有能够在用户的头部佩戴的框架,
所述拍摄部搭载于所述框架,能够对与佩戴所述框架的所述用户的视野范围对应的范围进行拍摄,
所述显示部搭载于所述框架,配置在与佩戴所述框架的所述用户的右眼和左眼至少一方相向的位置。
5.一种终端装置的控制方法,包括:
取得步骤,取得拍摄部拍摄的目标图像、和表示在所述拍摄部拍摄所述目标图像的目标时刻的所述拍摄部的环境特征的特征信息,所述特征信息表示包含特征要素的所述特征,所述特征要素是所述拍摄部在所述目标时刻拍摄的所述目标图像内包含的;
存储步骤,将取得的所述目标图像与所述特征信息对应起来并存储于存储部;
显示步骤,在所述目标图像以及所述特征信息存储于所述存储部之后,在检测到通过所述拍摄部拍摄到所述特征要素的特定的情况下,为了通过将所述目标图像与能够通过显示部直接观看到存在于所述目标图像相向侧的当前情况进行比较来确定所述目标时刻的所述目标图像的拍摄时的情况与所述当前情况的差异点,使所述显示部显示与表示包含该特征要素的所述特征的所述特征信息对应起来并存储于所述存储部的所述目标图像。
6.一种存储有计算机程序的计算机可读记录介质,所述计算机程序用于具有控制部的终端装置,所述控制部使所述计算机程序执行以下步骤,
取得步骤,取得拍摄部拍摄的目标图像、和表示在所述拍摄部拍摄所述目标图像的目标时刻的所述拍摄部的环境特征的特征信息,所述特征信息表示包含特征要素的所述特征,所述特征要素是所述拍摄部在所述目标时刻拍摄的所述目标图像内包含的;
存储步骤,将取得的所述目标图像与所述特征信息对应起来并存储于存储部;
显示步骤,在所述目标图像以及所述特征信息存储于所述存储部之后,在检测到通过所述拍摄部拍摄到所述特征要素的特定的情况下,为了通过将所述目标图像与能够通过显示部直接观看到存在于所述目标图像相向侧的当前情况进行比较来确定所述目标时刻的所述目标图像的拍摄时的情况与所述当前情况的差异点,使所述显示部显示与表示包含该特征要素的所述特征的所述特征信息对应起来并存储于所述存储部的所述目标图像。
CN201780033528.0A 2016-05-30 2017-05-17 终端装置 Active CN109196552B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016107450A JP2017215664A (ja) 2016-05-30 2016-05-30 端末装置
JP2016-107450 2016-05-30
PCT/JP2017/018455 WO2017208814A1 (ja) 2016-05-30 2017-05-17 端末装置

Publications (2)

Publication Number Publication Date
CN109196552A CN109196552A (zh) 2019-01-11
CN109196552B true CN109196552B (zh) 2022-09-23

Family

ID=60479455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780033528.0A Active CN109196552B (zh) 2016-05-30 2017-05-17 终端装置

Country Status (5)

Country Link
US (1) US11016296B2 (zh)
EP (1) EP3467768B1 (zh)
JP (1) JP2017215664A (zh)
CN (1) CN109196552B (zh)
WO (1) WO2017208814A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6836060B2 (ja) * 2017-01-31 2021-02-24 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7143092B2 (ja) * 2018-03-12 2022-09-28 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、および画像処理方法
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259973A (ja) * 2001-02-27 2002-09-13 Ntt Docomo Inc 特徴領域抽出方法およびその装置ならびに情報提供方法およびその装置
JP2005147674A (ja) * 2003-11-11 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 景観記録ナビゲーション装置
US20100189365A1 (en) * 2009-01-29 2010-07-29 Sony Corporation Imaging apparatus, retrieval method, and program
JP2011138258A (ja) * 2009-12-28 2011-07-14 Rakuten Inc 景観再現システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144042A (ja) * 1997-11-12 1999-05-28 Naoki Harigai レンタカ−の新規傷発見方法と、その方法を実施するための傷発見装置
JP4727188B2 (ja) * 2004-08-31 2011-07-20 オリンパス株式会社 重畳型画像観察装置
EP2356583B9 (en) * 2008-11-10 2014-09-10 Metaio GmbH Method and system for analysing an image generated by at least one camera
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
JP2012203668A (ja) * 2011-03-25 2012-10-22 Sony Corp 情報処理装置、物体認識方法、プログラム及び端末装置
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
JP6040715B2 (ja) 2012-11-06 2016-12-07 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
KR101811817B1 (ko) * 2013-02-14 2018-01-25 세이코 엡슨 가부시키가이샤 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
US20150103183A1 (en) * 2013-10-10 2015-04-16 Nvidia Corporation Method and apparatus for device orientation tracking using a visual gyroscope
US10430985B2 (en) * 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US9626802B2 (en) * 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
JP2016033759A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
JP6403262B2 (ja) 2014-12-04 2018-10-10 タイガースポリマー株式会社 中空円筒状樹脂成形体の製造方法
US9746675B2 (en) * 2015-05-28 2017-08-29 Microsoft Technology Licensing, Llc Alignment based view matrix tuning
JP6594666B2 (ja) * 2015-06-01 2019-10-23 オリンパス株式会社 撮像補助装置、撮像装置および撮像補助方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259973A (ja) * 2001-02-27 2002-09-13 Ntt Docomo Inc 特徴領域抽出方法およびその装置ならびに情報提供方法およびその装置
JP2005147674A (ja) * 2003-11-11 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 景観記録ナビゲーション装置
US20100189365A1 (en) * 2009-01-29 2010-07-29 Sony Corporation Imaging apparatus, retrieval method, and program
JP2011138258A (ja) * 2009-12-28 2011-07-14 Rakuten Inc 景観再現システム

Also Published As

Publication number Publication date
US20200326540A1 (en) 2020-10-15
EP3467768A4 (en) 2020-01-22
WO2017208814A1 (ja) 2017-12-07
US11016296B2 (en) 2021-05-25
CN109196552A (zh) 2019-01-11
EP3467768A1 (en) 2019-04-10
JP2017215664A (ja) 2017-12-07
EP3467768B1 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
CN108886578B (zh) 用于增强现实姿势对准的虚拟提示
US9696543B2 (en) Information processing apparatus and information processing method
US7542051B2 (en) Calibration method and apparatus
US9286725B2 (en) Visually convincing depiction of object interactions in augmented reality images
JP5646263B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
US20050270368A1 (en) Motion sensor using dual camera inputs
CN109196552B (zh) 终端装置
EP3717990B1 (en) Real-world portals for virtual reality displays
CN107197137B (zh) 图像处理装置、图像处理方法以及记录介质
US20140072274A1 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method
WO2011148544A1 (ja) 携帯型電子機器
CN109491496A (zh) 头部佩戴型显示装置和头部佩戴型显示装置的控制方法
CN107562189B (zh) 一种基于双目摄像头的空间定位方法及服务设备
US9478068B2 (en) Computer-readable medium, image processing device, image processing system, and image processing method
JP2014165810A (ja) パラメータ取得装置、パラメータ取得方法及びプログラム
US9167231B2 (en) System and method for calibrating a stereoscopic camera based on manual alignment of test images
KR20150046693A (ko) 증강 현실을 이용한 차량 손상 관리 장치 및 방법
KR101308184B1 (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
US20220070365A1 (en) Mixed reality image capture and smart inspection
JP5213883B2 (ja) 合成表示装置
KR20210144990A (ko) 파노라마 이미지를 제공하는 방법 및 이를 지원하는 전자 장치
JP6444981B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN111340933A (zh) 图像处理装置、图像处理系统、图像处理方法和存储介质
CN111242107B (zh) 用于设置空间中的虚拟对象的方法和电子设备
US9158984B2 (en) Computer-readable recording medium recording program for image processing, information processing apparatus, information processing system, and image processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant