JP2017215664A - 端末装置 - Google Patents

端末装置 Download PDF

Info

Publication number
JP2017215664A
JP2017215664A JP2016107450A JP2016107450A JP2017215664A JP 2017215664 A JP2017215664 A JP 2017215664A JP 2016107450 A JP2016107450 A JP 2016107450A JP 2016107450 A JP2016107450 A JP 2016107450A JP 2017215664 A JP2017215664 A JP 2017215664A
Authority
JP
Japan
Prior art keywords
target image
unit
terminal device
feature
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016107450A
Other languages
English (en)
Other versions
JP2017215664A5 (ja
Inventor
辰巳 炭竃
Tatsumi Sumikama
辰巳 炭竃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suncorporation
Original Assignee
Suncorporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suncorporation filed Critical Suncorporation
Priority to JP2016107450A priority Critical patent/JP2017215664A/ja
Priority to PCT/JP2017/018455 priority patent/WO2017208814A1/ja
Priority to EP17806372.3A priority patent/EP3467768B1/en
Priority to CN201780033528.0A priority patent/CN109196552B/zh
Priority to US16/305,682 priority patent/US11016296B2/en
Publication of JP2017215664A publication Critical patent/JP2017215664A/ja
Publication of JP2017215664A5 publication Critical patent/JP2017215664A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

【課題】予め定められた条件が成立する場合に、撮影済みの画像を表示部に適切に表示させることができる技術を提供する。【解決手段】端末装置は、第1種の対象画像と第1種の特徴情報とを対応付けてメモリに記憶させた後、第1種の特徴情報が示す特徴(即ち、対象位置及び対象姿勢)に一致する特徴(即ち、端末装置の位置及び姿勢)が検出される場合(図4のS34でYES)に、当該第1種の特徴情報に対応付けられてメモリ32に記憶されている第1種の対象画像を表示部10に表示させる(S36、S38)。【選択図】図4

Description

本明細書によって開示される技術は、画像を表示部に表示させる端末装置に関する。
特許文献1には、ユーザの頭部に装着して用いられる画像表示装置が開示されている。この種の画像表示装置は、ユーザの視界に対応する範囲の画像(即ち、現実画像)を表示する表示部と、表示部に表示される画像に関連するオブジェクトを表すオブジェクト画像を表示部に表示されている現実画像に合成して表示させるコンピュータと、を備える。
特開2014−93050号公報
予め定められた条件が成立する場合に、撮影済みの画像を適切に表示させることができる技術の提供が求められている。
本明細書では、予め定められた条件が成立する場合に、撮影済みの画像を表示部に適切に表示させることができる技術を開示する。
本明細書が開示する一の端末装置は、撮影部と、表示部と、制御部と、記憶部とを備える。制御部は、撮影制御部と、生成部と、記憶制御部と、表示制御部と、を備える。撮影制御部は、撮影部に撮影を実行させる。生成部は、撮影部が対象画像を撮影する対象タイミングにおける端末装置の環境の特徴を示す特徴情報を生成する。記憶制御部は、撮影された対象画像と、生成された特徴情報と、を対応付けて記憶部に記憶させる。表示制御部は、対象画像及び特徴情報が記憶部に記憶された後で、特徴が検出される特定の場合に、当該特徴を示す特徴情報に対応付けられて記憶部に記憶されている対象画像を表示部に表示させる。
上記の端末装置は、対象画像と特徴情報とを対応付けて記憶部に記憶させた後、特徴が検出される特定の場合に、当該特徴を示す特徴情報に対応付けられて記憶部に記憶されている対象画像を表示部に表示させる。そのため、上記の端末装置によると、予め定められた条件が成立する場合である特定の場合に、撮影済みの対象画像を適切に表示部に表示させることができる。
本明細書が開示する他の端末装置は、表示部と、制御部と、記憶部とを備える。制御部は、取得部と、記憶制御部と、表示制御部とを備える。取得部は、撮影部が撮影した対象画像と、撮影部が対象画像を撮影する対象タイミングにおける撮影部の環境の特徴を示す特徴情報と、を取得する。記憶制御部は、取得された対象画像と特徴情報とを対応付けて記憶部に記憶させる。表示制御部は、対象画像及び特徴情報が記憶部に記憶された後で、特徴が検出される特定の場合に、当該特徴を示す特徴情報に対応付けられて記憶部に記憶されている対象画像を表示部に表示させる。
この端末装置による場合も、上記と同様に、予め定められた条件が成立する場合である特定の場合に、撮影部によって予め撮影された対象画像を適切に表示部に表示させることができる。
なお、上記の端末装置を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能記録媒体も、新規で有用である。
端末装置の外観を示す。 端末装置の構成を示す。 第1実施例の記録処理のフローチャートを示す。 第1実施例の再現処理のフローチャートを示す。 第1実施例において対象画像を現状に並べて表示させる表示例を示す。 第1実施例において対象画像を現状に重ねて表示させる表示例を示す。 第2実施例の記録処理のフローチャートを示す。 第2実施例の再現処理のフローチャートを示す。 第2実施例において対象画像を現状に並べて表示させる表示例を示す。 第2実施例において対象画像を現状に重ねて表示させる表示例を示す。 第3実施例において対象画像を現状に並べて表示させる表示例を示す。 第3実施例において対象画像を現状に重ねて表示させる表示例を示す。 第4実施例で用いられる対象画像の例を示す。 第4実施例において対象画像を現状に重ねて表示させる表示例を示す。
以下に説明する実施例の主要な特徴を列記しておく。なお、以下に記載する技術要素は、それぞれ独立した技術要素であって、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。
(特徴1)端末装置は、さらに、所定の領域内における端末装置の位置を検出する位置検出手段を備えていてもよい。生成部は、対象タイミングにおいて位置検出手段によって検出される対象位置を含む特徴を示す特徴情報を生成してもよい。表示制御部は、対象画像及び特徴情報が記憶部に記憶された後で、位置検出手段によって対象位置が検出される特定の場合に、当該対象位置を含む特徴を示す特徴情報に対応付けられて記憶部に記憶されている対象画像を、表示部に表示させてもよい。
ここで、「位置検出手段」は、例えばGPS受信機を含む。「位置検出手段」は、この他にも、制御部と通信インターフェース等、所定の領域内における端末装置の位置を検出可能な任意の手段を含む。制御部と通信インターフェースを位置検出手段として用いる場合、例えば、制御部は、通信インターフェースを介して、Wi−Fi通信用のアクセスポイントを検出し、当該アクセスポイントと端末装置との位置関係を算出することによって端末装置の位置を検出してもよい。
この構成によると、端末装置は、対象画像と特徴情報とを対応付けて記憶部に記憶させた後、位置検出手段によって対象位置が検出される特定の場合に、対象画像を表示部に表示させることができる。端末装置のユーザは、端末装置を、対象画像が撮影された対象タイミングにおいて検出された位置である対象位置に配置すれば、表示部に表示された対象画像を見ることができる。そのため、端末装置のユーザは、端末装置を、対象画像を撮影した際の位置と同じ位置に配置すれば、対象画像を見ることができる。従って、端末装置のユーザは、対象画像の撮影時の状況と現在の状況とを適切に比較し得る。
(特徴2)端末装置は、さらに、端末装置の姿勢を検出するセンサを備えていてもよい。生成部は、対象タイミングにおいてセンサによって検出される対象姿勢をさらに含む特徴を示す特徴情報を生成してもよい。表示制御部は、対象画像及び特徴情報が記憶部に記憶された後で、位置検出手段によって対象位置が検出されるとともに、センサによって対象姿勢が検出される特定の場合に、当該対象位置及び当該対象姿勢を含む特徴を示す特徴情報に対応付けられて記憶部に記憶されている対象画像を、表示部に表示させてもよい。
この構成によると、端末装置は、対象画像と特徴情報とを対応付けて記憶部に記憶させた後、位置検出手段によって対象位置が検出されるとともに、センサによって対象位置が検出される特定の場合に、対象画像を表示部に表示させることができる。端末装置のユーザは、端末装置を、対象画像が撮影された対象タイミングにおいて検出された位置である対象位置に配置するとともに、対象タイミングにおいて検出された姿勢に保持すれば、表示部に表示された対象画像を見ることができる。そのため、端末装置のユーザは、端末装置を、対象画像を撮影した際の位置と同じ位置に配置するとともに、同じ姿勢に保持すれば、対象画像を見ることができる。端末装置のユーザは、対象画像の撮影時の状況と現在の状況とをより適切に比較し得る。
(特徴3)生成部は、対象タイミングにおいて撮影部が撮影する対象画像内に含まれる特徴要素を特定し、特定された特徴要素を含む特徴を示す特徴情報を生成してもよい。表示制御部は、対象画像及び特徴情報が記憶部に記憶された後で、撮影部によって特徴要素が撮影されることが検出される特定の場合に、当該特徴要素を含む特徴を示す特徴情報に対応付けられて記憶部に記憶されている対象画像を、表示部に表示させてもよい。
この構成によると、端末装置は、対象画像と特徴情報とを対応付けて記憶部に記憶させた後、撮影部によって特徴要素が撮影されることが検出される特定の場合に、対象画像を表示部に表示させることができる。端末装置のユーザは、対象画像に含まれる特徴要素を撮影部によって再び撮影させれば、表示部に表示された対象画像を見ることができる。そのため、端末装置のユーザは、対象画像の撮影時の状況と現在の状況とをより適切に比較し得る。
(特徴4)端末装置は、さらに、ユーザの頭部に装着可能なフレームを備えていてもよい。撮影部は、フレームに搭載され、フレームを装着したユーザの視界範囲に対応する範囲を撮影可能であってもよい。表示部は、フレームに搭載され、フレームを装着したユーザの右眼と左眼の少なくとも一方に対向する位置に配置されてもよい。
この構成によると、端末装置は、ユーザの視界範囲に対応する範囲の対象画像を撮影して記憶部に記憶させ、特定の場合に対象画像を表示部に表示させることができる。端末装置のユーザは、自身の視界範囲を基準として、対象画像の撮影時の状況と現在の状況とを比較し得る。
(第1実施例)
(端末装置2の構成;図1、図2)
図1に示す端末装置2は、ユーザの頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。端末装置2は、フレーム4と、表示部10a、10bと、投影部11a、11bと、第1のカメラ12と、第2のカメラ14と、コントロールボックス16と、操作部18とを備えている。
フレーム4は、眼鏡フレーム状の部材である。ユーザは、眼鏡を装着するようにフレーム4を装着することによって、端末装置2を頭部に装着することができる。
表示部10a、10bは、それぞれ、透光性の表示部材である。ユーザが端末装置2を頭部に装着すると、ユーザの右眼に対向する位置に表示部10aが配置され、左眼に対向する位置に表示部10bが配置される。以下、左右の表示部10a、10bを総称して表示部10と呼ぶ場合がある。本実施例では、ユーザは、表示部10越しに周囲を視認することができる。
投影部11a、11bは、表示部10a、10bに画像を投影する部材である。投影部11a、11bは、表示部10a、10bの側部に設けられている。以下、左右の投影部11a、11bを総称して投影部11と呼ぶ場合がある。本実施例では、投影部11は、制御部30の指示に従って、所定の対象画像を表示部10に投影する。以下、本明細書では、制御部30が、投影部11に画像の投影を指示することによって、表示部10に所望の画面を表示させることを説明する場合に、投影部11の動作の説明を省略し、単に「制御部30が表示部10に所望の画像を表示させる」などと表現する場合がある。
第1のカメラ12は、フレーム4のうち、表示部10aの上方位置(即ち、ユーザの右眼に対応する位置)に配置されているカメラである。一方、第2のカメラ14は、フレーム4のうち、表示部10bの上方位置(即ち、ユーザの左眼に対応する位置)に配置されているカメラである。第1のカメラ12と第2のカメラ14のそれぞれによって、端末装置2を装着するユーザの視界範囲に対応する範囲(以下では「特定範囲」と呼ぶ)を異なる角度から撮影することができる。以下、第1のカメラ12と第2のカメラ14とを合わせて単に「カメラ」と呼ぶ場合がある。
コントロールボックス16は、フレーム4の一部に取り付けられている箱体である。コントロールボックス16には、端末装置2の制御系統を司る各要素が収容されている。具体的に言うと、図2に示すように、コントロールボックス16には、GPS(Global Positioning Systemの略)受信機20と、センサ22と、通信インターフェース24と、制御部30と、メモリ32とが収納されている。以下では、インターフェースのことを「I/F」と記載する。
操作部18は、コントロールボックス16の外面に備えられている。操作部18は、ユーザが操作可能なボタンであり、ユーザは、操作部18を操作することによって、後述の撮影指示を含む様々な指示を端末装置2に入力することができる。
図2を参照して、コントロールボックス16内の各構成要素について説明する。GPS受信機20は、GPSのユーザセグメントであって、GPS衛星からの電波を受信して、地球上における自機の位置を計算して出力する。GPS受信機20から出力される位置を用いて、制御部30は、端末装置2の位置を特定することができる。
センサ22は、3軸加速度センサである。センサ22は、X,Y,Zの3軸の加速度を検出する。センサ22の検出値を用いて、制御部30は、端末装置2の姿勢、及び、運動状態を特定することができる。
通信I/F24は、外部の装置(例えば、通信機能を有する他の端末装置)と無線通信を実行するためのI/Fである。
制御部30は、メモリ32に記憶されているアプリケーションプログラム34に従って様々な処理を実行する。制御部30が実行する処理の内容は後で詳しく説明する。また、制御部30は、図2に示すように、表示部10、投影部11、第1のカメラ12、第2のカメラ14、操作部18、GPS受信機20、センサ22、通信I/F24、及び、メモリ32と電気的に接続されており、これらの各要素の動作を制御することができる。
メモリ32は、アプリケーションプログラム34を含む様々なプログラムを記憶している。アプリケーションプログラム34は、制御部30に、後述の記録処理(図3参照)、再現処理(図4参照)等の各種処理を実行させるためのプログラムである。また、メモリ32には、後述の記録処理が実行されることによって生成される対象画像と特徴情報との組合せを記憶するための画像記憶領域36が設けられている。
(記録処理;図3)
図3を参照して、本実施例の端末装置2の制御部30が実行する記録処理について説明する。ユーザが端末装置2を自身の頭部に装着し、端末装置2の電源をオンした後で、操作部18に所定の記録処理開始指示を入力すると、制御部30は、図3の記録処理を開始する。
S10では、制御部30は、カメラ(即ち、第1のカメラ12及び第2のカメラ14)を起動させる。カメラが起動すると、カメラは、上記の特定範囲を撮影するための撮影モードで動作を開始する。カメラが撮影モードで動作を開始すると、カメラは、特定範囲を継続して撮影する状態になるが、撮影指示(後述)が入力されない限りシャッターが開かれず、カメラが撮影している画像(静止画)はメモリ32には記憶されない。
続くS12では、制御部30は、撮影指示が入力されることを監視する。ユーザは、操作部18を操作し、画像の撮影を希望するタイミングで所定の撮影指示を入力することができる。撮影指示が入力されると、制御部30は、S12でYESと判断し、S14に進む。
S14では、制御部30は、カメラに撮影を実行させ、対象画像を生成する。具体的には、制御部30は、第1のカメラ12のシャッターを開いて画像を撮影するとともに第2のカメラ14のシャッターを開いて画像を撮影する。そして、第1のカメラ12による撮影画像と第2のカメラ14による撮影画像とを用いて1つの画像である対象画像を生成する。
続くS16では、制御部30は、この時点(即ち、対象画像が生成された時点)の端末装置2の位置である対象位置と、この時点の端末装置2の姿勢である対象姿勢とを特定する。具体的には、制御部30は、この時点でGPS受信機20が出力する位置に基づいて端末装置2の対象位置を特定するとともに、この時点でセンサ22が特定する姿勢に基づいて端末装置2の対象姿勢を特定する。
続くS18では、制御部30は、S16で特定された対象位置を示す情報及び対象姿勢を示す情報を含む特徴情報を生成する。特徴情報には、対象位置を示す情報及び対象姿勢を示す情報に加えて、対象画像の撮影日時、対象画像を識別するための画像番号等の各種情報が含まれる。
続くS20では、制御部30は、S14で生成された対象画像と、S18で生成された特徴情報とを対応付けてメモリ32の画像記憶領域36に記憶させる。これにより、画像記憶領域36には、対象画像と特徴情報との組合せが記憶される。
S20を終えると、制御部30は、S12に戻って新たな撮影指示が入力されることを監視する。新たな撮影指示が入力される毎に、画像記憶領域36には、対象画像と特徴情報との新たな組合せが記憶される(S14〜S20)。なお、図3の記録処理の実行中に、操作部18において所定の処理終了指示が入力されると、制御部30は、カメラを停止し、図3の記録処理を終了する。
(再現処理;図4)
図4を参照して、本実施例の端末装置2の制御部30が実行する再現処理について説明する。ユーザが端末装置2を自身の頭部に装着し、端末装置2の電源をオンした後で、操作部18に所定の再現処理開始指示を入力すると、制御部30は、図4の再現処理を開始する。
S30では、制御部30は、カメラを起動させる。上記の通り、カメラが起動すると、カメラは撮影モードで動作を開始する。続くS32では、制御部30は、GPS受信機20が出力する位置と、センサ22が特定する姿勢とに基づいて、この時点の端末装置2の位置及び姿勢を特定する。
続くS34では、制御部30は、メモリ32の画像記憶領域36内に、S32で特定された位置及び姿勢と一致する対象位置を示す情報及び対象姿勢を示す情報を含む特徴情報(以下、本実施例では「第1種の特徴情報」と呼ぶ場合がある)が記憶されているか否かを判断する。画像記憶領域36内に第1種の特徴情報が存在する場合、制御部30はS34でYESと判断し、S36に進む。一方、画像記憶領域36内に第1種の特徴情報が存在しない場合、制御部30はS34でNOと判断し、S32に戻る。
S36では、制御部30は、画像記憶領域36内において、第1種の特徴情報に対応付けられている対象画像(以下では「第1種の対象画像」)を特定する。
続くS38では、制御部30は、S36で特定された第1種の対象画像を表示部10に表示させる。S38において第1種の対象画像を表示部10に表示させる表示例は、図5、図6を参照して後で詳しく説明する。第1種の対象画像が表示部10に表示されている間は、ユーザは、操作部18を操作して、所定の表示切替指示を入力することができる。制御部30は、表示切替指示が入力されると、入力された表示切替指示に従って第1種の対象画像の表示態様を変更する。
続くS40では、制御部30は、所定の表示終了指示が入力されることを監視する。第1種の対象画像が表示部10に表示されている間に、ユーザは、操作部18を操作して、所定の表示終了指示を入力することができる。制御部30は、表示終了指示が入力されると、S40でYESと判断し、S42で第1種の対象画像の表示を終了させる。その後、S32に戻り、S32で取得される端末装置2の位置及び姿勢に基づいて、再びS34の判断を実行する。なお、図4の再現処理の実行中に、操作部18において所定の処理終了指示が入力されると、制御部30は、カメラを停止させ、図4の再現処理を終了させる。
(第1種の対象画像の表示例;図5、図6)
図5、図6を参照して、本実施例において、第1種の対象画像が表示部10に表示される際(図4のS38参照)の表示例を説明する。図5、図6の例では、ユーザが、入居時のアパートの居室内の状態を撮影した第1種の対象画像50と、現在(例えば退去前の引き渡し時点)のアパートの居室内の状態(以下では「現状」と呼ぶ場合がある)60と、を比較することを希望する状況が想定されている。より具体的には、入居時の居室の状態と、現在の居室の状態とを比較し、居住期間中に生じた傷や汚れがどのくらい存在するのかを確認することを希望する状況が想定されている。図5、図6は、いずれも、上記の状況下における第1種の対象画像50の表示例を示す。制御部30は、表示切替指示が入力されると、図5の表示態様と図6の表示態様とを切り替えて表示部10に表示させることができる。
図5の例では、表示部10の左側(即ち、ユーザの視界範囲の左側)に第1種の対象画像50が表示されている。図5の表示態様によると、ユーザは、表示部10の左側に表示された第1種の対象画像50と、表示部10の右側(即ち、ユーザの視界範囲の右側)を通してユーザが直接視認可能な現状60と、を見比べて比較することができる。第1種の対象画像50には、窓枠52の画像が含まれている。また、第1種の対象画像50には、対象画像である旨の表示と、当該対象画像の撮影日時(「2006.04.01」)も併せて表示されている。一方、現状60では、第1種の対象画像50の窓枠52と同様の窓枠62が存在するが、窓にカーテン64が取り付けられている点で第1種の対象画像50と異なる。また、現状60では、壁に傷66及び汚れ68が存在している点でも第1種の対象画像50と異なる。このように、ユーザは、第1種の対象画像50と現状60とを比較して差異点を特定することができる。そのため、例えばアパートの退去時の原状回復確認作業等を、過去に撮影された第1種の対象画像50と現状60とを比較して行うことができる。そのため、ユーザの利便性に資すると共に、確認時のトラブルの発生の抑制にも資する。
図6の例では、表示部10(即ちユーザの視界範囲)の全面に第1種の対象画像50が表示されている。表示部10は光透過性を有するため、ユーザは、第1種の対象画像50を通して、その向こう側に存在する現状60を視認することができる。図6に示すように、ユーザが、窓枠52と窓枠62とが重なるように位置合わせをすることにより、過去に撮影された第1種の対象画像50と現状60とを比較することができる。
(本実施例の作用効果)
上記の通り、本実施例では、端末装置2は、第1種の対象画像と第1種の特徴情報とを対応付けてメモリ32に記憶させた後(図3のS20)、第1種の特徴情報が示す特徴(即ち、対象位置及び対象姿勢)に一致する特徴(即ち、端末装置2の位置及び姿勢)が検出される場合(図4のS34でYES)に、当該第1種の特徴情報に対応付けられてメモリ32に記憶されている第1種の対象画像を表示部10に表示させる(S36、S38)。従って、本実施例の端末装置2によると、予め定められた条件が成立する場合(即ち、第1種の特徴情報が示す特徴に一致する特徴が検出される場合)に、撮影済みの第1種の対象画像を適切に表示部10に表示させることができる。
また、本実施例では、特徴情報は、対象位置を示す情報及び対象姿勢を示す情報を含んでいる。端末装置2は、第1種の対象画像と第1種の特徴情報とを対応付けてメモリ32に記憶させた後、GPS受信機20によって第1種の特徴情報に含まれる情報が示す対象位置が検出されるとともに、センサ22によって第1種の特徴情報に含まれる情報が示す対象位置が検出される場合(S34でYES)に、第1種の対象画像を表示部10に表示させることができる。ユーザは、端末装置2を、第1種の対象画像が撮影されたタイミングにおいて検出された位置である対象位置に配置し、かつ、そのタイミングにおいて検出された姿勢に保持すれば、表示部10に表示された第1種の対象画像を見ることができる。言い換えると、端末装置2のユーザは、端末装置2を、第1種の対象画像を撮影した際の位置と同じ位置に配置し、その際と同じ姿勢に保持すれば、第1種の対象画像を見ることができる。端末装置2のユーザは、対象画像の撮影時の状況と現在の状況とを適切に比較することができる。
また、本実施例では、端末装置2は、ユーザの頭部に装着可能なフレーム4を備えており、各構成要素はいずれもフレーム4に搭載されている。カメラ(即ち、第1のカメラ12及び第2のカメラ14)は、フレーム4を装着したユーザの視界範囲に対応する範囲を撮影可能であり、表示部10a、10bは、それぞれ、フレーム4を装着したユーザの右眼と左眼に対向する位置に配置されている。そのため、本実施例の端末装置2は、ユーザの視界範囲に対応する範囲の対象画像を撮影してメモリ32に記憶させ、上記の場合(図4のS34でYES)に、第1種の対象画像を、ユーザの視界範囲に対応する表示部10に表示させることができる。ユーザは、自身の視界範囲を基準として、対象画像の撮影時の状況と現在の状況とを比較することができる。
(対応関係)
本実施例と請求項の対応関係を説明する。第1のカメラ12及び第2のカメラ14が「撮影部」の一例である。GPS受信機20が「位置検出手段」の一例である。メモリ32が「記憶部」の一例である。図4のS34でYESの場合が「特定の場合」の一例である。
(第2実施例)
第1実施例とは異なる点を中心に説明する。本実施例の端末装置2も、基本的な構成は第1実施例の端末装置2(図1、図2参照)と共通するが、GPS受信機20及びセンサ22を備えない点が第1実施例と異なる。そのため、本実施例では、記録処理と再現処理の内容の一部も第1実施例とは異なる(図7、図8参照)。
(記録処理;図7)
S50〜S54の処理は、図3のS10〜S14の処理と同様であるため説明を省略する。S56では、制御部30は、S54で生成された対象画像中の特徴要素を抽出する。例えば、図9の例に示すように、対象画像に自動車72の画像が含まれる場合、当該自動車72のフロント部分74の構成(例えば、ヘッドライト、フロントグリル、ナンバープレートの各形状及び配置等)を特徴要素として抽出する。
続くS58では、制御部30は、S56で抽出された特徴要素を示す情報を含む特徴情報を生成する。そして、S60において、S54で生成された対象画像と、S58で生成された特徴情報とを対応付けてメモリ32の画像記憶領域36に記憶させる。S60を終えると、S52に戻る。
(再現処理;図8)
S70では、制御部30は、カメラを起動させ、カメラを動作モードで動作させる。そして、続くS72では、制御部30は、動作モードで動作しているカメラが撮影している画像中の特徴要素を抽出する。即ち、S72では、制御部30は、カメラが撮影する画像中の特徴要素をリアルタイムで抽出する。
続くS74では、制御部30は、メモリ32の画像記憶領域36内に、S72で抽出された特徴要素と一致する特徴要素を示す情報を含む特徴情報(以下、本実施例では「第2種の特徴情報」と呼ぶ場合がある)が記憶されているか否かを判断する。画像記憶領域36内に第2の特徴情報が存在する場合、制御部30はS74でYESと判断し、S76に進む。
S76では、制御部30は、画像記憶領域36内において、第2種の特徴情報に対応づけられている対象画像(以下では「第2種の対象画像」)を特定する。
S78では、制御部30は、S76で特定された第2種の対象画像を表示部10に表示させる。S78において第2種の対象画像を表示部10に表示させる表示例は、図9、図10を参照して後で詳しく説明する。続くS80、S82の各処理は、図4のS40、S42の各処理とほぼ同様であるため、詳しい説明を省略する。
(第2種の対象画像の表示例;図9、図10)
図9、図10を参照して、本実施例において、第2種の対象画像が表示部10に表示される際(図8のS78参照)の表示例を説明する。図9、図10の例では、ユーザが、レンタカーのレンタル開始時点の状態を撮影した第2種の対象画像70と、現在(例えば返却時点)のレンタカーの状態(以下では「現状」と呼ぶ場合がある)80と、を比較することを希望する状況が想定されている。図9、図10は、いずれも、上記の状況下における第2種の対象画像70の表示例を示す。制御部30は、表示切替指示が入力されると、図9の表示態様と図10の表示態様とを切り替えて表示部10に表示させることができる。
図9の例では、表示部10の左側に第2種の対象画像70が表示されている。図9の表示態様によると、ユーザは、表示部10の左側に表示された第2種の対象画像70と、表示部10の右側を通してユーザが直接視認可能な現状80と、を見比べて比較することができる。第2種の対象画像70には、レンタル対象の自動車72の画像が含まれている。第2種の対象画像70の撮影時点では、自動車72のフロント部分74の構成が特徴要素として抽出されている(図7のS56参照)。また、第2種の対象画像70には、対象画像である旨の表示と、当該対象画像の撮影日時も併せて表示されている。一方、現状80では、第2種の対象画像70の自動車72と同様の自動車82が存在している。フロント部分84の構成(即ち特徴要素)も第2種の対象画像70の自動車72と共通する。ただし、現状80の自動車82は、バンパー部分に傷86が存在している点で第2種の対象画像70と異なる。このように、ユーザは、第2種の対象画像70と現状80とを比較して差異点を特定することができる。そのため、例えばレンタカーの返却時の傷確認作業等を、過去に撮影された第2種の対象画像70と現状80とを比較して行うことができる。そのため、ユーザの利便性に資すると共に、確認時のトラブルの抑制にも資する。
図10の例では、表示部10(即ちユーザの視界範囲)の全面に第2種の対象画像70が表示されている。表示部10は光透過性を有するため、ユーザは、第2種の対象画像70を通して、その向こう側に存在する現状80を視認することができる。図10に示すように、ユーザが、自動車72と自動車82とが重なるように位置合わせをすることにより、過去に撮影された第2種の対象画像70と現状80とを比較することができる。
(本実施例の作用効果)
上記の通り、本実施例では、特徴情報は、対象画像中の特徴要素を示す情報を含む。端末装置2は、第2種の対象画像と第2種の特徴情報とを対応付けてメモリ32に記憶させた後、カメラによって再び特徴要素が撮影される場合(図8のS74でYES)に、第2種の対象画像を表示部10に表示させることができる。ユーザは、第2種の対象画像が撮影されたタイミングにおいて抽出された特徴要素を再びカメラに撮影させれば、表示部10に表示された第2種の対象画像を見ることができる。そのため、端末装置2のユーザは、第2種の対象画像の撮影時の状況と現在の状況とを適切に比較することができる。本実施例では、図8のS74でYESの場合が「特定の場合」の一例である。
特に、本実施例では、第1実施例とは異なり、特徴情報は、位置を示す情報及び姿勢を示す情報を含まないため、例えば、自動車のような動産における過去と現在の状況を比較することが必要な場合であっても、当該動産の存在位置に関わらず、過去と現在の状況を比較することができるという利点もある。
(第3実施例)
第3実施例は第2実施例の変形例である。第3実施例について、第2実施例と異なる点を中心に説明する。本実施例の端末装置2の構成も、基本的な構成は第2実施例の端末装置2と共通する。本実施例では、制御部30は、記録処理(図7参照)を実行しない点が第2実施例とは異なる。本実施例では、制御部30は、事前に記録処理を実行することに代えて、事前に他の装置(例えば、撮影部を備える端末装置等)から通信I/F24を介して対象画像と特徴情報との組合せを取得し、取得された対象画像と特徴情報との組合せをメモリ32の画像記憶領域36に記憶させる処理を行う。即ち、本実施例で画像記憶領域36に記憶される対象画像と特徴情報との組合せは、事前に他の装置によって生成されたものである。本実施例の対象画像は、他の装置によって撮影された画像である。その上で、本実施例でも、制御部30は、第3実施例と同様に再現処理(図8参照)を実行する。
(第2種の対象画像の表示例;図11、図12)
図11、図12を参照して、本実施例において、第2種の対象画像が表示部10に表示される際(図8のS78参照)の表示例を説明する。図11、図12の例では、ユーザが、遊技機(具体的にはパチンコ台)の審査機関による審査合格時点(若しくは遊技機メーカー出荷時点)の状態を撮影した第2種の対象画像90と、現在(例えば遊技店で稼働を開始した後の時点)の同種の遊技機の状態(以下では「現状」と呼ぶ場合がある)100と、を比較することを希望する状況が想定されている。より具体的には、遊技機の審査合格時点の遊技機の釘の向きと、現在の釘の向きとを比較し、釘の向きが過度に変更されていないか否かを確認することを希望する状況が想定されている。図11、図12は、いずれも、上記の状況下における第2種の対象画像90の表示例を示す。なお、図12は、理解の容易のために、遊技機の入賞口94(104)周辺部分を拡大した表示例を示す。本実施例でも、制御部30は、表示切替指示が入力されると、図11の表示態様と図12の表示態様とを切り替えて表示部10に表示させることができる。
図11の例では、表示部10の左側に第2種の対象画像90が表示されている。図11の表示態様によると、ユーザは、表示部10の左側に表示された第2種の対象画像90と、表示部10の右側を通してユーザが直接視認可能な現状100と、を見比べて比較することができる。第2種の対象画像90には、遊技機92の審査合格時点において撮影された遊技機92の画像が含まれている。遊技機92には、主に、遊技媒体(具体的にはパチンコ玉)が投入される遊技領域(盤面)93と、盤面93に投入されたパチンコ玉が入る入賞口94と、盤面93に配置される装飾95と、投入されたパチンコ玉の軌道を変更させるための釘96と、が設けられている。第2種の対象画像90の撮影時点では、これらの各構成93、94、95、96が特徴要素として抽出されている(図7のS56参照)。また、遊技機92と同機種の他の遊技機も、同様の特徴要素を有する。
一方、右側の現状100では、第2種の対象画像90の遊技機92と同機種の遊技機102が存在する。そのため、遊技機102も、第2種の対象画像90の遊技機92と共通する盤面103、入賞口104、装飾105、及び、釘106を有する。ただし、現状100の遊技機102では、釘106の向き(即ち、釘106の頭部の位置)が、第2種の対象画像90の遊技機92の釘96の向きと異なっている。このように、ユーザは、第2種の対象画像90と現状100とを比較して差異点を特定することができる。そのため、ユーザは、審査合格時点の遊技機92の釘96の向きと、現在の遊技機102の釘106の向きとを比較し、釘106の向きが過度に変更されていないか否かを確認することができる。
図12の例では、表示部10(即ちユーザの視界範囲)の全面に第2種の対象画像90が表示されている。表示部10は光透過性を有するため、ユーザは、第2種の対象画像90を通して、その向こう側に存在する現状100を視認することができる。図12に示すように、ユーザが、入賞口94と入賞口104とが重なるように位置合わせをすることにより、審査合格時点の遊技機92の釘96の向きと、現在の遊技機102の釘106の向きとをより容易に比較することができる。
(本実施例の作用効果)
上記の通り、本実施例の端末装置2では、制御部30は、記録処理(図7参照)を実行することに代えて、事前に他の装置(例えば、撮影部を備える端末装置等)から対象画像と特徴情報との組合せを取得し、取得された対象画像と特徴情報との組合せをメモリ32の画像記憶領域36に記憶させる。そして、再現処理(図8参照)を実行する。そのため、本実施例による場合も、第2実施例と同様に、第2種の対象画像が撮影されたタイミングにおいて抽出された第2種の特徴要素を再びカメラに撮影させれば、表示部10に表示された第2種の対象画像を見ることができる。そのため、端末装置2のユーザは、第2種の対象画像の撮影時の状況と現在の状況とを適切に比較することができる。本実施例では、撮影部を備える他の装置が「撮影部」の一例である。
(第4実施例)
第4実施例は第3実施例の変形例である。第4実施例について、第3実施例と異なる点を中心に説明する。本実施例でも、制御部30は、事前に記録処理を実行することに代えて、事前に他の装置から通信I/F24を介して対象画像と特徴情報との組合せを取得し、取得された対象画像と特徴情報との組合せをメモリ32の画像記憶領域36に記憶させる処理を行う。ただし、本実施例では、事前に他の装置から取得する対象画像は、他の装置のカメラ等によって事前に撮影された画像(即ち撮影画像)ではなく、他の装置において事前に生成された仮想画像である点が第3実施例とは異なる。
図13を参照して、本実施例で用いられる対象画像110の例を説明する。この対象画像110は、遊技機(図9、図10参照)に設けられた入賞口114と、釘の頭部116と、を示す仮想画像を含む。釘の頭部116の仮想画像は、目立つ色で着色されている。他の装置において対象画像110が生成される際に、入賞口114の形状及び配置、釘の頭部116の位置が、それぞれ特徴要素として抽出されている。特徴情報は、これらの特徴要素を示す情報を含む。そして、本実施例でも、制御部30は、第3実施例と同様に再現処理(図8参照)を実行する。
(第2種の対象画像の表示例;図14)
図14を参照して、本実施例において、第2種の対象画像(即ち図13の対象画像110)が表示部10に表示される際(図8のS78参照)の表示例を説明する。図14の例では、図12の例と同様に、表示部10の全面に第2種の対象画像110が表示されている。表示部10は光透過性を有するため、ユーザは、第2種の対象画像110を通して、その向こう側に存在する現状100を視認することができる。図14に示すように、ユーザが、仮想画像の入賞口114と現実の入賞口104とが重なるように位置合わせをすることにより、仮想画像の釘の頭部116と、現在の遊技機102の釘106の頭部の位置とをより容易に比較することができる。
(本実施例の作用効果)
本実施例による場合も、第2種の対象画像に対応付けられてメモリ32に記憶されている第2種の特徴要素をカメラに撮影させれば、表示部10に表示された第2種の対象画像を見ることができる。そのため、端末装置2のユーザは、第2種の対象画像と現在の状況とを適切に比較することができる。
以上、本明細書で開示する技術の実施例を詳細に説明したが、上記の実施例は例示に過ぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)上記の各実施例では、端末装置2は、フレーム4にすべての構成要素10〜32が搭載された1個の装置として構成されている。これに限られず、端末装置2の構成要素の一部がフレーム4外に設けられていてもよい。例えば、カメラが、制御部30と通信可能な態様でフレーム4外に設けられていてもよい。その場合、制御部30が、カメラが撮影した画像を取得できればよい。例えば、カメラは他の装置(例えばドライブレコーダー等)に備えられているカメラであってもよい。また、例えば、メモリ32が、制御部30と通信可能な態様でフレーム4外に設けられていてもよい。この変形例では、フレーム4に搭載されている構成要素と、フレーム4外に設けられている構成要素とを組み合わせることによって端末装置2が形成されていればよい。
(変形例2)上記の各実施例では、端末装置2は、コントロールボックス16の外面に備えられている操作部18を有する。これに限られず、端末装置2には、物理的な操作部18が設けられていなくてもよい。その場合、記録処理開始指示、撮影指示、再現処理開始指示等の各種指示の入力は、制御部30が、カメラの撮影範囲(即ち上記の特定範囲)内で行われるユーザのジェスチャーを検出することによって行われてもよい。
(変形例3)上記の各実施例では、端末装置2は、第1のカメラ12と第2のカメラ14の2個のカメラを備えている。これに限られず、端末装置2は、1個のカメラのみを備えていてもよい。
(変形例4)上記の第1実施例では、端末装置2は、GPS受信機20とセンサ22とを備えている。そして、特徴情報は、対象位置を示す情報と、対象姿勢を示す情報とを含む。これに限られず、端末装置2は、センサ22を有していなくてもよい。その場合、特徴情報は、対象位置を示す情報を含んでいれば、対象姿勢を示す情報を含まなくてもよい。
(変形例5)上記の第1実施例では、制御部30は、GPS受信機20が出力する位置を用いて、端末装置2の位置を特定するが、端末装置2の位置を特定する手段はこれに限られない。例えば、制御部30は、通信I/F24を介して、Wi−Fi通信のためのアクセスポイントの存在を検出し、端末装置2とアクセスポイントの位置(既知の情報)との距離を算出し、端末装置2の位置を特定してもよい。即ち、「位置検出手段」は、GPS受信機に限られず、端末装置2の位置を検出可能な任意の手段を含んでもよい。
(変形例6)上記の第3、第4実施例においても、端末装置2がGPS受信機20及びセンサ22を備えていてもよい。そして、特徴情報は、所定の対象位置を示す情報と、所定の対象姿勢を示す情報とを含んでいてもよい。制御部30は、図8の再現処理に代えて、図4の再現処理(即ち、端末装置2の位置及び姿勢に基づく再現処理)を実行するようにしてもよい。
(変形例7)上記の各実施例では、図1に示すように、端末装置2は、ユーザの頭部に装着可能な形状を有している。しかしながら、端末装置2はユーザの頭部に装着可能な形状に限られず、他の任意の形状(例えば、ユーザが把持可能な形状)を採用してもよい。
(変形例8)上記の各実施例では、カメラによって撮影される対象画像はいずれも静止画であるが、これに限られず、対象画像が動画であってもよい。
(変形例9)上記の各実施例では、端末装置2の表示部10は、透光性の表示部材である。これに限られず、端末装置2の表示部は、遮光性のディスプレイであってもよい。
また、本明細書又は図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書又は図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
2:端末装置
4:フレーム
10(10a,10b):表示部
11(11a,11b):投影部
12:第1のカメラ
14:第2のカメラ
16:コントロールボックス
18:操作部
20:GPS受信機
22:センサ
24:通信I/F
30:制御部
32:メモリ
34:アプリケーションプログラム
36:画像記憶領域
50:第1種の対象画像
52:窓枠
60:現状
62:窓枠
64:カーテン
66:傷
68:汚れ
70:第2種の対象画像
72:自動車
74:フロント部分(特徴要素)
80:現状
82:自動車
84:フロント部分(特徴要素)
86:傷
90:第2種の対象画像
92:遊技機
93:盤面(特徴要素)
94:入賞口(特徴要素)
95:装飾(特徴要素)
96:釘(特徴要素)
100:現状
102:遊技機
103:盤面(特徴要素)
104:入賞口(特徴要素)
105:装飾(特徴要素)
106:釘(特徴要素)
110:対象画像(第2種の対象画像)
114:入賞口(特徴要素)
116:釘の頭部(特徴要素)

Claims (6)

  1. 端末装置であって、
    撮影部と、
    表示部と、
    制御部と、
    記憶部と、を備え、
    前記制御部は、
    前記撮影部に撮影を実行させる撮影制御部と、
    前記撮影部が対象画像を撮影する対象タイミングにおける前記端末装置の環境の特徴を示す特徴情報を生成する生成部と、
    撮影された前記対象画像と、生成された前記特徴情報と、を対応付けて前記記憶部に記憶させる記憶制御部と、
    前記対象画像及び前記特徴情報が前記記憶部に記憶された後で、前記特徴が検出される特定の場合に、当該特徴を示す前記特徴情報に対応付けられて前記記憶部に記憶されている前記対象画像を前記表示部に表示させる、表示制御部と、を備える、
    端末装置。
  2. 前記端末装置は、さらに、所定の領域内における前記端末装置の位置を検出する位置検出手段を備え、
    前記生成部は、前記対象タイミングにおいて前記位置検出手段によって検出される対象位置を含む前記特徴を示す前記特徴情報を生成し、
    前記表示制御部は、前記対象画像及び前記特徴情報が前記記憶部に記憶された後で、前記位置検出手段によって前記対象位置が検出される前記特定の場合に、当該対象位置を含む前記特徴を示す前記特徴情報に対応付けられて前記記憶部に記憶されている前記対象画像を、前記表示部に表示させる、
    請求項1に記載の端末装置。
  3. 前記端末装置は、さらに、前記端末装置の姿勢を検出するセンサを備え、
    前記生成部は、前記対象タイミングにおいて前記センサによって検出される対象姿勢をさらに含む前記特徴を示す前記特徴情報を生成し、
    前記表示制御部は、前記対象画像及び前記特徴情報が前記記憶部に記憶された後で、前記位置検出手段によって前記対象位置が検出されるとともに、前記センサによって前記対象姿勢が検出される前記特定の場合に、当該対象位置及び当該対象姿勢を含む前記特徴を示す前記特徴情報に対応付けられて前記記憶部に記憶されている前記対象画像を、前記表示部に表示させる、
    請求項2に記載の端末装置。
  4. 前記生成部は、前記対象タイミングにおいて前記撮影部が撮影する前記対象画像内に含まれる特徴要素を特定し、特定された前記特徴要素を含む前記特徴を示す前記特徴情報を生成し、
    前記表示制御部は、前記対象画像及び前記特徴情報が前記記憶部に記憶された後で、前記撮影部によって前記特徴要素が撮影されることが検出される前記特定の場合に、当該特徴要素を含む前記特徴を示す前記特徴情報に対応付けられて前記記憶部に記憶されている前記対象画像を、前記表示部に表示させる、
    請求項1に記載の端末装置。
  5. 前記端末装置は、さらに、
    ユーザの頭部に装着可能なフレームを備え、
    前記撮影部は、前記フレームに搭載され、前記フレームを装着した前記ユーザの視界範囲に対応する範囲を撮影可能であり、
    前記表示部は、前記フレームに搭載され、前記フレームを装着した前記ユーザの右眼と左眼の少なくとも一方に対向する位置に配置される、
    請求項1から4のいずれか一項に記載の端末装置。
  6. 端末装置であって、
    表示部と、
    制御部と、
    記憶部と、を備え、
    前記制御部は、
    撮影部が撮影した対象画像と、前記撮影部が前記対象画像を撮影する対象タイミングにおける前記撮影部の環境の特徴を示す特徴情報と、を取得する取得部と、
    取得された前記対象画像と前記特徴情報とを対応付けて前記記憶部に記憶させる記憶制御部と、
    前記対象画像及び前記特徴情報が前記記憶部に記憶された後で、前記特徴が検出される特定の場合に、当該特徴を示す前記特徴情報に対応付けられて前記記憶部に記憶されている前記対象画像を前記表示部に表示させる、表示制御部と、を備える、
    端末装置。
JP2016107450A 2016-05-30 2016-05-30 端末装置 Pending JP2017215664A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016107450A JP2017215664A (ja) 2016-05-30 2016-05-30 端末装置
PCT/JP2017/018455 WO2017208814A1 (ja) 2016-05-30 2017-05-17 端末装置
EP17806372.3A EP3467768B1 (en) 2016-05-30 2017-05-17 Terminal apparatus
CN201780033528.0A CN109196552B (zh) 2016-05-30 2017-05-17 终端装置
US16/305,682 US11016296B2 (en) 2016-05-30 2017-05-17 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016107450A JP2017215664A (ja) 2016-05-30 2016-05-30 端末装置

Publications (2)

Publication Number Publication Date
JP2017215664A true JP2017215664A (ja) 2017-12-07
JP2017215664A5 JP2017215664A5 (ja) 2019-06-27

Family

ID=60479455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016107450A Pending JP2017215664A (ja) 2016-05-30 2016-05-30 端末装置

Country Status (5)

Country Link
US (1) US11016296B2 (ja)
EP (1) EP3467768B1 (ja)
JP (1) JP2017215664A (ja)
CN (1) CN109196552B (ja)
WO (1) WO2017208814A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099816A (ja) * 2017-01-31 2021-07-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7143092B2 (ja) * 2018-03-12 2022-09-28 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置、医療用観察装置、および画像処理方法
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005147674A (ja) * 2003-11-11 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 景観記録ナビゲーション装置
JP2006071746A (ja) * 2004-08-31 2006-03-16 Olympus Corp 重畳型画像観察装置
JP2010176346A (ja) * 2009-01-29 2010-08-12 Sony Corp 撮像装置および検索方法、並びにプログラム
JP2011138258A (ja) * 2009-12-28 2011-07-14 Rakuten Inc 景観再現システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144042A (ja) 1997-11-12 1999-05-28 Naoki Harigai レンタカ−の新規傷発見方法と、その方法を実施するための傷発見装置
JP4077608B2 (ja) 2001-02-27 2008-04-16 株式会社エヌ・ティ・ティ・ドコモ 特徴領域抽出方法およびその装置ならびに情報提供方法およびその装置
EP2356583B9 (en) * 2008-11-10 2014-09-10 Metaio GmbH Method and system for analysing an image generated by at least one camera
US9122707B2 (en) 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
JP2012203668A (ja) * 2011-03-25 2012-10-22 Sony Corp 情報処理装置、物体認識方法、プログラム及び端末装置
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
JP6040715B2 (ja) 2012-11-06 2016-12-07 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9916691B2 (en) * 2013-02-14 2018-03-13 Seiko Epson Corporation Head mounted display and control method for head mounted display
US20150103183A1 (en) * 2013-10-10 2015-04-16 Nvidia Corporation Method and apparatus for device orientation tracking using a visual gyroscope
US10430985B2 (en) * 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US9626802B2 (en) * 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
JP2016033759A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
JP6403262B2 (ja) 2014-12-04 2018-10-10 タイガースポリマー株式会社 中空円筒状樹脂成形体の製造方法
US9746675B2 (en) * 2015-05-28 2017-08-29 Microsoft Technology Licensing, Llc Alignment based view matrix tuning
JP6594666B2 (ja) * 2015-06-01 2019-10-23 オリンパス株式会社 撮像補助装置、撮像装置および撮像補助方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005147674A (ja) * 2003-11-11 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> 景観記録ナビゲーション装置
JP2006071746A (ja) * 2004-08-31 2006-03-16 Olympus Corp 重畳型画像観察装置
JP2010176346A (ja) * 2009-01-29 2010-08-12 Sony Corp 撮像装置および検索方法、並びにプログラム
JP2011138258A (ja) * 2009-12-28 2011-07-14 Rakuten Inc 景観再現システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021099816A (ja) * 2017-01-31 2021-07-01 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7273325B2 (ja) 2017-01-31 2023-05-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
CN109196552B (zh) 2022-09-23
EP3467768B1 (en) 2021-11-24
US11016296B2 (en) 2021-05-25
WO2017208814A1 (ja) 2017-12-07
CN109196552A (zh) 2019-01-11
EP3467768A4 (en) 2020-01-22
EP3467768A1 (en) 2019-04-10
US20200326540A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
CN107026973B (zh) 图像处理装置、图像处理方法与摄影辅助器材
JP4983784B2 (ja) 撮像システム、画像提示方法、制御装置、プログラム
WO2013069047A1 (ja) 画像生成装置および画像生成方法
WO2013069050A1 (ja) 画像生成装置および画像生成方法
WO2013069049A1 (ja) 画像生成装置および画像生成方法
CN110012228A (zh) 显示控制设备和显示控制设备的控制方法
WO2013069048A1 (ja) 画像生成装置および画像生成方法
US20120026376A1 (en) Anamorphic projection device
CN105141942B (zh) 3d图像合成方法及装置
US20140072274A1 (en) Computer-readable storage medium having information processing program stored therein, information processing apparatus, information processing system, and information processing method
WO2017208814A1 (ja) 端末装置
JP5530322B2 (ja) 表示装置および表示方法
JP2019176249A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び撮像装置
CN106664361A (zh) 信息处理装置、信息处理系统、信息处理方法和程序
US9478068B2 (en) Computer-readable medium, image processing device, image processing system, and image processing method
JP5880135B2 (ja) 検出装置、検出方法及びプログラム
WO2017122270A1 (ja) 画像表示装置
JPWO2020146785A5 (ja)
US9066010B2 (en) Photographing apparatus, photographing method and medium recording photographing control program
JP2014011654A (ja) 画像解析装置、画像解析方法、および画像解析システム
US20220070365A1 (en) Mixed reality image capture and smart inspection
KR101724754B1 (ko) 동작 인식을 이용한 차량주변 촬영시스템
JP2015103918A (ja) 撮像装置及び撮像装置の制御方法
US20230351632A1 (en) Method for providing visual content, host, and computer readable storage medium
JP2010268127A (ja) 制御装置、撮像装置、撮像システム、画像取得方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201019

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201027

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201104

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20201113

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20201117

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210629

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211019

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211026

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211130

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211130