WO2022269887A1 - ウェアラブル端末装置、プログラムおよび画像処理方法 - Google Patents

ウェアラブル端末装置、プログラムおよび画像処理方法 Download PDF

Info

Publication number
WO2022269887A1
WO2022269887A1 PCT/JP2021/024076 JP2021024076W WO2022269887A1 WO 2022269887 A1 WO2022269887 A1 WO 2022269887A1 JP 2021024076 W JP2021024076 W JP 2021024076W WO 2022269887 A1 WO2022269887 A1 WO 2022269887A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
terminal device
image
wearable terminal
user
Prior art date
Application number
PCT/JP2021/024076
Other languages
English (en)
French (fr)
Inventor
智和 足立
伸悟 伊東
解 清水
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to PCT/JP2021/024076 priority Critical patent/WO2022269887A1/ja
Priority to JP2023529392A priority patent/JPWO2022269887A1/ja
Publication of WO2022269887A1 publication Critical patent/WO2022269887A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Abstract

ユーザが装着して使用するウェアラブル端末装置は、ユーザの視認領域として空間を撮影するカメラと、少なくとも一つのプロセッサと、を備える。少なくとも一つのプロセッサは、ユーザの第1ジェスチャ操作に基づいて、カメラにより撮影された空間における視認領域の一部をキャプチャ領域として特定し、キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる。これにより、視認領域のうちユーザが所望する一部をキャプチャ画像として記憶部に記憶させることができるため、ユーザ利便性を高めることができる。

Description

ウェアラブル端末装置、プログラムおよび画像処理方法
 本開示は、ウェアラブル端末装置、プログラムおよび画像処理方法に関する。
 従来、ユーザが頭部に装着するウェアラブル端末装置を用いて、仮想画像および/または仮想空間をユーザに体感させる技術として、VR(仮想現実)、MR(複合現実)およびAR(拡張現実)が知られている。ウェアラブル端末装置は、ユーザが装着したときにユーザの視界を覆う表示部を有する。この表示部に、ユーザの位置および向きに応じて仮想画像および/または仮想空間を表示することで、あたかもこれらが存在しているかのような視覚効果を実現する(例えば、米国特許出願公開第2019/0087021号明細書、および米国特許出願公開第2019/0340822号明細書)。
 MRは、ユーザに現実空間を視認させつつ、現実空間の所定位置に仮想画像が存在しているように見せる表示を行うことで、現実空間と仮想画像とが融合した複合現実を体感させる技術である。また、VRは、MRにおける現実空間に代えて仮想空間をユーザに視認させることで、あたかもユーザが仮想空間にいるように体感させる技術である。
 VRおよびMRにおいて表示される仮想画像は、ユーザが位置する空間における表示位置が定められており、その表示位置がユーザの視認領域の内部にある場合に表示部に表示されてユーザに視認される。
 本開示のウェアラブル端末装置は、ユーザが装着して使用するウェアラブル端末装置であって、前記ユーザの視認領域として空間を撮影するカメラと、少なくとも一つのプロセッサと、を備える。前記少なくとも一つのプロセッサは、前記ユーザの第1ジェスチャ操作に基づいて、前記カメラにより撮影された前記空間における前記視認領域の一部をキャプチャ領域として特定し、前記キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる。
 また、本開示のプログラムは、ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラを備えたウェアラブル端末装置に設けられたコンピュータにより実行される。前記プログラムは、前記コンピュータに、前記ユーザの第1ジェスチャ操作に基づいて、前記カメラにより撮影された前記空間における前記視認領域の一部をキャプチャ領域として特定する処理、前記キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる処理、を実行させる。
 また、本開示の画像処理方法は、ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラを備えたウェアラブル端末装置に設けられたコンピュータが実行する画像処理方法である。当該画像処理方法では、前記ユーザの第1ジェスチャ操作に基づいて、前記カメラにより撮影された前記空間における前記視認領域の一部をキャプチャ領域として特定し、前記キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる。
ウェアラブル端末装置の構成を示す模式斜視図である。 ウェアラブル端末装置を装着しているユーザが視認する視認領域および仮想画像の例を示す図である。 空間における視認領域を説明する図である。 ウェアラブル端末装置の主要な機能構成を示すブロック図である。 キャプチャ領域を特定するための第1ジェスチャ操作の例を示す図である。 キャプチャ領域を特定するための第1ジェスチャ操作の例を示す図である。 カメラによる空間の全体の撮影画像を示す図である。 メニュー仮想画像を表示させるための第3ジェスチャ操作を説明する図である。 キャプチャ仮想画像が表示された状態の視認領域の例を示す図である。 キャプチャ仮想画像の表示方法の一例を示す図である。 キャプチャ仮想画像の表示方法の一例を示す図である。 外枠が強調表示されたキャプチャ仮想画像、およびキャプチャ仮想画像の移動方法を示す図である。 キャプチャ仮想画像の拡張方法を示す図である。 キャプチャ仮想画像から仮想画像領域を削除する動作を示す図である。 キャプチャ仮想画像から空間画像領域を削除する動作を示す図である。 キャプチャ仮想画像に含まれる仮想画像を複製する動作を示す図である。 キャプチャ仮想画像に含まれる仮想画像を複製する動作を示す図である。 キャプチャ仮想画像の移動方法を指定するための移動方法指定ボタンを示す図である。 キャプチャ仮想画像の枠内で仮想画像を移動させる動作を示す図である。 キャプチャ仮想画像の枠外に仮想画像を移動させる動作を示す図である。 キャプチャ仮想画像から人物の情報を抽出して表示する動作を示す図である。 抽出情報仮想画像の他の例を示す図である。 キャプチャ仮想画像から物品の情報を抽出して表示する動作を示す図である。 キャプチャ仮想画像から場所の情報を抽出して表示する動作を示す図である。 キャプチャ仮想画像から情報を抽出して表示する動作の他の例を示す図である。 キャプチャ仮想画像から文字の情報を抽出して表示する動作を示す図である。 抽出した文字の情報に対する各種処理を実行する場合の動作を示す図である。 キャプチャ仮想画像から二次元コードの情報を抽出して表示する動作を示す図である。 キャプチャ画像の生成時の位置情報を表示する動作を示す図である。 キャプチャ画像の生成時のユーザ情報を表示する動作を示す図である。 キャプチャが禁止されているときの表示動作を示す図である。 キャプチャ画像に音声を対応付けて記憶させる場合の表示動作を示す図である。 キャプチャ画像に音声が対応付けられている場合のキャプチャ仮想画像を示す図である。 他の物体の表面に表示されたキャプチャ仮想画像を示す図である。 表示対象とともに移動するキャプチャ仮想画像を示す図である。 表示対象とともに回転するキャプチャ仮想画像を示す図である。 キャプチャ仮想画像表示処理の制御手順を示すフローチャートである。 キャプチャ仮想画像表示処理の制御手順を示すフローチャートである。 第2の実施形態に係る表示システムの構成を示す模式図である。 外部機器の主要な機能構成を示すブロック図である。 画面共有中のウェアラブル端末装置の視認領域を示す図である。 画面共有中の外部機器の指示者用画面に表示されるダイアログ画像を示す図である。 画面共有中のウェアラブル端末装置の視認領域に表示されるダイアログ仮想画像を示す図である。 第3の実施形態に係る表示システムの構成を示す模式図である。 情報処理装置の主要な機能構成を示すブロック図である。
 以下、実施の形態を図面に基づいて説明する。ただし、以下で参照する各図は、説明の便宜上、実施形態を説明する上で必要な主要部材のみを簡略化して示したものである。したがって、本開示のウェアラブル端末装置10、外部機器20および情報処理装置80は、参照する各図に示されていない任意の構成部材を備え得る。
 〔第1の実施形態〕
 図1に示すように、ウェアラブル端末装置10は、本体部10a、および当該本体部10aに取り付けられたバイザー141(表示部材)などを備える。
 本体部10aは、その周長を調整可能な環状の部材である。本体部10aの内部には、深度センサー153およびカメラ154などの種々の機器が内蔵されている。本体部10aを頭部に装着すると、ユーザの視界がバイザー141によって覆われるようになっている。
 バイザー141は、光透過性を有する。ユーザは、バイザー141を通して現実空間を視認することができる。バイザー141のうちユーザの目に対向する表示面には、本体部10aに内蔵されたレーザースキャナー142(図4参照)から仮想画像等の画像が投影されて表示される。ユーザは、表示面からの反射光により仮想画像を視認する。このとき、ユーザは、併せてバイザー141越しに現実空間も視認しているため、あたかも現実空間に仮想画像が存在しているかのような視覚効果が得られる。
 図2に示すように、仮想画像30(第1の仮想画像)が表示された状態では、ユーザは、空間40における所定位置に、所定方向を向いた仮想画像30を視認する。本実施形態では、空間40は、ユーザがバイザー141越しに視認する現実空間である。仮想画像30は、光透過性を有するバイザー141に投影されているため、現実空間に重なる半透明の画像として視認される。図2では、仮想画像30として平面状のウィンドウ画面を例示しているが、これに限られず、仮想画像30は、例えば矢印等のオブジェクトであってもよいし、各種の立体画像(立体の仮想オブジェクト)であってもよい。仮想画像30がウィンドウ画面である場合には、仮想画像30は表面(第1面)および裏面(第2面)を有し、このうち表面に必要な情報が表示され、通常、裏面には情報が表示されない。
 ウェアラブル端末装置10は、空間40におけるユーザの位置および向き(言い換えると、ウェアラブル端末装置10の位置および向き)に基づいて、ユーザの視認領域41を検出する。図3に示すように、視認領域41は、空間40のうち、ウェアラブル端末装置10を装着しているユーザUの前方に位置する領域である。例えば、視認領域41は、ユーザUの正面から左右方向および上下方向にそれぞれ所定角度範囲内の領域である。この場合、視認領域41の形状に相当する立体を、ユーザUの正面方向に垂直な平面で切り取ったときの切り口の形状は矩形である。なお、視認領域41の形状は、当該切り口の形状が矩形以外(例えば、円形または楕円形等)となるように定められていてもよい。視認領域41の形状(例えば、正面から左右方向および上下方向の角度範囲)は、例えば以下の方法で特定することができる。
 ウェアラブル端末装置10では、初回起動時等の所定のタイミングにおいて、所定の手順で視野の調整(以下、キャリブレーションと記す)が行われる。このキャリブレーションにより、ユーザが視認できる範囲が特定され、以降、当該範囲内に仮想画像30が表示される。このキャリブレーションにより特定された視認可能な範囲の形状を、視認領域41の形状とすることができる。
 また、キャリブレーションは、上記の所定の手順で行われるものに限られず、ウェアラブル端末装置10の通常の操作を行っている中で自動的にキャリブレーションが行われてもよい。例えば、ユーザからのリアクションがなされるべき表示に対してリアクションがなされない場合に、当該表示を行っている範囲をユーザの視野の範囲外であるとみなして視野(および視認領域41の形状)を調整してもよい。また、視野の範囲外として定められている位置に試験的に表示を行い、当該表示に対するユーザのリアクションがあった場合に、当該表示を行っている範囲をユーザの視野の範囲内であるとみなして視野(および視認領域41の形状)を調整してもよい。
 なお、視認領域41の形状は、出荷時等において、視野の調整結果に基づかずに予め定められて固定されていてもよい。例えば、視認領域41の形状は、表示部14の光学設計上、最大限表示可能な範囲に定められていてもよい。
 仮想画像30は、ユーザの所定の操作に応じて、空間40における表示位置および向きが定められた状態で生成される。ウェアラブル端末装置10は、生成された仮想画像30のうち、視認領域41の内部に表示位置が定められている仮想画像30をバイザー141に投影させて表示する。図2においては、視認領域41が鎖線で示されている。
 バイザー141における仮想画像30の表示位置および向きは、ユーザの視認領域41の変化に応じてリアルタイムに更新される。すなわち、「設定された位置および向きで空間40内に仮想画像30が位置している」とユーザが認識するように、視認領域41の変化に応じて仮想画像30の表示位置および向きが変化する。例えば、ユーザが仮想画像30の表側から裏側に向かって移動すると、この移動に応じて表示される仮想画像30の形状(角度)が徐々に変化する。また、ユーザが仮想画像30の裏側に回り込んだ後で当該仮想画像30の方向を向くと、仮想画像30の裏面が視認されるように裏面が表示される。また、視認領域41の変化に応じて、表示位置が視認領域41から外れた仮想画像30は表示されなくなり、表示位置が視認領域41に入った仮想画像30があれば当該仮想画像30が新たに表示される。
 図2に示すように、ユーザが手(または指)を前方にかざすと、手を伸ばした方向がウェアラブル端末装置10により検出され、当該方向に延びる仮想線411と、ポインタ412とがバイザー141の表示面に表示されてユーザに視認される。ポインタ412は、仮想線411と仮想画像30との交点に表示される。仮想線411が仮想画像30と交差しない場合には、仮想線411と空間40の壁面等との交点にポインタ412が表示されてもよい。ユーザの手と仮想画像30との距離が所定の基準距離以内である場合に、仮想線411の表示を省略して、ユーザの指先の位置に応じた位置にポインタ412を直接表示させてもよい。
 ユーザが手を伸ばす方向を変えることで、仮想線411の方向およびポインタ412の位置を調整することができる。仮想画像30に含まれる所定の操作対象(例えば、機能バー31、ウィンドウ形状変更ボタン32、およびクローズボタン33等)にポインタ412が位置するように調整した状態で所定のジェスチャーを行うことで、当該ジェスチャーがウェアラブル端末装置10により検出され、操作対象に対する所定の操作を行うことができる。例えば、ポインタ412をクローズボタン33に合わせた状態で、操作対象を選択するジェスチャー(例えば、指先をつまむジェスチャー)を行うことで、仮想画像30を閉じる(削除する)ことができる。また、ポインタ412を機能バー31に合わせた状態で選択するジェスチャーを行い、選択状態のまま手を前後左右に移動させるジェスチャーを行うことで、仮想画像30を奥行方向および左右方向に移動させることができる。仮想画像30に対する操作はこれらに限られない。
 このように、本実施形態のウェアラブル端末装置10は、あたかも現実空間に仮想画像30が存在するかのような視覚効果を実現し、仮想画像30に対するユーザの操作を受け付けて仮想画像30の表示に反映させることができる。すなわち、本実施形態のウェアラブル端末装置10はMRを提供する。
 次に、図4を参照してウェアラブル端末装置10の機能構成について説明する。
 ウェアラブル端末装置10は、CPU11(Central Processing Unit)と、RAM12(Random Access Memory)と、記憶部13と、表示部14と、センサー部15と、通信部16と、マイク17と、スピーカー18などを備え、これらの各部はバス19により接続されている。図4に示す構成要素のうち表示部14のバイザー141を除いた各部は、本体部10aに内蔵されており、同じく本体部10aに内蔵されているバッテリーから供給される電力により動作する。
 CPU11は、各種演算処理を行い、ウェアラブル端末装置10の各部の動作を統括制御するプロセッサである。CPU11は、記憶部13に記憶されたプログラム131を読み出して実行することで、各種制御動作を行う。CPU11は、プログラム131を実行することで、例えば視認領域検出処理および表示制御処理などを実行する。このうち視認領域検出処理は、空間40内におけるユーザの視認領域41を検出する処理である。また、表示制御処理は、空間40における位置が定められた仮想画像30のうち、視認領域41の内部に位置が定められている仮想画像30を表示部14に表示させる処理である。
 なお、図4では単一のCPU11が図示されているが、これに限られない。CPU等のプロセッサが2以上設けられていてもよく、本実施形態のCPU11が実行する処理を、これらの2以上のプロセッサが分担して実行してもよい。
 RAM12は、CPU11に作業用のメモリ空間を提供し、一時データを記憶する。
 記憶部13は、コンピュータとしてのCPU11により読み取り可能な非一時的な記録媒体である。記憶部13は、CPU11により実行されるプログラム131、および各種設定データなどを記憶する。プログラム131は、コンピュータ読み取り可能なプログラムコードの形態で記憶部13に格納されている。記憶部13としては、例えばフラッシュメモリを備えたSSD(Solid State Drive)などの不揮発性の記憶装置が用いられる。
 記憶部13に記憶されるデータとしては、仮想画像30に係る仮想画像データ132などがある。仮想画像データ132は、仮想画像30の表示内容に係るデータ(例えば画像データ)、表示位置のデータ、および向きのデータなどを含む。
 表示部14は、バイザー141と、レーザースキャナー142と、当該レーザースキャナー142から出力された光をバイザー141の表示面に導く光学系とを有する。レーザースキャナー142は、CPU11からの制御信号に従って、画素ごとにオン/オフが制御されたパルス状のレーザー光を所定方向にスキャンしつつ光学系に照射する。光学系に入射したレーザー光は、バイザー141の表示面において2次元の画素マトリクスからなる表示画面を形成する。レーザースキャナー142の方式は、特には限られないが、例えばMEMS(Micro Electro Mechanical Systems)によりミラーを動作させてレーザー光をスキャンする方式を用いることができる。レーザースキャナー142は、例えばRGBの色のレーザー光を射出する3つの発光部を有する。表示部14は、これらの発光部からの光をバイザー141に投影することでカラー表示を行うことができる。
 センサー部15は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155などを備える。なお、センサー部15は、図4に示されていないセンサーをさらに有していてもよい。
 加速度センサー151は、加速度を検出して検出結果をCPU11に出力する。加速度センサー151による検出結果から、ウェアラブル端末装置10の直交3軸方向の並進運動を検出することができる。
 角速度センサー152(ジャイロセンサー)は、角速度を検出して検出結果をCPU11に出力する。角速度センサー152による検出結果から、ウェアラブル端末装置10の回転運動を検出することができる。
 深度センサー153は、ToF(Time of Flight)方式で被写体までの距離を検出する赤外線カメラであり、距離の検出結果をCPU11に出力する。深度センサー153は、視認領域41を撮影できるように本体部10aの前面に設けられている。空間40においてユーザの位置および向きが変化するごとに深度センサー153による計測を繰り返し行って結果を合成することで、空間40の全体の3次元マッピングを行う(すなわち、3次元構造を取得する)ことができる。
 カメラ154は、RGBの撮像素子群により空間40を撮影し、撮影結果としてカラー画像データを取得してCPU11に出力する。カメラ154は、視認領域41として空間40を撮影できるように本体部10aの前面に設けられている。カメラ154により撮影された空間40の画像は、ウェアラブル端末装置10の位置および向きなどの検出に用いられるほか、通信部16から外部機器に送信されて、ウェアラブル端末装置10のユーザの視認領域41を外部機器において表示するためにも用いられる。また、カメラ154により撮影された空間40の画像は、後述するように視認領域41をキャプチャ画像として記憶させる場合に、視認領域41の画像として用いられる。
 アイトラッカー155は、ユーザの視線を検出して検出結果をCPU11に出力する。視線の検出方法は、特には限られないが、例えば、ユーザの目における近赤外光の反射点をアイトラッキングカメラで撮影し、その撮影結果と、カメラ154による撮影画像とを解析してユーザが視認している対象を特定する方法を用いることができる。アイトラッカー155の構成の一部は、バイザー141の周縁部などに設けられていてもよい。
 通信部16は、アンテナ、変復調回路、信号処理回路などを有する通信モジュールである。通信部16は、所定の通信プロトコルに従って外部機器との間で無線通信によるデータの送受信を行う。また、通信部16は、外部機器との間で音声データ通信を行うことができる。すなわち、通信部16は、マイク17により収集された音声データを外部機器に送信し、スピーカー18から音声を出力させるために外部機器から送信された音声データを受信する。
 マイク17は、ユーザの声などの音を電気信号に変換してCPU11に出力する。
 スピーカー18は、入力された音声データを機械的な振動に変換して音として出力する。
 このような構成のウェアラブル端末装置10において、CPU11は、以下のような制御動作を行う。
 CPU11は、深度センサー153から入力された被写体までの距離データに基づいて空間40の3次元マッピングを行う。CPU11は、ユーザの位置および向きが変化するたびにこの3次元マッピングを繰り返し行い、都度結果を更新する。また、CPU11は、一繋がりの空間40を単位として3次元マッピングを行う。よって、壁などにより仕切られた複数の部屋の間をユーザが移動する場合には、CPU11は、それぞれの部屋を1つの空間40と認識し、部屋ごとに別個に3次元マッピングを行う。
 CPU11は、空間40内におけるユーザの視認領域41を検出する。詳しくは、CPU11は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155による検出結果と、蓄積されている3次元マッピングの結果と、に基づいて、空間40におけるユーザ(ウェアラブル端末装置10)の位置および向きを特定する。そして、特定した位置および向きと、予め定められている視認領域41の形状と、に基づいて視認領域41を検出(特定)する。また、CPU11は、ユーザの位置および向きの検出をリアルタイムで継続して行い、ユーザの位置および向きの変化に連動して視認領域41を更新する。なお、視認領域41の検出は、加速度センサー151、角速度センサー152、深度センサー153、カメラ154およびアイトラッカー155のうちの一部による検出結果を用いて行われてもよい。
 CPU11は、ユーザの操作に応じて仮想画像30に係る仮想画像データ132を生成する。すなわち、CPU11は、仮想画像30の生成を指示する所定の操作(ジェスチャー)を検出すると、仮想画像の表示内容(例えば画像データ)、表示位置、および向きを特定し、これらの特定結果を表すデータを含む仮想画像データ132を生成する。
 CPU11は、視認領域41の内部に表示位置が定められている仮想画像30を表示部14に表示させる。CPU11は、仮想画像データ132に含まれる表示位置の情報に基づいて仮想画像30を特定し、その時点における視認領域41と、仮想画像30の表示位置との位置関係に基づいて、表示部14に表示させる表示画面の画像データを生成する。CPU11は、この画像データに基づいてレーザースキャナー142にスキャン動作を行わせ、バイザー141の表示面に、仮想画像を含む表示画面を形成させる。すなわち、CPU11は、バイザー141を通して視認される空間40に仮想画像30が視認されるように、仮想画像30をバイザー141の表示面に表示させる。CPU11は、この表示制御処理を連続して行うことで、ユーザの動き(視認領域41の変化)に合わせて表示部14による表示内容をリアルタイムで更新する。ウェアラブル端末装置10が電源オフ状態となっても仮想画像データ132が保持される設定となっている場合には、次にウェアラブル端末装置10が起動したときには、既存の仮想画像データ132が読み込まれ、視認領域41の内部に仮想画像30があれば表示部14に表示される。
 なお、通信部16を介して外部機器から取得した指示データに基づいて仮想画像データ132を生成し、当該仮想画像データ132に基づいて仮想画像30を表示させてもよい。あるいは、通信部16を介して外部機器から仮想画像データ132そのものを取得し、当該仮想画像データ132に基づいて仮想画像30を表示させてもよい。例えば、遠隔指示者が操作する外部機器にウェアラブル端末装置10のカメラ154の映像を表示させるとともに、外部機器から仮想画像30を表示する指示を受け付け、指示された仮想画像30をウェアラブル端末装置10の表示部14に表示させてもよい。これにより、例えば、作業対象物の近傍に作業内容を示す仮想画像30を表示させて、遠隔指示者からウェアラブル端末装置10のユーザに対して作業を指示するといった動作が可能となる。
 CPU11は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)の位置および向きを検出し、検出した方向に延びる仮想線411と、ポインタ412とを表示部14に表示させる。また、CPU11は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)のジェスチャーを検出し、検出したジェスチャーの内容と、その時点におけるポインタ412の位置とに応じた処理を実行する。
 次に、ウェアラブル端末装置10の動作について、視認領域41のキャプチャ動作を中心に説明する。
 ウェアラブル端末装置10は、カメラ154を備えているため、ユーザの操作に応じたタイミングでカメラ154に空間40を撮影させて撮影画像を記憶させることで、その時点におけるユーザの視認領域41をキャプチャすることができる。しかしながら、単にカメラ154により撮影された視認領域41の全体の画像を記憶させる単純な方法では、キャプチャされた画像を必ずしもユーザが所望の用途で活用することができず、利便性が低い。このため、従来、ウェアラブル端末装置10における視認領域41のキャプチャ機能について、ユーザの利便性を考慮したユーザインターフェースの改良が求められていた。
 これに対し、本開示のウェアラブル端末装置10は、視認領域41のキャプチャに関する種々の機能を搭載している。以下、これらの機能に係る動作、および当該動作を実現するためにCPU11が実行する処理について説明する。
 図5および図6に示すように、本開示のウェアラブル端末装置10のCPU11は、ユーザの第1ジェスチャ操作に基づいて、カメラ154により撮影された空間40における視認領域41の一部をキャプチャ領域R(図6および図7参照)として特定し、特定したキャプチャ領域Rに対応するキャプチャ画像Cを記憶部13に記憶させる。これにより、視認領域41のうちユーザが所望する一部をキャプチャ画像Cとして記憶部13に記憶させることができるため、ユーザ利便性を高めることができる。キャプチャ画像Cは、視認領域41のうちキャプチャ領域Rに相当する部分の画像を含む。また、視認領域41に仮想画像30が表示されており、キャプチャ領域Rにこの仮想画像30が含まれている場合には、キャプチャ画像Cには、当該仮想画像30も反映される。よって、キャプチャ画像Cは、キャプチャ領域Rが特定されたときにユーザがバイザー141越しに視認している視界の一部をそのまま切り取った画像である。
 キャプチャ領域Rを特定するための第1ジェスチャ操作は、図5に示すように、ユーザの手のうち所定の部分の軌跡が視認領域41の一部を囲むように手を動かすジェスチャ操作であってもよい。この場合において、ユーザの手のうち所定の部分の軌跡が囲む領域を、キャプチャ領域Rとして特定することができる。第1ジェスチャ操作は、例えば、少なくとも一つの指を立てて、その指先の軌跡によりキャプチャ領域Rを囲むジェスチャ操作であってもよい。指を立てることで、他のジェスチャ操作と区別して誤検出を低減することができる。また、第1ジェスチャ操作は、両手を使った操作であってもよい。また、ユーザの手又は指に代えて、ポインタ412の軌跡が囲む領域をキャプチャ領域Rとして特定してもよい。図5では、視認領域41のうち、人物44と、仮想画像30の一部とを含む範囲がキャプチャ領域Rとして特定されている。
 キャプチャ領域Rを特定するための第1ジェスチャ操作は、図6に示すように、予め設定された大きさのキャプチャ枠rを、視認領域41における所望の位置に移動させて位置を確定させるジェスチャ操作であってもよい。キャプチャ枠rを動かす操作は、ユーザの指(またはポインタ412)の位置をキャプチャ枠rに合わせた状態で手(またはポインタ)を動かす操作であってもよい。また、キャプチャ枠rの位置を確定させる操作は、ユーザの手(指)で空間を叩く操作であってもよい。ここで、空間を叩く操作は、手(指)を自身から遠ざけたのちに近付ける操作を2回繰り返す操作などであってもよい。また、キャプチャ枠rの一部を指でつまんだ状態で(またはポインタ412により選択した状態で)手を動かすジェスチャ操作などによって、キャプチャ枠rの大きさを変更できるようになっていてもよい。あるいは、異なる大きさの2以上のキャプチャ枠rを表示させて、いずれかのキャプチャ枠rをユーザが選択できるようになっていてもよい。キャプチャ枠rの位置が確定すると、キャプチャ枠rにより囲まれた領域がキャプチャ領域Rとして特定される。
 キャプチャ領域Rが特定されると、CPU11は、その時点におけるカメラ154による空間40の全体の撮影画像D(図7参照)を記憶部13に記憶させる。また、CPU11は、撮影画像Dに、表示部14に表示させている仮想画像30を合成した合成画像E(図5の上図、および図6の上図に示されている視認領域41に相当)を記憶部13に記憶させる。また、CPU11は、この合成画像Eからキャプチャ領域Rに対応する部分画像を抽出してキャプチャ画像Cとして記憶部13に記憶させる。このように、CPU11は、キャプチャ領域に第1の仮想画像としての仮想画像30の少なくとも一部が含まれる場合に、仮想画像30の少なくとも一部が含まれるキャプチャ画像Cを記憶部13に記憶させる。これにより、仮想画像30を含むユーザの視界をそのままキャプチャ画像Cとして記憶させることができる。
 ユーザは、上記の第1ジェスチャ操作を行う場合には、まず所定の操作を行って、ウェアラブル端末装置10を、第1ジェスチャ操作を受け付け可能な状態に移行させる。例えば、図8に示すように、ユーザは、所定の第3ジェスチャ操作を行ってメニュー仮想画像61(第3の仮想画像)を表示部14に表示させる。そして、メニュー仮想画像61において、第1ジェスチャ操作の受け付けを開始させるためのキャプチャ操作開始ボタン611または612を選択する。メニュー仮想画像61を表示させるための第3ジェスチャ操作は、両手を所定の位置関係となるように動かすものであってもよい。例えば、図8の左上に示すように、左手の手首を右手の指で指し示すジェスチャ操作であってもよい。CPU11は、この第3ジェスチャ操作を検出すると、表示部14にメニュー仮想画像61を表示させる。また、第3ジェスチャ操作は、図8の右上に示すように、視認領域41の外側から視認領域41内に、所定の方向で手(またはポインタ412)を動かすジェスチャ操作であってもよい。CPU11は、この第3ジェスチャ操作を検出すると、手の動きに追従するように(図8の例では左側から)メニュー仮想画像61をスライドインさせて表示部14に表示させる。このように、CPU11は、ユーザの第3ジェスチャ操作に応じて、第1ジェスチャ操作の受け付けを開始するための第3の仮想画像としてのメニュー仮想画像61を表示部14に表示させる。これにより、簡易にキャプチャ動作を開始させることができる。
 メニュー仮想画像61のキャプチャ操作開始ボタン611を選択するジェスチャ操作が行われると、CPU11は、図5に示したように、指先等によりキャプチャ領域Rを囲む第1ジェスチャ操作を受け付ける。また、キャプチャ操作開始ボタン612を選択するジェスチャ操作が行われると、CPU11は、図6に示したように、キャプチャ枠rによりキャプチャ領域Rを特定する第1ジェスチャ操作を受け付ける。このように、CPU11は、第1ジェスチャ操作の種別に応じて互いに異なる方法でキャプチャ領域Rを特定し、第3の仮想画像としてのメニュー仮想画像61に対する操作に応じて、受け付ける第1ジェスチャ操作の種別を特定する。これにより、ユーザは、キャプチャ領域Rを特定するための所望の第1ジェスチャ操作を選択することができる。
 なお、メニュー仮想画像61を経由せずに第1ジェスチャ操作を受け付ける状態に移行可能とされていてもよい。例えば、上記のようにユーザの手(指)で空間を叩く操作に応じて、第1ジェスチャ操作を受け付ける状態に移行してもよい。また、仮想画像30の機能バー31などに、キャプチャを開始するためのアイコンを設け、当該アイコンを選択する操作に応じて、第1ジェスチャ操作を受け付ける状態に移行してもよい。
 図9に示すように、記憶部13に記憶されたキャプチャ画像Cは、キャプチャ仮想画像50(第2の仮想画像)として表示部14に表示させることができる。CPU11は、キャプチャ画像Cを記憶部13に記憶すると、当該キャプチャ画像Cをキャプチャ仮想画像50(第2の仮想画像)として表示部14に表示させてもよい。これによれば、ユーザが特段のジェスチャ操作を行わなくても、自動的にキャプチャ仮想画像50を表示させることができる。また、CPU11は、ユーザの第2ジェスチャ操作に応じて、キャプチャ画像Cをキャプチャ仮想画像50(第2の仮想画像)として表示部14に表示させてもよい。これによれば、ユーザは、意図したタイミングで所望の位置にキャプチャ仮想画像50を表示させることができる。
 図9に示すように、第2の仮想画像としてのキャプチャ仮想画像50を表示する前に、第1の仮想画像としての仮想画像30が表示されていた場合には、CPU11は、空間40において、キャプチャ仮想画像50を仮想画像30よりユーザに近い位置に表示させてもよい。これにより、キャプチャ仮想画像50の全体を視認可能な態様でキャプチャ仮想画像50を表示させることができる。
 第2ジェスチャ操作に応じてキャプチャ仮想画像50を表示させる場合における第2ジェスチャ操作は、手または指の動作に応じたものであれば、特には限られない。第2ジェスチャ操作は、例えば、手(左手および/または右手)の特定の動き、指の特定の動き、手指の開閉、またはこれらの組み合わせなどとすることができる。また、第2ジェスチャ操作は、ポインタ412を動かすものであってもよい。また、異なる複数の種別の第2ジェスチャ操作に応じてそれぞれキャプチャ仮想画像50が表示されてもよい。第2ジェスチャ操作が行われると、CPU11は、第2ジェスチャ操作の種別に応じて予め定められているユーザとの相対位置に、キャプチャ仮想画像50を表示させる。この相対位置は、例えば、掌もしくは指の近傍、またはユーザの目線上などとすることができる。図10には、左手の手首を右手の指で指し示す第2ジェスチャ操作に応じて、左手の指先の近傍にキャプチャ仮想画像50が表示される例が示されている。このように、CPU11は、第2ジェスチャ操作に応じて、ユーザとの所定の相対位置に第2の仮想画像としてのキャプチャ仮想画像50を表示させ、相対位置は、第2ジェスチャ操作の種別ごとに予め設定されている。これにより、簡易な操作で所望の位置にキャプチャ仮想画像50を表示させることができる。
 キャプチャ仮想画像50を表示させる方法は、上記に限られず、例えば図11に示すように、記憶部13に記憶されている一または二以上のキャプチャ画像Cから、キャプチャ仮想画像50として表示させる1つを選択する方法であってもよい。図11の例では、上図に示すように、視認領域41の外側(右側)から視認領域41内に手(または、ポインタ412)を移動させるジェスチャ操作により、手の動きに追従するように、視認領域41の右端からキャプチャ画像Cのリスト領域Lがスライドインして表示される。次に、図11の下図に示すように、リスト領域Lの1つのキャプチャ画像Cに指を当てて(またはポインタ412により選択した状態で)視認領域41内にドラッグするジェスチャ操作により、キャプチャ画像Cをキャプチャ仮想画像50として表示部14に表示させることができる。リスト領域Lに含まれるキャプチャ画像Cが1つである場合には、上記のドラッグ操作に応じてリスト領域Lを消去させてもよい。リスト領域Lに含まれるキャプチャ画像Cが2つ以上である場合には、上記のドラッグ操作後もリスト領域Lを表示させて、引き続き他のキャプチャ画像Cに対するドラッグ操作を行えるようにしてもよい。また、リスト領域Lを示す画像は、所定の条件に基づき決定されてもよい。例えば、CPU11は、ウェアラブル端末装置10にログインした際のユーザIDに基づいて、当該ユーザIDに紐づく特定の画像を、リスト領域Lを示す画像として表示させてもよい。
 図12に示すように、CPU11は、第2の仮想画像としてのキャプチャ仮想画像50の外枠を所定の強調態様で表示させてもよい。これにより、キャプチャ仮想画像50を視認しやすくすることができる。強調態様の一例は、図12に示すように、キャプチャ仮想画像50の外枠を仮想画像30の外枠よりも太くすることであるが、これに限られない。
 また、図12に示すように、CPU11は、表示させた第2の仮想画像としてのキャプチャ仮想画像50に対するユーザの第4ジェスチャ操作に応じてキャプチャ仮想画像50を移動させる。これにより、ユーザは、キャプチャ仮想画像50の表示位置を任意に変更することができる。第4ジェスチャ操作は、特には限られないが、キャプチャ仮想画像50の所定の部分(例えば、上部の機能バー)、または任意の一部を選択した状態で手を動かす操作であってもよい。
 図13に示すように、ユーザは、所定の第5ジェスチャ操作を行うことで、キャプチャ仮想画像50の表示領域を拡張することができる。第5ジェスチャ操作は、例えば、キャプチャ仮想画像50の外枠の一部を指でつまんだ状態で(または、ポインタ412により選択した状態で)手を動かす操作であってもよい。キャプチャ仮想画像50の拡張に応じて、キャプチャ仮想画像50に反映させるキャプチャ領域Rの範囲が拡張される。拡張後のキャプチャ仮想画像50は、拡張前の初期表示領域50aと、拡張された拡張領域50bとを含む。拡張領域50bの画像は、キャプチャ画像Cを生成したときに記憶させておいた視認領域41の全体の合成画像Eから抽出すればよい。言い換えると、合成画像Eのうち拡張後のキャプチャ領域Rに相当する部分が抽出されて新たなキャプチャ画像Cが生成され、当該新たなキャプチャ画像Cに基づいて拡張後のキャプチャ仮想画像50が表示される。なお、第5ジェスチャ操作に応じて、キャプチャ仮想画像50を縮小することもできる。このように、CPU11は、表示させた第2の仮想画像としてのキャプチャ仮想画像50に対するユーザの第5ジェスチャ操作に応じてキャプチャ仮想画像50を拡張または縮小させ、当該拡張または縮小に応じて、キャプチャ仮想画像50に反映させるキャプチャ領域Rの範囲を拡張または縮小させる。これにより、キャプチャ仮想画像50を表示させた後であっても、キャプチャ範囲を変更することができる。
 図14の上図に示すように、キャプチャ仮想画像50に、仮想画像30に相当する仮想画像領域51と、背景の空間40に相当する空間画像領域52とが含まれている場合において、下図に示すように、仮想画像領域51を選択的に削除することができる。以下では便宜上、キャプチャ仮想画像50のうちの仮想画像領域51を、「キャプチャ仮想画像50に含まれる仮想画像30」と記す場合がある。仮想画像領域51の削除は、ユーザの第6ジェスチャ操作に応じて行われる。第6ジェスチャ操作は、特には限られないが、例えば仮想画像領域51をダブルタップする操作、または長押しする操作などであってもよい。仮想画像領域51が削除された後のキャプチャ仮想画像50のうち、削除前に仮想画像領域51が表示されていた範囲には、背景の空間40が表示される。この空間40の画像は、キャプチャ画像Cを生成したときに記憶させておいた空間40の撮影画像D(図7参照)から抽出される。このように、CPU11は、表示させた第2の仮想画像としてのキャプチャ仮想画像50に対するユーザの第6ジェスチャ操作に応じて、キャプチャ仮想画像50に含まれる第1の仮想画像としての仮想画像30を削除し、当該削除した領域に、当該領域に相当する空間40の画像を表示させる。これにより、キャプチャ仮想画像50を表示させた後であっても、キャプチャ仮想画像50から仮想画像30を削除することができる。この場合において、CPU11は、キャプチャ仮想画像50に含まれる仮想画像30を所定の強調態様で表示させてもよい。これにより、削除対象の仮想画像領域51を視認しやすくすることができる。強調態様の一例は、図14の上図に示すように、仮想画像領域51の外枠を太くすることであるが、これに限られない。
 図15の上図に示すように、キャプチャ仮想画像50に仮想画像領域51と空間画像領域52とが含まれている場合において、下図に示すように、キャプチャ仮想画像50のうち空間画像領域52を選択的に削除することができる。仮想画像領域51の削除は、ユーザの第7ジェスチャ操作に応じて行われる。第7ジェスチャ操作は、特には限られないが、例えば空間画像領域52をダブルタップする操作、または長押しする操作などであってもよい。空間画像領域52が削除された後のキャプチャ仮想画像50は、仮想画像領域51のみを含んでいてもよい。仮想画像領域51の画像は、削除前のキャプチャ画像Cから抽出してもよい。また、仮想画像領域51の画像は、記憶部13に記憶されている仮想画像データ132から抽出してもよい。すなわち、キャプチャ画像Cの記憶時に仮想画像30を特定するためのIDを記憶しておき、当該IDを参照して仮想画像データ132から仮想画像領域51の画像データを特定して取得してもよい。このように、CPU11は、表示させた第2の仮想画像としてのキャプチャ仮想画像50に対するユーザの第7ジェスチャ操作に応じて、キャプチャ仮想画像50のうち仮想画像30以外の部分を削除する。これにより、キャプチャ仮想画像50を表示させた後であっても、キャプチャ仮想画像50から背景の空間40を削除することができる。この場合において、CPU11は、キャプチャ仮想画像50に含まれる仮想画像30以外の部分(空間画像領域52)を所定の強調態様で表示させてもよい。これにより、削除対象の空間画像領域52を視認しやすくすることができる。強調態様の一例は、図15の上図に示すように、空間画像領域52の外枠を太くすることであるが、これに限られない。
 図16に示すように、CPU11は、表示させた第2の仮想画像としてのキャプチャ仮想画像50に対するユーザの第10ジェスチャ操作に応じて、キャプチャ仮想画像50の少なくとも一部を複製して第5の仮想画像としての仮想画像34を表示させてもよい。これにより、キャプチャ仮想画像50の一部を別個の仮想画像34として取り扱うことが可能となるため、ユーザ利便性を高めることができる。
 別の観点では、CPU11は、図16の上図に示すように、第2の仮想画像としてのキャプチャ仮想画像50に第1の仮想画像としての仮想画像30の一部が含まれる場合に、表示させた仮想画像30に対するユーザの第8ジェスチャ操作に応じて、仮想画像30の上記一部を複製して第4の仮想画像としての仮想画像34を表示させてもよい。これにより、キャプチャ仮想画像50に含まれる仮想画像30の一部を抽出して別個の仮想画像34として取り扱うことが可能となるため、ユーザ利便性を高めることができる。ここで、複製元のキャプチャ仮想画像50における仮想画像領域51は、複製後に所定の抑制態様で表示させてもよい。これにより、複製された対象を分かりやすく示すことができる。抑制態様は、特には限られないが、例えば画像を半透明にする態様であってもよい。複製する仮想画像34(仮想画像30の一部)の画像は、記憶部13に記憶されている仮想画像データ132から抽出してもよい。すなわち、キャプチャ画像Cの記憶時に仮想画像30のIDを記憶しておき、当該IDを参照して仮想画像データ132から仮想画像30の画像データの一部を取得してもよい。上記の第10ジェスチャ操作および第8ジェスチャ操作は、特には限られないが、例えば空間画像領域52をダブルタップする操作、または長押しする操作などであってもよい。
 図17の上図に示すように、キャプチャ仮想画像50のうち仮想画像30の一部に相当する仮想画像領域51に対して第8ジェスチャ操作が行われた場合に、図17の下図に示すように、仮想画像30の全体を復元して仮想画像35として表示させてもよい。したがって、仮想画像35の内容は、仮想画像30の内容と同一となる。この場合には、複製する仮想画像35の画像は、記憶部13に記憶されている仮想画像データ132から抽出すればよい。すなわち、キャプチャ画像Cの記憶時に仮想画像30のIDを記憶しておき、当該IDを参照して仮想画像データ132から仮想画像30の全体の画像データを取得すればよい。なお、複製した仮想画像35を表示させるとともに、キャプチャ仮想画像50の内部にあった仮想画像30の一部(仮想画像領域51)を削除してもよい。これによれば、キャプチャ仮想画像50の枠内から枠外へ、仮想画像30を移動させたような視覚効果が得られる。
 なお、図16および図17に示すようにキャプチャ仮想画像50に含まれる仮想画像30の一部または全部を複製する場合において、複製を許可された仮想画像30のみ複製可能とし、複製を許可されていない仮想画像30については複製を行わないこととしてもよい。
 図18~図20に示すように、キャプチャ仮想画像50に仮想画像領域51(仮想画像30の少なくとも一部)が含まれる場合に、当該仮想画像領域51をキャプチャ仮想画像50の枠内で、および/または枠外に移動させることが可能であってもよい。このような移動を行う場合には、ユーザは、所定のジェスチャ操作(例えば、キャプチャ仮想画像50内を長押しする操作)を行って、図18に示すように、仮想画像領域51の移動方法を指定するための移動方法指定ボタン91~93を表示させる。移動方法指定ボタン91は、仮想画像領域51をキャプチャ仮想画像50の枠内で移動させるためのボタンであり、移動方法指定ボタン92は、仮想画像領域51をキャプチャ仮想画像50の枠内で、および/または枠外に移動させるためのボタンであり、移動方法指定ボタン93は、仮想画像領域51をキャプチャ仮想画像50の枠外に移動させるためのボタンである。
 ユーザが移動方法指定ボタン91を選択する第9ジェスチャ操作を行うと、CPU11は、キャプチャ仮想画像50の枠内で仮想画像領域51(仮想画像30の少なくとも一部)を移動させる動作の開始を受け付ける。この状態で、図19に示すように、ユーザがキャプチャ仮想画像50の枠内の仮想画像領域51をドラッグするジェスチャ操作を行うと、ドラッグに追従するように仮想画像領域51がキャプチャ仮想画像50の枠内で移動する。ここでは、キャプチャ仮想画像50の外形は変わらないため、仮想画像領域51の移動に伴って、キャプチャ仮想画像50内に表示される仮想画像領域51の大きさ(仮想画像30の表示範囲)が拡張または縮小される。仮想画像領域51の移動に応じて、移動前に仮想画像領域51が位置していた領域に影51aを表示してもよい。
 ユーザが移動方法指定ボタン93を選択する第9ジェスチャ操作を行うと、CPU11は、キャプチャ仮想画像50の枠外に仮想画像領域51(仮想画像30の一部)を移動させる動作の開始を受け付ける。この状態で、図20に示すように、ユーザがキャプチャ仮想画像50の枠外に仮想画像領域51をドラッグするジェスチャ操作を行うと、キャプチャ仮想画像50の枠外に、仮想画像30の全体を複製した仮想画像35が表示される。あるいは、図16の仮想画像34のように、キャプチャ仮想画像50内の仮想画像領域51と対応する部分をそのまま枠外に移動させてもよい。また、仮想画像35(または仮想画像34)の表示に応じて、キャプチャ仮想画像50の枠内にあった仮想画像領域51は削除されてもよい。
 ユーザが移動方法指定ボタン92を選択する第9ジェスチャ操作を行った場合には、CPU11は、キャプチャ仮想画像50の枠内での仮想画像領域51の移動、およびキャプチャ仮想画像50の枠外への仮想画像領域51の移動の双方の開始を受け付ける。すなわち、CPU11は、ユーザがキャプチャ仮想画像50の枠内で仮想画像領域51をドラッグするジェスチャ操作を行った場合には、図19に示すようにキャプチャ仮想画像50の枠内で仮想画像領域51を移動させ、ユーザがキャプチャ仮想画像50の枠外に仮想画像領域51をドラッグするジェスチャ操作を行った場合には、図20に示すようにキャプチャ仮想画像50の枠外に仮想画像35(または仮想画像34)を表示させる。
 このように、CPU11は、表示させた第2の仮想画像としてのキャプチャ仮想画像50に対するユーザの第9ジェスチャ操作に応じて、キャプチャ仮想画像50に含まれる第1の仮想画像としての仮想画像30を複数の移動方法のいずれかにより移動させる動作の開始を受け付け、複数の移動方法は、キャプチャ仮想画像50内で仮想画像30の表示範囲を拡張または縮小させる方法と、キャプチャ仮想画像50の外部に仮想画像30を移動させて仮想画像34として表示する方法と、を含む。これにより、キャプチャ仮想画像50内の仮想画像30を所望の態様で移動させることができる。
 本開示のウェアラブル端末装置10では、キャプチャ仮想画像50から情報を抽出して表示することができる。すなわち、CPU11は、第2の仮想画像としてのキャプチャ仮想画像50に、情報を抽出可能な抽出対象が含まれる場合に、当該抽出対象から情報を抽出して表示部14に表示させる。また、情報の抽出対象は、人物、物品、場所、文字およびコード情報のうちの少なくとも一つであってもよい。これによれば、キャプチャ仮想画像50に含まれる人物、物品、場所、文字およびコード情報などから抽出可能な情報に簡易にアクセスすることができる。以下、情報の抽出に係る種々の態様について、図21~図30を参照して説明する。
 図21に示すように、キャプチャ仮想画像50に人物44の画像が含まれており、当該人物44の画像から情報を抽出することが可能である場合には、抽出した情報を含む抽出情報仮想画像62(第6の仮想画像)が表示される。抽出情報仮想画像62は、キャプチャ仮想画像50が表示されている状態でユーザの所定の操作がなされた場合に表示されてもよいし、キャプチャ仮想画像50の表示とともに自動的に表示されてもよい。抽出情報仮想画像62には、人物44の顔写真621、氏名、所属およびコンタクトIDなどの情報が表示されている。顔写真621が取得できない場合には、取得できない旨の表示がなされてもよい。顔写真621を選択するジェスチャ操作に応じて、人物44にアクセスするための動作(例えば通話動作)が開始されてもよい。また、コンタクトIDは、人物44にコンタクトを取るために用いられる符号または番号等であり、例えば電話番号であってもよい。キャプチャ仮想画像50から人物44の情報を抽出する方法は、特には限られないが、例えば、人物44の画像の特徴解析を行い、予め複数の人物に係る情報が登録されているデータベースを参照して特徴解析の結果に一致する人物を特定し、当該人物の情報をデータベースから取得する方法を用いてもよい。
 また、抽出情報仮想画像62には、人物44にコンタクトを取るために実行されるアプリケーションプログラム(以下、アプリと記す)のアイコン622(標識)が表示されていてもよい。当該アプリは、情報の抽出対象の種別(ここでは、人物)に応じて予め定められている。アイコン622を選択するジェスチャ操作がなされると、アイコン622に対応するアプリ(ここでは、電話帳アプリ)が実行される。このように、CPU11は、第2の仮想画像としてのキャプチャ仮想画像50に、情報を抽出可能な抽出対象が含まれる場合に、当該抽出対象の種別に応じて予め定められたアプリケーションを起動するための標識としてのアイコン622を表示部14に表示させてもよい。これにより、抽出対象の種別に応じた適切なアプリを簡易に起動させることができる。なお、アイコン622の表示を省略し、顔写真621またはコンタクトID(電話番号等)を選択するジェスチャ操作に応じて、人物44にコンタクトを取るためのアプリが起動して通話動作などが開始されてもよい。
 図21では、抽出情報仮想画像62の表面(第1面)に各種情報およびアイコン622が表示され、裏面(第2面)には情報が表示されていない。ただし、この態様に限られず、例えば図22に示すように、抽出情報仮想画像62の裏面にアイコン622が表示されていてもよい。すなわち、CPU11は、抽出対象から抽出した情報を含む第6の仮想画像としての抽出情報仮想画像62を表示部14に表示させ、抽出情報仮想画像62の第1面、および当該第1面とは反対側の第2面の少なくとも一方に標識としてのアイコン622を表示させる。これにより、抽出情報仮想画像62の表示位置や向きなどに応じて、アクセスしやすい位置にアイコン622を表示させることができる。
 図23に示すように、キャプチャ仮想画像50に物品45(ここでは、マスク)の画像が含まれており、当該物品45の画像から情報を抽出することが可能である場合には、抽出した情報を含む抽出情報仮想画像63(第6の仮想画像)が表示される。抽出情報仮想画像63には、Web上(例えばECサイト)から取得された物品45の画像631、物品45の製品名、メーカー、コンタクトIDおよび価格などの情報が表示されている。画像631が取得できない場合には、取得できない旨の表示がなされてもよい。画像631を選択するジェスチャ操作に応じて、物品45の情報にアクセス可能なWebサイト(例えばECサイト)などが表示されてもよい。また、コンタクトIDは、物品45の情報を取得したり購入したりするために用いられる符号または番号等であり、例えば電話番号やURLなどであってもよい。キャプチャ仮想画像50から物品45の情報を抽出する方法は、特には限られないが、例えば、上記の人物44の特定方法と同様の方法で物品45を特定し、当該物品45の情報をデータベースから取得する方法を用いてもよい。
 また、抽出情報仮想画像63には、物品45の情報にアクセスするために実行されるアプリのアイコン632(標識)が表示されていてもよい。当該アプリは、情報の抽出対象の種別(ここでは、物品)に応じて予め定められている。アイコン632を選択するジェスチャ操作がなされると、アイコン632に対応するアプリ(ここでは、ブラウザアプリ)が実行される。なお、アイコン632の表示を省略し、物品45の画像631またはコンタクトID(URL等)を選択するジェスチャ操作に応じて、物品45の情報にアクセスするためのアプリ(ブラウザアプリ等)が起動して、例えば物品45を購入可能なECサイトが表示されてもよい。
 図24に示すように、キャプチャ仮想画像50の背景の空間40の画像などから場所の情報を抽出することが可能である場合には、抽出した情報を含む抽出情報仮想画像64(第6の仮想画像)が表示される。抽出情報仮想画像64には、場所を表す画像641、場所の名称、場所が建物である場合の建物の情報、およびコンタクトIDなどの情報が表示されている。画像641は、例えば場所が建物である場合に、当該建物を所有する企業のロゴマークなどであってもよい。画像641が取得できない場合には、取得できない旨の表示がなされてもよい。画像641を選択するジェスチャ操作に応じて、その場所の地図などが表示されてもよい。表示される地図は、その場所が建物の外部である場合には標準的な地図であってもよく、その場所が建物の内部である場合には、屋内の地図であってもよい。また、コンタクトIDは、場所の情報にアクセスするために用いられる符号または番号等であり、例えば電話番号やURLなどであってもよい。キャプチャ仮想画像50から場所の情報を抽出する方法は、特には限られないが、例えば、上記の人物44の特定方法と同様の方法で場所を特定し、当該場所の情報をデータベースから取得する方法を用いてもよい。
 また、抽出情報仮想画像64には、場所の情報にアクセスするために実行されるアプリのアイコン642(標識)が表示されていてもよい。当該アプリは、情報の抽出対象の種別(ここでは、場所)に応じて予め定められている。アイコン642を選択するジェスチャ操作がなされると、アイコン642に対応するアプリ(ここでは、地図アプリ)が実行される。なお、アイコン642の表示を省略し、場所の画像641またはコンタクトID(URL等)を選択するジェスチャ操作に応じて、場所の情報にアクセスするためのアプリ(地図アプリ等)が起動して、例えば場所の位置を示す地図が表示されてもよい。
 キャプチャ仮想画像50から情報を抽出可能な場合の動作は、上記に限られない。例えば、図25の左側に示すように、キャプチャ仮想画像50から人物の情報を抽出可能である場合に、情報の抽出対象である「人物」に予め対応付けられているアプリ(例えば通話アプリ)のアイコン622が自動的に表示されてもよい。また、当該アイコン622を選択するジェスチャ操作に応じてアプリが実行されて、例えば抽出された人物との通話が開始された状態でアプリの仮想画像623が表示されてもよい。
 また、図25の中央に示すように、キャプチャ仮想画像50から物品の情報を抽出可能である場合に、情報の抽出対象である「物品」に予め対応付けられているアプリ(例えばブラウザアプリ)のアイコン632が自動的に表示されてもよい。また、当該アイコン632を選択するジェスチャ操作に応じてアプリが実行されて、例えば抽出された物品の情報にアクセス可能なWebサイトを含むアプリの仮想画像633が表示されてもよい。
 また、図25の右側に示すように、キャプチャ仮想画像50から場所の情報を抽出可能である場合に、情報の抽出対象である「場所」に予め対応付けられているアプリ(例えば地図アプリ)のアイコン642が自動的に表示されてもよい。また、当該アイコン642を選択するジェスチャ操作に応じてアプリが実行されて、例えば抽出された場所の位置を表す地図を含むアプリの仮想画像643が表示されてもよい。
 なお、図25において、アイコン622、632、642の表示をスキップして、直接アプリの仮想画像623、633、643を表示してもよい。
 図26に示すように、キャプチャ仮想画像50に文字46の画像が含まれており、当該文字46の画像から情報を抽出することが可能である場合には、抽出した情報を含む抽出情報仮想画像65(第6の仮想画像)が表示される。抽出情報仮想画像65には、OCR(Optical Character Recognition)などにより抽出した文字46の内容と、抽出した文字に対して各種処理を実行するための操作ボタン651~653が表示されている。抽出情報仮想画像65内に表示される文字46のサイズは、キャプチャ仮想画像50内の文字46のサイズより大きくてもよい。また、抽出情報仮想画像65内に表示される文字46のサイズが予め設定されていてもよい。
 図27に示すように、操作ボタン651~653のいずれかを選択するジェスチャ操作が行われると、抽出した文字46に関し、操作ボタン651~653に応じた処理が実行される。「コピー」と表示された操作ボタン651を選択するジェスチャ操作が行われると、図27の左側に示すように、テキストデータの編集を行うアプリとして予め設定されているアプリ(例えば、エディターアプリ)のアイコン661が自動的に表示される。また、当該アイコン661を選択するジェスチャ操作に応じてアプリが実行され、文字46を編集可能な状態でアプリの仮想画像67が表示される。
 また、「翻訳:自動→EG」と表示された操作ボタン652を選択するジェスチャ操作が行われると、図27の中央に示すように、テキストデータの編集を行うアプリとして予め設定されているアプリ(例えば、エディターアプリ)のアイコン662が自動的に表示される。アイコン662は、アイコン661と同一であってもよい。また、当該アイコン662を選択するジェスチャ操作が行われると、抽出した文字46が所定の翻訳設定に従って翻訳される。ここでは、抽出された文字46の言語が自動的に判別された上で英語に翻訳される設定となっている。あるいは、図示しない設定ボタンに対するユーザの第11ジェスチャ操作に応じて、翻訳先の言語等に係る翻訳設定を行うことが可能であってもよい。この場合には、ユーザによる翻訳設定に従って文字46が翻訳される。そして、アイコン662に対応するアプリが実行され、翻訳語の文字を編集可能な状態でアプリの仮想画像68が表示される。このように、CPU11は、文字46から抽出した情報を、所定の翻訳設定に従って、またはユーザの第11ジェスチャ操作に応じた翻訳設定に従って翻訳して表示部14に表示させる。これにより抽出した文字46を簡易に翻訳して表示させることができる。
 また、「アプリ指定」と表示された操作ボタン653を選択するジェスチャ操作が行われると、図27の右側に示すように、ユーザが指定したアプリ(ここでは、ブラウザアプリ)のアイコン663が自動的に表示される。ユーザによるアプリの指定は、予め行われて設定されていてもよいし、操作ボタン653の選択に応じて表示されるアプリの選択肢の中からユーザが都度選択してもよい。アイコン663を選択するジェスチャ操作に応じてアプリが実行され、抽出された文字46の情報に係る処理を行うアプリの仮想画像69が表示される。図27の例では、抽出された文字46の検索結果が表示された状態のブラウザアプリの仮想画像69が表示されている。
 なお、図27において、アイコン661~663の表示をスキップして、直接アプリの仮想画像67~69を表示してもよい。
 図28に示すように、キャプチャ仮想画像50に二次元コード47(コード情報)の画像が含まれており、当該二次元コード47の画像から情報を抽出することが可能である場合には、抽出した情報を含む抽出情報仮想画像71(第6の仮想画像)が表示される。抽出情報仮想画像71には、二次元コード47をデコードして得られた情報、及び当該情報に関連する情報が表示されている。図71の例では、二次元コード47から「K株式会社」の情報が抽出されており、同社の住所、電話番号およびURLの情報が表示されている。電話番号またはURLを選択するジェスチャ操作に応じて、「K株式会社」にアクセスするためのアプリ(通話アプリやブラウザアプリ等)が起動してもよい。なお、情報を抽出可能なコード情報は、二次元コード47に限られず、バーコードであってもよいし、文字および記号などからなる符号であってもよい。
 キャプチャ仮想画像50には、キャプチャ画像Cを生成したときのウェアラブル端末装置10の位置情報が含まれていてもよい。この場合には、CPU11は、上述の第1ジェスチャ操作がなされたときの自装置(ウェアラブル端末装置10)の位置情報を取得し、取得した位置情報をキャプチャ画像Cに対応付けて記憶部13に記憶させる。これにより、キャプチャ画像Cを生成した位置を、キャプチャ後の任意のタイミングで容易に参照することができる。位置情報は、GPS(Global Positioning System)などのGNSS(Global Navigation Satellite System)の測位衛星から取得してもよいし、種々のローカル位置情報であってもよい。ローカル位置情報は、例えば無線LANのアクセスポイント、ビーコン局、およびローカル5Gの基地局などから発信されている信号から取得されてもよい。また、キャプチャ画像Cに基づいてキャプチャ仮想画像50を表示させる場合には、図29に示すように、キャプチャ画像Cを生成したときの位置に係る情報を含む仮想画像72が表示されてもよい。また、図29に示すような文字情報に代えて(または文字情報に加えて)、キャプチャ位置を示す地図が表示されてもよい。なお、位置情報に加えて、キャプチャ画像Cを生成した日時の情報が取得されて仮想画像72に表示されてもよい。
 キャプチャ仮想画像50には、キャプチャ画像Cを生成したときにウェアラブル端末装置10を使用していたユーザを特定する情報が含まれていてもよい。この場合には、CPU11は、第1ジェスチャ操作がなされたときのユーザを特定し、特定したユーザに係るユーザ情報をキャプチャ画像Cに対応付けて記憶部13に記憶させる。これにより、キャプチャ画像Cを生成したときの操作者を、キャプチャ後の任意のタイミングで容易に参照することができる。ユーザの特定方法は、特には限られないが、例えばキャプチャ画像Cを生成したときのユーザのログイン情報から取得してもよい。また、キャプチャ画像Cに基づいてキャプチャ仮想画像50を表示させる場合には、図30に示すように、キャプチャ画像Cを生成したときのユーザ、および日時に係る情報を含む仮想画像73が表示されてもよい。なお、ユーザに係る情報として、ユーザの顔画像を表示可能なアイコンをキャプチャ仮想画像50に重複させて、或いはキャプチャ仮想画像50の近傍に表示させてもよい。
 ウェアラブル端末装置10は、種々の場所において種々の用途に用いられ得るため、キャプチャ動作を行うときの場所や、視認領域41に含まれるキャプチャ対象などによっては、キャプチャ画像Cを生成して記憶することが適切でない場合がある。ウェアラブル端末装置10は、このような場合にキャプチャ画像Cが記憶部13に記憶されないようにする機能を備えていてもよい。以下では、キャプチャ画像Cの生成および記憶部13への記憶を禁止することを、「キャプチャを禁止する」とも記し、キャプチャ画像Cの生成および記憶部13への記憶を許可することを、「キャプチャを許可する」とも記す。
 例えば、図31に示すように、CPU11は、キャプチャ領域Rに所定のキャプチャ禁止対象が含まれるか否かを判別し、キャプチャ領域Rにキャプチャ禁止対象が含まれると判別した場合には、キャプチャ画像Cを記憶部13に記憶させないこととしてもよい。これにより、キャプチャ禁止対象を含むキャプチャ画像Cの生成、および記憶部13への記憶を制限することができる。図31の例では、ユーザの第1ジェスチャ操作により特定されたキャプチャ領域Rに、予めキャプチャ禁止対象として設定されている人物44が含まれている。この場合には、キャプチャ領域Rが特定されても、キャプチャ画像Cは記憶部13に記憶されない。なお、キャプチャ禁止対象は人物に限られず、絵画などの美術品を始めとする物品、または建物などの不動産などであってもよい。キャプチャ禁止対象は、著作権により保護されている物であってもよい。キャプチャ禁止対象であるか否かの判別方法は、特には限られないが、例えばキャプチャ禁止対象の画像的特徴を記憶部13または外部のサーバに記憶させておき、キャプチャ禁止対象の画像的特徴と、キャプチャ領域Rに含まれる画像とを比較する方法を用いてもよい。
 キャプチャが禁止されている場合には、例えば、図8の下図に示すメニュー仮想画像61において、キャプチャ操作開始ボタン611、612の表示態様を変更し、操作を無効としてもよい。あるいは、キャプチャ操作開始ボタン611、612を非表示としてもよい。
 キャプチャ領域Rにキャプチャ禁止対象が含まれている場合において、キャプチャの禁止を解除する権限者がキャプチャを許可した場合には、禁止が解除されてキャプチャ画像Cが記憶部13に記憶されてもよい。例えば図31の下図に示すように、キャプチャ領域Rを特定する第1ジェスチャ操作に応じて、キャプチャの許可を求めるか否かをユーザに問い合わせるダイアログ仮想画像74が表示される。ダイアログ仮想画像74の決定ボタン741に対するジェスチャ操作が行われると、キャプチャ禁止の解除を要求する信号が、権限者の使用する外部機器に対して送信される。当該外部機器から、キャプチャ禁止の解除を許可する許可信号を受信すると、キャプチャ画像Cが記憶部13に記憶される。以降のキャプチャ仮想画像50の表示動作は、上述と同様である。
 また、ウェアラブル端末装置10にログインした際のユーザIDなどに基づいて、ウェアラブル端末装置10を操作しているユーザの権限レベルを参照し、当該権限レベルに応じて、キャプチャを禁止するか否かを判別してもよい。権限レベルは、例えば、役職、部署または資格などに基づいて定められてもよい。
 また、ウェアラブル端末装置10の現在位置に基づいて、キャプチャが禁止されるか否かが判別されてもよい。この場合には、CPU11は、第1ジェスチャ操作がなされたときの自装置の位置情報を取得し、位置情報により示される位置が所定の禁止位置条件を満たす場合には、キャプチャ画像Cを記憶部13に記憶させない。これにより、ウェアラブル端末装置10が特定の場所に位置している場合にキャプチャを禁止することができる。位置情報は、GPSなどのGNSSの測位衛星から取得してもよいし、種々のローカル位置情報であってもよい。ローカル位置情報は、例えば無線LANのアクセスポイント、ビーコン局、およびローカル5Gの基地局などから発信されている信号から取得されてもよい。取得した位置情報が所定の禁止エリアの範囲内にある場合に、禁止位置条件を満たすと判別される。
 また、CPU11は、通信部16が特定信号を受信している場合に、キャプチャ画像Cを記憶部13に記憶させないこととしてもよい。これによれば、ウェアラブル端末装置10に対して特定信号を送信することにより、任意のタイミングでキャプチャを禁止することができる。特定信号は、キャプチャを禁止させるための信号として予め設定されているものであれば、任意の信号であってよい。特定信号の受信後に所定時間が経過した場合に、キャプチャの禁止が解除されてもよい。また、特定信号を受信した場合においても、視認領域41に仮想画像30等の仮想オブジェクトが含まれず、背景の空間40のみを含む場合には、キャプチャが許可されてもよい。
 また、CPU11は、通信部16による通信ネットワークへの接続状態に係る所定の接続条件を満たす場合には、キャプチャ画像Cを記憶部13に記憶させないこととしてもよい。これにより、通信ネットワークへの接続状態に応じたキャプチャ禁止制御が可能となる。キャプチャ禁止制御に係る接続条件は、任意に定めることができる。一例を挙げると、パブリック通信網に接続している場合に、上記の接続条件を満たすと判定してキャプチャを禁止し、プライベート通信網(ローカル5G、無線LAN等)に接続している場合に、上記の接続条件を満たさないと判定してキャプチャを許可してもよい。他の例としては、ウェアラブル端末装置10がオンラインである場合に上記の接続条件を満たすと判定してキャプチャを禁止し、オフラインである場合に上記の接続条件を満たさないと判定してキャプチャを許可してもよい。
 また、CPU11は、キャプチャ領域Rに仮想画像(第1の仮想画像)の少なくとも一部が含まれ、かつ、当該仮想画像が所定の禁止条件を満たす場合には、キャプチャ画像Cを記憶部13に記憶させないこととしてもよい。これにより、キャプチャの対象とすることが適切でない仮想画像がキャプチャ画像Cとして記憶されないようにすることができる。例えば、仮想画像が特定のアプリの画面であり、かつアプリにおいて特定のキャプチャ禁止フラグが立てられている場合に、当該アプリの仮想画像がキャプチャ画像Cとして記憶されないようにすることができる。
 上記のように、現在位置に基づいてキャプチャが禁止される場合、特定信号を受信していることに応じてキャプチャが禁止される場合、通信ネットワークへの接続状態に係る接続条件を満たしていることに応じてキャプチャが禁止される場合、およびキャプチャ領域Rに含まれる仮想画像が禁止条件を満たすことに応じてキャプチャが禁止されている場合の各々においても、権限者が許可した場合に、キャプチャの禁止を解除することとしてもよい。この場合には、図31の下図に示したように、キャプチャの許可を求めるか否かをユーザに問い合わせるダイアログ仮想画像74を表示させてもよい。また、ウェアラブル端末装置10を操作しているユーザの権限レベルを参照し、当該権限レベルに応じて、キャプチャを禁止するか否かを判別してもよい。
 キャプチャ画像Cには、音声データが対応付けられて記憶されてもよい。すなわち、CPU11は、キャプチャ画像Cを記憶部13に記憶させる場合に、音声データを取得してキャプチャ画像Cに対応付けて記憶部13に記憶させてもよい。これにより、キャプチャ画像Cに音声情報を付加することができる。例えば、図32の上図に示すように第1ジェスチャ操作に応じてキャプチャ領域Rが特定された場合に、図32の下図に示すように、音声を記録するか否かをユーザに問い合わせるダイアログ仮想画像75を表示させてもよい。ダイアログ仮想画像75の決定ボタン751を操作するジェスチャ操作が行われた場合には、マイク17により音声データが取得(録音)されて、キャプチャ領域Rのキャプチャ画像Cに対応付けられて記憶部13に記憶される。なお、録音のタイミングはこれに限られず、例えばキャプチャ仮想画像50を表示させる際に録音が行われてもよい。音声データが対応付けられているキャプチャ画像Cを含むキャプチャ仮想画像50が表示される場合には、図33に示すように、音声データを再生するための再生ボタン53を併せて表示してもよい。再生ボタン53を選択するジェスチャ操作に応じて、キャプチャ画像Cに対応付けられている音声データの音声がスピーカー18から出力される。なお、再生ボタン53は、キャプチャ仮想画像50の背面に表示されてもよい。
 上記では、キャプチャ仮想画像50を空間40内に単独で表示させたが、これに限られず、他のオブジェクト(表示対象)との間で所定の位置関係を満たすようにキャプチャ仮想画像50を表示させてもよい。すなわち、CPU11は、空間40内に位置する所定の表示対象の表面、または当該表示対象との間で所定の位置関係を満たす位置に第2の仮想画像としてのキャプチャ仮想画像50を表示させてもよい。また、表示対象は、空間40にある物体、人物、またはキャプチャ仮想画像50以外の任意の仮想画像であってもよい。これにより、キャプチャ仮想画像50を、他の物体、人物、または仮想画像(仮想オブジェクト等)などと関連付けて表示させることができる。
 例えば、図34に示すように、空間40内に位置する球形の物体48の外面に相当する位置に、外面の形状に合わせてキャプチャ仮想画像50を表示させてもよい。また、空間40内に位置する物体または仮想画像の面の輪郭を特定して、当該輪郭に合わせた外形のキャプチャ仮想画像50を、上記の物体または仮想画像の面に表示させてもよい。また、キャプチャ仮想画像50の表示位置は物体等の表面に限られず、物体等の近傍の位置であってもよい。
 また、CPU11は、空間40内における表示対象の移動に応じて第2の仮想画像としてのキャプチャ仮想画像50の表示位置を移動させてもよい。これにより、キャプチャ仮想画像50と、他の物体、人物、または仮想画像などとの関連性を動的に表現することができる。例えば、図35に示すように、表示対象としての人物44の頭上の位置にキャプチャ仮想画像50を表示させた場合において、人物44の移動に応じてキャプチャ仮想画像50を移動させてもよい。また、図35に示すように、CPU11は、ユーザと表示対象との距離が減少するに従ってキャプチャ仮想画像50が大きくなるように当該キャプチャ仮想画像50を表示させてもよい。これによれば、キャプチャ仮想画像50の大きさにより遠近感を表現できるため、より自然にキャプチャ仮想画像50が空間40内を移動しているように見せることができる。
 また、CPU11は、表示対象の向きの変化に追従するように第2の仮想画像としてのキャプチャ仮想画像50の向きを変更してもよい。例えば、図36の上図では、表示対象としての矢印形状の立体の仮想オブジェクト54(仮想画像)の直上の位置に、表面が矢印の方向を向くようにキャプチャ仮想画像50が表示されている。ここで、下図に示す様に仮想オブジェクト54の向きが変更された場合には、キャプチャ仮想画像50の向きが、仮想オブジェクト54の向きに合わせて変更される。ここでは、向きの変更前および変更後の状態のみが示されているが、キャプチャ仮想画像50が図36の上図の状態から下図の状態となるまで回転する場合には、当該回転に追従するようにキャプチャ仮想画像50を回転させてもよい。
 次に、上述したキャプチャ仮想画像50の表示に係る各種動作を行うためのキャプチャ仮想画像表示処理について、図37および図38のフローチャートを参照して説明する。ここでは、代表的な動作を行うための代表的な処理を例示している。キャプチャ仮想画像50の表示に係る動作および処理がこれらに限られないことは、上記の各動作における説明のとおりである。
 図37に示すように、キャプチャ仮想画像表示処理が開示されると、CPU11は、ユーザの第3ジェスチャ操作に応じて、メニュー仮想画像61を表示部14に表示させる(ステップS101)。CPU11は、キャプチャ領域Rの指定方法の指定がなされたか否かを判別する(ステップS102)。例えば、CPU11は、図8のメニュー仮想画像61においてキャプチャ操作開始ボタン611または612を選択する操作がなされた場合に、キャプチャ領域Rの指定方法の指定がなされたと判別する。キャプチャ領域Rの指定方法の指定がなされていないと判別された場合には(ステップS102で“NO”)、CPU11は、再度ステップS102を実行する。キャプチャ領域Rの指定方法の指定がなされたと判別された場合には(ステップS102で“YES”)、CPU11は、指示された指定方法でキャプチャ領域Rの指定を受け付け(ステップS103)、キャプチャ領域Rが指定されたか否かを判別する(ステップS104)。キャプチャ領域Rが指定されていないと判別された場合には(ステップS104で“NO”)、CPU11は、再度ステップS104を実行する。
 キャプチャ領域Rが指定されたと判別された場合には(ステップS104で“YES”)、CPU11は、キャプチャが禁止されている状況であるか否かを判別する(ステップS105)。キャプチャが禁止されている状況は、上述で例示したとおり、キャプチャ領域Rにキャプチャ禁止対象が含まれている場合、現在位置に基づいてキャプチャが禁止される場合、特定信号を受信していることに応じてキャプチャが禁止される場合、通信ネットワークへの接続状態に係る接続条件を満たしていることに応じてキャプチャが禁止される場合、およびキャプチャ領域Rに含まれる仮想画像が禁止条件を満たすことに応じてキャプチャが禁止されている場合などである。
 キャプチャが禁止されている状況であると判別された場合には(ステップS105で“YES”)、CPU11は、ユーザの指示に応じて、キャプチャ禁止の解除を要求する信号を、権限者の操作する外部機器に送信し、当該外部機器から、キャプチャ禁止の解除を許可する許可信号を受信したか否かを判別する(ステップS106)。所定期間内に許可信号を受信しなかった場合には(ステップS106で“NO”)、CPU11は、キャプチャ仮想画像表示処理を終了させる。所定期間内に許可信号を受信した場合(ステップS106で“YES”)、またはステップS105においてキャプチャが禁止されている状況ではないと判別された場合には(ステップS105で“NO”)、CPU11は、キャプチャ領域Rのキャプチャ画像Cを生成して記憶部13に記憶させる(ステップS107)。
 CPU11は、キャプチャ画像Cをキャプチャ仮想画像50として表示させるための第2ジェスチャ操作がなされたか否かを判別し(ステップS108)、第2ジェスチャ操作がなされていないと判別された場合には(ステップS108で“NO”)、再度ステップS108を実行する。第2ジェスチャ操作がなされたと判別された場合には(ステップS108で“YES”)、CPU11は、キャプチャ画像Cを含むキャプチャ仮想画像50を表示部14に表示させる(ステップS109)。
 CPU11は、キャプチャ仮想画像50に情報の抽出対象が含まれるか否かを判別する(ステップS110)。情報の抽出対象が含まれると判別された場合には(ステップS110で“YES”)、CPU11は、抽出した情報、および所定のアプリのアイコン等を含む抽出情報仮想画像を表示部14に表示させる(ステップS111)。CPU11は、アイコンを選択するジェスチャ操作がなされたか否かを判別し(ステップS112)、当該ジェスチャ操作がなされたと判別された場合には(ステップS112で“YES”)、アイコンに対応するアプリを実行して、当該アプリの仮想画像を表示部14に表示させる(ステップS113)。ステップS113が終了した場合、ステップS110で情報の抽出対象が含まれないと判別された場合(ステップS110で“NO”)、またはステップS112でアイコンを選択するジェスチャ操作がなされていないと判別された場合には(ステップS112で“NO”)、CPU11は、キャプチャ仮想画像表示処理を終了させる。
 〔第2の実施形態〕
 次に、第2の実施形態に係る表示システム1の構成について説明する。第2の実施形態に係る表示システム1は、図39に示すように、ウェアラブル端末装置10と、複数の外部機器20とを備える点で第1の実施形態と異なる。以下では、第1の実施形態との相違点について説明し、共通する点については説明を省略する。
 図39に示すように、表示システム1が備えるウェアラブル端末装置10および複数の外部機器20は、ネットワークNを介して通信接続されている。ネットワークNは、例えばインターネットとすることができるが、これに限られない。なお、表示システム1は、複数のウェアラブル端末装置10を備えていてもよい。また、表示システム1が備える外部機器20は1つであってもよい。例えば、本実施形態では、所定の作業を行うユーザがウェアラブル端末装置10を装着する。また、ウェアラブル端末装置10を装着しているユーザに対し、ウェアラブル端末装置10を介して遠隔地から指示を行う遠隔指示者が外部機器20を操作する。
 図40に示すように、外部機器20は、CPU21と、RAM22と、記憶部23と、操作表示部24と、通信部25と、マイク26と、スピーカー27などを備え、これらの各部はバス28により接続されている。
 CPU21は、各種演算処理を行い、外部機器20の各部の動作を統括制御するプロセッサである。CPU21は、記憶部23に記憶されたプログラム231を読み出して実行することで、各種制御動作を行う。
 RAM22は、CPU21に作業用のメモリ空間を提供し、一時データを記憶する。
 記憶部23は、コンピュータとしてのCPU21により読み取り可能な非一時的な記録媒体である。記憶部23は、CPU21により実行されるプログラム231、および各種設定データなどを記憶する。プログラム231は、コンピュータ読み取り可能なプログラムコードの形態で記憶部23に格納されている。記憶部23としては、例えばフラッシュメモリを備えたSSD、またはHDD(Hard Disk Drive)などの不揮発性の記憶装置が用いられる。
 操作表示部24は、液晶ディスプレイ等の表示装置と、マウスおよびキーボードといった入力装置とを備える。操作表示部24は、表示装置において表示システム1の動作ステータスや処理結果等の各種表示を行う。当該表示には、例えば、ウェアラブル端末装置10のカメラ154により撮影された視認領域41の画像を含む指示者用画面42(図42参照)が含まれる。また、操作表示部24は、入力装置に対するユーザの入力操作を操作信号に変換してCPU21に出力する。
 通信部25は、所定の通信プロトコルに従ってウェアラブル端末装置10との間でデータの送受信を行う。また、通信部25は、ウェアラブル端末装置10との間で音声データ通信を行うことができる。すなわち、通信部25は、マイク26により収集された音声データをウェアラブル端末装置10に送信し、スピーカー27から音声を出力させるためにウェアラブル端末装置10から送信された音声データを受信する。通信部25は、ウェアラブル端末装置10以外の他の装置との通信が可能であってもよい。
 マイク26は、遠隔指示者の声などの音を電気信号に変換してCPU21に出力する。
 スピーカー27は、入力される音声データを機械的な振動に変換して音として出力する。
 本実施形態の表示システム1では、ウェアラブル端末装置10と、一または二以上の外部機器20との間で双方向のデータ通信を行うことで、種々のデータを共有して共同作業を行うことができる。例えば、ウェアラブル端末装置10のカメラ154により撮影されている画像のデータ、および表示されている仮想画像30のデータを外部機器20に送信して操作表示部24において指示者用画面42として表示させることで、ウェアラブル端末装置10のユーザがバイザー141越しに視認しているものを、遠隔指示者がリアルタイムで認識することができる。また、ウェアラブル端末装置10のマイク17、および外部機器20のマイク26によりそれぞれ収集された音声を双方向の音声データ通信で送信することで、音声通話を行うことができる。よって、ウェアラブル端末装置10および外部機器20により音声データ通信が実行されている期間は、ウェアラブル端末装置10のユーザと遠隔指示者とが音声通話中である期間を含む。遠隔指示者は、指示者用画面42におけるリアルタイムのカメラ画像を見ながら音声通話によってウェアラブル端末装置10のユーザに対する指示および支援を行う、といったことが可能である。
 ウェアラブル端末装置10の表示部14に上述したキャプチャ仮想画像50が表示された場合には、外部機器20の指示者用画面42においてキャプチャ仮想画像50の表示をそのまま反映させることができる。しかしながら、キャプチャ仮想画像50に機密情報が含まれている場合など、外部機器20の指示者用画面42にキャプチャ仮想画像50を表示させないことが望ましい場合もある。そこで、本開示の表示システム1では、指示者用画面42においてキャプチャ仮想画像50の表示をそのまま反映させるか否かを、予め設定しておくことができる。当該設定に係るデータは、ウェアラブル端末装置10の記憶部13に記憶されていてもよいし、外部機器20の記憶部23に記憶されていてもよい。また、外部機器20の指示者用画面42においてキャプチャ仮想画像50を反映させない設定となっている場合であっても、ウェアラブル端末装置10のユーザが許可した場合に、指示者用画面42においてキャプチャ仮想画像50の表示が反映されることとしてもよい。
 例えば、ウェアラブル端末装置10にユーザAがログインしており、外部機器20にユーザBがログインしており、ウェアラブル端末装置10および外部機器20との間で画面共有が行われているものとする。また、ウェアラブル端末装置10の視認領域41におけるキャプチャ仮想画像50の表示を、外部機器20の指示者用画面42には反映させない設定となっているものとする。この状態で、図41に示すように、ウェアラブル端末装置10においてキャプチャ仮想画像50が表示されると、図42に示すように、外部機器20の指示者用画面42では、キャプチャ仮想画像50に相当する領域が示されるものの、その内容は表示されない。
 この場合に、図42に示すように、キャプチャ仮想画像50の表示許可を求めるか否かを遠隔指示者に問い合わせるダイアログ画像76が、指示者用画面42に表示されてもよい。ダイアログ画像76の決定ボタン761を選択する操作が行われると、キャプチャ仮想画像50の表示許可を要求する要求信号がウェアラブル端末装置10に対して送信される。
 図43に示すように、ウェアラブル端末装置10では、当該要求信号の受信に応じて、キャプチャ画像の表示を許可するか否かを問い合わせるダイアログ仮想画像77が表示部14に表示される。ダイアログ仮想画像77の決定ボタン771を選択するジェスチャ操作が行われると、キャプチャ仮想画像50の表示を許可する許可信号が外部機器20に対して送信される。外部機器20の指示者用画面42では、当該許可信号を受信すると、キャプチャ仮想画像50の内容が表示される。
 〔第3の実施形態〕
 次に、第3の実施形態に係る表示システム1の構成について説明する。第3の実施形態は、第1の実施形態においてウェアラブル端末装置10のCPU11が実行していた処理の一部を外部の情報処理装置80が実行する点で第1の実施形態と異なる。以下では、第1の実施形態との相違点について説明し、共通する点については説明を省略する。第3の実施形態は、第2の実施形態と組み合わせてもよい。
 図44に示すように、表示システム1は、ウェアラブル端末装置10と、当該ウェアラブル端末装置10に通信接続された情報処理装置80(サーバ)とを備える。ウェアラブル端末装置10と情報処理装置80との間の通信経路の少なくとも一部は、無線通信によるものであってもよい。ウェアラブル端末装置10のハードウェア構成は、第1の実施形態と同様とすることができるが、情報処理装置80が実行する処理と同一の処理を行うためのプロセッサは省略してもよい。また、本実施形態を第2の実施形態と組み合わせる場合には、情報処理装置80はネットワークNに接続されていてもよい。
 図45に示すように、情報処理装置80は、CPU81と、RAM82と、記憶部83と、操作表示部84と、通信部85などを備え、これらの各部はバス86により接続されている。
 CPU81は、各種演算処理を行い、情報処理装置80の各部の動作を統括制御するプロセッサである。CPU81は、記憶部83に記憶されたプログラム831を読み出して実行することで、各種制御動作を行う。
 RAM82は、CPU81に作業用のメモリ空間を提供し、一時データを記憶する。
 記憶部83は、コンピュータとしてのCPU81により読み取り可能な非一時的な記録媒体である。記憶部83は、CPU81により実行されるプログラム831、および各種設定データなどを記憶する。プログラム831は、コンピュータ読み取り可能なプログラムコードの形態で記憶部83に格納されている。記憶部83としては、例えばフラッシュメモリを備えたSSD、またはHDDなどの不揮発性の記憶装置が用いられる。
 操作表示部84は、液晶ディスプレイ等の表示装置と、マウスおよびキーボードといった入力装置とを備える。操作表示部84は、表示装置において表示システム1の動作ステータスや処理結果等の各種表示を行う。ここで、表示システム1の動作ステータスには、ウェアラブル端末装置10のカメラ154によるリアルタイムの撮影画像が含まれてもよい。また、操作表示部84は、入力装置に対するユーザの入力操作を操作信号に変換してCPU21に出力する。
 通信部85は、ウェアラブル端末装置10と通信を行ってデータを送受信する。例えば、通信部85は、ウェアラブル端末装置10のセンサー部15による検出結果の一部または全部を含むデータ、およびウェアラブル端末装置10が検出したユーザの操作(ジェスチャー)に係る情報などを受信する。また、通信部85は、ウェアラブル端末装置10以外の他の装置との通信が可能であってもよい。
 このような構成の表示システム1において、情報処理装置80のCPU81は、第1の実施形態においてウェアラブル端末装置10のCPU11が実行していた処理の少なくとも一部を実行する。例えば、CPU81は、深度センサー153による検出結果に基づいて空間40の3次元マッピングを行ってもよい。また、CPU81は、センサー部15の各部による検出結果に基づいて空間40内におけるユーザの視認領域41を検出してもよい。また、CPU81は、ウェアラブル端末装置10のユーザの操作に応じて仮想画像30に係る仮想画像データ132を生成してもよい。また、CPU81は、深度センサー153およびカメラ154による撮像画像に基づいてユーザの手(および/または指)の位置および向きを検出してもよい。また、CPU81は、キャプチャ画像Cの生成およびキャプチャ仮想画像50の表示に係る処理を実行してもよい。
 CPU81による上記の処理結果は、通信部85を介してウェアラブル端末装置10に送信される。ウェアラブル端末装置10のCPU11は、受信した処理結果に基づいてウェアラブル端末装置10の各部(例えば表示部14)を動作させる。また、CPU81は、ウェアラブル端末装置10に制御信号を送信して、ウェアラブル端末装置10の表示部14の表示制御を行ってもよい。
 このように、情報処理装置80において処理の少なくとも一部を実行することで、ウェアラブル端末装置10の装置構成を簡素化することができ、また製造コストを低減することができる。また、より高性能な情報処理装置80を用いることで、MRに係る各種の処理を高速化および高精度化することができる。よって、空間40の3Dマッピングの精度を高めたり、表示部14による表示品質を高めたり、ユーザの動作に対する表示部14の反応速度を高めたりすることができる。
 〔その他〕
 なお、上記実施形態は例示であり、様々な変更が可能である。
 例えば、上記の各実施形態では、ユーザに現実空間を視認させるために、光透過性を有するバイザー141を用いたが、これに限られない。例えば、遮光性を有するバイザー141を用い、カメラ154により撮影された空間40の画像をユーザに視認させてもよい。すなわち、CPU11は、カメラ154により撮影された空間40の画像、および当該空間40の画像に重ねられた仮想画像30を表示部14に表示させてもよい。このような構成によっても、現実空間に仮想画像30を融合させるMRを実現できる。
 また、カメラ154による現実空間の撮影画像に代えて、予め生成された仮想空間の画像を用いることで、仮想空間にいるように体感させるVRを実現できる。このVRにおいても、ユーザの視認領域41が特定されて、仮想空間のうち視認領域41の内部にある部分、および視認領域41の内部に表示位置が定められている仮想画像30が表示される。よって、この場合のキャプチャ画像Cの背景は、仮想空間となる。
 ウェアラブル端末装置10は、図1に例示した環状の本体部10aを有するものに限られず、装着時にユーザが視認可能な表示部を有していれば、どのような構造であってもよい。例えば、ヘルメットのように頭部全体を覆う構成であってもよい。また、メガネのように、耳に掛けるフレームを有し、フレーム内に各種機器が内蔵されていてもよい。
 各種の仮想画像は、必ずしも空間40において静止していなくてもよく、所定の軌跡で空間40の内部を移動していてもよい。
 ユーザのジェスチャを検出して入力操作として受け付ける例を用いて説明したが、これに限られない。例えば、ユーザが手に持ったり、体に装着したりして使用するコントローラにより入力操作が受け付けられてもよい。
 ウェアラブル端末装置10および外部機器20の間で音声通話を行う例を用いて説明したが、これに限られず、ビデオ通話が可能であってもよい。この場合には、遠隔操作者を撮影するウェブカメラを外部機器20に設け、当該ウェブカメラで撮影している画像データをウェアラブル端末装置10に送信して表示部14にて表示させればよい。
 その他、上記実施の形態で示した構成および制御の具体的な細部は、本開示の趣旨を逸脱しない範囲において適宜変更可能である。また、本開示の趣旨を逸脱しない範囲において、上記実施の形態で示した構成および制御を適宜組み合わせ可能である。
 本開示は、ウェアラブル端末装置、プログラムおよび画像処理方法に利用することができる。
1 表示システム
10 ウェアラブル端末装置
10a 本体部
11 CPU(プロセッサ)
12 RAM
13 記憶部
131 プログラム
132 仮想画像データ
14 表示部
141 バイザー(表示部材)
142 レーザースキャナー
15 センサー部
151 加速度センサー
152 角速度センサー
153 深度センサー
154 カメラ
155 アイトラッカー
16 通信部
17 マイク
18 スピーカー
19 バス
20 外部機器
21 CPU
23 記憶部
231 プログラム
24 操作表示部
30 仮想画像(第1の仮想画像)
31 機能バー
32 ウィンドウ形状変更ボタン
33 クローズボタン
34、35 仮想画像(第4の仮想画像、第5の仮想画像)
40 空間
41 視認領域
411 仮想線
412 ポインタ
42 指示者用画面
44 人物
45 物品
46 文字
47 二次元コード(コード情報)
48 物体
50 キャプチャ仮想画像(第2の仮想画像)
50a 初期表示領域
50b 拡張領域
51 仮想画像領域
52 空間画像領域
53 再生ボタン
54 仮想オブジェクト
61 メニュー仮想画像(第3の仮想画像)
62~65、71 抽出情報仮想画像(第6の仮想画像)
622、632、642、661~663 アイコン(標識)
67~69、72、73、623、633、643 仮想画像
74、75、77 ダイアログ仮想画像
76 ダイアログ画像
80 情報処理装置
81 CPU
83 記憶部
831 プログラム
84 操作表示部
C キャプチャ画像
D 撮影画像
E 合成画像
L リスト領域
N ネットワーク
R キャプチャ領域
r キャプチャ枠
U ユーザ

Claims (40)

  1.  ユーザが装着して使用するウェアラブル端末装置であって、
     前記ユーザの視認領域として空間を撮影するカメラと、
     少なくとも一つのプロセッサと、を備え、
     前記少なくとも一つのプロセッサは、
     前記ユーザの第1ジェスチャ操作に基づいて、前記カメラにより撮影された前記空間における前記視認領域の一部をキャプチャ領域として特定し、
     前記キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる、ウェアラブル端末装置。
  2.  光透過性を有する表示部材を有する表示部を備え、
     前記少なくとも一つのプロセッサは、前記表示部材を通して視認される前記空間に第1の仮想画像が視認されるように、前記第1の仮想画像を前記表示部材の表示面に表示させる、請求項1に記載のウェアラブル端末装置。
  3.  表示部を備え、
     前記少なくとも一つのプロセッサは、前記カメラにより撮影された前記空間の画像、および当該空間の画像に重ねられた第1の仮想画像を前記表示部に表示させる、請求項1に記載のウェアラブル端末装置。
  4.  前記少なくとも一つのプロセッサは、前記キャプチャ画像を前記記憶部に記憶すると、当該キャプチャ画像を第2の仮想画像として前記表示部に表示させる、請求項2または3に記載のウェアラブル端末装置。
  5.  前記少なくとも一つのプロセッサは、ユーザの第2ジェスチャ操作に応じて、前記キャプチャ画像を第2の仮想画像として前記表示部に表示させる、請求項2または3に記載のウェアラブル端末装置。
  6.  前記少なくとも一つのプロセッサは、前記第2ジェスチャ操作に応じて、前記ユーザとの所定の相対位置に前記第2の仮想画像を表示させ、
     前記相対位置は、前記第2ジェスチャ操作の種別ごとに予め設定されている、請求項5に記載のウェアラブル端末装置。
  7.  前記少なくとも一つのプロセッサは、前記空間において、前記第2の仮想画像を前記第1の仮想画像より前記ユーザに近い位置に表示させる、請求項4~6のいずれか一項に記載のウェアラブル端末装置。
  8.  前記少なくとも一つのプロセッサは、ユーザの第3ジェスチャ操作に応じて、前記第1ジェスチャ操作の受け付けを開始するための第3の仮想画像を前記表示部に表示させる、請求項4~7のいずれか一項に記載のウェアラブル端末装置。
  9.  前記少なくとも一つのプロセッサは、
     前記第1ジェスチャ操作の種別に応じて互いに異なる方法で前記キャプチャ領域を特定し、
     前記第3の仮想画像に対する操作に応じて、受け付ける前記第1ジェスチャ操作の種別を特定する、請求項8に記載のウェアラブル端末装置。
  10.  前記少なくとも一つのプロセッサは、前記第2の仮想画像の外枠を所定の強調態様で表示させる、請求項4~9のいずれか一項に記載のウェアラブル端末装置。
  11.  前記少なくとも一つのプロセッサは、表示させた前記第2の仮想画像に対するユーザの第4ジェスチャ操作に応じて当該第2の仮想画像を移動させる、請求項4~10のいずれか一項に記載のウェアラブル端末装置。
  12.  前記少なくとも一つのプロセッサは、表示させた前記第2の仮想画像に対するユーザの第5ジェスチャ操作に応じて当該第2の仮想画像を拡張または縮小させ、当該拡張または縮小に応じて、前記第2の仮想画像に反映させる前記キャプチャ領域の範囲を拡張または縮小させる、請求項4~11のいずれか一項に記載のウェアラブル端末装置。
  13.  前記少なくとも一つのプロセッサは、前記キャプチャ領域に前記第1の仮想画像の少なくとも一部が含まれる場合に、前記第1の仮想画像の少なくとも一部が含まれる前記キャプチャ画像を前記記憶部に記憶させる、請求項4~12のいずれか一項に記載のウェアラブル端末装置。
  14.  前記少なくとも一つのプロセッサは、表示させた前記第2の仮想画像に対するユーザの第6ジェスチャ操作に応じて、当該第2の仮想画像に含まれる前記第1の仮想画像を削除し、当該削除した領域に、当該領域に相当する前記空間の画像を表示させる、請求項13に記載のウェアラブル端末装置。
  15.  前記少なくとも一つのプロセッサは、前記第2の仮想画像に含まれる前記第1の仮想画像を所定の強調態様で表示させる、請求項14に記載のウェアラブル端末装置。
  16.  前記少なくとも一つのプロセッサは、表示させた前記第2の仮想画像に対するユーザの第7ジェスチャ操作に応じて、当該第2の仮想画像のうち前記第1の仮想画像以外の部分を削除する、請求項13に記載のウェアラブル端末装置。
  17.  前記少なくとも一つのプロセッサは、前記第2の仮想画像に含まれる前記第1の仮想画像以外の部分を所定の強調態様で表示させる、請求項16に記載のウェアラブル端末装置。
  18.  前記少なくとも一つのプロセッサは、前記第2の仮想画像に前記第1の仮想画像の一部が含まれる場合に、表示させた前記第2の仮想画像に対するユーザの第8ジェスチャ操作に応じて、前記第1の仮想画像を複製して第4の仮想画像として表示させる、請求項13に記載のウェアラブル端末装置。
  19.  前記少なくとも一つのプロセッサは、表示させた前記第2の仮想画像に対するユーザの第9ジェスチャ操作に応じて、当該第2の仮想画像に含まれる前記第1の仮想画像を複数の移動方法のいずれかにより移動させる動作の開始を受け付け、
     前記複数の移動方法は、前記第2の仮想画像内で前記第1の仮想画像の表示範囲を拡張または縮小させる方法と、前記第2の仮想画像の外部に前記第1の仮想画像を移動させる方法と、を含む、請求項13に記載のウェアラブル端末装置。
  20.  前記少なくとも一つのプロセッサは、表示させた前記第2の仮想画像に対するユーザの第10ジェスチャ操作に応じて、当該第2の仮想画像の少なくとも一部を複製して第5の仮想画像として表示させる、請求項4~19のいずれか一項に記載のウェアラブル端末装置。
  21.  前記少なくとも一つのプロセッサは、前記第2の仮想画像に、情報を抽出可能な抽出対象が含まれる場合に、当該抽出対象から前記情報を抽出して前記表示部に表示させる、請求項4~20のいずれか一項に記載のウェアラブル端末装置。
  22.  前記少なくとも一つのプロセッサは、抽出した前記情報を、所定の翻訳設定に従って、またはユーザの第11ジェスチャ操作に応じた翻訳設定に従って翻訳して前記表示部に表示させる、請求項21に記載のウェアラブル端末装置。
  23.  前記少なくとも一つのプロセッサは、前記第2の仮想画像に、情報を抽出可能な抽出対象が含まれる場合に、当該抽出対象の種別に応じて予め定められたアプリケーションを起動するための標識を前記表示部に表示させる、請求項4~22のいずれか一項に記載のウェアラブル端末装置。
  24.  前記少なくとも一つのプロセッサは、
     前記抽出対象から抽出した前記情報を含む第6の仮想画像を前記表示部に表示させ、
     前記第6の仮想画像の第1面、および当該第1面とは反対側の第2面の少なくとも一方に前記標識を表示させる、請求項23に記載のウェアラブル端末装置。
  25.  前記抽出対象は、人物、物品、場所、文字およびコード情報のうちの少なくとも一つである、請求項21~24のいずれか一項に記載のウェアラブル端末装置。
  26.  前記少なくとも一つのプロセッサは、
     前記第1ジェスチャ操作がなされたときの自装置の位置情報を取得し、
     取得した前記位置情報を前記キャプチャ画像に対応付けて前記記憶部に記憶させる、請求項1~25のいずれか一項に記載のウェアラブル端末装置。
  27.  前記少なくとも一つのプロセッサは、
     前記第1ジェスチャ操作がなされたときの前記ユーザを特定し、
     特定した前記ユーザに係るユーザ情報を前記キャプチャ画像に対応付けて前記記憶部に記憶させる、請求項1~26のいずれか一項に記載のウェアラブル端末装置。
  28.  前記少なくとも一つのプロセッサは、
     前記キャプチャ領域に所定のキャプチャ禁止対象が含まれるか否かを判別し、
     前記キャプチャ領域に前記キャプチャ禁止対象が含まれると判別した場合には、前記キャプチャ画像を前記記憶部に記憶させない、請求項1~27のいずれか一項に記載のウェアラブル端末装置。
  29.  前記少なくとも一つのプロセッサは、
     前記第1ジェスチャ操作がなされたときの自装置の位置情報を取得し、
     前記位置情報により示される位置が所定の禁止位置条件を満たす場合には、前記キャプチャ画像を前記記憶部に記憶させない、請求項1~28のいずれか一項に記載のウェアラブル端末装置。
  30.  外部機器との間でデータ通信を行う通信部を備え、
     前記少なくとも一つのプロセッサは、前記通信部が特定信号を受信している場合には、前記キャプチャ画像を前記記憶部に記憶させない、請求項1~29のいずれか一項に記載のウェアラブル端末装置。
  31.  外部機器との間でデータ通信を行う通信部を備え、
     前記通信部は、所定の通信ネットワークを介して前記データ通信を行い、
     前記少なくとも一つのプロセッサは、前記通信部による前記通信ネットワークへの接続状態に係る所定の接続条件を満たす場合には、前記キャプチャ画像を前記記憶部に記憶させない、請求項1~29のいずれか一項に記載のウェアラブル端末装置。
  32.  前記少なくとも一つのプロセッサは、前記キャプチャ領域に前記第1の仮想画像の少なくとも一部が含まれ、かつ、当該第1の仮想画像が所定の禁止条件を満たす場合には、前記キャプチャ画像を前記記憶部に記憶させない、請求項2~25のいずれか一項に記載のウェアラブル端末装置。
  33.  音声を音声データに変換するマイクを備え、
     前記少なくとも一つのプロセッサは、前記キャプチャ画像を前記記憶部に記憶させる場合に、前記音声データを取得してキャプチャ画像に対応付けて前記記憶部に記憶させる、請求項1~32のいずれか一項に記載のウェアラブル端末装置。
  34.  前記少なくとも一つのプロセッサは、前記空間内に位置する所定の表示対象の表面、または当該表示対象との間で所定の位置関係を満たす位置に前記第2の仮想画像を表示させる、請求項4~25のいずれか一項に記載のウェアラブル端末装置。
  35.  前記少なくとも一つのプロセッサは、前記空間内における前記表示対象の移動に応じて前記第2の仮想画像の表示位置を移動させる、請求項34に記載のウェアラブル端末装置。
  36.  前記少なくとも一つのプロセッサは、前記ユーザと前記表示対象との距離が減少するに従って前記第2の仮想画像が大きくなるように当該第2の仮想画像を表示させる、請求項35に記載のウェアラブル端末装置。
  37.  前記少なくとも一つのプロセッサは、前記表示対象の向きの変化に追従するように前記第2の仮想画像の向きを変更する、請求項34~36のいずれか一項に記載のウェアラブル端末装置。
  38.  前記表示対象は、前記空間にある物体、人物、または前記第2の仮想画像以外の任意の仮想画像である、請求項34~37のいずれか一項に記載のウェアラブル端末装置。
  39.  ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラを備えたウェアラブル端末装置に設けられたコンピュータに、
     前記ユーザの第1ジェスチャ操作に基づいて、前記カメラにより撮影された前記空間における前記視認領域の一部をキャプチャ領域として特定する処理、
     前記キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる処理、
     を実行させるプログラム。
  40.  ユーザが装着して使用し、前記ユーザの視認領域として空間を撮影するカメラを備えたウェアラブル端末装置に設けられたコンピュータが実行する画像処理方法であって、
     前記ユーザの第1ジェスチャ操作に基づいて、前記カメラにより撮影された前記空間における前記視認領域の一部をキャプチャ領域として特定し、
     前記キャプチャ領域に対応するキャプチャ画像を記憶部に記憶させる、画像処理方法。
PCT/JP2021/024076 2021-06-25 2021-06-25 ウェアラブル端末装置、プログラムおよび画像処理方法 WO2022269887A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/024076 WO2022269887A1 (ja) 2021-06-25 2021-06-25 ウェアラブル端末装置、プログラムおよび画像処理方法
JP2023529392A JPWO2022269887A1 (ja) 2021-06-25 2021-06-25

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/024076 WO2022269887A1 (ja) 2021-06-25 2021-06-25 ウェアラブル端末装置、プログラムおよび画像処理方法

Publications (1)

Publication Number Publication Date
WO2022269887A1 true WO2022269887A1 (ja) 2022-12-29

Family

ID=84544430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/024076 WO2022269887A1 (ja) 2021-06-25 2021-06-25 ウェアラブル端末装置、プログラムおよび画像処理方法

Country Status (2)

Country Link
JP (1) JPWO2022269887A1 (ja)
WO (1) WO2022269887A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014093050A (ja) * 2012-11-06 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2014525081A (ja) * 2011-06-29 2014-09-25 アマゾン・テクノロジーズ、インコーポレイテッド ジェスチャ認識によるユーザの識別
WO2014181380A1 (ja) * 2013-05-09 2014-11-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびアプリケーション実行方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014525081A (ja) * 2011-06-29 2014-09-25 アマゾン・テクノロジーズ、インコーポレイテッド ジェスチャ認識によるユーザの識別
JP2014093050A (ja) * 2012-11-06 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
WO2014181380A1 (ja) * 2013-05-09 2014-11-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置およびアプリケーション実行方法

Also Published As

Publication number Publication date
JPWO2022269887A1 (ja) 2022-12-29

Similar Documents

Publication Publication Date Title
US20220139051A1 (en) Creating a viewport in a hybrid-reality system
KR101591579B1 (ko) 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
US9978174B2 (en) Remote sensor access and queuing
KR101260576B1 (ko) Ar 서비스를 제공하기 위한 사용자 단말기 및 그 방법
TWI610097B (zh) 電子系統、可攜式顯示裝置及導引裝置
WO2016203792A1 (ja) 情報処理装置、情報処理方法及びプログラム
US11340707B2 (en) Hand gesture-based emojis
KR20200031083A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
EP3717990B1 (en) Real-world portals for virtual reality displays
JP2020024752A (ja) 情報処理装置及びその制御方法、プログラム
WO2017051592A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN109584374A (zh) 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质
US20210405772A1 (en) Augmented reality eyewear 3d painting
US10771707B2 (en) Information processing device and information processing method
US11151804B2 (en) Information processing device, information processing method, and program
JP7400882B2 (ja) 情報処理装置、移動体、遠隔制御システム、情報処理方法およびプログラム
KR20170011194A (ko) 이동 단말기 및 그 제어 방법
JP2024012379A (ja) ヘッドマウント型情報出力装置
WO2022269887A1 (ja) ウェアラブル端末装置、プログラムおよび画像処理方法
JP6398630B2 (ja) 可視像表示方法、第1デバイス、プログラム、及び、視界変更方法、第1デバイス、プログラム
US20220244788A1 (en) Head-mounted display
JPWO2018069952A1 (ja) 遠隔制御システム、遠隔制御方法、およびプログラム
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7400810B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2016151958A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21947172

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023529392

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE