JP2017033195A - 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム - Google Patents

透過型ウェアラブル端末、データ処理装置、及びデータ処理システム Download PDF

Info

Publication number
JP2017033195A
JP2017033195A JP2015151252A JP2015151252A JP2017033195A JP 2017033195 A JP2017033195 A JP 2017033195A JP 2015151252 A JP2015151252 A JP 2015151252A JP 2015151252 A JP2015151252 A JP 2015151252A JP 2017033195 A JP2017033195 A JP 2017033195A
Authority
JP
Japan
Prior art keywords
data processing
unit
user
data
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015151252A
Other languages
English (en)
Other versions
JP6319220B2 (ja
Inventor
国晃 大山
Kuniaki Oyama
国晃 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2015151252A priority Critical patent/JP6319220B2/ja
Publication of JP2017033195A publication Critical patent/JP2017033195A/ja
Application granted granted Critical
Publication of JP6319220B2 publication Critical patent/JP6319220B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能とし、これによりユーザーが直感的な操作によりデータ処理装置を操作可能とし、操作対象とする他の装置に所望のデータ処理を行わせる。【解決手段】透過型ウェアラブル端末1は、撮像部103と、撮像映像に写ったデータ処理装置2及びユーザーの手の動きを識別する映像解析部104と、データ処理装置2の装置状態を示すアイコンを表示させる装置状態表示制御部107と、ユーザーが注視するデータ処理装置2を特定する装置特定部108と、データ選択GUIにおいてユーザーが選択したデータを特定するデータ特定部109と、ユーザーによる手のジェスチャーに応じたデータ処理を特定する処理特定部110と、特定されたデータ処理装置2に対して、特定されたデータ処理の実行を要求するデータ処理要求部111とを備える。【選択図】図2

Description

本発明は、透過型ウェアラブル端末、データ処理装置、及びデータ処理システムに関し、特に、透過型ウェアラブル端末を使用してデータ処理装置に所望のデータ処理を行わせる技術に関する。
現在、ヘッドマウントディスプレイやメガネ型のウェアラブル機器は、操作対象となる他の装置の設定画面を仮想的に表示して、ユーザーがこの設定画面に対して手を動かして操作を行うと、ユーザーによる当該手の動きを検出して、当該手の動きの内容に対応する操作を受け付けて、当該他の装置を動作させることが可能とされている。また、ウェアラブル機器では、当該機器を装着したユーザーの眼球の中心位置を監視することで、ユーザーが注視している場所を特定することが可能となっている。例えば、下記特許文献1では、視点位置を算出する際に必要となる眼球中心位置の測定法を、眼球半径の個人差を考慮しつつ高速かつ安定に収束させる手段を提案している。このように人の視線や焦点距離を正確に観測・算出する技術が発展しているため、ヘッドマウントディスプレイやメガネ型のウェアラブル機器において、ユーザーの視線情報・焦点距離情報を利用した機能を実現することが可能である。
例えば、下記特許文献2では、画像形成装置の操作パネルを仮想パネルとして、ヘッドマウントディスプレイやメガネ型のウェアラブル機器を用いてユーザーに対して仮想的に表示し、ユーザーの手を視認・観測して、当該仮想パネルに対するユーザーの手の動きに応じた操作を設定することが可能とされている。
また、下記特許文献3では、ヘッドマウントディスプレイにおいて、ユーザーによる視線で特定された物に対して、ユーザーによる手の動きに応じて特定されるデータの送信などの処理を行わせる。この際、ユーザーが画像形成装置等の機器を視界にとらえると、当該画像形成装置等がデータ送信先として特定される。
特開2008−136789号公報 特開2010−145860号公報 特開2014−93036号公報
しかしながら、上記特許文献2の発明は、表示した仮想パネルに対するユーザーの手の動きを検知するものに留まっており汎用性が低い。また、上記特許文献3の発明は、視線で検知したもので操作の組み合わせを決めて選択肢を表示し、その選択肢に対するユーザーの手の動きを検知している。しかし、選択肢に対するユーザーの手の動きに基づいてしか操作内容を特定することができない。
本発明は、上記の問題を解決するためになされたものであり、ヘッドマウントディスプレイやメガネ型のウェアラブル機器、特に透過型ウェアラブル端末を使用して、従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能とし、これによりユーザーが直感的に操作によりデータ処理装置を操作でき、操作対象とする他の装置に所望のデータ処理を行わせることを可能にする目的とする。
本発明の一局面に係る透過型ウェアラブル端末は、ユーザーの視界に映像を重ねて表示する透過型ウェアラブル端末であって、
ユーザーによる視認が可能に映像を表示する表示部と、
ユーザーの視線及び焦点距離を検出する視線検出部と、
ユーザーの視界映像を撮像する撮像部と、
前記撮像部の撮像映像を解析して、当該映像に写ったデータ処理装置、及びユーザーによる手の動きを識別する映像解析部と、
前記データ処理装置と通信する通信部と、
前記通信部を介して、前記映像解析部によって識別された前記データ処理装置から装置状態を取得し、当該装置状態を示すアイコンを、ユーザーの視界内における当該データ処理装置に近い位置に、前記表示部により表示させる装置状態表示制御部と、
前記視線検出部の検出結果に基づいて、前記映像解析部によって識別されたデータ処理装置のうちユーザーが注視するデータ処理装置を特定する装置特定部と、
ユーザーの視界内にデータ選択GUIを表示させ、前記映像解析部によって識別されたユーザーによる手の動きに基づいて、当該データ選択GUIにおいてユーザーが選択したデータを特定するデータ特定部と、
前記映像解析部によって識別されたユーザーの手のジェスチャーに応じたデータ処理を特定する処理特定部と、
前記通信部を介して、前記装置特定部によって特定されたデータ処理装置に対して、前記データ特定部によって特定されたデータについて前記処理特定部によって特定されたデータ処理を行うように要求するデータ処理要求部と、を備えたものである。
本発明によれば、従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能とし、これによりユーザーが直感的に操作によりデータ処理装置を操作でき、操作対象とする他の装置に所望のデータ処理を行わせることが可能になる。これにより、当該操作対象となるデータ処理装置の操作性も向上させることができる。
本発明の一実施形態に係るデータ処理システムの概要図である。 透過型ウェアラブル端末の主要内部構成を示す機能ブロック図である。 ユーザーの視界を模式的に表した図である。 ユーザーの視界を模式的に表した図である。 ユーザーの視界を模式的に表した図である。 ユーザーの視界を模式的に表した図である。 ユーザーの視界を模式的に表した図である。 データ処理システムにおけるデータ処理手順を示すフローチャートである。 初期映像表示の詳細なフローチャートである。 データ特定の詳細なフローチャートである。 装置特定の詳細なフローチャートである。 処理特定の詳細なフローチャートである。
以下、本発明の一実施形態に係るデータ処理システムについて図面を参照して説明する。図1は、本発明の一実施形態に係るデータ処理システム10の概要図である。
データ処理システム10は、透過型ウェアラブル端末1と、データ処理装置2とを備える。
透過型ウェアラブル端末1は、ユーザーの視界に映像を重ねて表示することができる端末であり、例えば、ヘッドマウントディスプレイやメガネ型ウェアラブル端末などである。ユーザーは透過型ウェアラブル端末1を頭部に装着して、視界に重ねて表示される映像を手で仮想的に操作する。このとき、透過型ウェアラブル端末1は、ユーザーによる当該操作に基づく手の動きを解析して、当該手の動きの内容に応じた操作内容で、データ処理装置2を操作して所望のデータ処理を行わせる。
データ処理装置2は、透過型ウェアラブル端末1により操作対象とされる装置である。データ処理装置2は、例えば、文書データや画像データを用紙に印字する画像形成装置である。
透過型ウェアラブル端末1と、データ処理装置2とは、LAN又はインターネットなどのネットワーク4に接続されて互いに通信可能とされている。
なお、透過型ウェアラブル端末1とデータ処理装置2とは、ネットワーク4を介さずに近距離無線通信により直接の通信が可能とされている。従って、データ処理装置2は、透過型ウェアラブル端末1が保持するデータを透過型ウェアラブル端末1から直接に受信して、その受信データの処理を行うことが可能である。
図2は、透過型ウェアラブル端末1の主要内部構成を示す機能ブロック図である。透過型ウェアラブル端末1は、制御部100、表示部101、視線検出部102、撮像部103、映像解析部104、通信部105、メモリー106、装置状態表示制御部107、装置特定部108、データ特定部109、処理特定部110、データ処理要求部111、及び操作パネル表示制御部112を備える。これら構成要素は、内部バス113で互いに接続されている。
制御部100は、透過型ウェアラブル端末1の全体的な動作制御を司る。
表示部101は、ユーザーによる視認が可能に映像を表示する。本実施形態では、表示部101を、ユーザーの網膜に映像を投影するデバイスからなるものとする。表示部101が、ユーザーの網膜に映像を投影することにより、透過型ウェアラブル端末1で生成された映像を仮想現実としてユーザーの目の前に表示する。
視線検出部102は、ユーザーの視線及び焦点距離を検出するデバイスである。具体的には、視線検出部102は、ユーザーの瞳孔の向きを検出することで、人が顔を向けている方向の視野においてその人が注視している位置(視線位置)及び焦点距離を検出する。人間の視野は、瞳孔が真正面を向いた状態で、片眼の水平方向で、耳側に約90〜100度、鼻側に約60度、上側に約60度、下側に約70度と言われている。人間は、目だけを動かして当該視野内のものを注視することができる。
視線位置の検出には公知の技術を利用することができる。例えば、透過型ウェアラブル端末1が備える図略の可視光カメラで人の片眼を撮影し、目頭を基準点として瞳孔の動きを検出することで視線位置を検出することができる。あるいは、透過型ウェアラブル端末1が備える図略の近赤外線LED光源から片眼の表面に近赤外光を照射し、透過型ウェアラブル端末1が備える図略の近赤外線カメラで当該近赤外光の反射光(プルキニエ像)と瞳孔を撮影し、プルキニエ像と瞳孔中心との相対位置関係から視線位置を検出する。
撮像部103は、ユーザーの視界映像を撮像するデバイスであり、例えば、小型CCDカメラである。
映像解析部104は、撮像部103による撮像映像を例えばパターンマッチング等により解析して、当該映像に写ったデータ処理装置2、ユーザーの手の動き、及びジェスチャーを識別するデバイスであり、例えば、DSP(Digital Signal Processor)である。
通信部105は、データ処理装置2などの他の機器と無線通信するデバイスである。無線通信方式として、無線LAN、Bluetooth(登録商標)、ZigBee(登録商標)等が利用可能である。
メモリー106は、ROMやフラッシュメモリーなどの不揮発性メモリーと、RAMなどの揮発性メモリーとを含むデバイスである。メモリー106は、透過型ウェアラブル端末1の動作プログラムや、データ処理装置2での処理対象となるデータなどを保持する他、撮像部103の撮像映像などを一時的に記憶する。
装置状態表示制御部107は、表示部101により映像を表示させて、ユーザーの視界内にあるデータ処理装置2の装置状態を仮想現実として表示させるモジュールである。具体的には、装置状態表示制御部107は、通信部105を介して、映像解析部104によって識別されたデータ処理装置2から装置状態を示す装置状態情報(以下、単に装置状態という)を取得する。装置状態表示制御部107は、当該装置状態を示すアイコンを、ユーザーの視界内のデータ処理装置2の近傍に表示させる。
装置特定部108は、ユーザーが注視するデータ処理装置2を、ユーザーの視線に応じて特定するモジュールである。具体的には、装置特定部108は、視線検出部102の検出結果に基づいて、映像解析部104によって識別されたデータ処理装置2のうちユーザーが注視するデータ処理装置2を特定する。これにより、ユーザーの視界に複数のデータ処理装置2が存在する場合であっても、ユーザーが、その中からいずれか1つを注視すると、装置特定部108により1つのデータ処理装置2が特定されることになる。これにより、ユーザーは複数のデータ処理装置の中から1台のデータ処理装置を視線により選択することができる。
データ特定部109は、データ処理装置2での処理対象のデータを特定するモジュールである。具体的には、データ特定部109は、表示部101によりユーザーの視界にデータ選択GUIを重ねて表示させ、映像解析部104によって識別されたユーザーの手の動きに基づいて、当該データ選択GUIにおいてユーザーが選択したデータを特定する。
処理特定部110は、データ処理装置2に行わせるべきデータ処理を特定するモジュールである。具体的には、処理特定部110は、映像解析部104によって識別されたユーザーの手のジェスチャーに応じたデータ処理を特定する。
データ処理要求部111は、データ処理装置2にデータ処理を要求するモジュールである。具体的には、データ処理要求部111は、通信部105を介して、装置特定部108によって特定されたデータ処理装置2に対して、データ特定部109によって特定されたデータについて、処理特定部110によって特定されたデータ処理を行うように要求する。
操作パネル表示制御部112は、表示部101に映像を投影させて、ユーザーの視界内にあるデータ処理装置2についての操作パネルを、仮想現実として表示させるモジュールである。具体的には、操作パネル表示制御部112は、映像解析部104によって識別されたデータ処理装置2をユーザーが注視したことを、視線検出部102の検出結果に基づいて装置特定部108が検知したとき、又は、映像解析部104によって識別されたユーザーの手の動きに基づいて、ユーザーが視界内のデータ処理装置2の近傍に表示部101により表示されたアイコンに触れたことを検知したときに、当該データ処理装置2の操作パネルGUIをユーザーの視界に重ねて表示部101により表示させる。
なお、装置状態表示制御部107、装置特定部108、データ特定部109、処理特定部110、データ処理要求部111、及び操作パネル表示制御部112は、専用のハードウェア回路で構成される他、コンピュータープログラムとしてメモリー106に記憶しておき、図略のCPUが当該コンピュータープログラムに従って動作することで、装置状態表示制御部107、装置特定部108、データ特定部109、処理特定部110、データ処理要求部111、及び操作パネル表示制御部112として機能することにより構成することも可能である。
次に、データ処理システム10におけるデータ処理手順について説明する。図3乃至図7は、データ処理システム10の使用時のユーザーの視界を模式的に表した図である。図8は、データ処理システム10におけるデータ処理手順を示すフローチャートである。
まず、表示部101により初期映像が表示される(S1)。この初期映像表示は、図3に示すように、透過型ウェアラブル端末1を装着したユーザーの視界にデータ選択GUI11を表示させ、目の前のデータ処理装置2の近傍に当該装置の装置状態を示すアイコン21を表示するものである(図3)。ここで、まず、当該初期映像表示を説明する。図9は、初期映像表示の詳細なフローチャートである。
透過型ウェアラブル端末1の主電源スイッチがオンになると、映像解析部104は、撮像部103の撮像映像を解析して、当該映像に写ったデータ処理装置2を識別する(S11)。映像解析部104は、例えば、撮像部103の撮像映像に写ったデータ処理装置2の画像と、メモリー106に予め登録されているデータ処理装置2の画像とのパターンマッチングにより、撮像部103の撮像映像に写ったデータ処理装置2を識別する。
映像解析部104によりユーザーの視界内にデータ処理装置2があると判断された場合(S12でYES)、装置状態表示制御部107は、通信部105を介して、映像解析部104によって識別されたデータ処理装置2から装置状態、及びデータ処理装置2が内蔵する記憶装置に記憶している内容を示す情報を取得し(S13)、当該装置状態を示すアイコン21をユーザーの視界内のデータ処理装置2の近傍に表示部101により表示させる(S14)。また、データ特定部109は、ユーザーの視界内の予め定められた位置に、上記データ処理装置2が内蔵する記憶装置に記憶している内容を示す情報に基づいて、まずは当該記憶装置を示す画像としてのデータ選択GUI11を表示部101により表示させる(S15)。これらデータ選択GUI11及びアイコン21は、表示部101がユーザーの網膜に映像を投影することで見えるものである。
なお、ユーザーが頭を動かすなどして視界内のデータ処理装置2の位置が変わっても、データ特定部109は、表示部101により、データ選択GUI11を視界内で移動させずに上記予め定められた位置に表示させるが、装置状態表示制御部107は、表示部101により、アイコン21を、視界内のデータ処理装置2の移動に追従してデータ処理装置2の近傍に表示させる。これにより、表示部101による初期映像の表示が完了する。
図8に戻る。ユーザーが自身の手を、視界内のデータ選択GUI11の表示位置に重ね合わせる等の操作を行うと、データ特定部109は、データ処理装置2で処理を行わせるべきデータを特定する(S2)。ここで、当該データ特定の処理を説明する。図10は、データ特定の詳細なフローチャートである。
データ特定部109は、ユーザーの視界内の予め定められた位置にデータ選択GUI11を表示部101により表示させている(S21)。このデータ選択GUI11は、上記初期映像表示時に表示されるものである。例えば、データ選択GUI11として、上記データ処理装置2が内蔵する記憶装置を示すフォルダーの画像が表示される(図3)。このとき、ユーザーが自身の手をデータ選択GUI11に重ね合わる等の操作を行うと、映像解析部104が撮像部103の撮像映像を解析して、当該映像に写ったユーザーによる当該手5の動きを識別すると(S22でYES)、データ特定部109は、表示部101により、データ選択GUI11の表示を、フォルダーが展開したように見せかける表示に変化させ、上記データ処理装置2が内蔵する記憶装置に記憶している内容を示す情報に基づいて、フォルダー内の各種データを示すアイコンを表示させる(S23)。例えば、図4に例を示すように、データ特定部109は、フォルダー内に画像データ11a及びテキストデータ11bが格納されている状態を示す画像を表示部101により表示させる。
映像解析部104は、引き続き撮像部103の撮像映像を解析して、ユーザーがデータを選択したか否かを判定する。例えば、図4に示したように、ユーザーが手5を画像データ11aの表示位置に重ね合わせて、画像データ11aをフォルダーの画像の外に出す動作をした場合(S24でYES)、データ特定部109は、映像解析部104による当該手5の動きの解析結果に基づいて、ユーザーによる当該手5の動きに合わせて画像データ11aのアイコンを移動させる表示を表示部101に行わせるとともに(S25)、画像データ11aを、データ処理装置2で処理すべきデータとして特定する(S26)。
図8に戻る。S2のあと、ユーザーが視界内のデータ処理装置2を注視すると、装置特定部108は、視線検出部102の検出結果に基づいて、ユーザーが注視するデータ処理装置2を、ユーザーが選択したデータの処理を行わせるべき装置として特定する(S3)。ここで、当該装置特定の処理を説明する。図11は、装置特定の詳細なフローチャートである。
視線検出部102は、ユーザーの視線6及び焦点距離を検出する(S31)。装置特定部108は、視線検出部102の検出結果に基づいて、ユーザーが映像解析部104によって識別されたデータ処理装置2を注視しているか否かを判定する。ユーザーがデータ処理装置2を注視していると判断した場合(S32でYES)、装置特定部108は、通信部105を介して、そのデータ処理装置2と通信して、当該データ処理装置2から、当該データ処理装置2で実行可能なデータ処理及びそれに対応するジェスチャーを示すジェスチャー情報22を取得する(S33)。そして、装置特定部108は、データ処理装置2の動作状態を示すアイコン21の表示を表示部101に変更させ(S34)、ジェスチャー情報22をユーザーの視界内のデータ処理装置2の近傍に表示させる(S35)。例えば、図5に例を示すように、装置特定部108は、アイコン21の表示内容を、図4に示したそれまでの「動作可能」から、「データ受信OK」(図5)に変化させ、また、ジェスチャー情報22として、BOX保存及びプリント(一部)の二つのデータ処理の情報を表示部101により表示させる。
なお、ユーザーが頭を動かすなどして視界内のデータ処理装置2の位置が変わると、装置特定部108は、ジェスチャー情報22を、視界内のデータ処理装置2の移動に追従させて、データ処理装置2の近傍に表示部101により表示させる。
図8に戻る。ユーザーが手5を動かしてジェスチャーすると、撮像部103によって撮像された当該ジェスチャーの映像に基づいて映像解析部104が当該ジェスチャーを解析し、処理特定部110は、この解析結果に基づいて、当該シェスチャーに対応するデータ処理を特定する。処理特定部110は、当該データ処理を、S2でユーザーが選択したデータについて、ユーザーが注視したデータ処理装置2に行わせる処理として特定する(S4)。
図12は、処理特定の詳細なフローチャートである。映像解析部104が撮像部103の撮像映像を解析して(S41)、当該映像に写ったユーザーの手5のジェスチャーを識別する(S42)。処理特定部110は、映像解析部104によって識別されたジェスチャーと装置特定部108によって取得されたジェスチャー情報22とが一致するか否かを判定し、一致する場合には(S43でYES)、当該ジェスチャーに対応する処理を、データ処理装置2で行わせるべき処理として特定する(S44)。例えば、図6に示したように、ユーザーの手5のジェスチャーがプリントのジェスチャーと同じであれば、処理特定部110は、データ処理装置2で実行すべき処理としてプリントを特定する。
図8に戻る。データ処理要求部111は、通信部105を介して、装置特定部108によって特定されたデータ処理装置2に対して、データ特定部109によって特定されたデータについて処理特定部110によって特定されたデータ処理を行うように要求する(S5)。例えば、図6に示すように、ユーザーがプリントのジェスチャーをすると、図7に示すように、データ処理装置2に対して、データ処理要求部111により、画像データ11aをプリントする要求が送られる。データ処理装置2は、当該要求を受けると、当該要求に従って、上記特定された画像データ11aをプリントする処理を実行する。
また、例えば、ユーザーがデータ処理装置2を注視するか、又は、ユーザーがアイコン21に触れることで、操作パネル表示制御部112が、ユーザーの視界に操作パネルGUIを仮想現実として表示させるようにしてもよい。ユーザーがデータ処理装置2を注視するか、又は、ユーザーがアイコン21に触れたとき、装置状態表示制御部107は、通信部105を介して、映像解析部104によって識別されたデータ処理装置2から、上記装置状態として、データ処理装置2において実行可能な動作及びその操作指示内容を示す情報を取得し、装置状態表示制御部107が、データ処理装置2で実行可能な当該各動作についての操作指示を受け付けるための操作パネルGUIを表示部101により表示させる。上記と同様に、処理特定部110は、映像解析部104によって識別された上記操作パネルGUIに対するユーザーの手のジェスチャーに応じて、識別された各ジェスチャーに対応するデータ処理を特定する。データ処理要求部111は、通信部105を介して、当該特定されたデータ処理の実行をデータ処理装置2に対して要求する。これにより、ユーザーは、当該操作パネルGUIを通じてデータ処理装置2を操作することが可能になる。
本実施形態によれば、ヘッドマウントディスプレイやメガネ型のウェアラブル機器、特に透過型ウェアラブル端末を使用して、従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能となり、これによりユーザーが直感的に操作によりデータ処理装置を操作でき、操作対象とする他の装置としてのデータ処理装置2に、所望のデータ処理を行わせることが可能になる。これにより、透過型ウェアラブル端末1を使用してユーザーの手のジェスチャーによって直感的にデータを扱うことができ、データ処理装置2におけるデータの操作性を向上させることで利便性を高める効果が得られる。また、ユーザーの視線により特定されたデータ処理装置2から、当該データ処理装置2が持つジェスチャー情報を取得して、特定されるデータ処理装置2毎にジェスチャーパターンの認識を行うため、多種多様なデータ処理装置2に対しても対応が可能となっており、汎用性を高める効果が期待される。
なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。例えば、データ処理装置2で処理すべきデータを同時に複数選択できるようにしてもよい。この場合、データ特定部109は、映像解析部104によって識別されたユーザーの第1の指及び第2の指の動きに応じて、ユーザーの手の第1の指(例えば、人差し指)の動きに基づいて第1のデータを特定するとともに、第2の指(例えば、中指)の動きに基づいて第2のデータを特定することで、処理対象のデータとして複数のデータを特定する。
なお、図1乃至図12を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。
1 透過型ウェアラブル端末
2 データ処理装置
3 データ保持装置
5 ユーザーの手
10 データ処理システム
11 データ選択GUI
21 アイコン
22 ジェスチャー情報
101 表示部
102 視線検出部
103 撮像部
104 映像解析部
105 通信部
107 装置状態表示制御部
108 装置特定部
109 データ特定部
110 処理特定部
111 データ処理要求部
112 操作パネル表示制御部

Claims (6)

  1. ユーザーの視界に映像を重ねて表示する透過型ウェアラブル端末であって、
    ユーザーによる視認が可能に映像を表示する表示部と、
    ユーザーの視線及び焦点距離を検出する視線検出部と、
    ユーザーの視界映像を撮像する撮像部と、
    前記撮像部の撮像映像を解析して、当該映像に写ったデータ処理装置、及びユーザーによる手の動きを識別する映像解析部と、
    前記データ処理装置と通信する通信部と、
    前記通信部を介して、前記映像解析部によって識別された前記データ処理装置から装置状態を取得し、当該装置状態を示すアイコンを、ユーザーの視界内における当該データ処理装置に近い位置に、前記表示部により表示させる装置状態表示制御部と、
    前記視線検出部の検出結果に基づいて、前記映像解析部によって識別されたデータ処理装置のうちユーザーが注視するデータ処理装置を特定する装置特定部と、
    ユーザーの視界内にデータ選択GUIを表示させ、前記映像解析部によって識別されたユーザーによる手の動きに基づいて、当該データ選択GUIにおいてユーザーが選択したデータを特定するデータ特定部と、
    前記映像解析部によって識別されたユーザーの手のジェスチャーに応じたデータ処理を特定する処理特定部と、
    前記通信部を介して、前記装置特定部によって特定されたデータ処理装置に対して、前記データ特定部によって特定されたデータについて前記処理特定部によって特定されたデータ処理を行うように要求するデータ処理要求部と、を備えた透過型ウェアラブル端末。
  2. 前記装置特定部は、ユーザーが注視するデータ処理装置を特定したとき、当該データ処理装置から、当該データ処理装置で実行可能なデータ処理及びそれに対応するジェスチャー情報を取得し、当該ジェスチャー情報を、ユーザーの視界内における当該データ処理装置の近い位置に、前記表示部により表示させる、請求項1に記載の透過型ウェアラブル端末。
  3. 前記データ特定部は、ユーザーの手の第1の指の動きに基づいて第1のデータを特定するとともに、第2の指の動きに基づいて第2のデータを特定することで、処理対象のデータとして前記ユーザーにより選択された複数のデータを特定する、請求項1又は請求項2に記載の透過型ウェアラブル端末。
  4. 前記映像解析部によって識別された前記データ処理装置をユーザーが注視したことを、前記視線検出部の検出結果に基づいて前記装置特定部が検知したとき、又は、前記映像解析部によって識別されたユーザーの手の動きに基づいて、ユーザーが視界内の前記データ処理装置の近くの位置に前記表示部により表示されたアイコンに触れたことを検知したときに、当該データ処理装置の操作パネルGUIをユーザーの視界内に表示させる操作パネル表示制御部を更に備えた、請求項1乃至請求項3のいずれかに記載の透過型ウェアラブル端末。
  5. 請求項1乃至請求項4のいずれかに記載の透過型ウェアラブル端末からデータ処理要求を受けて当該要求に係るデータ処理を行うデータ処理装置。
  6. 請求項1乃至請求項4のいずれかに記載の透過型ウェアラブル端末と、
    請求項5に記載のデータ処理装置と、を備えるデータ処理システム。
JP2015151252A 2015-07-30 2015-07-30 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム Active JP6319220B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015151252A JP6319220B2 (ja) 2015-07-30 2015-07-30 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151252A JP6319220B2 (ja) 2015-07-30 2015-07-30 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム

Publications (2)

Publication Number Publication Date
JP2017033195A true JP2017033195A (ja) 2017-02-09
JP6319220B2 JP6319220B2 (ja) 2018-05-09

Family

ID=57988875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151252A Active JP6319220B2 (ja) 2015-07-30 2015-07-30 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム

Country Status (1)

Country Link
JP (1) JP6319220B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177534A (ja) * 2019-04-19 2020-10-29 京セラドキュメントソリューションズ株式会社 透過型ウェアラブル端末
JP2021009619A (ja) * 2019-07-02 2021-01-28 富士ゼロックス株式会社 情報処理システム及びプログラム
JP2021064164A (ja) * 2019-10-15 2021-04-22 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2012090077A (ja) * 2010-10-20 2012-05-10 Konica Minolta Business Technologies Inc 携帯端末及び処理装置の操作方法
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2012090077A (ja) * 2010-10-20 2012-05-10 Konica Minolta Business Technologies Inc 携帯端末及び処理装置の操作方法
JP2014186361A (ja) * 2013-03-21 2014-10-02 Sony Corp 情報処理装置、操作制御方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177534A (ja) * 2019-04-19 2020-10-29 京セラドキュメントソリューションズ株式会社 透過型ウェアラブル端末
JP2021009619A (ja) * 2019-07-02 2021-01-28 富士ゼロックス株式会社 情報処理システム及びプログラム
JP2021064164A (ja) * 2019-10-15 2021-04-22 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法
JP7315430B2 (ja) 2019-10-15 2023-07-26 シャープ株式会社 画像形成装置、制御プログラムおよび制御方法

Also Published As

Publication number Publication date
JP6319220B2 (ja) 2018-05-09

Similar Documents

Publication Publication Date Title
KR102494698B1 (ko) 카메라의 초점을 변경하는 방법 및 장치
CN102880290B (zh) 一种显示控制方法、装置及终端
JP6263617B2 (ja) 表示制御方法及び装置、電子機器
EP3133592B1 (en) Display apparatus and controlling method thereof for the selection of clothes
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
EP3088995B1 (en) Display system and head mounted display
JPWO2014128787A1 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
US20190179406A1 (en) Display device and image display method
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
WO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20180316911A1 (en) Information processing apparatus
KR20180004112A (ko) 안경형 단말기 및 이의 제어방법
JP6319220B2 (ja) 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
JP6507252B2 (ja) 機器操作装置、機器操作方法、及び電子機器システム
WO2023230291A2 (en) Devices, methods, and graphical user interfaces for user authentication and device management
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
US20200319709A1 (en) Information processing system, operation method, and operation program
US9300908B2 (en) Information processing apparatus and information processing method
JP5989725B2 (ja) 電子機器及び情報表示プログラム
JP2014211795A (ja) 視線検出装置
JP2014212406A (ja) 画像処理装置および画像処理プログラム
KR20170090877A (ko) 인터랙티브 사용자 캘리브레이션 장치 및 방법
JP2022118501A (ja) 表示システム、表示装置とその制御方法及びプログラム
JP2015087399A (ja) プレゼンテーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6319220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150