JP6319220B2 - Transparent wearable terminal, data processing apparatus, and data processing system - Google Patents

Transparent wearable terminal, data processing apparatus, and data processing system Download PDF

Info

Publication number
JP6319220B2
JP6319220B2 JP2015151252A JP2015151252A JP6319220B2 JP 6319220 B2 JP6319220 B2 JP 6319220B2 JP 2015151252 A JP2015151252 A JP 2015151252A JP 2015151252 A JP2015151252 A JP 2015151252A JP 6319220 B2 JP6319220 B2 JP 6319220B2
Authority
JP
Japan
Prior art keywords
data processing
unit
user
data
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015151252A
Other languages
Japanese (ja)
Other versions
JP2017033195A (en
Inventor
国晃 大山
国晃 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2015151252A priority Critical patent/JP6319220B2/en
Publication of JP2017033195A publication Critical patent/JP2017033195A/en
Application granted granted Critical
Publication of JP6319220B2 publication Critical patent/JP6319220B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、透過型ウェアラブル端末、データ処理装置、及びデータ処理システムに関し、特に、透過型ウェアラブル端末を使用してデータ処理装置に所望のデータ処理を行わせる技術に関する。   The present invention relates to a transparent wearable terminal, a data processing device, and a data processing system, and more particularly to a technique for causing a data processing device to perform desired data processing using a transparent wearable terminal.

現在、ヘッドマウントディスプレイやメガネ型のウェアラブル機器は、操作対象となる他の装置の設定画面を仮想的に表示して、ユーザーがこの設定画面に対して手を動かして操作を行うと、ユーザーによる当該手の動きを検出して、当該手の動きの内容に対応する操作を受け付けて、当該他の装置を動作させることが可能とされている。また、ウェアラブル機器では、当該機器を装着したユーザーの眼球の中心位置を監視することで、ユーザーが注視している場所を特定することが可能となっている。例えば、下記特許文献1では、視点位置を算出する際に必要となる眼球中心位置の測定法を、眼球半径の個人差を考慮しつつ高速かつ安定に収束させる手段を提案している。このように人の視線や焦点距離を正確に観測・算出する技術が発展しているため、ヘッドマウントディスプレイやメガネ型のウェアラブル機器において、ユーザーの視線情報・焦点距離情報を利用した機能を実現することが可能である。   Currently, a head-mounted display or glasses-type wearable device virtually displays a setting screen of another device to be operated, and the user moves the hand to operate the setting screen. It is possible to detect the movement of the hand, accept an operation corresponding to the content of the movement of the hand, and operate the other device. Further, in the wearable device, it is possible to identify the place where the user is gazing by monitoring the center position of the eyeball of the user wearing the device. For example, Patent Document 1 below proposes a means for quickly and stably converging an eyeball center position measurement method necessary for calculating a viewpoint position while considering individual differences in eyeball radii. As technology for accurately observing and calculating human gaze and focal length has developed in this way, functions that use user gaze information and focal length information are realized in head-mounted displays and glasses-type wearable devices. It is possible.

例えば、下記特許文献2では、画像形成装置の操作パネルを仮想パネルとして、ヘッドマウントディスプレイやメガネ型のウェアラブル機器を用いてユーザーに対して仮想的に表示し、ユーザーの手を視認・観測して、当該仮想パネルに対するユーザーの手の動きに応じた操作を設定することが可能とされている。   For example, in Patent Document 2 below, the operation panel of the image forming apparatus is used as a virtual panel, which is virtually displayed to the user using a head-mounted display or glasses-type wearable device, and the user's hand is visually observed and observed. The operation corresponding to the movement of the user's hand on the virtual panel can be set.

また、下記特許文献3では、ヘッドマウントディスプレイにおいて、ユーザーによる視線で特定された物に対して、ユーザーによる手の動きに応じて特定されるデータの送信などの処理を行わせる。この際、ユーザーが画像形成装置等の機器を視界にとらえると、当該画像形成装置等がデータ送信先として特定される。   Also, in Patent Document 3 below, in a head mounted display, processing such as transmission of data specified according to the movement of the hand by the user is performed on an object specified by the user's line of sight. At this time, when a user views a device such as an image forming apparatus in the field of view, the image forming apparatus or the like is specified as a data transmission destination.

特開2008−136789号公報JP 2008-136789 A 特開2010−145860号公報JP 2010-145860 A 特開2014−93036号公報JP 2014-93036 A

しかしながら、上記特許文献2の発明は、表示した仮想パネルに対するユーザーの手の動きを検知するものに留まっており汎用性が低い。また、上記特許文献3の発明は、視線で検知したもので操作の組み合わせを決めて選択肢を表示し、その選択肢に対するユーザーの手の動きを検知している。しかし、選択肢に対するユーザーの手の動きに基づいてしか操作内容を特定することができない。   However, the invention of Patent Document 2 is limited to detecting the movement of the user's hand with respect to the displayed virtual panel and has low versatility. In the invention of Patent Document 3, a combination of operations is determined based on what is detected by a line of sight, options are displayed, and a user's hand movement with respect to the options is detected. However, the operation content can be specified only based on the movement of the user's hand with respect to the option.

本発明は、上記の問題を解決するためになされたものであり、ヘッドマウントディスプレイやメガネ型のウェアラブル機器、特に透過型ウェアラブル端末を使用して、従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能とし、これによりユーザーが直感的に操作によりデータ処理装置を操作でき、操作対象とする他の装置に所望のデータ処理を行わせることを可能にする目的とする。   The present invention has been made to solve the above problems, and is based on a variety of user hand movements using a head-mounted display or glasses-type wearable device, particularly a transmissive wearable terminal. The operation content can be specified and set so that the user can intuitively operate the data processing device and allow other devices to be operated to perform desired data processing. .

本発明の一局面に係る透過型ウェアラブル端末は、ユーザーの視界に映像を重ねて表示する透過型ウェアラブル端末であって、
ユーザーによる視認が可能に映像を表示する表示部と、
ユーザーの視線及び焦点距離を検出する視線検出部と、
ユーザーの視界映像を撮像する撮像部と、
前記撮像部の撮像映像を解析して、当該映像に写ったデータ処理装置、及びユーザーによる手の動きを識別する映像解析部と、
前記データ処理装置と通信する通信部と、
前記通信部を介して、前記映像解析部によって識別された前記データ処理装置から装置状態を取得し、当該装置状態を示すアイコンを、ユーザーの視界内における当該データ処理装置に近い位置に、前記表示部により表示させる装置状態表示制御部と、
前記視線検出部の検出結果に基づいて、前記映像解析部によって識別されたデータ処理装置のうちユーザーが注視するデータ処理装置を特定する装置特定部と、
ユーザーの視界内にデータ選択GUIを表示させ、前記映像解析部によって識別されたユーザーによる手の動きに基づいて、当該データ選択GUIにおいてユーザーが選択したデータを特定するデータ特定部と、
前記映像解析部によって識別されたユーザーの手のジェスチャーに応じたデータ処理を特定する処理特定部と、
前記通信部を介して、前記装置特定部によって特定されたデータ処理装置に対して、前記データ特定部によって特定されたデータについて前記処理特定部によって特定されたデータ処理を行うように要求するデータ処理要求部と、を備えたものである。
A transmissive wearable terminal according to one aspect of the present invention is a transmissive wearable terminal that displays an image superimposed on a user's field of view,
A display unit that displays an image that can be viewed by the user;
A line-of-sight detector that detects the user's line of sight and focal length;
An imaging unit for capturing a user's field of view image;
Analyzing the captured video of the imaging unit, a data processing device reflected in the video, and a video analysis unit for identifying hand movements by a user;
A communication unit communicating with the data processing device;
The device state is acquired from the data processing device identified by the video analysis unit via the communication unit, and an icon indicating the device state is displayed at a position close to the data processing device in the user's field of view. A device status display control unit to be displayed by the unit,
Based on the detection result of the line-of-sight detection unit, a device specifying unit that specifies a data processing device that the user gazes among the data processing devices identified by the video analysis unit;
A data specifying unit for displaying a data selection GUI in the user's field of view, and specifying data selected by the user in the data selection GUI based on a hand movement by the user identified by the video analysis unit;
A processing specifying unit that specifies data processing according to a gesture of the user's hand identified by the video analysis unit;
Data processing that requests the data processing device specified by the device specifying unit to perform the data processing specified by the processing specifying unit on the data specified by the data specifying unit via the communication unit And a request unit.

本発明によれば、従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能とし、これによりユーザーが直感的に操作によりデータ処理装置を操作でき、操作対象とする他の装置に所望のデータ処理を行わせることが可能になる。これにより、当該操作対象となるデータ処理装置の操作性も向上させることができる。   According to the present invention, it is possible to specify and set the operation content based on a variety of user hand movements as compared with the prior art, so that the user can intuitively operate the data processing apparatus and can be set as an operation target. It is possible to cause the apparatus to perform desired data processing. Thereby, the operativity of the data processing apparatus used as the said operation object can also be improved.

本発明の一実施形態に係るデータ処理システムの概要図である。1 is a schematic diagram of a data processing system according to an embodiment of the present invention. 透過型ウェアラブル端末の主要内部構成を示す機能ブロック図である。It is a functional block diagram which shows the main internal structures of a transparent wearable terminal. ユーザーの視界を模式的に表した図である。It is a figure showing a user's field of vision typically. ユーザーの視界を模式的に表した図である。It is a figure showing a user's field of vision typically. ユーザーの視界を模式的に表した図である。It is a figure showing a user's field of vision typically. ユーザーの視界を模式的に表した図である。It is a figure showing a user's field of vision typically. ユーザーの視界を模式的に表した図である。It is a figure showing a user's field of vision typically. データ処理システムにおけるデータ処理手順を示すフローチャートである。It is a flowchart which shows the data processing procedure in a data processing system. 初期映像表示の詳細なフローチャートである。It is a detailed flowchart of an initial image display. データ特定の詳細なフローチャートである。It is a detailed flowchart of data specification. 装置特定の詳細なフローチャートである。It is a detailed flowchart for device identification. 処理特定の詳細なフローチャートである。It is a detailed flowchart of process specification.

以下、本発明の一実施形態に係るデータ処理システムについて図面を参照して説明する。図1は、本発明の一実施形態に係るデータ処理システム10の概要図である。   Hereinafter, a data processing system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram of a data processing system 10 according to an embodiment of the present invention.

データ処理システム10は、透過型ウェアラブル端末1と、データ処理装置2とを備える。   The data processing system 10 includes a transparent wearable terminal 1 and a data processing device 2.

透過型ウェアラブル端末1は、ユーザーの視界に映像を重ねて表示することができる端末であり、例えば、ヘッドマウントディスプレイやメガネ型ウェアラブル端末などである。ユーザーは透過型ウェアラブル端末1を頭部に装着して、視界に重ねて表示される映像を手で仮想的に操作する。このとき、透過型ウェアラブル端末1は、ユーザーによる当該操作に基づく手の動きを解析して、当該手の動きの内容に応じた操作内容で、データ処理装置2を操作して所望のデータ処理を行わせる。   The transmissive wearable terminal 1 is a terminal that can superimpose and display an image in the user's field of view, and is, for example, a head-mounted display or a glasses-type wearable terminal. The user wears the transmissive wearable terminal 1 on the head and virtually manipulates an image displayed on the field of view by hand. At this time, the transparent wearable terminal 1 analyzes the movement of the hand based on the operation by the user, and operates the data processing device 2 with the operation content corresponding to the content of the hand movement to perform desired data processing. Let it be done.

データ処理装置2は、透過型ウェアラブル端末1により操作対象とされる装置である。データ処理装置2は、例えば、文書データや画像データを用紙に印字する画像形成装置である。   The data processing device 2 is a device to be operated by the transparent wearable terminal 1. The data processing apparatus 2 is an image forming apparatus that prints document data and image data on a sheet, for example.

透過型ウェアラブル端末1と、データ処理装置2とは、LAN又はインターネットなどのネットワーク4に接続されて互いに通信可能とされている。   The transparent wearable terminal 1 and the data processing device 2 are connected to a network 4 such as a LAN or the Internet and can communicate with each other.

なお、透過型ウェアラブル端末1とデータ処理装置2とは、ネットワーク4を介さずに近距離無線通信により直接の通信が可能とされている。従って、データ処理装置2は、透過型ウェアラブル端末1が保持するデータを透過型ウェアラブル端末1から直接に受信して、その受信データの処理を行うことが可能である。   The transparent wearable terminal 1 and the data processing device 2 can directly communicate with each other by short-range wireless communication without using the network 4. Therefore, the data processing device 2 can directly receive data held by the transparent wearable terminal 1 from the transparent wearable terminal 1 and process the received data.

図2は、透過型ウェアラブル端末1の主要内部構成を示す機能ブロック図である。透過型ウェアラブル端末1は、制御部100、表示部101、視線検出部102、撮像部103、映像解析部104、通信部105、メモリー106、装置状態表示制御部107、装置特定部108、データ特定部109、処理特定部110、データ処理要求部111、及び操作パネル表示制御部112を備える。これら構成要素は、内部バス113で互いに接続されている。   FIG. 2 is a functional block diagram showing the main internal configuration of the transparent wearable terminal 1. The transmissive wearable terminal 1 includes a control unit 100, a display unit 101, a line-of-sight detection unit 102, an imaging unit 103, a video analysis unit 104, a communication unit 105, a memory 106, a device state display control unit 107, a device specification unit 108, and data specification. A unit 109, a process specifying unit 110, a data processing request unit 111, and an operation panel display control unit 112. These components are connected to each other by an internal bus 113.

制御部100は、透過型ウェアラブル端末1の全体的な動作制御を司る。   The control unit 100 governs overall operation control of the transparent wearable terminal 1.

表示部101は、ユーザーによる視認が可能に映像を表示する。本実施形態では、表示部101を、ユーザーの網膜に映像を投影するデバイスからなるものとする。表示部101が、ユーザーの網膜に映像を投影することにより、透過型ウェアラブル端末1で生成された映像を仮想現実としてユーザーの目の前に表示する。   The display unit 101 displays an image that can be viewed by the user. In this embodiment, the display unit 101 is assumed to be a device that projects an image on the retina of the user. The display unit 101 projects an image on the retina of the user, thereby displaying the image generated by the transmissive wearable terminal 1 in front of the user as virtual reality.

視線検出部102は、ユーザーの視線及び焦点距離を検出するデバイスである。具体的には、視線検出部102は、ユーザーの瞳孔の向きを検出することで、人が顔を向けている方向の視野においてその人が注視している位置(視線位置)及び焦点距離を検出する。人間の視野は、瞳孔が真正面を向いた状態で、片眼の水平方向で、耳側に約90〜100度、鼻側に約60度、上側に約60度、下側に約70度と言われている。人間は、目だけを動かして当該視野内のものを注視することができる。   The line-of-sight detection unit 102 is a device that detects a user's line of sight and focal length. Specifically, the line-of-sight detection unit 102 detects the position (line-of-sight position) and focal length at which the person is gazing in the field of view in the direction in which the person is facing by detecting the orientation of the user's pupil. To do. The human visual field is about 90-100 degrees on the ear side, about 60 degrees on the nose side, about 60 degrees on the upper side, and about 70 degrees on the lower side in the horizontal direction of one eye with the pupil facing directly in front. It is said. A human can gaze at an object in the field of view by moving only his eyes.

視線位置の検出には公知の技術を利用することができる。例えば、透過型ウェアラブル端末1が備える図略の可視光カメラで人の片眼を撮影し、目頭を基準点として瞳孔の動きを検出することで視線位置を検出することができる。あるいは、透過型ウェアラブル端末1が備える図略の近赤外線LED光源から片眼の表面に近赤外光を照射し、透過型ウェアラブル端末1が備える図略の近赤外線カメラで当該近赤外光の反射光(プルキニエ像)と瞳孔を撮影し、プルキニエ像と瞳孔中心との相対位置関係から視線位置を検出する。   A known technique can be used to detect the line-of-sight position. For example, the line-of-sight position can be detected by photographing one eye of a person with a visible light camera (not shown) included in the transmissive wearable terminal 1 and detecting the movement of the pupil with the eye head as a reference point. Alternatively, near-infrared light is irradiated on the surface of one eye from a near-infrared LED light source (not shown) provided in the transmissive wearable terminal 1, and the near-infrared camera (not shown) provided in the transmissive wearable terminal 1 The reflected light (Purkinje image) and the pupil are photographed, and the line-of-sight position is detected from the relative positional relationship between the Purkinje image and the pupil center.

撮像部103は、ユーザーの視界映像を撮像するデバイスであり、例えば、小型CCDカメラである。   The imaging unit 103 is a device that captures a user's field of view image, and is, for example, a small CCD camera.

映像解析部104は、撮像部103による撮像映像を例えばパターンマッチング等により解析して、当該映像に写ったデータ処理装置2、ユーザーの手の動き、及びジェスチャーを識別するデバイスであり、例えば、DSP(Digital Signal Processor)である。   The video analysis unit 104 is a device that analyzes the video captured by the imaging unit 103 by, for example, pattern matching, etc., and identifies the data processing device 2, the user's hand movements, and gestures captured in the video. (Digital Signal Processor).

通信部105は、データ処理装置2などの他の機器と無線通信するデバイスである。無線通信方式として、無線LAN、Bluetooth(登録商標)、ZigBee(登録商標)等が利用可能である。   The communication unit 105 is a device that wirelessly communicates with other devices such as the data processing apparatus 2. As a wireless communication system, wireless LAN, Bluetooth (registered trademark), ZigBee (registered trademark), or the like can be used.

メモリー106は、ROMやフラッシュメモリーなどの不揮発性メモリーと、RAMなどの揮発性メモリーとを含むデバイスである。メモリー106は、透過型ウェアラブル端末1の動作プログラムや、データ処理装置2での処理対象となるデータなどを保持する他、撮像部103の撮像映像などを一時的に記憶する。   The memory 106 is a device including a nonvolatile memory such as a ROM or a flash memory and a volatile memory such as a RAM. The memory 106 stores an operation program of the transparent wearable terminal 1, data to be processed by the data processing device 2, and temporarily stores captured images of the imaging unit 103.

装置状態表示制御部107は、表示部101により映像を表示させて、ユーザーの視界内にあるデータ処理装置2の装置状態を仮想現実として表示させるモジュールである。具体的には、装置状態表示制御部107は、通信部105を介して、映像解析部104によって識別されたデータ処理装置2から装置状態を示す装置状態情報(以下、単に装置状態という)を取得する。装置状態表示制御部107は、当該装置状態を示すアイコンを、ユーザーの視界内のデータ処理装置2の近傍に表示させる。   The device state display control unit 107 is a module that displays an image on the display unit 101 and displays the device state of the data processing device 2 in the user's field of view as a virtual reality. Specifically, the device state display control unit 107 acquires device state information (hereinafter, simply referred to as device state) indicating the device state from the data processing device 2 identified by the video analysis unit 104 via the communication unit 105. To do. The device state display control unit 107 displays an icon indicating the device state in the vicinity of the data processing device 2 in the user's field of view.

装置特定部108は、ユーザーが注視するデータ処理装置2を、ユーザーの視線に応じて特定するモジュールである。具体的には、装置特定部108は、視線検出部102の検出結果に基づいて、映像解析部104によって識別されたデータ処理装置2のうちユーザーが注視するデータ処理装置2を特定する。これにより、ユーザーの視界に複数のデータ処理装置2が存在する場合であっても、ユーザーが、その中からいずれか1つを注視すると、装置特定部108により1つのデータ処理装置2が特定されることになる。これにより、ユーザーは複数のデータ処理装置の中から1台のデータ処理装置を視線により選択することができる。   The device specifying unit 108 is a module that specifies the data processing device 2 that the user gazes according to the user's line of sight. Specifically, the device specifying unit 108 specifies the data processing device 2 to be watched by the user among the data processing devices 2 identified by the video analysis unit 104 based on the detection result of the line-of-sight detection unit 102. Thus, even when there are a plurality of data processing devices 2 in the user's field of view, if the user gazes at any one of them, the device specifying unit 108 specifies one data processing device 2. Will be. Thus, the user can select one data processing device from the plurality of data processing devices by line of sight.

データ特定部109は、データ処理装置2での処理対象のデータを特定するモジュールである。具体的には、データ特定部109は、表示部101によりユーザーの視界にデータ選択GUIを重ねて表示させ、映像解析部104によって識別されたユーザーの手の動きに基づいて、当該データ選択GUIにおいてユーザーが選択したデータを特定する。   The data specifying unit 109 is a module that specifies data to be processed in the data processing device 2. Specifically, the data specifying unit 109 causes the display unit 101 to display the data selection GUI so as to overlap the user's field of view, and based on the movement of the user's hand identified by the video analysis unit 104, in the data selection GUI Identify the data selected by the user.

処理特定部110は、データ処理装置2に行わせるべきデータ処理を特定するモジュールである。具体的には、処理特定部110は、映像解析部104によって識別されたユーザーの手のジェスチャーに応じたデータ処理を特定する。   The process specifying unit 110 is a module that specifies data processing to be performed by the data processing apparatus 2. Specifically, the process specifying unit 110 specifies data processing corresponding to the user's hand gesture identified by the video analysis unit 104.

データ処理要求部111は、データ処理装置2にデータ処理を要求するモジュールである。具体的には、データ処理要求部111は、通信部105を介して、装置特定部108によって特定されたデータ処理装置2に対して、データ特定部109によって特定されたデータについて、処理特定部110によって特定されたデータ処理を行うように要求する。   The data processing request unit 111 is a module that requests the data processing device 2 to perform data processing. Specifically, the data processing requesting unit 111 sends the processing specifying unit 110 for the data specified by the data specifying unit 109 to the data processing device 2 specified by the device specifying unit 108 via the communication unit 105. Request to perform the data processing specified by.

操作パネル表示制御部112は、表示部101に映像を投影させて、ユーザーの視界内にあるデータ処理装置2についての操作パネルを、仮想現実として表示させるモジュールである。具体的には、操作パネル表示制御部112は、映像解析部104によって識別されたデータ処理装置2をユーザーが注視したことを、視線検出部102の検出結果に基づいて装置特定部108が検知したとき、又は、映像解析部104によって識別されたユーザーの手の動きに基づいて、ユーザーが視界内のデータ処理装置2の近傍に表示部101により表示されたアイコンに触れたことを検知したときに、当該データ処理装置2の操作パネルGUIをユーザーの視界に重ねて表示部101により表示させる。   The operation panel display control unit 112 is a module that projects an image on the display unit 101 and displays the operation panel for the data processing device 2 in the user's field of view as virtual reality. Specifically, the operation panel display control unit 112 detects that the user gazes at the data processing device 2 identified by the video analysis unit 104 based on the detection result of the line-of-sight detection unit 102. Or when it is detected that the user touches the icon displayed by the display unit 101 in the vicinity of the data processing device 2 in the field of view based on the movement of the user's hand identified by the video analysis unit 104 Then, the operation panel GUI of the data processing device 2 is displayed on the display unit 101 so as to overlap the user's field of view.

なお、装置状態表示制御部107、装置特定部108、データ特定部109、処理特定部110、データ処理要求部111、及び操作パネル表示制御部112は、専用のハードウェア回路で構成される他、コンピュータープログラムとしてメモリー106に記憶しておき、図略のCPUが当該コンピュータープログラムに従って動作することで、装置状態表示制御部107、装置特定部108、データ特定部109、処理特定部110、データ処理要求部111、及び操作パネル表示制御部112として機能することにより構成することも可能である。   The device status display control unit 107, the device specification unit 108, the data specification unit 109, the process specification unit 110, the data processing request unit 111, and the operation panel display control unit 112 are configured by dedicated hardware circuits. It is stored in the memory 106 as a computer program, and an unillustrated CPU operates according to the computer program, so that a device status display control unit 107, a device specification unit 108, a data specification unit 109, a processing specification unit 110, a data processing request It can also be configured by functioning as the unit 111 and the operation panel display control unit 112.

次に、データ処理システム10におけるデータ処理手順について説明する。図3乃至図7は、データ処理システム10の使用時のユーザーの視界を模式的に表した図である。図8は、データ処理システム10におけるデータ処理手順を示すフローチャートである。   Next, a data processing procedure in the data processing system 10 will be described. 3 to 7 are diagrams schematically showing a user's field of view when the data processing system 10 is used. FIG. 8 is a flowchart showing a data processing procedure in the data processing system 10.

まず、表示部101により初期映像が表示される(S1)。この初期映像表示は、図3に示すように、透過型ウェアラブル端末1を装着したユーザーの視界にデータ選択GUI11を表示させ、目の前のデータ処理装置2の近傍に当該装置の装置状態を示すアイコン21を表示するものである(図3)。ここで、まず、当該初期映像表示を説明する。図9は、初期映像表示の詳細なフローチャートである。   First, an initial image is displayed on the display unit 101 (S1). In this initial video display, as shown in FIG. 3, the data selection GUI 11 is displayed in the field of view of the user wearing the transmissive wearable terminal 1, and the device status of the device is displayed in the vicinity of the data processing device 2 in front of the eyes. An icon 21 is displayed (FIG. 3). Here, first, the initial video display will be described. FIG. 9 is a detailed flowchart of initial video display.

透過型ウェアラブル端末1の主電源スイッチがオンになると、映像解析部104は、撮像部103の撮像映像を解析して、当該映像に写ったデータ処理装置2を識別する(S11)。映像解析部104は、例えば、撮像部103の撮像映像に写ったデータ処理装置2の画像と、メモリー106に予め登録されているデータ処理装置2の画像とのパターンマッチングにより、撮像部103の撮像映像に写ったデータ処理装置2を識別する。   When the main power switch of the transmissive wearable terminal 1 is turned on, the video analysis unit 104 analyzes the captured video of the imaging unit 103 and identifies the data processing device 2 captured in the video (S11). For example, the video analysis unit 104 captures the image of the imaging unit 103 by pattern matching between the image of the data processing device 2 captured in the captured video of the imaging unit 103 and the image of the data processing device 2 registered in the memory 106 in advance. The data processing device 2 shown in the video is identified.

映像解析部104によりユーザーの視界内にデータ処理装置2があると判断された場合(S12でYES)、装置状態表示制御部107は、通信部105を介して、映像解析部104によって識別されたデータ処理装置2から装置状態、及びデータ処理装置2が内蔵する記憶装置に記憶している内容を示す情報を取得し(S13)、当該装置状態を示すアイコン21をユーザーの視界内のデータ処理装置2の近傍に表示部101により表示させる(S14)。また、データ特定部109は、ユーザーの視界内の予め定められた位置に、上記データ処理装置2が内蔵する記憶装置に記憶している内容を示す情報に基づいて、まずは当該記憶装置を示す画像としてのデータ選択GUI11を表示部101により表示させる(S15)。これらデータ選択GUI11及びアイコン21は、表示部101がユーザーの網膜に映像を投影することで見えるものである。   When the video analysis unit 104 determines that the data processing device 2 is in the user's field of view (YES in S12), the device state display control unit 107 is identified by the video analysis unit 104 via the communication unit 105. Information indicating the device status and the contents stored in the storage device built in the data processing device 2 is acquired from the data processing device 2 (S13), and the icon 21 indicating the device status is displayed in the data processing device within the user's field of view. 2 is displayed by the display unit 101 in the vicinity of 2 (S14). The data specifying unit 109 first displays an image indicating the storage device at a predetermined position in the user's field of view based on information indicating the content stored in the storage device built in the data processing device 2. The data selection GUI 11 is displayed on the display unit 101 (S15). The data selection GUI 11 and the icon 21 are visible when the display unit 101 projects an image on the user's retina.

なお、ユーザーが頭を動かすなどして視界内のデータ処理装置2の位置が変わっても、データ特定部109は、表示部101により、データ選択GUI11を視界内で移動させずに上記予め定められた位置に表示させるが、装置状態表示制御部107は、表示部101により、アイコン21を、視界内のデータ処理装置2の移動に追従してデータ処理装置2の近傍に表示させる。これにより、表示部101による初期映像の表示が完了する。   Even if the position of the data processing device 2 in the field of view changes, for example, when the user moves his head, the data specifying unit 109 does not move the data selection GUI 11 in the field of view by the display unit 101. The device state display control unit 107 causes the display unit 101 to display the icon 21 in the vicinity of the data processing device 2 following the movement of the data processing device 2 in the field of view. Thereby, the display of the initial video by the display unit 101 is completed.

図8に戻る。ユーザーが自身の手を、視界内のデータ選択GUI11の表示位置に重ね合わせる等の操作を行うと、データ特定部109は、データ処理装置2で処理を行わせるべきデータを特定する(S2)。ここで、当該データ特定の処理を説明する。図10は、データ特定の詳細なフローチャートである。   Returning to FIG. When the user performs an operation such as superimposing his / her hand on the display position of the data selection GUI 11 in the field of view, the data specifying unit 109 specifies data to be processed by the data processing device 2 (S2). Here, the data specifying process will be described. FIG. 10 is a detailed flowchart of data specification.

データ特定部109は、ユーザーの視界内の予め定められた位置にデータ選択GUI11を表示部101により表示させている(S21)。このデータ選択GUI11は、上記初期映像表示時に表示されるものである。例えば、データ選択GUI11として、上記データ処理装置2が内蔵する記憶装置を示すフォルダーの画像が表示される(図3)。このとき、ユーザーが自身の手をデータ選択GUI11に重ね合わる等の操作を行うと、映像解析部104が撮像部103の撮像映像を解析して、当該映像に写ったユーザーによる当該手5の動きを識別すると(S22でYES)、データ特定部109は、表示部101により、データ選択GUI11の表示を、フォルダーが展開したように見せかける表示に変化させ、上記データ処理装置2が内蔵する記憶装置に記憶している内容を示す情報に基づいて、フォルダー内の各種データを示すアイコンを表示させる(S23)。例えば、図4に例を示すように、データ特定部109は、フォルダー内に画像データ11a及びテキストデータ11bが格納されている状態を示す画像を表示部101により表示させる。   The data specifying unit 109 causes the display unit 101 to display the data selection GUI 11 at a predetermined position in the user's field of view (S21). The data selection GUI 11 is displayed when the initial video is displayed. For example, as the data selection GUI 11, an image of a folder indicating a storage device built in the data processing device 2 is displayed (FIG. 3). At this time, when the user performs an operation such as superimposing his / her hand on the data selection GUI 11, the video analysis unit 104 analyzes the captured video of the imaging unit 103, and the movement of the hand 5 by the user reflected in the video Is identified (YES in S22), the data specifying unit 109 causes the display unit 101 to change the display of the data selection GUI 11 to a display that appears as if the folder has been expanded, and stores the data in the storage device built in the data processing device 2. Based on the information indicating the stored contents, icons indicating various data in the folder are displayed (S23). For example, as illustrated in FIG. 4, the data specifying unit 109 causes the display unit 101 to display an image indicating a state in which the image data 11 a and the text data 11 b are stored in the folder.

映像解析部104は、引き続き撮像部103の撮像映像を解析して、ユーザーがデータを選択したか否かを判定する。例えば、図4に示したように、ユーザーが手5を画像データ11aの表示位置に重ね合わせて、画像データ11aをフォルダーの画像の外に出す動作をした場合(S24でYES)、データ特定部109は、映像解析部104による当該手5の動きの解析結果に基づいて、ユーザーによる当該手5の動きに合わせて画像データ11aのアイコンを移動させる表示を表示部101に行わせるとともに(S25)、画像データ11aを、データ処理装置2で処理すべきデータとして特定する(S26)。   The video analysis unit 104 continues to analyze the captured video of the imaging unit 103 and determines whether the user has selected data. For example, as shown in FIG. 4, when the user performs an operation of putting the hand 5 on the display position of the image data 11 a and putting the image data 11 a outside the folder image (YES in S 24), the data specifying unit 109 displays on the display unit 101 a display for moving the icon of the image data 11a in accordance with the movement of the hand 5 by the user based on the analysis result of the movement of the hand 5 by the video analysis unit 104 (S25). The image data 11a is specified as data to be processed by the data processing device 2 (S26).

図8に戻る。S2のあと、ユーザーが視界内のデータ処理装置2を注視すると、装置特定部108は、視線検出部102の検出結果に基づいて、ユーザーが注視するデータ処理装置2を、ユーザーが選択したデータの処理を行わせるべき装置として特定する(S3)。ここで、当該装置特定の処理を説明する。図11は、装置特定の詳細なフローチャートである。   Returning to FIG. After S2, when the user gazes at the data processing device 2 in the field of view, the device specifying unit 108 selects the data processing device 2 that the user gazes on based on the detection result of the gaze detection unit 102. It is specified as a device to be processed (S3). Here, the apparatus specific process will be described. FIG. 11 is a detailed flowchart of device identification.

視線検出部102は、ユーザーの視線6及び焦点距離を検出する(S31)。装置特定部108は、視線検出部102の検出結果に基づいて、ユーザーが映像解析部104によって識別されたデータ処理装置2を注視しているか否かを判定する。ユーザーがデータ処理装置2を注視していると判断した場合(S32でYES)、装置特定部108は、通信部105を介して、そのデータ処理装置2と通信して、当該データ処理装置2から、当該データ処理装置2で実行可能なデータ処理及びそれに対応するジェスチャーを示すジェスチャー情報22を取得する(S33)。そして、装置特定部108は、データ処理装置2の動作状態を示すアイコン21の表示を表示部101に変更させ(S34)、ジェスチャー情報22をユーザーの視界内のデータ処理装置2の近傍に表示させる(S35)。例えば、図5に例を示すように、装置特定部108は、アイコン21の表示内容を、図4に示したそれまでの「動作可能」から、「データ受信OK」(図5)に変化させ、また、ジェスチャー情報22として、BOX保存及びプリント(一部)の二つのデータ処理の情報を表示部101により表示させる。   The line-of-sight detection unit 102 detects the user's line of sight 6 and the focal length (S31). The device specifying unit 108 determines whether the user is gazing at the data processing device 2 identified by the video analysis unit 104 based on the detection result of the line-of-sight detection unit 102. When it is determined that the user is gazing at the data processing device 2 (YES in S32), the device specifying unit 108 communicates with the data processing device 2 via the communication unit 105, and from the data processing device 2 The gesture information 22 indicating the data processing that can be executed by the data processing device 2 and the corresponding gesture is acquired (S33). Then, the device specifying unit 108 changes the display of the icon 21 indicating the operation state of the data processing device 2 to the display unit 101 (S34), and displays the gesture information 22 in the vicinity of the data processing device 2 in the user's field of view. (S35). For example, as illustrated in FIG. 5, the device specifying unit 108 changes the display content of the icon 21 from “ready” shown in FIG. 4 to “data reception OK” (FIG. 5). Also, as the gesture information 22, information on two data processings, BOX storage and printing (part), is displayed on the display unit 101.

なお、ユーザーが頭を動かすなどして視界内のデータ処理装置2の位置が変わると、装置特定部108は、ジェスチャー情報22を、視界内のデータ処理装置2の移動に追従させて、データ処理装置2の近傍に表示部101により表示させる。   When the position of the data processing device 2 in the field of view changes, for example, when the user moves his / her head, the device specifying unit 108 causes the gesture information 22 to follow the movement of the data processing device 2 in the field of view to perform data processing. The image is displayed on the display unit 101 in the vicinity of the device 2.

図8に戻る。ユーザーが手5を動かしてジェスチャーすると、撮像部103によって撮像された当該ジェスチャーの映像に基づいて映像解析部104が当該ジェスチャーを解析し、処理特定部110は、この解析結果に基づいて、当該シェスチャーに対応するデータ処理を特定する。処理特定部110は、当該データ処理を、S2でユーザーが選択したデータについて、ユーザーが注視したデータ処理装置2に行わせる処理として特定する(S4)。   Returning to FIG. When the user moves the hand 5 to perform a gesture, the video analysis unit 104 analyzes the gesture based on the video of the gesture captured by the imaging unit 103, and the process specifying unit 110 determines the gesture based on the analysis result. The data processing corresponding to is specified. The processing specifying unit 110 specifies the data processing as processing to be performed by the data processing device 2 watched by the user for the data selected by the user in S2 (S4).

図12は、処理特定の詳細なフローチャートである。映像解析部104が撮像部103の撮像映像を解析して(S41)、当該映像に写ったユーザーの手5のジェスチャーを識別する(S42)。処理特定部110は、映像解析部104によって識別されたジェスチャーと装置特定部108によって取得されたジェスチャー情報22とが一致するか否かを判定し、一致する場合には(S43でYES)、当該ジェスチャーに対応する処理を、データ処理装置2で行わせるべき処理として特定する(S44)。例えば、図6に示したように、ユーザーの手5のジェスチャーがプリントのジェスチャーと同じであれば、処理特定部110は、データ処理装置2で実行すべき処理としてプリントを特定する。   FIG. 12 is a detailed flowchart of the process specification. The video analysis unit 104 analyzes the captured video of the imaging unit 103 (S41), and identifies the gesture of the user's hand 5 captured in the video (S42). The process specifying unit 110 determines whether or not the gesture identified by the video analysis unit 104 matches the gesture information 22 acquired by the device specifying unit 108. If they match (YES in S43), The process corresponding to the gesture is specified as the process to be performed by the data processing device 2 (S44). For example, as illustrated in FIG. 6, if the gesture of the user's hand 5 is the same as the print gesture, the process specifying unit 110 specifies a print as a process to be executed by the data processing device 2.

図8に戻る。データ処理要求部111は、通信部105を介して、装置特定部108によって特定されたデータ処理装置2に対して、データ特定部109によって特定されたデータについて処理特定部110によって特定されたデータ処理を行うように要求する(S5)。例えば、図6に示すように、ユーザーがプリントのジェスチャーをすると、図7に示すように、データ処理装置2に対して、データ処理要求部111により、画像データ11aをプリントする要求が送られる。データ処理装置2は、当該要求を受けると、当該要求に従って、上記特定された画像データ11aをプリントする処理を実行する。   Returning to FIG. The data processing requesting unit 111 sends the data processing specified by the processing specifying unit 110 for the data specified by the data specifying unit 109 to the data processing device 2 specified by the device specifying unit 108 via the communication unit 105. Is requested (S5). For example, as shown in FIG. 6, when the user makes a print gesture, the data processing request unit 111 sends a request to print the image data 11a to the data processing apparatus 2 as shown in FIG. Upon receiving the request, the data processing device 2 executes processing for printing the specified image data 11a in accordance with the request.

また、例えば、ユーザーがデータ処理装置2を注視するか、又は、ユーザーがアイコン21に触れることで、操作パネル表示制御部112が、ユーザーの視界に操作パネルGUIを仮想現実として表示させるようにしてもよい。ユーザーがデータ処理装置2を注視するか、又は、ユーザーがアイコン21に触れたとき、装置状態表示制御部107は、通信部105を介して、映像解析部104によって識別されたデータ処理装置2から、上記装置状態として、データ処理装置2において実行可能な動作及びその操作指示内容を示す情報を取得し、装置状態表示制御部107が、データ処理装置2で実行可能な当該各動作についての操作指示を受け付けるための操作パネルGUIを表示部101により表示させる。上記と同様に、処理特定部110は、映像解析部104によって識別された上記操作パネルGUIに対するユーザーの手のジェスチャーに応じて、識別された各ジェスチャーに対応するデータ処理を特定する。データ処理要求部111は、通信部105を介して、当該特定されたデータ処理の実行をデータ処理装置2に対して要求する。これにより、ユーザーは、当該操作パネルGUIを通じてデータ処理装置2を操作することが可能になる。   Further, for example, when the user gazes at the data processing device 2 or touches the icon 21, the operation panel display control unit 112 displays the operation panel GUI as a virtual reality in the user's field of view. Also good. When the user gazes at the data processing device 2 or touches the icon 21, the device state display control unit 107 starts from the data processing device 2 identified by the video analysis unit 104 via the communication unit 105. As the device state, information indicating an operation that can be executed in the data processing device 2 and the operation instruction content is acquired, and the device state display control unit 107 performs an operation instruction for each operation that can be executed in the data processing device 2. Is displayed on the display unit 101. Similarly to the above, the process specifying unit 110 specifies the data process corresponding to each identified gesture according to the gesture of the user's hand with respect to the operation panel GUI identified by the video analysis unit 104. The data processing request unit 111 requests the data processing apparatus 2 to execute the specified data processing via the communication unit 105. As a result, the user can operate the data processing apparatus 2 through the operation panel GUI.

本実施形態によれば、ヘッドマウントディスプレイやメガネ型のウェアラブル機器、特に透過型ウェアラブル端末を使用して、従来よりも多彩なユーザーの手の動きに基づいて操作内容を特定して設定可能となり、これによりユーザーが直感的に操作によりデータ処理装置を操作でき、操作対象とする他の装置としてのデータ処理装置2に、所望のデータ処理を行わせることが可能になる。これにより、透過型ウェアラブル端末1を使用してユーザーの手のジェスチャーによって直感的にデータを扱うことができ、データ処理装置2におけるデータの操作性を向上させることで利便性を高める効果が得られる。また、ユーザーの視線により特定されたデータ処理装置2から、当該データ処理装置2が持つジェスチャー情報を取得して、特定されるデータ処理装置2毎にジェスチャーパターンの認識を行うため、多種多様なデータ処理装置2に対しても対応が可能となっており、汎用性を高める効果が期待される。   According to the present embodiment, using a head-mounted display or glasses-type wearable device, particularly a transmissive wearable terminal, it is possible to specify and set the operation content based on a variety of user hand movements than before, As a result, the user can intuitively operate the data processing apparatus, and the data processing apparatus 2 as another apparatus to be operated can be made to perform desired data processing. As a result, the transparent wearable terminal 1 can be used to intuitively handle data by a user's hand gesture, and the data operability in the data processing device 2 can be improved to improve convenience. . In addition, since the gesture information possessed by the data processing device 2 is acquired from the data processing device 2 specified by the user's line of sight and the gesture pattern is recognized for each specified data processing device 2, a wide variety of data It is possible to cope with the processing apparatus 2 and an effect of improving versatility is expected.

なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。例えば、データ処理装置2で処理すべきデータを同時に複数選択できるようにしてもよい。この場合、データ特定部109は、映像解析部104によって識別されたユーザーの第1の指及び第2の指の動きに応じて、ユーザーの手の第1の指(例えば、人差し指)の動きに基づいて第1のデータを特定するとともに、第2の指(例えば、中指)の動きに基づいて第2のデータを特定することで、処理対象のデータとして複数のデータを特定する。   The present invention is not limited to the configuration of the above embodiment, and various modifications can be made. For example, a plurality of data to be processed by the data processing device 2 may be selected simultaneously. In this case, the data specifying unit 109 moves the first finger (for example, the index finger) of the user's hand according to the movement of the first finger and the second finger of the user identified by the video analysis unit 104. The first data is specified based on the second data, and the second data is specified based on the movement of the second finger (for example, the middle finger), thereby specifying a plurality of data as the processing target data.

なお、図1乃至図12を用いて上記実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。   Note that the configuration and processing shown in the above embodiment using FIGS. 1 to 12 are only one embodiment of the present invention, and the present invention is not limited to the configuration and processing.

1 透過型ウェアラブル端末
2 データ処理装置
3 データ保持装置
5 ユーザーの手
10 データ処理システム
11 データ選択GUI
21 アイコン
22 ジェスチャー情報
101 表示部
102 視線検出部
103 撮像部
104 映像解析部
105 通信部
107 装置状態表示制御部
108 装置特定部
109 データ特定部
110 処理特定部
111 データ処理要求部
112 操作パネル表示制御部
DESCRIPTION OF SYMBOLS 1 Transparent wearable terminal 2 Data processing apparatus 3 Data holding apparatus 5 User's hand 10 Data processing system 11 Data selection GUI
21 Icon 22 Gesture information 101 Display unit 102 Gaze detection unit 103 Imaging unit 104 Video analysis unit 105 Communication unit 107 Device state display control unit 108 Device identification unit 109 Data identification unit 110 Processing identification unit 111 Data processing request unit 112 Operation panel display control Part

Claims (6)

ユーザーの視界に映像を重ねて表示する透過型ウェアラブル端末であって、
ユーザーによる視認が可能に映像を表示する表示部と、
ユーザーの視線及び焦点距離を検出する視線検出部と、
ユーザーの視界映像を撮像する撮像部と、
前記撮像部の撮像映像を解析して、当該映像に写ったデータ処理装置、及びユーザーによる手の動きを識別する映像解析部と、
前記データ処理装置と通信する通信部と、
前記通信部を介して、前記映像解析部によって識別された前記データ処理装置から装置状態を取得し、当該装置状態を示すアイコンを、ユーザーの視界内における当該データ処理装置に近い位置に、前記表示部により表示させる装置状態表示制御部と、
前記視線検出部の検出結果に基づいて、前記映像解析部によって識別されたデータ処理装置のうちユーザーが注視するデータ処理装置を特定する装置特定部と、
ユーザーの視界内にデータ選択GUIを表示させ、前記映像解析部によって識別されたユーザーによる手の動きに基づいて、当該データ選択GUIにおいてユーザーが選択したデータを特定するデータ特定部と、
前記映像解析部によって識別されたユーザーの手のジェスチャーに応じたデータ処理を特定する処理特定部と、
前記通信部を介して、前記装置特定部によって特定されたデータ処理装置に対して、前記データ特定部によって特定されたデータについて前記処理特定部によって特定されたデータ処理を行うように要求するデータ処理要求部と、を備えた透過型ウェアラブル端末。
A transmissive wearable device that overlays and displays video in the user ’s field of view,
A display unit that displays an image that can be viewed by the user;
A line-of-sight detector that detects the user's line of sight and focal length;
An imaging unit for capturing a user's field of view image;
Analyzing the captured video of the imaging unit, a data processing device reflected in the video, and a video analysis unit for identifying hand movements by a user;
A communication unit communicating with the data processing device;
The device state is acquired from the data processing device identified by the video analysis unit via the communication unit, and an icon indicating the device state is displayed at a position close to the data processing device in the user's field of view. A device status display control unit to be displayed by the unit,
Based on the detection result of the line-of-sight detection unit, a device specifying unit that specifies a data processing device that the user gazes among the data processing devices identified by the video analysis unit;
A data specifying unit for displaying a data selection GUI in the user's field of view, and specifying data selected by the user in the data selection GUI based on a hand movement by the user identified by the video analysis unit;
A processing specifying unit that specifies data processing according to a gesture of the user's hand identified by the video analysis unit;
Data processing that requests the data processing device specified by the device specifying unit to perform the data processing specified by the processing specifying unit on the data specified by the data specifying unit via the communication unit A transparent wearable terminal comprising a request unit.
前記装置特定部は、ユーザーが注視するデータ処理装置を特定したとき、当該データ処理装置から、当該データ処理装置で実行可能なデータ処理及びそれに対応するジェスチャー情報を取得し、当該ジェスチャー情報を、ユーザーの視界内における当該データ処理装置の近い位置に、前記表示部により表示させる、請求項1に記載の透過型ウェアラブル端末。   When the data processing device to be watched by the user is specified, the device specifying unit acquires, from the data processing device, data processing that can be executed by the data processing device and gesture information corresponding to the data processing device. The transmission-type wearable terminal according to claim 1, wherein the display unit displays the display unit at a position near the data processing device in the field of view. 前記データ特定部は、ユーザーの手の第1の指の動きに基づいて第1のデータを特定するとともに、第2の指の動きに基づいて第2のデータを特定することで、処理対象のデータとして前記ユーザーにより選択された複数のデータを特定する、請求項1又は請求項2に記載の透過型ウェアラブル端末。   The data specifying unit specifies the first data based on the movement of the first finger of the user's hand and specifies the second data based on the movement of the second finger. The transparent wearable terminal according to claim 1 or 2, wherein a plurality of data selected by the user as data is specified. 前記映像解析部によって識別された前記データ処理装置をユーザーが注視したことを、前記視線検出部の検出結果に基づいて前記装置特定部が検知したとき、又は、前記映像解析部によって識別されたユーザーの手の動きに基づいて、ユーザーが視界内の前記データ処理装置の近くの位置に前記表示部により表示されたアイコンに触れたことを検知したときに、当該データ処理装置の操作パネルGUIをユーザーの視界内に表示させる操作パネル表示制御部を更に備えた、請求項1乃至請求項3のいずれかに記載の透過型ウェアラブル端末。   When the device identifying unit detects that the data processing device identified by the video analysis unit is gaze based on the detection result of the visual line detection unit, or the user identified by the video analysis unit When it is detected that the user touches the icon displayed by the display unit at a position in the field of view near the data processing device, the operation panel GUI of the data processing device is displayed. The transmission type wearable terminal according to any one of claims 1 to 3, further comprising an operation panel display control unit for displaying in the field of view. 請求項1乃至請求項4のいずれかに記載の透過型ウェアラブル端末からデータ処理要求を受けて当該要求に係るデータ処理を行うデータ処理装置。   A data processing device that receives a data processing request from the transparent wearable terminal according to any one of claims 1 to 4 and performs data processing according to the request. 請求項1乃至請求項4のいずれかに記載の透過型ウェアラブル端末と、
請求項5に記載のデータ処理装置と、を備えるデータ処理システム。
The transmissive wearable terminal according to any one of claims 1 to 4,
A data processing system comprising: the data processing device according to claim 5.
JP2015151252A 2015-07-30 2015-07-30 Transparent wearable terminal, data processing apparatus, and data processing system Active JP6319220B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015151252A JP6319220B2 (en) 2015-07-30 2015-07-30 Transparent wearable terminal, data processing apparatus, and data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015151252A JP6319220B2 (en) 2015-07-30 2015-07-30 Transparent wearable terminal, data processing apparatus, and data processing system

Publications (2)

Publication Number Publication Date
JP2017033195A JP2017033195A (en) 2017-02-09
JP6319220B2 true JP6319220B2 (en) 2018-05-09

Family

ID=57988875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015151252A Active JP6319220B2 (en) 2015-07-30 2015-07-30 Transparent wearable terminal, data processing apparatus, and data processing system

Country Status (1)

Country Link
JP (1) JP6319220B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177534A (en) * 2019-04-19 2020-10-29 京セラドキュメントソリューションズ株式会社 Transmission type wearable terminal
JP2021009619A (en) * 2019-07-02 2021-01-28 富士ゼロックス株式会社 Information processing system and program
JP7315430B2 (en) * 2019-10-15 2023-07-26 シャープ株式会社 Image forming apparatus, control program and control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JP5257437B2 (en) * 2010-10-20 2013-08-07 コニカミノルタビジネステクノロジーズ株式会社 Method for operating portable terminal and processing device
JP5900393B2 (en) * 2013-03-21 2016-04-06 ソニー株式会社 Information processing apparatus, operation control method, and program

Also Published As

Publication number Publication date
JP2017033195A (en) 2017-02-09

Similar Documents

Publication Publication Date Title
KR102494698B1 (en) Method and apparatus for changing focus of camera
EP3133592B1 (en) Display apparatus and controlling method thereof for the selection of clothes
JP6263617B2 (en) Display control method and apparatus, electronic device
EP3088995B1 (en) Display system and head mounted display
JP6390799B2 (en) Input device, input method, and program
KR102099223B1 (en) System and method for diagnosing for strabismus, aparratus for acquiring gaze image, computer program
JP6399692B2 (en) Head mounted display, image display method and program
US20180316911A1 (en) Information processing apparatus
JP6319220B2 (en) Transparent wearable terminal, data processing apparatus, and data processing system
US20170236273A1 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
KR20180004112A (en) Eyeglass type terminal and control method thereof
US10585476B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
WO2020080107A1 (en) Information processing device, information processing method, and program
US20150010214A1 (en) Information processing device, communication counterpart decision method and storage medium
JP2015201161A (en) Electronic device and method for operating the same
JP2011086049A (en) Mobile terminal device for maintenance
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
US20200379555A1 (en) Information processing system, operation method, and operation program
JP7078568B2 (en) Display device, display control method, and display system
US9300908B2 (en) Information processing apparatus and information processing method
JP5887297B2 (en) Image processing apparatus and image processing program
JP5989725B2 (en) Electronic device and information display program
JP6403975B2 (en) Confidential information input system and program
JP2022118501A (en) Display system, display device, control method and program thereof
JP2015087399A (en) Presentation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6319220

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150