JP6445118B2 - Wearable terminal, method and system - Google Patents

Wearable terminal, method and system Download PDF

Info

Publication number
JP6445118B2
JP6445118B2 JP2017233493A JP2017233493A JP6445118B2 JP 6445118 B2 JP6445118 B2 JP 6445118B2 JP 2017233493 A JP2017233493 A JP 2017233493A JP 2017233493 A JP2017233493 A JP 2017233493A JP 6445118 B2 JP6445118 B2 JP 6445118B2
Authority
JP
Japan
Prior art keywords
wearable terminal
wearer
information
wearable
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017233493A
Other languages
Japanese (ja)
Other versions
JP2018041507A (en
Inventor
宏樹 熊谷
宏樹 熊谷
田中 明良
明良 田中
賢一 道庭
賢一 道庭
広昭 古牧
広昭 古牧
隆 須藤
隆 須藤
康裕 鹿仁島
康裕 鹿仁島
伸秀 岡林
伸秀 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017233493A priority Critical patent/JP6445118B2/en
Publication of JP2018041507A publication Critical patent/JP2018041507A/en
Application granted granted Critical
Publication of JP6445118B2 publication Critical patent/JP6445118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態はウェアラブル端末、方法及びシステムに関する。   Embodiments described herein relate generally to a wearable terminal, a method, and a system.

近年、メガネ型ウェアラブル端末が盛んに利用されている。例えば、作業現場では、作業者がメガネ型ウェアラブル端末を装着し、作業手順等がレンズ面に表示される。これにより、作業者が作業中に紙のマニュアルを参照する必要が無く、作業の手を休めることなく、不慣れ又は複雑な作業でも効率よく行うことができる。   In recent years, glasses-type wearable terminals have been actively used. For example, at a work site, an operator wears a glasses-type wearable terminal, and a work procedure or the like is displayed on the lens surface. Thereby, it is not necessary for the operator to refer to the paper manual during the operation, and it is possible to efficiently perform an unfamiliar or complicated operation without resting the hand of the operation.

メガネ型ウェアラブル端末は多数の作業者に共有され、作業の記録を残す等のために、端末のIDと装着した作業者のIDとを対応付ける必要がある。この一例として、頭部装着型表示装置の使用者を認証する技術がある。使用者が虚像と外景を同時に視認可能な頭部装着型表示装置であって、頭部装着型表示装置を装着した状態における使用者の視界方向の少なくとも一部を撮影し、使用者の動作を取得する撮影部と、撮影部により撮影された動作から、使用者の動作の軌跡を取得する軌跡取得部と、軌跡取得部により取得された軌跡を用いて、使用者が正当な使用者であるか否かを認証する認証処理部と、を備える頭部装着型表示装置が提案されている。   The glasses-type wearable terminal is shared by many workers, and it is necessary to associate the ID of the terminal with the ID of the worker who wears it in order to leave a record of the work. As an example of this, there is a technique for authenticating a user of a head-mounted display device. A head-mounted display device that allows a user to view a virtual image and an outside scene at the same time, photographing at least a part of the user's viewing direction with the head-mounted display device mounted, and The user is a valid user by using the imaging unit to be acquired, the trajectory acquiring unit for acquiring the user's motion trajectory from the motion captured by the imaging unit, and the trajectory acquired by the trajectory acquiring unit. There has been proposed a head-mounted display device including an authentication processing unit that authenticates whether or not.

この装置によれば、認証処理部は、使用者の動作の軌跡を用いて使用者が正当な使用者であるか否かを認証するため、文字列や画像を用いた認証と比較して、認証の鍵とされる情報を複製しづらい。この結果、頭部装着型表示装置において、なりすましの危険性を低減し、セキュリティをより向上する認証を実現可能である。   According to this apparatus, the authentication processing unit authenticates whether or not the user is a valid user using the user's movement trajectory, compared with authentication using a character string or an image, It is difficult to copy information that is the key to authentication. As a result, in the head-mounted display device, it is possible to realize authentication that reduces the risk of impersonation and further improves security.

特開2014−52942号公報JP 2014-52942 A

従来の頭部装着型表示装置の認証技術は、使用者の視界を撮影する撮影部を別途設ける必要があるという課題があった。   The conventional authentication technology for the head-mounted display device has a problem that it is necessary to separately provide a photographing unit for photographing the user's field of view.

本発明の目的は、簡単な構成で、装着者を特定するウェアラブル端末、方法及びシステムを提供することである。   An object of the present invention is to provide a wearable terminal, method and system for identifying a wearer with a simple configuration.

実施形態によれば、頭部に装着され得るウェアラブル端末は、ウェアラブル端末の動きに関する第1情報を出力する第1検出手段と、ウェアラブル端末の位置に関する第2情報を出力する第2検出手段と、第1検出手段から出力された第1情報と第2検出手段から出力された第2情報に基づいて、ウェアラブル端末の装着者を特定する特定手段と、前記装着者の視線上に位置する表示画面と、を具備し、特定手段は、装着者の候補に関する情報を表示画面に表示し、ユーザ操作に基づいて装着者を特定する。 According to the embodiment, the wearable terminal that can be worn on the head includes first detection means that outputs first information related to the movement of the wearable terminal, second detection means that outputs second information related to the position of the wearable terminal, and Based on the first information output from the first detection means and the second information output from the second detection means, a specifying means for specifying the wearer of the wearable terminal, and a display screen positioned on the line of sight of the wearer The specifying unit displays information on the wearer candidate on the display screen, and specifies the wearer based on a user operation .

実施形態のウェアラブル端末の一例を示す斜視図である。It is a perspective view which shows an example of the wearable terminal of embodiment. ウェアラブル端末の一例を示す正面図と断面構成を示す図である。It is the figure which shows the front view and cross-sectional structure which show an example of a wearable terminal. ウェアラブル端末の位置検出の一例を示す図である。It is a figure which shows an example of the position detection of a wearable terminal. ウェアラブル端末の位置検出の原理を示す図である。It is a figure which shows the principle of position detection of a wearable terminal. ウェアラブル端末の位置検出の際の信号波形を示す図である。It is a figure which shows the signal waveform at the time of the position detection of a wearable terminal. ウェアラブル端末とコミュニケーションサーバとを含むシステムの一例を示す図である。It is a figure which shows an example of the system containing a wearable terminal and a communication server. ウェアラブル端末の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a wearable terminal. 装着者決定の際のウェアラブル端末の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the wearable terminal in the case of wearer determination. 装着者決定の際のコミュニケーションサーバの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the communication server in the case of wearer determination. ウェアラブル端末とコミュニケーションサーバとを含むシステムの他の例を示す図である。It is a figure which shows the other example of the system containing a wearable terminal and a communication server. 図10のシステムにおける通話処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the telephone call process in the system of FIG.

以下、図面を参照して、実施の形態について説明する。   Hereinafter, embodiments will be described with reference to the drawings.

ウェアラブル端末は、頭部装着型(これにはメガネ型、ゴーグル型、ヘルメット型等が含まれるが、これらを総称してメガネ型と称する場合もある)、リストバンド型、ペンダント型等があるが、ここでは、メガネ型ウェアラブル端末の実施形態を説明する。メガネ型ウェアラブル端末には、透明なレンズを介して視線の先の風景が見えるタイプと、視界が遮られ、風景が見えないヘッドマウントディスプレイと称されるタイプがあるが、ここでは、一例として風景が見えるタイプを説明する。   Wearable terminals include head-mounted types (including glasses, goggles, helmets, etc., which may be collectively referred to as glasses), wristbands, pendants, and the like. Here, an embodiment of a glasses-type wearable terminal will be described. Glasses-type wearable devices include a type that allows you to see the scenery ahead of your line of sight through a transparent lens, and a type that is called a head-mounted display where the view is blocked and you cannot see the scenery. Explain the type that can be seen.

図1はメガネ型ウェアラブル端末(以下、単にウェアラブル端末と称する)10の斜視図、図2(a)は正面図、図2(b)は上から見た断面構造を示す図である。   FIG. 1 is a perspective view of a glasses-type wearable terminal (hereinafter simply referred to as a wearable terminal) 10, FIG. 2 (a) is a front view, and FIG. 2 (b) is a diagram showing a cross-sectional structure viewed from above.

ウェアラブル端末10は通常のメガネとほぼ同じ形状であるが、一方、ここでは右眼側のテンプルの外側に投影装置12が取り付けられている。フレームにはガラス14、16が嵌め込まれている。左眼側のガラス14はユーザが景色を見ることができるように通常の透明ガラスである。右眼側のガラス16は、少なくとも一部がスクリーン16となっている。スクリーン16は、投影装置12が投影している画像をユーザが見ることができるようにするものである。スクリーン16は投影装置12が画像を投影しない時は透明であり、ユーザが右眼側のガラス(スクリーン)16を介して景色を見ることができる。   The wearable terminal 10 has substantially the same shape as normal glasses, but here, the projection device 12 is attached to the outside of the temple on the right eye side. Glasses 14 and 16 are fitted in the frame. The glass 14 on the left eye side is a normal transparent glass so that the user can see the scenery. The right-eye glass 16 is at least partially a screen 16. The screen 16 allows the user to see the image projected by the projection device 12. The screen 16 is transparent when the projection device 12 does not project an image, and the user can view the scenery through the glass (screen) 16 on the right eye side.

投影装置12は、電子部品として電源部22、制御部24を含む。電源部22はボタン型の電池、充電可能な電池、非接触給電可能な二次電池等を含むことができる。あるいは、電源は内蔵せず、外部電源から電源ラインを介して投影装置12に給電してもよい。制御部24は、後述するネットワークを介してサーバや他の電子機器との間で通信を行い、情報を送受信する。この通信は、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。   The projection device 12 includes a power supply unit 22 and a control unit 24 as electronic components. The power supply unit 22 may include a button-type battery, a rechargeable battery, a secondary battery capable of non-contact power supply, and the like. Alternatively, the projection apparatus 12 may be supplied with power from an external power supply via a power supply line without incorporating a power supply. The control unit 24 communicates with a server and other electronic devices via a network described later, and transmits and receives information. This communication may be either wired or wireless. For wireless, Bluetooth (registered trademark), ZigBee (registered trademark), short-range wireless communication such as UWB, medium-range wireless communication such as WiFi (registered trademark), 3G / 4G, WiMAX (registered trademark) depending on the usage environment Any of long-distance wireless communications such as the above may be used.

投影装置12は、さらに、光学部品として光源28、表示部30、プリズム32、レンズ群34等を含む。光源28は、互いに発光色が異なり、それぞれの出力光量を独立して変更可能な複数、例えば3個のLED(Light Emitting Diode)を含む調光型白色LED光源であってもよい。調光型白色LED光源によれば、ウェアラブル端末10の使用環境が、例えばオレンジ色が主体の照明が用いられることの多いクリーンルーム内、等である場合においても、使用環境に応じて発光色を変更することができ、鮮明な投影像が得られる。さらに、調光型白色LED光源によれば、ユーザが見易い表示色を出力することができ、ユーザが見辛い表示色を出力する場合に比較して、目の疲れや、それに伴う偏頭痛、等のユーザにとって支障となる要因の発生を避けることが可能である。   The projection device 12 further includes a light source 28, a display unit 30, a prism 32, a lens group 34, and the like as optical components. The light source 28 may be a dimming white LED light source including a plurality of, for example, three LEDs (Light Emitting Diodes) whose emission colors are different from each other and whose output light amounts can be changed independently. According to the dimmable white LED light source, even when the use environment of the wearable terminal 10 is, for example, in a clean room where illumination mainly using orange is used, the emission color is changed according to the use environment. And a clear projected image can be obtained. Furthermore, according to the dimming white LED light source, it is possible to output a display color that is easy for the user to see, and compared with the case where the user outputs a display color that is difficult to see, eye fatigue, migraines associated therewith, etc. It is possible to avoid the occurrence of a factor that hinders the user.

表示部30は、例えば反射型のLCD(Liquid Crystal Display)モジュールであり、制御部24による表示制御に基づいて、所定のテキスト、画像等(以下、表示部30が表示されるものを表示像と総称することもある)を表示する。光源28から出射される非平行光(発散性の光、以下発散光と称することもある)は、プリズム32のハーフミラー面32aで反射され、表示部30の表示像を照明する。表示部30の反射光は、表示像に対応した光(画像光と称する場合もある)としてハーフミラー面32aを透過して、出射面32cから出射され、レンズ群34を介して所定サイズの投影像としてスクリーン16に投影される。   The display unit 30 is, for example, a reflective LCD (Liquid Crystal Display) module. Based on display control by the control unit 24, a predetermined text, image, or the like (hereinafter, what the display unit 30 displays is referred to as a display image). May be collectively referred to). Non-parallel light emitted from the light source 28 (divergent light, sometimes referred to as divergent light) is reflected by the half mirror surface 32a of the prism 32 and illuminates the display image of the display unit 30. The reflected light of the display unit 30 passes through the half mirror surface 32a as light corresponding to the display image (sometimes referred to as image light), is emitted from the emission surface 32c, and is projected through the lens group 34 to a predetermined size. An image is projected onto the screen 16.

スクリーン16は、手前側透明屈折体42、フレネルレンズ形ハーフミラー面44及び奥側透明屈折体46を有する。フレネルレンズ形ハーフミラー面44に到達した画像光の一部は、フレネルレンズ形ハーフミラー面44で反射され、表示部30の表示像に対応する虚像(投影像)を数メートル先に形成する。なお、スクリーン16は、ウェアラブル端末10を装着したユーザの視線の先の風景も一部透過することができ、スクリーン16には投影像とともにユーザが視認可能な風景が表示されるように構成してもよい。   The screen 16 includes a near-side transparent refractor 42, a Fresnel lens-shaped half mirror surface 44, and a back-side transparent refractor 46. A part of the image light reaching the Fresnel lens half mirror surface 44 is reflected by the Fresnel lens half mirror surface 44 to form a virtual image (projected image) corresponding to the display image of the display unit 30 several meters ahead. Note that the screen 16 can partially transmit the scenery ahead of the user's line of sight wearing the wearable terminal 10, and the screen 16 is configured to display a scenery that can be visually recognized by the user together with the projected image. Also good.

光源28から出射され、ハーフミラー面32aを通過した画像光(発散光)の一部は、全反射面32bで全反射し、出射面32cで屈折して光源28からの発散光である漏れ光50となる。漏れ光50は、投影装置12の正面に形成された開口又は隙間(誘導部)52を通ってスクリーン16とは異なる方向へ出射される。   Part of the image light (diverged light) emitted from the light source 28 and passed through the half mirror surface 32a is totally reflected by the total reflection surface 32b, refracted by the emission surface 32c, and leaked light that is divergent light from the light source 28. 50. The leaked light 50 is emitted in a direction different from that of the screen 16 through an opening or a gap (guide portion) 52 formed on the front surface of the projection device 12.

ウェアラブル端末10は、投影装置12の所定の位置、たとえば底面部に、スピーカ54A、イヤホンジャック54B、マイクジャック56、スライド式スイッチ57及び回転式スイッチ58等を有する。マイクジャック56には、図示しないハンズフリーマイクが接続され、ユーザの音声が収集される。スライド式スイッチ57は、例えば投影装置12の投影像の輝度や色調等を調整可能である。回転式スイッチ58は、例えば投影像の投影角度等を調整可能である。スライド式スイッチ57及び回転式スイッチ58のように異なる動作により異なる調整量を設定可能とすることで、投影像を目視しながら、ユーザが、ブラインドタッチで、投影像を調整可能である。例えば、スライド式スイッチ57を操作することにより、ユーザの好みに合わった表示輝度や色調の投影像を提供できる。回転式スイッチ58を操作することにより、ユーザの頭部の形状やサイズに合わせて、最適な位置に画像を表示するように投影角度を調整できる。なお、スライド式スイッチ57と回転式スイッチ58による調整対象が逆であってもよいことはもちろんであるし、スライド式スイッチ57と回転式スイッチ58の位置が逆であってもよいし、両者を1つの操作部材の2種類の操作に割り当ててもよい。   The wearable terminal 10 includes a speaker 54A, an earphone jack 54B, a microphone jack 56, a slide switch 57, a rotary switch 58, and the like at a predetermined position of the projection device 12, for example, a bottom surface portion. A hands-free microphone (not shown) is connected to the microphone jack 56 to collect user's voice. The slide switch 57 can adjust the brightness, color tone, and the like of the projection image of the projection device 12, for example. The rotary switch 58 can adjust the projection angle of the projection image, for example. By making it possible to set different adjustment amounts by different operations such as the slide switch 57 and the rotary switch 58, the user can adjust the projection image by blind touch while viewing the projection image. For example, by operating the slide switch 57, it is possible to provide a projected image with display brightness and color tone that suits the user's preference. By operating the rotary switch 58, the projection angle can be adjusted so as to display an image at an optimal position in accordance with the shape and size of the user's head. Of course, the objects to be adjusted by the slide switch 57 and the rotary switch 58 may be reversed, or the positions of the slide switch 57 and the rotary switch 58 may be reversed. You may assign to two types of operation of one operation member.

これらのスイッチ57、58による選択は投影像のみを見ながら施行錯誤的に行ってもよいが、調整の効率を上げるために、メニュー画面を投影して、その画面内で項目を選択することにより調整してもよい。表示部30がメニュー画面を表示することにより、メニュー画面がスクリーン16に投影される。   The selection by these switches 57 and 58 may be carried out in practice and error while only looking at the projection image. However, in order to increase the efficiency of adjustment, a menu screen is projected and items are selected on the screen. You may adjust. When the display unit 30 displays the menu screen, the menu screen is projected on the screen 16.

さらに、メニュー項目の選択は、スイッチ57、58の操作によらず、タッチ操作によってもよい。このため、投影装置12の外側には、タッチパッド55も設けられる。表示部30がメニュー等を表示し、メニュー内の項目の表示位置に応じたタッチパッド55内の位置をタッチすることにより、簡単かつ効率よくユーザ操作を入力できる。   Further, the menu item may be selected by a touch operation, not by the operation of the switches 57 and 58. For this reason, a touch pad 55 is also provided outside the projection device 12. When the display unit 30 displays a menu or the like and touches a position in the touch pad 55 corresponding to the display position of the item in the menu, a user operation can be input easily and efficiently.

正面中央部の外側にはカメラ59が設けられ、ユーザの視線の先の画像(静止画、動画のいずれも可)を撮影可能である。なお、図示していないが、正面中央部の内側(カメラ59の配置位置と対応する位置)にユーザの顔に対向してカメラを設け、ユーザの眼球を撮影し、ユーザの虹彩を検出可能としてもよい。虹彩はユーザ認証に使うことができる。   A camera 59 is provided outside the center of the front, and an image ahead of the user's line of sight (either a still image or a moving image is acceptable) can be taken. Although not shown, a camera is provided on the inner side of the front center (a position corresponding to the arrangement position of the camera 59) so as to face the user's face so that the user's eyeball can be photographed and the user's iris can be detected. Also good. The iris can be used for user authentication.

ウェアラブル端末10からの漏れ光50を利用することで、ウェアラブル端末10の状態、すなわちユーザの状態を検出できる。図3、図4、図5を参照して、ウェアラブル端末の状態の検出原理を説明する。ここで、状態は位置と、位置の移動等を含む。   By using the leaked light 50 from the wearable terminal 10, the state of the wearable terminal 10, that is, the state of the user can be detected. The principle of detecting the state of the wearable terminal will be described with reference to FIGS. Here, the state includes a position and a movement of the position.

ウェアラブル端末の使用例の一例を図3に示す。例えば、工場の部品ヤード、通販会社の商品倉庫、小売業の配送部署等のワークエリア60内に任意数の作業スペース又は商品棚A01〜Axy(x,yはともに正の整数)、B01〜Bxy、C01〜Cxyが配置される。作業スペース又は商品棚は、例えば工場の作業テーブルや生産ライン内の製造装置又は学校の机や会議室の着席位置、等であってもよい。   An example of the usage example of the wearable terminal is shown in FIG. For example, an arbitrary number of work spaces or product shelves A01 to Axy (x and y are both positive integers), B01 to Bxy in a work area 60 such as a factory parts yard, a mail order company's product warehouse, or a retail delivery department , C01 to Cxy are arranged. The work space or the product shelf may be, for example, a factory work table, a manufacturing apparatus in a production line, a school desk, a seating position in a conference room, or the like.

ワークエリア60には少なくとも1つの光センサ62−1〜62−n(nは正の整数)が配置される。光センサ62−1〜62−nは、ウェアラブル端末10−1〜10−m(mは正の整数)の位置(x,y,z)、個数、位置の変化(移動)及び向きの変化等を、図4、図5に示す検出方法により、個々に検出できる。ウェアラブル端末10−1〜10−mの位置、個数、移動及び向きの変化等を検出することにより。ウェアラブル端末10−1〜10−mを装着した任意数のユーザの位置、移動等の状態を認識できる。   In the work area 60, at least one optical sensor 62-1 to 62-n (n is a positive integer) is arranged. The optical sensors 62-1 to 62-n are wearable terminals 10-1 to 10-m (m is a positive integer) position (x, y, z), number, change in position (movement), change in orientation, and the like. Can be detected individually by the detection method shown in FIGS. By detecting changes in position, number, movement, and orientation of the wearable terminals 10-1 to 10-m. It is possible to recognize the positions, movements, and the like of an arbitrary number of users wearing the wearable terminals 10-1 to 10-m.

ユーザは、ワークエリア60内を自在に移動できる。ユーザは、予め定められた作業を、予め定められた位置、例えばステーション(カート)、それに準じた収容器又は可動式のテーブル等である作業スペース64において実行する。なお、作業スペース64は、移動可能ではなく、固定された机やその着席位置等であってもよい。   The user can move freely in the work area 60. The user performs a predetermined work in a work space 64 that is a predetermined position, for example, a station (cart), a container according to the work, or a movable table. The work space 64 is not movable and may be a fixed desk, a seating position thereof, or the like.

図3、図4に示すように、検出システムは、1以上のウェアラブル端末10、1以上の光センサ62を含む。光センサ62は、漏れ光50を検出する機能と、検出結果をサーバ等に送信する通信機能を有する。この通信機能も、ウェアラブル端末10の通信機能と同じく、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。以下に説明する実施形態は通信機能を有する種々のユニット、モジュールを有するが、これらのユニット、モジュールの通信機能も、同様に、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。   As shown in FIGS. 3 and 4, the detection system includes one or more wearable terminals 10 and one or more optical sensors 62. The optical sensor 62 has a function of detecting the leaked light 50 and a communication function of transmitting the detection result to a server or the like. This communication function may be either wired or wireless, similar to the communication function of wearable terminal 10. For wireless, Bluetooth (registered trademark), ZigBee (registered trademark), short-range wireless communication such as UWB, medium-range wireless communication such as WiFi (registered trademark), 3G / 4G, WiMAX (registered trademark) depending on the usage environment Any of long-distance wireless communications such as the above may be used. Although the embodiment described below includes various units and modules having a communication function, the communication functions of these units and modules may be either wired or wireless as well. For wireless, Bluetooth (registered trademark), ZigBee (registered trademark), short-range wireless communication such as UWB, medium-range wireless communication such as WiFi (registered trademark), 3G / 4G, WiMAX (registered trademark) depending on the usage environment Any of long-distance wireless communications such as the above may be used.

光センサ62が受信した漏れ光50からウェアラブル端末10を特定できるように、ウェアラブル端末10は、端末の識別情報(Identification、以下端末IDと称する場合もある)を含む情報を用いて漏れ光50を間欠的に変調する。変調方式の典型的な一例は、発光量をゼロまで落とすチョッパー形変調方式があるが、ここでは、発光量が低い状態でも所定量以上の発光量を確保できる変調方式が採用される。これにより、ユーザの目に対する負担を軽減できる。変調方式として、例えばDSV(Digital Sum Value)フリーの変調方式(すなわち常に変調信号のDSVを計算し、適宜ビット反転コードを挿入可能にして直流成分をゼロとする変調方式)が採用されると、比較的ロングレンジでの発光量変化が抑えられ、巨視的に常に発光量変化がゼロにでき、ユーザの目への負担が一層軽減される。人間の目は、0.02秒程度の変化まで認識できるので、上記変調の基準周波数を10Hz以上、例えば20Hz以上、より好ましくは60Hz以上に設定することで、ユーザの目に対する負担を軽減する効果も生まれる。一方、光源28に使用されるLEDは、内部インピーダンスと接続容量を持つため、精度良い変調周波数は、100MHz未満、望ましくは10MHz以下が望ましい。従って、実施形態の検出システムにて用いる光源28の変調周波数は、10Hz〜100MHz、望ましくは10Hz〜10MHzの範囲が好ましい。   In order to be able to identify the wearable terminal 10 from the leaked light 50 received by the optical sensor 62, the wearable terminal 10 uses the information including the terminal identification information (hereinafter also referred to as terminal ID) to detect the leaked light 50. Modulate intermittently. A typical example of the modulation method is a chopper type modulation method that reduces the light emission amount to zero. Here, a modulation method that can secure a light emission amount equal to or larger than a predetermined amount even when the light emission amount is low is adopted. Thereby, the burden with respect to a user's eyes can be reduced. As a modulation method, for example, a DSV (Digital Sum Value) free modulation method (that is, a modulation method in which a DSV of a modulation signal is always calculated, a bit inversion code can be inserted as appropriate, and a DC component is zero) is employed. The change in the amount of light emission in a relatively long range is suppressed, the change in the amount of light emission can always be made macroscopically, and the burden on the user's eyes is further reduced. Since the human eye can recognize a change of about 0.02 seconds, an effect of reducing the burden on the user's eyes by setting the reference frequency of the modulation to 10 Hz or more, for example, 20 Hz or more, more preferably 60 Hz or more. Is also born. On the other hand, since the LED used for the light source 28 has internal impedance and connection capacitance, the accurate modulation frequency is preferably less than 100 MHz, preferably 10 MHz or less. Therefore, the modulation frequency of the light source 28 used in the detection system of the embodiment is preferably 10 Hz to 100 MHz, and more preferably 10 Hz to 10 MHz.

光源28からの発散光の漏れ光50を利用しているので、光センサ62が検出する光量がウェアラブル端末10と光センサ62との間の距離に応じて変化する。この現象を利用すると、ウェアラブル端末10と光センサ62との間の距離又は光センサ62に対するウェアラブル端末10の向きを求めることができる。光センサ62の位置(高さも含む)は固定であるので、光センサ62とウェアラブル端末10との距離が分かると、ウェアラブル端末10の位置(x,y,z)が検出できる。   Since the diverging light leakage light 50 from the light source 28 is used, the amount of light detected by the optical sensor 62 changes according to the distance between the wearable terminal 10 and the optical sensor 62. If this phenomenon is used, the distance between the wearable terminal 10 and the optical sensor 62 or the orientation of the wearable terminal 10 with respect to the optical sensor 62 can be obtained. Since the position (including height) of the optical sensor 62 is fixed, if the distance between the optical sensor 62 and the wearable terminal 10 is known, the position (x, y, z) of the wearable terminal 10 can be detected.

さらに、光源28からの発散光の漏れ光50を利用しているので、漏れ光50を比較的広い範囲で検出できる。その結果、比較的少数の光センサ62−1〜62−nを設置するだけで、ワークエリア60内のウェアラブル端末10−1〜10−mの位置、ウェアラブル端末10と光センサ62との距離、ウェアラブル端末10−1〜10−mの向き、又は光センサ62に対するウェアラブル端末10の方位が検出できる。これにより、検出システムを設置するために必要となる設備費用を低減できる。   Furthermore, since the diverging light leakage light 50 from the light source 28 is used, the leakage light 50 can be detected in a relatively wide range. As a result, only by installing a relatively small number of optical sensors 62-1 to 62-n, the position of the wearable terminals 10-1 to 10-m in the work area 60, the distance between the wearable terminal 10 and the optical sensor 62, The direction of wearable terminals 10-1 to 10-m or the direction of wearable terminal 10 with respect to optical sensor 62 can be detected. Thereby, the installation cost required in order to install a detection system can be reduced.

光センサ62が検出した漏れ光50の光量情報は、所定のタイミングで、光センサ62から後述するサーバへ送信される。サーバは、収集した光センサ62からの情報を解析する。これにより、任意のウェアラブル端末10−1〜10−mすなわちユーザの位置及び状態が検出できる。   The light amount information of the leakage light 50 detected by the optical sensor 62 is transmitted from the optical sensor 62 to a server described later at a predetermined timing. The server analyzes the collected information from the optical sensor 62. Thereby, arbitrary wearable terminals 10-1 to 10-m, that is, the position and state of the user can be detected.

図4は、実施形態に係るウェアラブル端末を認識するシステムの具体的な利用例を説明する概略図である。4個の光センサ62−1〜60−4の周囲にウェアラブル端末10−1〜10−3を装着した3人のユーザがいる状況を想定する。ウェアラブル端末10−1、10−2からの漏れ光50は、光センサ62−1〜60−4にて検出される。光センサ62−1〜60−4は、それぞれにおいて検出した漏れ光50の光量をA−D(Analog - Digital)変換し、光量に対応する光量情報として、所定のタイミングで、例えば近距離無線通信によりサーバへ送信する。   FIG. 4 is a schematic diagram illustrating a specific usage example of the system that recognizes the wearable terminal according to the embodiment. Assume a situation in which there are three users wearing wearable terminals 10-1 to 10-3 around four optical sensors 62-1 to 60-4. The leaked light 50 from the wearable terminals 10-1 and 10-2 is detected by the optical sensors 62-1 to 60-4. Each of the optical sensors 62-1 to 60-4 performs AD (Analog-Digital) conversion on the light amount of the leaked light 50 detected in each of them, and uses, for example, short-range wireless communication at predetermined timing as light amount information corresponding to the light amount. To the server.

ユーザの移動に応じてウェアラブル端末10−1が光センサ62−1へ移動する一方、ユーザの任意の動作、例えば首振り(頭部の旋回)に応じてウェアラブル端末10−2の向きが一時的に変化したとする。この時の検出情報の変化を図5に示す。   Wearable terminal 10-1 moves to optical sensor 62-1 according to the movement of the user, while wearable terminal 10-2 is temporarily oriented according to the user's arbitrary operation, for example, swinging (head turning). Suppose that The change of the detection information at this time is shown in FIG.

図5では、ウェアラブル端末10−1〜10−3のそれぞれの漏れ光50の変調方式として、間欠的な時間変化方式を用いた例を示している。すなわち、ウェアラブル端末10−1〜10−3のそれぞれにおいて、ID変調期間がずれている。   In FIG. 5, the example which used the intermittent time change system as a modulation system of each leaked light 50 of wearable terminal 10-1 to 10-3 is shown. That is, the ID modulation period is shifted in each of the wearable terminals 10-1 to 10-3.

図5(a)、(b)、(c)に示すように、1番目〜3番目のウェアラブル端末10−1〜10−3について、間欠的にウェアラブル端末のID変調期間が設定され、それ以外の期間は無変調期間である。各ID変調期間内では、同期信号SYNCとウェアラブル端末10−1〜10−3の端末IDが一つの組を構成し(1対1で対応し)、その組が複数回(図5に示すようにセンサが4個の場合、4の倍数回)、繰り返される。   As shown in FIGS. 5A, 5 </ b> B, and 5 </ b> C, the ID modulation period of the wearable terminal is intermittently set for the first to third wearable terminals 10-1 to 10-3, and the others This period is a non-modulation period. Within each ID modulation period, the synchronization signal SYNC and the terminal IDs of wearable terminals 10-1 to 10-3 constitute one set (corresponding one-to-one), and the set is a plurality of times (as shown in FIG. 5). If there are four sensors, a multiple of 4) is repeated.

1番目のウェアラブル端末10−1が無変調期間に入ると同時に、2番目のウェアラブル端末10−2のID変調期間が開始する。同様に2番目のウェアラブル端末10−2が無変調期間に入ると同時に、3番目のウェアラブル端末10−3のID変調期間が開始する。   As soon as the first wearable terminal 10-1 enters the non-modulation period, the ID modulation period of the second wearable terminal 10-2 starts. Similarly, the ID modulation period of the third wearable terminal 10-3 starts at the same time as the second wearable terminal 10-2 enters the non-modulation period.

2番目のウェアラブル端末10−2のID変調期間内と3番目のウェアラブル端末10−3のID変調期間内とにおいては、同期信号SYNCとウェアラブル端末10−2、10−3の端末IDが繰り返し変調される。このように、ウェアラブル端末10の端末IDを変調信号内に乗せることで、端末IDが検出可能である。   In the ID modulation period of the second wearable terminal 10-2 and the ID modulation period of the third wearable terminal 10-3, the synchronization signal SYNC and the terminal IDs of the wearable terminals 10-2 and 10-3 are repeatedly modulated. Is done. Thus, the terminal ID can be detected by placing the terminal ID of the wearable terminal 10 in the modulated signal.

上記の例では、ウェアラブル端末10−1〜10−3のそれぞれの変調タイミングは、時分割(間欠化)されている。しかし、例えば全てのウェアラブル端末10−1〜10−3について、連続的に変調されるものとし、ウェアラブル端末10−1〜10−3のそれぞれの変調基準周波数が変化されてもよい。また、スペクトル拡散時のそれぞれの周波数スペクトル特性が変化されてもよい。   In the above example, the modulation timings of the wearable terminals 10-1 to 10-3 are time-division (intermittent). However, for example, all the wearable terminals 10-1 to 10-3 may be continuously modulated, and the modulation reference frequencies of the wearable terminals 10-1 to 10-3 may be changed. Moreover, each frequency spectrum characteristic at the time of spectrum spreading may be changed.

図5(d)、(e)、(f)、(g)が示すように、光センサ62−1〜62−4からの情報通信期間は、各ID変調期間において細かく分割されている。   As shown in FIGS. 5D, 5E, 5F, and 5G, the information communication period from the optical sensors 62-1 to 62-4 is finely divided in each ID modulation period.

図4に示すように、初期の時点では、ウェアラブル端末10−1からの漏れ光の一部が、光センサ62−4に到達する。そのため、初期の時点では、図5(k)に示すように、光センサ62−4がウェアラブル端末10−1からの漏れ光を検出する。しかし、ウェアラブル端末10−1が光センサ62−1へ向かって移動するにつれて、光センサ62−4が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅が減少して行く。一方、図5(h)に示すように、光センサ62−1が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅は、時間の経過と共に増加する。このように、光センサ62−1〜62−nが検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの位置の時間変化(移動状態)が検出できる。   As shown in FIG. 4, at the initial time, part of the leaked light from the wearable terminal 10-1 reaches the optical sensor 62-4. Therefore, at the initial time, as shown in FIG. 5 (k), the optical sensor 62-4 detects the leaked light from the wearable terminal 10-1. However, as the wearable terminal 10-1 moves toward the optical sensor 62-1, the modulation signal amplitude of the leaked light from the wearable terminal 10-1 detected by the optical sensor 62-4 decreases. On the other hand, as shown in FIG. 5 (h), the modulation signal amplitude of the leaked light from the wearable terminal 10-1 detected by the optical sensor 62-1 increases with time. In this way, by comparing the time change of the amplitude of the modulation signal detected by the optical sensors 62-1 to 62-n, the time change (moving state) of the position of the wearable terminal 10-1 to 10-m that is the detection target. Can be detected.

一方、初期の時点で、ウェアラブル端末10−2が光センサ62−3に向いているので、漏れ光から得られる変調信号振幅に関して、光センサ62−2での検出値より光センサ62−3での検出値の方が大きい。この後、例えば2番目のユーザが首を振り、一時的に光センサ62−2を向いたとする。すると、光センサ62−2が出力するウェアラブル端末10−2の検出出力は、図5(i)に示すように、一時的に増加した後、減少する。他方、光センサ62−3が出力するウェアラブル端末10−2の検出出力は、図5(j)に示すように、一時的に減少した後、増加する。   On the other hand, since the wearable terminal 10-2 is directed to the optical sensor 62-3 at the initial time, the modulation signal amplitude obtained from the leaked light is detected by the optical sensor 62-3 from the detection value of the optical sensor 62-2. The detected value of is larger. Thereafter, for example, it is assumed that the second user swings his head and temporarily faces the optical sensor 62-2. Then, the detection output of the wearable terminal 10-2 output by the optical sensor 62-2 temporarily increases and then decreases as shown in FIG. 5 (i). On the other hand, as shown in FIG. 5 (j), the detection output of the wearable terminal 10-2 output by the optical sensor 62-3 increases after being temporarily reduced.

このように、光センサ62が検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの向きの時間変化も推定できる。   In this way, by comparing the time change of the modulation signal amplitude detected by the optical sensor 62, the time change in the direction of the wearable terminals 10-1 to 10-m that are detection targets can also be estimated.

上記の検出例は、ユーザの動きとして、移動や首振りである場合の例である。しかしそれに限らず、ユーザのさまざまな別の行動を利用してもよい。例えば、ユーザの手の移動や上体(身体)のひねり、等により漏れ光を一時的に遮光してもよい。この場合、全ての光センサ62−1〜60−4において、共通に、同一の時間帯に、変調信号振幅の一時的な減少が生じる。このように、全ての光センサ62−1〜60−4の変調信号振幅の変化の関連性を比較することで、ユーザの異なる行動パターンが識別可能である。   The above detection example is an example in the case of movement or swing as the user's movement. However, the present invention is not limited to this, and various other actions of the user may be used. For example, the leakage light may be temporarily blocked by moving the user's hand, twisting the upper body (body), or the like. In this case, in all the optical sensors 62-1 to 60-4, the modulation signal amplitude temporarily decreases in the same time zone. Thus, by comparing the relevance of the change in the modulation signal amplitude of all the optical sensors 62-1 to 60-4, it is possible to identify different behavior patterns of the user.

以上の方法を利用することにより、単なるユーザの行動を検出するだけでなく、ユーザの意思も認識することが可能である。   By using the above method, it is possible not only to detect the user's behavior but also to recognize the user's intention.

なお、ウェアラブル端末10の位置(x,y,z)を検出する方法として、ビーコンを用いてもよい。上述の例では、多数のウェアラブル端末10から端末識別情報が変調された光が多数の光センサ60に出射され、多数の光センサ60が受信した情報を比較処理して、ウェアラブル端末10の位置、状態を検出したが、多数の位置情報発信器をワークエリア60内に配置し、発信器から配置位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信すれば、それを受信したウェアラブル端末10は発信器の位置とほぼ同じ位置であると見なすことができる。さらに、GPSを利用してウェアラブル端末の位置を検出することもできる。位置検出は、一種類の方法のみに基づく必要は無く、複数の方法を併用すると、検出精度を向上できる。   Note that a beacon may be used as a method of detecting the position (x, y, z) of the wearable terminal 10. In the above-described example, the light whose terminal identification information is modulated is emitted from a large number of wearable terminals 10 to a large number of optical sensors 60, and the information received by the large number of optical sensors 60 is compared to determine the position of the wearable terminal 10, Although the state is detected, a large number of position information transmitters are arranged in the work area 60, and a beacon according to the arrangement position is transmitted from the transmitter by short-range wireless communication such as RF-ID having a reach distance of several meters, for example. Then, the wearable terminal 10 that has received it can be considered to be at substantially the same position as the position of the transmitter. Furthermore, the position of the wearable terminal can be detected using GPS. The position detection does not need to be based on only one type of method, and the detection accuracy can be improved by using a plurality of methods in combination.

図6は、ウェアラブル端末を使用するシステム全体の一例を示す。システムは、1又は複数のLAN102と、1つの広域ネットワーク104からなる。広域ネットワーク104は工場、ビル、企業毎のネットワークでもよいし、インターネットでもよい。LAN102は、例えば、工場の建屋、部署、ビルのフロア、企業の営業所等の単位であってもよい。各LAN102は複数のウェアラブル端末10、管理者端末202、複数の光センサ62、アクセスポイント112、複数の位置情報発信器113、複数のカメラ114等からなる。ウェアラブル端末10、管理者端末202、光センサ62、位置情報発信器113、カメラ114等は無線によりアクセスポイント112に接続される。LAN102は広域ネットワーク104を介してコミュニケーションサーバ106に接続される。位置情報発信器113は、位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信する。カメラ114は、LAN102のエリア内を撮影するものであり、その画像を解析することによっても、ユーザの行動を知ることができる。例えば、ユーザ毎の標準画像を記憶しておいて、ユーザがウェアラブル端末10を取り付ける際の画像又は取り外す際の画像と比較することにより、装着ユーザを特定できる。多数のカメラを配置できない場合は、撮影方向が可変で、一台で広範囲のユーザを撮影できるカメラ114を配置してもよい。   FIG. 6 shows an example of the entire system using a wearable terminal. The system includes one or more LANs 102 and one wide area network 104. The wide area network 104 may be a network for each factory, building, or company, or the Internet. The LAN 102 may be a unit such as a factory building, a department, a building floor, a company sales office, or the like. Each LAN 102 includes a plurality of wearable terminals 10, an administrator terminal 202, a plurality of optical sensors 62, an access point 112, a plurality of position information transmitters 113, a plurality of cameras 114, and the like. Wearable terminal 10, administrator terminal 202, optical sensor 62, position information transmitter 113, camera 114, and the like are connected to access point 112 wirelessly. The LAN 102 is connected to the communication server 106 via the wide area network 104. The position information transmitter 113 transmits a beacon according to the position by short-range wireless communication such as RF-ID having a reach distance of several meters. The camera 114 captures an area of the LAN 102, and the user's action can be known by analyzing the image. For example, the wearing user can be identified by storing a standard image for each user and comparing it with an image when the user attaches or removes the wearable terminal 10. In the case where a large number of cameras cannot be arranged, a camera 114 that can photograph a wide range of users with a single photographing direction can be arranged.

コミュニケーションサーバ106は情報検索部120、位置・情報管理部122、装着者推定部124、スケジュール管理部126等を含む。   The communication server 106 includes an information search unit 120, a position / information management unit 122, a wearer estimation unit 124, a schedule management unit 126, and the like.

位置・状態管理部122は、ウェアラブル端末10や管理者端末202の位置及び状態に関する情報を収集し、管理する。また、情報検索部120からそれらの情報を抽出する。スケジュール管理部126は、端末を装着する従業員の予定情報・出退勤記録を管理・提供するための機能を持つ。予定情報は、従業員の作業予定(何時から何時までは何処エリアにいて○○作業に従事する予定等)と、出/退勤時刻、作業記録(何時から何時までは何処エリアにいて○○作業に従事した等)を含む。また、情報検索部120からそれらの情報を抽出する。情報検索部120は、位置・状態管理部122やスケジュール管理部126の持つ情報を検索・処理するための機能を持つ。装着者推定部124は、管理している従業員の既存の特徴量データと与えられたユーザの特徴量データとの相関をとることにより、装着者が誰であるかを決定してもよい。   The position / state management unit 122 collects and manages information on the position and state of the wearable terminal 10 and the administrator terminal 202. Further, the information is extracted from the information search unit 120. The schedule management unit 126 has a function for managing and providing schedule information and attendance records of employees who wear terminals. The schedule information includes the work schedule of the employee (from what time to what time in which area he / she will be engaged in work, etc.), the time of departure / working, and the work record (from what time to what time in which area he / she is working. Etc.). Further, the information is extracted from the information search unit 120. The information search unit 120 has a function for searching and processing information held by the position / state management unit 122 and the schedule management unit 126. The wearer estimation unit 124 may determine who the wearer is by correlating existing feature data of the managed employee with the given feature data of the user.

図7は、ウェアラブル端末10の電気的な構成の一例を示す。ウェアラブル端末10は、CPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、マイク148、スピーカ54、投影処理部150(光源28、表示部30を制御する)、カメラ59、無線通信デバイス152、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、タッチパッド55、バイブレータ68、位置情報受信器159、GPSモジュール155等を備える。   FIG. 7 shows an example of the electrical configuration of the wearable terminal 10. The wearable terminal 10 includes a CPU 140, a system controller 142, a main memory 144, a storage device 146, a microphone 148, a speaker 54, a projection processing unit 150 (controlling the light source 28 and the display unit 30), a camera 59, a wireless communication device 152, a motion A sensor 154, a line-of-sight detection sensor 156, a gesture sensor 158, a touch pad 55, a vibrator 68, a position information receiver 159, a GPS module 155, and the like are provided.

CPU140は、ウェアラブル端末10内の各種モジュールの動作を制御するプロセッサであり、SSD又はフラッシュアレイ等の不揮発性の半導体メモリからなるストレージデバイス146からメインメモリ144にロードされるコンピュータプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)、および各種アプリケーションプログラムが含まれている。CPU140は、各種アプリケーションプログラムを実行し、無線通信デバイス152を使ってネットワーク経由でコミュニケーションサーバ106と通信することにより、例えば以下のような処理を行う。例えば、CPU140は、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らす等、様々の制御を行う。ステレオスピーカが必要である場合、図1、図2には図示しないが、左眼側のテンプルにもスピーカを設けてよい。   The CPU 140 is a processor that controls the operation of various modules in the wearable terminal 10, and executes a computer program loaded into the main memory 144 from the storage device 146 formed of a nonvolatile semiconductor memory such as an SSD or a flash array. These programs include an operating system (OS) and various application programs. The CPU 140 executes various application programs and communicates with the communication server 106 via the network using the wireless communication device 152, and performs the following processing, for example. For example, the CPU 140 performs various controls such as performing voice input using the microphone 148, sending voice data to the communication server 106, and generating sound from a stereo earphone or speaker 54 (not shown) connected to the earphone jack 54B. . If a stereo speaker is required, a speaker may be provided on the left eye temple, although not shown in FIGS.

システムコントローラ142は、CPU140のローカルバスと各種コンポーネントとの間を接続するデバイスである。マイク148はマイクジャック56に接続され、ユーザが発する音声又は環境音を収集する。ユーザの発する音声を音声認識すること又は環境音を分析することにより、ユーザの行動の推定ができ、ユーザを特定できる。例えば、ユーザ毎の標準音声を記憶しておいて、装着者が発生する音声と比較することにより、装着ユーザを特定できる。また、環境音を分析することにより、装着者が位置する作業場所を特定することができ、ユーザの行動予定表から当該場所にいる筈のユーザを絞り込むことができる。スピーカ54はユーザの注意を喚起するアラーム等を出力する。投影処理部150は、表示部30に画像信号を出力し、光源28を点灯することにより、スクリーン16に表示部30の画像を投影する。この画像は静止画のみならず、動画も含むことができる。無線通信デバイス152は、例えば無線LAN機能を有し、ウェアラブル端末10とアクセスポイント112とを無線で接続する。   The system controller 142 is a device that connects between the local bus of the CPU 140 and various components. The microphone 148 is connected to the microphone jack 56 and collects voice or environmental sound emitted by the user. By recognizing the voice uttered by the user or analyzing the environmental sound, the user's behavior can be estimated and the user can be identified. For example, the wearing user can be specified by storing the standard voice for each user and comparing it with the voice generated by the wearer. Further, by analyzing the environmental sound, it is possible to identify the work place where the wearer is located, and to narrow down the users who are in the place from the user's action schedule. The speaker 54 outputs an alarm for alerting the user. The projection processing unit 150 outputs an image signal to the display unit 30 and lights the light source 28 to project the image of the display unit 30 on the screen 16. This image can include not only still images but also moving images. The wireless communication device 152 has a wireless LAN function, for example, and connects the wearable terminal 10 and the access point 112 wirelessly.

モーションセンサ154は、3軸加速度、3軸ジャイロ、3軸地磁気センサを統合したセンサであり、ウェアラブル端末10を使用するユーザの頭の動きを検出でき、その結果、顔が向いている方角を判別する。視線検出センサ156は、メガネのフレーム中心の内側にユーザの顔に向けて設けられ、ユーザの眼球を撮影し、視線の動きを検出する。さらに、視線検出センサ156は、ユーザの虹彩を検出可能としてもよい。ジェスチャセンサ158は、指の動きによるジェスチャを判別するセンサである。具体的には、投影装置12に設けられたタッチパッド55上の指の動きや、カメラ59の画像を解析すること等により、ユーザのジェスチャを判別するセンサの総称である。バイブレータ68は、投影装置12を振動させることによりウェアラブル端末10のテンプルを振動させ、ユーザに何かの情報を伝える。位置情報受信器159は、LAN102のエリア内に複数配置された位置情報発信器113からRF−ID等の近距離無線通信を利用して発信される位置情報を含むビーコンを受信する。近距離無線通信なので、発信器と受信器(ウェアラブル端末)との位置はほぼ同じと見做すことができる。GPSモジュール155は、ウェアラブル端末10の位置(x,y,z)を検出する。この検出結果と、位置情報受信器159の検出結果と、図3の光センサ62の検出結果を総合することにより、より正確にユーザの位置、その変化を検出できる。   The motion sensor 154 is a sensor that integrates a three-axis acceleration, a three-axis gyro, and a three-axis geomagnetic sensor. The motion sensor 154 can detect the movement of the head of the user who uses the wearable terminal 10, and as a result, determines the direction in which the face is facing. To do. The line-of-sight detection sensor 156 is provided toward the user's face inside the center of the frame of the glasses, photographs the user's eyeball, and detects the movement of the line of sight. Further, the line-of-sight detection sensor 156 may be capable of detecting the user's iris. The gesture sensor 158 is a sensor that determines a gesture caused by finger movement. Specifically, it is a generic term for sensors that determine a user's gesture by analyzing the movement of a finger on the touch pad 55 provided on the projection device 12 or an image of the camera 59. The vibrator 68 vibrates the temple of the wearable terminal 10 by vibrating the projection device 12, and conveys some information to the user. The position information receiver 159 receives a beacon including position information transmitted from a plurality of position information transmitters 113 arranged in the area of the LAN 102 using near field communication such as RF-ID. Since it is short-range wireless communication, the position of the transmitter and the receiver (wearable terminal) can be regarded as almost the same. The GPS module 155 detects the position (x, y, z) of the wearable terminal 10. By combining this detection result, the detection result of the position information receiver 159, and the detection result of the optical sensor 62 in FIG. 3, the position of the user and its change can be detected more accurately.

次に、このように構成されたウェアラブル端末10、コミュニケーションサーバ106によるウェアラブル端末のユーザが誰であるかの決定を説明する。ここでは、ウェアラブル端末10の使用環境は、多数の作業対象があり、多数の作業工程からなり、多数の作業者が関与する作業現場を想定する。作業者を監督する管理者が所定のエリア、例えばLAN102のエリア毎に配置され、管理者は管理者端末202を使用するとする。管理者端末202は、ウェアラブル端末10と同じ構成でもよいが、管理者は移動する必要が無いので、通常のパソコンやタブレットと同じ構成で良く、管理者端末202の詳細な説明は省略する。作業現場に居る作業者全員がウェアラブル端末10を装着する必要は無い。そのため、ウェアラブル端末10は作業者全員分用意しておく必要は無く、所定個数のみ用意しておき、必要な作業者が空いている共有ウェアラブル端末を装着する。システムは、装着の際、ユーザを特定する必要がある。この理由は、特定のユーザに対して、スクリーン16の投影像、スピーカ54からの音、バイブレータ68の振動等により、何かを通知するため、又はウェアラブル端末10の装着状況に基づき作業者の作業行動を管理するため等である。   Next, determination of who is the wearable terminal user by the wearable terminal 10 and the communication server 106 configured as described above will be described. Here, the usage environment of the wearable terminal 10 is assumed to be a work site where there are a large number of work objects, a large number of work processes, and a large number of workers are involved. Assume that an administrator who supervises the worker is arranged in a predetermined area, for example, each area of the LAN 102, and the administrator uses the administrator terminal 202. The administrator terminal 202 may have the same configuration as the wearable terminal 10, but since the administrator does not need to move, the administrator terminal 202 may have the same configuration as a normal personal computer or tablet, and detailed description of the administrator terminal 202 is omitted. It is not necessary for all workers at the work site to wear the wearable terminal 10. Therefore, it is not necessary to prepare all the wearable terminals 10 for all the workers, and only a predetermined number is prepared, and a shared wearable terminal in which a necessary worker is available is attached. The system needs to identify the user when wearing. The reason for this is to notify a specific user of something by the projected image of the screen 16, sound from the speaker 54, vibration of the vibrator 68, or the like, or based on the wearing state of the wearable terminal 10. For managing behavior.

図8はウェアラブル端末10の処理、図9はコミュニケーションサーバ106の処理の流れを示すフローチャートである。   FIG. 8 is a flowchart showing the process of the wearable terminal 10, and FIG. 9 is a flowchart showing the process flow of the communication server 106.

ウェアラブル端末10では、CPU140は、ブロックB12で、電源オンしているか否かを判定する。オンしている場合、CPU140は、ブロックB14で、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158のうちのいずれか1又は複数の出力を収集する。CPU140は、ブロックB16で、内蔵のカメラ59及び/又はマイク148の出力も収集する。   In the wearable terminal 10, the CPU 140 determines whether the power is turned on in block B12. When it is on, the CPU 140 collects one or more outputs of the motion sensor 154, the line-of-sight detection sensor 156, and the gesture sensor 158 in block B14. The CPU 140 also collects the output of the built-in camera 59 and / or microphone 148 in block B16.

CPU140は、ブロックB20で、これらの出力を演算処理して、ウェアラブル端末10の動き、言い換えるとウェアラブル端末10を所持しているユーザの行動を示す特徴量を計算する。特徴量は、例えば、モーションセンサ154から得られる加速度や角速度のある時間内の時系列データから計算した周波数成分である。得られた周波数成分において、推定したい処理に重要な成分が強調等の様々な信号処理を施されてもよい。推定処理では、ある時間分の特徴量を纏めた時系列データが解析に用いられる。モーションセンサ154の出力に基づき、ユーザの手の動きを表す特徴量が計算できる。視線検出センサ156の出力に基づき、ユーザの視線の動きを表す特徴量が計算できる。ジェスチャセンサ158の出力に基づき、ユーザの手の動きを表す特徴量が計算できる。内蔵カメラ59が撮影した画像を分析することにより、ユーザの顔を含む体の動きを表す特徴量が計算できる。同様に、マイク148が集音した環境音を認識することによっても、ユーザの動きを表す特徴量が計算できる。例えば、ウェアラブル端末10を顔にかける際又は顔から取り外す際のテンプルと皮膚又は頭髪との摩擦音に基づき、ウェアラブル端末の装着状況を知ることができる。さらに、マイク148が集音したユーザが発する音声を認識することによって、ユーザを特定することもできる。なお、特徴量の計算のためには、必ずしもこれらの全ての出力が必要であるという訳ではなく、計算に使用する信号は適宜選択可能である。   In block B20, the CPU 140 performs an arithmetic process on these outputs, and calculates a feature amount indicating the movement of the wearable terminal 10, in other words, the behavior of the user carrying the wearable terminal 10. The feature amount is, for example, a frequency component calculated from time-series data within a certain time with acceleration and angular velocity obtained from the motion sensor 154. In the obtained frequency component, a component important for processing to be estimated may be subjected to various signal processing such as enhancement. In the estimation process, time-series data in which feature amounts for a certain time are collected is used for analysis. Based on the output of the motion sensor 154, a feature amount representing the movement of the user's hand can be calculated. Based on the output of the line-of-sight detection sensor 156, a feature amount representing the movement of the user's line of sight can be calculated. Based on the output of the gesture sensor 158, a feature value representing the movement of the user's hand can be calculated. By analyzing the image captured by the built-in camera 59, a feature value representing the movement of the body including the user's face can be calculated. Similarly, by recognizing the environmental sound collected by the microphone 148, the feature amount representing the user's movement can be calculated. For example, it is possible to know the wearing state of the wearable terminal based on the friction sound between the temple and the skin or the hair when the wearable terminal 10 is put on the face or removed from the face. Furthermore, the user can be specified by recognizing the voice uttered by the user collected by the microphone 148. Note that all of these outputs are not necessarily required for the calculation of the feature amount, and signals used for the calculation can be selected as appropriate.

このように、ウェアラブル端末10は電源がオンしている限り、ウェアラブル端末10の動き、言い換えるとウェアラブル端末10を所持しているユーザの行動を示す特徴量を常時計算している。ウェアラブル端末10を顔にかける際又は顔から取り外す際、すなわち着脱の際は、ユーザの行動に個人個人の癖が出やすい。従って、着脱開始が検出されてから一定期間又は一定個数の特徴量に基づいて、ユーザを特定する。   As described above, as long as the power is turned on, the wearable terminal 10 constantly calculates a feature amount indicating the movement of the wearable terminal 10, in other words, the action of the user who owns the wearable terminal 10. When the wearable terminal 10 is put on the face or removed from the face, that is, when the wearable terminal 10 is attached / detached, an individual's habit is likely to appear in the user's behavior. Therefore, the user is specified based on a certain period or a certain number of feature amounts after the start of attachment / detachment is detected.

CPU140は、ブロックB22で、計算した特徴量が、予め求められて記憶している着脱時の特徴量と相関が高いか否かを判定する。否の場合、ブロックB12の判定処理が再び実行される。相関が高いと判定されると、ユーザを特定するための一定時間のウィンドウ処理が開始される。ここでは、一定時間内に複数回、特徴量が計算され、複数の特徴量に基づいてユーザが特定されるようになっているが、一定時間のウィンドウ処理ではなく、所定個数の特徴量が計算されるまでの可変時間のウィンドウ処理でもよい。   In block B <b> 22, the CPU 140 determines whether or not the calculated feature value has a high correlation with the feature value at the time of attachment / removal obtained and stored in advance. If not, the determination process of block B12 is executed again. When it is determined that the correlation is high, a window process for a certain period of time for specifying the user is started. Here, feature quantities are calculated multiple times within a certain time, and a user is specified based on the plurality of feature quantities. However, a predetermined number of feature quantities are calculated instead of window processing for a certain period of time. It may be a window processing of variable time until it is done.

CPU140は、ブロックB24で、ブロックB14、B16、B20と同様に、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、内蔵のカメラ59、マイク148のうちのいずれか1又は複数の出力を収集し、予め定められた演算によりユーザの行動を表す特徴量を1つ計算する。CPU140は、ブロックB26で、この1つの特徴量を蓄積する。CPU140は、ブロックB28で、ブロックB24の開始から一定時間が経過したか否かを判定する。否の場合、ブロックB24のデータ収集・特徴量計算処理が再び実行され、特徴量が次々と蓄積される。   In block B24, the CPU 140 collects one or more outputs of the motion sensor 154, the line-of-sight detection sensor 156, the gesture sensor 158, the built-in camera 59, and the microphone 148 in the same manner as the blocks B14, B16, and B20. Then, one feature amount representing the user's behavior is calculated by a predetermined calculation. The CPU 140 accumulates this one feature amount in block B26. In block B28, the CPU 140 determines whether or not a predetermined time has elapsed from the start of block B24. If NO, the data collection / feature amount calculation process of block B24 is executed again, and the feature amounts are accumulated one after another.

一定時間が経過すると、CPU140は、ブロックB32で、ブロックB22で判断された着脱時の特徴量及びブロックB26で蓄積された複数の特徴量とをコミュニケーションサーバ102へ送信する。   When the predetermined time has elapsed, the CPU 140 transmits to the communication server 102 the feature value at the time of attachment / detachment determined in block B22 and the plurality of feature values accumulated in block B26 in block B32.

コミュニケーションサーバ106では、図9に示すように、位置・状態管理部122が、ブロックB44で多数の光センサ62の出力を受信して、多数のウェアラブル端末10の位置、状態を検出し、表1に示すような位置・状態管理表に書き込む。位置・状態管理表は端末ID、日時、位置、状態、特徴量、ユーザIDの項目を有する。ブロックB44では、端末ID、日時、位置のみが書き込まれる。ブロックB44が繰り返される毎に、時刻が更新され、それに応じて位置・状態管理表が更新される。

Figure 0006445118
In the communication server 106, as shown in FIG. 9, the position / state management unit 122 receives the outputs of a large number of optical sensors 62 in block B44, detects the positions and states of a large number of wearable terminals 10, and Table 1 Write to the position / state management table as shown in. The position / state management table includes items of terminal ID, date and time, position, state, feature amount, and user ID. In block B44, only the terminal ID, date / time, and position are written. Each time block B44 is repeated, the time is updated, and the position / state management table is updated accordingly.
Figure 0006445118

情報検索部120は、ブロックB32でいずれかのウェアラブル端末10から送信された特徴量を受信することをブロックB46で待つ。ウェアラブル端末10からの特徴量を受信するまで、ブロックB44の処理が再び実行される。受信した場合、情報検索部120は、受信した特徴量を位置・状態管理表に書き込む。ここでは、端末ID=02のウェアラブル端末から特徴量が送信されたとする。端末ID=02のウェアラブル端末の特徴量が書き込まれた段階の位置・状態管理表を表2に示す。

Figure 0006445118
The information search unit 120 waits in block B46 to receive the feature amount transmitted from any of the wearable terminals 10 in block B32. Until the feature value from the wearable terminal 10 is received, the process of block B44 is executed again. When the information is received, the information search unit 120 writes the received feature amount in the position / state management table. Here, it is assumed that the feature amount is transmitted from the wearable terminal with terminal ID = 02. Table 2 shows a position / state management table at the stage where the feature amount of the wearable terminal with terminal ID = 02 is written.
Figure 0006445118

位置・状態管理部122は、ブロックB48で、エリア内のいくつかのカメラ114のなかの端末ID=02のウェアラブル端末の位置(X1,Y1)を撮影対象に含むカメラ114の出力画像を入力し、画像を解析する。この解析により、位置(X1,Y1)付近のユーザの有無が分かる。光センサ62の出力からユーザの位置(X1,Y1)が検出されたにも関わらず画像からはユーザが居ないと判断された場合、光センサ62による検出結果はエラーであると判定できる。このようなエラーが発見された場合、位置・状態管理部122は、対応する位置情報を不定に変更する。このように複数のセンサの出力を総合してウェアラブル端末の位置を検出するので、精度が向上する。   In block B48, the position / state management unit 122 inputs the output image of the camera 114 including the position (X1, Y1) of the wearable terminal with the terminal ID = 02 among the several cameras 114 in the area as the subject of photographing. , Analyze the image. By this analysis, the presence or absence of a user near the position (X1, Y1) can be known. When it is determined from the image that the user is not present despite the user position (X1, Y1) being detected from the output of the optical sensor 62, the detection result by the optical sensor 62 can be determined to be an error. When such an error is found, the position / state management unit 122 changes the corresponding position information indefinitely. Thus, since the position of the wearable terminal is detected by combining the outputs of the plurality of sensors, the accuracy is improved.

情報検索部120は、ブロックB52で、位置・状態管理部122内の位置・状態管理表から、表3に示すような、未装着の状態を持つユーザの一覧である未装着者リストを生成し、そのリストとブロックB46で受信した特徴量とを装着者推定部124へ送る。どのウェアラブル端末の状態も未確定の初期状態では全てのユーザが未装着とされる。

Figure 0006445118
In block B52, the information search unit 120 generates a non-wearer list, which is a list of users who have no wear state, as shown in Table 3, from the position / state management table in the position / state management unit 122. The list and the feature quantity received in block B46 are sent to the wearer estimation unit 124. All wearable terminals are not worn by all users in an undefined initial state.
Figure 0006445118

情報検索部120は、ブロックB54で、スケジュール管理部126から表4に示すようなユーザ別スケジュール表を読み出して、これを参照して、出勤していない作業者又は他の場所の作業に従事する筈でありこの場所に居る筈のない作業者等を特定し、表4に示すように、そのような作業者の状態を不在に変更する。

Figure 0006445118
In block B54, the information search unit 120 reads out the user-specific schedule table as shown in Table 4 from the schedule management unit 126, and refers to this to engage in work of workers who are not working or other places. A worker who is a bag and has no bag in this place is identified, and as shown in Table 4, the state of such a worker is changed to absent.
Figure 0006445118

これにより、未装着者リストを絞り込むことができるので、後段の相関演算の演算量が減るとともに、演算時間が短縮される。さらに、装着・未装着の判定の精度も向上する。   As a result, the list of non-wearing users can be narrowed down, so that the amount of subsequent correlation calculation is reduced and the calculation time is shortened. Furthermore, the accuracy of mounting / non-mounting determination is improved.

装着者推定部124は、ブロックB46で受信した特徴量と未装着者リストに基づき、受信した特徴量が未装着のユーザの中でどのユーザの着脱時の標準特徴量に最も相関が高いかを調べ、装着者候補を抽出する。抽出する候補者の数は、一人に限らず、複数人でもよい。全作業者のウェアラブル端末の着脱時の標準特徴量が予め調べられ、表5に示すようなユーザ別標準特徴量表が装着者推定部124に記憶されている。標準特徴量は、全作業者にウェアラブル端末を付けたり、外したりしてもらい、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、内蔵のカメラ59、マイク148のうちのいずれか1又は複数の出力に対して、ウェアラブル端末のCPU140がブロックB24で実行する演算と同じ演算を施して求める。

Figure 0006445118
The wearer estimation unit 124 determines, based on the feature amount received in block B46 and the unmounted wearer list, which of the unattached users has the highest correlation with the standard feature amount at the time of attachment / detachment of the user. Examine and extract wearer candidates. The number of candidates to be extracted is not limited to one, but may be multiple. Standard feature values of all workers when the wearable terminal is attached / detached are checked in advance, and a standard feature table for each user as shown in Table 5 is stored in the wearer estimation unit 124. The standard feature amount is obtained by attaching or removing the wearable terminal to all workers, and one or more of the motion sensor 154, the gaze detection sensor 156, the gesture sensor 158, the built-in camera 59, and the microphone 148. The output is obtained by performing the same operation as the operation executed in block B24 by the CPU 140 of the wearable terminal.
Figure 0006445118

相関演算は全てのユーザが対象ではなく、装着していないと判断されているユーザに限定されているので、短時間に、しかも精度良くユーザを特定できる。装着者推定部124は、ブロックB58で、特徴量を送信した端末ID=02のウェアラブル端末10へ特定結果を候補として送信する。   Since the correlation calculation is not intended for all users and is limited to users who are determined not to be worn, the user can be specified with high accuracy in a short time. In block B58, the wearer estimation unit 124 transmits the specific result as a candidate to the wearable terminal 10 having the terminal ID = 02 that transmitted the feature amount.

端末ID=02のウェアラブル端末10では、図8に示すように、CPU140は、ブロックB34でコミュニケーションンサーバ106から候補を受信したか否か判定する。候補を受信した場合、CPU140は、ブロックB36で、候補を表示部30で表示し、光源28を発光し、候補をスクリーン16に表示する。例えば、表示例は「貴方は○○さんですね?」のようにユーザに確認を求めるような表示でもよい。これに対して、ブロックB38に示すように、ユーザは
ハイ/イイエの決定をする。決定操作の具体例は、顔を「縦/横」に振る、「はい/いいえ」をマイク148から入力する、タッチパッド55を1回(ハイ)/2回(イイエ)タッチ/タップする、1本指(ハイ)/2本指(イイエ)でタッチする、指のジェスチャ操作等がある。ジェスチャ操作はカメラ59で撮影された画像の解析により認識することもできる。候補が複数の場合、「貴方は(1)AAさんですか、(2)BBさんですか、(3)CCさんですか?」のような表示が行われ、選択操作が行われる。選択操作は、顔を選択肢に応じた回数だけ振る、選択肢の数字をマイク148から入力する、タッチパッド55を選択肢に応じた回数だけタッチ/タップする、タッチパッド55を選択肢に応じた本数の指でタッチする、指のジェスチャ操作等がある。決定操作の処理結果は、ウェアラブル端末10からコミュニケーションサーバ106へ送信される。
In wearable terminal 10 with terminal ID = 02, as shown in FIG. 8, CPU 140 determines whether a candidate has been received from communication server 106 in block B <b> 34. When the candidate is received, the CPU 140 displays the candidate on the display unit 30, emits the light source 28, and displays the candidate on the screen 16 in block B <b> 36. For example, the display example may be a display requesting confirmation from the user such as “You are Mr. XX?”. On the other hand, as shown in block B38, the user makes a high / no decision. Specific examples of the determination operation include shaking the face “vertically / horizontally”, inputting “yes / no” from the microphone 148, touching / tapping the touch pad 55 once (high) / 2 times (no), 1 There are finger gesture operations such as touching with two fingers (high) / two fingers (no). The gesture operation can also be recognized by analyzing an image taken by the camera 59. When there are a plurality of candidates, a display such as “Are you (1) AA, (2) BB, or (3) CC?” Is performed and a selection operation is performed. For the selection operation, the face is shaken as many times as there are choices, the number of choices is input from the microphone 148, the touchpad 55 is touched / tapped as many times as there are choices, and the number of fingers corresponding to the choices is selected. Touch with, finger gesture operation etc. The processing result of the determination operation is transmitted from the wearable terminal 10 to the communication server 106.

ウェアラブル端末10では、決定操作がなされた後、終了でなければ、ブロックB12の処理が繰り返される。   In the wearable terminal 10, after the determination operation is performed, if not finished, the process of block B <b> 12 is repeated.

図9に示すように、コミュニケーションサーバ106では、装着者推定部124は、ブロックB62で、ウェアラブル端末10から決定操作の処理結果が送信されたか否かを判定する。処理結果を受信すると、ブロックB64で、状態管理部122は、表6に示すように、位置・状態管理表に端末ID=02のウェアラブル端末の装着者のユーザIDを書き込み、位置・状態管理表を更新する。

Figure 0006445118
As illustrated in FIG. 9, in the communication server 106, the wearer estimation unit 124 determines whether or not the processing result of the determination operation is transmitted from the wearable terminal 10 in block B <b> 62. When the processing result is received, in block B64, as shown in Table 6, the state management unit 122 writes the wearer's user ID of the wearable terminal with the terminal ID = 02, in the position / state management table, and the position / state management table Update.
Figure 0006445118

コミュニケーションサーバ106は、上述の処理を繰り返し実行する。   The communication server 106 repeatedly executes the above process.

このように実施形態は、ウェアラブル端末10の動作を表す特徴量と各ユーザの装着時の標準特徴量との相関を計算してウェアラブル端末を使用するユーザを特定する際、既に装着されていると判定されたユーザは除いて未装着ユーザの特徴量との相関のみを計算する。このため、相関を求める計算量が少なくなり、計算時間が短くなるとともに、ユーザ特定の精度が向上する。   As described above, when the user who uses the wearable terminal is identified by calculating the correlation between the feature amount representing the operation of the wearable terminal 10 and the standard feature amount at the time of wearing of each user, Excluding the determined user, only the correlation with the feature amount of the non-wearing user is calculated. For this reason, the amount of calculation for obtaining the correlation is reduced, the calculation time is shortened, and the accuracy specified by the user is improved.

実施形態では、多数種類のセンサ、カメラ、マイクの出力に基づいて特徴量を求めているが、これら全てを使用する必要は無く、状況に応じていずれか1又は複数を適宜選択可能である。取り付けの際のみならず取り外しの際もユーザ特定処理を行っているが、取り付けの際だけでもよい。ユーザ特定のためのウィンドウ処理は一定時間でも一定数の特徴量が得られるまでのいずれでもよい。   In the embodiment, the feature amounts are obtained based on outputs of a large number of types of sensors, cameras, and microphones. However, it is not necessary to use all of them, and any one or a plurality can be selected as appropriate according to the situation. Although the user specifying process is performed not only at the time of attachment but also at the time of removal, it may be performed only at the time of attachment. The window processing for user identification may be performed for a certain period of time until a certain number of feature quantities are obtained.

推定のための特徴量はウェアラブル端末で求め、その相関演算はサーバ側で行ったが、ウェアラブル端末で相関演算まで行い、サーバを不要としてもよい。   The feature quantity for estimation is obtained by the wearable terminal and the correlation calculation is performed on the server side. However, the correlation calculation is performed by the wearable terminal, and the server may be unnecessary.

図10は他の実施形態のシステム全体の一例を示す。LAN102は図6の構成に加えて、作業者が作業する装置115もアクセスポイント112を経由してネットワーク104に接続されている。装置115は、何でもよいが、ここでは、定期的に点検、保守が必要であり、時々故障する可能性があり作業者が復旧対応する製造設備とする。   FIG. 10 shows an example of the entire system according to another embodiment. In addition to the configuration of FIG. 6, the LAN 102 is also connected to a network 104 via an access point 112 for a device 115 on which an operator works. The apparatus 115 may be anything, but here, it is a manufacturing facility that requires periodic inspection and maintenance, and may occasionally break down, and the worker can recover.

コミュニケーションサーバ106は図6の構成に加えて、音声コマンド処理部128、通話処理部130等を含む。   The communication server 106 includes a voice command processing unit 128, a call processing unit 130, and the like in addition to the configuration of FIG.

音声コマンド処理部128は、ユーザが発した音声をコミュニケーションサーバ106上で対応するサービスを実行するための命令に変換する。音声コマンド処理部128に対する入力データとしては、マイクから収集された音声データそのものである場合や、入力音声の音声認識後のテキストデータである場合等があり、この点については特に限定しない。通話処理部130は、端末間のインスタントメッセージング機能や音声による通話機能を実現するためのホスト機能を持つ。   The voice command processing unit 128 converts the voice uttered by the user into a command for executing a corresponding service on the communication server 106. The input data to the voice command processing unit 128 may be voice data itself collected from a microphone or text data after voice recognition of input voice, and this point is not particularly limited. The call processing unit 130 has a host function for realizing an instant messaging function and a voice call function between terminals.

ウェアラブル端末10の電気的な構成は図7と同じであるので、図示は省略するが、CPU140は、図7で説明した処理に加えて、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106の音声コマンド処理部128へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らしたり、コミュニケーションサーバ106の音声コマンド処理部128の処理結果に基づき電子マニュアルをストレージデバイス146にダウンロードし、メインメモリ144上にその一部を展開しながら、表示部30上に表示され、スクリーン16に投影される画像イメージを生成する等、様々の制御を行うことも可能である。   Since the electrical configuration of wearable terminal 10 is the same as in FIG. 7, illustration is omitted, but in addition to the processing described in FIG. 7, CPU 140 performs voice input using microphone 148 to communicate voice data. An electronic manual is stored based on the processing result of the voice command processing unit 128 of the communication server 106, sent to the voice command processing unit 128 of the server 106, sounded from a stereo earphone or speaker 54 (not shown) connected to the earphone jack 54 B It is also possible to perform various controls such as downloading to the device 146 and generating an image image displayed on the display unit 30 and projected onto the screen 16 while expanding a part thereof on the main memory 144. .

図10のシステムの使用例を説明する。このシステムはコミュニケーションサーバ106を有し、ウェアラブル端末のユーザ間、あるいはウェアラブル端末のユーザと管理者間等のコミュニケーション機能、例えばインスタントメッセージング機能を備えている。通常のインスタントメッセージング機能では、通話を開始したい人が通話開始要求を発すると、通話したい相手の端末の画面に通話開始画面が表示される。しかし、故障した装置115の復旧作業を行っている作業者のウェアラブル端末のスクリーン16に通話開始画面が突然表示されると、作業者の視界を奪う可能性があり、作業者が危険に晒される可能性がある。さらに、作業者が通話している間、復旧作業の中断が余儀なくされ、装置115の復旧に時間が係り、装置115の稼働率が低下する等の好ましくない事態も生じる。そこで、この実施形態では、作業を行っている作業者のウェアラブル端末の画面に情報を突然表示することを避けて作業者の視界を遮ることなく、効率的な通知を行う。具体的には、通知をしたい作業者のウェアラブル端末で通話開始の通知音が発生され、作業者がそれに対して肯定的に応答した場合に初めて通話開始画面が作業者のウェアラブル端末のスクリーンに表示される。通知音はイヤホンジャック54Bに接続される図示しないステレオイヤホンから発生される。通知音は単なる音であるが、例えば、右上、左横等の3次元空間上の発生位置を制御可能であり、通知する状況に応じて発生位置が決められている。このため、作業者は単なる音の発生位置に基づいて通知の内容を認識することができるので、作業中でも集中が途切れることなく、通知を受けることができる。もしも、通知音ではなく、メッセージ音声を作業者に聞かせると、作業者はメッセージに気を取られ、作業が中断又は装置115に手を挟まれる等の危険な状態になるおそれがある。   An example of use of the system of FIG. 10 will be described. This system includes a communication server 106, and has a communication function such as an instant messaging function between users of wearable terminals or between a user of wearable terminals and an administrator. In a normal instant messaging function, when a person who wants to start a call issues a call start request, a call start screen is displayed on the screen of the terminal of the other party who wants to call. However, if the call start screen is suddenly displayed on the screen 16 of the wearable terminal of the worker who is performing the recovery work of the failed device 115, the worker's view may be lost, and the worker is exposed to danger. there is a possibility. Furthermore, while the operator is on the phone, the restoration work is forced to be interrupted, and it takes time for the device 115 to recover, resulting in an undesirable situation such as a reduction in the operating rate of the device 115. Therefore, in this embodiment, efficient notification is performed without obstructing the worker's view by avoiding sudden display of information on the screen of the wearable terminal of the worker who is performing the work. Specifically, a call start notification sound is generated on the wearable terminal of the worker who wants to be notified, and the call start screen is displayed on the screen of the wearable terminal of the worker only when the worker responds positively to it. Is done. The notification sound is generated from a stereo earphone (not shown) connected to the earphone jack 54B. Although the notification sound is a simple sound, for example, the generation position in the three-dimensional space such as the upper right and the left side can be controlled, and the generation position is determined according to the notification situation. For this reason, since the worker can recognize the content of the notification based on the mere sound generation position, the worker can receive the notification without interruption of concentration even during the work. If the worker hears the message sound instead of the notification sound, the worker may be distracted by the message, and there is a risk that the operation will be interrupted or the hand may be caught in the device 115.

図11は、管理者が作業者に対して通話をしたい場合の管理者端末202、コミュニケーションサーバ106、ウェアラブル端末10の各処理の流れを示すフローチャートである。   FIG. 11 is a flowchart showing the flow of each process of the administrator terminal 202, the communication server 106, and the wearable terminal 10 when the administrator wants to talk to the worker.

管理者は、管理者端末202において、ブロックB102で、インスタントメッセージングアプリケーションを起動し、ブロックB104で、作業者Xとの通話を要求する。   In the administrator terminal 202, the administrator activates the instant messaging application in block B102, and requests a call with the worker X in block B104.

コミュニケーションサーバ106では、通話処理部130が、ブロックB112で、通話要求を受信する。ここでも、コミュニケーションサーバ106は、図9に示すように、光センサ62の出力を常時受信して、ウェアラブル端末10の位置・状態をリアルタイムで管理している。さらに、コミュニケーションサーバ106は、管理者端末202の位置も管理している。このため、管理者端末202はGPS機能を有し、緯度、経度、高度を検出可能に構成されてもよい。通話処理部130は、ブロックB114で、位置・状態管理部122から管理者端末202とユーザXのウェアラブル端末の位置・状態を検出する。通話処理部130は、ブロックB116で、ユーザXのウェアラブル端末へ通話要求を送信するともに、管理者端末の位置情報も送信する。   In the communication server 106, the call processing unit 130 receives a call request in block B112. Here, as shown in FIG. 9, the communication server 106 always receives the output of the optical sensor 62 and manages the position / state of the wearable terminal 10 in real time. Furthermore, the communication server 106 also manages the position of the administrator terminal 202. For this reason, the administrator terminal 202 may have a GPS function and be configured to be able to detect latitude, longitude, and altitude. In block B114, the call processing unit 130 detects the positions and states of the administrator terminal 202 and the wearable terminal of the user X from the position / state management unit 122. In block B116, the call processing unit 130 transmits a call request to the wearable terminal of the user X and also transmits location information of the administrator terminal.

ユーザXのウェアラブル端末では、ブロックB122で、通話要求が着信されると、ブロックB124で、CPU140は、モーションセンサ154等の出力に基づいて作業者の顔の向きを検出する。CPU140は、ブロックB126で、管理者の位置(緯度、経度、高度)、ユーザXの顔の向きに基づいて、ステレオイヤホンを用いて発生させる通知音の立体音響として再現する空間上の位置を計算する。ここでは、着信者(ユーザX)から発信者(管理者)の実際の方角に対する位置に対して通知音が発生するように空間上の位置を計算する。ブロックB128で、CPU140は、通知音の音量を決定する。音量は、発信者と着信者との距離によって決めてもよいし、着信者にとっての発信者がどのような相手かを判別するインスタントメッセージングアプリケーション上の設定によって決めてもよい。   In the wearable terminal of the user X, when a call request is received at block B122, the CPU 140 detects the orientation of the operator's face based on the output of the motion sensor 154 or the like at block B124. In block B126, the CPU 140 calculates a position on the space to be reproduced as the stereophonic sound of the notification sound generated using the stereo earphone based on the position (latitude, longitude, altitude) of the administrator and the face orientation of the user X. To do. Here, the position in space is calculated so that a notification sound is generated from the callee (user X) to the position of the caller (manager) in the actual direction. In block B128, the CPU 140 determines the volume of the notification sound. The volume may be determined by the distance between the caller and the callee, or may be determined by a setting on the instant messaging application that determines what the caller is for the caller.

これ以降の処理は、発信者が通話処理をキャンセルするか通話処理を行うまで繰り返される。CPU140は、ブロックB132で、管理者が通話処理をキャンセルするか否か判定する。否の場合、CPU140は、ブロックB134で、通知音をステレオイヤホンから発生させる。スピーカ54がステレオスピーカである場合は、スピーカ54から発生させてもよい。   The subsequent processing is repeated until the caller cancels the call processing or performs the call processing. In block B132, the CPU 140 determines whether or not the administrator cancels the call processing. If not, the CPU 140 generates a notification sound from the stereo earphone at block B134. When the speaker 54 is a stereo speaker, it may be generated from the speaker 54.

作業者は管理者の位置を知っているので、その方角から通知音が聞こえた場合、管理者が自分に通知を出したいことを知る。作業者は、作業を中断できる状況又は通知に応答しても危険ではない状況等を勘案して、通知に応答するか否か判断する。応答できる場合、作業者は管理者の方に顔を向ける又は視線を合わせることが定められている。このように、顔の動きだけで応答できるので、手を休めることなく作業を継続したまま、通知に対して容易に対応することができる。   Since the worker knows the position of the manager, when the notification sound is heard from the direction, the manager knows that he / she wants to give a notice to himself / herself. The worker determines whether to respond to the notification in consideration of a situation where the work can be interrupted or a situation where it is not dangerous to respond to the notification. If it is possible to respond, the operator is required to turn his face or look at the manager. Thus, since it can respond only by the movement of the face, it can respond easily to the notification while continuing the work without resting hands.

CPU140は、ブロックB136で、モーションセンサ154の出力に基づいて作業者の顔の向きを検出し、ブロックB138で、作業者の顔が管理者に向いているか否かを判定する。向いている場合、ブロックB146で、通話開始のためのユーザインターフェースをスクリーン16に投影する。   In block B136, the CPU 140 detects the orientation of the operator's face based on the output of the motion sensor 154, and in block B138, determines whether the operator's face is facing the administrator. If so, a user interface for initiating a call is projected onto the screen 16 at block B146.

ブロックB138で、作業者の顔が管理者の位置に向いていないと判定された場合、CPU140は、ブロックB142で、視線検出センサ156の出力に基づいて作業者の視線の向きを検出し、ブロックB144で、作業者の視線が管理者に向いているか否かを判定する。向いている場合、ブロックB146で、通話開始のためのユーザインターフェースをスクリーン16に投影する。   If it is determined in block B138 that the operator's face is not facing the manager's position, the CPU 140 detects the direction of the operator's line of sight based on the output of the line-of-sight detection sensor 156 in block B142, and the block In B144, it is determined whether or not the operator's line of sight faces the manager. If so, a user interface for initiating a call is projected onto the screen 16 at block B146.

このように、作業を行っている作業者のウェアラブル端末のスクリーン16に通話開始画面が突然表示されるのではなく、その前に、作業者に通話要求があったことを音により知らせ、作業者が通話を開始できると判断し、何らかの応答操作を行った場合のみ、スクリーン16に通話開始画面が表示される。このため、作業者の視界が突然奪われることがなく、作業者が危険に晒されることや作業が中断されることがない。なお、通知音に対する作業者の応答操作は、図11に示す顔又は視線の向きによらず、顔及び視線の向きによってもよいし、第1実施形態の装着者候補の問い合わせに対する応答と同じように、顔を「縦/横」に振る、「はい/いいえ」をマイク148から入力する、タッチパッド55を1回(ハイ)/2回(イイエ)タッチ/タップする、1本指(ハイ)/2本指(イイエ)でタッチする、指のジェスチャ操作等でもよい。   In this way, the call start screen is not suddenly displayed on the screen 16 of the wearable terminal of the worker who is performing the work, but before that, the worker is notified by a sound that a call request has been made. The call start screen is displayed on the screen 16 only when it is determined that the call can be started and a response operation is performed. For this reason, the worker's view is not suddenly lost, and the worker is not exposed to danger or the work is not interrupted. Note that the operator's response operation to the notification sound may depend on the orientation of the face and line of sight regardless of the orientation of the face or line of sight shown in FIG. Shake the face “vertically / horizontally”, input “yes / no” from the microphone 148, touch / tap the touch pad 55 once (high) / 2 times (no), one finger (high) / Touching with two fingers (no good), finger gesture operation, etc. may be used.

CPU140は、ブロックB148で、スクリーン16に投影されているユーザインターフェース上で作業者が通話を開始する操作を行ったか否か判定する。通話開始の操作を行ったと判定すると、通話を開始する。なお、ブロックB148の判定を省略し、ユーザインターフェースが表示されると、即座に通話を開始してもよい。   In block B148, the CPU 140 determines whether or not the operator has performed an operation for starting a call on the user interface projected on the screen 16. When it is determined that a call start operation has been performed, the call is started. Note that the determination in block B148 may be omitted, and the call may be started immediately when the user interface is displayed.

なお、フローチャート上では示していないが、通知音が発生してから応答するまで間の繰り返し処理では、逐次ウェアラブル端末の向きを検出し、通知音を立体音響として再現する空間上の位置を定期的に再計算し、通知音を繰り返し発生させてもよい。   Although not shown in the flowchart, in the iterative processing from when the notification sound is generated until it responds, the orientation of the wearable terminal is sequentially detected, and the position in the space where the notification sound is reproduced as stereophonic sound is periodically determined. The notification sound may be repeatedly generated.

音場の位置計算として、発着者間の位置関係で直接計算することを説明したが、これ以外にも、発信者の位置情報をエリア単位で音場の位置に対応づける方法や、発信者毎の設定情報に基づいて音場の位置を決め、どのエリアもしくは誰からの通知かを判別できるようにしてもよい。   We explained that the sound field position is calculated directly based on the positional relationship between the callers, but in addition to this, a method for associating the caller's position information with the sound field position in units of areas, The position of the sound field may be determined based on the setting information, and it may be possible to determine which area or from whom the notification is sent.

通話以外にも、一定の条件に該当する人や装置を検索するために、コミュニケーションサーバ106の情報検索部120に問い合わせ、その検索結果の候補を音の位置として作業者に提示することもできる。   In addition to a call, in order to search for a person or device that meets certain conditions, the information search unit 120 of the communication server 106 can be inquired, and the search result candidate can be presented to the worker as the position of the sound.

また、情報検索部120への問い合わせ方法については、装着者が行う方法以外にも、装置115が異常状態となった際に、そのステータスをコミュニケーションサーバ106の位置・状態管理部122が検出し、伝えるべき作業者、伝えるべき作業者の位置情報を収集し、異常状態となった装置114の位置情報、それらの位置情報及び異常ステータスの内容から、スケジュール管理部126及び位置・状態管理部122に対して一定条件を満たす作業者候補を検索した結果を、作業者に音の位置として提示することもできる。   In addition to the method performed by the wearer, the method for inquiring to the information search unit 120 is detected by the position / state management unit 122 of the communication server 106 when the device 115 is in an abnormal state. The position information of the workers to be communicated and the workers to be communicated is collected, and the position information of the device 114 in an abnormal state, the position information and the contents of the abnormal status are sent to the schedule management unit 126 and the position / state management unit 122. On the other hand, the result of searching for candidate workers that satisfy a certain condition can be presented to the worker as the position of the sound.

更に、一定条件を満たす候補者にコミュニケーションサーバから作業状況を問い合わせ、その結果を収集して、その情報を伝えるべき人に提示できるようにしてもよい。   Further, a candidate who satisfies a certain condition may be inquired about the work status from the communication server, and the result may be collected and presented to a person who should convey the information.

第2実施形態によれば、発信者がウェラブル端末をかけて、両手を使い、危険な作業を行っている作業者とのコミュニケーションをとる場合、ウェラブル端末上のディスプレイへ唐突に情報を表示せずに、発信者との位置関係や設定情報に基づいた音場を決定して立体音響による通知をする。このように危険な作業を行っている可能性のある作業者の視界を突然奪うことがないため、ウェアラブル端末のディスプレイ機能を安全に利用できる。   According to the second embodiment, when a caller wears a wearable terminal and uses both hands to communicate with a worker who is performing a dangerous work, information is not displayed on the display on the wearable terminal suddenly. In addition, the sound field based on the positional relationship with the caller and the setting information is determined, and notification is made using three-dimensional sound. In this way, the display function of the wearable terminal can be used safely because it does not suddenly take away the field of view of a worker who may be performing dangerous work.

なお、事前通知の方法として音を説明したが、これに限らず、視界を遮らない程度であれば、スクリーンの画像によって通知してもよい。例えば、表示する投影像の一部の色を変える、部分的に色を変化させる、点滅させる等が可能である。バイブレータ68によりメガネを振動させてもよい。さらに、事前通知は一種類のみではなく、緊急度に応じて音の種類、音色、メロディーなど変えてもよい。   In addition, although the sound was demonstrated as a prior notification method, it is not restricted to this, You may notify by the image of a screen, if it is a grade which does not block a visual field. For example, it is possible to change the color of a part of the projected image to be displayed, to partially change the color, or to blink. The glasses may be vibrated by the vibrator 68. Furthermore, the prior notification is not limited to one type, and the type of sound, tone color, melody, etc. may be changed according to the degree of urgency.

実施形態としてメガネ型ウェアラブル端末を説明したが、ゴーグル型、ヘルメット型等の他の頭部装着型でもよいし、リストバンド型、ペンダント型等にも本発明は適用可能である。例えば、ヘルメット型又はゴーグル型にすると、投影装置12、カメラ59をヘルメット又はゴーグルに取り付けることができ、通常のメガネユーザも使用できる。さらに、ヘルメット型にすると、スピーカ54をヘルメットの内側に取り付けることができるので、よりクリアな音を聴くことができるとともに、マイクをヘルメットに取り付け、しかも位置を調整できるので、マイクの集音能力が向上する。   The glasses-type wearable terminal has been described as an embodiment, but other head-mounted types such as a goggle type and a helmet type may be used, and the present invention is applicable to a wristband type and a pendant type. For example, in the case of a helmet type or goggles type, the projection device 12 and the camera 59 can be attached to a helmet or goggles, and a normal glasses user can also be used. Furthermore, if the helmet type is used, the speaker 54 can be attached to the inside of the helmet, so that a clearer sound can be heard, the microphone can be attached to the helmet, and the position can be adjusted. improves.

また、頭部装着型以外のウェアラブル端末にも本発明は適用可能である。   The present invention can also be applied to wearable terminals other than the head-mounted type.

さらに、ウェアラブルでなくても携帯可能な小型軽量で、常にユーザとともにある電子機器、例えば、ノートブック型パソコン、タブレット型パソコン、スマートフォンにも本発明は適用可能である。   Furthermore, the present invention can be applied to a small and light portable device that is not wearable and always with the user, such as a notebook computer, a tablet computer, and a smartphone.

ウェアラブル端末とコミュニケーションサーバとの機能分担は上述した説明の通りに限定されず、ウェアラブル端末の機能として説明したものの一部をコミュニケーションサーバの機能として実現してもよいし、コミュニケーションサーバの機能として説明したものの一部をウェアラブル端末の機能として実現してもよい。   The function sharing between the wearable terminal and the communication server is not limited as described above, and part of what is described as the function of the wearable terminal may be realized as the function of the communication server, or described as the function of the communication server. A part of the device may be realized as a wearable terminal function.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

10…ウェアラブル端末、12…投影装置、16…スクリーン、54…スピーカ、55…パッチパッド、59…カメラ、62…光センサ、106…コミュニケーションサーバ、114…カメラ、148…マイク、152…無線通信デバイス、202…管理者端末。   DESCRIPTION OF SYMBOLS 10 ... Wearable terminal, 12 ... Projection apparatus, 16 ... Screen, 54 ... Speaker, 55 ... Patch pad, 59 ... Camera, 62 ... Optical sensor, 106 ... Communication server, 114 ... Camera, 148 ... Microphone, 152 ... Wireless communication device 202: Administrator terminal.

Claims (16)

頭部に装着され得るウェアラブル端末であって、
前記ウェアラブル端末の動きに関する第1情報を出力する第1検出手段と、
前記ウェアラブル端末の位置に関する第2情報を出力する第2検出手段と、
前記第1検出手段から出力された前記第1情報と前記第2検出手段から出力された前記第2情報に基づいて、前記ウェアラブル端末の装着者を特定する特定手段と、
前記装着者の視線上に位置する表示画面と、
を具備し、
前記特定手段は、前記装着者の候補に関する情報を前記表示画面に表示し、ユーザ操作に基づいて前記装着者を特定するウェアラブル端末。
A wearable terminal that can be worn on the head,
First detection means for outputting first information relating to movement of the wearable terminal;
Second detection means for outputting second information relating to the position of the wearable terminal;
Identifying means for identifying a wearer of the wearable terminal based on the first information output from the first detection means and the second information output from the second detection means;
A display screen located on the line of sight of the wearer;
Comprising
The identification unit is a wearable terminal that displays information on the wearer candidate on the display screen and identifies the wearer based on a user operation .
前記ユーザ操作は、前記第1検出手段により検出される動きの判定と、前記ウェアラブル端末に設けられたタッチセンサ又はスイッチの操作と、前記ウェアラブル端末に設けられたマイクの入力の認識の少なくともいずれかを具備する請求項記載のウェアラブル端末。 The user operation is at least one of determination of a motion detected by the first detection unit, operation of a touch sensor or a switch provided in the wearable terminal, and recognition of an input of a microphone provided in the wearable terminal. wearable device according to claim 1, further comprising a. 前記特定手段は、前記第1検出手段から出力された前記第1情報、前記第2検出手段から出力された前記第2情報及び前記ウェアラブル端末の未装着者の行動スケジュールに基づいて前記装着者を特定する請求項1又は請求項2記載のウェアラブル端末。 The specifying unit is configured to identify the wearer based on the first information output from the first detection unit, the second information output from the second detection unit, and an action schedule of a non-wearer of the wearable terminal. claim 1 or claim 2 Symbol placement of wearable device to identify. 前記特定手段は、複数の人の前記ウェアラブル端末を取り付ける時の動きに関する情報又は取り外す時の動きに関する情報と、前記第1検出手段から出力された前記第1情報との相関を求める請求項1、請求項2又は請求項3記載のウェアラブル端末。 The identification unit obtains a correlation between information about movement when attaching the wearable terminal of a plurality of people or information about movement when removing the wearable terminal, and the first information output from the first detection unit. claim 2 or claim 3 Symbol placement of wearable terminals. 前記第1検出手段と前記第2検出手段は、3軸加速度センサ、3軸ジャイロ、3軸地磁気センサ、マイク、カメラの少なくともいずれかを具備する請求項1、請求項2、請求項3又は請求項4記載のウェアラブル端末。 Said first detecting means and the second detecting means, the three-axis acceleration sensor, 3-axis gyro, 3-axis geomagnetic sensor, according to claim 1, comprising a microphone, at least one of a camera, according to claim 2, claim 3 or claim 4. Symbol placement of the wearable terminal. 頭部に装着され得るウェアラブル端末の動きを検出することと、
前記ウェアラブル端末の位置を検出することと、
検出された前記動きと前記位置に基づいて、前記ウェアラブル端末の装着者を特定することと、
を具備し、
前記装着者を特定することは、
前記装着者の候補に関する情報を前記ウェアラブル端末において前記装着者の視線上に設けられた表示画面に表示することと、
ユーザ操作に基づいて前記装着者を特定することと、
を具備する方法。
Detecting the movement of a wearable terminal that can be worn on the head;
Detecting the position of the wearable terminal;
Identifying a wearer of the wearable terminal based on the detected movement and the position;
Comprising
Identifying the wearer is
Displaying information on the wearer candidate on a display screen provided on the wearer's line of sight in the wearable terminal;
Identifying the wearer based on a user operation;
A method comprising:
前記ユーザ操作は、前記ウェアラブル端末の動きの判定と、前記ウェアラブル端末に設けられたタッチセンサ又はスイッチの操作と、前記ウェアラブル端末に設けられたマイクの入力の認識の少なくともいずれかを具備する請求項記載の方法。 The user operation includes at least one of determination of movement of the wearable terminal, operation of a touch sensor or a switch provided in the wearable terminal, and recognition of input of a microphone provided in the wearable terminal. 6. The method according to 6 . 前記装着者を特定することは、検出された前記動きと、検出された前記位置と、前記ウェアラブル端末の未装着者の行動スケジュールに基づいて前記装着者を特定することを具備する請求項6又は請求項7記載の方法。 Wherein identifying the wearer, and said detected motion, and said detected positions, comprising at identifying the wearer based on the non-wearer behavior schedule of the wearable device according to claim 6 or 7 Symbol mounting method claim. 前記装着者を特定することは、複数の人の前記ウェアラブル端末を取り付ける時の動きに関する情報又は取り外す時の動きに関する情報と、検出された前記動きに関する情報との相関を求める請求項6、請求項7又は請求項8記載の方法。 The identification of the wearer is performed by obtaining a correlation between information on movement when attaching the wearable terminal of a plurality of persons or information on movement when removing the wearable terminal and information on the detected movement. 7 or claim 8 Symbol mounting method. 前記ウェアラブル端末の動きを検出することと前記ウェアラブル端末の位置を検出することは、
前記ウェアラブル端末に設けられた3軸加速度センサ、3軸ジャイロ、3軸地磁気センサ、マイク、カメラの少なくともいずれかを用いる請求項6、請求項7、請求項8又は請求項9記載の方法。
Detecting the movement of the wearable terminal and detecting the position of the wearable terminal,
The wearable 3-axis acceleration sensor provided in the terminal, the triaxial gyro, 3-axis geomagnetic sensor, a microphone, claim 6 using at least one of a camera, according to claim 7, claim 8 or claim 9 Symbol mounting method.
ウェアラブル端末と、
前記ウェアラブル端末の動きに関する第1情報を出力する第1検出手段と、
前記ウェアラブル端末の位置に関する第2情報を出力する第2検出手段と、
前記第1検出手段から出力される前記第1情報と前記第2検出手段から出力された前記第2情報に基づいて、前記ウェアラブル端末の装着者を特定する特定手段と、を具備し、
前記特定手段は、前記装着者の候補に関する情報を前記ウェアラブル端末に表示し、ユーザ操作に基づいて前記装着者を特定するシステム。
A wearable device,
First detection means for outputting first information relating to movement of the wearable terminal;
Second detection means for outputting second information relating to the position of the wearable terminal;
Identifying means for identifying a wearer of the wearable terminal based on the first information output from the first detection means and the second information output from the second detection means;
The specifying unit displays information on the wearer candidate on the wearable terminal, and specifies the wearer based on a user operation .
前記ユーザ操作は、前記第1検出手段により検出された前記動きの判定と、前記ウェアラブル端末に設けられたタッチセンサ又はスイッチの操作と、前記ウェアラブル端末に設けられたマイクの入力の認識の少なくともいずれかを具備する請求項11記載のシステム。 The user operation includes at least one of determination of the movement detected by the first detection unit, operation of a touch sensor or a switch provided in the wearable terminal, and recognition of an input of a microphone provided in the wearable terminal. The system according to claim 11 , further comprising: 前記特定手段は、前記第1検出手段から出力された前記第1情報、前記第2検出手段から出力された前記第2情報及び前記ウェアラブル端末の未装着者の行動スケジュールに基づいて前記装着者を特定する請求項11又は請求項12記載のシステム。 The specifying unit is configured to identify the wearer based on the first information output from the first detection unit, the second information output from the second detection unit, and an action schedule of a non-wearer of the wearable terminal. claim 11 or claim 12 Symbol mounting system to identify. 前記特定手段は、
前記第1検出手段から出力される前記第1情報が前記ウェアラブル端末を取り付ける時の動きに関する情報又は取り外す時の動きに関する情報と相関があるか否かを判定し、
相関があると判定した場合、前記第1検出手段から出力される前記第1情報を複数の未装着者についてのウェアラブル端末を取り付ける時の動きに関する情報又は取り外す時の動きに関する情報との相関を求める請求項11、請求項12又は請求項13記載のシステム。
The specifying means is:
Determining whether the first information output from the first detection means is correlated with information about movement when attaching the wearable terminal or information about movement when removing the wearable terminal;
When it is determined that there is a correlation, a correlation between the first information output from the first detection unit and information regarding movement when attaching a wearable terminal or information regarding movement when removing the wearable terminal for a plurality of non-wearers is obtained. 11. claim 12 or claim 13 Symbol mounting system.
前記ウェアラブル端末は3軸加速度センサ、3軸ジャイロ、3軸地磁気センサ、マイク、カメラの少なくともいずれかを具備し、
前記第1検出手段は、前記3軸加速度センサ、前記3軸ジャイロ、前記3軸地磁気センサ、前記マイク、前記カメラの少なくともいずれかの出力に基づいて前記ウェアラブル端末の動きを検出し、
前記第2検出手段は、前記3軸加速度センサ、前記3軸ジャイロ、前記3軸地磁気センサ、前記マイク、前記カメラの少なくともいずれかの出力に基づいて前記ウェアラブル端末の位置を検出する請求項11、請求項12、請求項13又は請求項14記載のシステム。
The wearable terminal includes at least one of a three-axis acceleration sensor, a three-axis gyro, a three-axis geomagnetic sensor, a microphone, and a camera.
The first detection means detects the movement of the wearable terminal based on the output of at least one of the triaxial acceleration sensor, the triaxial gyro, the triaxial geomagnetic sensor, the microphone, and the camera,
The second detection means detects the position of the wearable terminal based on the output of at least one of the three-axis acceleration sensor, the three-axis gyro, the three-axis geomagnetic sensor, the microphone, and the camera. 12., claim 13 or claim 14 Symbol mounting system.
前記ウェアラブル端末は、頭部に装着され得て、装着者の視線上に位置する表示画面を具備する請求項11、請求項12、請求項13、請求項14又は請求項15記載のシステム。 The wearable device is obtained is mounted on the head, according to claim 11 having a display screen located on the wearer's line of sight, according to claim 12, claim 13, claim 14 or claim 15 Symbol mounting system.
JP2017233493A 2017-12-05 2017-12-05 Wearable terminal, method and system Active JP6445118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017233493A JP6445118B2 (en) 2017-12-05 2017-12-05 Wearable terminal, method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017233493A JP6445118B2 (en) 2017-12-05 2017-12-05 Wearable terminal, method and system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015173643A Division JP6262177B2 (en) 2015-09-03 2015-09-03 Wearable terminal, method and system

Publications (2)

Publication Number Publication Date
JP2018041507A JP2018041507A (en) 2018-03-15
JP6445118B2 true JP6445118B2 (en) 2018-12-26

Family

ID=61623882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017233493A Active JP6445118B2 (en) 2017-12-05 2017-12-05 Wearable terminal, method and system

Country Status (1)

Country Link
JP (1) JP6445118B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112099368A (en) * 2020-09-25 2020-12-18 歌尔科技有限公司 Electrical equipment control method and system and wearable equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200704574A (en) * 2005-07-27 2007-02-01 Murata Machinery Ltd Operation system and operation instruction method in operation system
WO2008127316A1 (en) * 2006-11-22 2008-10-23 Chornenky T E Security and monitoring apparatus
JP6128500B2 (en) * 2013-07-26 2017-05-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information management method
JP2015153348A (en) * 2014-02-19 2015-08-24 ソニー株式会社 authentication device, authentication method, and program

Also Published As

Publication number Publication date
JP2018041507A (en) 2018-03-15

Similar Documents

Publication Publication Date Title
US11150738B2 (en) Wearable glasses and method of providing content using the same
US11002975B2 (en) System and method for image generation based on a display-attachable wearable device
US10209516B2 (en) Display control method for prioritizing information
KR102354428B1 (en) Wearable apparatus and methods for analyzing images
US11023090B2 (en) Method and smart watch for displaying schedule tags
CN105103083B (en) Intelligent watch
KR20170137476A (en) Mobile device and method for controlling thereof
US10432569B2 (en) Portable electronic device, information processing method, and program
JP7119164B2 (en) WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD
JP6445118B2 (en) Wearable terminal, method and system
US11137600B2 (en) Display device, display control method, and display system
JP6262177B2 (en) Wearable terminal, method and system
JP6352874B2 (en) Wearable terminal, method and system
JP7263603B2 (en) WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD
JP2018045707A (en) System, method, and sensor device
JP2018081697A (en) System and wearable terminal
WO2017122508A1 (en) Information display system and information display method
JP6641055B2 (en) Wearable terminal, system and display method
JP2023076619A (en) Wearable terminal, system, and display method
JP2018037107A (en) System and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181128

R151 Written notification of patent or utility model registration

Ref document number: 6445118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151