JP2017050718A - Wearable terminal, method, and system - Google Patents

Wearable terminal, method, and system Download PDF

Info

Publication number
JP2017050718A
JP2017050718A JP2015173020A JP2015173020A JP2017050718A JP 2017050718 A JP2017050718 A JP 2017050718A JP 2015173020 A JP2015173020 A JP 2015173020A JP 2015173020 A JP2015173020 A JP 2015173020A JP 2017050718 A JP2017050718 A JP 2017050718A
Authority
JP
Japan
Prior art keywords
camera
wearable terminal
image
user
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015173020A
Other languages
Japanese (ja)
Other versions
JP6352874B2 (en
Inventor
宏樹 熊谷
Hiroki Kumagai
宏樹 熊谷
田中 明良
Akira Tanaka
明良 田中
賢一 道庭
Kenichi Michiba
賢一 道庭
広昭 古牧
Hiroaki Komaki
広昭 古牧
隆 須藤
Takashi Sudo
隆 須藤
康裕 鹿仁島
Yasuhiro Kanishima
康裕 鹿仁島
伸秀 岡林
Nobuhide Okabayashi
伸秀 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015173020A priority Critical patent/JP6352874B2/en
Publication of JP2017050718A publication Critical patent/JP2017050718A/en
Application granted granted Critical
Publication of JP6352874B2 publication Critical patent/JP6352874B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wearable terminal, a method, and a system that can simply display an image at a position distant from a user.SOLUTION: According to an embodiment, a wearable terminal that can be attached to a user's head can change its position and can communicate with an enclosure comprising a first camera. The wearable terminal comprises: a second camera that takes an image along the user's visual line; a display unit that is situated on the user's visual line and displays an image taken with the first camera or an image taken with the second camera; first detection means that includes a function to detect the position and orientation of the wearable terminal and detects a photographing position and photographing direction of the second camera; and a controller that moves the enclosure to the photographing position detected by the first detection means and takes an image with the first camera at the photographing position and in the photographing direction detected by the first detection means.SELECTED DRAWING: Figure 1

Description

本発明の実施形態はウェアラブル端末、方法及びシステムに関する。   Embodiments described herein relate generally to a wearable terminal, a method, and a system.

従来、製造業の製造現場において製造装置の点検、修理等の作業を支援するために、作業員から離れた場所の映像を作業員に提供する表示システムが開発されている。   2. Description of the Related Art Conventionally, in order to support work such as inspection and repair of a manufacturing apparatus at a manufacturing site in the manufacturing industry, a display system that provides a worker with an image of a place away from the worker has been developed.

このシステムは、撮像装置と、ユーザの頭部に装着される表示装置と、撮像装置による撮像によって生成された画像データを表示装置に伝送する伝送装置と、撮像装置と表示装置とを収納可能であり、かつ、撮像装置の支持台を兼用するケースとを備え、撮像装置から離れた位置に配置される表示装置により、画像データに対応する画像を形成可能な表示システムである。このシステムによれば、撮像装置による撮像によって生成された画像データを、離れた場所に配置された表示装置に伝送し、その画像データに対応する画像を観察者に視認させることができる。   This system can accommodate an imaging device, a display device mounted on a user's head, a transmission device that transmits image data generated by imaging by the imaging device to the display device, and the imaging device and the display device. And a display system that includes a case that also serves as a support for the imaging device, and can form an image corresponding to the image data by a display device that is disposed at a position away from the imaging device. According to this system, the image data generated by the imaging by the imaging device can be transmitted to a display device arranged at a remote location, and an image corresponding to the image data can be viewed by an observer.

特開2000−287204号公報JP 2000-287204 A

このシステムでは、雲台上のカメラをユーザが設定する必要があり、準備に手間が必要である。   In this system, it is necessary for the user to set a camera on the pan head, and it takes time and effort for preparation.

本発明の目的は、ユーザから離れた位置の画像を簡単に表示することができるウェアラブル端末、方法及びシステムを提供することである。   An object of the present invention is to provide a wearable terminal, a method, and a system that can easily display an image at a position away from a user.

実施形態によれば、ユーザの頭部に装着され得るウェアラブル端末は、位置を変えることができ第1カメラを具備する筐体と通信可能である。ウェアラブル端末は、ユーザの視線に沿った画像を撮影する第2カメラと、ユーザの視線上に位置し第1カメラ又は第2カメラの撮影画像を表示する表示部と、ウェアラブル端末の位置と向きを検出する機能を有し第2カメラの撮影位置と撮影方向を検出する第1検出手段と、第1検出手段により検出された撮影位置に筐体を移動し第1検出手段により検出された撮影位置と撮影方向で前記第1カメラにより画像を撮影するコントローラと、を具備する。   According to the embodiment, the wearable terminal that can be worn on the user's head can change the position and can communicate with the housing including the first camera. The wearable terminal includes a second camera that captures an image along the user's line of sight, a display unit that is positioned on the user's line of sight and displays a captured image of the first camera or the second camera, and the position and orientation of the wearable terminal. A first detecting means having a detecting function and detecting a photographing position and a photographing direction of the second camera; and a photographing position detected by the first detecting means after moving the housing to the photographing position detected by the first detecting means. And a controller that captures an image with the first camera in the capturing direction.

実施形態のウェアラブル端末の一例を示す斜視図である。It is a perspective view which shows an example of the wearable terminal of embodiment. ウェアラブル端末の一例を示す正面図と断面構成を示す図である。It is the figure which shows the front view and cross-sectional structure which show an example of a wearable terminal. ウェアラブル端末の位置検出の一例を示す図である。It is a figure which shows an example of the position detection of a wearable terminal. ウェアラブル端末の位置検出の原理を示す図である。It is a figure which shows the principle of position detection of a wearable terminal. ウェアラブル端末の位置検出の際の信号波形を示す図である。It is a figure which shows the signal waveform at the time of the position detection of a wearable terminal. ウェアラブル端末とコミュニケーションサーバとを含むシステムの一例を示す図である。It is a figure which shows an example of the system containing a wearable terminal and a communication server. ウェアラブル端末の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a wearable terminal. ドローンの電気的構成を示すブロック図である。It is a block diagram which shows the electrical structure of a drone. システムによるドローンの撮影制御の一例の前半を示すフローチャートである。It is a flowchart which shows the first half of an example of imaging | photography control of the drone by a system. システムによるドローンの撮影制御の一例の後半を示すフローチャートである。It is a flowchart which shows the second half of an example of imaging | photography control of the drone by a system. システムによるドローンの撮影制御の他の例の前半を示すフローチャートである。It is a flowchart which shows the first half of the other example of the imaging | photography control of the drone by a system. システムによるドローンの撮影制御の他の例の後半を示すフローチャートである。It is a flowchart which shows the second half of the other example of the imaging | photography control of the drone by a system.

以下、図面を参照して、実施の形態について説明する。   Hereinafter, embodiments will be described with reference to the drawings.

ウェアラブル端末は、頭部装着型(これにはメガネ型、ゴーグル型、ヘルメット型等が含まれるが、これらを総称してメガネ型と称する場合もある)、リストバンド型、ペンダント型等があるが、ここでは、メガネ型ウェアラブル端末の実施形態を説明する。メガネ型ウェアラブル端末には、透明なレンズを介して視線の先の風景が見えるタイプと、視界が遮られ、風景が見えないヘッドマウントディスプレイと称されるタイプがあるが、ここでは、一例として風景が見えるタイプを説明する。   Wearable terminals include head-mounted types (including glasses, goggles, helmets, etc., which may be collectively referred to as glasses), wristbands, pendants, and the like. Here, an embodiment of a glasses-type wearable terminal will be described. Glasses-type wearable devices include a type that allows you to see the scenery ahead of your line of sight through a transparent lens, and a type that is called a head-mounted display where the view is blocked and you cannot see the scenery. Explain the type that can be seen.

図1はメガネ型ウェアラブル端末(以下、単にウェアラブル端末と称する)10の斜視図、図2(a)は正面図、図2(b)は上から見た断面構造を示す図である。   FIG. 1 is a perspective view of a glasses-type wearable terminal (hereinafter simply referred to as a wearable terminal) 10, FIG. 2 (a) is a front view, and FIG. 2 (b) is a diagram showing a cross-sectional structure viewed from above.

ウェアラブル端末10は通常のメガネとほぼ同じ形状であるが、一方、ここでは右眼側のテンプルの外側に投影装置12が取り付けられている。フレームにはガラス14、16が嵌め込まれている。左眼側のガラス14はユーザが景色を見ることができるように通常の透明ガラスである。右眼側のガラス16は、少なくとも一部がスクリーン16となっている。スクリーン16は、投影装置12が投影している画像をユーザが見ることができるようにするものである。スクリーン16は投影装置12が画像を投影しない時は透明であり、ユーザが右眼側のガラス(スクリーン)16を介して景色を見ることができる。   The wearable terminal 10 has substantially the same shape as normal glasses, but here, the projection device 12 is attached to the outside of the temple on the right eye side. Glasses 14 and 16 are fitted in the frame. The glass 14 on the left eye side is a normal transparent glass so that the user can see the scenery. The right-eye glass 16 is at least partially a screen 16. The screen 16 allows the user to see the image projected by the projection device 12. The screen 16 is transparent when the projection device 12 does not project an image, and the user can view the scenery through the glass (screen) 16 on the right eye side.

投影装置12は、電子部品として電源部22、制御部24を含む。電源部22はボタン型の電池、充電可能な電池、非接触給電可能な二次電池等を含むことができる。あるいは、電源は内蔵せず、外部電源から電源ラインを介して投影装置12に給電してもよい。制御部24は、後述するネットワークを介してサーバや他の電子機器との間で通信を行い、情報を送受信する。この通信は、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。   The projection device 12 includes a power supply unit 22 and a control unit 24 as electronic components. The power supply unit 22 may include a button-type battery, a rechargeable battery, a secondary battery capable of non-contact power supply, and the like. Alternatively, the projection apparatus 12 may be supplied with power from an external power supply via a power supply line without incorporating a power supply. The control unit 24 communicates with a server and other electronic devices via a network described later, and transmits and receives information. This communication may be either wired or wireless. For wireless, Bluetooth (registered trademark), ZigBee (registered trademark), short-range wireless communication such as UWB, medium-range wireless communication such as WiFi (registered trademark), 3G / 4G, WiMAX (registered trademark) depending on the usage environment Any of long-distance wireless communications such as the above may be used.

投影装置12は、さらに、光学部品として光源28、表示部30、プリズム32、レンズ群34等を含む。光源28は、互いに発光色が異なり、それぞれの出力光量を独立して変更可能な複数、例えば3個のLED(Light Emitting Diode)を含む調光型白色LED光源であってもよい。調光型白色LED光源によれば、ウェアラブル端末10の使用環境が、例えばオレンジ色が主体の照明が用いられることの多いクリーンルーム内、等である場合においても、使用環境に応じて発光色を変更することができ、鮮明な投影像が得られる。さらに、調光型白色LED光源によれば、ユーザが見易い表示色を出力することができ、ユーザが見辛い表示色を出力する場合に比較して、目の疲れや、それに伴う偏頭痛、等のユーザにとって支障となる要因の発生を避けることが可能である。   The projection device 12 further includes a light source 28, a display unit 30, a prism 32, a lens group 34, and the like as optical components. The light source 28 may be a dimming white LED light source including a plurality of, for example, three LEDs (Light Emitting Diodes) whose emission colors are different from each other and whose output light amounts can be changed independently. According to the dimmable white LED light source, even when the use environment of the wearable terminal 10 is, for example, in a clean room where illumination mainly using orange is used, the emission color is changed according to the use environment. And a clear projected image can be obtained. Furthermore, according to the dimming white LED light source, it is possible to output a display color that is easy for the user to see, and compared with the case where the user outputs a display color that is difficult to see, eye fatigue, migraines associated therewith, etc. It is possible to avoid the occurrence of a factor that hinders the user.

表示部30は、例えば反射型のLCD(Liquid Crystal Display)モジュールであり、制御部24による表示制御に基づいて、所定のテキスト、画像等(以下、表示部30が表示されるものを表示像と総称することもある)を表示する。光源28から出射される非平行光(発散性の光、以下発散光と称することもある)は、プリズム32のハーフミラー面32aで反射され、表示部30の表示像を照明する。表示部30の反射光は、表示像に対応した光(画像光と称する場合もある)としてハーフミラー面32aを透過して、出射面32cから出射され、レンズ群34を介して所定サイズの投影像としてスクリーン16に投影される。   The display unit 30 is, for example, a reflective LCD (Liquid Crystal Display) module. Based on display control by the control unit 24, a predetermined text, image, or the like (hereinafter, what the display unit 30 displays is referred to as a display image). May be collectively referred to). Non-parallel light emitted from the light source 28 (divergent light, sometimes referred to as divergent light) is reflected by the half mirror surface 32a of the prism 32 and illuminates the display image of the display unit 30. The reflected light of the display unit 30 passes through the half mirror surface 32a as light corresponding to the display image (sometimes referred to as image light), is emitted from the emission surface 32c, and is projected through the lens group 34 to a predetermined size. An image is projected onto the screen 16.

スクリーン16は、手前側透明屈折体42、フレネルレンズ形ハーフミラー面44及び奥側透明屈折体46を有する。フレネルレンズ形ハーフミラー面44に到達した画像光の一部は、フレネルレンズ形ハーフミラー面44で反射され、表示部30の表示像に対応する虚像(投影像)を数メートル先に形成する。なお、スクリーン16は、ウェアラブル端末10を装着したユーザの視線の先の風景も一部透過することができ、スクリーン16には投影像とともにユーザが視認可能な風景が表示されるように構成してもよい。   The screen 16 includes a near-side transparent refractor 42, a Fresnel lens-shaped half mirror surface 44, and a back-side transparent refractor 46. A part of the image light reaching the Fresnel lens half mirror surface 44 is reflected by the Fresnel lens half mirror surface 44 to form a virtual image (projected image) corresponding to the display image of the display unit 30 several meters ahead. Note that the screen 16 can partially transmit the scenery ahead of the user's line of sight wearing the wearable terminal 10, and the screen 16 is configured to display a scenery that can be visually recognized by the user together with the projected image. Also good.

光源28から出射され、ハーフミラー面32aを通過した画像光(発散光)の一部は、全反射面32bで全反射し、出射面32cで屈折して光源28からの発散光である漏れ光50となる。漏れ光50は、投影部12の正面に形成された開口又は隙間(誘導部)52を通ってスクリーン16とは異なる方向へ出射される。   Part of the image light (diverged light) emitted from the light source 28 and passed through the half mirror surface 32a is totally reflected by the total reflection surface 32b, refracted by the emission surface 32c, and leaked light that is divergent light from the light source 28. 50. The leaked light 50 is emitted in a direction different from that of the screen 16 through an opening or a gap (guidance portion) 52 formed on the front surface of the projection unit 12.

ウェアラブル端末10は、投影装置12の所定の位置、たとえば底面部に、スピーカ54A、イヤホンジャック54B、マイクジャック56、スライド式スイッチ57及び回転式スイッチ58等を有する。マイクジャック56には、図示しないハンズフリーマイクが接続され、ユーザの音声が収集される。スライド式スイッチ57は、例えば投影装置12の投影像の輝度や色調等を調整可能である。回転式スイッチ58は、例えば投影像の投影角度等を調整可能である。スライド式スイッチ57及び回転式スイッチ58のように異なる動作により異なる調整量を設定可能とすることで、投影像を目視しながら、ユーザが、ブラインドタッチで、投影像を調整可能である。例えば、スライド式スイッチ57を操作することにより、ユーザの好みに合わった表示輝度や色調の投影像を提供できる。回転式スイッチ58を操作することにより、ユーザの頭部の形状やサイズに合わせて、最適な位置に画像を表示するように投影角度を調整できる。なお、スライド式スイッチ57と回転式スイッチ58による調整対象が逆であってもよいことはもちろんであるし、スライド式スイッチ57と回転式スイッチ58の位置が逆であってもよいし、両者を1つの操作部材の2種類の操作に割り当ててもよい。   The wearable terminal 10 includes a speaker 54A, an earphone jack 54B, a microphone jack 56, a slide switch 57, a rotary switch 58, and the like at a predetermined position of the projection device 12, for example, a bottom surface portion. A hands-free microphone (not shown) is connected to the microphone jack 56 to collect user's voice. The slide switch 57 can adjust the brightness, color tone, and the like of the projection image of the projection device 12, for example. The rotary switch 58 can adjust the projection angle of the projection image, for example. By making it possible to set different adjustment amounts by different operations such as the slide switch 57 and the rotary switch 58, the user can adjust the projection image by blind touch while viewing the projection image. For example, by operating the slide switch 57, it is possible to provide a projected image with display brightness and color tone that suits the user's preference. By operating the rotary switch 58, the projection angle can be adjusted so as to display an image at an optimal position in accordance with the shape and size of the user's head. Of course, the objects to be adjusted by the slide switch 57 and the rotary switch 58 may be reversed, or the positions of the slide switch 57 and the rotary switch 58 may be reversed. You may assign to two types of operation of one operation member.

これらのスイッチ57、58による選択は投影像のみを見ながら施行錯誤的に行ってもよいが、調整の効率を上げるために、メニュー画面を投影して、その画面内で項目を選択することにより調整してもよい。表示部30がメニュー画面を表示することにより、メニュー画面がスクリーン16に投影される。   The selection by these switches 57 and 58 may be carried out in practice and error while only looking at the projection image. However, in order to increase the efficiency of adjustment, a menu screen is projected and items are selected on the screen. You may adjust. When the display unit 30 displays the menu screen, the menu screen is projected on the screen 16.

さらに、メニュー項目の選択は、スイッチ57、58の操作によらず、タッチ操作によってもよい。このため、投影装置12の外側には、タッチパッド55も設けられる。表示部30がメニュー等を表示し、メニュー内の項目の表示位置に応じたタッチパッド55内の位置をタッチすることにより、簡単かつ効率よくユーザ操作を入力できる。   Further, the menu item may be selected by a touch operation, not by the operation of the switches 57 and 58. For this reason, a touch pad 55 is also provided outside the projection device 12. When the display unit 30 displays a menu or the like and touches a position in the touch pad 55 corresponding to the display position of the item in the menu, a user operation can be input easily and efficiently.

正面中央部の外側にはカメラ59が設けられ、ユーザの視線の先の画像(静止画、動画のいずれも可)を撮影可能である。なお、図示していないが、正面中央部の内側(カメラ59の配置位置と対応する位置)にユーザの顔に対向してカメラを設け、ユーザの眼球を撮影し、ユーザの虹彩を検出可能としてもよい。虹彩はユーザ認証に使うことができる。   A camera 59 is provided outside the center of the front, and an image ahead of the user's line of sight (either a still image or a moving image is acceptable) can be taken. Although not shown, a camera is provided on the inner side of the front center (a position corresponding to the arrangement position of the camera 59) so as to face the user's face so that the user's eyeball can be photographed and the user's iris can be detected. Also good. The iris can be used for user authentication.

ウェアラブル端末10からの漏れ光50を利用することで、ウェアラブル端末10の状態、すなわちユーザの状態を検出できる。図3、図4、図5を参照して、ウェアラブル端末の状態の検出原理を説明する。ここで、状態は位置と、位置の移動等を含む。   By using the leaked light 50 from the wearable terminal 10, the state of the wearable terminal 10, that is, the state of the user can be detected. The principle of detecting the state of the wearable terminal will be described with reference to FIGS. Here, the state includes a position and a movement of the position.

ウェアラブル端末の使用例の一例を図3に示す。例えば、工場の部品ヤード、通販会社の商品倉庫、小売業の配送部署等のワークエリア60内に任意数の作業スペース又は商品棚A01〜Axy(x,yはともに正の整数)、B01〜Bxy、C01〜Cxyが配置される。作業スペース又は商品棚は、例えば工場の作業テーブルや生産ライン内の製造装置又は学校の机や会議室の着席位置、等であってもよい。   An example of the usage example of the wearable terminal is shown in FIG. For example, an arbitrary number of work spaces or product shelves A01 to Axy (x and y are both positive integers), B01 to Bxy in a work area 60 such as a factory parts yard, a mail order company's product warehouse, or a retail delivery department , C01 to Cxy are arranged. The work space or the product shelf may be, for example, a factory work table, a manufacturing apparatus in a production line, a school desk, a seating position in a conference room, or the like.

ワークエリア60には少なくとも1つの光センサ62−1〜62−n(nは正の整数)が配置される。光センサ62−1〜62−nは、ウェアラブル端末10−1〜10−m(mは正の整数)の位置、個数、位置の変化(移動)及び向きの変化等を、図4、図5に示す検出方法により、個々に検出できる。ウェアラブル端末10−1〜10−mの位置、個数、移動及び向きの変化等を検出することにより。ウェアラブル端末10−1〜10−mを装着した任意数のユーザの位置、移動等の状態を認識できる。   In the work area 60, at least one optical sensor 62-1 to 62-n (n is a positive integer) is arranged. The optical sensors 62-1 to 62-n indicate the position, number, change in position (movement), change in direction, and the like of wearable terminals 10-1 to 10-m (m is a positive integer), as shown in FIGS. It can detect individually by the detection method shown in. By detecting changes in position, number, movement, and orientation of the wearable terminals 10-1 to 10-m. It is possible to recognize the positions, movements, and the like of an arbitrary number of users wearing the wearable terminals 10-1 to 10-m.

ユーザは、ワークエリア60内を自在に移動できる。ユーザは、予め定められた作業を、予め定められた位置、例えばステーション(カート)、それに準じた収容器又は可動式のテーブル等である作業スペース64において実行する。なお、作業スペース64は、移動可能ではなく、固定された机やその着席位置等であってもよい。   The user can move freely in the work area 60. The user performs a predetermined work in a work space 64 that is a predetermined position, for example, a station (cart), a container according to the work, or a movable table. The work space 64 is not movable and may be a fixed desk, a seating position thereof, or the like.

図3、図4に示すように、検出システムは、1以上のウェアラブル端末10、1以上の光センサ62を含む。光センサ62は、漏れ光50を検出する機能と、検出結果をサーバ等に送信する通信機能を有する。この通信機能も、ウェアラブル端末10の通信機能と同じく、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。以下に説明する実施形態は通信機能を有する種々のユニット、モジュールを有するが、これらのユニット、モジュールの通信機能も、同様に、有線又は無線のいずれであってもよい。無線の場合、使用環境に応じてBluetooth(登録商標)、ZigBee(登録商標)、UWB等の近距離無線通信、WiFi(登録商標)等の中距離無線通信、3G/4G、WiMAX(登録商標)等の遠距離無線通信のいずれを利用してもよい。   As shown in FIGS. 3 and 4, the detection system includes one or more wearable terminals 10 and one or more optical sensors 62. The optical sensor 62 has a function of detecting the leaked light 50 and a communication function of transmitting the detection result to a server or the like. This communication function may be either wired or wireless, similar to the communication function of wearable terminal 10. For wireless, Bluetooth (registered trademark), ZigBee (registered trademark), short-range wireless communication such as UWB, medium-range wireless communication such as WiFi (registered trademark), 3G / 4G, WiMAX (registered trademark) depending on the usage environment Any of long-distance wireless communications such as the above may be used. Although the embodiment described below includes various units and modules having a communication function, the communication functions of these units and modules may be either wired or wireless as well. For wireless, Bluetooth (registered trademark), ZigBee (registered trademark), short-range wireless communication such as UWB, medium-range wireless communication such as WiFi (registered trademark), 3G / 4G, WiMAX (registered trademark) depending on the usage environment Any of long-distance wireless communications such as the above may be used.

光センサ62が受信した漏れ光50からウェアラブル端末10を特定できるように、ウェアラブル端末10は、端末の識別情報(Identification、以下端末IDと称する場合もある)を含む情報を用いて漏れ光50を間欠的に変調する。変調方式の典型的な一例は、発光量をゼロまで落とすチョッパー形変調方式があるが、ここでは、発光量が低い状態でも所定量以上の発光量を確保できる変調方式が採用される。これにより、ユーザの目に対する負担を軽減できる。変調方式として、例えばDSV(Digital Sum Value)フリーの変調方式(すなわち常に変調信号のDSVを計算し、適宜ビット反転コードを挿入可能にして直流成分をゼロとする変調方式)が採用されると、比較的ロングレンジでの発光量変化が抑えられ、巨視的に常に発光量変化がゼロにでき、ユーザの目への負担が一層軽減される。人間の目は、0.02秒程度の変化まで認識できるので、上記変調の基準周波数を10Hz以上、例えば20Hz以上、より好ましくは60Hz以上に設定することで、ユーザの目に対する負担を軽減する効果も生まれる。一方、光源28に使用されるLEDは、内部インピーダンスと接続容量を持つため、精度よい変調周波数は、100MHz未満、望ましくは10MHz以下が望ましい。従って、実施形態の検出システムにて用いる光源28の変調周波数は、10Hz〜100MHz、望ましくは10Hz〜10MHzの範囲が好ましい。   In order to be able to identify the wearable terminal 10 from the leaked light 50 received by the optical sensor 62, the wearable terminal 10 uses the information including the terminal identification information (hereinafter also referred to as terminal ID) to detect the leaked light 50. Modulate intermittently. A typical example of the modulation method is a chopper type modulation method that reduces the light emission amount to zero. Here, a modulation method that can secure a light emission amount equal to or larger than a predetermined amount even when the light emission amount is low is adopted. Thereby, the burden with respect to a user's eyes can be reduced. As a modulation method, for example, a DSV (Digital Sum Value) free modulation method (that is, a modulation method in which a DSV of a modulation signal is always calculated, a bit inversion code can be inserted as appropriate, and a DC component is zero) is employed. The change in the amount of light emission in a relatively long range is suppressed, the change in the amount of light emission can always be made macroscopically, and the burden on the user's eyes is further reduced. Since the human eye can recognize a change of about 0.02 seconds, an effect of reducing the burden on the user's eyes by setting the reference frequency of the modulation to 10 Hz or more, for example, 20 Hz or more, more preferably 60 Hz or more. Is also born. On the other hand, since the LED used for the light source 28 has internal impedance and connection capacitance, the accurate modulation frequency is preferably less than 100 MHz, preferably 10 MHz or less. Therefore, the modulation frequency of the light source 28 used in the detection system of the embodiment is preferably 10 Hz to 100 MHz, and more preferably 10 Hz to 10 MHz.

光源28からの発散光の漏れ光50を利用しているので、光センサ62が検出する光量がウェアラブル端末10と光センサ62との間の距離に応じて変化する。この現象を利用すると、ウェアラブル端末10と光センサ62との間の距離又は光センサ62に対するウェアラブル端末10の向きを求めることができる。光センサ62の位置(高さも含む)は固定であるので、光センサ62とウェアラブル端末10との距離が分かると、ウェアラブル端末10の位置(x,y,z)が検出できる。   Since the diverging light leakage light 50 from the light source 28 is used, the amount of light detected by the optical sensor 62 changes according to the distance between the wearable terminal 10 and the optical sensor 62. If this phenomenon is used, the distance between the wearable terminal 10 and the optical sensor 62 or the orientation of the wearable terminal 10 with respect to the optical sensor 62 can be obtained. Since the position (including height) of the optical sensor 62 is fixed, if the distance between the optical sensor 62 and the wearable terminal 10 is known, the position (x, y, z) of the wearable terminal 10 can be detected.

さらに、光源28からの発散光の漏れ光50を利用しているので、漏れ光50を比較的広い範囲で検出できる。その結果、比較的少数の光センサ62−1〜62−nを設置するだけで、ワークエリア60内のウェアラブル端末10−1〜10−mの位置、ウェアラブル端末10と光センサ62との距離、ウェアラブル端末10−1〜10−mの向き、又は光センサ62に対するウェアラブル端末10の方位が検出できる。これにより、検出システムを設置するために必要となる設備費用を低減できる。   Furthermore, since the diverging light leakage light 50 from the light source 28 is used, the leakage light 50 can be detected in a relatively wide range. As a result, only by installing a relatively small number of optical sensors 62-1 to 62-n, the position of the wearable terminals 10-1 to 10-m in the work area 60, the distance between the wearable terminal 10 and the optical sensor 62, The direction of wearable terminals 10-1 to 10-m or the direction of wearable terminal 10 with respect to optical sensor 62 can be detected. Thereby, the installation cost required in order to install a detection system can be reduced.

光センサ62が検出した漏れ光50の光量情報は、所定のタイミングで、光センサ62から後述するサーバへ送信される。サーバは、収集した光センサ62からの情報を解析する。これにより、任意のウェアラブル端末10−1〜10−mすなわちユーザの位置及び状態が検出できる。   The light amount information of the leakage light 50 detected by the optical sensor 62 is transmitted from the optical sensor 62 to a server described later at a predetermined timing. The server analyzes the collected information from the optical sensor 62. Thereby, arbitrary wearable terminals 10-1 to 10-m, that is, the position and state of the user can be detected.

図4は、実施形態に係るウェアラブル端末を認識するシステムの具体的な利用例を説明する概略図である。4個の光センサ62−1〜60−4の周囲にウェアラブル端末10−1〜10−3を装着した3人のユーザがいる状況を想定する。ウェアラブル端末10−1、10−2からの漏れ光50は、光センサ62−1〜60−4にて検出される。光センサ62−1〜60−4は、それぞれにおいて検出した漏れ光50の光量をA−D(Analog - Digital)変換し、光量に対応する光量情報として、所定のタイミングで、例えば近距離無線通信によりサーバへ送信する。   FIG. 4 is a schematic diagram illustrating a specific usage example of the system that recognizes the wearable terminal according to the embodiment. Assume a situation in which there are three users wearing wearable terminals 10-1 to 10-3 around four optical sensors 62-1 to 60-4. The leaked light 50 from the wearable terminals 10-1 and 10-2 is detected by the optical sensors 62-1 to 60-4. Each of the optical sensors 62-1 to 60-4 performs AD (Analog-Digital) conversion on the light amount of the leaked light 50 detected in each of them, and uses, for example, short-range wireless communication at predetermined timing as light amount information corresponding to the light amount. To the server.

ユーザの移動に応じてウェアラブル端末10−1が光センサ62−1へ移動する一方、ユーザの任意の動作、例えば首振り(頭部の旋回)に応じてウェアラブル端末10−2の向きが一時的に変化したとする。この時の検出情報の変化を図5に示す。   Wearable terminal 10-1 moves to optical sensor 62-1 according to the movement of the user, while wearable terminal 10-2 is temporarily oriented according to the user's arbitrary operation, for example, swinging (head turning). Suppose that The change of the detection information at this time is shown in FIG.

図5では、ウェアラブル端末10−1〜10−3のそれぞれの漏れ光50の変調方式として、間欠的な時間変化方式を用いた例を示している。すなわち、ウェアラブル端末10−1〜10−3のそれぞれにおいて、ID変調期間がずれている。   In FIG. 5, the example which used the intermittent time change system as a modulation system of each leaked light 50 of wearable terminal 10-1 to 10-3 is shown. That is, the ID modulation period is shifted in each of the wearable terminals 10-1 to 10-3.

図5(a)、(b)、(c)に示すように、1番目〜3番目のウェアラブル端末10−1〜10−3について、間欠的にウェアラブル端末のID変調期間が設定され、それ以外の期間は無変調期間である。各ID変調期間内では、同期信号SYNCとウェアラブル端末10−1〜10−3の端末IDが一つの組を構成し(1対1で対応し)、その組が複数回(図5に示すようにセンサが4個の場合、4の倍数回)、繰り返される。   As shown in FIGS. 5A, 5 </ b> B, and 5 </ b> C, the ID modulation period of the wearable terminal is intermittently set for the first to third wearable terminals 10-1 to 10-3, and the others This period is a non-modulation period. Within each ID modulation period, the synchronization signal SYNC and the terminal IDs of wearable terminals 10-1 to 10-3 constitute one set (corresponding one-to-one), and the set is a plurality of times (as shown in FIG. 5). If there are four sensors, a multiple of 4) is repeated.

1番目のウェアラブル端末10−1が無変調期間に入ると同時に、2番目のウェアラブル端末10−2のID変調期間が開始する。同様に2番目のウェアラブル端末10−2が無変調期間に入ると同時に、3番目のウェアラブル端末10−3のID変調期間が開始する。   As soon as the first wearable terminal 10-1 enters the non-modulation period, the ID modulation period of the second wearable terminal 10-2 starts. Similarly, the ID modulation period of the third wearable terminal 10-3 starts at the same time as the second wearable terminal 10-2 enters the non-modulation period.

2番目のウェアラブル端末10−2のID変調期間内と3番目のウェアラブル端末10−3のID変調期間内とにおいては、同期信号SYNCとウェアラブル端末10−2、10−3の端末IDが繰り返し変調される。このように、ウェアラブル端末10の端末IDを変調信号内に乗せることで、端末IDが検出可能である。   In the ID modulation period of the second wearable terminal 10-2 and the ID modulation period of the third wearable terminal 10-3, the synchronization signal SYNC and the terminal IDs of the wearable terminals 10-2 and 10-3 are repeatedly modulated. Is done. Thus, the terminal ID can be detected by placing the terminal ID of the wearable terminal 10 in the modulated signal.

上記の例では、ウェアラブル端末10−1〜10−3のそれぞれの変調タイミングは、時分割(間欠化)されている。しかし、例えば全てのウェアラブル端末10−1〜10−3について、連続的に変調されるものとし、ウェアラブル端末10−1〜10−3のそれぞれの変調基準周波数が変化されてもよい。また、スペクトル拡散時のそれぞれの周波数スペクトル特性が変化されてもよい。   In the above example, the modulation timings of the wearable terminals 10-1 to 10-3 are time-division (intermittent). However, for example, all the wearable terminals 10-1 to 10-3 may be continuously modulated, and the modulation reference frequencies of the wearable terminals 10-1 to 10-3 may be changed. Moreover, each frequency spectrum characteristic at the time of spectrum spreading may be changed.

図5(d)、(e)、(f)、(g)が示すように、光センサ62−1〜62−4からの情報通信期間は、各ID変調期間において細かく分割されている。   As shown in FIGS. 5D, 5E, 5F, and 5G, the information communication period from the optical sensors 62-1 to 62-4 is finely divided in each ID modulation period.

図4に示すように、初期の時点では、ウェアラブル端末10−1からの漏れ光の一部が、光センサ62−4に到達する。そのため、初期の時点では、図5(k)に示すように、光センサ62−4がウェアラブル端末10−1からの漏れ光を検出する。しかし、ウェアラブル端末10−1が光センサ62−1へ向かって移動するにつれて、光センサ62−4が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅が減少して行く。一方、図5(h)に示すように、光センサ62−1が検出するウェアラブル端末10−1からの漏れ光の変調信号振幅は、時間の経過と共に増加する。このように、光センサ62−1〜62−nが検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの位置の時間変化(移動状態)が検出できる。   As shown in FIG. 4, at the initial time, part of the leaked light from the wearable terminal 10-1 reaches the optical sensor 62-4. Therefore, at the initial time, as shown in FIG. 5 (k), the optical sensor 62-4 detects the leaked light from the wearable terminal 10-1. However, as the wearable terminal 10-1 moves toward the optical sensor 62-1, the modulation signal amplitude of the leaked light from the wearable terminal 10-1 detected by the optical sensor 62-4 decreases. On the other hand, as shown in FIG. 5 (h), the modulation signal amplitude of the leaked light from the wearable terminal 10-1 detected by the optical sensor 62-1 increases with time. In this way, by comparing the time change of the amplitude of the modulation signal detected by the optical sensors 62-1 to 62-n, the time change (moving state) of the position of the wearable terminal 10-1 to 10-m that is the detection target. Can be detected.

一方、初期の時点で、ウェアラブル端末10−2が光センサ62−3に向いているので、漏れ光から得られる変調信号振幅に関して、光センサ62−2での検出値より光センサ62−3での検出値の方が大きい。この後、例えば2番目のユーザが首を振り、一時的に光センサ62−2を向いたとする。すると、光センサ62−2が出力するウェアラブル端末10−2の検出出力は、図5(i)に示すように、一時的に増加した後、減少する。他方、光センサ62−3が出力するウェアラブル端末10−2の検出出力は、図5(j)に示すように、一時的に減少した後、増加する。   On the other hand, since the wearable terminal 10-2 is directed to the optical sensor 62-3 at the initial time, the modulation signal amplitude obtained from the leaked light is detected by the optical sensor 62-3 from the detection value of the optical sensor 62-2. The detected value of is larger. Thereafter, for example, it is assumed that the second user swings his head and temporarily faces the optical sensor 62-2. Then, the detection output of the wearable terminal 10-2 output by the optical sensor 62-2 temporarily increases and then decreases as shown in FIG. 5 (i). On the other hand, as shown in FIG. 5 (j), the detection output of the wearable terminal 10-2 output by the optical sensor 62-3 increases after being temporarily reduced.

このように、光センサ62が検出する変調信号振幅の時間変化を比較することで、検出対象であるウェアラブル端末10−1〜10−mの向きの時間変化も推定できる。   In this way, by comparing the time change of the modulation signal amplitude detected by the optical sensor 62, the time change in the direction of the wearable terminals 10-1 to 10-m that are detection targets can also be estimated.

上記の検出例は、ユーザの動きとして、移動や首振りである場合の例である。しかしそれに限らず、ユーザのさまざまな別の行動を利用してもよい。例えば、ユーザの手の移動や上体(身体)のひねり、等により漏れ光を一時的に遮光してもよい。この場合、全ての光センサ62−1〜60−4において、共通に、同一の時間帯に、変調信号振幅の一時的な減少が生じる。このように、全ての光センサ62−1〜60−4の変調信号振幅の変化の関連性を比較することで、ユーザの異なる行動パターンが識別可能である。   The above detection example is an example in the case of movement or swing as the user's movement. However, the present invention is not limited to this, and various other actions of the user may be used. For example, the leakage light may be temporarily blocked by moving the user's hand, twisting the upper body (body), or the like. In this case, in all the optical sensors 62-1 to 60-4, the modulation signal amplitude temporarily decreases in the same time zone. Thus, by comparing the relevance of the change in the modulation signal amplitude of all the optical sensors 62-1 to 60-4, it is possible to identify different behavior patterns of the user.

以上の方法を利用することにより、単なるユーザの行動を検出するだけでなく、ユーザの意思も認識することが可能である。   By using the above method, it is possible not only to detect the user's behavior but also to recognize the user's intention.

なお、ウェアラブル端末10の位置(x,y,z)を検出する方法として、ビーコンを用いてもよい。上述の例では、多数のウェアラブル端末10から端末識別情報が変調された光が多数の光センサ60に出射され、多数の光センサ60が受信した情報を比較処理して、ウェアラブル端末10の位置、状態を検出したが、多数の位置情報発信器をワークエリア60内に配置し、発信器から配置位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信すれば、それを受信したウェアラブル端末10は発信器の位置とほぼ同じ位置であると見なすことができる。さらに、GPSを利用してウェアラブル端末の位置を検出することもできる。位置検出は、一種類の方法のみに基づく必要は無く、複数の方法を併用すると、検出精度を向上できる。   Note that a beacon may be used as a method of detecting the position (x, y, z) of the wearable terminal 10. In the above-described example, the light whose terminal identification information is modulated is emitted from a large number of wearable terminals 10 to a large number of optical sensors 60, and the information received by the large number of optical sensors 60 is compared to determine the position of the wearable terminal 10, Although the state is detected, a large number of position information transmitters are arranged in the work area 60, and a beacon according to the arrangement position is transmitted from the transmitter by short-range wireless communication such as RF-ID having a reach distance of several meters, for example. Then, the wearable terminal 10 that has received it can be considered to be at substantially the same position as the position of the transmitter. Furthermore, the position of the wearable terminal can be detected using GPS. The position detection does not need to be based on only one type of method, and the detection accuracy can be improved by using a plurality of methods in combination.

図6は、ウェアラブル端末を使用するシステム全体の一例を示す。システムは、1又は複数のLAN102と、1つの広域ネットワーク104からなる。広域ネットワーク104は工場、ビル、企業毎のネットワークでもよいし、インターネットでもよい。LAN102は、例えば、工場の建屋、部署、ビルのフロア、企業の営業所等の単位であってもよい。各LAN102は複数のウェアラブル端末10、ドローン202、複数の光センサ62、アクセスポイント112、複数の位置情報発信器113、複数のカメラ114等からなる。ウェアラブル端末10の数は作業者の数だけ用意しておく必要はなく、所定個数だけ用意しておき、必要な作業者が空いている共有ウェアラブル端末を装着すればよい。ドローン202も同様に1又は数個だけ用意しておき、必要な作業者が空いている共有ドローンを使用すればよい。ウェアラブル端末10、ドローン202、光センサ62、位置情報発信器113、カメラ114等は無線によりアクセスポイント112に接続される。LAN102は広域ネットワーク104を介してコミュニケーションサーバ106に接続される。位置情報発信器113は、位置に応じたビーコンを、例えば数メートルの到達距離のRF−ID等の近距離無線通信により送信する。カメラ114は、LAN102のエリア内を撮影するものであり、その画像を解析することにより、ユーザの行動を知ることができる。例えば、ユーザ毎の標準画像を記憶しておいて、ユーザがウェアラブル端末10を取り付ける際の画像又は取り外す際の画像と比較することにより、装着ユーザを特定できる。多数のカメラを配置できない場合は、撮影方向が可変で、一台で広範囲のユーザを撮影できるカメラ114を配置する。   FIG. 6 shows an example of the entire system using a wearable terminal. The system includes one or more LANs 102 and one wide area network 104. The wide area network 104 may be a network for each factory, building, or company, or the Internet. The LAN 102 may be a unit such as a factory building, a department, a building floor, a company sales office, or the like. Each LAN 102 includes a plurality of wearable terminals 10, a drone 202, a plurality of optical sensors 62, an access point 112, a plurality of position information transmitters 113, a plurality of cameras 114, and the like. It is not necessary to prepare the number of wearable terminals 10 by the number of workers. A predetermined number of wearable terminals 10 may be prepared and a shared wearable terminal having a necessary worker available may be attached. Similarly, only one or several drones 202 may be prepared, and a shared drone free of necessary workers may be used. Wearable terminal 10, drone 202, optical sensor 62, position information transmitter 113, camera 114, and the like are connected to access point 112 by radio. The LAN 102 is connected to the communication server 106 via the wide area network 104. The position information transmitter 113 transmits a beacon according to the position by short-range wireless communication such as RF-ID having a reach distance of several meters. The camera 114 captures the area of the LAN 102, and can analyze the user's behavior by analyzing the image. For example, the wearing user can be identified by storing a standard image for each user and comparing it with an image when the user attaches or removes the wearable terminal 10. In the case where a large number of cameras cannot be arranged, the camera 114 that can shoot a wide range of users with a single camera is arranged.

ドローン202は遠隔操作される小型の飛行物体であるが、目的地がセットされると目的地まで自律的に飛行することもできる。通常、4つのプロペラを有するが、プロペラの個数は限定されない。ドローン202はカメラを搭載し、LAN102を介して撮影画像をウェアラブル端末10に送信し、さらにはネットワーク104を介して撮影画像をコミュニケーションサーバ106へ送信する。ドローン202は空中で静止したり、地上に着陸したりし、固定位置から撮影することもできる。例えば、図3に示すようなワークエリア60が1つのLAN102のエリアとなっている場合、ドローン202は、ワークエリア60内を自在に移動し、例えば製造装置A02の裏側を撮影することができ、撮影した画像を、他の場所、例えば製造装置A04の前に居るユーザのウェアラブル端末10−3に送信する。これにより、作業者は自分が実際に見ることができない風景をスクリーン16上で見ることができる。なお、ドローン202の個数は、作業者の個数だけ用意する必要はなく、必要な数でよい。   The drone 202 is a small flying object that is remotely operated. However, when the destination is set, the drone 202 can also fly autonomously to the destination. Usually, it has four propellers, but the number of propellers is not limited. The drone 202 is equipped with a camera, transmits a captured image to the wearable terminal 10 via the LAN 102, and further transmits the captured image to the communication server 106 via the network 104. The drone 202 can stand still in the air, land on the ground, and take a picture from a fixed position. For example, when the work area 60 as shown in FIG. 3 is an area of one LAN 102, the drone 202 can freely move within the work area 60 and, for example, can photograph the back side of the manufacturing apparatus A02. The captured image is transmitted to another place, for example, the wearable terminal 10-3 of the user in front of the manufacturing apparatus A04. As a result, the worker can view on the screen 16 a landscape that he / she cannot actually see. Note that the number of drones 202 need not be as many as the number of workers, and may be as many as necessary.

コミュニケーションサーバ106は情報検索部120、位置・情報管理部122、装着者推定部124、スケジュール管理部126、画像保管部128、撮影制御部130等を含む。   The communication server 106 includes an information search unit 120, a position / information management unit 122, a wearer estimation unit 124, a schedule management unit 126, an image storage unit 128, an imaging control unit 130, and the like.

位置・状態管理部122は、ウェアラブル端末10や管理者端末202の位置及び状態に関する情報を収集し、管理する。また、情報検索部120からそれらの情報を抽出する。スケジュール管理部126は、端末を装着する従業員の予定情報・出退勤記録を管理・提供するための機能を持つ。予定情報は、従業員の作業予定(何時から何時までは何処エリアにいて○○作業に従事する予定等)と、出/退勤時刻、作業記録(何時から何時までは何処エリアにいて○○作業に従事した等)を含む。また、情報検索部120からそれらの情報を抽出する。情報検索部120は、位置・状態管理部122やスケジュール管理部126の持つ情報を検索・処理するための機能を持つ。装着者推定部124は、管理している従業員の既存の特徴量データと与えられたユーザの特徴量データとの相関をとることで、装着者が誰であるかを決定する。撮影制御部130は、ドローン202の飛行目的地、撮影方向、撮影ズームレンズの倍率等を設定し、ドローン202の動きを制御する。画像保管部128は、ドローン202で撮影した画像又はウェアラブル端末10のカメラで撮影した画像を撮影日時、撮影機器のID、撮影位置、撮影方向、その他の撮影条件(ユーザID、作業エリア名、ユーザが操作している装置名、ズーム倍率等)等とともに保管することができる。実施の形態によっては、これらの情報の一部を保管するだけの場合もある。   The position / state management unit 122 collects and manages information on the position and state of the wearable terminal 10 and the administrator terminal 202. Further, the information is extracted from the information search unit 120. The schedule management unit 126 has a function for managing and providing schedule information and attendance records of employees who wear terminals. The schedule information includes the work schedule of the employee (from what time to what time in which area he / she will be engaged in work, etc.), the time of departure / working, and the work record (from what time to what time in which area he / she is working. Etc.). Further, the information is extracted from the information search unit 120. The information search unit 120 has a function for searching and processing information held by the position / state management unit 122 and the schedule management unit 126. The wearer estimation unit 124 determines who the wearer is by correlating existing feature data of the managed employee with the feature data of the given user. The shooting control unit 130 sets the flight destination of the drone 202, the shooting direction, the magnification of the shooting zoom lens, and the like, and controls the movement of the drone 202. The image storage unit 128 captures an image captured by the drone 202 or an image captured by the camera of the wearable terminal 10, an imaging date / time, an ID of an imaging device, an imaging position, an imaging direction, and other imaging conditions (user ID, work area name, user Can be stored together with the device name, zoom magnification, etc. Depending on the embodiment, only a part of the information may be stored.

図7は、ウェアラブル端末10の電気的な構成の一例を示す。ウェアラブル端末10は、CPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、マイク148、スピーカ54、画像処理部150(光源28、表示部30を制御する)、カメラ59、無線通信デバイス152、モーションセンサ154、視線検出センサ156、ジェスチャセンサ158、タッチパッド55、バイブレータ68、位置情報受信器159、GPSモジュール155等を備える。   FIG. 7 shows an example of the electrical configuration of the wearable terminal 10. The wearable terminal 10 includes a CPU 140, a system controller 142, a main memory 144, a storage device 146, a microphone 148, a speaker 54, an image processing unit 150 (controls the light source 28 and the display unit 30), a camera 59, a wireless communication device 152, a motion A sensor 154, a line-of-sight detection sensor 156, a gesture sensor 158, a touch pad 55, a vibrator 68, a position information receiver 159, a GPS module 155, and the like are provided.

CPU140は、ウェアラブル端末10内の各種モジュールの動作を制御するプロセッサであり、SSD又はフラッシュアレイ等の不揮発性の半導体メモリからなるストレージデバイス146からメインメモリ144にロードされるコンピュータプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)、および各種アプリケーションプログラムが含まれている。CPU140は、各種アプリケーションプログラムを実行し、無線通信デバイス152を使ってネットワーク経由でコミュニケーションサーバ106と通信することにより、例えば以下のような処理を行う。例えば、CPU140は、マイク148を使って音声入力を行い、音声データをコミュニケーションサーバ106へ送ったり、イヤホンジャック54Bに接続される図示しないステレオイヤホン又はスピーカ54から音を鳴らす等、様々の制御を行う。ステレオスピーカが必要である場合、図1、図2には図示しないが、左眼側のテンプルにもスピーカを設けてもよい。   The CPU 140 is a processor that controls the operation of various modules in the wearable terminal 10, and executes a computer program loaded into the main memory 144 from the storage device 146 formed of a nonvolatile semiconductor memory such as an SSD or a flash array. These programs include an operating system (OS) and various application programs. The CPU 140 executes various application programs and communicates with the communication server 106 via the network using the wireless communication device 152, and performs the following processing, for example. For example, the CPU 140 performs various controls such as performing voice input using the microphone 148, sending voice data to the communication server 106, and generating sound from a stereo earphone or speaker 54 (not shown) connected to the earphone jack 54B. . When a stereo speaker is necessary, although not shown in FIGS. 1 and 2, a speaker may be provided on the temple on the left eye side.

システムコントローラ142は、CPU140のローカルバスと各種コンポーネントとの間を接続するデバイスである。マイク148はマイクジャック56に接続され、ユーザが発する音声又は環境音を収集する。ユーザの発する音声を音声認識すること又は環境音を分析することにより、ユーザの行動の推定ができ、ユーザを特定できる。例えば、ユーザ毎の標準音声を記憶しておいて、装着者が発生する音声と比較することにより、装着ユーザを特定できる。また、環境音を分析することにより、装着者が位置する作業場所を特定することができ、ユーザの行動予定から当該場所にいる筈のユーザを絞り込むことができる。スピーカ54はユーザの注意を喚起するアラーム等を出力する。画像処理部150は、表示部30に画像信号を出力し、光源28を点灯することにより、スクリーン16に表示部30の画像を投影する。この画像は静止画のみならず、動画も含むことができる。無線通信デバイス152は、例えば無線LAN機能を有し、ウェアラブル端末10とアクセスポイント112とを無線で接続する。   The system controller 142 is a device that connects between the local bus of the CPU 140 and various components. The microphone 148 is connected to the microphone jack 56 and collects voice or environmental sound emitted by the user. By recognizing the voice uttered by the user or analyzing the environmental sound, the user's behavior can be estimated and the user can be identified. For example, the wearing user can be specified by storing the standard voice for each user and comparing it with the voice generated by the wearer. Further, by analyzing the environmental sound, it is possible to identify the work place where the wearer is located, and to narrow down the user who is at the place from the user's action schedule. The speaker 54 outputs an alarm for alerting the user. The image processing unit 150 outputs an image signal to the display unit 30 and turns on the light source 28 to project the image of the display unit 30 on the screen 16. This image can include not only still images but also moving images. The wireless communication device 152 has a wireless LAN function, for example, and connects the wearable terminal 10 and the access point 112 wirelessly.

モーションセンサ154は、3軸加速度、3軸ジャイロ、3軸地磁気センサを統合したセンサであり、ウェアラブル端末10を使用するユーザの頭の動きを検出でき、その結果、顔が向いている方角を判別する。視線検出センサ156は、メガネのフレーム中心の内側にユーザの顔に向けて設けられ、ユーザの眼球を撮影し、視線の動きを検出する。さらに、視線検出センサ156は、ユーザの虹彩を検出可能としてもよい。ジェスチャセンサ158は、指の動きによるジェスチャを判別するセンサである。具体的には、投影装置12に設けられたタッチバッド55上の指の動きや、カメラ59の画像を解析することにより、ユーザのジェスチャを判別するセンサの総称である。バイブレータ68は、投影装置12を振動させることによりウェアラブル端末10のテンプルを振動させ、ユーザに何かの情報を伝える。位置情報受信器159は、LAN102のエリア内に複数配置された位置情報発信器113からRF−ID等の近距離無線通信を利用して発信される位置情報を含むビーコンを受信する。近距離無線通信なので、発信器と受信器(ウェアラブル端末)との位置はほぼ同じと見做すことができる。GPSモジュール155は、ウェアラブル端末10の位置(x,y,z)を検出する。この検出結果と、位置情報受信器159の検出結果と、図3の光センサ62の検出結果を総合することにより、より正確にユーザの位置、その変化を検出できる。   The motion sensor 154 is a sensor that integrates a three-axis acceleration, a three-axis gyro, and a three-axis geomagnetic sensor. The motion sensor 154 can detect the movement of the head of the user who uses the wearable terminal 10, and as a result, determines the direction in which the face is facing. To do. The line-of-sight detection sensor 156 is provided toward the user's face inside the center of the frame of the glasses, photographs the user's eyeball, and detects the movement of the line of sight. Further, the line-of-sight detection sensor 156 may be capable of detecting the user's iris. The gesture sensor 158 is a sensor that determines a gesture caused by finger movement. Specifically, it is a generic term for sensors that determine a user's gesture by analyzing the movement of a finger on the touch pad 55 provided in the projection device 12 and the image of the camera 59. The vibrator 68 vibrates the temple of the wearable terminal 10 by vibrating the projection device 12, and conveys some information to the user. The position information receiver 159 receives a beacon including position information transmitted from a plurality of position information transmitters 113 arranged in the area of the LAN 102 using near field communication such as RF-ID. Since it is short-range wireless communication, the position of the transmitter and the receiver (wearable terminal) can be regarded as almost the same. The GPS module 155 detects the position (x, y, z) of the wearable terminal 10. By combining this detection result, the detection result of the position information receiver 159, and the detection result of the optical sensor 62 in FIG. 3, the position of the user and its change can be detected more accurately.

図8は、ドローン202の電気的な構成の一例を示す。ドローン202は、ウェアラブル端末202と同様に、CPU140A、システムコントローラ142A、メインメモリ144A、ストレージデバイス146A、無線通信デバイス152A、モーションセンサ154A、GPSモジュール155A等を備える。ドローン202のCPU140A、システムコントローラ142A、メインメモリ144A、ストレージデバイス146A、無線通信デバイス152A、モーションセンサ154A、GPSモジュール155Aは、ウェアラブル端末10のCPU140、システムコントローラ142、メインメモリ144、ストレージデバイス146、無線通信デバイス152、モーションセンサ154、GPSモジュール155と対応する。GPSモジュール155は、ドローン202の現在位置を検出し、目的地への自律的な飛行を可能とする。   FIG. 8 shows an example of the electrical configuration of the drone 202. Like the wearable terminal 202, the drone 202 includes a CPU 140A, a system controller 142A, a main memory 144A, a storage device 146A, a wireless communication device 152A, a motion sensor 154A, a GPS module 155A, and the like. The CPU 140A of the drone 202, the system controller 142A, the main memory 144A, the storage device 146A, the wireless communication device 152A, the motion sensor 154A, and the GPS module 155A are the CPU 140, the system controller 142, the main memory 144, the storage device 146, the wireless device of the wearable terminal 10. It corresponds to the communication device 152, the motion sensor 154, and the GPS module 155. The GPS module 155 detects the current position of the drone 202 and enables autonomous flight to the destination.

ドローン202は、さらに、カメラ156、モータ157等を備えてもよい。カメラ156はウェアラブル端末10のカメラ59と同機能であることが好ましいが、機能が異なっていても良く、例えばカメラ156の方が解像度が高く高機能であってもよい。カメラ156は撮影方向が可変であることは勿論であるが、レンズの焦点距離が可変であってもよい。カメラ156は静止画、動画のいずれも撮影可能であってもよいし、動画のみが撮影可能であってもよい。モータ157はドローン202を飛行させるための駆動源であり、複数のプロペラそれぞれを駆動可能である。   The drone 202 may further include a camera 156, a motor 157, and the like. The camera 156 preferably has the same function as the camera 59 of the wearable terminal 10, but the function may be different. For example, the camera 156 may have higher resolution and higher functionality. Of course, the camera 156 has a variable shooting direction, but the focal length of the lens may be variable. The camera 156 may be able to shoot both still images and moving images, or may be able to shoot only moving images. The motor 157 is a drive source for flying the drone 202, and can drive each of the plurality of propellers.

次に、このように構成されたウェアラブル端末10、コミュニケーションサーバ106、ドローン202による映像配信処理を説明する。ここでは、ウェアラブル端末10の使用環境は、多数の製造装置がある製造工場であるとする。製造現場においては、製造装置の稼働率が製品の生産量に影響を及ぼす大きな要因となる。製造装置は定期的な保守点検が必要であるが、保守点検時は装置を停止するので、保守点検作業の効率化が望まれている。また、製造装置に突発的な不具合が発生した場合の復旧作業も効率化が望まれている。このような保守点検、復旧作業の際、装置の裏側とか他の装置のメータの値等を参照したい要求がある。従前は、他の作業者に手伝って貰ったり、本人が他の箇所まで移動する必要がある。この実施形態では、自律飛行するドローン202のカメラ156により本人に代わって他の場所の映像を撮影する。   Next, video distribution processing by the wearable terminal 10, the communication server 106, and the drone 202 configured as described above will be described. Here, it is assumed that the use environment of the wearable terminal 10 is a manufacturing factory having a large number of manufacturing apparatuses. At the manufacturing site, the operating rate of the manufacturing apparatus is a major factor affecting the production volume of the product. Manufacturing equipment requires periodic maintenance and inspection. However, since the equipment is stopped during maintenance and inspection, the efficiency of maintenance and inspection work is desired. In addition, it is desired to improve the efficiency of recovery work when a sudden failure occurs in the manufacturing apparatus. During such maintenance and restoration work, there is a request to refer to the back side of the device or the meter value of other devices. Conventionally, it is necessary to help other workers and move to other places. In this embodiment, the camera 156 of the drone 202 flying autonomously captures an image of another place on behalf of the person.

図9、図10のフローチャートを参照して、作業開始前に、ユーザが作業現場とは異なる箇所、すなわち作業中に見たい箇所に移動して見たい画像(静止画)を先ず撮影し、その情報に基づいてドローン202を制御してドローン202の撮影を開始してから、作業現場に移動し、作業を行いながら他の箇所の映像を見る場合の処理の流れを説明する。例えば、図3の製造装置A04の裏側にメータがあり、このメータの値が装置A04の点検等の作業に必要であるとする。   Referring to the flowcharts of FIG. 9 and FIG. 10, before starting the work, the user first takes an image (still image) that he / she wants to move to a place different from the work site, i. The flow of processing when the drone 202 is controlled based on the information and shooting of the drone 202 is started and then moved to the work site and the video of another part is viewed while performing the work will be described. For example, it is assumed that there is a meter on the back side of the manufacturing apparatus A04 in FIG. 3, and the value of this meter is necessary for work such as inspection of the apparatus A04.

ウェアラブル端末10を使用するユーザは、図3の製造装置A04の裏側へまわり、メータを観察する。ブロックB12で、ユーザは、ウェアラブル端末10のフレーム中央のカメラ59を操作してメータを撮影する。撮影画像は、投影装置12によりスクリーン16に投影される。ユーザは、ブロックB14で、スクリーン16上の撮影画像を見て、最適な画像が得られるように、撮影位置、撮影方向、すなわち顔の位置、向きを調整する。カメラ59がズーム機能を有する場合は、レンズの焦点距離を調節して最適な画像を得てもよい。ズーム調整はタッチバッド55の操作等により行ってもよい。スクリーン16への投影においては、スイッチ57、58により輝度、色調、角度等が調整可能であるが、調整した場合、調整値は記憶され、ドローン202の撮影映像を表示する際に同じ調整値が適用されるように構成してもよい。   A user using wearable terminal 10 goes to the back side of manufacturing apparatus A04 in FIG. 3 and observes the meter. In block B12, the user operates the camera 59 at the center of the frame of the wearable terminal 10 to photograph the meter. The captured image is projected onto the screen 16 by the projection device 12. In block B14, the user looks at the photographed image on the screen 16 and adjusts the photographing position and photographing direction, that is, the position and orientation of the face so that an optimum image can be obtained. When the camera 59 has a zoom function, an optimal image may be obtained by adjusting the focal length of the lens. The zoom adjustment may be performed by operating the touch pad 55 or the like. In the projection onto the screen 16, the brightness, color tone, angle, etc. can be adjusted by the switches 57, 58. However, when adjusted, the adjustment value is stored, and the same adjustment value is displayed when displaying the captured image of the drone 202. It may be configured to be applied.

所望の画像が得られると、ユーザは、タッチバッド55の操作等によりシャッタ操作をする。シャッタ操作がされると、ウェアラブル端末10のCPU140は、ブロックB16で、撮影画像(静止画)をその時の撮影方向情報とともにストレージデバイス146に保存する。撮影方向情報は、モーションセンサ154により検出された顔の向きにより得られ、カメラ59を始点とする3次元ベクトルで表される。シャッタ操作の他の例は、マイク148から音声コマンドを入力し、音声認識によりコマンドを検出すること、顔を所定の方向に振り、モーションセンサ154により顔の所定の動きを検出すること、指、手を所定の方向に振り、カメラ59で撮影し、画像解析により指、手の所定の動きを検出すること等がある。   When a desired image is obtained, the user performs a shutter operation by operating the touch pad 55 or the like. When the shutter operation is performed, the CPU 140 of the wearable terminal 10 stores the captured image (still image) in the storage device 146 together with the shooting direction information at that time in block B16. The shooting direction information is obtained from the orientation of the face detected by the motion sensor 154, and is represented by a three-dimensional vector starting from the camera 59. Other examples of the shutter operation include inputting a voice command from the microphone 148, detecting the command by voice recognition, swinging the face in a predetermined direction, detecting a predetermined movement of the face by the motion sensor 154, a finger, There are cases where a hand is shaken in a predetermined direction, an image is taken by the camera 59, and a predetermined movement of a finger or hand is detected by image analysis.

その後、CPU140は、ブロックB18で、画像と撮影方向情報とをコミュニケーションサーバ106へ送信し、ドローン撮影を要求する。すなわち、シャッタ操作がドローン撮影を要求するユーザ操作となる。この後、ユーザは撮影場所から移動する。例えば、ユーザは、図3の製造装置A04の表側へまわり、保守点検又は復旧作業を行う。   Thereafter, in block B18, the CPU 140 transmits the image and shooting direction information to the communication server 106 and requests drone shooting. That is, the shutter operation is a user operation that requests drone shooting. Thereafter, the user moves from the shooting location. For example, the user goes to the front side of the manufacturing apparatus A04 in FIG. 3 and performs maintenance inspection or restoration work.

コミュニケーションサーバ106では、位置・状態管理部122が、ブロックB20で多数の光センサ62の出力を受信して演算処理して、ドローン撮影を要求したウェアラブル端末10の位置:撮影位置(x,y,z)を検出する。   In the communication server 106, the position / state management unit 122 receives the outputs of the multiple optical sensors 62 in block B20, performs arithmetic processing, and the position of the wearable terminal 10 that requested drone shooting: shooting position (x, y, z) is detected.

撮影位置が検出されると、撮影制御部130は、ブロックB24で、ドローン202を起動し、ブロックB36で、ウェアラブル端末10から送信された撮影画像、撮影方向情報とともに、ブロックB20で検出した撮影位置情報をドローン202へ送信する。ドローン202の起動はブロックB24のタイミングではなく、ブロックB36の撮影画像、撮影方向情報、撮影位置情報の送信タイミングでも良いし、その後でもよい。   When the shooting position is detected, the shooting control unit 130 activates the drone 202 in block B24, and the shooting position detected in block B20 together with the shot image and shooting direction information transmitted from the wearable terminal 10 in block B36. Information is transmitted to the drone 202. The activation of the drone 202 may be performed not at the timing of the block B24 but at the transmission timing of the captured image, the imaging direction information, and the imaging position information of the block B36, or after that.

ドローン202は、ブロックB32で起動すると、撮影画像、撮影方向情報、撮影位置情報を受信する。   When the drone 202 is activated in the block B32, the drone 202 receives the photographed image, the photographing direction information, and the photographing position information.

ドローン202は、ブロックB38で、受信した撮影位置情報に応じた位置まで飛行して、静止する。これにより、静止画を撮影した時のウェアラブル端末10の位置にユーザはもう居ないが、その代りにドローン202がその場所に位置することになる。   The drone 202 flies to a position corresponding to the received photographing position information and stops at block B38. As a result, the user is no longer at the position of the wearable terminal 10 when the still image is taken, but the drone 202 is positioned at that place instead.

次に、ドローン202は、ブロックB40で、受信した撮影方向情報に応じてカメラ156の向きを調整する。これにより、静止画を撮影した時のウェアラブル端末10の位置と同じ場所に位置するドローン202のカメラ156が、静止画を撮影したウェアラブル端末10のカメラ59と同じ向きとなる。   Next, the drone 202 adjusts the orientation of the camera 156 in accordance with the received shooting direction information in block B40. As a result, the camera 156 of the drone 202 located at the same location as the position of the wearable terminal 10 when the still image is captured is in the same direction as the camera 59 of the wearable terminal 10 that captured the still image.

ブロックB42で、ドローン202は、カメラ156による撮影を開始する。この時に撮影される動画に含まれる静止画は、ウェアラブル端末10が撮影した画像と同じであるはずである。しかし、ウェアラブル端末10の位置・撮影方向検出の誤差、ドローン202の位置・撮影方向制御の誤差等により、程度は様々であるが、ウェアラブル端末10が撮影した画像と若干異なる可能性がある。そのため、ドローン202又はコミュニケーションサーバ106で、両画像の特徴量を計算し、特徴量マッチングを実行して、両画像が一致しているか否かを調べることとする。ここでは、ドローン202で特徴量マッチングを実行する例を説明するが、コミュニケーションサーバ106で特徴量マッチングを実行してもよい。   In block B42, the drone 202 starts photographing with the camera 156. The still image included in the moving image photographed at this time should be the same as the image photographed by the wearable terminal 10. However, the degree may vary slightly depending on the position / photographing direction detection error of the wearable terminal 10 and the position / photographing direction control error of the drone 202, but may differ slightly from the image photographed by the wearable terminal 10. Therefore, the drone 202 or the communication server 106 calculates feature amounts of both images and executes feature amount matching to check whether or not both images match. Here, an example in which feature amount matching is executed by the drone 202 will be described. However, the communication server 106 may execute feature amount matching.

ドローン202は、ブロックB44で、コミュニケーションサーバ106から送信されたウェアラブル端末10の撮影画像の特徴量と、ブロックB42で撮影した画像の特徴量を計算し、特徴量マッチング処理により両画像の一致度を判定し、判定結果に応じて、ドローン202の位置、撮影カメラ156の向き又は必要に応じてその他の撮影条件を調整して、ウェアラブル端末10が撮影した画像と同じ画像が撮影されるようにする。   In step B44, the drone 202 calculates the feature amount of the photographed image of the wearable terminal 10 transmitted from the communication server 106 and the feature amount of the image photographed in the block B42. According to the determination result, the position of the drone 202, the direction of the shooting camera 156, or other shooting conditions are adjusted as necessary, so that the same image as the image shot by the wearable terminal 10 is shot. .

同じ画像が得られたら、ドローン202は、ブロックB46で映像配信通知をコミュニケーションサーバ106へ送信する。コミュニケーションサーバ106は、ブロックB48で、映像配信通知をウェアラブル端末10へ送信する。ウェアラブル端末10が通知に応答すると、ドローン202は、ブロックB54で映像配信を開始し、ウェアラブル端末10は、ブロックB56で映像受信を開始する。映像配信は、ウェアラブル端末10が終了要求を送信するまで続く。配信された映像は、画像処理部150によりスクリーン16に投影される。   If the same image is obtained, the drone 202 transmits a video distribution notification to the communication server 106 in block B46. The communication server 106 transmits a video distribution notification to the wearable terminal 10 in block B48. When the wearable terminal 10 responds to the notification, the drone 202 starts video distribution at block B54, and the wearable terminal 10 starts video reception at block B56. The video distribution continues until the wearable terminal 10 transmits a termination request. The distributed video is projected on the screen 16 by the image processing unit 150.

なお、ウェアラブル端末10は、配信された映像の撮影を遠隔制御する機能を備えてもよい。例えば、ユーザは作業の進行状況に応じて、異なる撮影方向、異なる場所の映像を見たいことがある。撮影方向、撮影場所の調整操作の具体例は、スイッチ57、58の操作、タッチパッド55の操作、音声入力、顔の動作、指の動作等がある。音声入力の場合、マイク148から入力した音声が認識され、調整コマンドが検出される。顔の動作の場合、上下左右に動かすと位置・方向、前後に動かすとズーム等を調整してもよい。ジェスチャ操作の場合、指の動きがカメラ59で撮影され、画像の解析により特定のジェスチャが認識されると、調整コマンドが検出される。   The wearable terminal 10 may have a function of remotely controlling shooting of the distributed video. For example, the user may want to see images of different shooting directions and different places depending on the progress of work. Specific examples of the shooting direction and shooting location adjustment operations include operations of the switches 57 and 58, operation of the touch pad 55, voice input, face motion, finger motion, and the like. In the case of voice input, the voice input from the microphone 148 is recognized and an adjustment command is detected. In the case of a face motion, the position and direction may be adjusted by moving up, down, left, and right, and zoom or the like may be adjusted by moving back and forth. In the case of a gesture operation, the movement of a finger is photographed by the camera 59, and when a specific gesture is recognized by analyzing the image, an adjustment command is detected.

このように、ウェアラブル端末10のカメラ59によりユーザが撮影した現場の撮影位置、撮影方向等がドローン202に送信されると、ドローン202が同じ撮影位置に移動し、同じ撮影方向となるようにドローン202のカメラ156が制御される。したがって、ユーザがその現場を離れる前にその現場を撮影しておくだけで、ユーザに代わってドローン202がその現場の撮影を行う。ユーザは、ウェアラブル端末10の左眼側のレンズを介して、現在の視線の先の風景を見ることができると同時に、右眼側のスクリーン16でドローン202が撮影している離れた現場の画像を見ることができる。これにより、作業員は、三脚等のカメラを固定して所望の画像を撮影できるように調整してから現場を離れる必要が無く、異なる箇所の画像を容易に参照しながら、作業を行うことができ、作業の効率が上がる。しかも、特徴量マッチングを使って2枚の画像の撮影位置、撮影方向等を微調整するので、ドローン202は、ユーザがウェアラブル端末10で撮影した画像と同じ画像を確実に撮影できる。   As described above, when the shooting position, shooting direction, and the like of the scene taken by the user by the camera 59 of the wearable terminal 10 are transmitted to the drone 202, the drone 202 moves to the same shooting position and has the same shooting direction. 202 cameras 156 are controlled. Therefore, the drone 202 shoots the site on behalf of the user only by shooting the site before the user leaves the site. The user can see the scenery ahead of the current line of sight through the lens on the left eye side of the wearable terminal 10, and at the same time, the image of the distant site being photographed by the drone 202 on the screen 16 on the right eye side. Can see. As a result, the operator does not have to leave the site after adjusting the camera such as a tripod so that a desired image can be taken, and can work while easily referring to images at different locations. This increases work efficiency. Moreover, since the shooting position, shooting direction, and the like of the two images are finely adjusted using the feature amount matching, the drone 202 can surely capture the same image as the image captured by the user with the wearable terminal 10.

ユーザから離れた場所を撮影するためにドローン202を利用したが、ドローンに限らず、他の飛行物体でもよいし、飛行物体に限らず、地上を走行する自走式の物体や、地上を歩行するロボット等にカメラを取り付けてもよい。   Although the drone 202 is used to photograph a place away from the user, it is not limited to the drone but may be another flying object, not only the flying object, but also a self-propelled object traveling on the ground or walking on the ground. A camera may be attached to the robot or the like.

図9、図10は、作業開始前にユーザが撮影した画像を引き続き撮影するようにドローン202を設定してから、ユーザが移動する例を説明したが、このシステムの使用例はこれに限定されない。図11、図12のフローチャートを参照して、他の使用例を説明する。この例は、コミュニケーションサーバ106の画像保管部128に記憶されている画像の中から画像を選択して、その画像と同じ画像をドローン202が撮影するように構成される。この例によれば、事前にドローン202を設定することなく、作業中にユーザが見たい画像又は箇所を指定すると、必要な画像が配信される。   9 and 10 illustrate an example in which the user moves after setting the drone 202 so as to continuously capture an image captured by the user before the start of work. However, the use example of this system is not limited thereto. . Another usage example will be described with reference to the flowcharts of FIGS. This example is configured such that an image is selected from images stored in the image storage unit 128 of the communication server 106 and the drone 202 captures the same image as that image. According to this example, if the user specifies an image or a portion that the user wants to see without setting the drone 202 in advance, a necessary image is distributed.

ブロックB102で、ユーザは、ウェアラブル端末10のフレーム中央のカメラ59を操作してメータを撮影する。撮影画像は、投影装置12によりスクリーン16に投影される。ユーザは、ブロックB104で、スクリーン16上の撮影画像を見て、最適な画像が得られるように、撮影位置、撮影方向、すなわち顔の位置、向きを調整する。カメラ59がズーム機能を有する場合は、レンズの焦点距離を調節して最適な画像を得てもよい。ズーム調整はタッチバッド55の操作等により行ってもよい。スクリーン16への投影においては、スイッチ57、58により輝度、色調、角度等が調整可能であるが、調整した場合、調整値は記憶され、ドローン202の撮影画像を表示する際に同じ調整値が適用されるように構成してもよい。   In block B102, the user operates the camera 59 in the center of the frame of the wearable terminal 10 to photograph the meter. The captured image is projected onto the screen 16 by the projection device 12. In block B104, the user looks at the photographed image on the screen 16 and adjusts the photographing position and photographing direction, that is, the face position and orientation so that an optimum image is obtained. When the camera 59 has a zoom function, an optimal image may be obtained by adjusting the focal length of the lens. The zoom adjustment may be performed by operating the touch pad 55 or the like. In the projection onto the screen 16, the brightness, color tone, angle, and the like can be adjusted by the switches 57 and 58. However, when the adjustment is made, the adjustment value is stored, and the same adjustment value is displayed when the captured image of the drone 202 is displayed. It may be configured to be applied.

所望の画像が得られると、ユーザは、タッチバッド55の操作等によりシャッタ操作をする。シャッタ操作がされると、ウェアラブル端末10のCPU140は、ブロックB106で、撮影画像(静止画)をその時の撮影方向情報とともにストレージデバイス146に保存するとともに、コミュニケーションサーバ106へ送信する。   When a desired image is obtained, the user performs a shutter operation by operating the touch pad 55 or the like. When the shutter operation is performed, the CPU 140 of the wearable terminal 10 stores the photographed image (still image) in the storage device 146 together with the photographing direction information at that time and transmits it to the communication server 106 in block B106.

コミュニケーションサーバ106では、位置・状態管理部122が、ブロックB108で多数の光センサ62の出力を受信して演算処理して、各ウェアラブル端末10の位置(x,y,z)を検出して、管理している。ウェアラブル端末10から送信された撮影画像と撮影方向情報を受信すると、画像保管部128は、ブロックB112で、送信端末の位置情報を位置・状態管理部122から読み出し、受信した撮影画像と撮影方向情報、その他の情報とともに、表1に示すように撮像画像データベースとして記憶する。

Figure 2017050718
In the communication server 106, the position / state management unit 122 receives the outputs of the multiple optical sensors 62 in block B108, performs arithmetic processing, detects the position (x, y, z) of each wearable terminal 10, and I manage. When the captured image and the shooting direction information transmitted from the wearable terminal 10 are received, the image storage unit 128 reads the position information of the transmitting terminal from the position / state management unit 122 in block B112, and the received captured image and the shooting direction information. Along with other information, it is stored as a captured image database as shown in Table 1.
Figure 2017050718

画像IDと関連づけて多くの情報を記憶するのは、これらの情報に基づいて画像を検索するためである。撮影方向は、前の例では、撮影位置を始点とする3次元ベクトルである。ユーザIDは撮影者を示し、画像データベースから自分の撮影画像のみならず、他者の撮影画像も検索するために記憶される。作業位置は、撮影位置から一義的に導かれるが、検索の便宜のために記憶される。撮影画像のみならずサムネイル画像も保管する理由は、保管画像一覧を表示するためである。   The reason why a lot of information is stored in association with the image ID is to search for an image based on such information. The shooting direction is a three-dimensional vector starting from the shooting position in the previous example. The user ID indicates a photographer, and is stored for searching not only a photographed image of himself but also a photographed image of another person from the image database. The work position is uniquely derived from the shooting position, but is stored for convenience of search. The reason for storing thumbnail images as well as photographed images is to display a list of stored images.

いずれのウェアラブル端末10においても上述の動作が繰り返され、多数の撮影画像がコミュニケーションサーバ106の画像保管部128に蓄積される。   In any wearable terminal 10, the above-described operation is repeated, and a large number of captured images are accumulated in the image storage unit 128 of the communication server 106.

ウェアラブル端末10のCPU140は、ブロックB114で、タッチバッド55の操作等によりドローン撮影が要求されたか否かを判定する。否の場合、ブロックB102の処理に戻り、撮影画像の蓄積が継続する。なお、この間、ユーザは移動してもよい。   In block B114, the CPU 140 of the wearable terminal 10 determines whether drone shooting is requested by operating the touch pad 55 or the like. If not, the process returns to block B102 and the accumulation of the captured image continues. During this time, the user may move.

ドローン撮影が要求された場合、CPU140は、ブロックB118で、コミュニケーションサーバ106へ画像選択メニューを要求する。   If drone shooting is requested, the CPU 140 requests the communication server 106 for an image selection menu in block B118.

ドローン撮影要求を受けると、コミュニケーションサーバ106では、ブロックB122で、ドローン202を起動するとともに、撮影画像データベースに基づいて画像選択メニューを生成し、ウェアラブル端末10へ送信する。   When receiving the drone shooting request, the communication server 106 activates the drone 202 in block B122, generates an image selection menu based on the shot image database, and transmits it to the wearable terminal 10.

ウェアラブル端末10は、画像選択メニューを受信すると、画像処理部150は、ブロックB126で、画像選択メニューをスクリーンに投影する。選択メニューは種々用意されており、予め選択、あるいはメニュー表示中に他の選択メニューに変更可能である。   When the wearable terminal 10 receives the image selection menu, the image processing unit 150 projects the image selection menu onto the screen in block B126. Various selection menus are prepared and can be selected in advance or changed to another selection menu while the menu is displayed.

選択メニューの例:
・同じユーザの同じ装置の異なる撮影方向のサムネイル画像の一覧
・同じユーザの異なる装置の同じ撮影方向のサムネイル画像の一覧
・同じユーザ又は特定の他のユーザの同じ装置に関するサムネイル画像の一覧
・同じユーザ又は特定の他のユーザの特定の日のサムネイル画像の一覧
ユーザは、メニュー内のいずれかの画像を選択する。選択操作は、タッチバッド55の操作以外に、マイク148から音声コマンドを入力し、音声認識によりコマンドを検出すること、顔を所定の方向に振り、モーションセンサ154により顔の所定の動きを検出すること、指、手を所定の方向に振り、カメラ59で撮影し、画像解析により指、手の所定の動きを検出すること等がある。いずれかのサムネイル画像が選択されると、CPU140は、ブロックB130で、選択結果をコミュニケーションサーバ106へ送信する。
Selection menu example:
List of thumbnail images of the same user for the same device in different shooting directions List of thumbnail images of the same user for different devices in the same shooting direction List of thumbnail images related to the same device for the same user or a specific other user Same user Alternatively, a list of thumbnail images on a specific day of a specific other user The user selects any image in the menu. In addition to the operation of the touch pad 55, the selection operation includes inputting a voice command from the microphone 148, detecting the command by voice recognition, swinging the face in a predetermined direction, and detecting a predetermined movement of the face by the motion sensor 154. In other words, a finger or hand may be swung in a predetermined direction, photographed by the camera 59, and a predetermined movement of the finger or hand may be detected by image analysis. When any one of the thumbnail images is selected, the CPU 140 transmits the selection result to the communication server 106 in block B130.

なお、選択メニューは、サムネイル画像の一覧ではなく、表1に示す画像の属性の一覧でもよい。例えば、「見たい作業装置を選んで下さい:(1)装置A、(2)装置B、…」のテキストが表示され、装置が選択されると、「見たい撮影方向を選んで下さい:(1)正面、(2)背面、(3)右斜め上、…」の画面に変わり、画像を特定する属性の一覧が次々に表示されてもよい。   The selection menu may be a list of image attributes shown in Table 1 instead of a list of thumbnail images. For example, the text “Select the work device you want to see: (1) Device A, (2) Device B,...” Is displayed. Instead of the screen of “1) Front, (2) Back, (3) Upper right,...”, A list of attributes specifying the images may be displayed one after another.

コミュニケーションサーバ106は、選択結果を受信すると、ブロックB146で、撮影制御部130は、画像保管部128の撮像画像データベースから選択画像に応じた撮影位置と撮影方向情報を読み出す。あるいは、画像ではなく、属性が選択された場合は、ブロックB146で、撮影制御部130は、画像保管部128の撮像画像データベースから選択された属性に応じた画像を読み出す。次いで、ブロックB148で、撮影制御部130は、画像、撮影位置情報、撮影方向情報をドローン202へ送信する。   Upon receiving the selection result, the communication server 106 reads the shooting position and shooting direction information corresponding to the selected image from the captured image database of the image storage unit 128 in block B146. Alternatively, when an attribute is selected instead of an image, the imaging control unit 130 reads an image according to the selected attribute from the captured image database of the image storage unit 128 in block B146. Next, in block B <b> 148, the shooting control unit 130 transmits the image, shooting position information, and shooting direction information to the drone 202.

ドローン202は、ブロックB138で起動し、ブロックB150で、受信した撮影位置情報に応じた位置まで飛行して、静止する。これにより、ユーザが選択メニューで選択した画像を撮影した時のウェアラブル端末10の場所にドローン202が位置する。   The drone 202 is activated in block B138, and in block B150, the drone 202 flies to a position corresponding to the received photographing position information and stops. Thereby, the drone 202 is located at the place of the wearable terminal 10 when the image selected by the user in the selection menu is taken.

次に、ドローン202は、ブロックB152で、受信した撮影方向情報に応じてカメラ156の向きを調整する。これにより、選択した静止画を撮影した時のウェアラブル端末10の位置と同じ場所に位置するドローン202のカメラ156が、静止画を撮影したウェアラブル端末10のカメラ59と同じ向きとなる。   Next, the drone 202 adjusts the direction of the camera 156 in accordance with the received shooting direction information in block B152. As a result, the camera 156 of the drone 202 located at the same location as the position of the wearable terminal 10 when the selected still image is captured is oriented in the same direction as the camera 59 of the wearable terminal 10 that captured the still image.

ブロックB154で、ドローン202は、カメラ156による撮影を開始する。この時に撮影される動画に含まれる静止画は、ウェアラブル端末10が撮影した画像と同じであるはずである。しかし、ウェアラブル端末10の位置・撮影方向検出の誤差、ドローン202の位置・撮影方向制御の誤差等により、程度は様々であるが、ウェアラブル端末10が撮影した画像と若干異なる可能性がある。そのため、ドローン202又はコミュニケーションサーバ106で、両画像の特徴量を計算し、特徴量マッチングを実行して、両画像が一致しているか否かを調べることとする。ここでは、ドローン202で特徴量マッチングを実行する例を説明するが、コミュニケーションサーバ106で特徴量マッチングを実行してもよい。   In block B154, the drone 202 starts photographing with the camera 156. The still image included in the moving image photographed at this time should be the same as the image photographed by the wearable terminal 10. However, the degree may vary slightly depending on the position / photographing direction detection error of the wearable terminal 10 and the position / photographing direction control error of the drone 202, but may differ slightly from the image photographed by the wearable terminal 10. Therefore, the drone 202 or the communication server 106 calculates feature amounts of both images and executes feature amount matching to check whether or not both images match. Here, an example in which feature amount matching is executed by the drone 202 will be described. However, the communication server 106 may execute feature amount matching.

ドローン202は、ブロックB156で、コミュニケーションサーバ106から送信されたウェアラブル端末10の撮影画像の特徴量と、ブロックB42で撮影した画像の特徴量を計算し、特徴量マッチング処理により両画像の一致度を判定し、判定結果に応じて、ドローン202の位置、撮影カメラ156の向き又は必要に応じてその他の撮影条件を調整して、ウェアラブル端末10が撮影した画像と同じ画像が撮影されるようにする。   In step B156, the drone 202 calculates the feature amount of the photographed image of the wearable terminal 10 transmitted from the communication server 106 and the feature amount of the image photographed in the block B42. According to the determination result, the position of the drone 202, the direction of the shooting camera 156, or other shooting conditions are adjusted as necessary, so that the same image as the image shot by the wearable terminal 10 is shot. .

同じ画像が得られたら、ドローン202は、ブロックB158で映像配信通知をコミュニケーションサーバ106へ送信する。コミュニケーションサーバ106は、ブロックB162で、映像配信通知をウェアラブル端末10へ送信する。ウェアラブル端末10が通知に応答すると、ドローン202は、ブロックB166で映像配信を開始し、ウェアラブル端末10は、ブロックB168で映像受信を開始する。映像配信は、ウェアラブル端末10が終了要求を送信するまで続く。配信された映像は、画像処理部150によりスクリーン16に投影される。   If the same image is obtained, the drone 202 transmits a video distribution notification to the communication server 106 in block B158. The communication server 106 transmits a video distribution notification to the wearable terminal 10 in block B162. When the wearable terminal 10 responds to the notification, the drone 202 starts video distribution at block B166, and the wearable terminal 10 starts video reception at block B168. The video distribution continues until the wearable terminal 10 transmits a termination request. The distributed video is projected on the screen 16 by the image processing unit 150.

このように、画像保管部130がウェアラブル端末10で撮影した多数の静止画を保管しているので、作業中にユーザが装置の裏側等の実際に見ることができない場所の映像を見たい場合、保管画像の中から見たい映像に近い画像を選択することにより、その画像と同じ画像をドローン202が撮影して、ユーザのウェアラブル端末に配信される。この例によれば、作業前にドローン202の撮影を開始させることもできるので、ユーザは、作業前に画像を選択して映像配信を開始しておけば、作業開始とともに必要な映像を見ることができる、作業効率が向上する。   As described above, since the image storage unit 130 stores a large number of still images taken by the wearable terminal 10, when the user wants to view a video of a place where the user cannot actually see, such as the back side of the apparatus during work, By selecting an image close to the desired video from the stored images, the drone 202 captures the same image as that image and distributes it to the wearable terminal of the user. According to this example, since shooting of the drone 202 can be started before work, if the user selects an image and starts video distribution before the work, the user can view the necessary video as the work starts. Work efficiency is improved.

図11、図12のフローチャートでは、ドローン撮影を要求すると、画像選択メニューが表示され、ユーザが選択することを説明したが、選択不要とすることもできる。例えば、ユーザ毎の作業対象の装置又はユーザのスケジュールによって、次に参照すべき箇所が決まっている場合は、それに応じてドローン202を自動的に制御して、参照すべき映像を撮影するようにしてもよい。撮影制御部130は、表2のようなユーザ毎の参照画像データベースを記憶し、現在の作業内容に応じてドローン202の移動先、撮影方向を制御してもよい。

Figure 2017050718
In the flowcharts of FIGS. 11 and 12, it has been described that when a drone shooting is requested, an image selection menu is displayed and the user makes a selection. However, selection may be unnecessary. For example, if the location to be referred to next is determined according to the work target device for each user or the user's schedule, the drone 202 is automatically controlled in accordance with that and the video to be referred to is shot. May be. The imaging control unit 130 may store a reference image database for each user as shown in Table 2, and may control the moving destination and imaging direction of the drone 202 according to the current work content.
Figure 2017050718

また、定期点検等のように作業手順が細かく決まっている場合は、スケジュール管理部126がユーザ毎の作業スケジュールを管理している。したがって、そのスケジュールに応じて順次ドローン202の移動先、撮影方向を自動的に決めてもよい。   In addition, when the work procedure is finely determined as in periodic inspections, the schedule management unit 126 manages the work schedule for each user. Therefore, the moving destination and shooting direction of the drone 202 may be automatically determined sequentially according to the schedule.

なお、このように配信映像を自動的に決める場合でも、ユーザの操作により、配信映像に代えて選択メニューを表示するにしてもよい。   Even when the distribution video is automatically determined as described above, a selection menu may be displayed instead of the distribution video by a user operation.

実施形態としてメガネ型ウェアラブル端末を説明したが、ゴーグル型、ヘルメット型等の他の頭部装着型でもよいし、リストバンド型、ペンダント型等にも本発明は適用可能である。例えば、ヘルメット型又はゴーグル型にすると、投影装置12、カメラ59をヘルメット又はゴーグルに取り付けることができ、通常のメガネユーザも使用できる。さらに、ヘルメット型にすると、スピーカ54をヘルメットの内側に取り付けることができるので、よりクリアな音を聴くことができるとともに、マイクをヘルメットに取り付け、しかも位置を調整できるので、マイクの集音能力が向上する。   The glasses-type wearable terminal has been described as an embodiment, but other head-mounted types such as a goggle type and a helmet type may be used, and the present invention is applicable to a wristband type and a pendant type. For example, in the case of a helmet type or goggles type, the projection device 12 and the camera 59 can be attached to a helmet or goggles, and a normal glasses user can also be used. Furthermore, if the helmet type is used, the speaker 54 can be attached to the inside of the helmet, so that a clearer sound can be heard, the microphone can be attached to the helmet, and the position can be adjusted. improves.

また、頭部装着型以外のウェアラブル端末にも本発明は適用可能である。   The present invention can also be applied to wearable terminals other than the head-mounted type.

さらに、ウェアラブルでなくても携帯可能な小型軽量で、常にユーザとともにある電子機器、例えば、ノートブック型パソコン、タブレット型パソコン、スマートフォンにも本発明は適用可能である。   Furthermore, the present invention can be applied to a small and light portable device that is not wearable and always with the user, such as a notebook computer, a tablet computer, and a smartphone.

ウェアラブル端末とコミュニケーションサーバとの機能分担は上述した説明の通りに限定されず、ウェアラブル端末の機能として説明したものの一部をコミュニケーションサーバの機能として実現してもよいし、コミュニケーションサーバの機能として説明したものの一部をウェアラブル端末の機能として実現してもよい。   The function sharing between the wearable terminal and the communication server is not limited as described above, and part of what is described as the function of the wearable terminal may be realized as the function of the communication server, or described as the function of the communication server. A part of the device may be realized as a wearable terminal function.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

10…ウェアラブル端末、12…投影装置、16…スクリーン、54…スピーカ、55…パッチパッド、59…カメラ、62…光センサ、106…コミュニケーションサーバ、114…カメラ、148…マイク、152…無線通信デバイス、202…ドローン。   DESCRIPTION OF SYMBOLS 10 ... Wearable terminal, 12 ... Projection apparatus, 16 ... Screen, 54 ... Speaker, 55 ... Patch pad, 59 ... Camera, 62 ... Optical sensor, 106 ... Communication server, 114 ... Camera, 148 ... Microphone, 152 ... Wireless communication device 202 ... Drone.

Claims (18)

位置を変えることができ第1カメラを具備する筐体と通信可能であり、ユーザの頭部に装着され得るウェアラブル端末であって、
ユーザの視線に沿った画像を撮影する第2カメラと、
ユーザの視線上に位置し、前記第1カメラ又は前記第2カメラの撮影画像を表示する表示部と、
前記ウェアラブル端末の位置と向きを検出する機能を有し、前記第2カメラの撮影位置と撮影方向を検出する第1検出手段と、
前記第1検出手段により検出された撮影位置に前記筐体を移動し、前記第1検出手段により検出された撮影方向で前記第1カメラにより画像を撮影するコントローラと、
を具備するウェアラブル端末。
A wearable terminal that can change position and communicate with a housing having a first camera and can be worn on a user's head,
A second camera that captures an image along the user's line of sight;
A display unit that is positioned on the user's line of sight and that displays a captured image of the first camera or the second camera;
A first detecting means having a function of detecting the position and orientation of the wearable terminal, and detecting a shooting position and a shooting direction of the second camera;
A controller that moves the casing to a shooting position detected by the first detection unit and shoots an image by the first camera in a shooting direction detected by the first detection unit;
A wearable terminal comprising:
前記筐体は、歩行ロボット、自走物体、飛行物体のいずれかを具備する請求項1記載のウェアラブル端末。   The wearable terminal according to claim 1, wherein the housing includes a walking robot, a self-propelled object, or a flying object. 前記コントローラは、
前記第2カメラの撮影位置情報を記憶するメモリと、
前記メモリに記憶されている1又は複数の撮影位置情報を前記表示部に表示する手段と、
前記表示部に表示される1又は複数の撮影位置情報のいずれかをユーザ操作に基づいて選択する選択手段と、を具備し、
前記選択手段により選択された撮影位置情報に基づいて前記筐体を移動する請求項1又は請求項2記載のウェアラブル端末。
The controller is
A memory for storing shooting position information of the second camera;
Means for displaying one or more pieces of shooting position information stored in the memory on the display unit;
Selecting means for selecting one or a plurality of shooting position information displayed on the display unit based on a user operation,
The wearable terminal according to claim 1 or 2, wherein the housing is moved based on the photographing position information selected by the selection unit.
前記コントローラは、
前記第1カメラあるいは前記第2カメラにより撮影された画像と画像の撮影位置情報とを記憶するメモリと、
前記メモリに記憶されている1又は複数の画像を前記表示部に表示する手段と、
前記表示部に表示される1又は複数の画像のいずれかをユーザ操作に基づいて選択する選択手段と、を具備し、
前記選択手段により選択された画像の撮影位置情報に基づいて前記筐体を移動する請求項1又は請求項2記載のウェアラブル端末。
The controller is
A memory for storing an image photographed by the first camera or the second camera and photographing position information of the image;
Means for displaying one or more images stored in the memory on the display unit;
Selecting means for selecting either one or a plurality of images displayed on the display unit based on a user operation,
The wearable terminal according to claim 1 or 2, wherein the casing is moved based on photographing position information of an image selected by the selection unit.
前記選択手段は、前記ウェアラブル端末に設けられた前記ウェアラブル端末の動きを検出する第2検出手段の検出結果と、前記ウェアラブル端末に設けられたタッチパネルまたはスイッチの操作と、前記ウェアラブル端末に設けられたマイクからの音声入力の少なくとも1つに基づいて選択する請求項3又は請求項4記載のウェアラブル端末。   The selection means is provided in the wearable terminal, the detection result of the second detection means for detecting the movement of the wearable terminal, the operation of the touch panel or switch provided in the wearable terminal, and the wearable terminal. The wearable terminal according to claim 3 or 4, wherein the wearable terminal is selected based on at least one of voice inputs from a microphone. 前記筐体の位置、前記第1カメラの撮影方向、撮影画角の少なくとも1つを遠隔制御できる調整手段をさらに具備する請求項1、請求項2、請求項3、請求項4又は請求項5記載のウェアラブル端末。   6. The adjusting device according to claim 1, further comprising adjusting means capable of remotely controlling at least one of the position of the casing, the shooting direction of the first camera, and the shooting angle of view. The wearable terminal described. 位置を変えることができ第1カメラを具備する筐体と通信可能であり、ユーザの頭部に装着され得て、ユーザの視線に沿った画像を撮影する第2カメラと、ユーザの視線上に位置し前記第1カメラ又は前記第2カメラの撮影画像を表示する表示部とを具備するウェアラブル端末の位置と向きを検出することにより、前記第2カメラの撮影位置と撮影方向を検出することと、
検出された前記撮影位置に前記筐体を移動し、検出された前記撮影位置と前記撮影方向で前記第1カメラにより画像を撮影することと、
を具備する方法。
A second camera that can be repositioned and is communicable with a housing having a first camera, can be worn on the user's head, and captures an image along the user's line of sight; and on the user's line of sight Detecting a shooting position and a shooting direction of the second camera by detecting a position and a direction of a wearable terminal that is located and includes a display unit that displays a captured image of the first camera or the second camera; ,
Moving the housing to the detected shooting position and shooting an image with the first camera at the detected shooting position and the shooting direction;
A method comprising:
前記筐体は歩行ロボット、自走物体、飛行物体のいずれかに取り付けられる請求項7記載の方法。   The method according to claim 7, wherein the housing is attached to any of a walking robot, a self-propelled object, and a flying object. 前記第1カメラにより画像を撮影することは、
前記第2カメラの撮影位置情報をメモリに記憶することと、
前記メモリに記憶されている1又は複数の撮影位置情報を、前記ウェアラブル端末に取り付けられ、ユーザの視線上に位置する表示部に表示することと、
前記表示部に表示される1又は複数の撮影位置情報のいずれかをユーザ操作に基づいて選択することと、
選択された前記撮影位置情報に基づいて前記筐体を移動することを具備する請求項7又は請求項8記載の方法。
Taking an image with the first camera
Storing the shooting position information of the second camera in a memory;
Displaying one or a plurality of shooting position information stored in the memory on a display unit attached to the wearable terminal and positioned on the line of sight of the user;
Selecting either one or a plurality of shooting position information displayed on the display unit based on a user operation;
9. The method according to claim 7, further comprising moving the housing based on the selected photographing position information.
前記第1カメラにより画像を撮影することは、
前記第1カメラあるいは前記第2カメラにより撮影された画像と画像の撮影位置情報とをメモリに記憶することと、
前記メモリに記憶されている1又は複数の画像を、前記ウェアラブル端末に取り付けられ、ユーザの視線上に位置する表示部に表示することと、
前記表示部に表示される1又は複数の画像のいずれかをユーザ操作に基づいて選択することと、
選択された前記画像の撮影位置情報に基づいて前記筐体を移動することを具備する請求項7又は請求項8記載の方法。
Taking an image with the first camera
Storing an image photographed by the first camera or the second camera and photographing position information of the image in a memory;
Displaying one or more images stored in the memory on a display unit attached to the wearable terminal and positioned on the user's line of sight;
Selecting either one or a plurality of images displayed on the display unit based on a user operation;
The method according to claim 7 or 8, further comprising moving the housing based on photographing position information of the selected image.
前記選択することは、前記ウェアラブル端末の動きと、前記ウェアラブル端末に設けられたタッチパネルまたはスイッチの操作と、前記ウェアラブル端末に設けられたマイクからの音声入力の少なくとも1つに基づいて選択することを具備する請求項9又は請求項10記載の方法。   The selecting includes selecting based on at least one of movement of the wearable terminal, operation of a touch panel or switch provided in the wearable terminal, and voice input from a microphone provided in the wearable terminal. 11. A method according to claim 9 or claim 10 comprising. 前記筐体の位置、前記第1カメラの撮影方向、撮影画角の少なくとも1つを遠隔制御することをさらに具備する請求項7、請求項8、請求項9、請求項10又は請求項11記載の方法。   The remote control of at least one of the position of the housing, the shooting direction of the first camera, and the shooting angle of view is further provided. the method of. 位置を変えることができ、第1カメラを具備する筐体と、
前記筐体と通信可能であり、ユーザの頭部に装着され得て、ユーザの視線に沿った画像を撮影する第2カメラと、ユーザの視線上に位置し、前記第1カメラ又は前記第2カメラの撮影画像を表示する表示部とを具備するウェアラブル端末と、
前記ウェアラブル端末の位置と向きを検出する機能を有し、前記第2カメラの撮影位置と撮影方向を検出する第1検出手段と、
前記第1検出手段により検出された撮影位置に前記筐体を移動し、前記第1検出手段により検出された撮影位置と撮影方向で前記第1カメラにより画像を撮影するコントローラと、
を具備するシステム。
A housing that can be repositioned and includes a first camera;
A second camera that is communicable with the housing and can be mounted on the user's head and captures an image along the user's line of sight; and is positioned on the user's line of sight, the first camera or the second A wearable terminal including a display unit that displays a captured image of the camera;
A first detecting means having a function of detecting the position and orientation of the wearable terminal, and detecting a shooting position and a shooting direction of the second camera;
A controller that moves the housing to a shooting position detected by the first detection means, and takes an image by the first camera at the shooting position and shooting direction detected by the first detection means;
A system comprising:
前記筐体は、歩行ロボット、自走ロボット、飛行ロボットのいずれかを具備する請求項13記載のシステム。   The system according to claim 13, wherein the casing includes any one of a walking robot, a self-running robot, and a flying robot. 前記コントローラは、
前記第2カメラの撮影位置情報を記憶するメモリと、
前記メモリに記憶されている1又は複数の撮影位置情報を前記表示部に表示する手段と、
前記表示部に表示される1又は複数の撮影位置情報のいずれかをユーザ操作に基づいて選択する選択手段と、を具備し、
前記選択手段により選択された撮影位置情報に基づいて前記筐体を移動する請求項13又は請求項14記載のシステム。
The controller is
A memory for storing shooting position information of the second camera;
Means for displaying one or more pieces of shooting position information stored in the memory on the display unit;
Selecting means for selecting one or a plurality of shooting position information displayed on the display unit based on a user operation,
The system according to claim 13 or 14, wherein the casing is moved based on the photographing position information selected by the selection means.
前記コントローラは、
前記第1カメラあるいは前記第2カメラにより撮影された画像と画像の撮影位置情報とを記憶するメモリと、
前記メモリに記憶されている1又は複数の画像を前記表示部に表示する手段と、
前記表示部に表示される1又は複数の画像のいずれかをユーザ操作に基づいて選択する選択手段と、を具備し、
前記選択手段により選択された画像の撮影位置情報に基づいて前記筐体を移動する請求項13又は請求項14記載のシステム。
The controller is
A memory for storing an image photographed by the first camera or the second camera and photographing position information of the image;
Means for displaying one or more images stored in the memory on the display unit;
Selecting means for selecting either one or a plurality of images displayed on the display unit based on a user operation,
The system according to claim 13 or 14, wherein the housing is moved based on photographing position information of an image selected by the selection means.
前記選択手段は、前記ウェアラブル端末に設けられた前記ウェアラブル端末の動きを検出する第2検出手段の検出結果と、前記ウェアラブル端末に設けられたタッチパネルまたはスイッチの操作と、前記ウェアラブル端末に設けられたマイクからの音声入力の少なくとも1つに基づいて選択する請求項15又は請求項16記載のシステム。   The selection means is provided in the wearable terminal, the detection result of the second detection means for detecting the movement of the wearable terminal, the operation of the touch panel or switch provided in the wearable terminal, and the wearable terminal. The system according to claim 15 or 16, wherein the selection is based on at least one of audio inputs from a microphone. 前記ウェアラブル端末は、前記筐体の位置、前記第1カメラの撮影方向、撮影画角の少なくとも1つを遠隔制御できる調整手段をさらに具備する請求項13、請求項14、請求項15、請求項16又は請求項17記載のシステム。   The wearable terminal further comprises adjustment means capable of remotely controlling at least one of the position of the casing, the shooting direction of the first camera, and the shooting angle of view. 18. A system according to claim 16 or claim 17.
JP2015173020A 2015-09-02 2015-09-02 Wearable terminal, method and system Active JP6352874B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015173020A JP6352874B2 (en) 2015-09-02 2015-09-02 Wearable terminal, method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015173020A JP6352874B2 (en) 2015-09-02 2015-09-02 Wearable terminal, method and system

Publications (2)

Publication Number Publication Date
JP2017050718A true JP2017050718A (en) 2017-03-09
JP6352874B2 JP6352874B2 (en) 2018-07-04

Family

ID=58280385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015173020A Active JP6352874B2 (en) 2015-09-02 2015-09-02 Wearable terminal, method and system

Country Status (1)

Country Link
JP (1) JP6352874B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109346991A (en) * 2018-12-06 2019-02-15 国网辽宁省电力有限公司鞍山供电公司 A kind of portable power inspection device that FPV technology is combined with multi-rotor unmanned aerial vehicle
WO2020008999A1 (en) * 2018-07-06 2020-01-09 日本通運株式会社 Information processing device, information processing system, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092718A (en) * 2001-09-19 2003-03-28 Hitachi Software Eng Co Ltd Photographing condition recording method, photographing condition recording device, photographing device provided with the photographing condition recording device, photographing condition display method and program for displaying photographing condition
JP2008288707A (en) * 2007-05-15 2008-11-27 Panasonic Corp Monitoring apparatus
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003092718A (en) * 2001-09-19 2003-03-28 Hitachi Software Eng Co Ltd Photographing condition recording method, photographing condition recording device, photographing device provided with the photographing condition recording device, photographing condition display method and program for displaying photographing condition
JP2008288707A (en) * 2007-05-15 2008-11-27 Panasonic Corp Monitoring apparatus
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020008999A1 (en) * 2018-07-06 2020-01-09 日本通運株式会社 Information processing device, information processing system, and information processing program
JP2020009083A (en) * 2018-07-06 2020-01-16 日本通運株式会社 Apparatus, system and program for processing information
CN109346991A (en) * 2018-12-06 2019-02-15 国网辽宁省电力有限公司鞍山供电公司 A kind of portable power inspection device that FPV technology is combined with multi-rotor unmanned aerial vehicle
CN109346991B (en) * 2018-12-06 2024-04-05 国网辽宁省电力有限公司鞍山供电公司 FPV technology and many rotor unmanned aerial vehicle combine together portable electric power inspection device

Also Published As

Publication number Publication date
JP6352874B2 (en) 2018-07-04

Similar Documents

Publication Publication Date Title
US11789279B2 (en) System and method for virtual image adjustment
US10564919B2 (en) Display system, display apparatus, method for controlling display apparatus, and program
US10642564B2 (en) Display system, display device, information display method, and program
JP2017050803A (en) Electronic apparatus and method
JP6352874B2 (en) Wearable terminal, method and system
JP7119164B2 (en) WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD
KR20150097274A (en) System and Method for Taking Pictures While Following Subject with Automatical Camera
JP6445118B2 (en) Wearable terminal, method and system
KR101606726B1 (en) Wearable device and lighting systerm includes the wearable device
JP2018074420A (en) Display device, display system, and control method for display device
JP6262177B2 (en) Wearable terminal, method and system
JP2018018315A (en) Display system, display unit, information display method, and program
JP6450890B2 (en) Image providing system, image providing method, and program
JP7263603B2 (en) WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD
JP2018081697A (en) System and wearable terminal
JP2023076619A (en) Wearable terminal, system, and display method
KR20150078575A (en) System and Method for Supporting User-Interface for Controlling Intelligently Automatic Camera
JP2019191590A (en) Wearable terminal, system, and display method
JP2018037107A (en) System and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180607

R151 Written notification of patent or utility model registration

Ref document number: 6352874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151