JP2023127176A - Instructor-side apparatus, method, and program - Google Patents
Instructor-side apparatus, method, and program Download PDFInfo
- Publication number
- JP2023127176A JP2023127176A JP2022030795A JP2022030795A JP2023127176A JP 2023127176 A JP2023127176 A JP 2023127176A JP 2022030795 A JP2022030795 A JP 2022030795A JP 2022030795 A JP2022030795 A JP 2022030795A JP 2023127176 A JP2023127176 A JP 2023127176A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- instructor
- worker
- display
- switching signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000006870 function Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 description 124
- 230000000052 comparative effect Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 15
- 230000033001 locomotion Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Abstract
Description
本発明は、指示者側装置、方法およびプログラムに関する。 The present invention relates to an instructor side device, method, and program.
従来の遠隔作業支援技術としては、小型のディスプレイに指示を表示する技術、または、透過型のディスプレイに指示を表示する技術などが知られている。しかし、いずれの技術であっても、従来の遠隔作業支援技術としては、平面的に指示を表示する技術が一般的である。 As conventional remote work support techniques, techniques for displaying instructions on a small display, techniques for displaying instructions on a transparent display, etc. are known. However, regardless of the technology, as a conventional remote work support technology, a technology that displays instructions on a flat surface is common.
一方、近年においては、AR(Augmented Reality)技術などの発展により、三次元的に表示可能な作業マニュアルが現れてきている。かかる作業マニュアルはあらかじめ作成され、AR技術を用いて三次元的に表示され得る。これによって、作業などを三次元的に作業者に理解させることが可能になりつつある。しかしながら、AR技術を用いて作業マニュアルを三次元的に表示する場合であっても、作業マニュアル自体はあらかじめ作成されたものであるため、そのときの作業状況に応じた作業支援が行われにくい。 On the other hand, in recent years, with the development of AR (Augmented Reality) technology, work manuals that can be displayed three-dimensionally have appeared. Such a work manual may be created in advance and displayed three-dimensionally using AR technology. This is making it possible for workers to understand their work three-dimensionally. However, even when the work manual is displayed three-dimensionally using AR technology, the work manual itself is created in advance, so it is difficult to provide work support according to the work situation at that time.
一方、遠隔作業支援においては、指示者によって入力される音声の出力と、ハンドジェスチャ表示とを併用することが有効であることが既に示されている(例えば、非特許文献1参照)。しかし、ジェスチャ表示をAR技術にそのまま適用した場合には、改善すべき点が生じる。 On the other hand, in remote work support, it has already been shown that it is effective to use both the output of the voice input by the instructor and the display of hand gestures (for example, see Non-Patent Document 1). However, if gesture display is directly applied to AR technology, there will be issues that need to be improved.
例えば、ジェスチャがAR技術を用いて三次元的に表示される場合であっても、ジェスチャが作業者の移動に伴って変化せずに、作業者が同じ視点からしかジェスチャを見ることができないとすると、作業者がジェスチャによる指示を把握しにくい状況が生じ得る。一方、ジェスチャが作業者の移動に伴って常に変化してしまうと、指示者がジェスチャを見る視点と作業者がジェスチャを見る視点とが一致しない状況が頻繁に生じるため、指示者がジェスチャによる指示を出しにくい状況が生じ得る。 For example, even if gestures are displayed three-dimensionally using AR technology, the gestures do not change as the worker moves, and the worker can only view the gestures from the same viewpoint. In this case, a situation may arise in which it is difficult for the worker to understand instructions using gestures. On the other hand, if the gestures constantly change as the worker moves, situations will frequently occur where the point of view from which the instructor views the gestures and the perspective from which the worker views the gestures do not match. Situations may arise where it is difficult to
そこで、指示者から作業者への指示をより効果的に行うことを可能とする技術が提供されることが望まれる。 Therefore, it is desired to provide a technique that allows an instructor to more effectively give instructions to a worker.
上記問題を解決するために、本発明のある観点によれば、第1のセンサデータから特定の入力パターンを認識する認識部と、前記入力パターンが認識されたことに基づいて、静止画像と動画像との間における切り替え信号を作業者側装置に出力する切り替え信号出力部と、指示者のジェスチャ情報に基づいてジェスチャのディスプレイによる表示を制御するとともに、前記切り替え信号に基づいて前記作業者側装置から送信された静止画像または動画像の前記ディスプレイによる表示を制御する画像表示制御部と、を備える、指示者側装置が提供される。 In order to solve the above problems, one aspect of the present invention includes a recognition unit that recognizes a specific input pattern from first sensor data, and a still image and a moving image based on the recognition of the input pattern. a switching signal output unit that outputs a switching signal between the image and the worker's side device to the worker's side device; and a switching signal output unit that controls display of the gesture on the display based on gesture information of the instructor; An instructor-side device is provided, comprising: an image display control section that controls display of a still image or a moving image transmitted from the display on the display.
前記第1のセンサデータは、ジェスチャを含み、前記特定の入力パターンは、第1のジェスチャパターンを含んでもよい。 The first sensor data may include a gesture, and the specific input pattern may include a first gesture pattern.
前記第1のセンサデータは、音声を含み、前記特定の入力パターンは、特定の音声パターンを含んでもよい。 The first sensor data may include audio, and the specific input pattern may include a specific audio pattern.
前記認識部は、指示者のジェスチャから第2のジェスチャパターンを認識し、前記切り替え信号出力部は、前記第2のジェスチャパターンが認識されたときには、前記特定の音声パターンが認識されたとしても、前記切り替え信号を前記作業者側装置に出力しなくてもよい。 The recognition unit recognizes a second gesture pattern from the gesture of the instructor, and the switching signal output unit determines that when the second gesture pattern is recognized, even if the specific voice pattern is recognized, The switching signal may not be output to the worker side device.
前記認識部は、指示者のジェスチャから第3のジェスチャパターンを認識し、前記切り替え信号出力部は、前記第3のジェスチャパターンが認識されていないときには、前記特定の音声パターンが認識されたとしても、前記切り替え信号を前記作業者側装置に出力しなくてもよい。 The recognition unit recognizes a third gesture pattern from the gesture of the instructor, and the switching signal output unit determines that when the third gesture pattern is not recognized, even if the specific voice pattern is recognized. , it is not necessary to output the switching signal to the worker side device.
前記切り替え信号出力部は、静止画像から動画像への切り替えを示す入力パターンが認識されたことに基づいて、静止画像から動画像への切り替え信号を前記作業者側装置に出力してもよい。 The switching signal output unit may output a switching signal from a still image to a moving image to the worker side device based on recognition of an input pattern indicating switching from a still image to a moving image.
前記切り替え信号出力部は、動画像から静止画像への切り替えを示す入力パターンが認識されたことに基づいて、動画像から静止画像への切り替え信号を前記作業者側装置に出力してもよい。 The switching signal output unit may output a switching signal from a moving image to a still image to the worker side device based on recognition of an input pattern indicating switching from a moving image to a still image.
前記切り替え信号出力部は、第2のセンサデータから認識される作業者の行動が前記作業者の移動中を示す場合には、動画像から静止画像への切り替えを示す入力パターンが認識されたとしても、動画像から静止画像への切り替え信号を前記作業者側装置に出力しなくてもよい。 When the worker's behavior recognized from the second sensor data indicates that the worker is moving, the switching signal output unit determines that an input pattern indicating switching from a moving image to a still image has been recognized. Also, it is not necessary to output a switching signal from a moving image to a still image to the worker side device.
また、本発明の別の観点によれば、第1のセンサデータから特定の入力パターンを認識することと、前記入力パターンが認識されたことに基づいて、静止画像と動画像との間における切り替え信号を作業者側装置に出力することと、指示者のジェスチャ情報に基づいてジェスチャのディスプレイによる表示を制御するとともに、前記切り替え信号に基づいて前記作業者側装置から送信された静止画像または動画像の前記ディスプレイによる表示を制御することと、を備える、方法が提供される。 According to another aspect of the present invention, a specific input pattern is recognized from the first sensor data, and switching between a still image and a moving image is performed based on the recognition of the input pattern. Outputting a signal to a worker-side device, controlling the display of gestures on a display based on the gesture information of the instructor, and still images or moving images transmitted from the worker-side device based on the switching signal. A method is provided, comprising: controlling a display of a display on the display.
また、本発明の別の観点によれば、コンピュータを、第1のセンサデータから特定の入力パターンを認識する認識部と、前記入力パターンが認識されたことに基づいて、静止画像と動画像との間における切り替え信号を作業者側装置に出力する切り替え信号出力部と、指示者のジェスチャ情報に基づいてジェスチャのディスプレイによる表示を制御するとともに、前記切り替え信号に基づいて前記作業者側装置から送信された静止画像または動画像の前記ディスプレイによる表示を制御する画像表示制御部と、を備える指示者側装置として機能させるプログラムが提供される。 According to another aspect of the present invention, the computer includes a recognition unit that recognizes a specific input pattern from the first sensor data, and a still image and a moving image based on the recognition of the input pattern. a switching signal output unit that outputs a switching signal between the two to the worker device; and a switching signal output unit that controls display of the gesture on the display based on the gesture information of the instructor, and transmits the switching signal from the worker device based on the switching signal. and an image display control section that controls display of still images or moving images that have been displayed on the display.
以上説明したように本発明によれば、指示者から作業者への指示をより効果的に行うことを可能とする技術が提供される。 As described above, according to the present invention, a technique is provided that allows an instructor to more effectively give instructions to a worker.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configurations are designated by the same reference numerals and redundant explanation will be omitted.
また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一の機能構成を有する複数の構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、異なる実施形態の類似する構成要素等の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in this specification and the drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different numbers after the same reference numeral. However, if there is no particular need to distinguish between a plurality of components having substantially the same functional configuration, only the same reference numerals are given. Further, similar components in different embodiments may be distinguished by attaching different alphabets after the same reference numerals. However, when it is not necessary to particularly distinguish between similar components of different embodiments, only the same reference numerals are given.
(1.実施形態の詳細)
本発明の実施形態の詳細について説明する。
(1. Details of embodiment)
Details of embodiments of the present invention will be described.
(1-1.遠隔作業支援システムの構成)
まず、本発明の実施形態に係る遠隔作業支援システムの構成例について説明する。図1は、本発明の実施形態に係る遠隔作業支援システムの機能構成例を示す図である。図1に示されるように、遠隔作業支援システム1は、作業者側システムと、指示者側システムとを有する。
(1-1. Configuration of remote work support system)
First, a configuration example of a remote work support system according to an embodiment of the present invention will be described. FIG. 1 is a diagram showing an example of the functional configuration of a remote work support system according to an embodiment of the present invention. As shown in FIG. 1, the remote
作業者側システムは、遠隔作業支援システム1のうち、作業者によって用いられるシステムである。作業者は、作業者に指示を出す指示者から離れた場所(すなわち、遠隔地)にて作業を行う。一方、指示者側システムは、遠隔作業支援システム1のうち、指示者によって用いられるシステムである。作業者側システムと指示者側システムとは、ネットワーク30に接続されており、ネットワーク30を介して通信可能に構成されている。
The worker side system is a system of the remote
なお、遠隔作業支援においては、指示者と作業者との間において音声通話などが行われるのが一般的である。しかし、音声通話などに必要な構成は、本発明の実施形態に係る遠隔作業支援システム1の構成の説明に関与しないため、音声通話などに必要な構成の説明は省略する。
Note that in remote work support, voice calls and the like are generally conducted between the instructor and the worker. However, the configuration necessary for voice calls and the like is not involved in the explanation of the configuration of the remote
図1に示されるように、作業者側システムは、ARディスプレイ11と、カメラ12と、位置姿勢計測部13と、演算処理部14と、スピーカ15と、音声処理部16とを備える。一方、図1に示されるように、指示者側システムは、ディスプレイ21と、ジェスチャ入力装置22と、演算処理部24と、マイクロフォン25と、ジェスチャ認識装置26と、音声認識装置27とを備える。
As shown in FIG. 1, the worker side system includes an
(ARディスプレイ11)
ARディスプレイ11は、ジェスチャの表示を行う。より詳細に、ARディスプレイ11は、作業者の視界にジェスチャを重畳表示する。ARディスプレイ11は、作業者に装着される。例えば、ARディスプレイ11は、作業者の頭部に装着されるヘッドマウントディスプレイであってよい。しかし、ARディスプレイ11の種類はヘッドマウントディスプレイに限定されない。例えば、ARディスプレイ11は、ヘッドマウントディスプレイ以外のディスプレイであってもよい。
(AR display 11)
The
(カメラ12)
カメラ12は、作業者の環境を撮像することにより動画像(以下、単に「動画」とも言う。)を得る。カメラ12は、作業者の視線方向と同じ方向を向くように設けられているのが望ましい。したがって、カメラ12は、ARディスプレイ11と一体化されているのが望ましい。しかし、カメラ12は、ARディスプレイ11とは別個のハードウェアとして構成されてもよい。
(Camera 12)
The
(位置姿勢計測部13)
位置姿勢計測部13は、カメラ12の位置および方向を計測する。例えば、カメラ12の内部にセンサが組み込まれている場合には、位置姿勢計測部13は、カメラ12の内部に組み込まれているセンサによって検出されたセンサデータに基づいて、カメラ12の位置および方向を計測してもよい。センサは、加速度センサまたはジャイロセンサなどであってよいが、センサの種類は特に限定されない。
(Position and orientation measurement unit 13)
The position and orientation measurement unit 13 measures the position and direction of the
例えば、位置姿勢計測部13は、作業者の環境に設置された二次元マーカを計測するセンサを含んでもよい。このとき、位置姿勢計測部13は、計測した二次元マーカの形状に基づいて、カメラ12の位置および方向を計測してもよい。あるいは、位置姿勢計測部13は、カメラ12の内部に組み込まれているセンサによって検出されたセンサデータに基づいてカメラ12の位置および方向を計測する手法と、計測した二次元マーカの形状に基づいてカメラ12の位置および方向を計測する手法とを組み合わせて用いてもよい。
For example, the position and orientation measurement unit 13 may include a sensor that measures a two-dimensional marker installed in the worker's environment. At this time, the position and orientation measurement unit 13 may measure the position and direction of the
(演算処理部14)
演算処理部14は、コンピュータによって実現され、各種の演算処理を行う作業者側装置として機能する。例えば、演算処理部14は、演算処理部24からジェスチャ情報を取得するジェスチャ取得部、演算処理部24から切り替え信号を取得する信号取得部、作業者の視界にジェスチャが表示されるようにARディスプレイ11を制御する提示制御部として機能し得る。
(Calculation processing unit 14)
The
また、演算処理部14は、指示者側システムにおける演算処理部24との間における通信インタフェースによる通信を制御する処理などを行う。例えば、演算処理部14は、カメラ12によって得られた動画または静止画像(以下、単に「静止画」とも言う。)の演算処理部24への送信を制御する送信制御部として機能し得る。
Further, the
例えば、演算処理部14は、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
For example, the
(スピーカ15)
スピーカ15は、指示者から入力された指示音声を、音声処理部16を通さずに出力する。あるいは、スピーカ15は、指示者から入力された指示音声を、音声処理部16を通して出力する。なお、スピーカ15から出力される指示音声の仮想的な出力位置が制御可能となるように、スピーカ15は、ステレオ方式のスピーカまたはアレイ方式のスピーカによって構成される。
(Speaker 15)
The
(音声処理部16)
音声処理部16は、位置データおよび音声データを取得し、あたかもその位置から音声が出力されているように音声を作業者に聞こえさせる処理を行う。かかる処理として、典型的にはHRTF(非特許文献:頭部伝達関数の基礎と3次元音響システムへの応用 日本音響学会編 飯田一博著 コロナ社)が用いられてよい。より詳細に、音声処理部16は、指示音声を演算処理部14から取得し、取得した指示音声のスピーカ15による仮想的な出力位置からの出力を制御する。なお、指示音声は、音声処理部16による処理が行われずに、そのままスピーカ15から出力されることもあり得る。
(Sound processing unit 16)
The
(ディスプレイ21)
ディスプレイ21は、カメラ12によって得られた動画を表示し得る。また、ディスプレイ21は、カメラ12によって得られた動画に基づくスナップショットを静止画として表示し得る。これによって、指示者は、作業者の環境を見ることができる。さらに、ディスプレイ21は、指示者のジェスチャを表示し得る。これによって、指示者は、どのようなジェスチャが作業者に伝達されているかを確認することができる。
(Display 21)
(ジェスチャ入力装置22)
ジェスチャ入力装置22は、指示者から入力されるジェスチャを受け付ける入力装置である。ジェスチャ入力装置22は、受け付けたジェスチャを演算処理部24に出力する。さらに、ジェスチャ入力装置22は、受け付けたジェスチャをジェスチャ認識装置26に出力する。なお、ジェスチャ入力装置22は、センサの一例に該当し得る。すなわち、ジェスチャ入力装置22は、センサデータ(第1のセンサデータ)の一例としてのジェスチャを検出する。
(Gesture input device 22)
The
例えば、ジェスチャ入力装置22は、光学的機器によって実現されてもよい。かかる光学的機器としては、Ultraleap社によって開発されたLeap Motion(登録商標)などが用いられ得る。Leap Motion(登録商標)は、複数のLED(Light Emitting Diode)によって手に照射された赤外線の赤外線ステレオカメラによる検出結果に基づいて、手の動きをトラッキングする技術である。あるいは、ジェスチャ入力装置22は、指示者によって装着される入力装置(例えば、センサグローブなど)によって実現されてもよい。
For example,
ジェスチャの表現形式は、ジェスチャを複数の三次元座標を含んだ構造によって表現可能であり、ジェスチャを三次元空間内に再現可能であれば、任意の表現形式であってよい。例えば、ジェスチャは、骨組みの端点データによって表現されてもよいし、表皮のメッシュデータによって表現されてもよい。 The expression format of the gesture may be any expression format as long as the gesture can be expressed by a structure including a plurality of three-dimensional coordinates and the gesture can be reproduced in a three-dimensional space. For example, a gesture may be expressed by end point data of a skeleton, or may be expressed by mesh data of an epidermis.
(マイクロフォン25)
マイクロフォン25は、指示者から入力される音声を受け付ける。マイクロフォン25は、受け付けた音声を指示音声として演算処理部24に出力する。さらに、マイクロフォン25は、受け付けた音声を音声認識装置27に出力する。なお、マイクロフォン25は、センサの一例に該当し得る。すなわち、マイクロフォン25は、センサデータ(第1のセンサデータ)の一例としての音声を検出する。
(Microphone 25)
The
(ジェスチャ認識装置26)
ジェスチャ認識装置26は、ジェスチャ入力装置22によって受け付けられたジェスチャに対してジェスチャ認識を実行し、当該ジェスチャから特定の入力パターンが認識されるかを試みる。例えば、特定の入力パターンは、あらかじめ定められたジェスチャパターン(例えば、あらかじめ定められた1または複数のジェスチャ動作など)であってもよい。例えば、あらかじめ定められたジェスチャ動作は、切り替えを示す1または複数のジェスチャ動作であってもよい。
(Gesture recognition device 26)
The
ジェスチャ認識装置26は、コンピュータによって実現され、指示者側装置として機能する。例えば、ジェスチャ認識装置26は、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
The
(音声認識装置27)
音声認識装置27は、マイクロフォン25によって受け付けられた音声に対して音声認識を実行し、当該音声から特定の入力パターンが認識されるかを試みる。例えば、特定の入力パターンは、あらかじめ定められた音声パターン(例えば、あらかじめ定められた1または複数の語句など)であってもよい。例えば、あらかじめ定められた語句は、切り替えを示す1または複数の語句であってもよい。
(Voice recognition device 27)
The
音声認識装置27は、コンピュータによって実現され、指示者側装置として機能する。例えば、音声認識装置27は、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
The
(演算処理部24)
演算処理部24は、コンピュータによって実現され、各種の演算処理を行う指示者側装置として機能する。例えば、演算処理部24は、認識部(例えば、ジェスチャ認識装置26または音声認識装置27)によって特定の入力パターンが認識されたことに基づいて、切り替え信号を演算処理部14に出力する切り替え信号出力部として機能し得る。
(Calculation processing unit 24)
The
なお、切り替え信号は、二つの状態の一方から他方への切り替えを示す信号である。本発明の実施形態においては、切り替え信号が、カメラ12によって得られた動画がディスプレイ21によって表示される状態(以下、「動画状態」とも言う。)、および、カメラ12によって得られた動画に基づくスナップショットが静止画としてディスプレイ21によって表示される状態(以下、「静止画状態」とも言う。)のいずれかを示す場合を主に想定する。
Note that the switching signal is a signal indicating switching from one of two states to the other. In the embodiment of the present invention, the switching signal is based on a state in which a moving image obtained by the
また、演算処理部24は、ジェスチャのディスプレイ21による表示を制御するとともに静止画または動画のディスプレイ21による表示を制御する画像表示制御部として機能し得る。また、演算処理部24は、作業者側システムにおける演算処理部14との間における通信インタフェースによる通信を制御する処理などを行う。
Further, the
例えば、演算処理部24は、CPU(Central Processing Unit)またはGPU(Graphics Processing Unit)などの演算装置を含み、ROM(Read Only Memory)により記憶されているプログラムが演算装置によりRAMに展開されて実行されることにより、その機能が実現され得る。このとき、当該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
For example, the
(ネットワーク30)
ネットワーク30は、作業者側システムと指示者側システムとを接続する。そして、ネットワーク30は、作業者側システムと指示者側システムとの間における通信路として機能し得る。
(Network 30)
The
以上、本発明の実施形態に係る遠隔作業支援システム1の構成例について説明した。
The configuration example of the remote
(1-2.遠隔作業支援システムの動作)
続いて、図1~図3を参照しながら、本発明の実施形態に係る遠隔作業支援システム1の動作例について説明する。
(1-2. Operation of remote work support system)
Next, an example of the operation of the remote
なお、音声通話などの動作は、本発明の実施形態に係る遠隔作業支援システム1の動作の説明に関与しないため、音声通話などの動作の説明は省略する。さらに、通信の遅延などは無視できるほど小さいものとする。
Note that operations such as voice calls are not related to the explanation of the operations of the remote
上記したように、遠隔作業支援システム1は、動画状態および静止画状態のいずれかの状態をとり得る。遠隔作業支援システム1の状態は、切り替え信号に基づいて切り替えられる。動画状態においては、カメラ12によって得られた動画がディスプレイ21によって表示される。一方、静止画状態においては、切り替えられたタイミングにおける動画のスナップショットが静止画としてディスプレイ21によって表示される。
As described above, the remote
図2は、遠隔作業支援システム1の静止画状態から動画状態への切り替え動作例を示すフローチャートである。図3は、遠隔作業支援システム1の動画状態から静止画状態への切り替え動作例を示すフローチャートである。まず、図2を主に参照しながら、静止画状態から動画状態への切り替え動作例を説明し、続いて、図3を主に参照しながら、動画状態から静止画状態への切り替え動作例を説明する。
FIG. 2 is a flowchart illustrating an example of the switching operation of the remote
ここで、指示者側システムから作業者側システムには、ジェスチャ入力装置22によって指示者からの入力が受け付けられたジェスチャ情報が送信される。ジェスチャ情報には、基準位置からのジェスチャの変位(手の各特徴点の変位)を示す情報が含まれ得る。
Here, gesture information whose input from the instructor is accepted by the
作業者側システムにおいて、演算処理部14は、基準位置および基準方向とジェスチャ情報とに基づいてジェスチャが配置されるようにARディスプレイ11を制御する。一方、指示者側システムにおいて、演算処理部24は、ジェスチャ情報に基づいてジェスチャが表示されるようにディスプレイ21を制御する。
In the worker side system, the
さらに、指示者側システムにおいては、マイクロフォン25によって指示音声が受け付けられ、演算処理部24に出力される。そして、演算処理部24から作業者側システムにおける演算処理部14に、指示音声がネットワーク30を介して常時送信される。演算処理部14は、指示音声を常時取得する。
Furthermore, in the system on the instructor's side, an instruction voice is received by the
(静止画状態から動画状態への切り替え動作)
静止画状態においては、ジェスチャが配置される基準位置および基準方向が、カメラ12の位置および方向に追従しない。すなわち、静止画状態においては、作業者側システムにおいてジェスチャが配置される基準位置および基準方向が、動画状態から静止画状態への切り替えられたタイミングに記録されたカメラ12の位置および方向に固定される。
(Switching operation from still image state to video state)
In the still image state, the reference position and reference direction in which gestures are placed do not follow the position and direction of the
指示者側システムにおいて、ジェスチャ認識装置26は、ジェスチャ入力装置22によって受け付けられた指示者のジェスチャから第1のジェスチャパターン(静止画状態から動画状態への切り替えを示すジェスチャパターン)が認識されるかを試みる。特定のジェスチャパターンは、具体的にどのようなジェスチャパターンであってもよい。なお、静止画状態から動画状態への切り替えを示すジェスチャパターンと動画状態から静止画状態への切り替えを示すジェスチャパターンとは、同じであってもよいが、二つの切り替え指示を別々に認識するためには異なるのが望ましい。
In the instructor side system, the
あるいは、音声認識装置27は、マイクロフォン25によって受け付けられた指示者の音声から特定の音声パターン(静止画状態から動画状態への切り替えを示す音声パターン)が認識されるかを試みる。特定の音声パターンは、具体的にどのような音声パターンであってもよい。なお、静止画状態から動画状態への切り替えを示す音声パターンと動画状態から静止画状態への切り替えを示す音声パターンとは、同じであってもよいが、二つの切り替え指示を別々に認識するためには異なるのが望ましい。
Alternatively, the
演算処理部24は、ジェスチャ認識装置26によって第1のジェスチャパターンが認識されたか否かによって、指示者から静止画状態から動画状態への切り替え指示が入力されたか否かを判定する(S11)。あるいは、演算処理部24は、音声認識装置27によって特定の音声パターンが認識されたか否かによって、指示者から静止画状態から動画状態への切り替え指示が入力されたか否かを判定する。
The
図2に示されるように、演算処理部24は、静止画状態から動画状態への切り替え指示が入力されていない場合には(S11において「NO」)、S11に動作を移行する。一方、演算処理部24は、静止画状態から動画状態への切り替え指示が入力された場合には(S11において「YES」)、作業者側システムにおける演算処理部14に、静止画状態から動画状態への切り替え信号を、ネットワーク30を介して通知する(S12)。
As shown in FIG. 2, if the instruction to switch from the still image state to the moving image state has not been input ("NO" in S11), the
作業者側システムにおいて、演算処理部14は、静止画状態から動画状態への切り替え信号を受け取ると、ARディスプレイ11によってジェスチャが配置される基準位置を位置姿勢計測部13によって計測されるカメラ12の位置に追従させるとともに、ARディスプレイ11によってジェスチャが配置される基準方向を位置姿勢計測部13によって計測されるカメラ12の方向に追従させる。
In the worker side system, upon receiving the switching signal from the still image state to the moving image state, the
さらに、演算処理部14は、音声処理部16を無効化し(すなわち、音声処理部16の動作を停止し)、取得した指示音声をそのままスピーカ15から出力させる(S31)。
Furthermore, the
さらに、演算処理部24は、ディスプレイ21によって表示されている静止画があれば、その静止画を消去する(S13)。そして、演算処理部24は、カメラ12によって得られた動画が演算処理部14から送信されると、送信された動画のディスプレイ21による表示が再開されるようにディスプレイ21を制御する(S14)。
Further, if there is a still image displayed on the
(動画状態から静止画状態への切り替え動作)
動画状態においては、ジェスチャが配置される基準位置および基準方向が、カメラ12の位置および方向に追従する。
(Switching operation from video state to still image state)
In the moving image state, the reference position and reference direction in which gestures are placed follow the position and direction of the
指示者側システムにおいて、ジェスチャ認識装置26は、ジェスチャ入力装置22によって受け付けられた指示者のジェスチャから第1のジェスチャパターン(動画状態から静止画状態への切り替えを示すジェスチャパターン)が認識されるかを試みる。なお、上記したように、静止画状態から動画状態への切り替えを示すジェスチャパターンと動画状態から静止画状態への切り替えを示すジェスチャパターンとは、同じであってもよいが、二つの切り替え指示を別々に認識するためには異なるのが望ましい。
In the instructor side system, the
あるいは、音声認識装置27は、マイクロフォン25によって受け付けられた指示者の音声から特定の音声パターン(動画状態から静止画状態への切り替えを示す音声パターン)が認識されるかを試みる。なお、上記したように、動画状態から静止画状態への切り替えを示す音声パターンと静止画状態から動画状態への切り替えを示す音声パターンとは、同じであってもよいが、二つの切り替え指示を別々に認識するためには異なるのが望ましい。
Alternatively, the
演算処理部24は、ジェスチャ認識装置26によって第1のジェスチャパターンが認識されたか否かによって、指示者から動画状態から静止画状態への切り替え指示が入力されたか否かを判定する(S21)。あるいは、演算処理部24は、音声認識装置27によって特定の音声パターンが認識されたか否かによって、指示者から動画状態から静止画状態への切り替え指示が入力されたか否かを判定する。
The
演算処理部24は、動画状態から静止画状態への切り替え指示が入力されていない場合には(S21において「NO」)、S21に動作を移行する。一方、演算処理部24は、動画状態から静止画状態への切り替え指示が入力された場合には(S21において「YES」)、作業者側システムにおける演算処理部14に、静止画状態から動画状態への切り替え信号を、ネットワーク30を介して通知する(S22)。
If the instruction to switch from the moving image state to the still image state has not been input (“NO” in S21), the
作業者側システムにおいて、演算処理部14は、静止画状態から動画状態への切り替え信号を受け取ると、静止画状態から動画状態への切り替えられたタイミングにおけるカメラ12の位置および方向を記録するとともに(S26)、ARディスプレイ11によってジェスチャの配置に用いられる基準位置および基準方向を、記録した動画状態から静止画状態への切り替えられたタイミングにおけるカメラ12の位置および方向に固定する。
In the worker side system, upon receiving the switching signal from the still image state to the moving image state, the
また、演算処理部14は、音声処理部16を有効化する(すなわち、音声処理部16の動作を開始する)(S41)。これによって、音声処理部16は、指示音声に対する処理(例えば、HRTFなどを用いた処理など)によって、ジェスチャが配置される基準位置から指示音声が出力されているかのようにスピーカ15から指示音声を出力させる。
Furthermore, the
さらに、演算処理部24は、カメラ12によって得られた動画のスナップショットを静止画として作成する(S23)。
Furthermore, the
演算処理部24は、ディスプレイ21によって表示されている動画があれば、その動画を消去する(S24)。そして、演算処理部24は、生成した静止画のディスプレイ21による表示が再開されるようにディスプレイ21を制御する(S25)。
If there is a moving image displayed on the
以上、静止画状態から動画状態への切り替え動作例、および、動画状態から静止画状態への切り替え動作例について説明した。続いて、ジェスチャが配置される基準位置および基準方向についてさらに詳細に説明する。 The example of the switching operation from the still image state to the moving image state and the example of the switching operation from the moving image state to the still image state have been described above. Next, the reference position and reference direction in which gestures are placed will be described in more detail.
(1-3.ジェスチャが配置される基準位置および基準方向)
ジェスチャ入力装置22によって指示者からの入力が受け付けられたジェスチャ情報は、指示者の環境における固有の座標系における位置および方向などによって表現される情報である。かかるジェスチャ情報に基づいて作業者の環境におけるARディスプレイ11にジェスチャを表示させるためには、指示者側の座標系(変換元の座標系)から作業者側の座標系(変換先の座標系)へのジェスチャ情報の座標変換が必要となる。
(1-3. Reference position and reference direction where gesture is placed)
The gesture information input by the
ここでは、変換先の座標系の例として、比較例1(ワールド座標系)、比較例2(カメラ座標系)、本実施形態に係る座標系について順に説明する。ここでは、説明を簡単にするため、ジェスチャの位置は固定されているものとする。 Here, as examples of coordinate systems to be converted, Comparative Example 1 (world coordinate system), Comparative Example 2 (camera coordinate system), and the coordinate system according to the present embodiment will be described in order. Here, in order to simplify the explanation, it is assumed that the position of the gesture is fixed.
(比較例1(ワールド座標系))
図4は、比較例1に係るジェスチャ情報の変換先の座標系について説明するための図である。図4を参照すると、初期状態における作業者環境E11が示されている。初期状態における作業者環境E11には、作業対象R1が存在している。作業対象R1は、作業者による作業の対象となる物体である。
(Comparative example 1 (world coordinate system))
FIG. 4 is a diagram for explaining a coordinate system to which gesture information is converted according to Comparative Example 1. Referring to FIG. 4, a worker environment E11 in an initial state is shown. A work target R1 exists in the worker environment E11 in the initial state. The work target R1 is an object to be worked on by a worker.
ここでは、図の見やすさを考慮して、作業対象R1が、「表」と「裏」を有する正方形の平面として示されている。しかし、作業対象R1の形状は限定されない。典型的には、作業対象R1は、ATM(Automated Teller Machine)またはプリンタなどといった機械である場合が想定されるが、作業対象R1は、機械でなくてもよく作業に使われる何らかの物体であればよい。 Here, in consideration of the ease of viewing the figure, the work target R1 is shown as a square plane having a "front" and "back". However, the shape of the work target R1 is not limited. Typically, the work target R1 is assumed to be a machine such as an ATM (Automated Teller Machine) or a printer, but the work target R1 does not need to be a machine and may be any object used for work. good.
さらに、初期状態における作業者環境E11には、カメラ12が存在しており、カメラ12によって得られた動画が指示者側の画面121aに表示される。指示者側の画面121aに表示されている動画には作業対象R1が写っている。指示者は、初期状態における作業者環境E11の動画を見ながら、ジェスチャ情報を入力する。指示者側の画面121aには、ジェスチャ情報に基づいてジェスチャJ1が表示されている。
Furthermore, a
初期状態における作業者環境E11を参照すると、ワールド座標系C1およびカメラ座標系C2が示されている。指示者によって入力されたジェスチャ情報に基づいて、ワールド座標系C1にジェスチャJ1が配置されるように作業者側のARディスプレイが制御される。作業者は、ワールド座標系C1に配置されたジェスチャJ1を見ながら、作業対象R1に対して作業を行うことができる。 Referring to the worker environment E11 in the initial state, a world coordinate system C1 and a camera coordinate system C2 are shown. Based on the gesture information input by the instructor, the AR display on the worker's side is controlled so that the gesture J1 is placed in the world coordinate system C1. The worker can work on the work target R1 while looking at the gesture J1 arranged in the world coordinate system C1.
ここで、作業者環境E12に示されるように、作業者が作業対象R1の背面に移動したとする。ワールド座標系C1におけるジェスチャJ1の位置および方向は固定されている。 Here, it is assumed that the worker moves to the back side of the work target R1, as shown in the worker environment E12. The position and direction of gesture J1 in world coordinate system C1 are fixed.
このとき、作業対象R1の「裏」およびジェスチャJ1が指示者側の画面122aに表示される。しかし、作業者の移動量および移動方向に合わせてジェスチャJ1の位置および方向も変化する。そのため、指示者は、表示されるジェスチャJ1と比較して位置および方向が変化する前(180度回転する前)のジェスチャを入力する必要が生じるため、指示者はジェスチャ入力をしにくくなる。
At this time, the "back" of the work target R1 and the gesture J1 are displayed on the instructor's
一方、作業者環境E13に示されるように、作業者が作業対象R1の奥側に移動したとする。ワールド座標系C1におけるジェスチャJ1の位置および方向は固定されている。 On the other hand, suppose that the worker moves to the back side of the work target R1, as shown in the worker environment E13. The position and direction of gesture J1 in world coordinate system C1 are fixed.
このとき、ワールド座標系C1におけるジェスチャJ1の位置および方向は固定されてしまっているため、ジェスチャJ1が作業者の後方に位置してしまい、作業者からはジェスチャJ1が見えなくなってしまう。例えば、次の作業位置へ向かうためのジェスチャ情報を指示者が入力したとしても、作業者はそのジェスチャを見ることができずに、次の作業位置を知ることができなくなってしまう。 At this time, since the position and direction of the gesture J1 in the world coordinate system C1 are fixed, the gesture J1 is located behind the worker, and the gesture J1 is no longer visible to the worker. For example, even if the instructor inputs gesture information for heading to the next work position, the worker will not be able to see the gesture and will not be able to know the next work position.
以上により、比較例1は、あらかじめ作成された作業マニュアルなどを表示する場合などには好適である。しかし、比較例1では、作業者の移動に伴って指示者によるジェスチャが見えなくなってしまうことがあるため、リアルタイムに作業指示を行う必要がある場合などには好適ではないと言える。 As described above, Comparative Example 1 is suitable for displaying a work manual created in advance. However, in Comparative Example 1, the gestures made by the instructor may become invisible as the worker moves, so it may not be suitable when it is necessary to give work instructions in real time.
以上、比較例1に係るジェスチャ情報の変換先の座標系について説明した。 The coordinate system to which gesture information is converted according to Comparative Example 1 has been described above.
(比較例2(カメラ座標系))
図5は、比較例2に係るジェスチャ情報の変換先の座標系について説明するための図である。図5を参照すると、図4に示された例と同様に、初期状態における作業者環境E21が示されている。初期状態における作業者環境E21には、作業対象R1が存在している。
(Comparative example 2 (camera coordinate system))
FIG. 5 is a diagram for explaining a coordinate system to which gesture information is converted according to Comparative Example 2. Referring to FIG. 5, similar to the example shown in FIG. 4, a worker environment E21 in an initial state is shown. The work target R1 exists in the worker environment E21 in the initial state.
さらに、カメラ12によって得られた動画が指示者側の画面123aに表示される。指示者側の画面123aに表示されている動画には作業対象R1が写っている。指示者は、初期状態における作業者環境E11の動画を見ながら、ジェスチャ情報を入力する。指示者側の画面123aには、ジェスチャ情報に基づいてジェスチャJ1が表示されている。
Furthermore, a moving image obtained by the
比較例2においては、指示者によって入力されたジェスチャ情報に基づいて、カメラ座標系C2にジェスチャJ1が配置されるように作業者側のARディスプレイが制御される。作業者は、カメラ座標系C2に配置されたジェスチャJ1を見ながら、作業対象R1に対して作業を行うことができる。 In Comparative Example 2, the AR display on the worker's side is controlled so that gesture J1 is placed in camera coordinate system C2 based on gesture information input by the instructor. The worker can work on the work target R1 while looking at the gesture J1 arranged in the camera coordinate system C2.
ここで、作業者環境E22に示されるように、作業者が作業対象R1の背面に移動したとする。比較例1と異なり、ワールド座標系C1におけるジェスチャJ1の位置および方向は変化するが、カメラ座標系C2におけるジェスチャJ1の位置および方向は固定されている。 Here, it is assumed that the worker moves to the back side of the work target R1, as shown in the worker environment E22. Unlike Comparative Example 1, the position and direction of the gesture J1 in the world coordinate system C1 change, but the position and direction of the gesture J1 in the camera coordinate system C2 are fixed.
このとき、作業対象R1の「裏」およびジェスチャJ1が指示者側の画面124aに表示される。このとき、作業者が移動しているにも関わらず、画面124aに表示されるジェスチャJ1の位置および方向は固定される。そのため、指示者は、表示されるジェスチャJ1と同じ位置および方向によってジェスチャを入力すれば済むため、指示者はジェスチャ入力をしやすい。
At this time, the "back" of the work target R1 and the gesture J1 are displayed on the
しかし、カメラ座標系C2におけるジェスチャJ1の位置および方向は固定されるため、作業者から見えるジェスチャJ1の位置および方向は一定である。そのため、作業者は、ジェスチャJ1の見える位置または角度を変更することができなくなってしまう(例えば、ジェスチャJ1を上方から俯瞰的に見ることができなくなってしまう)。 However, since the position and direction of gesture J1 in camera coordinate system C2 are fixed, the position and direction of gesture J1 visible to the operator are constant. Therefore, the operator is no longer able to change the position or angle at which the gesture J1 is viewed (for example, the operator is no longer able to view the gesture J1 from above).
一方、作業者環境E23に示されるように、作業者が作業対象R1の奥側に移動したとする。このとき、ワールド座標系C1におけるジェスチャJ1の位置および方向は変化するが、カメラ座標系C2におけるジェスチャJ1の位置および方向は固定されている。このとき、指示者側の画面125aに表示されるジェスチャJ1の位置および方向は固定される。
On the other hand, assume that the worker moves to the back side of the work target R1, as shown in the worker environment E23. At this time, the position and direction of the gesture J1 in the world coordinate system C1 change, but the position and direction of the gesture J1 in the camera coordinate system C2 are fixed. At this time, the position and direction of the gesture J1 displayed on the
さらに、カメラ座標系C2におけるジェスチャJ1の位置は固定されているため、ジェスチャJ1が作業者の前方に位置し続け、作業者からはジェスチャJ1が見えなくなってしまうことがなくなる。例えば、次の作業位置へ向かうためのジェスチャ情報を指示者が入力した場合に、作業者はそのジェスチャを見て、次の作業位置を知ることができる。 Furthermore, since the position of the gesture J1 in the camera coordinate system C2 is fixed, the gesture J1 continues to be located in front of the worker, and the gesture J1 will not become invisible to the worker. For example, when an instructor inputs gesture information for heading to the next work position, the worker can see the gesture and know the next work position.
以上により、比較例2は、作業者の移動に伴って指示者によるジェスチャが見えなくなってしまうことがなくなるため、リアルタイムに作業指示を行う必要がある場合などには好適である。しかし、比較例2では、作業者から見えるジェスチャの位置および角度が変更されないため、AR技術を用いてジェスチャを表示する利点が損なわれてしまうと言える。 As described above, Comparative Example 2 is suitable for cases where it is necessary to give work instructions in real time because the gestures made by the instructor do not become invisible as the worker moves. However, in Comparative Example 2, the position and angle of the gesture visible to the worker are not changed, so it can be said that the advantage of displaying the gesture using AR technology is lost.
以上、比較例2に係るジェスチャ情報の変換先の座標系について説明した。 The coordinate system to which gesture information is converted according to Comparative Example 2 has been described above.
(本実施形態に係る座標系)
図6は、本発明の実施形態に係るジェスチャ情報の変換先の座標系について説明するための図である。図6を参照すると、図4に示された例と同様に、初期状態における作業者環境E31が示されている。初期状態における作業者環境E31には、作業対象R1が存在している。初期状態においては、遠隔作業支援システム1の状態が動画状態である場合を想定する。一例として、動画状態においては、指示者が作業者に作業位置をジェスチャによって指示する。
(Coordinate system according to this embodiment)
FIG. 6 is a diagram for explaining a coordinate system into which gesture information is converted according to an embodiment of the present invention. Referring to FIG. 6, similar to the example shown in FIG. 4, a worker environment E31 in an initial state is shown. The work object R1 exists in the worker environment E31 in the initial state. In the initial state, it is assumed that the remote
なお、マイクロフォン25によって受け付けられた指示音声が、演算処理部24からネットワーク30を介して演算処理部14に常時送信される。
Note that the instruction voice received by the
遠隔作業支援システム1の状態が動画状態である場合においては、演算処理部24は、カメラ12によって得られた動画が指示者側の画面126aに表示されるように制御する。指示者側の画面126aに表示されている動画には作業対象R1が写っている。指示者は、初期状態における作業者環境E31の動画を見ながら、ジェスチャ情報を入力する。指示者側の画面126aには、ジェスチャ情報に基づいてジェスチャJ1が表示されている。
When the remote
演算処理部14は、ジェスチャ情報を演算処理部24から取得する。遠隔作業支援システム1の状態が動画状態である場合において、演算処理部14は、カメラ12の位置および方向を基準位置および基準方向(第2の基準位置および第2の基準方向)としたカメラ座標系C2(第2の座標系)にジェスチャJ1が配置されるようにARディスプレイ11を制御する手法(第2の手法)を採用する。作業者は、カメラ座標系C2に配置されたジェスチャJ1を見ながら、作業位置に向かうことができる。
The
さらに、遠隔作業支援システム1の状態が動画状態である場合においては、作業者の視点と指示者の視点とが同じである。そこで、遠隔作業支援システム1の状態が動画状態である場合において、作業者環境E31に示されるように、演算処理部14は、指示者側システムにおける演算処理部24から受信した指示音声を音声処理部16に処理させずに、そのままスピーカ15から出力させる。
Furthermore, when the remote
一例として、指示者が作業位置を指示するのを終了し、作業対象R1への作業内容をジェスチャによって指示し始める場合を想定する。このとき、指示者は、動画状態から静止画状態への切り替え(すなわち、第2の手法から第1の手法への切り替え)を示す切り替え指示をジェスチャパターンまたは音声パターンによって入力する。かかる切り替え指示が入力されると、動画状態から静止画状態への切り替えを示す切り替え信号が、演算処理部24から演算処理部14に通知される。
As an example, assume that the instructor finishes instructing the work position and starts instructing the work content to be performed on the work target R1 by gesture. At this time, the instructor inputs a switching instruction indicating switching from the moving image state to the still image state (that is, switching from the second method to the first method) using a gesture pattern or a voice pattern. When such a switching instruction is input, a switching signal indicating switching from a moving image state to a still image state is notified from the
演算処理部14は、動画状態から静止画状態への切り替えを示す切り替え信号を取得すると、かかる切り替え信号を取得したことに基づいて、動画状態から静止画状態への切り替えを示す切り替え信号を取得したタイミングにおけるカメラ12の位置および方向を、ジェスチャの配置に用いられる基準位置C3および基準方向(第1の基準位置および第1の基準方向)として記録する。なお、切り替え信号を取得したタイミングは、所定のタイミングの一例である。
Upon acquiring the switching signal indicating switching from the moving image state to the still image state, the
作業者環境E32に示されるように、作業者が作業対象R1の背面に移動したとする。位置姿勢計測部13は、演算処理部14によって記録された基準位置および基準方向を基準とした作業者の移動量および移動方向を計測する。
Assume that the worker moves to the back of the work target R1, as shown in the worker environment E32. The position and orientation measurement unit 13 measures the movement amount and movement direction of the worker based on the reference position and reference direction recorded by the
演算処理部14は、記録した基準位置および基準方向を基準とする座標系(第1の座標系)に、位置姿勢計測部13によって計測された作業者の移動量および移動方向に基づいて、ジェスチャJ1が配置されるようにARディスプレイ11を制御する手法(第1の手法)を採用する。換言すると、演算処理部14は、AR空間における基準位置および基準方向にジェスチャJ1を配置する。
The
このとき、画面127aに示されるように、ARディスプレイ11には、ワールド座標系C1におけるジェスチャJ1の位置および方向は固定されながら、記録された基準位置および基準方向から、作業者の移動量および移動方向だけ移動および回転した位置および方向から見えるジェスチャJ1の位置および方向に、ジェスチャJ1が表示される。なお、画面127aに存在する作業対象R1の「裏」は、スルー画像であってもよいし、実物であってもよい。
At this time, as shown on the
演算処理部14は、記録した基準位置および基準方向を基準とする座標系に、位置姿勢計測部13によって計測された作業者の移動量および移動方向に基づいて、指示音声の仮想的な出力位置および仮想的な出力方向を決定する。換言すると、演算処理部14は、AR空間における基準位置および基準方向を指示音声の仮想的な出力位置および出力方向として決定する。
The
音声処理部16は、演算処理部14によって決定された仮想的な出力位置から仮想的な出力方向に出力されているかのように(仮想的なスピーカK1から出力されているかのように)スピーカ15による指示音声の出力を制御する。この仮想的な出力位置は、指示者の視点に該当し得る。したがって、作業者は、指示音声によって指示者の視点を認識することができ、臨場感を体感しながら指示を理解することが可能となる。
The
このとき、作業者環境E32に示されるように、基準位置および基準方向はワールド座標系C1に固定されながら、基準位置および基準方向から、作業者の移動量および移動方向だけ移動および回転した位置および方向から見える基準位置および基準方向から、指示音声が出力されているかのように指示音声が出力される。 At this time, as shown in the worker environment E32, while the reference position and reference direction are fixed to the world coordinate system C1, the reference position and reference direction are moved and rotated by the amount and direction of movement of the worker from the reference position and reference direction. The instruction voice is output as if the instruction voice were being output from the reference position and reference direction that can be seen from the direction.
一方、指示者側システムにおいて、演算処理部24は、動画状態から静止画状態への切り替えを示す切り替え信号が入力されたタイミングにおける動画のスナップショットを静止画として生成する。そして、画面127bに示されるように、演算処理部24は、生成した静止画がディスプレイ21に表示されるように制御する。指示者側の画面127bには、ジェスチャ情報に基づいてジェスチャJ1が表示されている。
On the other hand, in the instructor side system, the
このとき、作業者が移動しているにも関わらず、画面127bに表示されるジェスチャJ1の位置および方向は固定される。そのため、指示者は、表示されるジェスチャJ1と同じ位置および方向によってジェスチャを入力すれば済むため、指示者はジェスチャ入力をしやすい。
At this time, although the worker is moving, the position and direction of gesture J1 displayed on
さらに、作業者の移動に伴って作業者から見えるジェスチャJ1の位置および方向は変化し得る。そのため、作業者は、ジェスチャJ1の見える位置または角度を変更することができるようになる(例えば、ジェスチャJ1を上方から俯瞰的に見ることができるようになる)。 Furthermore, as the worker moves, the position and direction of the gesture J1 visible to the worker may change. Therefore, the operator can change the position or angle at which the gesture J1 is viewed (for example, the operator can now view the gesture J1 from above).
一方、作業者環境E33に示されるように、作業者が作業対象R1の奥側に移動したとする。このとき、ワールド座標系C1におけるジェスチャJ1の位置および方向は変化するが、カメラ座標系C2におけるジェスチャJ1の位置および方向は固定されている。このとき、指示者側の画面128aに表示されるジェスチャJ1の位置および方向は固定される。
On the other hand, suppose that the worker moves to the back side of the work target R1, as shown in the worker environment E33. At this time, the position and direction of the gesture J1 in the world coordinate system C1 change, but the position and direction of the gesture J1 in the camera coordinate system C2 are fixed. At this time, the position and direction of the gesture J1 displayed on the
したがって、比較例2と同様に、ジェスチャJ1が作業者の前方に位置し続け、作業者からはジェスチャJ1が見えなくなってしまうことがなくなる。例えば、次の作業位置へ向かうためのジェスチャ情報を指示者が入力した場合に、作業者はそのジェスチャを見て、次の作業位置を知ることができる。 Therefore, similarly to Comparative Example 2, the gesture J1 continues to be located in front of the worker, and the gesture J1 will not become invisible to the worker. For example, when an instructor inputs gesture information for heading to the next work position, the worker can see the gesture and know the next work position.
図6には示されていないが、指示者が、作業対象R1への作業内容をジェスチャによって指示するのを終了し、次の作業位置を指示し始める場合を想定する。このとき、指示者は、静止画状態から動画状態への切り替え(すなわち、第1の手法から第2の手法への切り替え)を示す切り替え指示をジェスチャパターンまたは音声パターンによって入力する。かかる切り替え指示が入力されると、静止画状態から動画状態への切り替えを示す切り替え信号が、演算処理部24から演算処理部14に通知される。
Although not shown in FIG. 6, it is assumed that the instructor finishes instructing the work to be performed on the work target R1 by gesture and starts instructing the next work position. At this time, the instructor inputs a switching instruction indicating switching from the still image state to the moving image state (that is, switching from the first method to the second method) using a gesture pattern or a voice pattern. When such a switching instruction is input, a switching signal indicating switching from a still image state to a moving image state is notified from the
演算処理部14は、静止画状態から動画状態への切り替えを示す切り替え信号を取得すると、かかる切り替え信号を取得したことに基づいて、カメラ12の位置および方向を基準位置および基準方向としたカメラ座標系C2にジェスチャJ1が配置されるようにARディスプレイ11を制御する。作業者は、カメラ座標系C2に配置されたジェスチャJ1を見ながら、作業位置に向かうことができる。
Upon acquiring a switching signal indicating switching from a still image state to a moving image state, the
さらに、遠隔作業支援システム1の状態が動画状態である場合においては、作業者の視点と指示者の視点とが同じである。そこで、遠隔作業支援システム1の状態が動画状態である場合において、作業者環境E31にされるように、演算処理部14は、指示者側システムにおける演算処理部24から受信した指示音声を音声処理部16に処理させずに、そのままスピーカ15から出力させる。
Furthermore, when the remote
以上、ジェスチャが配置される基準位置および基準方向について詳細に説明した。 The reference positions and reference directions in which gestures are placed have been described above in detail.
(1-4.効果)
以上により、本発明の実施形態によれば、作業者から見えるジェスチャの位置および角度が変更され得るため、AR技術を用いてジェスチャを表示する利点が損なわれずに済む。さらに、本発明の実施形態によれば、作業者の移動に伴って指示者によるジェスチャが見えなくなってしまうことがなくなる。そのため、本発明の実施形態に係る技術は、リアルタイムに作業指示を行う必要がある場合などに好適である。
(1-4. Effect)
As described above, according to the embodiment of the present invention, the position and angle of the gesture visible to the worker can be changed, so the advantages of displaying the gesture using AR technology are not lost. Furthermore, according to the embodiment of the present invention, the gestures made by the instructor will not become invisible as the worker moves. Therefore, the technology according to the embodiment of the present invention is suitable for cases where it is necessary to issue work instructions in real time.
さらに、本発明の実施形態によれば、遠隔作業支援システム1の状態が静止画状態である場合において、指示音声の仮想的な出力位置が指示者の視点となるように制御されるため、作業者は、指示音声によって指示者の視点を把握することが可能である。
Further, according to the embodiment of the present invention, when the state of the remote
また、本発明の実施形態によれば、動画状態と静止画状態との間の切り替え指示が音声またはジェスチャによって行われ得る。そのため、指示者は、動画状態と静止画状態との間の切り替え指示を行いたいときに、切り替えスイッチに手を伸ばす必要がなくなる。これによって、切り替え指示の度に、指示者によるジェスチャ指示が途切れてしまうことがなくなる(あるいは、指示者によるジェスチャ指示が途切れてしまう時間を短くすることが可能となる)。 Further, according to an embodiment of the present invention, an instruction to switch between a moving image state and a still image state may be given by voice or gesture. Therefore, the instructor does not need to reach for the changeover switch when instructing switching between the moving image state and the still image state. This prevents the instructor's gesture instruction from being interrupted every time the instructor issues a switching instruction (or it becomes possible to shorten the time period during which the instructor's gesture instruction is interrupted).
以上、本発明の実施形態に係る遠隔作業支援システム1が奏する効果について説明した。
The effects of the remote
(2.ハードウェア構成例)
続いて、本発明の実施形態に係る作業者側システムのハードウェア構成例について説明する。
(2. Hardware configuration example)
Next, an example of the hardware configuration of the worker-side system according to the embodiment of the present invention will be described.
以下では、本発明の実施形態に係る指示者側システムのハードウェア構成例として、情報処理装置900のハードウェア構成例について説明する。なお、以下に説明する情報処理装置900のハードウェア構成例は、指示者側システムのハードウェア構成の一例に過ぎない。したがって、指示者側システムのハードウェア構成は、以下に説明する情報処理装置900のハードウェア構成から不要な構成が削除されてもよいし、新たな構成が追加されてもよい。なお、作業者側システムのハードウェア構成も、指示者側システムのハードウェア構成と同様に実現され得る。
An example of the hardware configuration of the
図7は、本発明の実施形態に係る指示者側システムの例としての情報処理装置900のハードウェア構成を示す図である。情報処理装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、通信装置911と、を備える。
FIG. 7 is a diagram showing a hardware configuration of an
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバス904により相互に接続されている。
The
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905および外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置908は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置900を操作するユーザは、この入力装置908を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置909は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプ等の表示装置およびスピーカ等の音声出力装置を含む。
The
ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置910は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置910は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
The
通信装置911は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置911は、無線通信または有線通信のどちらに対応してもよい。
The
以上、本発明の実施形態に係る指示者側システムのハードウェア構成例について説明した。 The example hardware configuration of the instructor-side system according to the embodiment of the present invention has been described above.
(3.まとめ)
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
(3. Summary)
Although preferred embodiments of the present invention have been described above in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person with ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea stated in the claims. It is understood that these also naturally fall within the technical scope of the present invention.
例えば、上記では、指示者および作業者それぞれが一人ずつである場合について説明した。しかし、指示者は複数存在してもよい。かかる場合には、複数の指示者それぞれによるジェスチャが扱われてもよい。あるいは、作業者は複数存在してもよい。かかる場合には、ジェスチャが配置されるカメラ座標系に対応するカメラが指定されることによって、指定されたカメラの作業者に対してジェスチャが提示されてもよい。 For example, in the above description, there is one instructor and one worker. However, there may be multiple instructors. In such a case, gestures by each of a plurality of instructors may be handled. Alternatively, there may be multiple workers. In such a case, by specifying a camera corresponding to the camera coordinate system in which the gesture is placed, the gesture may be presented to the operator of the specified camera.
また、上記では、切り替え信号に基づいて、ジェスチャが配置される基準位置および基準方向が切り替えられる場合について主に説明した。しかし、切り替え信号に基づいて、ジェスチャ以外の対象(例えば、指示書きなど)が配置される基準位置および基準方向も、ジェスチャが配置される基準位置および基準方向と同様にして切り替えられてもよい。 Furthermore, the above description has mainly been given to the case where the reference position and reference direction in which gestures are placed are switched based on the switching signal. However, based on the switching signal, the reference position and reference direction where objects other than gestures (for example, written instructions) are placed may also be switched in the same manner as the reference position and reference direction where gestures are placed.
また、上記では、切り替え信号が動画像から静止画への切り替えを示す場合に、指示者側システムにおける演算処理部24が、動画からスナップショットを作成し、作成したスナップショットが静止画としてディスプレイ21によって表示されるように制御する場合について主に説明した。しかし、演算処理部24は、静止画とともに動画をディスプレイ21に表示させてもよい。このとき、静止画と動画とは、並置されてもよい。
Furthermore, in the above, when the switching signal indicates switching from a moving image to a still image, the
あるいは、静止画状態においては、静止画と動画とは並置されなくてもよい。このとき、動画からスナップショットを作成する処理は、指示者側システムにおける演算処理部24の代わりに、作業者側システムにおける演算処理部14によって行われてもよい。かかる場合には、作業者側システムにおいては、カメラ12による動画撮影が停止され、作業者側システムから指示者側システムには、動画の送信が停止されてもよい。これによって、カメラ12による消費電力が低減され得る他、通信帯域が低減され得る。
Alternatively, in the still image state, the still image and the moving image may not be juxtaposed. At this time, the process of creating a snapshot from the video may be performed by the
上記では、仮想的な指示音声が配置される基準位置が、動画状態から静止画状態への切り替えを示す切り替え信号が取得されたタイミングにおけるカメラ12の位置である場合を主に説明した。しかし、仮想的な指示音声が配置される基準位置は、切り替え信号が取得されたタイミングにおけるカメラ12の位置からずれた位置(オフセットされた位置)とされてもよい。
In the above, the case where the reference position where the virtual instruction voice is placed is the position of the
また、上記では、指示者のジェスチャおよび指示者の音声が、静止画状態と動画状態との間の切り替えのために別々に用いられる場合について主に想定した。しかし、静止画状態と動画状態との間の切り替えには、指示者のジェスチャおよび指示者の音声の組み合わせが用いられてもよい。 Further, in the above description, the case where the gesture of the instructor and the voice of the instructor are used separately for switching between the still image state and the moving image state has been mainly assumed. However, a combination of the instructor's gesture and the instructor's voice may be used to switch between the still image state and the moving image state.
例えば、ジェスチャ認識装置26は、ジェスチャ入力装置22によって受け付けられた指示者のジェスチャから、切り替えの禁止を示すジェスチャパターン(第2のジェスチャパターン)の認識を試みてもよい。切り替えの禁止を示すジェスチャパターンは、具体的にどのようなジェスチャパターンであってもよい。
For example, the
そして、演算処理部24は、切り替えの禁止を示すジェスチャパターンが認識されたときには、音声認識装置27によって特定の音声パターンが認識されたとしても、切り替え信号を演算処理部14に出力しなくてもよい。すなわち、演算処理部24は、音声認識装置27によって特定の音声パターンが認識された場合に、切り替えの禁止を示すジェスチャパターンが認識されないときにのみ、切り替え信号を演算処理部14に出力してもよい。
Then, when a gesture pattern indicating prohibition of switching is recognized, the
あるいは、ジェスチャ認識装置26は、ジェスチャ入力装置22によって受け付けられた指示者のジェスチャから、切り替えの実行を示すジェスチャパターン(第3のジェスチャパターン)の認識を試みてもよい。切り替えの実行を示すジェスチャパターンは、具体的にどのようなジェスチャパターンであってもよい。
Alternatively, the
そして、演算処理部24は、切り替えの実行を示すジェスチャパターンが認識されないときには、音声認識装置27によって特定の音声パターンが認識されたとしても、切り替え信号を演算処理部14に出力しなくてもよい。すなわち、演算処理部24は、音声認識装置27によって特定の音声パターンが認識された場合に、切り替えの実行を示すジェスチャパターンが認識されたときにのみ、切り替え信号を演算処理部14に出力してもよい。
Then, when the gesture pattern indicating execution of switching is not recognized, the
上記では、ジェスチャ認識装置26によって第1のジェスチャパターンが認識された場合、または、音声認識装置27によって特定の音声パターンが認識された場合に、演算処理部24が、静止画像と動画像との間における切り替え信号を演算処理部14に出力する場合を主に想定した。しかし、切り替え信号を演算処理部14に出力するか否かは、追加的な条件も加味されて判定されてもよい。
In the above, when the first gesture pattern is recognized by the
例えば、作業者の状態を検出するセンサ(例えば、加速度センサ、振動センサ、ジャイロセンサなど)と、かかるセンサデータ(第2のセンサデータ)から作業者の行動を認識する行動認識装置とが設けられていてもよい。例えば、センサは、作業者の身体に付されていてもよい(例えば、ARディスプレイ11に付されていてもよい)。行動認識装置は、作業者側システムに設けられてもよいし、指示者側システムに設けられてもよいし、作業者側システムおよび指示者側システムの外部に設けられてもよい。 For example, a sensor (for example, an acceleration sensor, a vibration sensor, a gyro sensor, etc.) that detects the state of the worker and an action recognition device that recognizes the worker's actions from such sensor data (second sensor data) are provided. You can leave it there. For example, the sensor may be attached to the worker's body (for example, it may be attached to the AR display 11). The behavior recognition device may be provided in the worker-side system, the instructor-side system, or outside the worker-side system and the instructor-side system.
例えば、センサデータから認識される作業者の行動が作業者の移動中(例えば、歩行中など)を示す場合には、作業を行っていないことが想定される。したがって、かかる場合には、演算処理部24は、動画像から静止画像への切り替えを示す入力パターンがジェスチャ認識装置26または音声認識装置27によって認識されたとしても、動画像から静止画像への切り替え信号を演算処理部14に出力しなくてもよい。
For example, when the worker's behavior recognized from the sensor data indicates that the worker is moving (for example, walking), it is assumed that the worker is not working. Therefore, in such a case, even if the
また、上記では、動画状態と静止画状態との間の切り替えのために、ジェスチャ認識装置26および音声認識装置27が専用に設けられる場合について主に想定した。しかし、動画状態と静止画状態との間の切り替え以外の機能(例えば、通信の切断、音量の変更など)を実現するために設けられているジェスチャ認識装置および音声認識装置が、動画状態と静止画状態との間の切り替えを行うためのジェスチャ認識装置26および音声認識装置27に流用されてもよい。
Further, in the above description, the case where the
1 遠隔作業支援システム
11 ARディスプレイ
12 カメラ
13 位置姿勢計測部
14 演算処理部
15 スピーカ
16 音声処理部
21 ディスプレイ
22 ジェスチャ入力装置
24 演算処理部
25 マイクロフォン
26 ジェスチャ認識装置
27 音声認識装置
30 ネットワーク
1 Remote
Claims (10)
前記入力パターンが認識されたことに基づいて、静止画像と動画像との間における切り替え信号を作業者側装置に出力する切り替え信号出力部と、
指示者のジェスチャ情報に基づいてジェスチャのディスプレイによる表示を制御するとともに、前記切り替え信号に基づいて前記作業者側装置から送信された静止画像または動画像の前記ディスプレイによる表示を制御する画像表示制御部と、
を備える、指示者側装置。 a recognition unit that recognizes a specific input pattern from the first sensor data;
a switching signal output unit that outputs a switching signal between a still image and a moving image to a worker-side device based on the recognition of the input pattern;
an image display control unit that controls the display of gestures on the display based on gesture information of the instructor, and controls the display of still images or moving images transmitted from the worker side device on the display based on the switching signal; and,
An instructor-side device comprising:
前記特定の入力パターンは、第1のジェスチャパターンを含む、
請求項1に記載の指示者側装置。 The first sensor data includes a gesture,
the specific input pattern includes a first gesture pattern;
The instructor side device according to claim 1.
前記特定の入力パターンは、特定の音声パターンを含む、
請求項1または2に記載の指示者側装置。 The first sensor data includes audio,
the specific input pattern includes a specific audio pattern;
The instructor side device according to claim 1 or 2.
前記切り替え信号出力部は、前記第2のジェスチャパターンが認識されたときには、前記特定の音声パターンが認識されたとしても、前記切り替え信号を前記作業者側装置に出力しない、
請求項3に記載の指示者側装置。 The recognition unit recognizes a second gesture pattern from the gesture of the instructor,
The switching signal output unit does not output the switching signal to the worker side device when the second gesture pattern is recognized, even if the specific voice pattern is recognized.
The instructor side device according to claim 3.
前記切り替え信号出力部は、前記第3のジェスチャパターンが認識されていないときには、前記特定の音声パターンが認識されたとしても、前記切り替え信号を前記作業者側装置に出力しない、
請求項3に記載の指示者側装置。 The recognition unit recognizes a third gesture pattern from the gesture of the instructor,
The switching signal output unit does not output the switching signal to the worker side device when the third gesture pattern is not recognized, even if the specific voice pattern is recognized.
The instructor side device according to claim 3.
請求項1~5のいずれか一項に記載の指示者側装置。 The switching signal output unit outputs a switching signal from a still image to a moving image to the worker side device based on recognition of an input pattern indicating switching from a still image to a moving image.
The instructor-side device according to any one of claims 1 to 5.
請求項1~6のいずれか一項に記載の指示者側装置。 The switching signal output unit outputs a switching signal from a moving image to a still image to the worker side device based on recognition of an input pattern indicating switching from a moving image to a still image.
The instructor-side device according to any one of claims 1 to 6.
請求項7に記載の指示者側装置。 When the worker's behavior recognized from the second sensor data indicates that the worker is moving, the switching signal output unit determines that an input pattern indicating switching from a moving image to a still image has been recognized. Also, a switching signal from a moving image to a still image is not output to the worker side device.
The instructor side device according to claim 7.
前記入力パターンが認識されたことに基づいて、静止画像と動画像との間における切り替え信号を作業者側装置に出力することと、
指示者のジェスチャ情報に基づいてジェスチャのディスプレイによる表示を制御するとともに、前記切り替え信号に基づいて前記作業者側装置から送信された静止画像または動画像の前記ディスプレイによる表示を制御することと、
を備える、方法。 recognizing a specific input pattern from the first sensor data;
outputting a switching signal between a still image and a moving image to a worker-side device based on the recognition of the input pattern;
controlling the display of the gesture on the display based on gesture information of the instructor, and controlling the display of the still image or moving image transmitted from the worker side device on the display based on the switching signal;
A method of providing.
第1のセンサデータから特定の入力パターンを認識する認識部と、
前記入力パターンが認識されたことに基づいて、静止画像と動画像との間における切り替え信号を作業者側装置に出力する切り替え信号出力部と、
指示者のジェスチャ情報に基づいてジェスチャのディスプレイによる表示を制御するとともに、前記切り替え信号に基づいて前記作業者側装置から送信された静止画像または動画像の前記ディスプレイによる表示を制御する画像表示制御部と、
を備える指示者側装置として機能させるプログラム。
computer,
a recognition unit that recognizes a specific input pattern from the first sensor data;
a switching signal output unit that outputs a switching signal between a still image and a moving image to a worker-side device based on the recognition of the input pattern;
an image display control unit that controls the display of gestures on the display based on gesture information of the instructor, and controls the display of still images or moving images transmitted from the worker side device on the display based on the switching signal; and,
A program that functions as an instructor-side device equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022030795A JP2023127176A (en) | 2022-03-01 | 2022-03-01 | Instructor-side apparatus, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022030795A JP2023127176A (en) | 2022-03-01 | 2022-03-01 | Instructor-side apparatus, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023127176A true JP2023127176A (en) | 2023-09-13 |
Family
ID=87971477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022030795A Pending JP2023127176A (en) | 2022-03-01 | 2022-03-01 | Instructor-side apparatus, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023127176A (en) |
-
2022
- 2022-03-01 JP JP2022030795A patent/JP2023127176A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI610097B (en) | Electronic system, portable display device and guiding device | |
US8316319B1 (en) | Efficient selection of characters and commands based on movement-inputs at a user-inerface | |
JP4533087B2 (en) | Image processing method and image processing apparatus | |
JP2022540315A (en) | Virtual User Interface Using Peripheral Devices in Artificial Reality Environment | |
CN109891368A (en) | Switching of the moving object in enhancing and/or reality environment | |
JP4227561B2 (en) | Image processing method and image processing apparatus | |
JP2002525769A (en) | Direct control of portable data display | |
KR20170126295A (en) | Head mounted display device and method for controlling the same | |
KR20170033462A (en) | Electronic device and method for displaying image of a head mounted display device | |
KR20150110257A (en) | Method and wearable device for providing a virtual input interface | |
US11009949B1 (en) | Segmented force sensors for wearable devices | |
US20080250344A1 (en) | Information processing apparatus and display method | |
JP2023099046A (en) | Head-mounted information processing device and head-mounted display system | |
JP2005174021A (en) | Method and device for presenting information | |
CN110968248B (en) | Generating a 3D model of a fingertip for visual touch detection | |
US20220375362A1 (en) | Virtual tutorials for musical instruments with finger tracking in augmented reality | |
JP2023127176A (en) | Instructor-side apparatus, method, and program | |
WO2016006070A1 (en) | Portable information terminal device and head-mount display linked thereto | |
JP2023032037A (en) | Operator-side device, instructor-side device, method and program | |
KR102288431B1 (en) | Imagedata input system using virtual reality device and method of generating imagedata thereof | |
JP2006343954A (en) | Image processing method and image processor | |
JP7236529B2 (en) | Head-mounted information processing device and head-mounted display system | |
EP4252871A1 (en) | System, imaging device, information processing device, information processing method, and information processing program | |
US20230162450A1 (en) | Connecting Spatially Distinct Settings | |
US20240053832A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium |