JP6244069B1 - 遠隔作業支援システム、遠隔作業支援方法、及びプログラム - Google Patents

遠隔作業支援システム、遠隔作業支援方法、及びプログラム Download PDF

Info

Publication number
JP6244069B1
JP6244069B1 JP2017541988A JP2017541988A JP6244069B1 JP 6244069 B1 JP6244069 B1 JP 6244069B1 JP 2017541988 A JP2017541988 A JP 2017541988A JP 2017541988 A JP2017541988 A JP 2017541988A JP 6244069 B1 JP6244069 B1 JP 6244069B1
Authority
JP
Japan
Prior art keywords
image
virtual object
display
remote
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017541988A
Other languages
English (en)
Other versions
JPWO2018193509A1 (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Application granted granted Critical
Publication of JP6244069B1 publication Critical patent/JP6244069B1/ja
Publication of JPWO2018193509A1 publication Critical patent/JPWO2018193509A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Abstract

遠隔作業支援システムは、遠隔作業を支援するために、ウェアラブル端末で撮影された画像(200)を、ウェアラブル端末と遠隔端末とで共有する。画像取得手段は、ウェアラブル端末で撮影された画像(200)を取得する。画面共有手段は、画像(200)を、ウェアラブル端末と遠隔端末とで画面共有する。受付手段は、遠隔端末から、画像(200)に対する指示情報の入力を受け付ける。第1表示手段は、ウェアラブル端末に、画像(200)と、指示情報に応じた仮想オブジェクト(210)と、を重ねて表示する。第2表示手段は、遠隔端末に、画像(200)と、仮想オブジェクト(210)と、を重ねて表示する。画像認識手段は、画像(200)を解析して体の部位の状態を認識する。変化手段は、認識された状態に基づいて、第1表示手段及び第2表示手段による仮想オブジェクト(210)の表示を変化させる。

Description

本発明は、遠隔作業を支援する技術に関する。
複数の装置間で画面を共有する技術が知られている。例えば特許文献1では、サーバーが複数のクライアントの画面情報を取得し、これらの画面情報を一覧表示する技術が開示されている。
特開2003−6062号公報
ところで、工場等の作業現場において、指示者が遠隔から作業者に作業の指示をする遠隔作業支援が行われる場合がある。作業者は作業を行うため、指示者の指示に対して音声のように両手が自由になる方法で応答できるのが好ましい。しかし、作業現場の騒音レベルが高い場合、音声により遠隔作業支援を行うのは難しい。
本発明は、ウェアラブル端末のユーザーが音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することを目的とする。
課題を解決する手段
本発明は、遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで共有する遠隔作業支援システムであって、前記ウェアラブル端末で撮影された画像を取得する画像取得手段と、前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有手段と、前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付手段と、前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示手段と、前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示手段と、前記画像を解析して体の部位の状態を認識する画像認識手段と、前記認識された状態に基づいて、前記第1表示手段及び前記第2表示手段による前記仮想オブジェクトの表示を変化させる変化手段と、を備える遠隔作業支援システムを提供する。
本発明によれば、ウェアラブル端末のユーザーが音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することができる。
遠隔作業支援システム1の構成の一例を示す図である。 ウェアラブル端末10の外観の一例を示す図である。 ウェアラブル端末10のハードウェア構成の一例を示す図である。 遠隔端末20のハードウェア構成の一例を示す図である。 サーバー装置30のハードウェア構成の一例を示す図である。 遠隔作業支援システム1の機能構成の一例を示す図である。 遠隔作業支援システム1の動作を示すシーケンスチャートである。 仮想オブジェクト210の一例を示す図である。 表示装置16に表示される画面220の一例を示す図である。 表示装置26に表示される画面230の一例を示す図である。 表示装置26における仮想オブジェクト210の表示を変化の一例を示す図である。 変形例において表示装置16に表示される画面240の一例を示す図である。 変形例において表示装置16に表示される画面250の一例を示す図である。 変形例において表示装置16に表示される画面260の一例を示す図である。 変形例において表示装置16に表示される画面270の一例を示す図である。 変形例において表示装置16に表示される画面280の一例を示す図である。 変形例において表示装置16に表示される画面290の一例を示す図である。 変形例において表示装置26に表示される画面300の一例を示す図である。
1:遠隔作業支援システム、10:ウェアラブル端末、20:遠隔端末、30:サーバー装置、101:画像取得手段、102:受付手段、103:音声認識手段、104:オブジェクト生成手段、105:画面共有手段、106:第1表示手段、107:第2表示手段、108:画像認識手段、109:変化手段、110:応答生成手段、161:表示板
構成
図1は、遠隔作業支援システム1の構成の一例を示す図である。遠隔作業支援システム1は、遠隔作業を支援するためのシステムである。なお、遠隔作業支援システム1は、遠隔作業の支援用に設計されており、例えば遠隔の人と顔を見ながら会議をするためのテレビ会議システムとは異なるものである。遠隔作業支援システム1においては、ウェアラブル端末10が画像を撮影する機能を有し、ウェアラブル端末10で撮影された画像が、このウェアラブル端末10と遠隔端末20とで共有される。この場合、遠隔端末20のユーザーは、ウェアラブル端末10を用いて撮影された画像を見ることにより、ウェアラブル端末10のユーザーの状況を把握することができる。例えば所定の資格を有する指示者が遠隔端末20を使用し、現場の作業者がウェアラブル端末10を使用してもよい。この場合、指示者は、現場の作業者に対して遠隔から作業の指示をすることができる。なお、以下の説明では、ウェアラブル端末10のユーザーを「第1ユーザー」といい、遠隔端末20のユーザーを「第2ユーザー」という。
遠隔作業支援システム1は、ウェアラブル端末10と、遠隔端末20と、サーバー装置30とを備える。ウェアラブル端末10、遠隔端末20、及びサーバー装置30は、通信回線40を介して接続される。ウェアラブル端末10は、通信回線40に無線で接続される。通信回線40は、例えばインターネットと無線通信ネットワークとにより構成されてもよい。
図2は、ウェアラブル端末10の外観の一例を示す図である。この例では、ウェアラブル端末10は、第1ユーザーの頭部に装着される両眼の眼鏡型の端末である。ウェアラブル端末10は、フレーム19と2つの表示板161とを備える。フレーム19は、2つの表示板161を保持する部材である。表示板161は、光透過性を有する板状部材であり、第1ユーザーの眼前、すなわち視界内に設けられる。第1ユーザーは、表示板161を介して前方の空間を見ることができる。なお、ここでいう「光透過性を有する」とは、表示板161を介して背後が透けて見えることを意味する。表示板161は、透明であってもよいし、半透明であってもよい。
図3は、ウェアラブル端末10のハードウェア構成の一例を示す図である。ウェアラブル端末10は、プロセッサー11と、メモリー12と、通信インタフェース13と、ストレージ14と、入力装置15と、表示装置16と、カメラ17とを備える。これらの装置は、バス18を介して接続される。
プロセッサー11は、プログラムをメモリー12に読み出して実行することにより、各種の制御や処理を行う。プロセッサー11としては、例えばCPU(Central Processing Unit)が用いられてもよい。メモリー12は、プロセッサー11により実行されるプログラムを記憶する。メモリー12としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、又はこれらの組み合わせが用いられてもよい。通信インタフェース13は、通信回線40に接続され、所定の無線通信規格に従ってデータ通信を行う。ストレージ14は、各種のデータ及びプログラムを記憶する。ストレージ14としては、例えばフラッシュメモリーが用いられてもよい。
入力装置15は、ウェアラブル端末10の操作に用いられる。入力装置15としては、例えばキーが用いられてもよい。表示装置16は、上述した表示板161上に各種の情報を表示する。表示装置16は、例えば表示板161と、表示板161上に画像を投影するプロジェクターとにより構成されてもよい。表示板161上に画像が表示された場合、ユーザーは、前方の空間とともに、表示板161上に表示された画像を見ることができる。
カメラ17は、撮像素子と光学系とを備え、光学系により被写体の画像を撮像素子上に結像させることにより、被写体の画像を撮影する。カメラ17としては、例えばデジタルカメラが用いられる。カメラ17は、ユーザーの視界に沿って画像を撮影し得る位置及び向きに設置される。
図4は、遠隔端末20のハードウェア構成の一例を示す図である。遠隔端末20は、例えばパーソナルコンピューターであってもよい。遠隔端末20は、プロセッサー21と、メモリー22と、通信インタフェース23と、ストレージ24と、入力装置25と、表示装置26と、マイクロフォン27を備える。これらの装置は、バス28を介して接続される。
プロセッサー21は、プログラムをメモリー22に読み出して実行することにより、各種の制御や処理を行う。プロセッサー21としては、例えばCPUが用いられてもよい。メモリー22は、プロセッサー21により実行されるプログラムを記憶する。メモリー22としては、例えばROM、RAM、又はこれらの組み合わせが用いられてもよい。通信インタフェース23は、通信回線40に接続され、所定の通信規格に従ってデータ通信を行う。ストレージ24は、各種のデータ及びプログラムを記憶する。ストレージ24としては、例えばハードディスク、フラッシュメモリー、又はこれらの組み合わせが用いられてもよい。
入力装置25は、遠隔端末20の操作に用いられる。入力装置25としては、例えばキーボード及びマウス、タッチパネルを構成するタッチセンサー、又はこれらの組み合わせが用いられてもよい。表示装置26は、各種の情報を表示する。表示装置26としては、例えば液晶ディスプレイが用いられてもよい。マイクロフォン27は、音声を収集して音声データに変換する。
図5は、サーバー装置30のハードウェア構成の一例を示す図である。サーバー装置30は、プロセッサー31と、メモリー32と、通信インタフェース33と、ストレージ34とを備える。これらの装置は、バス35を介して接続される。
プロセッサー31は、プログラムをメモリー32に読み出して実行することにより、各種の制御や処理を行う。プロセッサー31としては、例えばCPUが用いられてもよい。メモリー32は、プロセッサー31により実行されるプログラムを記憶する。メモリー32としては、例えばROM、RAM、又はこれらの組み合わせが用いられてもよい。通信インタフェース33は、通信回線40に接続され、所定の通信規格に従ってデータ通信を行う。ストレージ34は、各種のデータ及びプログラムを記憶する。ストレージ34としては、例えばハードディスク、フラッシュメモリー、又はこれらの組み合わせが用いられてもよい。
図6は、遠隔作業支援システム1の機能構成の一例を示す図である。遠隔作業支援システム1は、画像取得手段101と、受付手段102と、音声認識手段103と、オブジェクト生成手段104と、画面共有手段105と、第1表示手段106と、第2表示手段107と、画像認識手段108と、変化手段109と、応答生成手段110として機能する。
この例では、画像取得手段101と第1表示手段106とは、ウェアラブル端末10に実装される。これらの機能は、メモリー12に記憶されたプログラムと、プログラムを実行するプロセッサー11との協働により実現される。受付手段102と第2表示手段107とは、遠隔端末20に実装される。これらの機能は、メモリー22に記憶されたプログラムと、プログラムを実行するプロセッサー21との協働により実現される。音声認識手段103と、オブジェクト生成手段104と、画面共有手段105と、画像認識手段108と、変化手段109と、応答生成手段110とは、サーバー装置30に実装される。これらの機能は、メモリー32に記憶されたプログラムと、プログラムを実行するプロセッサー31との協働により実現される。
画像取得手段101は、カメラ17により撮影された画像を取得する。画面共有手段105は、画像取得手段101により取得された画像を、ウェアラブル端末10と遠隔端末20とで画面共有する。受付手段102は、第2ユーザーによりこの画像に対する指示が音声で行われると、マイクロフォン27により収集されたこの音声を示す音声データの入力を受け付ける。音声認識手段103は、受付手段102により受け付けられた音声データを解析することにより、第2ユーザーの音声の内容を認識する。この音声の内容の認識には、周知の音声認識技術が用いられてもよい。オブジェクト生成手段104は、音声認識手段103により認識された音声の内容に基づいて、仮想オブジェクトを生成する。この仮想オブジェクトは、例えば音声の内容が記載されたものであってもよい。
第1表示手段106は、ウェアラブル端末10に、画像取得手段111により取得された画像と、オブジェクト生成手段104により生成された仮想オブジェクトとを重ねて表示する。この表示は、AR(Augmented Reality)技術を利用して行われてもよい。第2表示手段107は、遠隔端末20に、画像取得手段111により取得された画像と、オブジェクト生成手段104により生成された仮想オブジェクトとを重ねて表示する。
画像認識手段108は、画像取得手段111により取得された画像を解析して第1ユーザーの指の状態を認識する。この状態には、指の動き、形状、又は位置が含まれる。例えば第1ユーザーは、表示板161を介して見える指を用いて仮想オブジェクトに対する操作を行ってもよい。この操作は、例えば仮想オブジェクトを移動若しくは回転させ、又は仮想オブジェクトに接触するジェスチャー操作であってもよい。
仮想オブジェクトに対する操作は、画像取得手段101により撮影された画像と第1表示手段106により表示された仮想オブジェクトとに基づいて認識される。例えば、第1ユーザーの視点位置から見た画像になるように、画像取得手段101により撮影された画像の座標が変換される。そして、第1ユーザーの視界が再現されるように、変換後の画像に仮想オブジェクトが合成され合成画像が生成される。この合成画像における第1ユーザーの指と仮想オブジェクトとの位置関係と、第1ユーザーの指の状態とに基づいて、仮想オブジェクトに対する操作が認識される。
変化手段109は、画像認識手段108により認識された状態に基づいて、第1表示手段106及び第2表示手段107による仮想オブジェクトの表示を変化させる。例えば、変化手段109は、仮想オブジェクトの表示を変化させるための制御情報を送信することにより、仮想オブジェクトの表示を変化させてもよい。他の例において、変化手段109は、変化後の仮想オブジェクトを示す画像データを送信してもよい。応答生成手段110は、仮想オブジェクトの表示と画像認識手段108により認識された指の状態とに基づいて、応答情報を生成する。なお、仮想オブジェクトの表示及び指の状態と、応答情報の内容との対応関係は、予め定められていてもよい。応答生成手段110により応答情報が生成されると、第2表示手段107は、さらにこの応答情報を表示する。
なお、以下の説明において、ウェアラブル端末10を処理の主体として記載する場合には、具体的にはメモリー12に記憶されたプログラムと、プログラムを実行するプロセッサー11との協働によりこの処理が実行されることを意味する。遠隔端末20及びサーバー装置30についても同様である。
動作
図7は、遠隔作業支援システム1の動作を示すシーケンスチャートである。ここでは、第1ユーザーが作業現場で作業をする作業者であり、第2ユーザーが、遠隔にいる指示者である場合を想定する。この場合、作業者がウェアラブル端末10を装着し、指示者が遠隔端末20を使用して作業者に対して遠隔から作業の指示を行う。なお、ここでいう「遠隔」とは、別の場所であることを意味し、必ずしも遠く離れている必要はない。
この場合、作業者は、カメラ17を用いて作業現場の画像を撮影する。この画像は、動画であってもよいし、連続する静止画であってもよい。画像取得手段111は、カメラ17により撮影された画像200(以下、「撮像画像200」という。)を取得する。ウェアラブル端末10は、この撮像画像200を示す画像データをサーバー装置30に送信する。サーバー装置30は、ウェアラブル端末10から画像データを受信する。画面共有手段105は、この画像データをウェアラブル端末10及び遠隔端末20に送信する。ウェアラブル端末10及び遠隔端末20は、それぞれ、サーバー装置30から画像データを受信する。第1表示手段106は、この画像データに応じた撮像画像200を表示装置16に表示する。また、第2表示手段107は、この画像データに応じた撮像画像200を表示装置26に表示する。これにより、ウェアラブル端末10と遠隔端末20との間で画面共有が行われる。指示者は、表示装置26に表示された撮像画像200を見ることにより作業者の作業の状況を把握し、音声により作業者に作業の指示を行う。指示者が音声により指示を行うと、ステップS101の処理が開始される。
ステップS101において、マイクロフォン27は、指示者の音声を収集して、音声データに変換する。ここでは、指示者により「右側を撮影してください」という音声が発せられた場合を想定する。この場合、この音声が収集されて音声データに変換される。受付手段102は、変換により得られた音声データを受け付ける。
ステップS102において、遠隔端末20は、この音声データをサーバー装置30に送信する。サーバー装置30は、遠隔端末20から音声データを受信する。
ステップS103において、音声認識手段103は、この音声データを解析することにより、音声の内容を認識し、文字データに変換する。この例では、「右側を撮影してください」という音声の内容が文字データに変換される。この文字データは、指示情報として用いられる。
ステップS104において、オブジェクト生成手段104は、この指示情報に基づいて、仮想オブジェクト210を生成する。
図8は、仮想オブジェクト210の一例を示す図である。仮想オブジェクト210は、「右側を撮影してください」という指示情報211が含まれる。また、仮想オブジェクト210には、図中のX方向に向かう矢印212と、「YES」という応答情報213とが記載される。この応答情報213は、矢印212に対応する位置に配置される。これは、仮想オブジェクト210を図中のX方向に移動させることにより、「YES」という応答が行われることを示す。さらに、仮想オブジェクト210には、図中の−X方向に向かう矢印214と、「NO」という応答情報215とが記載される。これは、仮想オブジェクト210を図中の−X方向に移動させることにより、「NO」という応答が行われることを示す。なお、図8に示す例では、仮想オブジェクト210は四角形であるが、他の形状であってもよい。
ステップS105及びS106において、画面共有手段105は、ステップS104において生成された仮想オブジェクト210を示す画像データを、ウェアラブル端末10及び遠隔端末20にそれぞれ送信する。ただし、遠隔端末20には、上述したステップS103において得られた「右側を撮影してください」という指示情報が画像データとともに送信される。ウェアラブル端末10及び遠隔端末20は、それぞれ、サーバー装置30から画像データを受信する。
ステップS107において、第1表示手段106は、この画像データに応じた仮想オブジェクト210を表示装置16に表示する。より具体的には、仮想オブジェクト210は表示板161上に表示される。
図9は、表示装置16に表示される画面220の一例を示す図である。画面220には、は、撮像画像200と仮想オブジェクト210とが含まれる。仮想オブジェクト210は、撮像画像200の上に重ねて表示される。これにより、作業者は、現実の作業現場上に、仮想オブジェクト210が現れたように見える。
ステップS108において、第2表示手段107は、第1表示手段106と同様に、サーバー装置30から受信した画像データに応じた仮想オブジェクト210を表示装置26に表示する。
図10は、表示装置26に表示される画面230の一例を示す図である。画面230は、表示領域231とトーク領域232とを有する。表示領域231には、撮像画像200と仮想オブジェクト210とが含まれる。仮想オブジェクト210は、撮像画像200の上に重ねて表示される。トーク領域232には、「右側を撮影してください」という指示情報が表示される。
作業者は、図9に示す画面220を見て、指示者の指示に対する応答を行う。図9に示す例では、仮想オブジェクト210を図中の矢印X方向に指で移動させるジェスチャーと、「YES」という応答とが対応付けられている。また、仮想オブジェクト210を図中の矢印−X方向に指で移動させるジェスチャーと、「NO」という応答とが対応付けられている。すなわち、図中の矢印X方向への移動方向に対して「YES」という応答、図中の矢印−X方向への移動方向に対して「NO」という応答が予め定められている。
例えば指示者の指示に対して「YES」と応答する場合、作業者は、図9に示すように、カメラ17の前において、仮想オブジェクト210を図中の矢印X方向に指で移動させるジェスチャーを行う。より具体的には、作業者は、仮想オブジェクト210と所定の関係を有する位置から図中の矢印X方向に指を移動させる。この仮想オブジェクト210に対応する位置は、例えば作業者の視界において仮想オブジェクト210と重なる位置である。
ステップS109において、カメラ17により作業者の指を含む画像が撮影される。画像取得手段101は、カメラ17により撮影された画像を取得する。
ステップS110において、ウェアラブル端末10は、この画像を示す画像データをサーバー装置30に送信する。サーバー装置30は、ウェアラブル端末10から画像データを受信する。
ステップS111において、画像認識手段108は、この画像データを解析することにより、作業者により行われたジェスチャーを認識する。この例では、仮想オブジェクト210を指で図中の矢印X方向に移動させるジェスチャーが認識される。より具体的には、仮想オブジェクト210と所定の関係を有する位置から図中の矢印X方向に移動する指の動きが認識される。
ステップS112及びS113において、変化手段109は、ステップS111において認識された状態に基づいて、表示装置16及び表示装置26における仮想オブジェクト210の表示を変化させる制御情報をウェアラブル端末10及び遠隔端末20にそれぞれ送信する。ウェアラブル端末10及び遠隔端末20は、それぞれ、サーバー装置30から制御情報を受信する。
ステップS114及びS115において、第1表示手段106及び第2表示手段107は、それぞれ、この制御情報に応じて仮想オブジェクト210の表示を変化させる。
図11は、表示装置26における仮想オブジェクト210の表示を変化の一例を示す図である。仮想オブジェクト210は、作業者の指の動きに従って、図中の矢印X方向に移動する。画面220の図中の矢印X方向の端に到達すると、仮想オブジェクト210は、移動に伴って画面220からはみ出る部分が徐々に非表示となっていく。このように、仮想オブジェクト210の表示は、図中の矢印X方向に沿って画面220の外に出ていくように移動する。表示装置16における仮想オブジェクト210の表示についても、同様に変化する。
ステップS116において、応答生成手段110は、ステップS111において認識された状態に基づいて応答情報を生成する。この例では、図9中の矢印X方向に移動する指の動きに対応する「YES」という応答情報が生成される。
ステップS117において、サーバー装置30は、ステップS116において生成された応答情報を遠隔端末20に送信する。遠隔端末20は、サーバー装置30から応答情報を受信する。
ステップS118において、第2表示手段107は、この応答情報を表示装置26に表示する。この応答情報は、指示情報と対応する位置に表示される。この例では、図11に示すように、トーク領域232の「右側を撮影してください」という指示情報に対応する位置に、「YES」という応答情報が表示される。
指示者は、仮想オブジェクト210の表示の変化及び応答情報の表示を見ることにより、「右側を撮影してください」という指示に対する作業者の応答が「YES」であることを認識することができる。
なお、上述したステップS112〜S115の処理とステップS116〜S118の処理とは、並行して行われてもよいし、これらの処理が逆の順序、すなわちステップS116〜S118の処理の後にステップS112〜S115の処理という順序で行われてもよい。
以上説明した実施形態によれば、遠隔端末20を使用する第2ユーザーの指示は、仮想オブジェクト210を用いてウェアラブル端末10を使用する第1ユーザーに伝達される。また、この指示に対する第1ユーザーの応答は、仮想オブジェクト210の表示の変化及び応答情報により第2ユーザーに伝達される。これにより、ウェアラブル端末10を使用するユーザーが音声による遠隔作業支援を受け難い環境下にいる場合であっても、円滑な遠隔作業支援を実現することができる。
変形例
本発明は上述した実施形態に限定されず、種々の変形がなされてもよい。また、以下の変形例は、上述した各実施形態と組み合わせて実施されてもよいし、他の変形例と組み合わせて実施されてもよい。
変形例1
上述した実施形態では、仮想オブジェクト210を例示して説明したが、本発明に係る仮想オブジェクトは仮想オブジェクト210に限定されず、その内容や表示形式について様々な変形がなされてもよい。
図12は、この変形例において表示装置16に表示される画面240の一例を示す図である。画面240には、上述した撮像画像200の他に、仮想オブジェクト241が含まれる。この仮想オブジェクト241は、撮像画像200の上に重ねて表示される。仮想オブジェクト241には、上述した仮想オブジェクト210と同様に矢印212及び応答情報213が記載されるものの、上述した矢印214及び応答情報215は記載されていない。この場合、作業者が仮想オブジェクト241を図中のX方向に移動させるジェスチャーを行うと、上述した実施形態と同様に、指示者の指示に対して「YES」という応答が行われる。一方、作業者がこのジェスチャーを行わないまま所定の時間経過すると、タイムアウトし、指示者の指示に対して「NO」という応答が行われる。この場合、応答生成手段110は、「NO」という応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト241とが重ねて表示される。さらに、表示装置26のトーク領域232には、「NO」という応答情報が表示される。
図13は、この変形例において表示装置16に表示される画面250の別の例を示す図である。画面250には、上述した撮像画像200の他に、仮想オブジェクト251、252、及び253が含まれる。これらのオブジェクト251、252、及び253は、撮像画像200の上に重ねて表示される。仮想オブジェクト251には、上述した仮想オブジェクト210と同様に、「右側を撮影してください」という指示情報が記載される。仮想オブジェクト252には、「YES」という応答情報が記載される。仮想オブジェクト253には、「NO」という応答情報が記載される。これらの仮想オブジェクト252及び253は、ソフトウェアキーとして機能する。この例では、仮想オブジェクト252をタッチするジェスチャーと、「YES」という応答とが対応付けられている。また、仮想オブジェクト253をタッチするジェスチャーと、「NO」という応答とが対応付けられている。すなわち、仮想オブジェクト252に対して「YES」という応答、仮想オブジェクト253に対して「NO」という応答が予め定められている。
例えば作業者の指示に対して「YES」と応答する場合、作業者は、仮想オブジェクト252をタッチするジェスチャーを行う。この場合、画像認識手段108は、このジェスチャーを認識する。より具体的には、画像認識手段108は、仮想オブジェクト252と所定の関係を有する指の位置を認識する。この所定の関係は、例えば作業者の視界において仮想オブジェクト252と重なる位置であってもよい。応答生成手段110は、この仮想オブジェクト252に対応する「YES」という応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト251、252、及び253とが重ねて表示される。さらに、表示装置26のトーク領域232には、「YES」という応答情報が表示される。また、この場合、変化手段109は、表示装置16及び表示装置26に表示された仮想オブジェクト252の表示を変化させてもよい。例えば、変化手段109は、仮想オブジェクト252の色、形状、又は大きさを変化させてもよい。
変形例2
上述した実施形態では、「YES」又は「NO」という応答を例示して説明したが、本発明に係る応答は「YES」又は「NO」に限定されない。例えば、応答は、数値又は文字であってもよい。この場合、数値又は文字の入力用の仮想オブジェクトが用いられる。この仮想オブジェクトは、予め生成されてストレージ34に格納されていてもよい。
図14は、この変形例において表示装置16に表示される画面260の一例を示す図である。画面260には、上述した撮像画像200の他に、仮想オブジェクト261が含まれる。この仮想オブジェクト261は、撮像画像200の上に重ねて表示される。仮想オブジェクト261は、ソフトウェアダイヤルとして機能する。仮想オブジェクト261には、「1」〜「5」までの目盛が設けられている。この例では、これらの目盛に対応する回転量と、「1」〜「5」の数値を含む応答とがそれぞれ対応付けられている。すなわち、「1」〜「5」までの目盛に対応する回転量に対して、「1」〜「5」の数値を含む応答が予め定められている。
例えば指示情報が、「対象物の厚さを教えてください」という指示を示す場合を想定する。この指示に応答するには、数値の入力が必要であるため、数値の入力に用いられる仮想オブジェクト261が表示装置16及び26に表示される。すなわち、仮想オブジェクト261は、指示情報に応じたものである。この場合、作業者は、例えばノギスを用いて対象物の厚さを測定する。例えば対象物の厚さが「3」である場合、作業者は、仮想オブジェクト261を目盛「3」まで回転させるジェスチャーを行う。より具体的には、作業者は、仮想オブジェクト261と所定の関係を有する領域において、初期位置に対応する位置から目盛「3」に対応する位置まで、時計回りに指を回転移動させる。この所定の関係を有する領域は、例えば仮想オブジェクト261の円周に沿った領域であってもよい。
この場合、画像認識手段108は、このジェスチャーを認識する。より具体的には、画像認識手段108は、仮想オブジェクト261と所定の関係を有する領域において時計回りに指を回転移動させる指の動きを認識する。変化手段109は、この指の動きに従って、表示装置16及び26に表示された仮想オブジェクト261を目盛「3」まで回転させる。応答生成手段110は、仮想オブジェクト261の回転量に対応する「3」という応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト261とが重ねて表示される。さらに、表示装置26のトーク領域232には、「3」という応答情報が表示される。
他の例において、仮想オブジェクトは、ソフトウェアキーボードとして機能するものであってもよい。この場合、仮想オブジェクトは、それぞれ、複数の文字に対応する複数のキー領域を有する。作業者は、所望の文字に対応するキー領域をタッチするジェスチャーを行う。この場合、画像認識手段108は、このキー領域と所定の関係を有する指の位置を認識する。この所定の関係を有する位置は、例えば作業者の視界においてこのキー領域と重なる位置であってもよい。応答生成手段110は、このキー領域に対応する文字を含む応答情報を生成する。
変形例3
上述した実施形態において、ジェスチャーを用いて様々な応答が行われてもよい。この応答には、指示者に対する要求や質問が含まれてもよい。この場合、仮想オブジェクトにはジェスチャーの一覧が含まれてもよい。
図15は、この変形例において表示装置16に表示される画面270の一例を示す図である。画面270には、上述した撮像画像200の他に、仮想オブジェクト271が含まれる。この仮想オブジェクト271は、撮像画像200の上に重ねて表示される。仮想オブジェクト271には、ジェスチャーの一覧が記載される。例えばこのジェスチャーの一覧には、指示者の指示に対する複数の応答候補に対応する複数のジェスチャー情報が含まれてもよい。すなわち、仮想オブジェクト271は、指示情報に応じたものである。各ジェスチャー情報には、ジェスチャーを文字又は画像で示す情報と、そのジェスチャーに対応する応答情報とが含まれる。作業者は、ジェスチャーの一覧により示される複数のジェスチャーの中から所望の応答情報に対応するジェスチャーを選択し、選択したジェスチャーを行う。この場合、応答生成手段110は、このジェスチャーに対応する応答情報を生成する。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト271とが重ねて表示される。さらに、表示装置26のトーク領域232には、応答生成手段110により生成された応答情報が表示される。
変形例4
上述した実施形態において、遠隔端末20からウェアラブル端末10に3次元の仮想オブジェクトが提供されてもよい。ここでは、指示者から作業者に或る建物の3次元図面が提供される場合を想定する。この場合、遠隔端末20は、この3次元図面を示す図面データを直接、又はサーバー装置30を経由してウェアラブル端末10に送信する。この場合、この図面データが指示情報として用いられてもよい。ウェアラブル端末10は、この図面データを受信すると、受信した図面データに応じた3次元図面を仮想オブジェクト281として表示装置16に表示する。
図16は、この変形例において表示装置16に表示される画面280の一例を示す図である。画面280には、上述した撮像画像200の他に、仮想オブジェクト281が含まれる。この仮想オブジェクト281は、撮像画像200の上に重ねて表示される。この仮想オブジェクト281は、指示情報に応じたものである。また、表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と仮想オブジェクト281とが重ねて表示される。例えば指示情報が、「機械室がどこか教えてください」という指示を示す場合を想定する。この場合、作業者は、機械室の場所が表示されるように仮想オブジェクト281を指で操作するジェスチャーを行った後、機械室の場所を指差すジェスチャーを行う。この操作するジェスチャーは、例えば仮想オブジェクト281を移動し又は回転移動させるジェスチャーであってもよい。この場合、変化手段109は、この指の動きに従って、仮想オブジェクト281を動かす。例えば仮想オブジェクト281を移動し又は回転移動させるジェスチャーである場合、仮想オブジェクト281が移動され又は回転移動される。また、画像認識手段108は、仮想オブジェクト281上の機械室の場所に対応する指の位置を認識する。応答生成手段110は、は、仮想オブジェクト281上の機械室の位置を示す応答情報が生成される。この場合、表示装置26の表示領域231に表示された仮想オブジェクト281において、この応答情報により示された位置に、所定のマークが付加されてもよい。
変形例5
上述した実施形態では、指示者の音声に基づいて指示情報が生成される例について説明したが、指示情報は予め生成されていてもよい。例えば指示情報は、作業工程の確認に用いられる質問票であってもよい。この質問票には、それぞれ、複数の作業工程に対応する複数の項目が含まれる。各項目には、その作業工程において確認すべき事項が質問形式で記述されている。この場合、遠隔端末20は、質問票に含まれる複数の項目を示す項目データを順番に、直接又はサーバー装置30を経由してウェアラブル端末10に送信する。最初の項目データの送信は、作業者の操作に応じて行われてもよいし、所定の条件を満たしたときに行われてもよい。この所定の条件は、例えば所定の時刻になったという条件であってもよい。2つ目以降の項目データの送信は、1つ前の項目に対する応答が行われたときに行われてもよい。ウェアラブル端末10は、この項目データを受信する。この場合、表示装置16及び表示装置26には、質問票に含まれる項目と、上述した仮想オブジェクト261とが表示される。
図17は、この変形例において表示装置16に表示される画面290の一例を示す図である。画面290には、上述した撮像画像200と仮想オブジェクト261の他に、仮想オブジェクト291及び292が含まれる。これらの仮想オブジェクト261、291、及び292は、撮像画像200の上に重ねて表示される。仮想オブジェクト291には、質問票に含まれる最初の項目が含まれる。ここでは、最初の項目が、「作業内容を何回確認しましたか?」という質問である場合を想定する。例えば作業内容を2回確認した場合、作業者は、仮想オブジェクト261を目盛「2」まで回転させるジェスチャーを行う。この場合、画像認識手段108は、上述した変形例2と同様に、このジェスチャーを認識する。変化手段109は、この指の動きに従って、仮想オブジェクト261を目盛「2」まで回転させる。応答生成手段110は、仮想オブジェクト261の回転量に対応する「2」という応答情報を生成する。この場合、仮想オブジェクト292内に、「2」という応答情報が記述される。表示装置26の表示領域231には、表示装置16と同様に、撮像画像200と、仮想オブジェクト261と、仮想オブジェクト291及び292とが重ねて表示される。さらに、表示装置26のトーク領域232には、「2」という応答情報が表示される。このようにして、最初の項目に対する応答が返されると、仮想オブジェクト291内に2つ目の項目が記述される。この処理は、例えば質問票に含まれる全ての項目に対する応答が返されるまで繰り返される。
変形例6
上述した実施形態において、1人の指示者が複数の作業者に対して作業の指示を行ってもよい。この場合、複数のウェアラブル端末10が設けられる。これらのウェアラブル端末10は、複数の作業者によりそれぞれ装着される。
図18は、この変形例において表示装置26に表示される画面300の一例を示す図である。画面300は、上述した表示領域231と同様の表示領域301と、上述したトーク領域232と同様のトーク領域302とを有する。表示領域301には、複数のウェアラブル端末10において撮影された複数の撮像画像200、201、及び202が含まれる。この場合、応答生成手段110は、複数の作業者について複数の応答情報を生成する。表示装置26のトーク領域232には、これらの応答情報が表示される。これらの応答情報は、互いに異なる表示形式で表示される。例えばこれらの応答情報は、色、形状、又は大きさが互いに異なっていてもよい。また、各応答情報には、対応する作業者に関する作業者情報が付加されてもよい。この作業者情報は、例えば作業者の顔画像であってもよい。
変形例7
上述した実施形態において、ウェアラブル端末10、遠隔端末20、又はサーバー装置30において、撮像画像200と仮想オブジェクト210との合成画像が生成されてもよい。この場合、撮像画像200と仮想オブジェクト210とは、作業者の視界を再現するような位置及び大きさで合成されてもよい。また、仮想オブジェクト210は、作業者の操作により、大きさ、位置、又は角度が変更されてもよい。
変形例8
上述した実施形態において、音声以外の手段により指示者の指示が入力されてもよい。この場合、音声認識手段103は、設けられなくてもよい。例えば作業者は、入力装置25を用いて指示を示す文字データを入力してもよい。この場合、受付手段102は、この文字データの入力を受け付ける。オブジェクト生成手段104は、この文字データに基づいて、仮想オブジェクトを生成する。他の例として、複数の指示を示すスタンプ画像が準備されている場合には、作業者は、入力装置25を用いてこれらのスタンプ画像の中から所望の指示を示すスタンプ画像を選択してもよい。この場合、この場合、受付手段102は、選択されたスタンプ画像を示す画像データの入力を受け付ける。オブジェクト生成手段104は、この画像データに基づいて、仮想オブジェクトを生成する。すなわち、撮像画像200に対する指示情報は、第2ユーザーの音声を示す音声データであってもよいし、第2ユーザーの操作により入力された文字データ又は画像データであってもよい。
変形例9
上述した実施形態において、カメラ17により撮影される対象は、第1ユーザーの前方の空間に限定されない。カメラ17により撮影される対象は、第1ユーザーの周囲であればよい。また、仮想オブジェクト210は、予め生成されて、ストレージ14、ストレージ24、及びストレージ34のうちの少なくともいずれかに格納されていてもよい。この場合、オブジェクト生成手段104は設けられなくてもよい。さらに、作業者は、頭や足等、指以外の体の部位を用いてジェスチャーを行ってもよい。
変形例10
上述した実施形態では、本発明に係るウェアラブル端末が、両眼の眼鏡型のウェアラブル端末10である例について説明したが、ウェアラブル端末はこの例に限定されない。例えばウェアラブル端末は、片眼の眼鏡型のウェアラブル端末であってもよいし、ヘッドマウント型のウェアラブル端末であってもよい。
変形例11
上述した実施形態において、ウェアラブル端末10の機能を実現するためのプログラムは、単一のプロセッサー11により実行されてもよいし、2以上のプロセッサー11により同時又は逐次に実行されてもよい。遠隔端末20及びサーバー装置30についても同様である。
変形例12
上述した実施形態において説明した遠隔作業支援システム1の機能を実装する主体は、例示に過ぎず、これに限定されない。例えばサーバー装置30の機能の少なくとも一部を、ウェアラブル端末10、遠隔端末20、又はその両方が有してもよい。例えば、遠隔端末20が、上述した音声認識手段103と、オブジェクト生成手段104と、画面共有手段105として機能するとともに、ウェアラブル端末10が、上述した画面共有手段105、画像認識手段108と、変化手段109と、応答生成手段110として機能してもよい。この場合、サーバー装置30は、ウェアラブル端末10と遠隔端末20との間でデータを中継するだけの機能を有していてもよい。或いは、サーバー装置30を設けなくてもよい。
変形例13
遠隔作業支援システム1において行われる処理のステップは、上述した実施形態で説明した例に限定されない。この処理のステップは、矛盾のない限り、入れ替えられてもよい。また、本発明は、遠隔作業支援システム1において行われる処理のステップを備える遠隔作業支援方法として提供されてもよい。
変形例14
本発明は、ウェアラブル端末10、遠隔端末20、又はサーバー装置30において実行されるプログラムとして提供されてもよい。これらのプログラムは、インターネット等のネットワークを介してダウンロードされてもよい。また、これらのプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリーなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。
変形例15
上述した実施形態において、ウェアラブル端末10又は遠隔端末20において、仮想オブジェクト210と撮像画像200とが合成されてもよい。ウェアラブル端末10において合成が行われる場合、遠隔端末20からウェアラブル端末10に指示情報が入力される。ウェアラブル端末10は、この指示情報に応じた仮想オブジェクトと撮像画像200とを合成した合成画像を生成し、この合成画像を表示装置16に表示する。一方、遠隔端末20において合成が行われる場合、遠隔端末20は、第2ユーザーにより入力された指示情報に応じた仮想オブジェクト210と撮像画像200とを合成した合成画像を生成し、この合成画像を示す合成画像データをウェアラブル端末10に送信する。ウェアラブル端末10は、遠隔端末20から受信した合成画像データに応じた合成画像を表示装置16に表示する。ウェアラブル端末10において合成が行われる場合と遠隔端末20において合成が行われる場合とを比較すると、前者の場合には合成画像データの送信が発生しないため、データの転送速度が速くなる。

Claims (13)

  1. 遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで共有する遠隔作業支援システムであって、
    前記ウェアラブル端末で撮影された画像を取得する画像取得手段と、
    前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有手段と、
    前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付手段と、
    前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示させる第1表示手段と、
    前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示させる第2表示手段と、
    前記画像を解析して体の指の状態を認識する画像認識手段と、
    前記画像認識手段により前記仮想オブジェクトと所定の関係を有する位置から移動する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトが移動するように、前記第1表示手段及び前記第2表示手段よる前記仮想オブジェクトの表示を変化させる変化手段と、
    前記仮想オブジェクトの移動方向に対して定められた応答情報を生成する応答生成手段とを備え、
    前記第2表示手段は、さらに、前記応答生成手段により生成された前記応答情報を表示させる
    遠隔作業支援システム。
  2. 前記指示情報は、前記遠隔端末のユーザーの音声を示す音声データであり、
    前記音声データを解析することにより、前記音声の内容を認識する音声認識手段をさらに備え、
    前記仮想オブジェクトは、前記認識された音声の内容に応じて生成される
    請求項1に記載の遠隔作業支援システム。
  3. 前記第1表示手段及び前記第2表示手段は、それぞれ、前記指示情報に応じた複数の仮想オブジェクトを表示させ
    前記応答生成手段は、前記画像認識手段により前記複数の仮想オブジェクトのいずれかのオブジェクトと所定の関係を有する前記指の位置が認識された場合、前記オブジェクトに対して定められた応答情報を生成する
    請求項1又は2に記載の遠隔作業支援システム。
  4. 前記変化手段は、前記画像認識手段により前記仮想オブジェクトと所定の関係を有する領域において回転移動する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトを回転させ、
    前記応答生成手段は、前記仮想オブジェクトの回転量に対して定められた応答情報を生成する
    請求項1又は2に記載の遠隔作業支援システム。
  5. 前記仮想オブジェクトは、前記指の複数の状態の一覧を示し、
    前記応答生成手段は、前記画像認識手段により前記複数の状態のいずれかの状態が認識された場合、前記認識された状態に対して定められた応答情報を生成する
    請求項1又は2に記載の遠隔作業支援システム。
  6. 複数のユーザーが複数のウェアラブル端末をそれぞれ使用し、
    前記複数のウェアラブル端末には、それぞれ前記第1表示手段が設けられ、
    前記応答生成手段は、前記複数のユーザーについて複数の応答情報をそれぞれ生成し、
    前記第2表示手段は、前記複数の応答情報を互いに異なる表示形式で表示させる
    請求項1から5のいずれか1項に記載の遠隔作業支援システム。
  7. 前記仮想オブジェクトは、3次元の仮想オブジェクトであり、
    前記変化手段は、前記画像認識手段により前記仮想オブジェクトを操作する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトを変化させる
    請求項1から6のいずれか1項に記載の遠隔作業支援システム。
  8. 前記ウェアラブル端末はユーザーの頭部に装着され、
    前記第1表示手段は、前記ユーザーの視界内に設けられた光透過性を有する表示板上に前記画像及び前記仮想オブジェクトを表示させ
    前記ユーザーは、前記表示板を介して見える前記指を用いて前記仮想オブジェクトに対する操作を行う
    請求項1から7のいずれか1項に記載の遠隔作業支援システム。
  9. 遠隔作業を支援するために、複数のユーザーによりそれぞれ使用される複数のウェアラブル端末で撮影された画像を、前記複数のウェアラブル端末の各々と遠隔端末とで共有する遠隔作業支援システムであって、
    前記複数のウェアラブル端末の各々で撮影された画像を取得する画像取得手段と、
    前記画像を、前記複数のウェアラブル端末の各々と前記遠隔端末とで画面共有する画面共有手段と、
    前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付手段と、
    前記複数のウェアラブル端末にそれぞれ設けられ、前記複数のウェアラブル端末の各々の上に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示させる第1表示手段と、
    前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示させる第2表示手段と、
    前記画像を解析して体の部位の状態を認識する画像認識手段と、
    前記認識された状態に基づいて、前記第1表示手段及び前記第2表示手段による前記仮想オブジェクトの表示を変化させる変化手段と、
    前記画像認識手段により認識された前記状態と前記仮想オブジェクトの表示とに基づいて、前記複数のユーザーについて複数の応答情報をそれぞれ生成する応答生成手段とを備え、
    前記第2表示手段は、さらに、前記応答生成手段により生成された前記複数の応答情報を互いに異なる表示形式で表示させる
    遠隔作業支援システム。
  10. 遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで画面共有する遠隔作業支援システムにおける遠隔作業支援方法であって、前記遠隔作業支援システムが、
    前記ウェアラブル端末で撮影された画像を取得する画像取得ステップと、
    前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有ステップと、
    前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付ステップと、
    前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示させる第1表示ステップと、
    前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示させる第2表示ステップと、
    前記画像を解析して体の指の状態を認識する画像認識ステップと、
    前記仮想オブジェクトと所定の関係を有する位置から移動する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトが移動するように、前記第1表示ステップ及び前記第2表示ステップによる前記仮想オブジェクトの表示を変化させる変化ステップと、
    前記仮想オブジェクトの移動方向に対して定められた応答情報を生成する応答生成ステップと、
    前記遠隔端末に、前記生成された応答情報を表示させる第3表示ステップと、
    を実行する遠隔作業支援方法。
  11. 遠隔作業を支援するために、複数のユーザーによりそれぞれ使用される複数のウェアラブル端末で撮影された画像を、前記複数のウェアラブル端末の各々と遠隔端末とで共有する遠隔作業支援システムにおける遠隔作業支援方法であって、前記遠隔作業支援システムが、
    前記複数のウェアラブル端末の各々で撮影された画像を取得する画像取得ステップと、
    前記画像を、前記複数のウェアラブル端末の各々と前記遠隔端末とで画面共有する画面共有ステップと、
    前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付ステップと、
    前記複数のウェアラブル端末の各々の上に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示させる第1表示ステップと、
    前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示させる第2表示ステップと、
    前記画像を解析して体の部位の状態を認識する画像認識ステップと、
    前記認識された状態に基づいて、前記第1表示ステップ及び前記第2表示ステップによる前記仮想オブジェクトの表示を変化させる変化ステップと、
    前記認識された状態と前記仮想オブジェクトの表示とに基づいて、前記複数のユーザーについて複数の応答情報をそれぞれ生成する応答生成ステップと、
    前記遠隔端末に、前記生成された複数の応答情報を互いに異なる表示形式で表示させる第3表示ステップと、
    を実行する遠隔作業支援方法。
  12. 遠隔作業を支援するために、ウェアラブル端末で撮影された画像を、当該ウェアラブル端末と遠隔端末とで画面共有するプログラムであって、
    コンピュータに、
    前記ウェアラブル端末で撮影された画像を取得する画像取得ステップと、
    前記画像を、前記ウェアラブル端末と前記遠隔端末とで画面共有する画面共有ステップと、
    前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付ステップと、
    前記ウェアラブル端末に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示ステップと、
    前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示ステップと、
    前記画像を解析して体の指の状態を認識する画像認識ステップと、
    前記仮想オブジェクトと所定の関係を有する位置から移動する前記指の動きが認識された場合、前記認識された動きに従って前記仮想オブジェクトが移動するように、前記第1表示ステップ及び前記第2表示ステップによる前記仮想オブジェクトの表示を変化させる変化ステップと、
    前記仮想オブジェクトの移動方向に対して定められた応答情報を生成する応答生成ステップと、
    前記遠隔端末に、前記生成された応答情報を表示する第3表示ステップと、
    を実行させるためのプログラム。
  13. 遠隔作業を支援するために、複数のユーザーによりそれぞれ使用される複数のウェアラブル端末で撮影された画像を、前記複数のウェアラブル端末の各々と遠隔端末とで画面共有するプログラムであって、
    コンピュータに、
    前記複数のウェアラブル端末の各々で撮影された画像を取得する画像取得ステップと、
    前記画像を、前記複数のウェアラブル端末の各々と前記遠隔端末とで画面共有する画面共有ステップと、
    前記遠隔端末から、前記画像に対する指示情報の入力を受け付ける受付ステップと、
    前記複数のウェアラブル端末の各々に、前記画像と、前記指示情報に応じた仮想オブジェクトと、を重ねて表示する第1表示ステップと、
    前記遠隔端末に、前記画像と、前記仮想オブジェクトと、を重ねて表示する第2表示ステップと、
    前記画像を解析して体の部位の状態を認識する画像認識ステップと、
    前記認識された状態に基づいて、前記第1表示ステップ及び前記第2表示ステップによる前記仮想オブジェクトの表示を変化させる変化ステップと、
    前記認識された状態と前記仮想オブジェクトの表示とに基づいて、前記複数のユーザーについて複数の応答情報をそれぞれ生成する応答生成ステップと、
    前記遠隔端末に、前記生成された複数の応答情報を互いに異なる表示形式で表示する第3表示ステップと、
    を実行させるためのプログラム。
JP2017541988A 2017-04-17 2017-04-17 遠隔作業支援システム、遠隔作業支援方法、及びプログラム Active JP6244069B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/015498 WO2018193509A1 (ja) 2017-04-17 2017-04-17 遠隔作業支援システム、遠隔作業支援方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP6244069B1 true JP6244069B1 (ja) 2017-12-06
JPWO2018193509A1 JPWO2018193509A1 (ja) 2019-04-25

Family

ID=60570408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017541988A Active JP6244069B1 (ja) 2017-04-17 2017-04-17 遠隔作業支援システム、遠隔作業支援方法、及びプログラム

Country Status (3)

Country Link
US (1) US10591986B2 (ja)
JP (1) JP6244069B1 (ja)
WO (1) WO2018193509A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021005157A (ja) * 2019-06-25 2021-01-14 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置および画像処理方法
US11431952B2 (en) * 2020-05-11 2022-08-30 Sony Interactive Entertainment Inc. User selection of virtual camera location to produce video using synthesized input from multiple cameras
JP2022121326A (ja) * 2021-02-08 2022-08-19 株式会社オプティム プログラム、方法、情報処理装置及びシステム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
JP2004094622A (ja) * 2002-08-30 2004-03-25 Mitsubishi Heavy Ind Ltd コンピュータ遠隔操作装置及び作業支援システム
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012164115A (ja) * 2011-02-07 2012-08-30 Fujitsu Ltd 操作制御装置,操作制御プログラムおよび操作制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006062A (ja) 2001-06-20 2003-01-10 Fujitsu Ltd クライアント画面監視システム
JP2007034238A (ja) 2005-07-29 2007-02-08 Kobe Steel Ltd 現場作業支援システム
JP2009258954A (ja) 2008-04-16 2009-11-05 Japan Society For The Promotion Of Machine Industry ハンズフリー型コンピュータ装置及びコンピュータシステム
JP5953963B2 (ja) * 2012-06-13 2016-07-20 ソニー株式会社 頭部装着型映像表示装置
JP6465672B2 (ja) * 2015-01-29 2019-02-06 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
JP2004094622A (ja) * 2002-08-30 2004-03-25 Mitsubishi Heavy Ind Ltd コンピュータ遠隔操作装置及び作業支援システム
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012164115A (ja) * 2011-02-07 2012-08-30 Fujitsu Ltd 操作制御装置,操作制御プログラムおよび操作制御方法

Also Published As

Publication number Publication date
US10591986B2 (en) 2020-03-17
US20200033936A1 (en) 2020-01-30
JPWO2018193509A1 (ja) 2019-04-25
WO2018193509A1 (ja) 2018-10-25

Similar Documents

Publication Publication Date Title
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
Gurevich et al. TeleAdvisor: a versatile augmented reality tool for remote assistance
US8823697B2 (en) Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
US9268410B2 (en) Image processing device, image processing method, and program
WO2014188798A1 (ja) 表示制御装置、表示制御方法および記録媒体
JPWO2014016992A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
WO2014073345A1 (ja) 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
JP2010217719A (ja) 装着型表示装置、その制御方法及びプログラム
JP2012185823A (ja) 共同環境における位置情報の提供
JP2012186805A (ja) 表示された情報の自動選択及び切り替え
Adcock et al. Using projected light for mobile remote guidance
CN109584374A (zh) 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质
CN108255454B (zh) 一种拼接处理器和拼接处理器的可视化交互方法
JPWO2014016986A1 (ja) 3次元環境共有システム及び3次元環境共有方法
JP6244069B1 (ja) 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
Chantziaras et al. An augmented reality-based remote collaboration platform for worker assistance
JP2017033294A (ja) 3次元描画システム及び3次元描画プログラム
KR20150022233A (ko) 모바일 기기를 이용한 증강 현실 구현 장치 및 증강 현실 구현 방법
JP2013168120A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
KR20190035373A (ko) 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법
WO2014054317A1 (ja) ユーザインタフェース装置及びユーザインタフェース方法
JP6208910B1 (ja) 動画像処理装置、動画像処理システム、動画像処理方法及び動画像処理プログラム
WO2019106862A1 (ja) 操作案内システム
JP2015184986A (ja) 複合現実感共有装置
EP3502836A1 (en) Method for operating an augmented interactive reality system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170809

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170809

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171110

R150 Certificate of patent or registration of utility model

Ref document number: 6244069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250