JP6179927B2 - 遠隔行動誘導システム及びその処理方法 - Google Patents

遠隔行動誘導システム及びその処理方法 Download PDF

Info

Publication number
JP6179927B2
JP6179927B2 JP2015543910A JP2015543910A JP6179927B2 JP 6179927 B2 JP6179927 B2 JP 6179927B2 JP 2015543910 A JP2015543910 A JP 2015543910A JP 2015543910 A JP2015543910 A JP 2015543910A JP 6179927 B2 JP6179927 B2 JP 6179927B2
Authority
JP
Japan
Prior art keywords
camera
time
worker
instructor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015543910A
Other languages
English (en)
Other versions
JPWO2015060393A1 (ja
Inventor
英明 大山
英明 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Publication of JPWO2015060393A1 publication Critical patent/JPWO2015060393A1/ja
Application granted granted Critical
Publication of JP6179927B2 publication Critical patent/JP6179927B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31046Aid for assembly, show display on screen next workpiece, task, position to be assembled, executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明は、作業者の作業映像を見ながら遠隔地に居る指示者が該作業者に作業指示を与える遠隔行動誘導システム及びその処理方法に関し、特に、該作業者に拡張現実感技術によって誘導を行う遠隔行動誘導システム及びその処理方法に関する。
作業現場で所定の作業を行う作業者の作業映像及び音声について双方向通信ネットワーク(回線)を介して、遠隔地に居る指示者のもとへ送り、かかる作業に熟練した指示者が作業映像を見ながら作業者に作業指示を与える遠隔行動誘導システムが知られている。
例えば、特許文献1では、ヘッドマウントディスプレイ(HMD:Head Mount Display)を用いて、作業者の作業すべき部位を指示する指標について、作業者がモニタ画面を通して作業対象物の現実の光学像の対象部位に重ねて表示させ、指示者の指示の伝達を容易且つ正確に行い得る遠隔行動誘導システムを開示している。ここで、HMDは、装着者の頭部や顔面に装着され、有機ELディスプレイや液晶表示装置などの映像を接眼光学系によって装着者の眼球に直接投影し、あたかも該映像が空中に投影されているかの様な虚像の観察を可能にする装置である。具体的には、かかる遠隔行動誘導システムでは、作業者がカメラユニットを備えたHMDを装着し、カメラユニットが捕えた作業対象物の映像を遠隔地の指示者のもとに送信する。指示者は遠隔指示装置のモニタでこの映像を観察しながら、遠隔指示装置によってHMDを介して作業者に映像や音声による情報を提供し、作業指示を行う。HMDの虚像上に与えられる指標により、作業者は、指示された部位を容易に確認しながらこれに手を差し伸べ、作業性を向上させ得ると述べている。
ここで、非特許文献1では、PH(パラサイトヒューマン)システムとして、例えば、熟練作業員が未熟練作業員の作業を支援する遠隔行動誘導システムを開示している。現場にいる熟練していない作業員及び遠隔地にいる熟練作業員は、カメラユニットを備えたHMDであるウェアラブルカメラとマイクとを装着する。現場から情報を送られた熟練作業員は、モニタを通して仮想空間内で動作を行う。熟練作業員の装着したカメラの映像からは該熟練作業員の手や腕の映像が抽出されるか、あるいは、手や腕のCG画像が生成され、これを現場の作業員の装着したカメラの映像に重ねて表示し、拡張現実感(AR:Augmented Reality)技術により現場作業員の動作の誘導を行うのである。
なお、例えば、特許文献2では、遠隔地にいる操作者の動きに合わせてロボットが動作するマスタースレーブロボットについて述べている。かかるロボットも上記した遠隔行動誘導システムと類似する。
しかしながら、上記した遠隔行動誘導システムでは、指示者(熟練作業員)の動作情報を受けて現場の作業者(作業員)がかかる動作情報に基づいた自身の行動をその場で判断するのに対し、マスタースレーブロボットでは、その行動は操作者の動作情報に対応して決定される。すなわち、現場の作業者(ロボット)の行動の決定タイミングが異なるのである。
特開2008−124795号公報 特開平8−257948号公報
科学技術振興機構 戦略的創造研究推進事業「先進的統合センシング技術/パラサイトヒューマンネットによる五感情報通信と環境センシング・行動誘導」、平成23年度実績報告書
ところで、遠隔行動誘導システムにおいて、作業者の作業映像が遠隔地に居る指示者のもとへ送られ、かかる作業映像に上記したような指標や指示者の作業映像などを重畳させて、再び、作業者のもとへ送った場合、データ量や通信ネットワーク(回線)の状態によって相当の時間を要してしまう。すなわち、時間遅れにより、戻ってきた作業映像が作業者の現在の状況とは大きく異なってしまうこともある。かかる場合、作業者の作業性を却って阻害してしまうことになる。
本発明は、以上のような状況に鑑みてなされたものであって、その目的とするところは、作業者の作業映像を見ながら遠隔地に居る指示者が該作業者に拡張現実感(AR)技術によって誘導を行うに当たって、時間遅れによる作業性の阻害を抑制できるような遠隔行動誘導システム及びその処理方法を提供することにある。
本発明による遠隔行動誘導システムは、作業者の作業映像を見ながら遠隔地に居る指示者が該作業者に作業指示を与える遠隔行動誘導システムであって、前記作業者に与えられる第1カメラ及び第1モニタと、前記第1カメラ及び前記第1モニタを制御する作業者側コンピュータと、前記指示者に与えられる第2カメラ及び第2モニタと、前記第2カメラ及び前記第2モニタを制御し前記作業者側コンピュータに双方向通信ネットワークで接続された指示者側コンピュータと、を含み、前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に対応して、時刻t2において、前記第2カメラの映像から作業指示映像を抽出するとともに、(1)前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に時刻t2の前記作業指示映像を重畳させて前記第2モニタに表示し、且つ、(2)前記作業者側コンピュータは、時刻t3の前記第1カメラからの映像に対して時刻t2の前記作業指示映像をτ=|t3−t1|の関数である時間差補正を与えて重畳させて前記第1モニタに表示することを特徴とする。
かかる発明によれば、作業指示映像を抽出して作業者に送信するため、作業映像に指示映像を重畳させた上で送信する場合に比べて、データ送信容量を減じデータ送信の時間遅れを低減でき、しかも、τ=|t3−t1|の関数である時間差補正を用いることで作業時の作業者の視認する映像をほぼその時点(時刻t3)での映像とできる。すなわち、時間遅れによる作業性の阻害を抑制でき、作業者は効率よく指示者による指示を受けながら正確な作業ができ、なおかつ、時刻t3での現場の映像により、時刻t3における現場の状況に対応できる。
上記したシステムにおいて、前記時間差補正は、時刻t1及び時刻t3の前記第1カメラからの映像の比較に基づくホモグラフィ変換であることを特徴としてもよい。かかる発明によれば、時間差補正をより正確に行うことができて、すなわち、時間遅れによる作業性の阻害を抑制でき、作業者はより効率よく指示者による指示を受けながら正確な作業ができるのである。
上記したシステムにおいて、前記第1カメラは前記作業者の片眼を覆う単眼デバイス、前記第2カメラは前記指示者の両眼を覆う両眼デバイスであることを特徴としてもよい。かかる発明によれば、時間遅れを低減できるから、作業者は一方の片眼において指示者による指示を受け、他方の片眼において実際の状況を視認しながら作業ができるのである。すなわち、作業者は効率よく指示者による指示を受けながら正確な作業ができ、且つ、急激な状況の変化があったとしても迅速な対処が可能である。
上記したシステムにおいて、前記第1カメラ及び第2カメラは、それぞれ前記作業者及び前記指示者の両眼を覆う両眼デバイスであることを特徴としてもよい。かかる発明によれば、作業時の作業者の視認する映像をほぼその時点(時刻t3)での映像とでき、且つ、時間遅れを低減できるから、両眼デバイスのみによっても作業でき臨場感を向上できるのである。
更に、本発明による遠隔行動誘導の処理方法は、作業者の作業映像を見ながら遠隔地に居る指示者が該作業者に作業指示を与える遠隔行動誘導の処理方法であって、前記作業者に与えられる第1カメラ及び第1モニタと、前記第1カメラ及び前記第1モニタを制御する作業者側コンピュータと、前記指示者に与えられる第2カメラ及び第2モニタと、前記第2カメラ及び前記第2モニタを制御し前記作業者側コンピュータに双方向通信ネットワークで接続された指示者側コンピュータと、からなるシステムにおいて、前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に対応して、時刻t2において、前記第2カメラの映像から作業指示映像を抽出するとともに、(1)前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に時刻t2の前記作業指示映像を重畳させて前記第2モニタに表示し、且つ、(2)前記作業者側コンピュータは、時刻t3の前記第1カメラからの映像に対して時刻t2の前記作業指示映像をτ=|t3−t1|の関数である時間差補正を与えて重畳させて前記第1モニタに表示することを特徴とする。
かかる処理方法によれば、作業指示映像を抽出して作業者に送信するため、作業映像に指示映像を重畳させた上で送信する場合に比べて、データ送信容量を減じデータ送信の時間遅れを低減でき、しかも、τ=|t3−t1|の関数である時間差補正を用いることで作業時の作業者の視認する映像をほぼその時点(時刻t3)での映像とできる。すなわち、時間遅れによる作業性の阻害を抑制でき、作業者は効率よく指示者による指示を受けながら正確な作業ができるのである。
上記した処理方法において、前記時間差補正は、時刻t1及び時刻t3の前記第1カメラからの映像の比較に基づくホモグラフィ変換であることを特徴としてもよい。かかる発明によれば、時間差補正をより正確に行うことができて、すなわち、時間遅れによる作業性の阻害を抑制でき、作業者はより効率よく指示者による指示を受けながら正確な作業ができるのである。
上記した処理方法において、前記第1カメラは前記作業者の片眼を覆う単眼デバイス、前記第2カメラは前記指示者の両眼を覆う両眼デバイスであることを特徴としてもよい。かかる発明によれば、時間遅れを低減できるから、作業者は一方の片眼において指示者による指示を受け、他方の片眼において実際の状況を視認しながら作業ができるのである。すなわち、作業者は効率よく指示者による指示を受けながら正確な作業ができ、且つ、急激な状況の変化があったとしても迅速な対処が可能である。
上記した処理方法において、前記第1カメラ及び第2カメラは、それぞれ前記作業者及び前記指示者の両眼を覆う両眼デバイスであることを特徴としてもよい。かかる発明によれば、作業時の作業者の視認する映像をほぼその時点(時刻t3)での映像とでき、且つ、時間遅れを低減できるから、両眼デバイスのみによっても作業でき臨場感を向上できるのである。
本発明によるシステムを示すブロック図である。 伝送時間遅れを示す図である。 本発明による処理方法を示すフロー図である。 本発明による処理方法を示すブロック図である。 本発明による処理方法を示す図である。 本発明による処理方法を示す図である。
以下に、本発明による遠隔行動誘導システムとその処理方法の1つの実施例について、図1及び図2を用いて説明する。
図1に示すように、遠隔行動誘導システム1において、作業者P1側及び指示者P2側のそれぞれには、少なくとも映像処理を可能なコンピュータ(PC)11及び21が設置されており、互いの間を双方向通信回線2によってデータ送受信可能に接続されている。通信回線2は一部に無線LANや専用回線などを含み得る。作業者側のPC11には、カメラ14、モニタ15、音声装置(マイク及びスピーカ)16が接続されている。同様に、指示者側のPC21には、カメラ24、モニタ25、音声装置(マイク及びスピーカ)26が接続されている。後述するように、これらはウェアラブル装置として組み込まれると作業性の観点で好ましい。
ここで、図2を併せて参照すると、遠隔行動誘導システム1では、作業者側のカメラ14において撮影された作業映像(画像)を少なくとも含む作業状況データをPC11から回線2を介して指示者側PC21へ送信する(S101)。指示者側PC21では、かかる作業映像をモニタ25に表示する。これにより作業状況を把握可能となった指示者P2は、その経験等に基づいて作業すべき内容について、指示映像(画像)をカメラ24から、また、必要に応じて音声を音声装置26から入力する。この指示データは指示者側PC21から回線2を介して作業者側PC11に送信する(S102)。作業者側PC11は、指示データについて、指示映像をモニタ15に、音声データを音声装置16によって再現する。これにより、作業者P1は指示者P2の指示に従って作業できるのである。
特に、指示者P2による作業すべき内容の指示映像については、カメラ14によって撮影された作業環境を示す作業映像に重畳(インポーズ)させて作業者P1に提示できると好ましい。これによれば、作業者P1には、臨場感をもって視覚的に作業すべき内容を把握させることができるのである。
ところで、作業者P1は、作業状況を時刻t=t1で送信してから、指示者P2の指示を時刻t=t3で受信するまで、回線2におけるデータの伝送時間だけ待機を必要とする。かかる時間遅れτ=|t3−t1|が作業者P1の作業状況の変化に対して大きいと、もはや指示された作業状況は変化してしまっていて、指示者P2による行動誘導を実質的に達成できなくなってしまう。
すると、上記した指示者側PC21から作業者側PC11への指示映像の送信(S102)において、作業映像に指示映像を重畳させた上で送信しようとするなら、データ容量が大きくデータの転送時間を更に必要とさせてしまう。つまり、時間遅れτを大きくしてしまうのである。そこで、本実施例では、時刻t=t2における指示映像だけを送信し、作業者側PC11において、作業映像に指示映像を重畳させることを考慮する。この場合、回線の通信速度が同じであれば、作業状況データを指示者側PC21へ送信する(S101)のに要する時間τ1=|t2−t1|に対して、指示データを作業者側PC11に送信する(S102)のに要する時間τ2=|t3−t2|を小さくできて、時間遅れτをそれほど大きくすることはない。
時間遅れτが小さい場合、作業者P1はモニタ15を含む片眼式HMD(ヘッドディスプレイ)を装着し作業が可能である。つまり、片眼で実際の作業状況を、もう片眼でHMDに示される指示作業内容を視認できるのである。これによれば、作業状況が急激に変化した場合であっても、実際の作業状況を視認しているため、迅速な対処ができる。なお、片眼HMDであっても、依然として作業者P1の視認の違和感を除去すべく、時間遅れτをより小さくすることが望まれる。
これに対して、指示映像を受信した時刻t=t3時点でのカメラ14において撮影された作業映像に指示映像を重畳させることで時間遅れτをほぼゼロに小さくすることができる。かかる場合、実際の作業状況とモニタ15に示される映像はほぼ一致するから、片眼HMDであっても視認の違和感を除去でき、更に、両眼HMDを用いることもでき、臨場感を向上させ得る。
更に、図3に沿って、図1、図4乃至6を用いて詳細を説明する。ここでは、図5に示すような壁3に固定された操作器具A1、A2、A3…のうちの操作器具A2を操作(コックをひねる操作)する場合について述べる。
まず、作業現場にいる作業者P1は時刻t=t1にカメラ14で手前にある作業状況を撮影し、この映像C1(図5(a)参照)の映像(画像)データを圧縮して回線の送信負荷を低減した上で、指示者P2側へ送信する(S11)。なお、システムの立ち上げ時には、これがそのまま指示者P2のモニタ25に映像表示される(S25)。
次に、指示者P2は、映像C1を表示された両眼HMDのモニタ25を見ながら、すなわち、作業現場にいる作業者P1と同じ視点で、操作器具A1、A2…のうちから操作を行うべき操作器具A2を選び、手を伸ばして操作を行おうとする。この時刻t=t2において、指示者P2のカメラ24には映像C2(図5(b)参照)として、その場の背景5とともに、操作を行おうとしている指示者P2の手首像6が撮影される(S21)。
映像C2は、PC21において画像処理する。すなわち、映像C2から背景5を消し、指示者P2の手首像6を抽出した映像C2’を得るのである(S22、図5(c)参照)。ここで、手首像6の抽出については、単色のグレースケールによりその輪郭だけを抽出しても後述する行動誘導には十分である。この場合、指示送信S102におけるデータ送信量を減じ得て好ましいのである。これには、例えば、映像C2をRGB空間からHSV空間に変換し、色相(H:Hue)、彩度(S:Saturation)、明度(V:Value(Lightness))のそれぞれの値を特定の範囲内の領域にフィルタリングすることで抽出できる。かかる映像C2’のデータを圧縮して作業者P1側に送信する(S23)。
これとともに、映像C2’は映像C1に重畳されて(S24)、指示者P2の両眼HMDのモニタ25に映し出される(S25)。これにより、指示者P2は作業者P1の場所にあたかも居るような臨場感を与えられて指示動作をなし得る。
一方、映像C2’を受信した作業者P1側では、撮影・送信(S11)されてからの時間、すなわち、映像C1を送信してからの時間遅れτ=|t3−t1|を計算し映像の補正を行う(S13)。かかる時間遅れτの関数として映像C2’を補正した映像をt=t3でのカメラ14の映像C3に重畳する(S14)。
ここで、図6に示すように、映像C2’の補正(S13)は、カメラ14の移動による映像の変化に対応して行い得て、t=taでの映像(a)及びt=tbでの映像(b)(但し、ta<tb)における特徴点31、32、33、34…(ここでは、4点のみ示す。)の移動に基づいて行われるホモグラフィ変換を用い得る。特徴点31、32、33、34…は、例えば、静止した物体上に存在するFAST、SIFT、SURF、ORB等である。ここで、映像(a)と映像(b)との間では、特徴点31、32、33、34が31’、32’、33’、34’へ移動したとする。このような4点以上の特徴点の対応付けに基づいて、ホモグラフィ行列(平面射影変換行列)fが推定される。すると、映像(a)における特定画像8は、ホモグラフィ行列fによって特定画像8’に平面射影変換されるのである。
つまり、指示者P2により送信された手首像6のCG画像に推定されるホモグラフィ行列fに基づいて平面射影変換を行なうことで、時刻t=t3でのカメラ14の映像C3に重畳できるのである(図5(d)参照)。
かかる重畳映像は、モニタ15に表示され(S15)、指示者P2の手首像6の動きに従って作業者P1は作業できる(S16)。
以上、指示者P2から送信された手首像6のCG画像を抽出し推定したホモグラフィ行列に基づく平面射影変換を行なって、これを作業者P1に提示する遠隔行動誘導システム及びその処理方法について説明した。これによれば、作業指示映像を抽出して作業者P1に送信するため、作業映像に指示映像を重畳させた上で送信する場合に比べて、データ送信容量を減じデータ送信の時間遅れを低減でき、しかも、時間遅れτ=|t3−t1|の関数である時間差補正を用いることで作業者P1の視認する映像をほぼその時点時刻t=t3での映像とできるのである。すなわち、時間遅れによる作業性の阻害を抑制でき、作業者は効率よく指示者P2による指示を受けながら正確な作業ができるのである。
なお、PC11(21)にそれぞれ、カメラ14(24)、モニタ15(25)、音声装置(マイク及びスピーカ)16(26)を一体とした端末を用いることもできる。かかる場合、回線2の一部には無線回線を含み得る。また、主に映像の伝送について述べてきたが、映像に合わせて音声の伝送も行われ得る。音声の伝送については必要な回線容量が映像に比べて非常に小さいため、適宜、公知の方法で映像に合わせて伝送方法が考慮され得る。
上記したように、作業現場にいる作業者P1に最新の現場画像を表示しつつ、最新の現場の状況に整合させた指示者P2の手のCG画像を変換補正表示させることで、作業者P1にとって適切な作業指示を与え得る。かかる変換補正表示は、作業者P1から現場画像を指示者P2へ送信した時刻から、指示者P2からの指示情報を受信した時刻までの間において変化した現場画像に対応させて指示情報を補正して行い得る。すなわち、作業者P1のカメラ14で撮像した現場画像の変化であるから、これはカメラ14の移動に対応し、典型的にはホモグラフィ変換のような変換手法を用い得る。
なお、運動する物体について作業指示を与えるには、例えば、運動物体を明示すべく半透明化し、上記したと同様に、現場画像に重畳して表示してもよい。また、運動物体の検出方法として、カメラ14での現場画像について当該運動物体の検出処理を常時行って検出時刻とともに記録しておく方法や、時刻の異なるカメラ14での現場画像を比較して相違部分から当該運動物体の検出処理を行う方法がある。
以上、本発明による実施例及びこれに基づく変形例を説明したが、本発明は必ずしもこれに限定されるものではなく、当業者であれば、本発明の主旨又は添付した特許請求の範囲を逸脱することなく、様々な代替実施例及び改変例を見出すことができるであろう。
1 遠隔行動誘導システム
2 通信回線
11、21 PC
14、24 カメラ
15、25 モニタ

Claims (8)

  1. 作業者の作業映像を見ながら遠隔地に居る指示者が該作業者に作業指示を与える遠隔行動誘導システムであって、
    前記作業者に与えられる第1カメラ及び第1モニタと、
    前記第1カメラ及び前記第1モニタを制御する作業者側コンピュータと、
    前記指示者に与えられる第2カメラ及び第2モニタと、
    前記第2カメラ及び前記第2モニタを制御し前記作業者側コンピュータに双方向通信ネットワークで接続された指示者側コンピュータと、を含み、
    前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に対応して、時刻t2において、前記第2カメラの映像から作業指示映像を抽出するとともに、
    (1)前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に時刻t2の前記作業指示映像を重畳させて前記第2モニタに表示し、且つ、
    (2)前記作業者側コンピュータは、時刻t3の前記第1カメラからの映像に対して時刻t2の前記作業指示映像をτ=|t3−t1|の関数である時間差補正を与えて重畳させて前記第1モニタに表示することを特徴とする遠隔行動誘導システム。
  2. 前記時間差補正は、時刻t1及び時刻t3の前記第1カメラからの映像の比較に基づくホモグラフィ変換であることを特徴とする請求項1記載の遠隔行動誘導システム。
  3. 前記第1カメラは前記作業者の片眼を覆う単眼デバイス、前記第2カメラは前記指示者の両眼を覆う両眼デバイスであることを特徴とする請求項2記載の遠隔行動誘導システム。
  4. 前記第1カメラ及び第2カメラは、それぞれ前記作業者及び前記指示者の両眼を覆う両眼デバイスであることを特徴とする請求項2記載の遠隔行動誘導システム。
  5. 作業者の作業映像を見ながら遠隔地に居る指示者が該作業者に作業指示を与える遠隔行動誘導の処理方法であって、
    前記作業者に与えられる第1カメラ及び第1モニタと、
    前記第1カメラ及び前記第1モニタを制御する作業者側コンピュータと、
    前記指示者に与えられる第2カメラ及び第2モニタと、
    前記第2カメラ及び前記第2モニタを制御し前記作業者側コンピュータに双方向通信ネットワークで接続された指示者側コンピュータと、からなるシステムにおいて、
    前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に対応して、時刻t2において、前記第2カメラの映像から作業指示映像を抽出するとともに、
    (1)前記指示者側コンピュータは、時刻t1の前記第1カメラからの映像に時刻t2の前記作業指示映像を重畳させて前記第2モニタに表示し、且つ、
    (2)前記作業者側コンピュータは、時刻t3の前記第1カメラからの映像に対して時刻t2の前記作業指示映像をτ=|t3−t1|の関数である時間差補正を与えて重畳させて前記第1モニタに表示することを特徴とする遠隔行動誘導処理方法。
  6. 前記時間差補正は、時刻t1及び時刻t3の前記第1カメラからの映像の比較に基づくホモグラフィ変換であることを特徴とする請求項5記載の遠隔行動誘導処理方法。
  7. 前記第1カメラは前記作業者の片眼を覆う単眼デバイス、前記第2カメラは前記指示者の両眼を覆う両眼デバイスであることを特徴とする請求項6記載の遠隔行動誘導処理方法。
  8. 前記第1カメラ及び第2カメラは、それぞれ前記作業者及び前記指示者の両眼を覆う両眼デバイスであることを特徴とする請求項6記載の遠隔行動誘導処理方法。

JP2015543910A 2013-10-25 2014-10-23 遠隔行動誘導システム及びその処理方法 Expired - Fee Related JP6179927B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013222493 2013-10-25
JP2013222493 2013-10-25
PCT/JP2014/078236 WO2015060393A1 (ja) 2013-10-25 2014-10-23 遠隔行動誘導システム及びその処理方法

Publications (2)

Publication Number Publication Date
JPWO2015060393A1 JPWO2015060393A1 (ja) 2017-03-09
JP6179927B2 true JP6179927B2 (ja) 2017-08-16

Family

ID=52992981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015543910A Expired - Fee Related JP6179927B2 (ja) 2013-10-25 2014-10-23 遠隔行動誘導システム及びその処理方法

Country Status (3)

Country Link
US (1) US9538131B2 (ja)
JP (1) JP6179927B2 (ja)
WO (1) WO2015060393A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200109201A (ko) * 2019-03-12 2020-09-22 주식회사 피앤씨솔루션 머리 착용형 디스플레이 장치 및 증강현실을 이용한 원격 업무지원 시스템

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180211445A1 (en) * 2015-07-17 2018-07-26 Sharp Kabushiki Kaisha Information processing device, terminal, and remote communication system
US10454943B2 (en) 2015-08-17 2019-10-22 The Toronto-Dominion Bank Augmented and virtual reality based process oversight
JPWO2017187807A1 (ja) * 2016-04-28 2019-03-07 ソニー株式会社 情報処理端末装置
CN106339094B (zh) * 2016-09-05 2019-02-26 山东万腾电子科技有限公司 基于增强现实技术的交互式远程专家协作检修系统及方法
US10460748B2 (en) 2017-10-04 2019-10-29 The Toronto-Dominion Bank Conversational interface determining lexical personality score for response generation with synonym replacement
US10339931B2 (en) 2017-10-04 2019-07-02 The Toronto-Dominion Bank Persona-based conversational interface personalization using social network preferences
CN108170273A (zh) * 2017-12-28 2018-06-15 南京华讯方舟通信设备有限公司 一种基于hololens眼镜的专家远程指导系统及实现方法
US11455750B2 (en) * 2018-04-30 2022-09-27 Hewlett-Packard Development Company, L.P. Operator characteristic-based visual overlays
JP7339167B2 (ja) * 2020-01-17 2023-09-05 株式会社日立製作所 作業支援システム及び作業支援方法
CN112689114B (zh) * 2021-03-11 2021-06-22 太平金融科技服务(上海)有限公司 对车辆的目标位置进行确定的方法、装置、设备和介质
WO2023281666A1 (ja) * 2021-07-07 2023-01-12 日本電信電話株式会社 メディア加工装置、メディア加工方法及びメディア加工プログラム
JPWO2023281667A1 (ja) * 2021-07-07 2023-01-12
JP2023156869A (ja) 2022-04-13 2023-10-25 株式会社日立製作所 作業支援システム及び方法
WO2024057398A1 (ja) * 2022-09-13 2024-03-21 日本電信電話株式会社 提示映像調整装置、提示映像調整方法及び提示映像調整プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08257948A (ja) 1995-03-20 1996-10-08 Yaskawa Electric Corp ロボットの遠隔操作装置
JPH11298872A (ja) * 1998-04-07 1999-10-29 Toshiba Corp 映像通信システム
JP3820116B2 (ja) * 2001-07-24 2006-09-13 日本電信電話株式会社 レーザポインタの方向制御方法およびその装置
JP3735708B2 (ja) * 2002-01-11 2006-01-18 独立行政法人産業技術総合研究所 遠隔環境ガイド装置
JP2006279648A (ja) * 2005-03-30 2006-10-12 National Institute Of Information & Communication Technology ゆらぎ補正による画像表示方法及びその方法を用いた模型自動車等用リモートコントロールシステム
JP4952204B2 (ja) 2006-11-13 2012-06-13 コニカミノルタホールディングス株式会社 遠隔作業支援システム、及びその表示方法
US8116519B2 (en) 2007-09-26 2012-02-14 Honda Motor Co., Ltd. 3D beverage container localizer
WO2014100688A2 (en) * 2012-12-20 2014-06-26 Accenture Global Services Limited Context based augmented reality
US9380261B2 (en) * 2014-02-25 2016-06-28 Cisco Technology, Inc. Multi-camera access for remote video access
US9641811B2 (en) * 2014-06-16 2017-05-02 Baker Hughes Incorporated System and method for providing real-time maintenance, trouble-shooting, and process assurance for the oilfield
US10142596B2 (en) * 2015-02-27 2018-11-27 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus of secured interactive remote maintenance assist

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200109201A (ko) * 2019-03-12 2020-09-22 주식회사 피앤씨솔루션 머리 착용형 디스플레이 장치 및 증강현실을 이용한 원격 업무지원 시스템
KR102305405B1 (ko) * 2019-03-12 2021-09-29 주식회사 피앤씨솔루션 머리 착용형 디스플레이 장치 및 증강현실을 이용한 원격 업무지원 시스템

Also Published As

Publication number Publication date
JPWO2015060393A1 (ja) 2017-03-09
US20160277710A1 (en) 2016-09-22
US9538131B2 (en) 2017-01-03
WO2015060393A1 (ja) 2015-04-30

Similar Documents

Publication Publication Date Title
JP6179927B2 (ja) 遠隔行動誘導システム及びその処理方法
US11231897B2 (en) Display system, display device, information display method, and program
US10642564B2 (en) Display system, display device, information display method, and program
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP5113426B2 (ja) 頭部装着型表示装置、及びその制御方法
TW201708883A (zh) 電子系統、可攜式顯示裝置及導引裝置
WO2016013272A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
US11393177B2 (en) Information processing apparatus, information processing method, and program
JP2013016020A (ja) 作業支援システム、装置、方法及びプログラム
US10771707B2 (en) Information processing device and information processing method
US11443719B2 (en) Information processing apparatus and information processing method
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
JP5161544B2 (ja) 画像表示システム
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
WO2021230363A1 (ja) 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
JP2006340017A (ja) 立体映像表示装置及び立体映像表示方法
JP6725999B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
WO2024057783A1 (ja) 360度画像視点位置同定部を備える情報処理装置
JP2019004272A (ja) 映像送受信システム
WO2021106136A1 (ja) 表示端末装置
JP2017181605A (ja) 情報処理装置、画像表示装置、画像表示システム、および情報処理方法
JP2023172084A (ja) 情報処理装置、頭部装着型表示装置、情報処理方法、およびプログラム
JP2023145551A (ja) 画像処理装置と、その処理方法、プログラム
JP2019029868A (ja) 画像処理装置と、その処理方法、プログラム
KR20220095787A (ko) 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170711

R150 Certificate of patent or registration of utility model

Ref document number: 6179927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees