WO2020246425A1 - 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体 - Google Patents

映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2020246425A1
WO2020246425A1 PCT/JP2020/021600 JP2020021600W WO2020246425A1 WO 2020246425 A1 WO2020246425 A1 WO 2020246425A1 JP 2020021600 W JP2020021600 W JP 2020021600W WO 2020246425 A1 WO2020246425 A1 WO 2020246425A1
Authority
WO
WIPO (PCT)
Prior art keywords
worker
dimensional model
distance
visualization unit
video processing
Prior art date
Application number
PCT/JP2020/021600
Other languages
English (en)
French (fr)
Inventor
竜昇 西村
Original Assignee
マツダ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マツダ株式会社 filed Critical マツダ株式会社
Priority to EP20818341.8A priority Critical patent/EP3982354A4/en
Priority to CN202080038121.9A priority patent/CN113853646B/zh
Priority to US17/616,150 priority patent/US11790624B2/en
Publication of WO2020246425A1 publication Critical patent/WO2020246425A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想作業を行う作業者(10)が装着するヘッドマウントディスプレイ装置(40)に表示する映像を処理する。作業者(10)の位置及び姿勢並びに視線を取得し、取得した位置及び姿勢並びに視線に応じて、表示画面(41)に、作業者(10)が仮想作業を行う作業対象物(2)の三次元モデルと、作業者(10)の三次元モデルを表示する。作業者(10)の三次元モデルの所定部位(11)から直線状に延び、所定部位(11)と作業対象物(2)の三次元モデルとの間を結んで所定部位(11)と作業対象物(2)との距離を可視化する距離可視化部(6)を表示する。

Description

映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体
 本発明は、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体に関する。
 車両組立ラインなどの生産ラインでは、作業者が組立作業や締付作業などの多種多様な作業に応じて姿勢や視線などを変えながら作業をしており、このような生産ラインにおける作業者の作業を評価して作業者の作業負担を軽減することが行われている。
 近年、実際に生産ラインにおいて作業者が作業を行って作業者の作業を評価することに代え、複合現実(MR)を用いて、作業者にヘッドマウントディスプレイ装置を装着させると共に、ヘッドマウントディスプレイ装置の表示画面に作業者の姿勢や視線などに応じて生産ラインの三次元モデルと作業者の三次元モデルとを表示させ、作業者の動作に合わせて作業者の三次元モデルを移動させて生産ラインにおける作業者の作業をシミュレーションし、作業者の作業を評価することが考えられている。
 例えば特許文献1には、仮想作業を表示するものとして、コンピュータに、計測対象の三次元データとモーションキャプチャ装置から取得される作業者の動作に基づく作業者の三次元データとを読み込んで両データを共通の三次元座標上に配置し、画面上に、共通の三次元座標上に仮想的に配置される仮想カメラを介して見える計測対象の三次元データとモーションキャプチャ装置から取得される作業者の動作に連動した作業者の三次元データとを表示させるものが開示されている。
特開2018-181288号公報
 前記のように、複合現実を用いて、作業者に装着されるヘッドマウントディスプレイ装置の表示画面に生産ラインの三次元モデルと作業者の三次元モデルとを作業者の姿勢や視線などに合わせて表示させる映像を処理して生産ラインにおける作業者の作業をシミュレーションすることで、実際に生産ラインにおいて作業者が作業を行うことなく、生産ラインにおける作業者の作業を評価することが可能である。
 しかしながら、車両組立ラインなどの生産ラインにおける作業者の作業をシミュレーションする場合に、ヘッドマウントディスプレイ装置の表示画面に表示される生産ラインの三次元モデルの作業対象物に対して作業者の三次元モデルの手部を移動して手作業で行う作業をシミュレーションするときなどに、作業者がヘッドマウントディスプレイ装置の表示画面に表示された作業者の手部などの所定部位と作業対象物との距離感を的確に認識することができないおそれがある。
 そこで、本発明は、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像処理において、表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができるようにすることを課題とする。
 前記課題を解決するため、本発明は、次のように構成したことを特徴とする。
 本発明の第1態様では、作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理方法であって、前記作業者の位置及び姿勢を取得するステップ(a)と、前記作業者の視線を取得するステップ(b)と、前記ステップ(a)によって取得された前記作業者の位置及び姿勢、並びに前記ステップ(b)によって取得された前記作業者の視線に応じて、前記表示画面に、前記作業者が仮想作業を行う作業対象物の三次元モデルと、前記作業者の三次元モデルとを表示するステップ(c)とを有し、前記ステップ(c)では、前記表示画面に、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示する。
 この第1態様によると、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像の処理において、作業者の位置及び姿勢並びに視線が取得され、作業者の位置及び姿勢並びに視線に応じて、表示画面に、作業者が仮想作業を行う作業対象物の三次元モデルと、作業者の三次元モデルとが表示される。そして、表示画面に、作業者の三次元モデルの所定部位から直線状に延びて当該所定部位と作業対象物の三次元モデルとの間を結ぶ距離可視化部が表示される。
 これにより、作業者の三次元モデルの所定部位から直線状に延びる距離可視化部は、作業者の所定部位と作業対象物との距離が短くなるにつれて短く表示することができ、作業者の所定部位と作業対象物との距離に応じた長さで表示することができる。したがって、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像の処理において、距離可視化部の長さによって、表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができる。
 作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができるので、例えば車両組立ラインなどの生産ラインにおける作業者の作業をシミュレーションして作業者の作業負担を評価するときに、作業者が実際の作業対象物に対して作業を行う場合と同様の作業をシミュレーションすることができ、作業者の作業負担を精度良く評価することができる。
 そして、前記態様において、前記距離可視化部は、前記作業者の三次元モデルの手部から直線状に延びるものとしてもよい。
 これにより、作業者の三次元モデルの手部から直線状に延びる距離可視化部が表示されるので、作業対象物に対して作業者が手作業で行う作業をシミュレーションするときに、表示画面に表示される作業者の手部と作業対象物との距離を、作業者に直感的に認識させることができる。
 また、前記態様において、前記距離可視化部は、直線状に棒状に延びるものとしてもよい。
 これにより、距離可視化部によって、比較的容易に、作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができる。
 また、前記態様において、前記ステップ(c)では、前記所定部位と前記作業対象物との距離に応じて、前記距離可視化部の表示形態を変更する、としてもよい。
 これにより、距離可視化部の表示領域を変更することなく、距離可視化部の表示形態によっても、作業者の所定部位と作業対象物との距離を作業者に認識させることができる。
 さらには、前記ステップ(c)では、前記距離可視化部の表示形態として、表示色を変更する、としてもよい。
 これにより、距離可視化部の表示形態を、比較的容易に変更することができる。
 また、本発明の第2態様では、作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理装置であって、プロセッサと、前記プロセッサが実行可能なコンピュータプログラムを記憶するメモリとを備え、前記プロセッサが、前記コンピュータプログラムを実行するとき、前記作業者の位置及び姿勢を取得するステップ(a)と、前記作業者の視線を取得するステップ(b)と、前記ステップ(a)によって取得された前記作業者の位置及び姿勢、並びに前記ステップ(b)によって取得された前記作業者の視線に応じて、前記表示画面に、前記作業者が仮想作業を行う作業対象物の三次元モデルと、前記作業者の三次元モデルとを表示するステップ(c)とが実行され、前記ステップ(c)では、前記表示画面に、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示する。
 この第2態様によって、第1態様と同様の作用効果を奏することができる。
 また、本発明の第3態様では、作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理プログラムが記録された、コンピュータ読み取り可能な記録媒体であって、コンピュータが、前記映像処理プログラムを実行したとき、前記作業者の位置及び姿勢を取得するステップ(a)と、前記作業者の視線を取得するステップ(b)と、前記ステップ(a)によって取得された前記作業者の位置及び姿勢、並びに前記ステップ(b)によって取得された前記作業者の視線に応じて、前記表示画面に、前記作業者が仮想作業を行う作業対象物の三次元モデルと、前記作業者の三次元モデルとを表示するステップ(c)とが実行され、前記ステップ(c)では、前記表示画面に、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示する。
 この第3態様の記録媒体に記録された映像処理プログラムを実行することによって、第1態様と同様の作用効果を奏することができる。
 本発明によると、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像の処理において、距離可視化部の長さによって、表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができる。
本発明の第1実施形態に係る映像処理装置を用いて評価する生産ラインにおける作業者の作業を説明するための説明図である。 作業者の位置及び姿勢並びに視線を取得する方法を説明するための説明図である。 作業者及びヘッドマウントディスプレイ装置に取り付けられたマーカを示す図である。 ヘッドマウントディスプレイ装置の表示画面の一例を示す図である。 ヘッドマウントディスプレイ装置の表示画面の別の一例を示す図である。 映像処理装置の構成を示す図である。 図6に示す映像処理装置の記憶装置の構成を示す図である。 映像処理装置の動作を示すフローチャートである。 映像処理装置の表示制御を示すフローチャートである。 第2実施形態に係る映像処理装置の表示制御を示すフローチャートである。 映像処理装置の表示制御の変形例を説明するための説明図である。
 以下、本発明の実施形態について添付図面を参照しながら説明する。
 図1は、本発明の第1実施形態に係る映像処理装置を用いて評価する生産ラインにおける作業者の作業を説明するための説明図である。本発明の第1実施形態に係る映像処理装置は、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に作業者の位置及び姿勢並びに視線に応じて、作業者が仮想作業を行う生産ラインの三次元モデルと作業者の三次元モデルとを表示させ、作業者の動作に合わせて作業者の三次元モデルを移動させて生産ラインにおける作業者の作業をシミュレーションし、生産ラインにおける作業者の作業を評価するときに用いられる。
 図1に示すように、例えば生産ラインとしての車両組立ライン1における作業対象物としての車両2に対して作業者10が組立作業や締付作業などの作業を行う場合について、生産ライン1における作業者10の作業をシミュレーションし、生産ラインにおける作業者の作業を評価するときに用いられる。
 図2は、作業者の位置及び姿勢並びに視線を取得する方法を説明するための説明図である。図2に示すように、前記映像処理装置を用いて生産ラインにおける作業者の作業を評価するときには、作業者が仮想作業を行う現実の三次元空間20に設けられたフレーム21に、複数のカメラ22、具体的には8個のカメラ22が固定される。カメラ22はそれぞれ、カメラ22の位置及び方向がそれぞれ所定位置及び所定方向に予め設定されて固定されている。
 現実の三次元空間20には先ず、所定原点位置P1に、T字状に形成された原点設定用具23が配置される。原点設定用具23は、腕部23aの両端部、脚部23bの両端部及び中央部にそれぞれマーカ24が取り付けられている。原点設定用具23は、腕部23aと脚部23bとの交点P2が原点位置P1に一致するように重ねて配置される。マーカ24は、球状の反射マーカなどの既知のマーカが用いられる。
 そして、複数のカメラ22によって原点設定用具23が撮像され、複数のカメラ22によって撮像された画像に基づいて原点設定用具23のマーカ24の位置が取得されると共に原点設定用具23のマーカ24の位置から原点位置P1及びXYZ座標系が取得される。例えば原点設定用具23の脚部23bがX軸、腕部23aがY軸、脚部23b及び腕部23aを通る面の法線をZ軸とするXYZ座標系が取得される。現実の三次元空間20において原点位置P1及びXYZ座標系が取得されると、原点設定用具23が取り除かれる。
 次に、現実の三次元空間20において作業者30の頭部に装着されたヘッドマウントディスプレイ装置40の表示画面に、仮想の三次元空間に作業者が仮想作業を行う生産ラインにおける作業対象物の三次元モデルを表示させ、仮想の三次元空間の原点位置及びXYZ座標系を現実の三次元空間20の原点位置P1及びXYZ座標系に一致させて位置合わせさせる。
 仮想の三次元空間の原点位置及びXYZ座標系を現実の三次元空間20の原点位置P1及びXYZ座標系に位置合わせすることで、ヘッドマウントディスプレイ装置40が装着された作業者30は、仮想の三次元空間に表示される生産ラインとしての車両組立ラインにおける作業対象物としての車両の三次元モデルを現実の三次元空間と同じ位置に仮想的に視認することができる。
 ヘッドマウントディスプレイ装置40が装着される作業者30には、作業者30の位置及び姿勢並びに視線を取得するために複数のマーカが取り付けられている。作業者30には、作業者30の位置及び姿勢を取得するためのマーカが取り付けられ、作業者の視線を取得するためのマーカが作業者30の頭部に設けられたヘッドマウントディスプレイ装置40に取り付けられている。
 図3は、作業者及びヘッドマウントディスプレイ装置に取り付けられたマーカを示す図である。図3に示すように、作業者30の頭部、両側の肘部、両側の手部、胸部、腰部、側の膝部及び両側の足部にそれぞれマーカ31が取り付けられると共に、ヘッドマウントディスプレイ装置40にマーカ31が取り付けられている。マーカ31は、球状の反射マーカなどの既知のマーカ31が用いられる。
 現実の三次元空間20においてフレーム21に固定された複数のカメラ22によって作業者30が撮像され、複数のカメラ22によって撮像された画像に基づいて作業者30及びヘッドマウントディスプレイ装置40に取り付けられたマーカ31の位置が取得されると共にマーカ31の位置から作業者30の位置及び姿勢並びに視線が取得される。
 作業者30の位置及び姿勢並びに視線が取得されると、作業者30の位置及び姿勢並びに視線に応じて仮想の三次元空間に作業者の三次元モデルが生成され、ヘッドマウントディスプレイ装置40の表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物としての車両の三次元モデルに重ねて作業者の三次元モデルが表示される。
 図4は、ヘッドマウントディスプレイ装置の表示画面の一例を示す図である。図4に示すように、ヘッドマウントディスプレイ装置40の表示画面41に、生産ラインの作業対象物として車両組立ライン1における車両2の三次元モデルが表示されると共に作業者10の三次元モデルが表示される。
 ヘッドマウントディスプレイ装置40の表示画面41には、現実の三次元空間20における作業者30の動作に合わせて作業者10の三次元モデルが移動されて表示され、作業者30の位置及び姿勢並びに視線に応じて、作業者30によって仮想的に視認される車両2の三次元モデルに重ねて作業者10の三次元モデルが表示される。
 図4に示す表示画面41では、車両2の三次元モデルの前部が表示され、車両2のエンジンルーム3内に配置されるエンジン4やバッテリ5などが表示されている。図4ではまた、作業者10の三次元モデルの右側手部11を含む右側腕部12が表示されている。
 ヘッドマウントディスプレイ装置40の表示画面41にはまた、図4において斜線ハッチングで示すように、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位としての右側手部11から直線状に延びて右側手部11と車両2の三次元モデルとの間を結んで右側手部11と車両2との距離を可視化する距離可視化部6が表示される。
 距離可視化部6は、作業者10の三次元モデルの右側手部11から、具体的には右側手部11の中指部13から直線状に円柱状に棒状に延びる棒状部材として表示される。距離可視化部6は、例えば作業者10の三次元モデルの右側手部11の中指部13と略同径且つ作業者10の三次元モデルの身長の二分の一の長さに形成される。
 距離可視化部6は、作業者10の三次元モデルの右側手部11に固定され、現実の三次元空間20において作業者30が右側手部を移動させるときに作業者10の三次元モデルの右側手部11と共に移動される。距離可視化部6は、図4に示すように、車両2と干渉する場合、作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示され、右側手部11と車両2の三次元モデルとの間を結んで距離可視化部6の長さによって右側手部11と車両2との距離を可視化する。
 距離可視化部6は、車両2と干渉する場合、距離可視化部6の長さを短くして作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示してもよい。あるいは、距離可視化部6における車両2と干渉する部分より手前に車両2の三次元モデルを表示して作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示してもよい。
 図5は、ヘッドマウントディスプレイ装置の表示画面の別の一例を示す図である。図4に示す表示画面41に表示される状態から、仮想の三次元空間において作業者10の右側手部11を車両2の三次元モデル側に移動させるように作業者30が右側手部を前方へ移動させると、図5に示すように、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルの右側手部11が車両2の三次元モデル側に移動されて表示される。
 作業者10の三次元モデルの右側手部11が移動されて表示されるとき、右側手部11の移動に伴って距離可視化部6も移動されて表示される。距離可視化部6は、車両2と干渉する場合、作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示される。距離可視化部6は、右側手部11と車両2との距離に応じた長さで表示され、図5に示す状態では図4に示す状態に比して短く表示される。
 このように、本実施形態に係る映像処理装置では、ヘッドマウントディスプレイ装置40の表示画面41には、作業者30の位置及び姿勢並びに視線に応じて、作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルが表示され、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6が表示される。
 図6は、映像処理装置の構成を示す図である。図6に示すように、本発明の第1実施形態に係る映像処理装置50は、現実の三次元空間20を撮像する複数のカメラ22と、作業者30に装着されるヘッドマウントディスプレイ装置40と、カメラ22などから入力される信号に基づいて、ヘッドマウントディスプレイ装置40の表示画面41などに表示させる映像を処理するコンピュータ51とを備えている。
 コンピュータ51は、コンピュータプログラムを実行可能なプロセッサとしての中央演算装置52と、データなどを入力するキーボードなどの入力装置53と、プログラムやデータを記録するメモリなどの記憶装置54とを有すると共に、DVDなどの記録媒体を読み取る読取装置55と、据置型ディスプレイ装置などの表示装置56とを有している。
 中央演算装置52は、入力装置53、記憶装置54及び読取装置55などにアクセス可能に構成され、カメラ22から入力された情報と、記憶装置54に記憶されているプログラムやデータを用いて、作業者の作業をシミュレーションするように構成されている。中央演算装置52はまた、ヘッドマウントディスプレイ装置40の表示画面や据置型ディスプレイ装置などの表示装置の表示画面に映像を表示させるように構成されている。
 図7は、図6に示す映像処理装置の記憶装置の構成を示す図である。図7に示すように、記憶装置54は、プログラム記憶部とデータ記憶部とを有している。プログラム記憶部には、ヘッドマウントディスプレイ装置40の表示画面などに表示させる映像を処理する映像処理プログラム、作業対象物や作業者などの三次元モデルを生成するモデル生成プログラム、及び作業対象物や作業者などの三次元モデルなどを表示する表示プログラムなどが記憶されている。
 データ記憶部には、現実の三次元空間20における原点位置及びXYZ座標系及び仮想の三次元空間における原点位置及びXYZ座標系などの空間条件データ、作業対象物の三次元データである作業対象物データ、作業者の三次元データである作業者データ、カメラ22によって撮像された画像データ、作業者の位置及び姿勢である作業者位置姿勢データ、作業者の視界である作業者視界データ、仮想の三次元空間における作業対象物の三次元モデルの作業対象物モデルデータ、及び仮想の三次元空間における作業者の三次元モデルの作業者モデルデータなどがファイルにそれぞれ記憶されている。
 図8は、映像処理装置の動作を示すフローチャートである。図8は、映像処理装置50の映像処理プログラムの動作を示している。映像処理装置50では先ず、原点設定用具23を用い、現実の三次元空間20における原点位置P1及びXYZ座標系が取得され、現実の三次元空間20の原点位置P1及びXYZ座標系に仮想の三次元空間の原点位置及びXYZ座標系が位置合わせされ、現実の三次元空間20の原点位置P1及びXYZ座標系並びに仮想の三次元空間の原点位置及びXYZ座標系が空間条件データとして記憶装置54のデータ記憶部に記憶される。
 映像処理装置50ではまた、作業者30が仮想作業を行う作業対象物の三次元形状である作業対象物の三次元データ及び作業者の三次元形状である作業者の三次元データが、入力装置53や読取装置55などを介して入力されてデータ記憶部に記憶される。
 空間条件データ、作業対象物及び作業者の三次元データが記憶されると、映像処理装置50では、図8に示すように、データ記憶部に記憶された作業対象物の三次元データが取得され(ステップS1)、データ記憶部に記憶された作業者の三次元データが取得される(ステップS2)。
 次に、現実の三次元空間20において仮想作業を行う作業者30が複数のカメラ22によって撮像された画像が取得されてデータ記憶部に記憶されると共に、複数のカメラ22によって撮像された画像に基づいて、現実の三次元空間20における作業者30の位置及び姿勢が取得され(ステップS3)、現実の三次元空間20における作業者30の視線が取得される(ステップS4)。作業者30の位置及び姿勢並びに視線は、作業者30及びヘッドマウントディスプレイ装置40に取り付けられたマーカ31の位置から取得され、取得された作業者30の位置及び姿勢並びに視線データはデータ記憶部に記憶される。
 そして、モデル生成プログラムによって、空間条件データ及び作業対象物の三次元データに基づいて仮想の三次元空間における作業対象物2の三次元形状である三次元モデルが生成され(ステップS5)、空間条件データ及び作業者の三次元データ、並びに現実の三次元空間20における作業者30の位置及び姿勢に基づいて仮想の三次元空間における作業者10の三次元形状である三次元モデルが生成される(ステップS6)。図4に示すように、仮想の三次元空間において作業対象物2及び作業者10の三次元モデルが生成され、生成された作業対象物2及び作業者10の三次元モデルデータはデータ記憶部に記憶される。
 仮想の三次元空間における作業対象物2及び作業者10の三次元モデルが生成されると、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に、作業対象物2の三次元モデルを表示すると共に、作業者30の位置及び姿勢並びに視線に応じて、作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルを表示する表示制御を行う(ステップS7)。
 図9は、映像処理装置の表示制御を示すフローチャートである。図9では、映像処理装置50における表示プログラムの動作を示している。図9に示すように、表示プログラムによって、ヘッドマウントディスプレイ装置40の表示画面41に、作業対象物2の三次元モデルを表示させ(ステップS11)、作業者10の三次元モデルを表示させる(ステップS12)。
 作業対象物2及び作業者10の三次元モデルは、ステップS5及びS6によって生成された作業対象物2及び作業者10の三次元モデルが作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認されるように表示される。図4及び図5に示すように、作業者30によって仮想的に視認される作業対象物2及び作業者10の三次元モデルが表示される。
 次に、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルの手部11から直線状に延びる距離可視化部6を青色などの所定表示色で表示させる(ステップS13)。距離可視化部6は、予め設定された所定長さで円柱状に棒状に延びる棒状部材の三次元モデルとして、作業者30によって仮想的に視認されるように表示され、作業者10の三次元モデルの手部11と共に移動するように表示される。
 そして、距離可視化部6が作業対象物2と干渉するか否かが判定される(ステップS14)。仮想の三次元空間において、作業者10の三次元モデルの手部11から延びる距離可視化部6が、作業対象物2の三次元モデルに干渉するか否かが判定される。
 ステップS14での判定結果がイエス(YES)である場合、距離可視化部6が作業対象物2と干渉すると判定され、作業者10の三次元モデルの手部11から作業対象物2の三次元モデルまで直線状に延びる距離可視化部6を表示させる(ステップS15)。距離可視化部6は、作業者10の三次元モデルの手部11と車両2の三次元モデルとの間を結んで表示される。
 一方、ステップS14の判定結果がノー(NO)である場合、距離可視化部6が作業対象物2と干渉していないと判定され、作業者10の三次元モデルの手部11から直線状に、予め設定された所定長さで延びる距離可視化部6を表示させる。
 このように、映像処理装置50は、ヘッドマウントディスプレイ装置40の表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルを表示させ、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6を表示させる。
 距離可視化部6は、作業者10の三次元モデルの所定部位11の移動に伴って移動され、作業対象物2の三次元モデルと干渉する場合、作業者10の三次元モデルの所定部位11から作業対象物2の三次元モデルまで延びるように表示される。
 映像処理装置50はまた、表示プログラムによって、仮想の三次元空間における作業対象物2の三次元モデルと作業者10の三次元モデルの全体を表示装置56としての据置型ディスプレイ装置の表示画面に表示させるようになっている。これにより、据置型ディスプレイ装置の表示画面に表示された作業者10の三次元モデルから、生産ラインにおける作業者の作業をシミュレーションして作業者30の作業を評価することができる。
 本実施形態では、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルの右側手部11から延びる距離可視化部6が表示されているが、作業者10の三次元モデルの左側手部から直線状に延びる距離可視化部を表示するようにしてもよい。
 また、作業者30及びヘッドマウントディスプレイ装置40に取り付けられたマーカ31をカメラ22によって撮像する光学式のモーションキャプチャ装置を用いて作業者30の位置及び姿勢並びに視線を取得しているが、機械式や磁気式のモーションキャプチャ装置を用いて作業者の位置及び姿勢並びに視線を取得することも可能である。
 また、作業対象物としての車両2が静止した状態で作業者30が仮想作業を行っているが、車両2が移動しながら作業者30が仮想作業を行う場合についても同様に適用することができる。また、車両2に対して作業者30が仮想作業を行っているが、他の作業についても同様に適用することができる。
 このように、本実施形態では、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、作業者30の位置及び姿勢並びに視線が取得され、表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルが表示される。そして、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びて前記所定部位11と作業対象物2の三次元モデルとの間を結ぶ距離可視化部6が表示される。
 これにより、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6は、作業者10の所定部位11と作業対象物2との距離が短くなるにつれて短く表示することができ、作業者10の所定部位11と作業対象物2との距離に応じた長さで表示することができる。したがって、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、距離可視化部6の長さによって表示画面41に表示される作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができる。
 作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができるので、例えば車両組立ラインなどの生産ラインにおける作業者30の作業をシミュレーションして作業者30の作業負担を評価するときに、作業者30が実際の作業対象物2に対して作業を行う場合と同様の作業をシミュレーションすることができ、作業者30の作業負担を精度良く評価することができる。
 また、作業者10の三次元モデルの手部11から直線状に延びる距離可視化部6が表示される。これにより、作業対象物2に対して作業者30が手作業で行う作業をシミュレーションするときに、表示画面41に表示される作業者10の手部11と作業対象物2との距離を作業者30に直感的に認識させることができる。
 また、直線状に棒状に延びる距離可視化部6が表示される。これにより、作業者10の三次元モデルの所定部位11から直線状に棒状に延びる距離可視化部6を用いて、比較的容易に作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができる。
 図10は、第2実施形態に係る映像処理装置の表示制御を示すフローチャートである。第2実施形態に係る映像処理装置は、第1実施形態に係る映像処理装置と表示制御が異なること以外は同様であるので、第1実施形態に係る映像処理装置と異なる部分についてのみ説明する。
 図10に示すように、第2実施形態に係る映像処理装置についても、表示制御プログラムによって、ヘッドマウントディスプレイ装置40の表示画面41に、作業対象物2の三次元モデルを表示させ(ステップS11)、作業者10の三次元モデルを表示させ(ステップS12)、作業者10の三次元モデルの手部11から直線状に延びる距離可視化部6を青色の表示色で表示させる(ステップS13)。距離可視化部6は、予め設定された所定長さで円柱状に棒状に延びる棒状部材の三次元モデルとして表示され、作業者10の三次元モデルの手部11と共に移動するように表示される。
 そして、距離可視化部6が作業対象物2と干渉するか否かが判定される(ステップS14)。仮想の三次元空間において、作業者10の三次元モデルの手部11から延びる距離可視化部6が、作業対象物2の三次元モデルに干渉するか否かが判定される。
 ステップS14での判定結果がイエスである場合、作業者10の三次元モデルの手部11と作業対象物2との距離が所定距離以下、例えば5cm以下であるか否かが判定される(ステップS25)。作業者10の三次元モデルの手部11から作業対象物2まで直線状に延びる距離可視化部6の長さが、予め設定された所定長さより短い所定距離以下であるか否かが判定される。
 ステップS25での判定結果がイエスである場合、作業者10の三次元モデルの手部11から作業対象物2まで直線状に延びる距離可視化部6を青色とは異なる表示色である赤色で表示させ(ステップS26)、ステップS25での判定結果がノーである場合、作業者10の三次元モデルの手部11から作業対象物2まで直線状に延びる距離可視化部6を青色で表示させる(ステップS27)。
 一方、ステップS14の判定結果がノーである場合、距離可視化部6が作業対象物2と干渉していないと判定され、作業者10の三次元モデルの手部11から直線状に、予め設定された所定長さで延びる距離可視化部6を青色で表示させる。
 このように、本実施形態に係る映像処理装置についても、ヘッドマウントディスプレイ装置40の表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルを表示させ、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6を表示させる。
 距離可視化部6は、作業者10の三次元モデルの所定部位11の移動に伴って移動され、作業対象物2の三次元モデルと干渉する場合、作業者10の三次元モデルの所定部位11から作業対象物2の三次元モデルまで延びるように表示される。
 本実施形態では、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6は青色で表示させ、所定部位11と作業対象物2との距離が所定距離以下になると赤色で表示させ、所定部位11と作業対象物2との距離に応じて距離可視化部6の表示色の変更を行うことにより距離可視化部6の表示形態を変更させる。
 このように、本実施形態についても、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びて前記所定部位11と作業対象物2の三次元モデルとの間を結ぶ距離可視化部6が表示される。
 これにより、作業者30に装着されるヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、距離可視化部6の長さによって表示画面41に表示される作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができる。
 また、作業者10の所定部位11と作業対象物2との距離に応じて距離可視化部6の表示形態が変更される。これにより、距離可視化部6の表示領域を変更することなく、距離可視化部6の表示形態によっても作業者10の所定部位11と作業対象物2との距離を作業者30に認識させることができる。
 また、作業者10の所定部位11と作業対象物2との距離に応じて距離可視化部6の表示色の変更を行うことにより距離可視化部6の表示形態が変更される。これにより、比較的容易に距離可視化部6の表示形態を変更することができる。
 図11は、映像処理装置の表示制御の変形例を説明するための説明図である。前述した実施形態に係る映像処理装置50において、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位としての手部11から直線状に延びる距離可視化部6を表示させるときに、図11に示すように、作業者10の三次元モデルの手部11に設けられたペンチなどの保持部材15から直線状に延びる距離可視化部16を表示させるようにすることも可能である。
 かかる場合においても、距離可視化部16は、作業者10の三次元モデルの手部11が移動されるとき、手部11に固定された保持部材15と共に移動されて表示される。距離可視化部16はまた、作業対象物としての車両2と干渉する場合、作業者10の三次元モデルの手部11に設けられた保持部材15から車両2の三次元モデルまで延びるように表示される。
 このように、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11に設けられた保持部材15から直線状に延びる距離可視化部16が表示されることにより、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、距離可視化部16の長さによって、表示画面41に表示される作業者10の所定部位11に設けられた保持部材15と作業対象物との距離を作業者30に直感的に認識させることができる。
 前述した実施形態では、コンピュータ51において、記憶装置54に記録されている映像処理プログラムを用いてヘッドマウントディスプレイ装置40の表示画面41に表示させる映像を処理しているが、例えばDVDなどの光ディスク媒体や磁気テープ媒体などの記録媒体に記録されている映像処理プログラムを用いて、読取装置55を介して映像処理プログラムを読み取ることで、ヘッドマウントディスプレイ装置40の表示画面41に表示させる映像を処理することも可能である。
 本発明は、例示された実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の改良及び設計上の変更が可能である。
 以上のように、本発明によれば、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることが可能となるから、複合現実を用い、ヘッドマウントディスプレイ装置の表示画面に作業対象物の三次元モデルと作業者の三次元モデルとを作業者の姿勢や視線に合わせて表示させて映像を処理する場合に好適に利用される可能性がある。
2 作業対象物の三次元モデル
6,16 距離可視化部
10 作業者の三次元モデル
11 作業者の三次元モデルの手部
22 カメラ
30 作業者
40 ヘッドマウントディスプレイ装置
41 表示画面
50 映像処理装置
51 コンピュータ

Claims (15)

  1.  作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理方法であって、
     前記作業者の位置及び姿勢を取得するステップ(a)と、
     前記作業者の視線を取得するステップ(b)と、
     前記ステップ(a)によって取得された前記作業者の位置及び姿勢、並びに前記ステップ(b)によって取得された前記作業者の視線に応じて、前記表示画面に、前記作業者が仮想作業を行う作業対象物の三次元モデルと、前記作業者の三次元モデルとを表示するステップ(c)とを有し、
     前記ステップ(c)では、前記表示画面に、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示する
    ことを特徴とする映像処理方法。
  2.  請求項1記載の映像処理方法において、
     前記距離可視化部は、前記作業者の三次元モデルの手部から直線状に延びるものである
    ことを特徴とする映像処理方法。
  3.  請求項1または2記載の映像処理方法において、
     前記距離可視化部は、直線状に棒状に延びるものである
    ことを特徴とする映像処理方法。
  4.  請求項1~3のうちいずれか1項記載の映像処理方法において、
     前記ステップ(c)では、前記所定部位と前記作業対象物との距離に応じて、前記距離可視化部の表示形態を変更する
    ことを特徴とする映像処理方法。
  5.  請求項4記載の映像処理方法において、
     前記ステップ(c)では、前記距離可視化部の表示形態として、表示色を変更する
    ことを特徴とする映像処理方法。
  6.  作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理装置であって、
     プロセッサと、
     前記プロセッサが実行可能なコンピュータプログラムを記憶するメモリとを備え、
     前記プロセッサが、前記コンピュータプログラムを実行するとき、
     前記作業者の位置及び姿勢を取得するステップ(a)と、
     前記作業者の視線を取得するステップ(b)と、
     前記ステップ(a)によって取得された前記作業者の位置及び姿勢、並びに前記ステップ(b)によって取得された前記作業者の視線に応じて、前記表示画面に、前記作業者が仮想作業を行う作業対象物の三次元モデルと、前記作業者の三次元モデルとを表示するステップ(c)とが実行され、
     前記ステップ(c)では、前記表示画面に、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示する
    ことを特徴とする映像処理装置。
  7.  請求項6記載の映像処理装置において、
     前記距離可視化部は、前記作業者の三次元モデルの手部から直線状に延びるものである
    ことを特徴とする映像処理装置。
  8.  請求項6または7記載の映像処理装置において、
     前記距離可視化部は、直線状に棒状に延びるものである
    ことを特徴とする映像処理装置。
  9.  請求項6~8のうちいずれか1項記載の映像処理装置において、
     前記ステップ(c)では、前記所定部位と前記作業対象物との距離に応じて、前記距離可視化部の表示形態を変更する
    ことを特徴とする映像処理装置。
  10.  請求項9記載の映像処理装置において、
     前記ステップ(c)では、前記距離可視化部の表示形態として、表示色を変更する
    ことを特徴とする映像処理装置。
  11.  作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理プログラムが記録された、コンピュータ読み取り可能な記録媒体であって、
     コンピュータが、前記映像処理プログラムを実行したとき、
     前記作業者の位置及び姿勢を取得するステップ(a)と、
     前記作業者の視線を取得するステップ(b)と、
     前記ステップ(a)によって取得された前記作業者の位置及び姿勢、並びに前記ステップ(b)によって取得された前記作業者の視線に応じて、前記表示画面に、前記作業者が仮想作業を行う作業対象物の三次元モデルと、前記作業者の三次元モデルとを表示するステップ(c)とが実行され、
     前記ステップ(c)では、前記表示画面に、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示する
    ことを特徴とする記録媒体。
  12.  請求項11記載の記録媒体において、
     前記距離可視化部は、前記作業者の三次元モデルの手部から直線状に延びるものである
    ことを特徴とする記録媒体。
  13.  請求項11または12記載の記録媒体において、
     前記距離可視化部は、直線状に棒状に延びるものである
    ことを特徴とする記録媒体。
  14.  請求項11~13のうちいずれか1項記載の記録媒体において、
     前記ステップ(c)では、前記所定部位と前記作業対象物との距離に応じて、前記距離可視化部の表示形態を変更する
    ことを特徴とする記録媒体。
  15.  請求項14記載の記録媒体において、
     前記ステップ(c)では、前記距離可視化部の表示形態として、表示色を変更する
    ことを特徴とする記録媒体。
     
PCT/JP2020/021600 2019-06-07 2020-06-01 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体 WO2020246425A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20818341.8A EP3982354A4 (en) 2019-06-07 2020-06-01 VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND RECORDING MEDIA ON WHICH A VIDEO PROCESSING PROGRAM IS RECORDED
CN202080038121.9A CN113853646B (zh) 2019-06-07 2020-06-01 影像处理方法、影像处理装置及记录有影像处理程序的记录介质
US17/616,150 US11790624B2 (en) 2019-06-07 2020-06-01 Video processing method, video processing apparatus, and recording medium having video processing program recorded therein

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-106966 2019-06-07
JP2019106966A JP7279530B2 (ja) 2019-06-07 2019-06-07 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
WO2020246425A1 true WO2020246425A1 (ja) 2020-12-10

Family

ID=73652531

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021600 WO2020246425A1 (ja) 2019-06-07 2020-06-01 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体

Country Status (5)

Country Link
US (1) US11790624B2 (ja)
EP (1) EP3982354A4 (ja)
JP (1) JP7279530B2 (ja)
CN (1) CN113853646B (ja)
WO (1) WO2020246425A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間における指示表示及び指示表示方法
JP2017067876A (ja) * 2015-09-29 2017-04-06 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
JP2017107349A (ja) * 2015-12-09 2017-06-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018181288A (ja) 2017-04-11 2018-11-15 大豊精機株式会社 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
JP2019033881A (ja) * 2017-08-15 2019-03-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165665A (ja) * 2003-12-02 2005-06-23 Canon Inc 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9886552B2 (en) * 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US9710968B2 (en) * 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
FR3023948B1 (fr) * 2014-07-21 2017-12-22 Airbus Operations Sas Procede d'aide a la maintenance d'un aeronef par realite augmentee.
US10713970B2 (en) * 2015-04-29 2020-07-14 Ivan Banga Driver education system and method for training in simulated road emergencies
JP6586824B2 (ja) * 2015-08-27 2019-10-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10977868B2 (en) * 2018-06-29 2021-04-13 Factualvr, Inc. Remote collaboration methods and systems
US11288871B2 (en) * 2019-11-08 2022-03-29 Fujifilm Business Innovation Corp. Web-based remote assistance system with context and content-aware 3D hand gesture visualization
US20230106673A1 (en) * 2021-10-06 2023-04-06 Qualcomm Incorporated Vehicle and mobile device interface for vehicle occupant assistance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間における指示表示及び指示表示方法
JP2017067876A (ja) * 2015-09-29 2017-04-06 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
JP2017107349A (ja) * 2015-12-09 2017-06-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018181288A (ja) 2017-04-11 2018-11-15 大豊精機株式会社 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
JP2019033881A (ja) * 2017-08-15 2019-03-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
US20220254129A1 (en) 2022-08-11
EP3982354A1 (en) 2022-04-13
US11790624B2 (en) 2023-10-17
CN113853646B (zh) 2024-01-02
CN113853646A (zh) 2021-12-28
JP7279530B2 (ja) 2023-05-23
JP2020201634A (ja) 2020-12-17
EP3982354A4 (en) 2023-05-31

Similar Documents

Publication Publication Date Title
US10818099B2 (en) Image processing method, display device, and inspection system
US7236854B2 (en) Method and a system for programming an industrial robot
EP1435280B1 (en) A method and a system for programming an industrial robot
JP6723738B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20110311127A1 (en) Motion space presentation device and motion space presentation method
JP4677281B2 (ja) 画像処理方法、画像処理装置
Re et al. Impact of monitor-based augmented reality for on-site industrial manual operations
US7123214B2 (en) Information processing method and apparatus
Puthenveetil et al. Computer-automated ergonomic analysis based on motion capture and assembly simulation
JP2006302034A (ja) 画像処理方法、画像処理装置
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US8154548B2 (en) Information processing apparatus and information processing method
US20200184736A1 (en) Information processing apparatus, system, image processing method, and storage medium
JP2009087161A (ja) 画像処理装置、画像処理方法
JP6364389B2 (ja) 検査方法及び検査システム
WO2020246425A1 (ja) 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体
JP2008070319A (ja) 物体計測装置および方法
JP7443014B2 (ja) ロボットアーム試験装置
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
JP2006215750A (ja) 画像処理方法、画像処理装置
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP5594088B2 (ja) 製造ラインの検討システム
WO2022249295A1 (ja) ロボットシミュレーション装置
JP7453126B2 (ja) 作業観察システム、作業解析方法、及び教育支援システム
US20220410394A1 (en) Method and system for programming a robot

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818341

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020818341

Country of ref document: EP