JP7279530B2 - 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体 - Google Patents

映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP7279530B2
JP7279530B2 JP2019106966A JP2019106966A JP7279530B2 JP 7279530 B2 JP7279530 B2 JP 7279530B2 JP 2019106966 A JP2019106966 A JP 2019106966A JP 2019106966 A JP2019106966 A JP 2019106966A JP 7279530 B2 JP7279530 B2 JP 7279530B2
Authority
JP
Japan
Prior art keywords
worker
dimensional model
distance
hand
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019106966A
Other languages
English (en)
Other versions
JP2020201634A (ja
Inventor
竜昇 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019106966A priority Critical patent/JP7279530B2/ja
Priority to EP20818341.8A priority patent/EP3982354A4/en
Priority to CN202080038121.9A priority patent/CN113853646B/zh
Priority to PCT/JP2020/021600 priority patent/WO2020246425A1/ja
Priority to US17/616,150 priority patent/US11790624B2/en
Publication of JP2020201634A publication Critical patent/JP2020201634A/ja
Application granted granted Critical
Publication of JP7279530B2 publication Critical patent/JP7279530B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Description

本発明は、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体に関する。
車両組立ラインなどの生産ラインでは、作業者が組立作業や締付作業などの多種多様な作業に応じて姿勢や視線などを変えながら作業をしており、このような生産ラインにおける作業者の作業を評価して作業者の作業負担を軽減することが行われている。
近年、実際に生産ラインにおいて作業者が作業を行って作業者の作業を評価することに代え、複合現実(MR)を用いて、作業者にヘッドマウントディスプレイ装置を装着させると共に、ヘッドマウントディスプレイ装置の表示画面に作業者の姿勢や視線などに応じて生産ラインの三次元モデルと作業者の三次元モデルとを表示させ、作業者の動作に合わせて作業者の三次元モデルを移動させて生産ラインにおける作業者の作業をシミュレーションし、作業者の作業を評価することが考えられている。
例えば特許文献1には、仮想作業を表示するものとして、コンピュータに、計測対象の三次元データとモーションキャプチャ装置から取得される作業者の動作に基づく作業者の三次元データとを読み込んで両データを共通の三次元座標上に配置し、画面上に、共通の三次元座標上に仮想的に配置される仮想カメラを介して見える計測対象の三次元データとモーションキャプチャ装置から取得される作業者の動作に連動した作業者の三次元データとを表示させるものが開示されている。
特開2018-181288号公報
前記のように、複合現実を用いて、作業者に装着されるヘッドマウントディスプレイ装置の表示画面に生産ラインの三次元モデルと作業者の三次元モデルとを作業者の姿勢や視線などに合わせて表示させる映像を処理して生産ラインにおける作業者の作業をシミュレーションすることで、実際に生産ラインにおいて作業者が作業を行うことなく、生産ラインにおける作業者の作業を評価することが可能である。
しかしながら、車両組立ラインなどの生産ラインにおける作業者の作業をシミュレーションする場合に、ヘッドマウントディスプレイ装置の表示画面に表示される生産ラインの三次元モデルの作業対象物に対して作業者の三次元モデルの手部を移動して手作業で行う作業をシミュレーションするときなどに、作業者がヘッドマウントディスプレイ装置の表示画面に表示された作業者の手部などの所定部位と作業対象物との距離感を的確に認識することができないおそれがある。
そこで、本発明は、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像処理において、表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができるようにすることを課題とする。
前記課題を解決するため、本発明は、次のように構成したことを特徴とする。
まず、本願の請求項1に記載の発明は、作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理方法であって、前記作業者の位置及び姿勢を取得する作業者位置姿勢取得ステップと、前記作業者の視線を取得する作業者視線取得ステップと、前記表示画面に、前記作業者が組立作業又は締付作業における手作業の仮想作業を行う作業対象物の三次元モデルを表示すると共に、前記作業者位置姿勢取得ステップによって取得された前記作業者の位置及び姿勢、並びに前記作業者視線取得ステップによって取得された前記作業者の視線に応じて前記作業者によって仮想的に視認される前記作業対象物の三次元モデルに重ねて前記作業者の三次元モデルを表示する表示制御ステップとを有し、前記表示制御ステップでは、前記作業者の三次元モデルに、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示し、前記表示制御ステップでは、前記所定部位として前記作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる前記距離可視化部を表示し、前記距離可視化部は、前記作業者の三次元モデルの手部又は手部に設けられた保持部材に固定された状態で、前記手部又は手部に設けられた保持部材の移動に伴って、前記手部又は手部に設けられた保持部材と共に移動するように表示され、前記表示制御ステップでは、同一表示画面内に、前記作業者の三次元モデルの手部又は手部に設けられた保持部材と、前記作業対象物の三次元モデルとを表示することを特徴とする。
また、請求項に記載の発明は、前記請求項1に記載の発明において、前記表示制御ステップでは、直線状に棒状に延びる前記距離可視化部を表示することを特徴とする。
また、請求項に記載の発明は、前記請求項1又は請求項2に記載の発明において、前記表示制御ステップでは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示形態を変更することを特徴とする。

また、請求項に記載の発明は、前記請求項に記載の発明において、前記表示制御ステップでは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示色の変更を行うことにより前記距離可視化部の表示形態を変更することを特徴とする。
また、請求項5に記載の発明は、作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理装置であって、前記作業者の位置及び姿勢を取得する作業者位置姿勢取得手段と、前記作業者の視線を取得する作業者視線取得手段と、前記表示画面に、前記作業者が組立作業又は締付作業における手作業の仮想作業を行う作業対象物の三次元モデルを表示すると共に、前記作業者位置姿勢取得手段によって取得された前記作業者の位置及び姿勢、並びに前記作業者視線取得手段によって取得された前記作業者の視線に応じて前記作業者によって仮想的に視認される前記作業対象物の三次元モデルに重ねて前記作業者の三次元モデルを表示する表示制御手段とを有し、前記表示制御手段は、前記作業者の三次元モデルに、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示し、前記表示制御手段は、前記所定部位として前記作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる前記距離可視化部を表示し、前記距離可視化部は、前記作業者の三次元モデルの手部又は手部に設けられた保持部材に固定された状態で、前記手部又は手部に設けられた保持部材の移動に伴って、前記手部又は手部に設けられた保持部材と共に移動するように表示され、前記表示制御手段は、同一表示画面内に、前記作業者の三次元モデルの手部又は手部に設けられた保持部材と、前記作業対象物の三次元モデルとを表示することを特徴とする。
また、請求項に記載の発明は、前記請求項5に記載の発明において、前記表示制御手段は、直線状に棒状に延びる前記距離可視化部を表示することを特徴とする。
また、請求項に記載の発明は、前記請求項5又は請求項6に記載の発明において、前記表示制御手段は、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示形態を変更することを特徴とする。
また、請求項に記載の発明は、前記請求項に記載の発明において、前記表示制御手段は、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示色の変更を行うことにより前記距離可視化部の表示形態を変更することを特徴とする。
また、請求項9に記載の発明は、作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理プログラムであって、コンピュータを、前記作業者の位置及び姿勢を取得する作業者位置姿勢取得手段、前記作業者の視線を取得する作業者視線取得手段、及び、前記表示画面に、前記作業者が組立作業又は締付作業における手作業の仮想作業を行う作業対象物の三次元モデルを表示すると共に、前記作業者位置姿勢取得手段によって取得された前記作業者の位置及び姿勢、並びに前記作業者視線取得手段によって取得された前記作業者の視線に応じて前記作業者によって仮想的に視認される前記作業対象物の三次元モデルに重ねて前記作業者の三次元モデルを表示する表示制御手段として機能させ、前記表示制御手段として機能させるときは、前記作業者の三次元モデルに、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示し、前記距離可視化部は、前記作業者の三次元モデルの手部又は手部に設けられた保持部材に固定された状態で、前記手部又は手部に設けられた保持部材の移動に伴って、前記手部又は手部に設けられた保持部材と共に移動するように表示されるように機能させ、前記表示制御手段として機能させるときは、前記所定部位として前記作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる前記距離可視化部を表示するように機能させ、前記表示制御手段として機能させるときは、同一表示画面内に、前記作業者の三次元モデルの手部又は手部に設けられた保持部材と、前記作業対象物の三次元モデルとを表示するように機能させることを特徴とする。
また、請求項10に記載の発明は、前記請求項9に記載の発明において、コンピュータを、前記表示制御手段として機能させるときは、直線状に棒状に延びる前記距離可視化部を表示するように機能させることを特徴とする。
また、請求項11に記載の発明は、前記請求項9又は請求項10に記載の発明において、コンピュータを、前記表示制御手段として機能させるときは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示形態を変更するように機能させることを特徴とする。
また、請求項12に記載の発明は、前記請求項11に記載の発明において、コンピュータを、前記表示制御手段として機能させるときは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示色の変更を行うことにより前記距離可視化部の表示形態を変更するように機能させることを特徴とする。
また、請求項13に記載の発明は、前記請求項から請求項12の何れか1項に記載の映像処理プログラムが記録されている記録媒体であることを特徴とする。
本願の請求項1に記載の発明によれば、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像処理において、作業者の位置及び姿勢並びに視線が取得され、表示画面に、作業者の位置及び姿勢並びに視線に応じて作業者によって仮想的に視認される作業対象物の三次元モデルに重ねて作業者の三次元モデルが表示される。そして、作業者の三次元モデルに、作業者の三次元モデルの所定部位から直線状に延びて前記所定部位と作業対象物の三次元モデルとの間を結ぶ距離可視化部が表示される。
これにより、作業者の三次元モデルの所定部位から直線状に延びる距離可視化部は、作業者の所定部位と作業対象物との距離が短くなるにつれて短く表示することができ、作業者の所定部位と作業対象物との距離に応じた長さで表示することができる。したがって、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像処理において、距離可視化部の長さによって表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができる。
作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることができるので、例えば車両組立ラインなどの生産ラインにおける作業者の作業をシミュレーションして作業者の作業負担を評価するときに、作業者が実際の作業対象物に対して作業を行う場合と同様の作業をシミュレーションすることができ、作業者の作業負担を精度良く評価することができる。
また、所定部位として作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる距離可視化部が表示されることにより、作業対象物に対して作業者が手作業で行う作業をシミュレーションするときに、表示画面に表示される作業者の手部又は手部に設けられた保持部材と作業対象物との距離を作業者に直感的に認識させることができる。
また、請求項に記載の発明によれば、直線状に棒状に延びる距離可視化部が表示されることにより、作業者の三次元モデルの所定部位から直線状に棒状に延びる距離可視化部を用いて、比較的容易に前記効果を得ることができる。
また、請求項に記載の発明によれば、作業者の所定部位と作業対象物との距離に応じて距離可視化部の表示形態が変更されることにより、距離可視化部の表示領域を変更することなく、距離可視化部の表示形態によっても作業者の所定部位と作業対象物との距離を作業者に認識させることができる。
また、請求項に記載の発明によれば、作業者の所定部位と作業対象物との距離に応じて距離可視化部の表示色の変更を行うことにより距離可視化部の表示形態が変更されることにより、比較的容易に距離可視化部の表示形態を変更することができる。
また、請求項~請求項に記載の映像処理装置によれば、請求項1~請求項に記載の映像処理方法とそれぞれ同様の効果を奏することができる。
さらに、請求項~請求項12に記載の映像処理プログラムによれば、これをコンピュータに適用して実行することにより、請求項1~請求項に記載の映像処理方法とそれぞれ同様の効果を奏することができる。
また、請求項13に記載の記録媒体によれば、これをコンピュータに適用して、記録されている映像処理プログラムを実行することにより、請求項1~請求項に記載の映像処理方法と同様の効果を奏することができる。



本発明の第1実施形態に係る映像処理装置を用いて評価する生産ラインにおける作業者の作業を説明するための説明図である。 作業者の位置及び姿勢並びに視線を取得する方法を説明するための説明図である。 作業者及びヘッドマウントディスプレイ装置に取り付けられたマーカを示す図である。 ヘッドマウントディスプレイ装置の表示画面の一例を示す図である。 ヘッドマウントディスプレイ装置の表示画面の別の一例を示す図である。 映像処理装置の構成を示す図である。 図6に示す映像処理装置の記憶装置の構成を示す図である。 映像処理装置の作動を示すフローチャートである。 映像処理装置の表示制御を示すフローチャートである。 第2実施形態に係る映像処理装置の表示制御を示すフローチャートである。 映像処理装置の表示制御の変形例を説明するための説明図である。
以下、本発明の実施形態について添付図面を参照しながら説明する。
図1は、本発明の第1実施形態に係る映像処理装置を用いて評価する生産ラインにおける作業者の作業を説明するための説明図である。本発明の第1実施形態に係る映像処理装置は、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に作業者の位置及び姿勢並びに視線に応じて、作業者が仮想作業を行う生産ラインの三次元モデルと作業者の三次元モデルとを表示させ、作業者の動作に合わせて作業者の三次元モデルを移動させて生産ラインにおける作業者の作業をシミュレーションし、生産ラインにおける作業者の作業を評価するときに用いられる。
図1に示すように、例えば生産ラインとしての車両組立ライン1における作業対象物としての車両2に対して作業者10が組立作業や締付作業などの作業を行う場合について、生産ライン1における作業者10の作業をシミュレーションし、生産ラインにおける作業者の作業を評価するときに用いられる。
図2は、作業者の位置及び姿勢並びに視線を取得する方法を説明するための説明図である。図2に示すように、前記映像処理装置を用いて生産ラインにおける作業者の作業を評価するときには、作業者が仮想作業を行う現実の三次元空間20に設けられたフレーム21に、複数のカメラ22、具体的には8個のカメラ22が固定される。カメラ22はそれぞれ、カメラ22の位置及び方向がそれぞれ所定位置及び所定方向に予め設定されて固定されている。
現実の三次元空間20には先ず、所定原点位置P1に、T字状に形成された原点設定用具23が配置される。原点設定用具23は、腕部23aの両端部、脚部23bの両端部及び中央部にそれぞれマーカ24が取り付けられている。原点設定用具23は、腕部23aと脚部23bとの交点P2が原点位置P1に一致するように重ねて配置される。マーカ24は、球状の反射マーカなどの既知のマーカが用いられる。
そして、複数のカメラ22によって原点設定用具23が撮像され、複数のカメラ22によって撮像された画像に基づいて原点設定用具23のマーカ24の位置が取得されると共に原点設定用具23のマーカ24の位置から原点位置P1及びXYZ座標系が取得される。例えば原点設定用具23の脚部23bがX軸、腕部23aがY軸、脚部23b及び腕部23aを通る面の法線をZ軸とするXYZ座標系が取得される。現実の三次元空間20において原点位置P1及びXYZ座標系が取得されると、原点設定用具23が取り除かれる。
次に、現実の三次元空間20において作業者30の頭部に装着されたヘッドマウントディスプレイ装置40の表示画面に、仮想の三次元空間に作業者が仮想作業を行う生産ラインにおける作業対象物の三次元モデルを表示させ、仮想の三次元空間の原点位置及びXYZ座標系を現実の三次元空間20の原点位置P1及びXYZ座標系に一致させて位置合わせさせる。
仮想の三次元空間の原点位置及びXYZ座標系を現実の三次元空間20の原点位置P1及びXYZ座標系に位置合わせすることで、ヘッドマウントディスプレイ装置40が装着された作業者30は、仮想の三次元空間に表示される生産ラインとしての車両組立ラインにおける作業対象物としての車両の三次元モデルを現実の三次元空間と同じ位置に仮想的に視認することができる。
ヘッドマウントディスプレイ装置40が装着される作業者30には、作業者30の位置及び姿勢並びに視線を取得するために複数のマーカが取り付けられている。作業者30には、作業者30の位置及び姿勢を取得するためのマーカが取り付けられ、作業者の視線を取得するためのマーカが作業者30の頭部に設けられたヘッドマウントディスプレイ装置40に取り付けられている。
図3は、作業者及びヘッドマウントディスプレイ装置に取り付けられたマーカを示す図である。図3に示すように、作業者30の頭部、両側の肘部、両側の手部、胸部、腰部、両側の膝部及び両側の足部にそれぞれマーカ31が取り付けられると共に、ヘッドマウントディスプレイ装置40にマーカ31が取り付けられている。マーカ31は、球状の反射マーカなどの既知のマーカ31が用いられる。
現実の三次元空間20においてフレーム21に固定された複数のカメラ22によって作業者30が撮像され、複数のカメラ22によって撮像された画像に基づいて作業者30及びヘッドマウントディスプレイ装置40に取り付けられたマーカ31の位置が取得されると共にマーカ31の位置から作業者30の位置及び姿勢並びに視線が取得される。
作業者30の位置及び姿勢並びに視線が取得されると、作業者30の位置及び姿勢並びに視線に応じて仮想の三次元空間に作業者の三次元モデルが生成され、ヘッドマウントディスプレイ装置40の表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物としての車両の三次元モデルに重ねて作業者の三次元モデルが表示される。
図4は、ヘッドマウントディスプレイ装置の表示画面の一例を示す図である。図4に示すように、ヘッドマウントディスプレイ装置40の表示画面41に、生産ラインの作業対象物として車両組立ライン1における車両2の三次元モデルが表示されると共に作業者10の三次元モデルが表示される。
ヘッドマウントディスプレイ装置40の表示画面41には、現実の三次元空間20における作業者30の動作に合わせて作業者10の三次元モデルが移動されて表示され、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される車両2の三次元モデルに重ねて作業者10の三次元モデルが表示される。
図4に示す表示画面41では、車両2の三次元モデルの前部が表示され、車両2のエンジンルーム3内に配置されるエンジン4やバッテリ5などが表示されている。図4ではまた、作業者10の三次元モデルの右側手部11を含む右側腕部12が表示されている。
ヘッドマウントディスプレイ装置40の表示画面41にはまた、図4において斜線ハッチングで示すように、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位としての右側手部11から直線状に延びて右側手部11と車両2の三次元モデルとの間を結んで右側手部11と車両2との距離を可視化する距離可視化部6が表示される。
距離可視化部6は、作業者10の三次元モデルの右側手部11から、具体的には右側手部11の中指部13から直線状に円柱状に棒状に延びる棒状部材として表示される。距離可視化部6は、例えば作業者10の三次元モデルの右側手部11の中指部13と略同径且つ作業者10の三次元モデルの身長の二分の一の長さに形成される。
距離可視化部6は、作業者10の三次元モデルの右側手部11に固定され、現実の三次元空間20において作業者30が右側手部を移動させるときに作業者10の三次元モデルの右側手部11と共に移動される。距離可視化部6は、図4に示すように、車両2と干渉する場合、作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示され、右側手部11と車両2の三次元モデルとの間を結んで距離可視化部6の長さによって右側手部11と車両2との距離を可視化する。
距離可視化部6は、車両2と干渉する場合、距離可視化部6の長さを短くして作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示してもよく、あるいは距離可視化部6における車両2と干渉する部分より手前に車両2の三次元モデルを表示して作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示してもよい。
図5は、ヘッドマウントディスプレイ装置の表示画面の別の一例を示す図である。図4に示す表示画面41に表示される状態から、仮想の三次元空間において作業者10の右側手部11を車両2の三次元モデル側に移動させるように作業者30が右側手部を前方へ移動させると、図5に示すように、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルの右側手部11が車両2の三次元モデル側に移動されて表示される。
作業者10の三次元モデルの右側手部11が移動されて表示されるとき、右側手部11の移動に伴って距離可視化部6も移動されて表示される。距離可視化部6は、車両2と干渉する場合、作業者10の三次元モデルの右側手部11から車両2の三次元モデルまで延びるように表示される。距離可視化部6は、右側手部11と車両2との距離に応じた長さで表示され、図5に示す状態では図4に示す状態に比して短く表示される。
このように、本実施形態に係る映像処理装置では、ヘッドマウントディスプレイ装置40の表示画面41には、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルが表示され、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6が表示される。
図6は、映像処理装置の構成を示す図である。図6に示すように、本発明の第1実施形態に係る映像処理装置50は、現実の三次元空間20を撮像する複数のカメラ22と、作業者30に装着されるヘッドマウントディスプレイ装置40と、カメラ22などから入力される信号に基づいて、ヘッドマウントディスプレイ装置40の表示画面41などに表示させる映像を処理するコンピュータ51とを備えている。
コンピュータ51は、中央演算装置52と、データなどを入力するキーボードなどの入力装置53と、プログラムやデータを記録するメモリなどの記憶装置54とを有すると共に、DVDなどの記録媒体を読み取る読取装置55と、据置型ディスプレイ装置などの表示装置56とを有している。
中央演算装置52は、入力装置53、記憶装置54及び読取装置55などにアクセス可能に構成され、カメラ22から入力された情報と、記憶装置54に記憶されているプログラムやデータを用いて、作業者の作業をシミュレーションするように構成されている。中央演算装置52はまた、ヘッドマウントディスプレイ装置40の表示画面や据置型ディスプレイ装置などの表示装置の表示画面に映像を表示させるように構成されている。
図7は、図6に示す映像処理装置の記憶装置の構成を示す図である。図7に示すように、記憶装置54は、プログラム記憶部とデータ記憶部とを有している。プログラム記憶部には、ヘッドマウントディスプレイ装置40の表示画面などに表示させる映像を処理する映像処理プログラム、作業対象物や作業者などの三次元モデルを生成するモデル生成プログラム、及び作業対象物や作業者などの三次元モデルなどを表示する表示プログラムなどが記憶されている。
データ記憶部には、現実の三次元空間20における原点位置及びXYZ座標系及び仮想の三次元空間における原点位置及びXYZ座標系などの空間条件データ、作業対象物の三次元データである作業対象物データ、作業者の三次元データである作業者データ、カメラ22によって撮像された画像データ、作業者の位置及び姿勢である作業者位置姿勢データ、作業者の視界である作業者視界データ、仮想の三次元空間における作業対象物の三次元モデルの作業対象物モデルデータ、及び仮想の三次元空間における作業者の三次元モデルの作業者モデルデータなどがファイルにそれぞれ記憶されている。
図8は、映像処理装置の動作を示すフローチャートである。図8は、映像処理装置50の映像処理プログラムの動作を示している。映像処理装置50では先ず、原点設定用具23を用い、現実の三次元空間20における原点位置P1及びXYZ座標系が取得され、現実の三次元空間20の原点位置P1及びXYZ座標系に仮想の三次元空間の原点位置及びXYZ座標系が位置合わせされ、現実の三次元空間20の原点位置P1及びXYZ座標系並びに仮想の三次元空間の原点位置及びXYZ座標系が空間条件データとして記憶装置54のデータ記憶部に記憶される。
映像処理装置50ではまた、作業者30が仮想作業を行う作業対象物の三次元形状である作業対象物の三次元データ及び作業者の三次元形状である作業者の三次元データが、入力装置53や読取装置55などを介して入力されてデータ記憶部に記憶される。
空間条件データ、作業対象物及び作業者の三次元データが記憶されると、映像処理装置50では、図8に示すように、データ記憶部に記憶された作業対象物の三次元データが取得され(ステップS1)、データ記憶部に記憶された作業者の三次元データが取得される(ステップS2)。
次に、現実の三次元空間20において仮想作業を行う作業者30が複数のカメラ22によって撮像された画像が取得されてデータ記憶部に記憶されると共に、複数のカメラ22によって撮像された画像に基づいて、現実の三次元空間20における作業者30の位置及び姿勢が取得され(ステップS3)、現実の三次元空間20における作業者30の視線が取得される(ステップS4)。作業者30の位置及び姿勢並びに視線は、作業者30及びヘッドマウントディスプレイ装置40に取り付けられたマーカ31の位置から取得され、取得された作業者30の位置及び姿勢並びに視線データはデータ記憶部に記憶される。
そして、モデル生成プログラムによって、空間条件データ及び作業対象物の三次元データに基づいて仮想の三次元空間における作業対象物2の三次元形状である三次元モデルが生成され(ステップS5)、空間条件データ及び作業者の三次元データ、並びに現実の三次元空間20における作業者30の位置及び姿勢に基づいて仮想の三次元空間における作業者10の三次元形状である三次元モデルが生成される(ステップS6)。図1に示すように、仮想の三次元空間において作業対象物2及び作業者10の三次元モデルが生成され、生成された作業対象物2及び作業者10の三次元モデルデータはデータ記憶部に記憶される。
仮想の三次元空間における作業対象物2及び作業者10の三次元モデルが生成されると、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に、作業対象物2の三次元モデルを表示すると共に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルを表示する表示制御を行う(ステップS7)。
図9は、映像処理装置の表示制御を示すフローチャートである。図9では、映像処理装置50における表示プログラムの動作を示している。図9に示すように、表示プログラムによって、ヘッドマウントディスプレイ装置40の表示画面41に、作業対象物2の三次元モデルを表示させ(ステップS11)、作業者10の三次元モデルを表示させる(ステップS12)。
作業対象物2及び作業者10の三次元モデルは、ステップS5及びS6によって生成された作業対象物2及び作業者10の三次元モデルが作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認されるように表示される。図4及び図5に示すように、作業者30によって仮想的に視認される作業対象物2及び作業者10の三次元モデルが表示される。
次に、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルの手部11から直線状に延びる距離可視化部6を青色などの所定表示色で表示させる(ステップS13)。距離可視化部6は、予め設定された所定長さで円柱状に棒状に延びる棒状部材の三次元モデルとして、作業者30によって仮想的に視認されるように表示され、作業者10の三次元モデルの手部11と共に移動するように表示される。
そして、距離可視化部6が作業対象物2と干渉するか否かが判定される(ステップS14)。仮想の三次元空間において、作業者10の三次元モデルの手部11から延びる距離可視化部6が、作業対象物2の三次元モデルに干渉するか否かが判定される。
ステップS14での判定結果がイエス(YES)である場合、距離可視化部6が作業対象物2と干渉すると判定され、作業者10の三次元モデルの手部11から作業対象物2の三次元モデルまで直線状に延びる距離可視化部6を表示させる(ステップS15)。距離可視化部6は、作業者10の三次元モデルの手部11と車両2の三次元モデルとの間を結んで表示される。
一方、ステップS14の判定結果がノー(NO)である場合、距離可視化部6が作業対象物2と干渉していないと判定され、作業者10の三次元モデルの手部11から直線状に、予め設定された所定長さで延びる距離可視化部6を表示させる。
このように、映像処理装置50は、ヘッドマウントディスプレイ装置40の表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルを表示させ、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6を表示させる。
距離可視化部6は、作業者10の三次元モデルの所定部位11の移動に伴って移動され、作業対象物2の三次元モデルと干渉する場合、作業者10の三次元モデルの所定部位11から作業対象物2の三次元モデルまで延びるように表示される。
映像処理装置50はまた、表示プログラムによって、仮想の三次元空間における作業対象物2の三次元モデルと作業者10の三次元モデルの全体を表示装置56としての据置型ディスプレイ装置の表示画面に表示させるようになっている。これにより、据置型ディスプレイ装置の表示画面に表示された作業者10の三次元モデルから、生産ラインにおける作業者の作業をシミュレーションして作業者30の作業を評価することができる。
本実施形態では、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルの右側手部11から延びる距離可視化部6が表示されているが、作業者10の三次元モデルの左側手部から直線状に延びる距離可視化部を表示するようにしてもよい。
また、作業者30及びヘッドマウントディスプレイ装置40に取り付けられたマーカ31をカメラ22によって撮像する光学式のモーションキャプチャ装置を用いて作業者30の位置及び姿勢並びに視線を取得しているが、機械式や磁気式のモーションキャプチャ装置を用いて作業者の位置及び姿勢並びに視線を取得することも可能である。
また、作業対象物としての車両2が静止した状態で作業者30が仮想作業を行っているが、車両2が移動しながら作業者30が仮想作業を行う場合についても同様に適用することができる。また、車両2に対して作業者30が仮想作業を行っているが、他の作業についても同様に適用することができる。
このように、本実施形態では、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、作業者30の位置及び姿勢並びに視線が取得され、表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルが表示される。そして、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びて前記所定部位11と作業対象物2の三次元モデルとの間を結ぶ距離可視化部6が表示される。
これにより、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6は、作業者10の所定部位11と作業対象物2との距離が短くなるにつれて短く表示することができ、作業者10の所定部位11と作業対象物2との距離に応じた長さで表示することができる。したがって、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、距離可視化部6の長さによって表示画面41に表示される作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができる。
作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができるので、例えば車両組立ラインなどの生産ラインにおける作業者30の作業をシミュレーションして作業者30の作業負担を評価するときに、作業者30が実際の作業対象物2に対して作業を行う場合と同様の作業をシミュレーションすることができ、作業者30の作業負担を精度良く評価することができる。
また、作業者10の三次元モデルの手部11から直線状に延びる距離可視化部6が表示される。これにより、作業対象物2に対して作業者30が手作業で行う作業をシミュレーションするときに、表示画面41に表示される作業者10の手部11と作業対象物2との距離を作業者30に直感的に認識させることができる。
また、直線状に棒状に延びる距離可視化部6が表示される。これにより、作業者10の三次元モデルの所定部位11から直線状に棒状に延びる距離可視化部6を用いて、比較的容易に作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができる。
図10は、第2実施形態に係る映像処理装置の表示制御を示すフローチャートである。第2実施形態に係る映像処理装置は、第1実施形態に係る映像処理装置と表示制御が異なること以外は同様であるので、第1実施形態に係る映像処理装置と異なる部分についてのみ説明する。
図10に示すように、第2実施形態に係る映像処理装置についても、表示制御プログラムによって、ヘッドマウントディスプレイ装置40の表示画面41に、作業対象物2の三次元モデルを表示させ(ステップS11)、作業者10の三次元モデルを表示させ(ステップS12)、作業者10の三次元モデルの手部11から直線状に延びる距離可視化部6を青色の表示色で表示させる(ステップS13)。距離可視化部6は、予め設定された所定長さで円柱状に棒状に延びる棒状部材の三次元モデルとして表示され、作業者10の三次元モデルの手部11と共に移動するように表示される。
そして、距離可視化部6が作業対象物2と干渉するか否かが判定される(ステップS14)。仮想の三次元空間において、作業者10の三次元モデルの手部11から延びる距離可視化部6が、作業対象物2の三次元モデルに干渉するか否かが判定される。
ステップS14での判定結果がイエスである場合、作業者10の三次元モデルの手部11と作業対象物2との距離が所定距離以下、例えば5cm以下であるか否かが判定される(ステップS25)。作業者10の三次元モデルの手部11から作業対象物2まで直線状に延びる距離可視化部6の長さが、予め設定された所定長さより短い所定距離以下であるか否かが判定される。
ステップS25での判定結果がイエスである場合、作業者10の三次元モデルの手部11から作業対象物2まで直線状に延びる距離可視化部6を青色とは異なる表示色である赤色で表示させ(ステップS26)、ステップS25での判定結果がノーである場合、作業者10の三次元モデルの手部11から作業対象物2まで直線状に延びる距離可視化部6を青色で表示させる(ステップS27)。
一方、ステップS14の判定結果がノーである場合、距離可視化部6が作業対象物2と干渉していないと判定され、作業者10の三次元モデルの手部11から直線状に、予め設定された所定長さで延びる距離可視化部6を青色で表示させる。
このように、本実施形態に係る映像処理装置についても、ヘッドマウントディスプレイ装置40の表示画面41に、作業者30の位置及び姿勢並びに視線に応じて作業者30によって仮想的に視認される作業対象物2の三次元モデルに重ねて作業者10の三次元モデルを表示させ、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6を表示させる。
距離可視化部6は、作業者10の三次元モデルの所定部位11の移動に伴って移動され、作業対象物2の三次元モデルと干渉する場合、作業者10の三次元モデルの所定部位11から作業対象物2の三次元モデルまで延びるように表示される。
本実施形態では、作業者10の三次元モデルの所定部位11から直線状に延びる距離可視化部6は青色で表示させ、所定部位11と作業対象物2との距離が所定距離以下になると赤色で表示させ、所定部位11と作業対象物2との距離に応じて距離可視化部6の表示色の変更を行うことにより距離可視化部6の表示形態を変更させる。
このように、本実施形態についても、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11から直線状に延びて前記所定部位11と作業対象物2の三次元モデルとの間を結ぶ距離可視化部6が表示される。
これにより、作業者30に装着されるヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、距離可視化部6の長さによって表示画面41に表示される作業者10の所定部位11と作業対象物2との距離を作業者30に直感的に認識させることができる。
また、作業者10の所定部位11と作業対象物2との距離に応じて距離可視化部6の表示形態が変更される。これにより、距離可視化部6の表示領域を変更することなく、距離可視化部6の表示形態によっても作業者10の所定部位11と作業対象物2との距離を作業者30に認識させることができる。
また、作業者10の所定部位11と作業対象物2との距離に応じて距離可視化部6の表示色の変更を行うことにより距離可視化部6の表示形態が変更される。これにより、比較的容易に距離可視化部6の表示形態を変更することができる。
図11は、映像処理装置の表示制御の変形例を説明するための説明図である。前述した実施形態に係る映像処理装置50において、ヘッドマウントディスプレイ装置40の表示画面41に、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位としての手部11から直線状に延びる距離可視化部6を表示させるときに、図11に示すように、作業者10の三次元モデルの手部11に設けられたペンチなどの保持部材15から直線状に延びる距離可視化部16を表示させるようにすることも可能である。
かかる場合においても、距離可視化部16は、作業者10の三次元モデルの手部11が移動されるときに手部11に固定された保持部材15と共に移動されて表示される。距離可視化部16はまた、作業対象物としての車両2と干渉する場合、作業者10の三次元モデルの手部11に設けられた保持部材15から車両2の三次元モデルまで延びるように表示される。
このように、作業者10の三次元モデルに、作業者10の三次元モデルの所定部位11に設けられた保持部材15から直線状に延びる距離可視化部16が表示されることにより、作業者30に装着されたヘッドマウントディスプレイ装置40の表示画面41に表示させる映像処理において、距離可視化部16の長さによって表示画面41に表示される作業者10の所定部位11に設けられた保持部材15と作業対象物との距離を作業者30に直感的に認識させることができる。
前述した実施形態では、コンピュータ51において、記憶装置54に記録されている映像処理プログラムを用いてヘッドマウントディスプレイ装置40の表示画面41に表示させる映像を処理しているが、例えばDVDなどの光ディスク媒体や磁気テープ媒体などの記録媒体に記録されている映像処理プログラムを用いて、読取装置55を介して映像処理プログラムを読み取ることで、ヘッドマウントディスプレイ装置40の表示画面41に表示させる映像を処理することも可能である。
本発明は、例示された実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、種々の改良及び設計上の変更が可能である。
以上のように、本発明によれば、作業者に装着されたヘッドマウントディスプレイ装置の表示画面に表示される作業者の所定部位と作業対象物との距離を作業者に直感的に認識させることが可能となるから、複合現実を用い、ヘッドマウントディスプレイ装置の表示画面に作業対象物の三次元モデルと作業者の三次元モデルとを作業者の姿勢や視線に合わせて表示させて映像を処理する場合に好適に利用される可能性がある。
2 作業対象物の三次元モデル
6,16 距離可視化部
10 作業者の三次元モデル
11 作業者の三次元モデルの手部
22 カメラ
30 作業者
40 ヘッドマウントディスプレイ装置
41 表示画面
50 映像処理装置
51 コンピュータ

Claims (13)

  1. 作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理方法であって、
    前記作業者の位置及び姿勢を取得する作業者位置姿勢取得ステップと、
    前記作業者の視線を取得する作業者視線取得ステップと、
    前記表示画面に、前記作業者が組立作業又は締付作業における手作業の仮想作業を行う作業対象物の三次元モデルを表示すると共に、前記作業者位置姿勢取得ステップによって取得された前記作業者の位置及び姿勢、並びに前記作業者視線取得ステップによって取得された前記作業者の視線に応じて前記作業者によって仮想的に視認される前記作業対象物の三次元モデルに重ねて前記作業者の三次元モデルを表示する表示制御ステップとを有し、
    前記表示制御ステップでは、前記作業者の三次元モデルに、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示し、
    前記表示制御ステップでは、前記所定部位として前記作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる前記距離可視化部を表示し、
    前記距離可視化部は、前記作業者の三次元モデルの手部又は手部に設けられた保持部材に固定された状態で、前記手部又は手部に設けられた保持部材の移動に伴って、前記手部又は手部に設けられた保持部材と共に移動するように表示され、
    前記表示制御ステップでは、同一表示画面内に、前記作業者の三次元モデルの手部又は手部に設けられた保持部材と、前記作業対象物の三次元モデルとを表示する、
    ことを特徴とする映像処理方法。
  2. 前記表示制御ステップでは、直線状に棒状に延びる前記距離可視化部を表示する、
    ことを特徴とする請求項1に記載の映像処理方法。
  3. 前記表示制御ステップでは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示形態を変更する、
    ことを特徴とする請求項1又は請求項2に記載の映像処理方法。
  4. 前記表示制御ステップでは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示色の変更を行うことにより前記距離可視化部の表示形態を変更する、
    ことを特徴とする請求項3に記載の映像処理方法。
  5. 作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理装置であって、
    前記作業者の位置及び姿勢を取得する作業者位置姿勢取得手段と、
    前記作業者の視線を取得する作業者視線取得手段と、
    前記表示画面に、前記作業者が組立作業又は締付作業における手作業の仮想作業を行う作業対象物の三次元モデルを表示すると共に、前記作業者位置姿勢取得手段によって取得された前記作業者の位置及び姿勢、並びに前記作業者視線取得手段によって取得された前記作業者の視線に応じて前記作業者によって仮想的に視認される前記作業対象物の三次元モデルに重ねて前記作業者の三次元モデルを表示する表示制御手段とを有し、
    前記表示制御手段は、前記作業者の三次元モデルに、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示し、
    前記表示制御手段は、前記所定部位として前記作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる前記距離可視化部を表示し、
    前記距離可視化部は、前記作業者の三次元モデルの手部又は手部に設けられた保持部材に固定された状態で、前記手部又は手部に設けられた保持部材の移動に伴って、前記手部又は手部に設けられた保持部材と共に移動するように表示され、
    前記表示制御手段は、同一表示画面内に、前記作業者の三次元モデルの手部又は手部に設けられた保持部材と、前記作業対象物の三次元モデルとを表示する、
    ことを特徴とする映像処理装置。
  6. 前記表示制御手段は、直線状に棒状に延びる前記距離可視化部を表示する、
    ことを特徴とする請求項5に記載の映像処理装置。
  7. 前記表示制御手段は、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示形態を変更する、
    ことを特徴とする請求項5又は請求項6に記載の映像処理装置。
  8. 前記表示制御手段は、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示色の変更を行うことにより前記距離可視化部の表示形態を変更する、
    ことを特徴とする請求項7に記載の映像処理装置。
  9. 作業者の頭部に装着されたヘッドマウントディスプレイ装置の表示画面に表示させる映像を処理する映像処理プログラムであって、
    コンピュータを、
    前記作業者の位置及び姿勢を取得する作業者位置姿勢取得手段、
    前記作業者の視線を取得する作業者視線取得手段、及び、
    前記表示画面に、前記作業者が組立作業又は締付作業における手作業の仮想作業を行う作業対象物の三次元モデルを表示すると共に、前記作業者位置姿勢取得手段によって取得された前記作業者の位置及び姿勢、並びに前記作業者視線取得手段によって取得された前記作業者の視線に応じて前記作業者によって仮想的に視認される前記作業対象物の三次元モデルに重ねて前記作業者の三次元モデルを表示する表示制御手段として機能させ、
    前記表示制御手段として機能させるときは、前記作業者の三次元モデルに、前記作業者の三次元モデルの所定部位から直線状に延び、前記所定部位と前記作業対象物の三次元モデルとの間を結んで前記所定部位と前記作業対象物との距離を可視化する距離可視化部を表示するように機能させ、
    前記表示制御手段として機能させるときは、前記所定部位として前記作業者の三次元モデルの手部又は手部に設けられた保持部材から直線状に延びる前記距離可視化部を表示し、前記距離可視化部は、前記作業者の三次元モデルの手部又は手部に設けられた保持部材に固定された状態で、前記手部又は手部に設けられた保持部材の移動に伴って、前記手部又は手部に設けられた保持部材と共に移動するように表示されるように機能させ、
    前記表示制御手段として機能させるときは、同一表示画面内に、前記作業者の三次元モデルの手部又は手部に設けられた保持部材と、前記作業対象物の三次元モデルとを表示するように機能させる、
    ことを特徴とする映像処理プログラム。
  10. コンピュータを、前記表示制御手段として機能させるときは、直線状に棒状に延びる前記距離可視化部を表示するように機能させる、
    ことを特徴とする請求項9に記載の映像処理プログラム。
  11. コンピュータを、前記表示制御手段として機能させるときは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示形態を変更するように機能させる、
    ことを特徴とする請求項9又は請求項10に記載の映像処理プログラム。
  12. コンピュータを、前記表示制御手段として機能させるときは、前記所定部位と前記作業対象物との距離に応じて前記距離可視化部の表示色の変更を行うことにより前記距離可視化部の表示形態を変更するように機能させる、
    ことを特徴とする請求項11に記載の映像処理プログラム。
  13. 請求項9から請求項12の何れか1項に記載の映像処理プログラムが記録されている、
    ことを特徴とする記録媒体。
JP2019106966A 2019-06-07 2019-06-07 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体 Active JP7279530B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019106966A JP7279530B2 (ja) 2019-06-07 2019-06-07 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体
EP20818341.8A EP3982354A4 (en) 2019-06-07 2020-06-01 VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, AND RECORDING MEDIA ON WHICH A VIDEO PROCESSING PROGRAM IS RECORDED
CN202080038121.9A CN113853646B (zh) 2019-06-07 2020-06-01 影像处理方法、影像处理装置及记录有影像处理程序的记录介质
PCT/JP2020/021600 WO2020246425A1 (ja) 2019-06-07 2020-06-01 映像処理方法、映像処理装置、及び映像処理プログラムを記録した記録媒体
US17/616,150 US11790624B2 (en) 2019-06-07 2020-06-01 Video processing method, video processing apparatus, and recording medium having video processing program recorded therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019106966A JP7279530B2 (ja) 2019-06-07 2019-06-07 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2020201634A JP2020201634A (ja) 2020-12-17
JP7279530B2 true JP7279530B2 (ja) 2023-05-23

Family

ID=73652531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019106966A Active JP7279530B2 (ja) 2019-06-07 2019-06-07 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体

Country Status (5)

Country Link
US (1) US11790624B2 (ja)
EP (1) EP3982354A4 (ja)
JP (1) JP7279530B2 (ja)
CN (1) CN113853646B (ja)
WO (1) WO2020246425A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間における指示表示及び指示表示方法
JP2017067876A (ja) 2015-09-29 2017-04-06 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
JP2017107349A (ja) 2015-12-09 2017-06-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2019033881A (ja) 2017-08-15 2019-03-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165665A (ja) * 2003-12-02 2005-06-23 Canon Inc 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9886552B2 (en) * 2011-08-12 2018-02-06 Help Lighting, Inc. System and method for image registration of multiple video streams
US9710968B2 (en) * 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
FR3023948B1 (fr) * 2014-07-21 2017-12-22 Airbus Operations Sas Procede d'aide a la maintenance d'un aeronef par realite augmentee.
US10713970B2 (en) * 2015-04-29 2020-07-14 Ivan Banga Driver education system and method for training in simulated road emergencies
JP6586824B2 (ja) 2015-08-27 2019-10-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6253834B1 (ja) 2017-04-11 2017-12-27 大豊精機株式会社 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
US10977868B2 (en) * 2018-06-29 2021-04-13 Factualvr, Inc. Remote collaboration methods and systems
US11288871B2 (en) * 2019-11-08 2022-03-29 Fujifilm Business Innovation Corp. Web-based remote assistance system with context and content-aware 3D hand gesture visualization
US20230106673A1 (en) * 2021-10-06 2023-04-06 Qualcomm Incorporated Vehicle and mobile device interface for vehicle occupant assistance

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間における指示表示及び指示表示方法
JP2017067876A (ja) 2015-09-29 2017-04-06 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、およびコンピュータープログラム
JP2017107349A (ja) 2015-12-09 2017-06-15 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2019033881A (ja) 2017-08-15 2019-03-07 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
US20220254129A1 (en) 2022-08-11
JP2020201634A (ja) 2020-12-17
CN113853646A (zh) 2021-12-28
WO2020246425A1 (ja) 2020-12-10
EP3982354A1 (en) 2022-04-13
CN113853646B (zh) 2024-01-02
EP3982354A4 (en) 2023-05-31
US11790624B2 (en) 2023-10-17

Similar Documents

Publication Publication Date Title
US7236854B2 (en) Method and a system for programming an industrial robot
EP1435280B1 (en) A method and a system for programming an industrial robot
JP5378374B2 (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
US8350897B2 (en) Image processing method and image processing apparatus
JP5791976B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6723738B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4739002B2 (ja) 画像処理方法、画像処理装置
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
JP4966003B2 (ja) 布帛パターンの作成装置と作成方法、作成プログラム
JP6434476B2 (ja) 拡張現実シミュレーション装置及び拡張現実シミュレーションプログラム
JP7182976B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009087161A (ja) 画像処理装置、画像処理方法
JP7129839B2 (ja) 訓練装置、訓練システム、訓練方法、及びプログラム
JP6364389B2 (ja) 検査方法及び検査システム
JP7279530B2 (ja) 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体
JPH1011122A (ja) 情報提示装置
JP7443014B2 (ja) ロボットアーム試験装置
JP6253834B1 (ja) 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2006085375A (ja) 画像処理方法、画像処理装置
JP2011008351A (ja) 画像処理方法及び画像処理装置
JP5594088B2 (ja) 製造ラインの検討システム
JP2007213437A (ja) 情報処理方法、情報処理装置
JP2020012858A (ja) 技能訓練装置、および、技能訓練方法
JP2017049950A (ja) 情報処理装置、情報処理方法、情報処理システム、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R150 Certificate of patent or registration of utility model

Ref document number: 7279530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150