JPH09212219A - 三次元仮想モデル作成装置及び制御対象物の監視制御装置 - Google Patents
三次元仮想モデル作成装置及び制御対象物の監視制御装置Info
- Publication number
- JPH09212219A JPH09212219A JP1621096A JP1621096A JPH09212219A JP H09212219 A JPH09212219 A JP H09212219A JP 1621096 A JP1621096 A JP 1621096A JP 1621096 A JP1621096 A JP 1621096A JP H09212219 A JPH09212219 A JP H09212219A
- Authority
- JP
- Japan
- Prior art keywords
- virtual model
- dimensional
- controlled object
- dimensional virtual
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Testing And Monitoring For Control Systems (AREA)
- Image Processing (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
- Feedback Control In General (AREA)
- Numerical Control (AREA)
Abstract
(57)【要約】
【課題】遠隔操作されるロボット等の三次元的な動作状
況をオペレータに容易に認識させる。 【解決手段】制御対象のロボットをその可動部毎に三次
元空間内でモデル化した図形の形状データに基づいてモ
デル化した図形を表示し、この図形を組み合わせてロボ
ットに対応する三次元仮想モデルを形成する。そして、
この三次元仮想モデルの表示情報を、形状データと、こ
の形状データをもとに三次元仮想モデルの表示情報を形
成するための静的座標変換係数と、形成した三次元仮想
モデルをロボットに配設されたセンサの検出情報に応じ
て移動表示するための変換係数である動的座標変換係数
と、で管理し、ロボットが作動したとき、これに応じて
検出されるセンサの検出情報と、動的変換係数,静的座
標変換係数,形状データ,三次元仮想モデルの視点位
置,方向,レンズ倍率等の条件に基づいて新たな三次元
仮想モデルの表示情報を形成し、これを表示する。
況をオペレータに容易に認識させる。 【解決手段】制御対象のロボットをその可動部毎に三次
元空間内でモデル化した図形の形状データに基づいてモ
デル化した図形を表示し、この図形を組み合わせてロボ
ットに対応する三次元仮想モデルを形成する。そして、
この三次元仮想モデルの表示情報を、形状データと、こ
の形状データをもとに三次元仮想モデルの表示情報を形
成するための静的座標変換係数と、形成した三次元仮想
モデルをロボットに配設されたセンサの検出情報に応じ
て移動表示するための変換係数である動的座標変換係数
と、で管理し、ロボットが作動したとき、これに応じて
検出されるセンサの検出情報と、動的変換係数,静的座
標変換係数,形状データ,三次元仮想モデルの視点位
置,方向,レンズ倍率等の条件に基づいて新たな三次元
仮想モデルの表示情報を形成し、これを表示する。
Description
【0001】
【発明の属する技術分野】本発明は、図形を三次元空間
内で移動表示する三次元仮想モデル作成装置、及びプラ
ントをモデル化して表示した仮想モデルを実際のプラン
トの動作状況に応じて作動させ、この表示された仮想モ
デルに基づいてプラントの遠隔操作,監視等を行う監視
制御装置に関する。
内で移動表示する三次元仮想モデル作成装置、及びプラ
ントをモデル化して表示した仮想モデルを実際のプラン
トの動作状況に応じて作動させ、この表示された仮想モ
デルに基づいてプラントの遠隔操作,監視等を行う監視
制御装置に関する。
【0002】
【従来の技術】従来、プラント内におけるロボット遠隔
コントロール等に代表される、電機システムの運転監視
操作等を行う監視制御装置において、ロボットの遠隔操
作及び動作状況の監視等を行う場合には、例えば制御対
象のロボットをモデル化し、このモデル化したロボット
の、例えば側面図及び上面図を表示装置に表示してい
る。そして、各ロボットの実際の動作状況をセンサ等に
よって検出しその検出情報に基づいて、モデル化したロ
ボットを移動表示させることによって、ロボットの実際
の動作状況と同様に、表示画面上のモデル化したロボッ
トが動作するようになっている。そして、オペレータが
これらモデル化したロボットの、例えば側面図及び上面
図を共にみることによって、ロボットの三次元的な動作
状況を認識し、これに応じてロボットの制御を行うよう
にしている。
コントロール等に代表される、電機システムの運転監視
操作等を行う監視制御装置において、ロボットの遠隔操
作及び動作状況の監視等を行う場合には、例えば制御対
象のロボットをモデル化し、このモデル化したロボット
の、例えば側面図及び上面図を表示装置に表示してい
る。そして、各ロボットの実際の動作状況をセンサ等に
よって検出しその検出情報に基づいて、モデル化したロ
ボットを移動表示させることによって、ロボットの実際
の動作状況と同様に、表示画面上のモデル化したロボッ
トが動作するようになっている。そして、オペレータが
これらモデル化したロボットの、例えば側面図及び上面
図を共にみることによって、ロボットの三次元的な動作
状況を認識し、これに応じてロボットの制御を行うよう
にしている。
【0003】また、監視制御装置では例えばセンサ等か
らの検出情報をもとにロボットの動作状況を監視し、異
常な動作を行った場合には、画面に表示されたロボット
の異常発生箇所に対応する位置を、ブリンク表示した
り、或いは、色を変えて表示する等を行い、オペレータ
に異常箇所を認識させるようにしている。
らの検出情報をもとにロボットの動作状況を監視し、異
常な動作を行った場合には、画面に表示されたロボット
の異常発生箇所に対応する位置を、ブリンク表示した
り、或いは、色を変えて表示する等を行い、オペレータ
に異常箇所を認識させるようにしている。
【0004】
【発明が解決しようとする課題】しかしながら、上記従
来の監視制御装置においては、各ロボットの動作状況を
二次元で表示するようにしているため、オペレータは三
次元で作動するロボットの実際の動作状況を直観的に認
識することが困難であるという未解決の課題がある。そ
のため、監視制御装置を操作するためには、ある程度の
熟練が必要となり、操作することのできるオペレータが
制約されてしまい、使い勝手が悪いという問題もある。
来の監視制御装置においては、各ロボットの動作状況を
二次元で表示するようにしているため、オペレータは三
次元で作動するロボットの実際の動作状況を直観的に認
識することが困難であるという未解決の課題がある。そ
のため、監視制御装置を操作するためには、ある程度の
熟練が必要となり、操作することのできるオペレータが
制約されてしまい、使い勝手が悪いという問題もある。
【0005】そこで、この発明は、上記従来の未解決の
課題に着目してなされたものであり、制御対象物の三次
元的な動作状況を容易に認識することのできる三次元仮
想モデル作成装置及び監視制御装置を提供することを目
的としている。
課題に着目してなされたものであり、制御対象物の三次
元的な動作状況を容易に認識することのできる三次元仮
想モデル作成装置及び監視制御装置を提供することを目
的としている。
【0006】
【課題を解決するための手段】上記目的を達成するため
に、本発明の請求項1に係る三次元仮想モデル作成装置
は、三次元空間内における図形である三次元図形の形状
データをもとに前記三次元図形を画面に表示する三次元
図形表示手段と、当該三次元図形表示手段で表示された
前記三次元図形を、少なくとも1つ以上組み合わせて三
次元仮想モデルを形成する仮想モデル形成手段と、当該
仮想モデル形成手段で形成した三次元仮想モデルを三次
元空間内において表示するための図形表示データを管理
するデータ管理手段と、入力される動的データに応じて
前記データ管理手段で管理する図形表示データを更新す
るデータ更新手段と、当該データ更新手段で更新した図
形表示データに基づき前記三次元仮想モデルを表示する
仮想モデル表示手段と、を備えることを特徴としてい
る。
に、本発明の請求項1に係る三次元仮想モデル作成装置
は、三次元空間内における図形である三次元図形の形状
データをもとに前記三次元図形を画面に表示する三次元
図形表示手段と、当該三次元図形表示手段で表示された
前記三次元図形を、少なくとも1つ以上組み合わせて三
次元仮想モデルを形成する仮想モデル形成手段と、当該
仮想モデル形成手段で形成した三次元仮想モデルを三次
元空間内において表示するための図形表示データを管理
するデータ管理手段と、入力される動的データに応じて
前記データ管理手段で管理する図形表示データを更新す
るデータ更新手段と、当該データ更新手段で更新した図
形表示データに基づき前記三次元仮想モデルを表示する
仮想モデル表示手段と、を備えることを特徴としてい
る。
【0007】したがって、三次元図形の形状データに基
づいて画面表示された三次元図形を例えばオペレータが
その位置、大きさ等を変更しながら組み合わせて三次元
空間内でその動作状況を表示させたい三次元仮想モデル
を形成する。形成された三次元仮想モデルを三次元空間
内で表示するために必要な図形表示データはデータ管理
手段で管理される。そして、三次元仮想モデルを形成す
る各三次元図形の動作状況に応じた動的データが入力さ
れると、この動的データに応じて図形表示データが更新
され、この更新した図形表示データに基づいて三次元仮
想モデルが表示されるから、画面上の三次元仮想モデル
は動的データに応じた量だけずれた位置に表示される。
よって、例えば動的データを連続的に変更することによ
り、三次元仮想モデルは動画表示される。
づいて画面表示された三次元図形を例えばオペレータが
その位置、大きさ等を変更しながら組み合わせて三次元
空間内でその動作状況を表示させたい三次元仮想モデル
を形成する。形成された三次元仮想モデルを三次元空間
内で表示するために必要な図形表示データはデータ管理
手段で管理される。そして、三次元仮想モデルを形成す
る各三次元図形の動作状況に応じた動的データが入力さ
れると、この動的データに応じて図形表示データが更新
され、この更新した図形表示データに基づいて三次元仮
想モデルが表示されるから、画面上の三次元仮想モデル
は動的データに応じた量だけずれた位置に表示される。
よって、例えば動的データを連続的に変更することによ
り、三次元仮想モデルは動画表示される。
【0008】また、本発明の請求項2に係る制御対象物
の監視制御装置は、制御対象物を三次元空間内でモデル
化した三次元仮想モデルを前記制御対象物の動作状況に
応じて作動させ、前記三次元仮想モデルの動作状況に基
づき前記制御対象物の監視制御を行うようにしたことを
特徴としている。したがって、制御対象物を三次元空間
内でモデル化した三次元仮想モデルが、制御対象物の動
作状況に応じて移動表示されるから、三次元仮想モデル
の動作状況を見ることによって、制御対象物の動作状況
を認識することができ、例えば制御対象物が三次元的に
動作する場合でもその動作状況が確実に表示される。
の監視制御装置は、制御対象物を三次元空間内でモデル
化した三次元仮想モデルを前記制御対象物の動作状況に
応じて作動させ、前記三次元仮想モデルの動作状況に基
づき前記制御対象物の監視制御を行うようにしたことを
特徴としている。したがって、制御対象物を三次元空間
内でモデル化した三次元仮想モデルが、制御対象物の動
作状況に応じて移動表示されるから、三次元仮想モデル
の動作状況を見ることによって、制御対象物の動作状況
を認識することができ、例えば制御対象物が三次元的に
動作する場合でもその動作状況が確実に表示される。
【0009】また、請求項3に係る制御対象物の監視制
御装置は、前記制御対象物の動作状況に基づいて前記制
御対象物の異常動作を検出したとき、前記制御対象物の
異常動作の発生箇所に対応する前記三次元仮想モデルの
位置にスポットライトを当てるようにしたことを特徴と
している。したがって、制御対象物の異常動作が検出さ
れたとき、異常動作が発生した箇所に対応する三次元仮
想モデルの位置にスポットライトが当てられ、異常発生
箇所が明示される。
御装置は、前記制御対象物の動作状況に基づいて前記制
御対象物の異常動作を検出したとき、前記制御対象物の
異常動作の発生箇所に対応する前記三次元仮想モデルの
位置にスポットライトを当てるようにしたことを特徴と
している。したがって、制御対象物の異常動作が検出さ
れたとき、異常動作が発生した箇所に対応する三次元仮
想モデルの位置にスポットライトが当てられ、異常発生
箇所が明示される。
【0010】また、請求項4に係る制御対象物の監視制
御装置は、前記制御対象物の動作状況を撮影する監視カ
メラを有し、前記三次元仮想モデルに対する視点方向と
前記監視カメラの前記制御対象物に対する視点方向とが
同一であり、且つ、前記三次元仮想モデルに対応する前
記制御対象物の範囲と前記監視カメラの撮影範囲とが重
なるとき、前記三次元仮想モデルのうち前記監視カメラ
の撮影範囲に該当する位置に、前記監視カメラの撮影映
像を表示するようにしたことを特徴としている。
御装置は、前記制御対象物の動作状況を撮影する監視カ
メラを有し、前記三次元仮想モデルに対する視点方向と
前記監視カメラの前記制御対象物に対する視点方向とが
同一であり、且つ、前記三次元仮想モデルに対応する前
記制御対象物の範囲と前記監視カメラの撮影範囲とが重
なるとき、前記三次元仮想モデルのうち前記監視カメラ
の撮影範囲に該当する位置に、前記監視カメラの撮影映
像を表示するようにしたことを特徴としている。
【0011】したがって、三次元仮想モデルに対する視
点方向と仮想カメラの制御対象物に対する視点方向とが
同一である場合、すなわち、三次元仮想モデルの視点方
向と同一方向から監視カメラが制御対象物を撮影してい
て、三次元仮想モデルと監視カメラの撮影映像とが、制
御対象物を同一方向からみた映像である場合に、三次元
仮想モデルに対応する前記制御対象物の範囲と、監視カ
メラによる撮影範囲とが重なるとき、すなわち、三次元
仮想モデルと監視カメラの撮影映像とが制御対象物の同
一部分を表示している場合には、三次元仮想モデルのう
ち、監視カメラの撮影映像に対応する位置には、監視カ
メラで撮影した制御対象物の実際の動作状況の映像が表
示される。
点方向と仮想カメラの制御対象物に対する視点方向とが
同一である場合、すなわち、三次元仮想モデルの視点方
向と同一方向から監視カメラが制御対象物を撮影してい
て、三次元仮想モデルと監視カメラの撮影映像とが、制
御対象物を同一方向からみた映像である場合に、三次元
仮想モデルに対応する前記制御対象物の範囲と、監視カ
メラによる撮影範囲とが重なるとき、すなわち、三次元
仮想モデルと監視カメラの撮影映像とが制御対象物の同
一部分を表示している場合には、三次元仮想モデルのう
ち、監視カメラの撮影映像に対応する位置には、監視カ
メラで撮影した制御対象物の実際の動作状況の映像が表
示される。
【0012】また、請求項5に係る制御対象物の監視制
御装置は、前記制御対象物の動作状況を撮影する監視カ
メラを有し、前記三次元仮想モデルに対する視点方向と
前記監視カメラの前記制御対象物に対する視点方向とが
同一であり、且つ、前記三次元仮想モデルに対応する前
記制御対象物の範囲と前記監視カメラの撮影範囲とが重
なるとき、前記監視カメラの撮影映像のうち前記三次元
仮想モデルに対応する前記制御対象物の範囲に該当する
位置に、前記三次元仮想モデルを表示するようにしたこ
とを特徴としている。
御装置は、前記制御対象物の動作状況を撮影する監視カ
メラを有し、前記三次元仮想モデルに対する視点方向と
前記監視カメラの前記制御対象物に対する視点方向とが
同一であり、且つ、前記三次元仮想モデルに対応する前
記制御対象物の範囲と前記監視カメラの撮影範囲とが重
なるとき、前記監視カメラの撮影映像のうち前記三次元
仮想モデルに対応する前記制御対象物の範囲に該当する
位置に、前記三次元仮想モデルを表示するようにしたこ
とを特徴としている。
【0013】したがって、監視カメラの撮影映像のう
ち、例えば、物体の陰になる等によって、その向こう側
の動作状況が撮影できない場合等には、物体の陰となる
部分を三次元仮想モデルにより表示するようにすれば、
撮影映像のうち、陰となる部分には三次元仮想モデルが
表示され、監視カメラでは撮影できなかった箇所も表示
される。
ち、例えば、物体の陰になる等によって、その向こう側
の動作状況が撮影できない場合等には、物体の陰となる
部分を三次元仮想モデルにより表示するようにすれば、
撮影映像のうち、陰となる部分には三次元仮想モデルが
表示され、監視カメラでは撮影できなかった箇所も表示
される。
【0014】また、請求項6に係る制御対象物の監視制
御装置は、前記監視カメラの撮影映像内の前記制御対象
物と前記三次元仮想モデルとを同期して表示するように
したことを特徴としている。したがって、監視カメラの
撮影映像内の制御対象物とこの制御対象物に対応する三
次元仮想モデルとは同期して表示されるから、撮影映像
と三次元仮想モデルとが同一画面に表示される場合で
も、制御対象物と三次元仮想モデルとの動作状況がずれ
て表示されることはない。
御装置は、前記監視カメラの撮影映像内の前記制御対象
物と前記三次元仮想モデルとを同期して表示するように
したことを特徴としている。したがって、監視カメラの
撮影映像内の制御対象物とこの制御対象物に対応する三
次元仮想モデルとは同期して表示されるから、撮影映像
と三次元仮想モデルとが同一画面に表示される場合で
も、制御対象物と三次元仮想モデルとの動作状況がずれ
て表示されることはない。
【0015】また、請求項7に係る制御対象物の監視制
御装置は、前記請求項1に記載の三次元仮想モデル作成
装置を適用したことを特徴している。したがって、例え
ば制御対象物を可動部毎にモデル化して三次元空間内に
おける形状データを作成し、この形状データに基づき画
面表示された三次元図形を例えばマウス等によって移動
させて組み合わせ、実際の制御対象物をモデル化した三
次元仮想モデルを形成する。そして、例えば前記可動部
毎に設けたセンサ等からの可動部の移動情報を動的デー
タとすることによって、制御対象物の動作状況に応じ
て、三次元仮想モデルが移動表示され、三次元仮想モデ
ルの動作状況から制御対象物の動作状況が容易に認識で
きる。
御装置は、前記請求項1に記載の三次元仮想モデル作成
装置を適用したことを特徴している。したがって、例え
ば制御対象物を可動部毎にモデル化して三次元空間内に
おける形状データを作成し、この形状データに基づき画
面表示された三次元図形を例えばマウス等によって移動
させて組み合わせ、実際の制御対象物をモデル化した三
次元仮想モデルを形成する。そして、例えば前記可動部
毎に設けたセンサ等からの可動部の移動情報を動的デー
タとすることによって、制御対象物の動作状況に応じ
て、三次元仮想モデルが移動表示され、三次元仮想モデ
ルの動作状況から制御対象物の動作状況が容易に認識で
きる。
【0016】
【発明の実施の形態】以下に、本発明の実施の形態を説
明する。図1は、本発明の第1の実施の形態における、
制御対象物の作動制御及び監視を三次元仮想モデル作成
装置を用いて行う監視制御装置100の一例を示す概略
構成図である。この監視制御装置100は、例えば、図
2に示すように三台のロボットA〜Cの作動制御及び監
視を行うものである。
明する。図1は、本発明の第1の実施の形態における、
制御対象物の作動制御及び監視を三次元仮想モデル作成
装置を用いて行う監視制御装置100の一例を示す概略
構成図である。この監視制御装置100は、例えば、図
2に示すように三台のロボットA〜Cの作動制御及び監
視を行うものである。
【0017】前記監視制御装置100は、マイクロコン
ピュータ,ワークステーション等で構成される三次元仮
想モデル作成装置10と、三次元仮想モデル作成装置1
0に対する入力処理を行うキーボード20,マウス21
等の入力装置と、CRTディスプレイ等の表示装置24
と、制御対象の各部の動作状況を検出するセンサSe
と、制御対象の各部の駆動制御を行うアクチュエータA
cと、を少なくとも備えて形成されている。
ピュータ,ワークステーション等で構成される三次元仮
想モデル作成装置10と、三次元仮想モデル作成装置1
0に対する入力処理を行うキーボード20,マウス21
等の入力装置と、CRTディスプレイ等の表示装置24
と、制御対象の各部の動作状況を検出するセンサSe
と、制御対象の各部の駆動制御を行うアクチュエータA
cと、を少なくとも備えて形成されている。
【0018】そして、前記三次元仮想モデル作成装置1
0は、演算処理部11と、オペレーティングシステム等
のプログラム及びその他必要な情報を記憶するメインメ
モリ12と、画像メモリ13と、外部に設けられたキー
ボード20及びマウス21等との入出力処理を行うイン
タフェース回路14と、これら演算処理部11,メイン
メモリ12,画像メモリ13及びインタフェース回路1
4との間を適宜接続するシステムバス15と、画像メモ
リ13の出力信号を表示装置24に供給するためのイン
タフェース回路16とを少なくとも備えている。
0は、演算処理部11と、オペレーティングシステム等
のプログラム及びその他必要な情報を記憶するメインメ
モリ12と、画像メモリ13と、外部に設けられたキー
ボード20及びマウス21等との入出力処理を行うイン
タフェース回路14と、これら演算処理部11,メイン
メモリ12,画像メモリ13及びインタフェース回路1
4との間を適宜接続するシステムバス15と、画像メモ
リ13の出力信号を表示装置24に供給するためのイン
タフェース回路16とを少なくとも備えている。
【0019】そして、前記演算処理部11には、前述の
センサSeからの検出情報がインタフェース回路14を
介して入力され、演算処理部11からはインタフェース
回路14を介してアクチュエータAcに、制御対象物の
各部を作動させるための制御信号が出力される。この監
視制御装置100のオペレータは、キーボード20やマ
ウス21等を操作して前記ロボットA〜Cを監視及び制
御する監視制御プログラムを演算処理部11に実行させ
るほか、ロボットA〜Cの動作に応じて、これらロボッ
トA〜Cをモデル化した三次元仮想モデルを動作させて
表示する表示処理プログラムを実行させるようになって
いる。
センサSeからの検出情報がインタフェース回路14を
介して入力され、演算処理部11からはインタフェース
回路14を介してアクチュエータAcに、制御対象物の
各部を作動させるための制御信号が出力される。この監
視制御装置100のオペレータは、キーボード20やマ
ウス21等を操作して前記ロボットA〜Cを監視及び制
御する監視制御プログラムを演算処理部11に実行させ
るほか、ロボットA〜Cの動作に応じて、これらロボッ
トA〜Cをモデル化した三次元仮想モデルを動作させて
表示する表示処理プログラムを実行させるようになって
いる。
【0020】つまり、架空の仮想カメラによって三次元
仮想モデルを撮影した仮想映像を表示するようになって
いて、仮想カメラの設置位置、三次元仮想モデルに対す
る方向、レンズ倍率等に応じた仮想映像を表示するよう
になっている。また、この監視制御装置100では、マ
ルチウィンドウシステムが実行されるようになってお
り、表示装置24には、オペレータの操作に応じて監視
制御プログラムの起動及び操作を行う画面及び表示処理
プログラムによる三次元仮想モデルの表示画面等、複数
のウィンドウ画面を同時に表示させることが可能となっ
ている。
仮想モデルを撮影した仮想映像を表示するようになって
いて、仮想カメラの設置位置、三次元仮想モデルに対す
る方向、レンズ倍率等に応じた仮想映像を表示するよう
になっている。また、この監視制御装置100では、マ
ルチウィンドウシステムが実行されるようになってお
り、表示装置24には、オペレータの操作に応じて監視
制御プログラムの起動及び操作を行う画面及び表示処理
プログラムによる三次元仮想モデルの表示画面等、複数
のウィンドウ画面を同時に表示させることが可能となっ
ている。
【0021】そして、メインメモリ12内には、オペレ
ーティングシステム等のプログラムの他に、前記監視制
御プログラム、及び前記表示処理プログラム等その他必
要なプログラムが格納されている。また、予め設定され
た監視制御対象の前記各ロボットA〜Cをベース,アー
ム,ハンド等といった可動部毎にモデル化した可動部モ
デルの可動部毎の名称であるプリミティブ図形名称と、
可動部モデルの三次元空間内における形状を表す形状デ
ータとが対応付けられ、さらに、可動部モデルを組み合
わせて形成される制御対象物(この場合ロボット)の三
次元空間内における三次元仮想モデルを表示するための
表示データを、前記形状データから形成するための静的
座標変換係数と、例えば、ロボットBの場合、ベースb
1 の移動に伴い、ベースb1 に取り付けられたアームb
2 及びアームb2 の先に取り付けられたハンドb4 及び
b5 が移動する等といったこれら可動部間の動的属性
を、図3に示すように階層に別けて管理する子オブジェ
クトリストと、がグループオブジェクト(データ管理手
段)として、例えば図4に示すように、各ロボット毎に
形成されて格納されている。
ーティングシステム等のプログラムの他に、前記監視制
御プログラム、及び前記表示処理プログラム等その他必
要なプログラムが格納されている。また、予め設定され
た監視制御対象の前記各ロボットA〜Cをベース,アー
ム,ハンド等といった可動部毎にモデル化した可動部モ
デルの可動部毎の名称であるプリミティブ図形名称と、
可動部モデルの三次元空間内における形状を表す形状デ
ータとが対応付けられ、さらに、可動部モデルを組み合
わせて形成される制御対象物(この場合ロボット)の三
次元空間内における三次元仮想モデルを表示するための
表示データを、前記形状データから形成するための静的
座標変換係数と、例えば、ロボットBの場合、ベースb
1 の移動に伴い、ベースb1 に取り付けられたアームb
2 及びアームb2 の先に取り付けられたハンドb4 及び
b5 が移動する等といったこれら可動部間の動的属性
を、図3に示すように階層に別けて管理する子オブジェ
クトリストと、がグループオブジェクト(データ管理手
段)として、例えば図4に示すように、各ロボット毎に
形成されて格納されている。
【0022】前記演算処理部11では、キーボード20
やマウス21等の入力装置の操作に基づき監視制御プロ
グラム及び表示処理プログラムを、例えばマルチタスク
等により実行する。そして、メインメモリ12に格納さ
れた、各ロボットA〜Cの前記グループオブジェクトに
基づいて、制御対象としての各ロボットA〜Cを三次元
空間内でモデル化した三次元仮想モデルを画面に表示す
る。そして、表示装置24に表示された三次元仮想モデ
ルにおいて、マウス21等において制御対象のロボット
A〜Cのうちの何れかが指示された場合には、指示され
たロボットを制御するための、例えば、図5に示す設備
コントロール用の操作パネルを表示する。
やマウス21等の入力装置の操作に基づき監視制御プロ
グラム及び表示処理プログラムを、例えばマルチタスク
等により実行する。そして、メインメモリ12に格納さ
れた、各ロボットA〜Cの前記グループオブジェクトに
基づいて、制御対象としての各ロボットA〜Cを三次元
空間内でモデル化した三次元仮想モデルを画面に表示す
る。そして、表示装置24に表示された三次元仮想モデ
ルにおいて、マウス21等において制御対象のロボット
A〜Cのうちの何れかが指示された場合には、指示され
たロボットを制御するための、例えば、図5に示す設備
コントロール用の操作パネルを表示する。
【0023】この操作パネルにおいて、オペレータによ
り、ロボットを作動させるための操作量が入力される
と、演算処理部11では、操作パネルに対応するロボッ
トを、入力された操作量に応じた量だけ作動させるため
の制御信号を形成し、前記ロボットの各可動部を駆動す
るアクチュエータAcに出力する。また、センサSeか
らの検出情報に基づいて各ロボットの動作状況を検出
し、その動作状況に基づいて、例えば、上限値或いは下
限値を越えて作動していないか等の動作状況の監視を行
う。そして、各ロボットの動作状況に関して何らかの異
常を検出した場合には、前記表示装置24の三次元仮想
モデルのうち、異常が発生したロボットの異常発生箇所
に対応する位置にスポットライトを当てて表示し、異常
発生箇所を明示する。
り、ロボットを作動させるための操作量が入力される
と、演算処理部11では、操作パネルに対応するロボッ
トを、入力された操作量に応じた量だけ作動させるため
の制御信号を形成し、前記ロボットの各可動部を駆動す
るアクチュエータAcに出力する。また、センサSeか
らの検出情報に基づいて各ロボットの動作状況を検出
し、その動作状況に基づいて、例えば、上限値或いは下
限値を越えて作動していないか等の動作状況の監視を行
う。そして、各ロボットの動作状況に関して何らかの異
常を検出した場合には、前記表示装置24の三次元仮想
モデルのうち、異常が発生したロボットの異常発生箇所
に対応する位置にスポットライトを当てて表示し、異常
発生箇所を明示する。
【0024】次に、上記第1の実施の形態の動作を説明
する。今、図2に示す三台のロボットA〜Cの監視制御
を行うものとする。ロボットAは例えば垂直に固定され
た軸a1 に対してアームa2 が垂直に取り付けられて軸
a1 にそって上下動又は軸a1 を中心にして回動するこ
とによって、アームa2 に取り付けられた所定の作業を
行う作業部a3 を目的の位置に移動させるようになって
いる。また、ロボットBは、移動可能なベースb1 の上
部にアームb2 が回動自在に取り付けられ、このアーム
b2 にアームb3 が取り付けられている。このアームb
3 はアームb2 との取り付け部を支点として移動可能に
取り付けられている。そして、アームb3 の先端には、
ハンドb4 及びb5 が取り付けられ、ハンドb4 及びb
5 によって物体を挟むことができるようになっている。
ロボットCは、ロボットBと同一であり、ロボットBと
同様に作動し、ベースc1 ,アームc2 及びc3 ,ハン
ドc4 及びc5 で構成されている。
する。今、図2に示す三台のロボットA〜Cの監視制御
を行うものとする。ロボットAは例えば垂直に固定され
た軸a1 に対してアームa2 が垂直に取り付けられて軸
a1 にそって上下動又は軸a1 を中心にして回動するこ
とによって、アームa2 に取り付けられた所定の作業を
行う作業部a3 を目的の位置に移動させるようになって
いる。また、ロボットBは、移動可能なベースb1 の上
部にアームb2 が回動自在に取り付けられ、このアーム
b2 にアームb3 が取り付けられている。このアームb
3 はアームb2 との取り付け部を支点として移動可能に
取り付けられている。そして、アームb3 の先端には、
ハンドb4 及びb5 が取り付けられ、ハンドb4 及びb
5 によって物体を挟むことができるようになっている。
ロボットCは、ロボットBと同一であり、ロボットBと
同様に作動し、ベースc1 ,アームc2 及びc3 ,ハン
ドc4 及びc5 で構成されている。
【0025】オペレータは、予めキーボード20或いは
マウス21を操作して、制御監視対象のロボットA〜C
をモデル化した三次元仮想モデルを表示するための図4
に示すグループオブジェクトを各ロボット毎に作成す
る。例えば、まず、各ロボットA〜Cの可動部毎に三次
元空間内でモデル化した図形である可動部モデル(三次
元図形)を表示するための形状データを作成する。例え
ばロボットB及びCの場合には、ベース,アーム,ハン
ドのそれぞれについて作成する。そして、作成した各ロ
ボットA〜Cの可動部毎の形状データを入力する。演算
処理部11では、入力された形状データに基づいて三次
元空間内における可動部モデルを表示装置24に表示す
る(三次元図形表示手段)。そして、例えば図6に示す
ように、可動部モデルに対する上面図,正面図,側面
図,予め設定した方向からみた図等を参照しながらオペ
レータがマウス21を操作し、画面上で可動部モデルの
移動、或いはスケールの変更等を行い制御対象としての
各ロボットA〜Cに対応した三次元仮想モデルを形成す
る(仮想モデル形成手段)。
マウス21を操作して、制御監視対象のロボットA〜C
をモデル化した三次元仮想モデルを表示するための図4
に示すグループオブジェクトを各ロボット毎に作成す
る。例えば、まず、各ロボットA〜Cの可動部毎に三次
元空間内でモデル化した図形である可動部モデル(三次
元図形)を表示するための形状データを作成する。例え
ばロボットB及びCの場合には、ベース,アーム,ハン
ドのそれぞれについて作成する。そして、作成した各ロ
ボットA〜Cの可動部毎の形状データを入力する。演算
処理部11では、入力された形状データに基づいて三次
元空間内における可動部モデルを表示装置24に表示す
る(三次元図形表示手段)。そして、例えば図6に示す
ように、可動部モデルに対する上面図,正面図,側面
図,予め設定した方向からみた図等を参照しながらオペ
レータがマウス21を操作し、画面上で可動部モデルの
移動、或いはスケールの変更等を行い制御対象としての
各ロボットA〜Cに対応した三次元仮想モデルを形成す
る(仮想モデル形成手段)。
【0026】このようにして形成された三次元仮想モデ
ルに対し、オペレータは各ロボットA〜C毎に、前記グ
ループオブジェクトを設定する。例えば、ロボットBの
場合には、図形オブジェクトとしてはベースb1 ,アー
ムb2 及びb3 ,ハンドb4及びb5 のそれぞれについ
てプリミティブ図形名称を設定し、また、前記各形状デ
ータと前記三次元仮想モデルにおける各可動部の表示情
報とから静的座標変換係数を求め、前記プリミティブ図
形名称と対応付けて静的座標変換係数を設定する。ま
た、子オブジェクトリストとしては、ベースb1 が移動
するとアームb2,b3 及びハンドb4 ,b5 が移動す
るから、図3に示すような階層でなる子オブジェクトリ
ストを作成する。
ルに対し、オペレータは各ロボットA〜C毎に、前記グ
ループオブジェクトを設定する。例えば、ロボットBの
場合には、図形オブジェクトとしてはベースb1 ,アー
ムb2 及びb3 ,ハンドb4及びb5 のそれぞれについ
てプリミティブ図形名称を設定し、また、前記各形状デ
ータと前記三次元仮想モデルにおける各可動部の表示情
報とから静的座標変換係数を求め、前記プリミティブ図
形名称と対応付けて静的座標変換係数を設定する。ま
た、子オブジェクトリストとしては、ベースb1 が移動
するとアームb2,b3 及びハンドb4 ,b5 が移動す
るから、図3に示すような階層でなる子オブジェクトリ
ストを作成する。
【0027】また、各可動部の動作状況、例えば移動量
等を検出するセンサSeからの検出情報に応じて、可動
部モデルの位置情報等の表示情報を更新するための、動
的座標変換係数(データ更新手段)を、既定値を持たな
い変数パラメータとして設定する。これによって、メイ
ンメモリ12に、図4に示すようなグループオブジェク
トが各ロボット毎に形成される。
等を検出するセンサSeからの検出情報に応じて、可動
部モデルの位置情報等の表示情報を更新するための、動
的座標変換係数(データ更新手段)を、既定値を持たな
い変数パラメータとして設定する。これによって、メイ
ンメモリ12に、図4に示すようなグループオブジェク
トが各ロボット毎に形成される。
【0028】この状態から、監視制御装置100による
各ロボットの制御監視を開始する。まず、演算処理部1
1から各ロボットA〜Cを初期状態とする制御信号を出
力し、これによりアクチュエータAcが作動して、各ロ
ボットA〜Cが初期状態となる。そして、図7のフロー
チャートに示すように、まず、オペレータが操作パネル
を入力装置で操作すること等により設定し、所定の記憶
領域に保持されている三次元仮想モデルに対する視点、
すなわち、仮想カメラの位置,方向,レンズ倍率等のカ
メラ条件を読み込み(ステップS11)、次に、ロボッ
トA〜Cの所定の箇所に設けられたセンサSeからの検
出情報を入力する(ステップS12)。そして、カメラ
条件と、センサSeの検出情報と、メインメモリ12に
格納した各グループオブジェクトとに基づいて、センサ
Seの検出情報に応じた動作状況における、ロボットA
〜Cの三次元仮想モデルを指定されたカメラ条件で撮影
した仮想映像を表示する表示情報を形成する(ステップ
S13,仮想モデル表示手段)。
各ロボットの制御監視を開始する。まず、演算処理部1
1から各ロボットA〜Cを初期状態とする制御信号を出
力し、これによりアクチュエータAcが作動して、各ロ
ボットA〜Cが初期状態となる。そして、図7のフロー
チャートに示すように、まず、オペレータが操作パネル
を入力装置で操作すること等により設定し、所定の記憶
領域に保持されている三次元仮想モデルに対する視点、
すなわち、仮想カメラの位置,方向,レンズ倍率等のカ
メラ条件を読み込み(ステップS11)、次に、ロボッ
トA〜Cの所定の箇所に設けられたセンサSeからの検
出情報を入力する(ステップS12)。そして、カメラ
条件と、センサSeの検出情報と、メインメモリ12に
格納した各グループオブジェクトとに基づいて、センサ
Seの検出情報に応じた動作状況における、ロボットA
〜Cの三次元仮想モデルを指定されたカメラ条件で撮影
した仮想映像を表示する表示情報を形成する(ステップ
S13,仮想モデル表示手段)。
【0029】次に、読み込んだセンサSeの検出情報に
基づいて、例えば、アームが予め設定した上限値或いは
下限値を越えた位置に移動してはいないか等の異常監視
を行い(ステップS14)、この場合初期状態であるか
ら異常はないものとして(ステップS15)、ステップ
S13で形成した表示情報をもとに画像情報を形成して
これを画像メモリ13に書き込む(ステップS16)。
これによって、初期状態における各ロボットA〜Cの三
次元仮想モデルを、仮想カメラのカメラ条件として設定
された位置から、設定されたレンズ倍率で撮影した映像
が、例えば図2に示すように表示装置24に表示され
る。この映像を見ることによって、オペレータは、各ロ
ボットA〜Cが初期状態になっていることを認識するこ
とができる。
基づいて、例えば、アームが予め設定した上限値或いは
下限値を越えた位置に移動してはいないか等の異常監視
を行い(ステップS14)、この場合初期状態であるか
ら異常はないものとして(ステップS15)、ステップ
S13で形成した表示情報をもとに画像情報を形成して
これを画像メモリ13に書き込む(ステップS16)。
これによって、初期状態における各ロボットA〜Cの三
次元仮想モデルを、仮想カメラのカメラ条件として設定
された位置から、設定されたレンズ倍率で撮影した映像
が、例えば図2に示すように表示装置24に表示され
る。この映像を見ることによって、オペレータは、各ロ
ボットA〜Cが初期状態になっていることを認識するこ
とができる。
【0030】この状態から、例えば、オペレータが表示
装置24において、ロボットAに対応する位置をマウス
21で指示すること等によって選択すると、選択された
ロボットに対応する操作パネルがウィンドウ表示され
る。この場合ロボットAを選択したので、例えば図5に
示すような、ロボットAに対応する操作パネルが表示さ
れる。
装置24において、ロボットAに対応する位置をマウス
21で指示すること等によって選択すると、選択された
ロボットに対応する操作パネルがウィンドウ表示され
る。この場合ロボットAを選択したので、例えば図5に
示すような、ロボットAに対応する操作パネルが表示さ
れる。
【0031】そして、この操作パネルにおいて、オペレ
ータがアームa2 の上下動指示或いはアームa2 の回動
指示等をキーボード20,マウス21等によって設定す
ることによって、演算処理部11では設定値に応じた量
だけアームa2 を移動させるためのアクチュエータAc
に対する制御信号を形成し、これを出力する。これによ
って、アクチュエータAcが作動し制御信号に応じた量
だけ各可動部を移動させる。この可動部の動きをセンサ
Seが検出し、その検出情報が演算処理部11に入力さ
れると、演算処理部11では、この検出情報及び仮想カ
メラのカメラ条件を読み込み(ステップS11,S1
2)、その検出情報と、前記グループオブジェクトとに
基づいて前記と同様に表示情報を形成する(ステップS
13)。また、同様にしてセンサSeの検出情報に基づ
いて異常監視処理を行う(ステップS14)。
ータがアームa2 の上下動指示或いはアームa2 の回動
指示等をキーボード20,マウス21等によって設定す
ることによって、演算処理部11では設定値に応じた量
だけアームa2 を移動させるためのアクチュエータAc
に対する制御信号を形成し、これを出力する。これによ
って、アクチュエータAcが作動し制御信号に応じた量
だけ各可動部を移動させる。この可動部の動きをセンサ
Seが検出し、その検出情報が演算処理部11に入力さ
れると、演算処理部11では、この検出情報及び仮想カ
メラのカメラ条件を読み込み(ステップS11,S1
2)、その検出情報と、前記グループオブジェクトとに
基づいて前記と同様に表示情報を形成する(ステップS
13)。また、同様にしてセンサSeの検出情報に基づ
いて異常監視処理を行う(ステップS14)。
【0032】このとき、異常がなければ上記と同様に表
示情報に基づいて画像情報を形成しこれを画像メモリ1
3に書き込むことにより、表示装置24には実際のロボ
ットの動作状況と同様に動作した三次元仮想モデルが表
示される。そして、異常が発生した場合には、表示情報
をもとに三次元仮想モデルの、異常発生箇所に対応する
位置にスポットライトを当てる画像情報を形成し(ステ
ップS17)、これを画像メモリ13に書き込む。これ
によって、表示装置24には、異常発生箇所にスポット
ライトが当てられた三次元仮想モデルが表示され、異常
発生箇所が明示される。
示情報に基づいて画像情報を形成しこれを画像メモリ1
3に書き込むことにより、表示装置24には実際のロボ
ットの動作状況と同様に動作した三次元仮想モデルが表
示される。そして、異常が発生した場合には、表示情報
をもとに三次元仮想モデルの、異常発生箇所に対応する
位置にスポットライトを当てる画像情報を形成し(ステ
ップS17)、これを画像メモリ13に書き込む。これ
によって、表示装置24には、異常発生箇所にスポット
ライトが当てられた三次元仮想モデルが表示され、異常
発生箇所が明示される。
【0033】この操作を例えば、予め設定した所定周期
毎に実施することによって、表示装置24には、制御対
象のロボットをモデル化した三次元仮想モデルが、実際
のロボットA〜Cの動作状況と同様に作動する動画表示
されることになる。よって、オペレータはこの動画を見
ることによって、制御対象のロボットA〜Cの動作状況
を容易に把握することができ、このとき、三次元表示さ
れているから、各ロボットA〜Cの三次元的な動作状況
をも容易に認識することができる。
毎に実施することによって、表示装置24には、制御対
象のロボットをモデル化した三次元仮想モデルが、実際
のロボットA〜Cの動作状況と同様に作動する動画表示
されることになる。よって、オペレータはこの動画を見
ることによって、制御対象のロボットA〜Cの動作状況
を容易に把握することができ、このとき、三次元表示さ
れているから、各ロボットA〜Cの三次元的な動作状況
をも容易に認識することができる。
【0034】よって、例えば遠隔制御等を行う場合で
も、各ロボットの動作状況を確実に認識することができ
るから、ロボット制御の精度を向上させることができ、
ロボットを用いたシステムの処理効率及び処理性能をよ
り向上させることができる。また、ロボットの動作状況
の異常を検出した場合には、スポットライトを当てて表
示するようにしているが、三次元表示ではスポットライ
トを当てる処理は標準機能であって、従来のように例え
ば異常発生箇所をブリンク表示等させて明示するために
新たな処理機能を追加することはなく、三次元表示処理
における標準機能によって異常発生箇所を容易に明示す
ることができる。また、新たに処理機能を追加すること
なく実現することができるから、より安価に実現するこ
とができる。
も、各ロボットの動作状況を確実に認識することができ
るから、ロボット制御の精度を向上させることができ、
ロボットを用いたシステムの処理効率及び処理性能をよ
り向上させることができる。また、ロボットの動作状況
の異常を検出した場合には、スポットライトを当てて表
示するようにしているが、三次元表示ではスポットライ
トを当てる処理は標準機能であって、従来のように例え
ば異常発生箇所をブリンク表示等させて明示するために
新たな処理機能を追加することはなく、三次元表示処理
における標準機能によって異常発生箇所を容易に明示す
ることができる。また、新たに処理機能を追加すること
なく実現することができるから、より安価に実現するこ
とができる。
【0035】次に、本発明の第2の実施の形態を説明す
る。この第2の実施の形態は上記第1の実施の形態にお
いて、監視制御対象としての各ロボットの動作状況を撮
影する監視カメラを設け、表示装置24にこの監視カメ
ラの映像も表示するようにしたものである。図8は、第
2の実施の形態における監視制御装置100の一例を示
す概略構成図であって、上記第1の実施の形態の構成に
おいて、監視カメラ25及びこの監視カメラの位置、撮
影方向、レンズ倍率等のカメラ条件を遠隔操作により変
更するための、演算処理部11からの制御信号に応じて
指定されたカメラ条件に監視カメラ25のカメラ条件を
変更するカメラ操作部26とが追加されたこと以外は同
様である。
る。この第2の実施の形態は上記第1の実施の形態にお
いて、監視制御対象としての各ロボットの動作状況を撮
影する監視カメラを設け、表示装置24にこの監視カメ
ラの映像も表示するようにしたものである。図8は、第
2の実施の形態における監視制御装置100の一例を示
す概略構成図であって、上記第1の実施の形態の構成に
おいて、監視カメラ25及びこの監視カメラの位置、撮
影方向、レンズ倍率等のカメラ条件を遠隔操作により変
更するための、演算処理部11からの制御信号に応じて
指定されたカメラ条件に監視カメラ25のカメラ条件を
変更するカメラ操作部26とが追加されたこと以外は同
様である。
【0036】この第2の実施の形態における演算処理部
11では、オペレータが入力装置を操作することによっ
て監視カメラ25の撮影方向,位置,レンズ倍率等のカ
メラ条件を設定すると、この設定情報に応じて監視カメ
ラ25の操作を行うカメラ操作部26に対する制御信号
を生成し、これを出力する。これに応じてカメラ操作部
26が作動し、制御信号に応じて、監視カメラ25の撮
影方向,位置,レンズ倍率等のカメラ条件を変更する。
11では、オペレータが入力装置を操作することによっ
て監視カメラ25の撮影方向,位置,レンズ倍率等のカ
メラ条件を設定すると、この設定情報に応じて監視カメ
ラ25の操作を行うカメラ操作部26に対する制御信号
を生成し、これを出力する。これに応じてカメラ操作部
26が作動し、制御信号に応じて、監視カメラ25の撮
影方向,位置,レンズ倍率等のカメラ条件を変更する。
【0037】また、演算処理部11では、上記第1の実
施の形態と同様に、監視対象の各ロボットの可動部毎に
モデル化した可動部モデルの形状データをもとに、ロボ
ットをモデル化した仮想モデルを形成し、この仮想モデ
ルを表示するためのグループオブジェクトを生成して管
理する。そして、上記第1の実施形態と同様にして図7
のフローチャートに基づいて、グループオブジェクトと
各センサSeからの検出情報に基づいて三次元仮想モデ
ルを動画表示する。
施の形態と同様に、監視対象の各ロボットの可動部毎に
モデル化した可動部モデルの形状データをもとに、ロボ
ットをモデル化した仮想モデルを形成し、この仮想モデ
ルを表示するためのグループオブジェクトを生成して管
理する。そして、上記第1の実施形態と同様にして図7
のフローチャートに基づいて、グループオブジェクトと
各センサSeからの検出情報に基づいて三次元仮想モデ
ルを動画表示する。
【0038】このとき、現場のロボットA〜Cに対する
監視カメラ25の撮影方向と、表示装置24に表示され
た三次元仮想モデルに対する仮想カメラの撮影方向とが
同一であり、且つ、表示装置24に表示されている三次
元仮想モデルに対応する実際のロボットA〜Cの撮影範
囲と、監視カメラで撮影しているロボットA〜Cの撮影
範囲とに重なる部分があるとき、撮影範囲の大きい方の
映像をベース表示画面として表示装置24に表示し、こ
のとき撮影範囲の大きい方の映像のうち、撮影範囲が小
さい方のカメラで撮影している範囲に該当する部分には
撮影範囲が小さい方のカメラで撮影した映像を表示す
る。
監視カメラ25の撮影方向と、表示装置24に表示され
た三次元仮想モデルに対する仮想カメラの撮影方向とが
同一であり、且つ、表示装置24に表示されている三次
元仮想モデルに対応する実際のロボットA〜Cの撮影範
囲と、監視カメラで撮影しているロボットA〜Cの撮影
範囲とに重なる部分があるとき、撮影範囲の大きい方の
映像をベース表示画面として表示装置24に表示し、こ
のとき撮影範囲の大きい方の映像のうち、撮影範囲が小
さい方のカメラで撮影している範囲に該当する部分には
撮影範囲が小さい方のカメラで撮影した映像を表示す
る。
【0039】つまり、仮想カメラと監視カメラとのロボ
ットA〜Cに対する撮影方向が同一角度であり、且つ、
例えば、仮想カメラで撮影している三次元仮想モデル、
すなわち、表示装置24に表示されている三次元仮想モ
デルが実際のロボットA〜Cの全体に対応していて、監
視カメラ25では、ロボットAのベースa1 を撮影して
いる場合には、三次元仮想モデルをベース表示画面とし
て表示装置24に表示し、このとき、三次元仮想モデル
のロボットAのベースa1 に対応する画面上の領域に
は、監視カメラ25で撮影したロボットAのベースa1
の映像を表示する。そして、重なる領域がない場合に
は、上記第1の実施の形態と同様にして仮想カメラによ
る撮影映像を表示装置24に表示する。
ットA〜Cに対する撮影方向が同一角度であり、且つ、
例えば、仮想カメラで撮影している三次元仮想モデル、
すなわち、表示装置24に表示されている三次元仮想モ
デルが実際のロボットA〜Cの全体に対応していて、監
視カメラ25では、ロボットAのベースa1 を撮影して
いる場合には、三次元仮想モデルをベース表示画面とし
て表示装置24に表示し、このとき、三次元仮想モデル
のロボットAのベースa1 に対応する画面上の領域に
は、監視カメラ25で撮影したロボットAのベースa1
の映像を表示する。そして、重なる領域がない場合に
は、上記第1の実施の形態と同様にして仮想カメラによ
る撮影映像を表示装置24に表示する。
【0040】次に、上記第2の実施の形態の動作を、第
2の実施の形態における監視制御処理の処理手順を示す
図9のフローチャートに基づいて説明する。この第2の
実施の形態における監視制御処理は図7に示す上記第1
の実施の形態における監視制御処理において、ステップ
S13aの処理が追加されたこと以外は同様であり、同
一処理には同一符号を付与しその詳細な説明は省略す
る。
2の実施の形態における監視制御処理の処理手順を示す
図9のフローチャートに基づいて説明する。この第2の
実施の形態における監視制御処理は図7に示す上記第1
の実施の形態における監視制御処理において、ステップ
S13aの処理が追加されたこと以外は同様であり、同
一処理には同一符号を付与しその詳細な説明は省略す
る。
【0041】上記第1の実施の形態と同様に、図2に示
すロボットA〜Cの監視制御を行うものとする。上記と
同様にキーボード20,マウス21等を操作し、制御監
視対象のロボットA〜Cをモデル化した三次元仮想モデ
ルを表示するためのグループオブジェクトを各ロボット
毎に作成する。この状態から、監視制御装置100によ
る各ロボットの制御監視を開始し、各ロボットA〜Cを
初期状態に制御する。
すロボットA〜Cの監視制御を行うものとする。上記と
同様にキーボード20,マウス21等を操作し、制御監
視対象のロボットA〜Cをモデル化した三次元仮想モデ
ルを表示するためのグループオブジェクトを各ロボット
毎に作成する。この状態から、監視制御装置100によ
る各ロボットの制御監視を開始し、各ロボットA〜Cを
初期状態に制御する。
【0042】そして、上記第1の実施の形態と同様に、
図9のフローチャートにしたがって、所定の記憶領域に
保持している仮想カメラの位置,方向,レンズ倍率など
のカメラ条件及びロボットA〜Cの所定の箇所に設けら
れたセンサSeからの検出情報を読み込み(ステップS
11,S12)、これら読み込んだ情報とメインメモリ
12に格納した各グループオブジェクトとに基づいて、
センサSeの検出情報に応じた位置における、ロボット
の三次元仮想モデルを表示する表示情報を形成する(ス
テップS13)。
図9のフローチャートにしたがって、所定の記憶領域に
保持している仮想カメラの位置,方向,レンズ倍率など
のカメラ条件及びロボットA〜Cの所定の箇所に設けら
れたセンサSeからの検出情報を読み込み(ステップS
11,S12)、これら読み込んだ情報とメインメモリ
12に格納した各グループオブジェクトとに基づいて、
センサSeの検出情報に応じた位置における、ロボット
の三次元仮想モデルを表示する表示情報を形成する(ス
テップS13)。
【0043】そして、図10に示す重ねあわせ処理を実
行して所定の表示情報を形成し(ステップS13a)、
続いて、読み込んだセンサSeの検出情報に基づいて、
異常監視を行い(ステップS14)、異常がなければ、
形成した表示情報をもとに画像情報を形成してこれを画
像メモリ13に書き込む(ステップS16)。これによ
って、初期状態における各ロボットの三次元仮想モデル
が表示装置24に表示される。
行して所定の表示情報を形成し(ステップS13a)、
続いて、読み込んだセンサSeの検出情報に基づいて、
異常監視を行い(ステップS14)、異常がなければ、
形成した表示情報をもとに画像情報を形成してこれを画
像メモリ13に書き込む(ステップS16)。これによ
って、初期状態における各ロボットの三次元仮想モデル
が表示装置24に表示される。
【0044】そして、オペレータが操作パネルにおいて
各ロボットA〜Cを制御する設定を行うと、設定された
値に応じた制御信号がアクチュエータAcが作動して、
指定されたロボットが作動する。このロボットの動作状
況がセンサSeにより検出され、その検出情報が演算処
理部11に入力されると、演算処理部11では、この検
出情報及び仮想カメラのカメラ条件を読み込み(ステッ
プS11,S12)、その検出情報,カメラ条件,前記
グループオブジェクトに基づいて前記と同様に表示情報
を形成する(ステップS13)。さらに、重ねあわせ処
理を実行して所定の表示情報を形成し(ステップS13
a)、これをもとに画像情報を形成して画像メモリ13
に書き込む。これによって、表示装置24には実際のロ
ボットの動作状況と同様に作動した三次元仮想モデルが
表示される。
各ロボットA〜Cを制御する設定を行うと、設定された
値に応じた制御信号がアクチュエータAcが作動して、
指定されたロボットが作動する。このロボットの動作状
況がセンサSeにより検出され、その検出情報が演算処
理部11に入力されると、演算処理部11では、この検
出情報及び仮想カメラのカメラ条件を読み込み(ステッ
プS11,S12)、その検出情報,カメラ条件,前記
グループオブジェクトに基づいて前記と同様に表示情報
を形成する(ステップS13)。さらに、重ねあわせ処
理を実行して所定の表示情報を形成し(ステップS13
a)、これをもとに画像情報を形成して画像メモリ13
に書き込む。これによって、表示装置24には実際のロ
ボットの動作状況と同様に作動した三次元仮想モデルが
表示される。
【0045】そして、前記ステップS13aの重ねあわ
せ処理では、図10のフローチャートに示すように、オ
ペレータの入力装置の操作等により、監視カメラ25の
位置,方向,レンズ倍率等のカメラ条件が更新されたか
否かを判定する(ステップS21)。そして、カメラ条
件が更新された場合には、カメラ条件から決定される、
図11に示すような、投影限界及び投影範囲を示す矩形
(以後表示対象面という。)中心とカメラ位置とを結ぶ
ベクトルを表すカメラ角度情報θ1 と、表示対象面の各
頂点とカメラ位置とを結ぶベクトルで囲まれた範囲を表
す監視カメラ25の視点ピミッドとを算出し所定の記憶
領域に保持する(ステップS22)。そして、オペレー
タの入力装置の操作等によって仮想カメラのカメラ条件
が更新されたかどうかを判断する(ステップS23)。
せ処理では、図10のフローチャートに示すように、オ
ペレータの入力装置の操作等により、監視カメラ25の
位置,方向,レンズ倍率等のカメラ条件が更新されたか
否かを判定する(ステップS21)。そして、カメラ条
件が更新された場合には、カメラ条件から決定される、
図11に示すような、投影限界及び投影範囲を示す矩形
(以後表示対象面という。)中心とカメラ位置とを結ぶ
ベクトルを表すカメラ角度情報θ1 と、表示対象面の各
頂点とカメラ位置とを結ぶベクトルで囲まれた範囲を表
す監視カメラ25の視点ピミッドとを算出し所定の記憶
領域に保持する(ステップS22)。そして、オペレー
タの入力装置の操作等によって仮想カメラのカメラ条件
が更新されたかどうかを判断する(ステップS23)。
【0046】なお、監視カメラ25のカメラ条件が変更
されない場合には、カメラ角度情報の算出等は行わずそ
のまま次の処理に移行する。そして、オペレータの操作
等によって仮想カメラの操作が行われ、仮想カメラのカ
メラ条件が更新された場合には、上記と同様にして、カ
メラ条件から仮想カメラのカメラ角度情報θ2 を算出し
所定の記憶領域に保持する(ステップS24)。カメラ
条件が更新されない場合にはそのまま次の処理に移行す
る。
されない場合には、カメラ角度情報の算出等は行わずそ
のまま次の処理に移行する。そして、オペレータの操作
等によって仮想カメラの操作が行われ、仮想カメラのカ
メラ条件が更新された場合には、上記と同様にして、カ
メラ条件から仮想カメラのカメラ角度情報θ2 を算出し
所定の記憶領域に保持する(ステップS24)。カメラ
条件が更新されない場合にはそのまま次の処理に移行す
る。
【0047】次に、上記のようにして算出し所定の記憶
領域に保持している監視カメラ25及び仮想カメラのカ
メラ角度情報が一致するか否かを判断する(ステップS
25)。そして、例えば、制御対象物としてのロボット
A〜Cを監視カメラが撮影している面とは逆の面を仮想
カメラが撮影している場合等、監視カメラ及び仮想カメ
ラのカメラ角度情報が一致しない場合には、重ねあわせ
処理を終了する。したがって、表示装置24には、上記
第1の実施に形態と同様に、ロボットA〜Cの動作状況
に応じて作動する三次元仮想モデルが表示される。
領域に保持している監視カメラ25及び仮想カメラのカ
メラ角度情報が一致するか否かを判断する(ステップS
25)。そして、例えば、制御対象物としてのロボット
A〜Cを監視カメラが撮影している面とは逆の面を仮想
カメラが撮影している場合等、監視カメラ及び仮想カメ
ラのカメラ角度情報が一致しない場合には、重ねあわせ
処理を終了する。したがって、表示装置24には、上記
第1の実施に形態と同様に、ロボットA〜Cの動作状況
に応じて作動する三次元仮想モデルが表示される。
【0048】そして、例えば、監視カメラ25及び仮想
カメラが同一位置から各ロボットA〜Cの同一位置を焦
点として撮影している場合には、監視カメラ25及び仮
想カメラのカメラ条件に基づいて算出した各カメラ角度
情報θ1 ,θ2 は一致するから(ステップS25)、次
に、仮想カメラ及び監視カメラ25の各カメラ条件に基
づいて、仮想カメラの撮影映像と同一の倍率の撮影映像
となる位置を算出し、これをレンズ倍率補正済み監視カ
メラ位置とする。なお、このレンズ倍率補正済み監視カ
メラ位置は、監視カメラ25のカメラ角度情報で決定さ
れる、監視カメラ25の位置と監視カメラ25の焦点位
置とを結ぶ角度ベクトル上に位置するものする。
カメラが同一位置から各ロボットA〜Cの同一位置を焦
点として撮影している場合には、監視カメラ25及び仮
想カメラのカメラ条件に基づいて算出した各カメラ角度
情報θ1 ,θ2 は一致するから(ステップS25)、次
に、仮想カメラ及び監視カメラ25の各カメラ条件に基
づいて、仮想カメラの撮影映像と同一の倍率の撮影映像
となる位置を算出し、これをレンズ倍率補正済み監視カ
メラ位置とする。なお、このレンズ倍率補正済み監視カ
メラ位置は、監視カメラ25のカメラ角度情報で決定さ
れる、監視カメラ25の位置と監視カメラ25の焦点位
置とを結ぶ角度ベクトル上に位置するものする。
【0049】そして、算出したレンズ倍率補正済み監視
カメラ位置から、前記角度ベクトルと垂直な任意の表示
対象面までのレンズ倍率補正済み監視カメラの視点ピラ
ミッドP1 と、仮想カメラ位置から同一の表示対象面ま
での仮想カメラの視点ピラミッドP2 とを算出する(ス
テップS26)。次いで、例えば、レンズ倍率補正済監
視カメラの視点ピラミッドの各面が他方の視点ピラミッ
ドの各面と交差した回数に基づき、交差した回数が1回
であれば、これら視点ピラミッドは重なっており、2回
であれば重なっていないと判断すること等によって、両
視点ピラミッドに重なる部分があるかどうかを判定し
(ステップS27)、重なり部分がない場合には、重ね
あわせ処理を終了する。これによって、上記第1の実施
の形態と同様に、表示装置24には、ロボットA〜Cの
動作状況に応じて作動する三次元仮想モデルが表示され
る。
カメラ位置から、前記角度ベクトルと垂直な任意の表示
対象面までのレンズ倍率補正済み監視カメラの視点ピラ
ミッドP1 と、仮想カメラ位置から同一の表示対象面ま
での仮想カメラの視点ピラミッドP2 とを算出する(ス
テップS26)。次いで、例えば、レンズ倍率補正済監
視カメラの視点ピラミッドの各面が他方の視点ピラミッ
ドの各面と交差した回数に基づき、交差した回数が1回
であれば、これら視点ピラミッドは重なっており、2回
であれば重なっていないと判断すること等によって、両
視点ピラミッドに重なる部分があるかどうかを判定し
(ステップS27)、重なり部分がない場合には、重ね
あわせ処理を終了する。これによって、上記第1の実施
の形態と同様に、表示装置24には、ロボットA〜Cの
動作状況に応じて作動する三次元仮想モデルが表示され
る。
【0050】そして、これら両視点ピラミッドに重なり
部分がある場合には、例えばオペレータの入力装置等か
らの指示に基づき、両カメラのうちどちらの視点でオペ
レータは操作を行うかを判定する(ステップS28)。
そして、例えば、図11に示すように仮想カメラの情報
をベースにオペレータが操作を行う場合には、センサS
eの検出情報と、メインメモリ12に保持しているグル
ープオブジェクトと仮想カメラのカメラ条件とをもとに
形成した三次元仮想モデルの表示情報をベース表示画面
の表示情報とする(ステップS29)。
部分がある場合には、例えばオペレータの入力装置等か
らの指示に基づき、両カメラのうちどちらの視点でオペ
レータは操作を行うかを判定する(ステップS28)。
そして、例えば、図11に示すように仮想カメラの情報
をベースにオペレータが操作を行う場合には、センサS
eの検出情報と、メインメモリ12に保持しているグル
ープオブジェクトと仮想カメラのカメラ条件とをもとに
形成した三次元仮想モデルの表示情報をベース表示画面
の表示情報とする(ステップS29)。
【0051】そして、レンズ倍率補正済み監視カメラの
視点ピラミッドP1 とベース表示画面のサイズとに基づ
いて、仮想カメラの視点ピラミッドP2 の表示対象面上
での、レンズ倍率補正済み監視カメラの視点ピラミッド
P1 の表示対象面の頂点と対応する位置を重ねあわせの
基準点とし、この基準点を含む視点ピラミッドP2 の表
示対象面上での視点ピラミッドP1 の表示対象面のサイ
ズをベース表示画面サイズに適合する座標データに変換
することによって、監視カメラ25による映像とベース
表示画面とを重ねる場合の重ねあわせの基準点と監視カ
メラ25による映像のサイズとを算出する(ステップS
30)。
視点ピラミッドP1 とベース表示画面のサイズとに基づ
いて、仮想カメラの視点ピラミッドP2 の表示対象面上
での、レンズ倍率補正済み監視カメラの視点ピラミッド
P1 の表示対象面の頂点と対応する位置を重ねあわせの
基準点とし、この基準点を含む視点ピラミッドP2 の表
示対象面上での視点ピラミッドP1 の表示対象面のサイ
ズをベース表示画面サイズに適合する座標データに変換
することによって、監視カメラ25による映像とベース
表示画面とを重ねる場合の重ねあわせの基準点と監視カ
メラ25による映像のサイズとを算出する(ステップS
30)。
【0052】次いで、求めた重ねあわせのサイズに基づ
いて監視カメラ25による映像をサイズ変換して表示情
報を形成し、形成した表示情報を求めた重ねあわせの基
準点で指定される、ベース表示画面の表示情報の対応す
る位置に設定し、これを新たに三次元仮想モデルの表示
情報とする(ステップS31)。なお、このとき、監視
カメラ25による映像は、センサSeの検出情報を読み
込んだ時点の撮影映像を用いるものとする。
いて監視カメラ25による映像をサイズ変換して表示情
報を形成し、形成した表示情報を求めた重ねあわせの基
準点で指定される、ベース表示画面の表示情報の対応す
る位置に設定し、これを新たに三次元仮想モデルの表示
情報とする(ステップS31)。なお、このとき、監視
カメラ25による映像は、センサSeの検出情報を読み
込んだ時点の撮影映像を用いるものとする。
【0053】これによって、例えば、図11(a)に示
すように、カメラ角度情報θ1 及びθ2 は一致するが、
各カメラ位置とカメラの焦点位置とを結ぶ角度ベクトル
とが一致せず、レンズ倍率補正済み監視カメラの視点ピ
ラミッドP1 が仮想カメラの視点ピラミッドP2 の右下
方に位置する場合には、仮想カメラをベースに設定すれ
ば、例えば図12に示すように、仮想カメラによる三次
元仮想モデルからなるベース表示画面のうち、右下方の
位置には、監視カメラ25による現場の映像が表示装置
24に表示される。
すように、カメラ角度情報θ1 及びθ2 は一致するが、
各カメラ位置とカメラの焦点位置とを結ぶ角度ベクトル
とが一致せず、レンズ倍率補正済み監視カメラの視点ピ
ラミッドP1 が仮想カメラの視点ピラミッドP2 の右下
方に位置する場合には、仮想カメラをベースに設定すれ
ば、例えば図12に示すように、仮想カメラによる三次
元仮想モデルからなるベース表示画面のうち、右下方の
位置には、監視カメラ25による現場の映像が表示装置
24に表示される。
【0054】また、例えば、図11(b)に示すよう
に、監視カメラ25と仮想カメラの角度ベクトルが一致
する場合には、仮想カメラをベースに設定すれば、表示
装置24の中央部分に監視カメラ25の撮影映像が表示
されることになる。一方、仮想カメラ及びレンズ倍率補
正済み監視カメラ25の両視点ピラミッドP1 及びP2
に重なり部分があり、例えば、図13に示すように、レ
ンズ倍率補正済み監視カメラの情報をベースにオペレー
タが操作を行う場合には(ステップS27,S28)、
監視カメラ25の撮影映像の映像情報をベース表示画面
の表示情報として設定する(ステップS32)。そし
て、仮想カメラの視点ピラミッドと、ベース表示画面の
サイズとに基づいて、レンズ倍率補正済監視カメラの視
点ピラミッドP1 の表示対象面上での、仮想カメラの視
点ピラミッドP2 の表示対象面の頂点と対応する位置を
重ねあわせの基準点とし、この基準点を含む視点ピラミ
ッドP1 の表示対象面上でのピラミッドP2 の表示対象
面のサイズをベース表示画面サイズに適合する座標デー
タに変換することによって、仮想カメラによる映像と、
ベース表示画面とを重ねる場合の重ねあわせの基準点
と、仮想カメラによる映像のサイズとを算出する(ステ
ップS33)。
に、監視カメラ25と仮想カメラの角度ベクトルが一致
する場合には、仮想カメラをベースに設定すれば、表示
装置24の中央部分に監視カメラ25の撮影映像が表示
されることになる。一方、仮想カメラ及びレンズ倍率補
正済み監視カメラ25の両視点ピラミッドP1 及びP2
に重なり部分があり、例えば、図13に示すように、レ
ンズ倍率補正済み監視カメラの情報をベースにオペレー
タが操作を行う場合には(ステップS27,S28)、
監視カメラ25の撮影映像の映像情報をベース表示画面
の表示情報として設定する(ステップS32)。そし
て、仮想カメラの視点ピラミッドと、ベース表示画面の
サイズとに基づいて、レンズ倍率補正済監視カメラの視
点ピラミッドP1 の表示対象面上での、仮想カメラの視
点ピラミッドP2 の表示対象面の頂点と対応する位置を
重ねあわせの基準点とし、この基準点を含む視点ピラミ
ッドP1 の表示対象面上でのピラミッドP2 の表示対象
面のサイズをベース表示画面サイズに適合する座標デー
タに変換することによって、仮想カメラによる映像と、
ベース表示画面とを重ねる場合の重ねあわせの基準点
と、仮想カメラによる映像のサイズとを算出する(ステ
ップS33)。
【0055】次いで、求めた重ねあわせのサイズに基づ
いて仮想カメラによる映像をサイズ変換して表示情報を
形成し、形成した表示情報を求めた重ねあわせの基準点
で指定される、ベース表示画面の表示情報の対応する位
置に設定し、これを新たに、三次元仮想モデルの表示情
報として設定する(ステップS34)。なお、監視カメ
ラ25の撮影映像は、センサSeの検出情報を読み込ん
だ時点での撮影映像を用いるものとする。
いて仮想カメラによる映像をサイズ変換して表示情報を
形成し、形成した表示情報を求めた重ねあわせの基準点
で指定される、ベース表示画面の表示情報の対応する位
置に設定し、これを新たに、三次元仮想モデルの表示情
報として設定する(ステップS34)。なお、監視カメ
ラ25の撮影映像は、センサSeの検出情報を読み込ん
だ時点での撮影映像を用いるものとする。
【0056】これによって、例えば、図13に示すよう
に、カメラ角度情報θ1 及びθ2 は一致するが、各カメ
ラ位置とカメラの焦点位置とを結ぶ角度ベクトルが一致
せず、レンズ倍率補正済み監視カメラの視点ピラミッド
の右下方に仮想カメラの視点ピラミッドP2 が含まれる
場合には、監視カメラをベースに設定すれば、監視カメ
ラ25の映像からなるベース表示画面の右下方に、仮想
カメラによる映像、すなわち、三次元仮想モデルが表示
されることになる。
に、カメラ角度情報θ1 及びθ2 は一致するが、各カメ
ラ位置とカメラの焦点位置とを結ぶ角度ベクトルが一致
せず、レンズ倍率補正済み監視カメラの視点ピラミッド
の右下方に仮想カメラの視点ピラミッドP2 が含まれる
場合には、監視カメラをベースに設定すれば、監視カメ
ラ25の映像からなるベース表示画面の右下方に、仮想
カメラによる映像、すなわち、三次元仮想モデルが表示
されることになる。
【0057】したがって、例えば、監視カメラ25によ
る撮影範囲が、仮想カメラによる撮影範囲内に含まれる
場合には、仮想カメラをベースとして設定すれば、三次
元仮想モデルのうち監視カメラ25の撮影範囲に対応す
る位置には、図12に示すように、監視カメラ25によ
る映像が表示されるから、監視カメラ25の映像を表示
することによって、監視カメラ25の撮影映像による、
より詳細な動作状況をオペレータに認識させることがで
きる。
る撮影範囲が、仮想カメラによる撮影範囲内に含まれる
場合には、仮想カメラをベースとして設定すれば、三次
元仮想モデルのうち監視カメラ25の撮影範囲に対応す
る位置には、図12に示すように、監視カメラ25によ
る映像が表示されるから、監視カメラ25の映像を表示
することによって、監視カメラ25の撮影映像による、
より詳細な動作状況をオペレータに認識させることがで
きる。
【0058】また、例えば、ロボットA〜Cの全体の動
作状況を表示している状態で、ロボットCの実際の動作
状況を見たい場合等には、監視カメラ25を操作して、
ロボットCの所望とする箇所を撮影するように操作する
ことによって、三次元仮想モデルではなく、現場におけ
る実際のロボットA〜Cの動作状況を容易に表示するこ
とができる。
作状況を表示している状態で、ロボットCの実際の動作
状況を見たい場合等には、監視カメラ25を操作して、
ロボットCの所望とする箇所を撮影するように操作する
ことによって、三次元仮想モデルではなく、現場におけ
る実際のロボットA〜Cの動作状況を容易に表示するこ
とができる。
【0059】また、例えば、仮想カメラによる撮影範囲
が、監視カメラ25による撮影範囲に含まれる場合に
は、監視カメラ25をベースとして設定すれば、監視カ
メラ25の撮影映像のうち、仮想カメラによる撮影範囲
に対応する位置には、仮想カメラによる映像が表示され
るから、例えば、監視カメラ25による映像において、
ロボットCのハンドc4 及びc5 の動作状況を表示装置
24において監視したい場合等に、監視カメラ25の設
置位置の関係で、ロボットCのハンドc4 及びc 5 の動
作状況がロボットAの陰となって見えない場合等には、
仮想カメラを操作して、ハンドc4 及びc5 が撮影可能
な位置に仮想カメラを配置して撮影することによって、
監視カメラ25の撮影映像において、仮想カメラc4 及
びc5 に該当する位置には仮想カメラによる撮影映像、
すなわち、三次元仮想モデルが表示されるから、監視カ
メラ25により撮影不可能な箇所の動作状況も容易に認
識することができる。
が、監視カメラ25による撮影範囲に含まれる場合に
は、監視カメラ25をベースとして設定すれば、監視カ
メラ25の撮影映像のうち、仮想カメラによる撮影範囲
に対応する位置には、仮想カメラによる映像が表示され
るから、例えば、監視カメラ25による映像において、
ロボットCのハンドc4 及びc5 の動作状況を表示装置
24において監視したい場合等に、監視カメラ25の設
置位置の関係で、ロボットCのハンドc4 及びc 5 の動
作状況がロボットAの陰となって見えない場合等には、
仮想カメラを操作して、ハンドc4 及びc5 が撮影可能
な位置に仮想カメラを配置して撮影することによって、
監視カメラ25の撮影映像において、仮想カメラc4 及
びc5 に該当する位置には仮想カメラによる撮影映像、
すなわち、三次元仮想モデルが表示されるから、監視カ
メラ25により撮影不可能な箇所の動作状況も容易に認
識することができる。
【0060】また、三次元仮想モデルと撮影映像の映像
情報とをもとに新たに表示情報を形成する場合には、セ
ンサSeから検出情報を読み込んだ時点での監視カメラ
25の撮影映像を用いて重ねあわせを行うようにし、三
次元仮想モデルと撮影映像とを同期させて表示するよう
にしたから、例えばこれら三次元仮想モデル及び撮影映
像が同一の制御対象物を表している場合に、互いの動作
がずれて表示されることはない。
情報とをもとに新たに表示情報を形成する場合には、セ
ンサSeから検出情報を読み込んだ時点での監視カメラ
25の撮影映像を用いて重ねあわせを行うようにし、三
次元仮想モデルと撮影映像とを同期させて表示するよう
にしたから、例えばこれら三次元仮想モデル及び撮影映
像が同一の制御対象物を表している場合に、互いの動作
がずれて表示されることはない。
【0061】また、上記第1及び第2の実施の形態で
は、三次元仮想モデル作成装置10を用いることによっ
て、制御対象物を三次元空間内でモデル化した三次元仮
想モデルを、制御対象物の動作状況に応じて作動させる
ようにしたから、オペレータは三次元仮想モデルの動作
状況から制御対象物の三次元的な動作状況を容易に認識
することができ、また、従来のように、制御対象物を二
次元で表した図、例えば、上面図と側面図とからその三
次元的な動作状況を認識する必要がないから、経験の浅
いオペレータでも容易に制御対象物の動作状況を認識す
ることができ、監視制御装置100の使い勝手をより向
上させることができる。
は、三次元仮想モデル作成装置10を用いることによっ
て、制御対象物を三次元空間内でモデル化した三次元仮
想モデルを、制御対象物の動作状況に応じて作動させる
ようにしたから、オペレータは三次元仮想モデルの動作
状況から制御対象物の三次元的な動作状況を容易に認識
することができ、また、従来のように、制御対象物を二
次元で表した図、例えば、上面図と側面図とからその三
次元的な動作状況を認識する必要がないから、経験の浅
いオペレータでも容易に制御対象物の動作状況を認識す
ることができ、監視制御装置100の使い勝手をより向
上させることができる。
【0062】また、三次元仮想モデル作成装置10で
は、予め制御対象物をモデル化した仮想モデルを登録し
ておき、センサSeの検出信号に応じて三次元仮想モデ
ルを作動させるようにしたから、例えば、センサSeの
検出信号に変えて、例えばシミュレーション用の信号を
入力すれば、表示装置24において三次元仮想モデルを
シミュレーション値に応じて作動させることができ、ま
た、仮想モデルを登録することによって、任意の三次元
仮想モデルを容易に作成することができる。
は、予め制御対象物をモデル化した仮想モデルを登録し
ておき、センサSeの検出信号に応じて三次元仮想モデ
ルを作動させるようにしたから、例えば、センサSeの
検出信号に変えて、例えばシミュレーション用の信号を
入力すれば、表示装置24において三次元仮想モデルを
シミュレーション値に応じて作動させることができ、ま
た、仮想モデルを登録することによって、任意の三次元
仮想モデルを容易に作成することができる。
【0063】なお、上記第2の実施の形態においては、
仮想カメラと監視カメラの視点ピラミッドとの間に重な
り部分がある場合には、仮想カメラの映像と監視カメラ
の映像とを複合して表示するようにした場合について説
明したが、例えば、入力装置により選択することによっ
て、仮想カメラの映像のみ、或いは監視カメラの映像の
みを表示させるようにすることも可能である。
仮想カメラと監視カメラの視点ピラミッドとの間に重な
り部分がある場合には、仮想カメラの映像と監視カメラ
の映像とを複合して表示するようにした場合について説
明したが、例えば、入力装置により選択することによっ
て、仮想カメラの映像のみ、或いは監視カメラの映像の
みを表示させるようにすることも可能である。
【0064】
【発明の効果】以上説明したように、請求項1に係る三
次元仮想モデル作成装置によれば、予め設定した三次元
空間内における三次元仮想モデルの図形表示データを、
動的データに応じて更新するようにしたから、動的デー
タに応じて仮想モデルが移動して表示されることになっ
て、動的データに応じた仮想モデルの動画を容易に表示
することができ、例えば動的データとして、制御対象の
動作状況を表すデータ又はシミュレーション用のデータ
を設定することにより、制御対象の動作状況に応じた動
画或いはシミュレーション用のデータに応じた動画を容
易に表示することができる。
次元仮想モデル作成装置によれば、予め設定した三次元
空間内における三次元仮想モデルの図形表示データを、
動的データに応じて更新するようにしたから、動的デー
タに応じて仮想モデルが移動して表示されることになっ
て、動的データに応じた仮想モデルの動画を容易に表示
することができ、例えば動的データとして、制御対象の
動作状況を表すデータ又はシミュレーション用のデータ
を設定することにより、制御対象の動作状況に応じた動
画或いはシミュレーション用のデータに応じた動画を容
易に表示することができる。
【0065】また、請求項2に係る監視制御装置によれ
ば、制御対象物をモデル化した三次元仮想モデルを、制
御対象物の動作状況に応じて作動して表示するようにし
たから三次元仮想モデルの動作状況を見ることによっ
て、制御対象物の動作状況を認識することができ、制御
対象物が三次元的に動作する場合でもその動作状況を容
易に認識することができる。
ば、制御対象物をモデル化した三次元仮想モデルを、制
御対象物の動作状況に応じて作動して表示するようにし
たから三次元仮想モデルの動作状況を見ることによっ
て、制御対象物の動作状況を認識することができ、制御
対象物が三次元的に動作する場合でもその動作状況を容
易に認識することができる。
【0066】また、請求項3に係る監視制御装置によれ
ば、制御対象物の異常動作が検出されたとき、異常動作
が発生した箇所に対応する三次元仮想モデルの位置にス
ポットライトを当てるようにしたから、従来のように新
たに処理機能を追加することなく異常発生箇所を容易に
明示することができる。また、請求項4に係る監視制御
装置によれば、三次元仮想モデルに対する視点方向と同
一方向から監視カメラが制御対象物を撮影しているとき
には、三次元仮想モデルのうち、監視カメラの撮影映像
に対応する位置には、監視カメラの撮影映像を表示する
ようにしたから、例えば三次元仮想モデルにおいて、よ
り詳細な映像を見たい部分等を監視カメラにより撮影す
ることによって、三次元仮想モデルのうち所望の部分
に、監視カメラによるより詳細な映像を表示させること
ができる。
ば、制御対象物の異常動作が検出されたとき、異常動作
が発生した箇所に対応する三次元仮想モデルの位置にス
ポットライトを当てるようにしたから、従来のように新
たに処理機能を追加することなく異常発生箇所を容易に
明示することができる。また、請求項4に係る監視制御
装置によれば、三次元仮想モデルに対する視点方向と同
一方向から監視カメラが制御対象物を撮影しているとき
には、三次元仮想モデルのうち、監視カメラの撮影映像
に対応する位置には、監視カメラの撮影映像を表示する
ようにしたから、例えば三次元仮想モデルにおいて、よ
り詳細な映像を見たい部分等を監視カメラにより撮影す
ることによって、三次元仮想モデルのうち所望の部分
に、監視カメラによるより詳細な映像を表示させること
ができる。
【0067】また、請求項5に係る監視制御装置によれ
ば、監視カメラの撮影映像のうち、例えば、物体の陰に
なる等によって、その向こう側の動作状況が撮影できな
い場合等には、撮影映像のうちの陰となる部分には、三
次元仮想モデルからなる映像が表示されるから、監視カ
メラでは撮影できない箇所の動作状況も容易確実に表示
することができる。
ば、監視カメラの撮影映像のうち、例えば、物体の陰に
なる等によって、その向こう側の動作状況が撮影できな
い場合等には、撮影映像のうちの陰となる部分には、三
次元仮想モデルからなる映像が表示されるから、監視カ
メラでは撮影できない箇所の動作状況も容易確実に表示
することができる。
【0068】また、請求項6に係る監視制御装置によれ
ば、監視カメラの撮影映像内の制御対象物とこの制御対
象物に対応する三次元仮想モデルとは同期して表示され
るから、撮影映像と三次元仮想モデルとが重ねて表示さ
れる場合でも、制御対象物と三次元仮想モデルとの動作
状況がずれて表示されることを防止することができる。
ば、監視カメラの撮影映像内の制御対象物とこの制御対
象物に対応する三次元仮想モデルとは同期して表示され
るから、撮影映像と三次元仮想モデルとが重ねて表示さ
れる場合でも、制御対象物と三次元仮想モデルとの動作
状況がずれて表示されることを防止することができる。
【0069】さらに、請求項7に係る監視制御装置によ
れば、制御対象物を可動部毎にモデル化して三次元空間
内における形状データを作成し、この形状データに基づ
き画面表示された三次元図形を例えばマウス等によって
移動させて組み合わせ、実際の制御対象物をモデル化し
た三次元仮想モデルを形成し、可動部毎に設けたセンサ
等からの可動部の移動情報を動的データとすることによ
って、任意の制御対象物の動作状況と同様に動作する三
次元仮想モデルを容易に表示させることができ、三次元
仮想モデルの動作状況から、制御対象物の三次元的な動
作状況をも容易に認識することができる。
れば、制御対象物を可動部毎にモデル化して三次元空間
内における形状データを作成し、この形状データに基づ
き画面表示された三次元図形を例えばマウス等によって
移動させて組み合わせ、実際の制御対象物をモデル化し
た三次元仮想モデルを形成し、可動部毎に設けたセンサ
等からの可動部の移動情報を動的データとすることによ
って、任意の制御対象物の動作状況と同様に動作する三
次元仮想モデルを容易に表示させることができ、三次元
仮想モデルの動作状況から、制御対象物の三次元的な動
作状況をも容易に認識することができる。
【図1】第1の実施の形態における、三次元仮想モデル
作成装置を適用した監視制御装置の一例を示す概略構成
図である。
作成装置を適用した監視制御装置の一例を示す概略構成
図である。
【図2】制御対象のロボットの三次元仮想モデルの一例
である。
である。
【図3】子オブジェクトリストの一例である。
【図4】グループオブジェクトの一例である。
【図5】操作パネルの一例である。
【図6】三次元仮想モデル作成時の動作説明に供する説
明図である。
明図である。
【図7】第1の実施の形態における演算処理部11の監
視制御処理の処理手順の一例を示すフローチャートであ
る。
視制御処理の処理手順の一例を示すフローチャートであ
る。
【図8】第2の実施の形態における監視制御装置の一例
を示す概略構成図である。
を示す概略構成図である。
【図9】第2の実施の形態における演算処理部11の監
視制御処理の処理手順の一例を示すフローチャートであ
る。
視制御処理の処理手順の一例を示すフローチャートであ
る。
【図10】重ねあわせ処理の処理手順の一例を示すフロ
ーチャートである。
ーチャートである。
【図11】第2の実施の形態における動作説明に供する
説明図である。
説明図である。
【図12】第2の実施の形態における表示装置24に表
示される画像の一例である。
示される画像の一例である。
【図13】第2の実施の形態における表示装置24に表
示される画像の一例である。
示される画像の一例である。
11 演算処理部 12 メインメモリ 13 画像メモリ 14 インタフェース回路 15 内部バス 16 インタフェース回路 20 キーボード 21 マウス 24 表示装置 25 監視カメラ Se センサ Ac アクチュエータ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 17/00 G06F 15/62 350A 1/00 380
Claims (7)
- 【請求項1】三次元空間内における図形である三次元図
形の形状データをもとに前記三次元図形を画面に表示す
る三次元図形表示手段と、当該三次元図形表示手段で表
示された前記三次元図形を、少なくとも1つ以上組み合
わせて三次元仮想モデルを形成する仮想モデル形成手段
と、当該仮想モデル形成手段で形成した三次元仮想モデ
ルを三次元空間内において表示するための図形表示デー
タを管理するデータ管理手段と、入力される動的データ
に応じて前記データ管理手段で管理する図形表示データ
を更新するデータ更新手段と、当該データ更新手段で更
新した図形表示データに基づき前記三次元仮想モデルを
表示する仮想モデル表示手段と、を備えることを特徴と
する三次元仮想モデル作成装置。 - 【請求項2】制御対象物を三次元空間内でモデル化した
三次元仮想モデルを前記制御対象物の動作状況に応じて
作動させ、前記三次元仮想モデルの動作状況に基づき前
記制御対象物の監視制御を行うようにしたことを特徴と
する制御対象物の監視制御装置。 - 【請求項3】前記制御対象物の動作状況に基づいて前記
制御対象物の異常動作を検出したとき、前記制御対象物
の異常動作の発生箇所に対応する前記三次元仮想モデル
の位置にスポットライトを当てるようにしたことを特徴
とする請求項2記載の制御対象物の監視制御装置。 - 【請求項4】前記制御対象物の動作状況を撮影する監視
カメラを有し、前記三次元仮想モデルに対する視点方向
と前記監視カメラの前記制御対象物に対する視点方向と
が同一であり、且つ、前記三次元仮想モデルに対応する
前記制御対象物の範囲と前記監視カメラの撮影範囲とが
重なるとき、前記三次元仮想モデルのうち前記監視カメ
ラの撮影範囲に該当する位置に、前記監視カメラの撮影
映像を表示するようにしたことを特徴とする請求項2又
は3記載の制御対象物の監視制御装置。 - 【請求項5】前記制御対象物の動作状況を撮影する監視
カメラを有し、前記三次元仮想モデルに対する視点方向
と前記監視カメラの前記制御対象物に対する視点方向と
が同一であり、且つ、前記三次元仮想モデルに対応する
前記制御対象物の範囲と前記監視カメラの撮影範囲とが
重なるとき、前記監視カメラの撮影映像のうち前記三次
元仮想モデルに対応する前記制御対象物の範囲に該当す
る位置に、前記三次元仮想モデルを表示するようにした
ことを特徴とする請求項2又は3記載の制御対象物の監
視制御装置。 - 【請求項6】前記監視カメラの撮影映像内の前記制御対
象物と前記三次元仮想モデルとを同期して表示するよう
にしたことを特徴とする請求項4又は5記載の制御対象
物の監視制御装置。 - 【請求項7】請求項1に記載の三次元仮想モデル作成装
置を適用したことを特徴とする請求項2乃至6の何れか
に記載の制御対象物の監視制御装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1621096A JPH09212219A (ja) | 1996-01-31 | 1996-01-31 | 三次元仮想モデル作成装置及び制御対象物の監視制御装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1621096A JPH09212219A (ja) | 1996-01-31 | 1996-01-31 | 三次元仮想モデル作成装置及び制御対象物の監視制御装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09212219A true JPH09212219A (ja) | 1997-08-15 |
Family
ID=11910169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1621096A Pending JPH09212219A (ja) | 1996-01-31 | 1996-01-31 | 三次元仮想モデル作成装置及び制御対象物の監視制御装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09212219A (ja) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209569A (ja) * | 1999-01-19 | 2000-07-28 | Oki Electric Ind Co Ltd | 遠隔監視装置および遠隔監視方法ならびに遠隔監視システム |
JP2000259236A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
JP2000259242A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置及び方法 |
JP2000259230A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
JP2000259233A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
JP2000259232A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
WO2003063087A1 (fr) * | 2002-01-25 | 2003-07-31 | Iwane Laboratories, Ltd. | Systeme de travail automatique |
JP2004291174A (ja) * | 2003-03-27 | 2004-10-21 | Denso Corp | ロボット、ロボット対話装置及びプログラム |
US7002585B1 (en) * | 1999-10-12 | 2006-02-21 | Fanuc Ltd | Graphic display apparatus for robot system |
JP2007128500A (ja) * | 2005-10-31 | 2007-05-24 | Internatl Business Mach Corp <Ibm> | マシン・モニタリング・インターフェース及びマシン動作のモニタ方法(画像ベースのプリンタ・システム・モニタ) |
WO2008026723A1 (fr) * | 2006-09-01 | 2008-03-06 | Mori Seiki Co., Ltd. | Procédé de confirmation de données de modèle tridimensionnel, et appareil de confirmation de données de modèle tridimensionnel |
JP2008111770A (ja) * | 2006-10-31 | 2008-05-15 | Makino Milling Mach Co Ltd | 測定表示方法及び測定表示装置を備えた機械 |
JP2009266221A (ja) * | 2008-04-21 | 2009-11-12 | Mori Seiki Co Ltd | 加工シミュレーション方法及び加工シミュレーション装置 |
WO2013136930A1 (ja) * | 2012-03-15 | 2013-09-19 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム |
CN105666505A (zh) * | 2014-12-08 | 2016-06-15 | 发那科株式会社 | 具备扩展现实对应显示器的机器人系统 |
JP6088679B1 (ja) * | 2016-02-19 | 2017-03-01 | ファナック株式会社 | カメラの画像により故障を判定するロボットシステムの故障診断装置 |
WO2017033360A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操縦マニピュレータシステム及びその運転方法 |
WO2019064915A1 (ja) * | 2017-09-26 | 2019-04-04 | 日本電産株式会社 | ロボット教示装置 |
WO2019064919A1 (ja) * | 2017-09-26 | 2019-04-04 | 日本電産株式会社 | ロボット教示装置 |
JP2019177477A (ja) * | 2010-11-19 | 2019-10-17 | ファナック アメリカ コーポレイション | 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置 |
JP2019212041A (ja) * | 2018-06-05 | 2019-12-12 | ファナック株式会社 | 仮想オブジェクト表示システム |
JP6991396B1 (ja) * | 2020-12-28 | 2022-01-14 | 三菱電機株式会社 | 表示装置、制御システムおよび作画方法 |
CN114683288A (zh) * | 2022-05-07 | 2022-07-01 | 法奥意威(苏州)机器人系统有限公司 | 机器人展示和控制方法、装置及电子设备 |
JP7179238B1 (ja) * | 2022-03-23 | 2022-11-28 | 三菱電機株式会社 | 表示データ生成プログラム、表示データ生成装置及び表示データ生成方法 |
-
1996
- 1996-01-31 JP JP1621096A patent/JPH09212219A/ja active Pending
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209569A (ja) * | 1999-01-19 | 2000-07-28 | Oki Electric Ind Co Ltd | 遠隔監視装置および遠隔監視方法ならびに遠隔監視システム |
JP2000259236A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
JP2000259242A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置及び方法 |
JP2000259230A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
JP2000259233A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
JP2000259232A (ja) * | 1999-03-11 | 2000-09-22 | Ishikawajima Harima Heavy Ind Co Ltd | プラント運転監視支援装置 |
US7002585B1 (en) * | 1999-10-12 | 2006-02-21 | Fanuc Ltd | Graphic display apparatus for robot system |
WO2003063087A1 (fr) * | 2002-01-25 | 2003-07-31 | Iwane Laboratories, Ltd. | Systeme de travail automatique |
JP2004291174A (ja) * | 2003-03-27 | 2004-10-21 | Denso Corp | ロボット、ロボット対話装置及びプログラム |
JP2007128500A (ja) * | 2005-10-31 | 2007-05-24 | Internatl Business Mach Corp <Ibm> | マシン・モニタリング・インターフェース及びマシン動作のモニタ方法(画像ベースのプリンタ・システム・モニタ) |
WO2008026723A1 (fr) * | 2006-09-01 | 2008-03-06 | Mori Seiki Co., Ltd. | Procédé de confirmation de données de modèle tridimensionnel, et appareil de confirmation de données de modèle tridimensionnel |
US8310534B2 (en) | 2006-09-01 | 2012-11-13 | Mori Seiki Co., Ltd. | Three-dimensional model data confirming method, and three-dimensional model data confirming apparatus |
JP2008111770A (ja) * | 2006-10-31 | 2008-05-15 | Makino Milling Mach Co Ltd | 測定表示方法及び測定表示装置を備えた機械 |
JP2009266221A (ja) * | 2008-04-21 | 2009-11-12 | Mori Seiki Co Ltd | 加工シミュレーション方法及び加工シミュレーション装置 |
JP2019177477A (ja) * | 2010-11-19 | 2019-10-17 | ファナック アメリカ コーポレイション | 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置 |
WO2013136930A1 (ja) * | 2012-03-15 | 2013-09-19 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム |
JP2013191128A (ja) * | 2012-03-15 | 2013-09-26 | Omron Corp | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム |
CN105666505A (zh) * | 2014-12-08 | 2016-06-15 | 发那科株式会社 | 具备扩展现实对应显示器的机器人系统 |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
US10052765B2 (en) | 2014-12-08 | 2018-08-21 | Fanuc Corporation | Robot system having augmented reality-compatible display |
WO2017033360A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操縦マニピュレータシステム及びその運転方法 |
US10980606B2 (en) | 2015-08-25 | 2021-04-20 | Kawasaki Jukogyo Kabushiki Kaisha | Remote-control manipulator system and method of operating the same |
JPWO2017033360A1 (ja) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | 遠隔操縦マニピュレータシステム及びその運転方法 |
JP6088679B1 (ja) * | 2016-02-19 | 2017-03-01 | ファナック株式会社 | カメラの画像により故障を判定するロボットシステムの故障診断装置 |
JP2017144532A (ja) * | 2016-02-19 | 2017-08-24 | ファナック株式会社 | カメラの画像により故障を判定するロボットシステムの故障診断装置 |
US9898815B2 (en) | 2016-02-19 | 2018-02-20 | Fanuc Corporation | Fault diagnostic device of robot system for judging fault by camera image |
WO2019064919A1 (ja) * | 2017-09-26 | 2019-04-04 | 日本電産株式会社 | ロボット教示装置 |
WO2019064915A1 (ja) * | 2017-09-26 | 2019-04-04 | 日本電産株式会社 | ロボット教示装置 |
JPWO2019064919A1 (ja) * | 2017-09-26 | 2020-10-15 | 日本電産株式会社 | ロボット教示装置 |
JPWO2019064915A1 (ja) * | 2017-09-26 | 2020-10-15 | 日本電産株式会社 | ロボット教示装置 |
JP2019212041A (ja) * | 2018-06-05 | 2019-12-12 | ファナック株式会社 | 仮想オブジェクト表示システム |
US11199828B2 (en) | 2018-06-05 | 2021-12-14 | Fanuc Corporation | Virtual object display system |
JP6991396B1 (ja) * | 2020-12-28 | 2022-01-14 | 三菱電機株式会社 | 表示装置、制御システムおよび作画方法 |
WO2022145014A1 (ja) * | 2020-12-28 | 2022-07-07 | 三菱電機株式会社 | 表示装置、制御システムおよび作画方法 |
JP7179238B1 (ja) * | 2022-03-23 | 2022-11-28 | 三菱電機株式会社 | 表示データ生成プログラム、表示データ生成装置及び表示データ生成方法 |
WO2023181212A1 (ja) * | 2022-03-23 | 2023-09-28 | 三菱電機株式会社 | 表示データ生成プログラム、表示データ生成装置及び表示データ生成方法 |
CN114683288A (zh) * | 2022-05-07 | 2022-07-01 | 法奥意威(苏州)机器人系统有限公司 | 机器人展示和控制方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH09212219A (ja) | 三次元仮想モデル作成装置及び制御対象物の監視制御装置 | |
US9415509B2 (en) | Robot teach device with 3-D display | |
EP1435280B1 (en) | A method and a system for programming an industrial robot | |
US7373220B2 (en) | Robot teaching device | |
US20190389066A1 (en) | Visualization and modification of operational bounding zones using augmented reality | |
US7236854B2 (en) | Method and a system for programming an industrial robot | |
CA3016539A1 (en) | Image processing method, display device, and inspection system | |
JP2004213673A (ja) | 強化現実システム及び方法 | |
JP2003523666A (ja) | カメラ監視システム用監視装置 | |
US20140285633A1 (en) | Robotic system and image display device | |
WO2017122270A1 (ja) | 画像表示装置 | |
WO2007100043A1 (ja) | カメラ制御装置およびカメラ制御方法 | |
JPH04281572A (ja) | 画像処理システムにおける実写画像とコンピュータ グラフィックスの合成方法 | |
CN111246181B (zh) | 一种机器人的监控方法、系统、设备及存储介质 | |
JP3375644B2 (ja) | 処理の実行方法およびバルブ遠隔操作方法 | |
JP2003256025A (ja) | ロボット動作教示方法及び装置 | |
CN116569545A (zh) | 远程协助的方法和设备 | |
JPH11338532A (ja) | 教示装置 | |
JPH09261621A (ja) | 撮像画像を用いた監視装置とそのモデル作成方法および撮像装置制御方法 | |
JPS6334093A (ja) | 視覚装置 | |
JP2000042960A (ja) | マニピュレータの遠隔操作装置 | |
JP2003067048A (ja) | 情報処理装置 | |
JPH08161031A (ja) | 監視制御システム | |
JPH0498367A (ja) | 3次元形状作成方式 | |
CN117150587B (zh) | 基于混合现实的电弧熔丝增材制造数字孪生系统构建方法和系统 |