JP2005250990A - 作業支援装置 - Google Patents
作業支援装置 Download PDFInfo
- Publication number
- JP2005250990A JP2005250990A JP2004062594A JP2004062594A JP2005250990A JP 2005250990 A JP2005250990 A JP 2005250990A JP 2004062594 A JP2004062594 A JP 2004062594A JP 2004062594 A JP2004062594 A JP 2004062594A JP 2005250990 A JP2005250990 A JP 2005250990A
- Authority
- JP
- Japan
- Prior art keywords
- work
- worker
- data
- operator
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
【課題】 作業員が作業を行う前にその正誤を判定でき、また作業員の動作を正確に識別できる作業支援装置を提供する。
【解決手段】 複数の撮影画像を得るステレオカメラ10と、複数の撮影画像から作業員の輪郭を抽出し、作業員の三次元位置を算出する作業員三次元位置計算手段21と、算出された作業員の三次元位置に基づいて、少なくとも、作業員の姿勢、位置、移動方向のいずれか1つを認識する作業員姿勢認識手段22と、作業領域における設備機器の配置データと作業員が実行すべき作業手順データとを保持する設備情報記憶手段26と、配置データと作業員の姿勢、位置、移動方向に基づいて、作業員が行おうとする作業内容を予測する作業内容予測手段23と、予測された作業内容と作業手順データとを照合し、作業員の作業の正誤を判定する作業手順正誤判定手段24と、判定結果に応じて、作業員に作業指示を通知する作業手順教示手段25とを備える。
【選択図】 図1
【解決手段】 複数の撮影画像を得るステレオカメラ10と、複数の撮影画像から作業員の輪郭を抽出し、作業員の三次元位置を算出する作業員三次元位置計算手段21と、算出された作業員の三次元位置に基づいて、少なくとも、作業員の姿勢、位置、移動方向のいずれか1つを認識する作業員姿勢認識手段22と、作業領域における設備機器の配置データと作業員が実行すべき作業手順データとを保持する設備情報記憶手段26と、配置データと作業員の姿勢、位置、移動方向に基づいて、作業員が行おうとする作業内容を予測する作業内容予測手段23と、予測された作業内容と作業手順データとを照合し、作業員の作業の正誤を判定する作業手順正誤判定手段24と、判定結果に応じて、作業員に作業指示を通知する作業手順教示手段25とを備える。
【選択図】 図1
Description
この発明は、プラント等の保守業務において、携帯端末装置等を利用して正しい作業手順を作業員に教示することにより、熟練者以外でも保守作業を安全に行うことができる作業支援装置に関するものである。
近年、原子力プラントに代表される大規模プラント、道路、鉄道、上下水道システム等においては、安定したサービスを提供するために定期的な保守作業が行われている。特に、上記の各システムにおいては莫大な点検項目を安全、確実に行うことが求められている。それゆえ、これらの作業を行う作業員は特殊な技能と経験を必要とするが、危険、かつ汚染された環境で作業する必要がある等の理由から、このような人材を確保することが困難になっている。したがって、近年、熟練者不足のために保守作業が未熟者により行われるケースが増加しており、保守作業の支援技術に対する需要が高まりつつある。
従来の保守作業支援装置では、監視カメラまたは保守対象機器に取り付けられたセンサ等から得られる情報に基づいて、作業員が実行した作業を認識し、その結果に基づいて順次作業員に作業手順を提示、更新していた。
例えば、作業員が作業Aを行うと、保守作業支援装置は監視カメラまたはセンサ等の情報から作業員が作業Aを行ったことを認識し、装置内部に保存されている作業手順データと照合する。照合の結果、作業Aが正しい作業手順であると判断されると、作業員に次の作業Bを提示するようにしていた。
従来の作業支援装置は上記のように構成されているので、作業員に次の作業が提示されるタイミングは、作業対象機器のボタンが押されたとき、ネジが回されたとき等、作業が行われた後であり、その作業結果に基づいて次に提示する情報を選択して提示するものであった。つまり、作業者に保守作業手順の教示を行う場合、作業手順の正誤判定は作業員によって作業が完了された後に行うことになるため、作業が誤っていた場合は作業後にそれが判明することになり、作業の種類によっては重大な事故につながりかねないという課題があった。
また、従来用いられていた監視カメラは単眼カメラであったため、カメラ画像から得られる位置情報は2次元的(平面的)な情報であり、作業員の指差し動作等の作業を識別するためには情報が不十分であった。したがって、正確な識別のためには磁気センサ、ジャイロまたは超音波センサ等を設けなければならないという課題があった。
この発明は上記のような課題を解決するためになされたもので、作業員が作業を行う前にその正誤を判定でき、また作業員の動作を正確に識別できる作業支援装置を提供することを目的とする。
この発明に係る作業支援装置は、複数のカメラを用いて作業状態を撮影し、複数の撮影画像を得る撮影手段と、得られた複数の撮影画像から作業員の輪郭を抽出し、各撮影画像間の輪郭を対応付けることによって撮影領域における作業員の三次元位置を算出する位置算出手段と、算出された作業員の三次元位置に基づいて、少なくとも、作業員の姿勢、位置、移動方向のいずれか1つを認識する作業状態認識手段と、作業領域における設備機器の配置データと作業員が実行すべき作業手順データとを保持する設備情報記憶手段と、配置データと作業員の少なくとも姿勢、位置、移動方向のいずれか1つに基づいて、当該作業員が行おうとする作業内容を予測する作業内容予測手段と、予測された作業内容と作業手順データとを照合し、当該作業員の作業の正誤を判定する作業正誤判定手段と、作業正誤判定手段の判定結果に応じて、当該作業員に作業指示を通知する作業指示通知手段とを備えたものである。
この発明によれば、作業支援装置は、複数のカメラを用いて作業状態を撮影し、複数の撮影画像を得る撮影手段と、得られた複数の撮影画像から作業員の輪郭を抽出し、各撮影画像間の輪郭を対応付けることによって撮影領域における作業員の三次元位置を算出する位置算出手段と、算出された作業員の三次元位置に基づいて、少なくとも、作業員の姿勢、位置、移動方向のいずれか1つを認識する作業状態認識手段と、作業領域における設備機器の配置データと作業員が実行すべき作業手順データとを保持する設備情報記憶手段と、配置データと作業員の少なくとも姿勢、位置、移動方向のいずれか1つに基づいて、当該作業員が行おうとする作業内容を予測する作業内容予測手段と、予測された作業内容と作業手順データとを照合し、当該作業員の作業の正誤を判定する作業正誤判定手段と、作業正誤判定手段の判定結果に応じて、当該作業員に作業指示を通知する作業指示通知手段とを備えるように構成したので、予測された作業手順が誤っている場合は作業前に作業員に警告を発することで事故を未然に防止することができる効果が得られる。
実施の形態1.
図1は、この発明の実施の形態1による作業支援装置のブロック図である。図に示すように、作業支援装置100は、ステレオカメラ10、計算処理部20を備える。計算処理部20は、作業員三次元位置計算手段(位置算出手段)21、作業員姿勢認識手段(作業状態認識手段)22、作業内容予測手段23、作業手順正誤判定手段(作業正誤判定手段)24、作業手順教示手段(作業指示通知手段)25、設備情報記憶手段26を備える。
図1は、この発明の実施の形態1による作業支援装置のブロック図である。図に示すように、作業支援装置100は、ステレオカメラ10、計算処理部20を備える。計算処理部20は、作業員三次元位置計算手段(位置算出手段)21、作業員姿勢認識手段(作業状態認識手段)22、作業内容予測手段23、作業手順正誤判定手段(作業正誤判定手段)24、作業手順教示手段(作業指示通知手段)25、設備情報記憶手段26を備える。
ステレオカメラ10は3つのカメラで構成され、各カメラは作業現場における作業員の動作・状態を撮影し、撮影したカメラ画像を作業員三次元位置計算手段21に供給する。作業員三次元位置計算手段21は、取得した3つのカメラ画像から作業員の輪郭の三次元位置データを算出する。作業員姿勢認識手段22は作業員三次元位置計算手段21が算出した三次元位置データから作業員の位置・姿勢を認識する。作業内容予測手段23は作業員姿勢認識手段22が認識した作業員の位置・姿勢に基づいて作業員が意図する次の作業内容、保守対象機器を予測する。作業手順正誤判定手段24は、予測された作業内容、保守対象機器に基づいて、その作業手順が正しい手順であるかどうかを判定する。作業手順教示手段25は、判定結果に基づいて作業員に提示すべき情報を決定して作業員に提示する。設備情報記憶手段26は、保守作業領域における設備機器の配置データ、設備の3Dモデル等のCAD(Computer Aided Design)データ、および作業員による作業手順を保持する。
ステレオカメラ10に関しては、管理者等が事前にカメラキャリブレーションを行い、カメラのレンズ歪み等のパラメータ(内部パラメータ)およびカメラ間の位置関係等のパラメータ(外部パラメータ)を求めておく。カメラキャリブレーション手法には、コンピュータビジョンの分野で一般に使用されるTsaiの手法、Zhangの手法等を用いることができる。
この発明では、作業員に携帯端末装置(例えば、PDA、携帯電話、ヘッドマウントディスプレイ等)等を持たせており、この端末に保守対象設備のマニュアル、熟練者のK/H、正しい作業手順等を提示することにより、保守作業手順等の教示およびヒューマンエラーの防止を行う。
次に動作について説明する。
図2は作業員三次元位置計算手段21の動作を示すフローチャートである。この図を参照して作業員三次元位置計算手段21の動作について説明する。
図において、ステップST100とステップST101は背景データ作成処理であり、作業支援装置100の起動時に一度だけ行われる。背景データ作成処理はステレオカメラ10が行う。ステレオカメラ10は3台のカメラで同時に、作業員がいない背景画像を撮影し、それぞれ作業員三次元位置計算手段21に供給する(ステップST100)。作業員三次元位置計算手段21はステレオカメラ10から取得した3枚の背景画像にエッジ抽出処理を行う(ステップST101)。すなわち、背景画像中のエッジ部分を求め、背景エッジ画像を生成する。エッジ抽出処理には、コンピュータビジョンの分野で一般に使われているCannyのエッジ抽出方法等を用いることができる。
図2は作業員三次元位置計算手段21の動作を示すフローチャートである。この図を参照して作業員三次元位置計算手段21の動作について説明する。
図において、ステップST100とステップST101は背景データ作成処理であり、作業支援装置100の起動時に一度だけ行われる。背景データ作成処理はステレオカメラ10が行う。ステレオカメラ10は3台のカメラで同時に、作業員がいない背景画像を撮影し、それぞれ作業員三次元位置計算手段21に供給する(ステップST100)。作業員三次元位置計算手段21はステレオカメラ10から取得した3枚の背景画像にエッジ抽出処理を行う(ステップST101)。すなわち、背景画像中のエッジ部分を求め、背景エッジ画像を生成する。エッジ抽出処理には、コンピュータビジョンの分野で一般に使われているCannyのエッジ抽出方法等を用いることができる。
一方、ステップST200からステップST203はステレオカメラ10から送られる毎フレームの画像について作業員三次元位置計算手段21が実行する処理である。作業員三次元位置計算手段21はステレオカメラ10の3台のカメラから入力されたカメラ画像をステップST101と同様にエッジ抽出処理し、エッジ画像を生成する(ステップST200)。続いて、このエッジ画像と背景エッジ画像とを比較して、背景エッジ画像からのエッジ画像の変化部分を作業員の輪郭として認識する(ステップST201)。
続いて、3つの画像について求めた作業員の輪郭をそれぞれの画像間で対応付けする(ステップST202)。対応点探索範囲は、カメラの位置関係を表す外部パラメータから導き出すことができるエピポーラ線上とし、カメラの対応付けにはエッジの勾配情報(勾配の方向と勾配の強さ)とエッジの両側の色情報を用いて、高精度に対応付けを行う。
続いて、作業員の輪郭の対応付け結果から、ステレオ立体視の原理に基づいて作業員の輪郭の三次元位置を計算し、三次元位置データを生成する(ステップST203)。生成した三次元位置データを作業員姿勢認識手段22に供給する。
図3は作業員姿勢認識手段22の動作を示すフローチャートである。この図を参照して作業員姿勢認識手段22の動作について説明する。
作業員姿勢認識手段22は、作業員三次元位置計算手段21から三次元位置データを取得すると、作業員の重心を計算する(ステップST300)。すなわち、作業員が手を伸ばしている場合を考慮して作業員の腰から下の部分(例えば床面から1mまでの高さ)の輪郭点群を用いて、輪郭点群の固まり具合から作業員の人数を認識する。例えば、輪郭点数が所定の数よりも大きい領域には作業員が存在すると判断して、作業員の人数をカウントする。そして、作業員が存在すると判定した輪郭点群について重心を求める。この重心からそれぞれの作業員の立っている位置を計算する。
作業員姿勢認識手段22は、作業員三次元位置計算手段21から三次元位置データを取得すると、作業員の重心を計算する(ステップST300)。すなわち、作業員が手を伸ばしている場合を考慮して作業員の腰から下の部分(例えば床面から1mまでの高さ)の輪郭点群を用いて、輪郭点群の固まり具合から作業員の人数を認識する。例えば、輪郭点数が所定の数よりも大きい領域には作業員が存在すると判断して、作業員の人数をカウントする。そして、作業員が存在すると判定した輪郭点群について重心を求める。この重心からそれぞれの作業員の立っている位置を計算する。
続いて、作業員の作業方向を認識する(ステップST301)。すなわち、腰から上の部分(例えば床面から1m以上の高さ)の輪郭点群のうち、作業員の立っている位置周辺の点の重心を求めることにより、作業員の腕の重心を計算する。例えば、ステップST300で求めた作業員の位置から半径0.2m以上0.8m未満の領域にある点から重心を求める。
続いて、作業員姿勢認識手段22は、作業員の腕の重心とステップST300で求めた作業員の立っている位置とを床面に投影してその位置を比較し、比較結果がある閾値以上であれば作業員は腕を伸ばしていると判断する。また、閾値以下である場合、または作業員の腕の重心が求められていない場合は、作業員は腕を伸ばしていないと判断する。作業員が腕を伸ばしていると判断した場合は、腕の重心を求めたときに使った輪郭点群の主成分の分析を行い、主成分の方向を作業員の腕の向きとする。
続いて、作業員姿勢認識手段22は、ステレオカメラ10から取得した前のフレームの作業員の位置と現在のフレームの作業員の位置とを比較することにより、作業員の移動方向を求め、位置・姿勢データを生成する(ステップST302)。
以上をまとめると、作業員姿勢認識手段22は、
・作業員の位置
・作業員の腕の向き
・作業員の動いている方向
を認識できる。
・作業員の位置
・作業員の腕の向き
・作業員の動いている方向
を認識できる。
次に、作業内容予測手段23の動作について説明する。
作業内容予測手段23は、作業員姿勢認識手段22から作業員の位置・姿勢データを取得し、設備情報記憶手段26を参照して保守作業領域のCADデータと上記項目とを比較することにより、作業員が意図している次の保守作業内容を以下のように判断する。すなわち、作業員姿勢認識手段22によって作業員が移動していると認識されていれば、移動方向の先にある機器を作業対象機器と認識する。作業員がほぼ止まっていて腕を伸ばしていなければ、作業員に一番近い機器を作業対象機器と認識する。また、作業員がほぼ止まっていて腕を伸ばしていれば、手を伸ばした先にある機器が作業対象機器で、腕を伸ばしている方向から今から作業を行おうとしている部品を認識し作業内容を判断する。作業内容予測手段23は認識した作業内容を作業手順正誤判定手段24に供給する。
作業内容予測手段23は、作業員姿勢認識手段22から作業員の位置・姿勢データを取得し、設備情報記憶手段26を参照して保守作業領域のCADデータと上記項目とを比較することにより、作業員が意図している次の保守作業内容を以下のように判断する。すなわち、作業員姿勢認識手段22によって作業員が移動していると認識されていれば、移動方向の先にある機器を作業対象機器と認識する。作業員がほぼ止まっていて腕を伸ばしていなければ、作業員に一番近い機器を作業対象機器と認識する。また、作業員がほぼ止まっていて腕を伸ばしていれば、手を伸ばした先にある機器が作業対象機器で、腕を伸ばしている方向から今から作業を行おうとしている部品を認識し作業内容を判断する。作業内容予測手段23は認識した作業内容を作業手順正誤判定手段24に供給する。
作業手順正誤判定手段24は設備情報記憶手段26を参照し、設備情報記憶手段26が保持する作業手順と作業内容予測手段23によって予測された作業内容とを比較して、作業員がこれから行おうとしている作業内容が作業手順に記載されている内容と一致しているかを判定する。判定結果は作業手順教示手段25に供給する。
作業手順教示手段25は、作業手順正誤判定手段24から取得した判定結果に基づいて作業員の伝達すべき情報を決定し、教示する。例えば、作業手順が正しければその作業の完了後に次の手順を作業員が保持する携帯端末装置に送信する。一方、作業員の作用内容が作業手順と異なっていれば、直ちに作業員に対して警告音を出力する等、警告を発し、作業の中止を促して重大なミスを防止し、正しい作業手順を改めて教示する。
以上のように、この実施の形態1によれば、作業員の三次元位置データから作業内容を予測し、作業を行う前に作業手順の正誤を判定するようにしたので、予測された作業手順が誤っている場合は作業前に作業員に警告を発することで事故を未然に防止することができる効果が得られる。
また、監視に用いるカメラにはステレオカメラを用いたため、カメラ画像から得られる位置情報は三次元的(立体的)な情報であるため、作業員の指差しなどの作業を予測する場合に必要十分な情報が得られ、カメラ画像のみから正確に予測が可能になるという効果が得られる。
実施の形態2.
この実施の形態2では、実施の形態1で説明した作業員姿勢認識手段22、作業内容予測手段23を強化した作業支援装置100について説明する。つまり、実施の形態1では、作業対象機器を作業員の腕全体の向きを認識することによって予測していたのに対し、この実施の形態2では、腕の曲げ伸ばしの履歴から作業対象機器を予測する。
この実施の形態2では、実施の形態1で説明した作業員姿勢認識手段22、作業内容予測手段23を強化した作業支援装置100について説明する。つまり、実施の形態1では、作業対象機器を作業員の腕全体の向きを認識することによって予測していたのに対し、この実施の形態2では、腕の曲げ伸ばしの履歴から作業対象機器を予測する。
図4はこの実施の形態2において、作業員が着用する作業着を示す図である。図において、作業着は体の部分、例えば、上半身、下半身、上腕、下腕ごとに異なる色を有している。また、この実施の形態2による作業支援装置は図1と同様の構成とする。
次に動作について説明する。
作業員三次元位置計算手段21は、実施の形態1と同様にステレオカメラ10から取得する3つのカメラ画像から三次元位置データを生成する。作業員姿勢認識手段22は作業員三次元位置計算手段21から三次元位置データを取得すると共に、この三次元位置データとカメラ画像から作業員の輪郭の内側にある色を取得する。続いて、取得した色が図4に示される作業員のズボンの色である点群を集め、その重心を求める。この重心の位置を作業員の位置とする。
作業員三次元位置計算手段21は、実施の形態1と同様にステレオカメラ10から取得する3つのカメラ画像から三次元位置データを生成する。作業員姿勢認識手段22は作業員三次元位置計算手段21から三次元位置データを取得すると共に、この三次元位置データとカメラ画像から作業員の輪郭の内側にある色を取得する。続いて、取得した色が図4に示される作業員のズボンの色である点群を集め、その重心を求める。この重心の位置を作業員の位置とする。
次に、図4に示される作業員の肘から手の間の部分の色が周辺にある点群を三次元位置データとカメラ画像から集め、その重心を求めると共に主成分分析を行って、主成分の向きを計算する。
同様に、作業員の肘から腕の付け根の部分についても、重心および主成分の向きを計算する。さらに、実施の形態1と同様に、作業員の位置の履歴から作業員の移動方向を計算する。以上をまとめると、作業員姿勢認識手段22は、
・作業員の位置
・作業員の肘から手の間の部分の向き
・作業員の肘から腕の付け根の部分の向き
・作業員の動いている方向
という作業員の詳しい位置・姿勢データを得ることができる。
・作業員の位置
・作業員の肘から手の間の部分の向き
・作業員の肘から腕の付け根の部分の向き
・作業員の動いている方向
という作業員の詳しい位置・姿勢データを得ることができる。
次に、作業内容予測手段23の動作について説明する。
作業内容予測手段23は、作業員姿勢認識手段22から作業員の位置・姿勢データを取得すると、設備情報記憶手段26を参照し、保守作業領域のCADデータと上記項目とを比較することにより、作業員が意図する次の作業内容、保守対象機器を以下のように判断する。すなわち、作業員姿勢認識手段22によって作業員が移動していると認識されていれば、実施の形態1と同様に、移動方向の先にある機器を作業対象機器と認識する。作業員がほぼ止まっていて腕が真下を向いていれば、実施の形態1と同様に作業員に一番近い機器を作業対象機器と認識する。また、作業員がほぼ止まっていて腕が真下以外の方向を向いていれば、以下のように作業対象機器の認識を行う。
作業内容予測手段23は、作業員姿勢認識手段22から作業員の位置・姿勢データを取得すると、設備情報記憶手段26を参照し、保守作業領域のCADデータと上記項目とを比較することにより、作業員が意図する次の作業内容、保守対象機器を以下のように判断する。すなわち、作業員姿勢認識手段22によって作業員が移動していると認識されていれば、実施の形態1と同様に、移動方向の先にある機器を作業対象機器と認識する。作業員がほぼ止まっていて腕が真下を向いていれば、実施の形態1と同様に作業員に一番近い機器を作業対象機器と認識する。また、作業員がほぼ止まっていて腕が真下以外の方向を向いていれば、以下のように作業対象機器の認識を行う。
作業対象機器を認識するために、管理者等は作業員の位置から作業対象機器までの距離と腕の曲がり具合、向きとから構成される状態遷移モデルを事前に準備し、作業支援装置100に保持させておく。図5は状態遷移モデルの例を示す図である。図には人間の腕を、肘から付け根の部分までと、肘から手の部分までに分けて、種々の動きのパターンを示す。作業内容予測手段23は、各フレームでの腕の曲げ動作開始からの腕の属性を元に状態遷移を順に行っていき、腕を伸ばしきったときに触るであろう機器およびその作業内容を、設備情報記憶手段26のCADデータを参照して予測する。予測内容は作業手順正誤判定手段24に供給する。
作業手順正誤判定手段24は、予測された作業内容と作業対象機器に関して、実施の形態1と同様に設備情報記憶手段26を参照して作業手順の正誤を判定する。作業手順教示手段25は、作業手順正誤判定手段24の判定結果に基づいて作業員の伝達すべき情報を決定し、教示する。
以上のように、この実施の形態2によれば、作業員の位置から作業対象機器までの距離と腕の曲がり具合、向きとから構成される状態遷移モデルに基づいて、作業内容予測手段23が作業員の意図する次の作業内容、作業対象機器を予測するようにしたので、意図しない機器が作業対象であると認識される可能性が減少し、より信頼度の高い作業の予測ができるという効果が得られる。
実施の形態3.
この実施の形態3では、実施の形態1に加えて、作業が本当に実行にされたかどうかを保証できるようにする。つまり、作業が本当に実行されたときのみ作業員に次の作業手順を教示する装置について説明する。
この実施の形態3では、実施の形態1に加えて、作業が本当に実行にされたかどうかを保証できるようにする。つまり、作業が本当に実行されたときのみ作業員に次の作業手順を教示する装置について説明する。
図6は実施の形態3に係る計算処理部20の構成を示すブロック図である。図に示すように、この計算処理部20’は実施の形態1の計算処理部20に加えて、読み取りセンサ(変化検出手段)27、データ化手段(変化検出手段)28を備える。読み取りセンサ27は、作業対象となる機器の状態を取得するセンサであり、例えば計器などの現在の値を読み取るセンサである。データ化手段28は、読み取りセンサ27が読み取った値の変化をデータ化する。また、設備情報記憶手段26は、実施の形態1に示した設備情報等に加えて、正常な作業手順で作業が行われたときのセンサ値の変化データを保持する。
作業員が保守業務を行い計器などの値が変化すると、読み取りセンサ27は計器の値を検出し、データ化手段28に供給する。データ化手段28は取得した値をデータ化して作業手順正誤判定手段24に供給する。作業手順正誤判定手段24は、実施の形態1で述べたように、予測された作業内容と設備情報記憶手段26が保持する作業手順とを照合して、作業の正誤を判断すると共に、データ化手段28から取得したデータと、設備情報記憶手段26が保持する変化データとを照合することによって、その作業が確かに実行されたかどうかを判断する。
このとき、作業が実際に行われていなければ、データ化手段28から取得したデータと設備情報記憶手段26が保持する変化データとは異なるため、作業手順正誤判定手段24は実際には作業は行われていないと判断し、作業員に対して次の作業手順の教示を行わない。一方、作業手順が正しく、かつデータ化手段28からのデータと設備情報記憶手段26が保持する変化データとが一致すれば、正しい作業が実際に行われたと判断し、作業手順教示手段25に対して次の作業手順を作業員に教示させる。作業手順教示手段25は、作業手順正誤判定手段24からの指示に応じて作業員に次の作業手順を教示する。
また、設備機器のボタン等、作業員が触れる箇所にタッチセンサを取り付け、作業支援装置10にタッチセンサから信号を受信する手段(作業検出手段)を備えるようにしてもよい。作業支援装置10はタッチセンサから信号を受信すると、作業手順正誤判定手段24に通知する。これにより、作業手順正誤判定手段24は作業が実際に行われたことを検出できる。
以上のように、この実施の形態3によれば、作業支援装置10が読み取りセンサ27、データ化手段28を備えることで、作業員による作業完了の保証を確実に行えるので、正確な作業手順を教示できると共に、保守作業が確かに進行しているというエビデンスとなる情報を蓄えることができる効果が得られる。
実施の形態4.
この実施の形態4では、上記実施の形態1から実施の形態3で説明した作業員の代わりに、産業用ロボットが設備機器の監視を行う場合について説明する。ここでいう産業用ロボットとは、ロボット管理者のプログラムに従って動作することを期待されるロボットであり、システム異常等により管理者が意図しない動作を始めた場合に、素早く電源供給を中断する等の対応を行うことができるものである。
この実施の形態4では、上記実施の形態1から実施の形態3で説明した作業員の代わりに、産業用ロボットが設備機器の監視を行う場合について説明する。ここでいう産業用ロボットとは、ロボット管理者のプログラムに従って動作することを期待されるロボットであり、システム異常等により管理者が意図しない動作を始めた場合に、素早く電源供給を中断する等の対応を行うことができるものである。
図7はこの発明の実施の形態4による作業支援装置の構成を示すブロック図である。実施の形態1と同様に、作業支援装置100はステレオカメラ10、計算処理部30を備える。計算処理部30は、ロボット三次元位置計算手段(位置算出手段)31、ロボット姿勢正誤判定手段(作業正誤判定手段)32、ロボット異常対応手段(異常対応手段)33、設備情報記憶手段(動作データ記憶手段)34を備える。
実施の形態1と同様に、ステレオカメラ10は3つのカメラで構成され、作業現場におけるロボットの状態を撮影し、撮影した画像をロボット三次元位置計算手段31に供給する。ロボット三次元位置計算手段31は、取得した3つの撮像画像からロボットの輪郭の三次元位置を算出する。ロボット姿勢正誤判定手段32は、ロボットの輪郭の三次元位置データから、ロボットの位置・姿勢が期待される通りであるかどうかを判定する。ロボット異常対応手段33は、ロボットの作業が誤っていた場合に、ロボットに供給する電源を中断したり、管理者に警告を発したりする。設備情報記憶手段34はロボットに期待される動作に関するCADデータを保持する。
次に動作について説明する。
ロボット三次元位置計算手段31は、実施の形態1の作業員三次元位置計算手段21の動作と同様に、ステレオカメラ10の3台のカメラから入力されたカメラ画像から三次元位置データを生成し、ロボット姿勢正誤判定手段32に供給する。
ロボット三次元位置計算手段31は、実施の形態1の作業員三次元位置計算手段21の動作と同様に、ステレオカメラ10の3台のカメラから入力されたカメラ画像から三次元位置データを生成し、ロボット姿勢正誤判定手段32に供給する。
ロボットの姿勢は基本的にプログラムによって制御されているため、ロボット姿勢正誤判定手段32はロボットが現在期待される位置にあるかどうかを、設備情報記憶手段34が保持するロボットのCADデータと、ロボットの三次元位置データとを照合することによって判定し、判定結果をロボット異常対応手段33に供給する。また、ロボット姿勢正誤判定手段32は、カメラ画像を取得したロボットのIDを取得するようにしてもよい。
ロボット異常対応手段33は、取得した判定結果がロボット位置に誤りがあることを示すものであった場合、直ちにロボットへの電源供給を遮断する処理を行い、事故を防止する。続いて、異常のあるロボットのID等を管理者に通知し、原因究明やメンテナンス作業を促す。
以上のように、この実施の形態4によれば、ロボット姿勢正誤判定手段32が設備情報記憶手段34を参照してロボットの三次元位置データからロボットの姿勢、動作の正誤を判定して、誤った姿勢をしていればロボット異常対応手段33がロボットへの電源供給を遮断したり、管理者に通知したりするようにしたので、ロボットの作業手順の正誤を事前に判定することが可能になり、事故を未然に防止することができる効果が得られる。
10 ステレオカメラ、20,20’ 計算処理部、21 作業員三次元位置計算手段(位置算出手段)、22 作業員姿勢認識手段(作業状態認識手段)、23 作業内容予測手段、24 作業手順正誤判定手段(作業正誤判定手段)、25 作業手順教示手段(作業指示通知手段)、26,34 設備情報記憶手段、27 読み取りセンサ(変化検出手段)、28 データ化手段、31 ロボット三次元位置計算手段(位置算出手段)、32 ロボット姿勢正誤判定手段(作業正誤判定手段)、33 ロボット異常対応手段(異常対応手段)。
Claims (5)
- 作業領域における設備機器の操作または保守を行う作業員の作業手順を支援する作業支援装置において、
複数のカメラを用いて作業状態を撮影し、複数の撮影画像を得る撮影手段と、
前記得られた複数の撮影画像から作業員の輪郭を抽出し、各撮影画像間の輪郭を対応付けることによって撮影領域における作業員の三次元位置を算出する位置算出手段と、
算出された作業員の三次元位置に基づいて、少なくとも、作業員の姿勢、位置、移動方向のいずれか1つを認識する作業状態認識手段と、
前記作業領域における設備機器の配置データと作業員が実行すべき作業手順データとを保持する設備情報記憶手段と、
前記配置データと前記作業員の少なくとも姿勢、位置、移動方向のいずれか1つとに基づいて、当該作業員が行おうとする作業内容を予測する作業内容予測手段と、
前記予測された作業内容と前記作業手順データとを照合し、当該作業員の作業の正誤を判定する作業正誤判定手段と、
前記作業正誤判定手段の判定結果に応じて、当該作業員に作業指示を通知する作業指示通知手段とを備えたことを特徴とする作業支援装置。 - 設備情報記憶手段が、作業員の体の一部の状態変化を種々のパターンで記述した状態遷移モデルを保持し、
作業正誤判定手段が、前記状態遷移モデルに記述される状態変化のパターンと、作業状態認識手段が認識した作業員の少なくとも姿勢、位置、移動方向のいずれか1つとを参照して、作業内容を予測することを特徴とする請求項1記載の作業支援装置。 - 作業対象となる設備機器の状態変化を検出して状態変化データを生成する変化検出手段をさらに備え、
設備情報記憶手段が、作業対象となる設備機器が正常に動作したときの動作変化を示す正常動作データを保持し、
作業正誤判定手段が、前記状態変化データと、前記正常動作データとを参照して、作業員の作業の正誤を判定することを特徴とする請求項1記載の作業支援装置。 - 作業対象となる設備機器に作業員が触れたことを検出する作業検出手段をさらに備え、
作業正誤判定手段が、前記作業検出手段の検出結果を参照して作業員の作業の正誤を判定することを特徴とする請求項1記載の作業支援装置。 - 作業領域における設備機器の操作または保守を行う作業用ロボットの作業手順を支援する作業支援装置において、
複数のカメラを用いて作業状態を撮影し、複数の撮影画像を得る撮影手段と、
得られた複数の撮影画像から作業用ロボットの輪郭を抽出し、各撮影画像間の輪郭を対応付けることによって撮影領域における作業用ロボットの三次元位置を算出する位置算出手段と、
当該作業用ロボットの動作を制御するプログラムによって期待される動作である動作データを保持する動作データ記憶手段と、
前記動作データと、前記三次元位置とを照合し、当該作業用ロボットが期待される通りの動作をしているかを判定する作業正誤判定手段と、
前記作業正誤判定手段の判定結果に応じて当該作業用ロボットの動作を停止させる異常対応手段とを備えたことを特徴とする作業支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004062594A JP2005250990A (ja) | 2004-03-05 | 2004-03-05 | 作業支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004062594A JP2005250990A (ja) | 2004-03-05 | 2004-03-05 | 作業支援装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005250990A true JP2005250990A (ja) | 2005-09-15 |
Family
ID=35031397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004062594A Pending JP2005250990A (ja) | 2004-03-05 | 2004-03-05 | 作業支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005250990A (ja) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009868A (ja) * | 2006-06-30 | 2008-01-17 | Saxa Inc | 画像処理装置 |
JP2008181344A (ja) * | 2007-01-24 | 2008-08-07 | Fujitsu Ltd | 作業位置を特定するためのシステム、作業セル、方法、製品の製造方法、およびマーカ |
JP2009289112A (ja) * | 2008-05-30 | 2009-12-10 | Tokyo Electron Ltd | 作業情報提供装置、作業情報提供方法、およびプログラム |
WO2012098609A1 (ja) * | 2011-01-17 | 2012-07-26 | パナソニック株式会社 | 安全装置および予備動作判定方法 |
JP2013025478A (ja) * | 2011-07-19 | 2013-02-04 | Panasonic Corp | 作業検知システム |
JP2013145419A (ja) * | 2012-01-13 | 2013-07-25 | Hitachi Ltd | 保全作業ナビゲーションシステム |
JP2014192861A (ja) * | 2013-03-28 | 2014-10-06 | Osaka Gas Co Ltd | 監視支援システム |
JP2015099022A (ja) * | 2013-11-18 | 2015-05-28 | 東芝三菱電機産業システム株式会社 | 作業確認システム |
US9251031B2 (en) | 2011-09-26 | 2016-02-02 | Omron Corporation | Data processing apparatus, data processing system, and data processing method |
WO2017145628A1 (ja) * | 2016-02-22 | 2017-08-31 | 株式会社ブロードリーフ | 作業分析支援装置、作業分析支援方法、コンピュータプログラム、及び情報記憶媒体 |
JP2017182811A (ja) * | 2017-04-06 | 2017-10-05 | 株式会社シーイーシー | 演算装置 |
JP2017220017A (ja) * | 2016-06-07 | 2017-12-14 | いすゞ自動車株式会社 | 作業検査装置及び作業検査方法 |
JP2018010366A (ja) * | 2016-07-11 | 2018-01-18 | 株式会社ディスコ | 管理システム |
JP2018045707A (ja) * | 2017-11-27 | 2018-03-22 | 株式会社東芝 | システム、方法及びセンサ装置 |
WO2018087844A1 (ja) * | 2016-11-09 | 2018-05-17 | 三菱電機株式会社 | 作業認識装置および作業認識方法 |
WO2019012993A1 (ja) * | 2017-07-14 | 2019-01-17 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
US10671849B2 (en) | 2015-09-01 | 2020-06-02 | Kabushiki Kaisha Toshiba | System and method for sensor based visual adjustments |
CN112015134A (zh) * | 2020-08-31 | 2020-12-01 | 安徽中烟工业有限责任公司 | 一种贮柜人身安全防护安全系统及其安全控制方法 |
US11036972B2 (en) | 2016-07-11 | 2021-06-15 | Disco Corporation | Management system for supervising operator |
WO2021192024A1 (ja) * | 2020-03-24 | 2021-09-30 | ソニーグループ株式会社 | 作業管理装置及び作業状態判定方法 |
JP2022522159A (ja) * | 2019-04-19 | 2022-04-14 | ナノトロニクス イメージング インコーポレイテッド | 組立てラインのための組立てエラー修正 |
WO2022079783A1 (ja) * | 2020-10-13 | 2022-04-21 | 三菱電機株式会社 | モデル生成装置、異常判定装置、異常判定システム、モデル生成方法及びプログラム |
US11461923B2 (en) | 2019-12-11 | 2022-10-04 | Kabushiki Kaisha Toshiba | Calculation system, calculation method, and storage medium |
WO2023095329A1 (ja) * | 2021-11-29 | 2023-06-01 | 日本電気株式会社 | 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体 |
US11675330B2 (en) | 2019-02-28 | 2023-06-13 | Nanotronics Imaging, Inc. | System and method for improving assembly line processes |
WO2023106323A1 (ja) * | 2021-12-10 | 2023-06-15 | 株式会社小松製作所 | 施工管理システム及び施工管理方法 |
US11703824B2 (en) | 2019-02-28 | 2023-07-18 | Nanotronics Imaging, Inc. | Assembly error correction for assembly lines |
JP7433126B2 (ja) | 2020-04-21 | 2024-02-19 | 三菱電機株式会社 | 画像表示システム、画像表示装置、サーバ、画像表示方法およびプログラム |
-
2004
- 2004-03-05 JP JP2004062594A patent/JP2005250990A/ja active Pending
Cited By (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008009868A (ja) * | 2006-06-30 | 2008-01-17 | Saxa Inc | 画像処理装置 |
US8761921B2 (en) | 2007-01-24 | 2014-06-24 | Fujitsu Limited | System, operation cell, method, product manufacturing method, and marker for locating operation position |
JP2008181344A (ja) * | 2007-01-24 | 2008-08-07 | Fujitsu Ltd | 作業位置を特定するためのシステム、作業セル、方法、製品の製造方法、およびマーカ |
JP2009289112A (ja) * | 2008-05-30 | 2009-12-10 | Tokyo Electron Ltd | 作業情報提供装置、作業情報提供方法、およびプログラム |
WO2012098609A1 (ja) * | 2011-01-17 | 2012-07-26 | パナソニック株式会社 | 安全装置および予備動作判定方法 |
US8695406B2 (en) | 2011-01-17 | 2014-04-15 | Panasonic Corporation | Safety device and preparatory movement determination method |
JP5048886B2 (ja) * | 2011-01-17 | 2012-10-17 | パナソニック株式会社 | 安全装置および予備動作判定方法 |
JP2013025478A (ja) * | 2011-07-19 | 2013-02-04 | Panasonic Corp | 作業検知システム |
US9251031B2 (en) | 2011-09-26 | 2016-02-02 | Omron Corporation | Data processing apparatus, data processing system, and data processing method |
JP2013145419A (ja) * | 2012-01-13 | 2013-07-25 | Hitachi Ltd | 保全作業ナビゲーションシステム |
JP2014192861A (ja) * | 2013-03-28 | 2014-10-06 | Osaka Gas Co Ltd | 監視支援システム |
JP2015099022A (ja) * | 2013-11-18 | 2015-05-28 | 東芝三菱電機産業システム株式会社 | 作業確認システム |
US10679059B2 (en) | 2015-09-01 | 2020-06-09 | Kabushiki Kaisha Toshiba | System and method for visual image adjustment |
US10671849B2 (en) | 2015-09-01 | 2020-06-02 | Kabushiki Kaisha Toshiba | System and method for sensor based visual adjustments |
US11789279B2 (en) | 2015-09-01 | 2023-10-17 | Kabushiki Kaisha Toshiba | System and method for virtual image adjustment |
US11428944B2 (en) | 2015-09-01 | 2022-08-30 | Kabushiki Kaisha Toshiba | Wearable device and method for visual image adjustment |
US11002975B2 (en) | 2015-09-01 | 2021-05-11 | Kabushiki Kaisha Toshiba | System and method for image generation based on a display-attachable wearable device |
US10685232B2 (en) | 2015-09-01 | 2020-06-16 | Kabushiki Kaisha Toshiba | Wearable device for displaying checklist of a work |
US10682405B2 (en) | 2015-09-01 | 2020-06-16 | Kabushiki Kaisha Toshiba | System and method and device for adjusting image positioning |
WO2017145628A1 (ja) * | 2016-02-22 | 2017-08-31 | 株式会社ブロードリーフ | 作業分析支援装置、作業分析支援方法、コンピュータプログラム、及び情報記憶媒体 |
JP2017151520A (ja) * | 2016-02-22 | 2017-08-31 | 株式会社ブロードリーフ | コンピュータプログラム、作業分析支援方法及び作業分析支援装置 |
US11068831B2 (en) | 2016-02-22 | 2021-07-20 | Broadleaf Co., Ltd. | Work analysis assistance device, work analysis assistance method, computer program, and information storage medium |
JP2017220017A (ja) * | 2016-06-07 | 2017-12-14 | いすゞ自動車株式会社 | 作業検査装置及び作業検査方法 |
US11036972B2 (en) | 2016-07-11 | 2021-06-15 | Disco Corporation | Management system for supervising operator |
JP2018010366A (ja) * | 2016-07-11 | 2018-01-18 | 株式会社ディスコ | 管理システム |
TWI735588B (zh) * | 2016-07-11 | 2021-08-11 | 日商迪思科股份有限公司 | 管理系統 |
WO2018087844A1 (ja) * | 2016-11-09 | 2018-05-17 | 三菱電機株式会社 | 作業認識装置および作業認識方法 |
JPWO2018087844A1 (ja) * | 2016-11-09 | 2018-12-27 | 三菱電機株式会社 | 作業認識装置および作業認識方法 |
JP6444573B2 (ja) * | 2016-11-09 | 2018-12-26 | 三菱電機株式会社 | 作業認識装置および作業認識方法 |
JP2017182811A (ja) * | 2017-04-06 | 2017-10-05 | 株式会社シーイーシー | 演算装置 |
JP7291739B2 (ja) | 2017-07-14 | 2023-06-15 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
JP2021093219A (ja) * | 2017-07-14 | 2021-06-17 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
JPWO2019012993A1 (ja) * | 2017-07-14 | 2019-11-07 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
US11076130B2 (en) | 2017-07-14 | 2021-07-27 | Komatsu Ltd. | Operation information transmission device, construction management system, operation information transmission method, and program |
WO2019012993A1 (ja) * | 2017-07-14 | 2019-01-17 | 株式会社小松製作所 | 稼働情報送信装置、施工管理システム、稼働情報送信方法及びプログラム |
JP2018045707A (ja) * | 2017-11-27 | 2018-03-22 | 株式会社東芝 | システム、方法及びセンサ装置 |
US11703824B2 (en) | 2019-02-28 | 2023-07-18 | Nanotronics Imaging, Inc. | Assembly error correction for assembly lines |
US11675330B2 (en) | 2019-02-28 | 2023-06-13 | Nanotronics Imaging, Inc. | System and method for improving assembly line processes |
JP2022522159A (ja) * | 2019-04-19 | 2022-04-14 | ナノトロニクス イメージング インコーポレイテッド | 組立てラインのための組立てエラー修正 |
JP7207790B2 (ja) | 2019-04-19 | 2023-01-18 | ナノトロニクス イメージング インコーポレイテッド | 組立てラインのための組立てエラー修正 |
US11461923B2 (en) | 2019-12-11 | 2022-10-04 | Kabushiki Kaisha Toshiba | Calculation system, calculation method, and storage medium |
WO2021192024A1 (ja) * | 2020-03-24 | 2021-09-30 | ソニーグループ株式会社 | 作業管理装置及び作業状態判定方法 |
JP7433126B2 (ja) | 2020-04-21 | 2024-02-19 | 三菱電機株式会社 | 画像表示システム、画像表示装置、サーバ、画像表示方法およびプログラム |
CN112015134A (zh) * | 2020-08-31 | 2020-12-01 | 安徽中烟工业有限责任公司 | 一种贮柜人身安全防护安全系统及其安全控制方法 |
CN112015134B (zh) * | 2020-08-31 | 2023-11-03 | 安徽中烟工业有限责任公司 | 一种贮柜人身安全防护安全系统及其安全控制方法 |
CN115485715A (zh) * | 2020-10-13 | 2022-12-16 | 三菱电机株式会社 | 模型生成装置、异常判定装置、异常判定系统、模型生成方法及程序 |
US11854187B2 (en) | 2020-10-13 | 2023-12-26 | Mitsubishi Electric Corporation | Model generation device, abnormality determination device, abnormality determination system, model generation method, and recording medium |
WO2022079783A1 (ja) * | 2020-10-13 | 2022-04-21 | 三菱電機株式会社 | モデル生成装置、異常判定装置、異常判定システム、モデル生成方法及びプログラム |
WO2023095329A1 (ja) * | 2021-11-29 | 2023-06-01 | 日本電気株式会社 | 動作評価システム、動作評価方法、及び非一時的なコンピュータ可読媒体 |
WO2023106323A1 (ja) * | 2021-12-10 | 2023-06-15 | 株式会社小松製作所 | 施工管理システム及び施工管理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005250990A (ja) | 作業支援装置 | |
EP3055744B1 (en) | A method and a device for verifying one or more safety volumes for a movable mechanical unit | |
JP2021152979A (ja) | 作業支援装置、作業支援方法及びプログラム | |
JP2014211763A5 (ja) | ||
JP2008021092A (ja) | ロボットシステムのシミュレーション装置 | |
JP5390813B2 (ja) | 空間情報表示装置及び支援装置 | |
JP2011018094A (ja) | 巡回警備支援システム、方法及びプログラム | |
EP2876624A1 (en) | Maintenance assistant system | |
JP7114885B2 (ja) | 作業現場監視装置およびプログラム | |
US11192249B2 (en) | Simulation device for robot | |
CN106919254B (zh) | 一种头戴式虚拟现实设备及安全保护方法 | |
US10296096B2 (en) | Operation recognition device and operation recognition method | |
JP2013131159A (ja) | エリアモニタリングシステム | |
JP2014115700A (ja) | 要確認度判定装置、要確認度判定方法、及びプログラム | |
CN109715307A (zh) | 具有工作区图像捕获设备的弯曲机以及用于表示工作区的方法 | |
JP2007163864A (ja) | 表示制御装置、表示制御方法、表示制御プログラム、および表示制御プログラム記録媒体 | |
JP6270488B2 (ja) | オペレータ監視制御装置およびオペレータ監視制御方法 | |
JP2020194493A (ja) | 介護設備又は病院用の監視システム及び監視方法 | |
JP2021002290A (ja) | 画像処理装置およびその制御方法 | |
JP2006252036A (ja) | 投影画像作成装置、プログラム、投影画像作成方法及び画像投影システム | |
JP2006209259A (ja) | 操作支援システム及び操作支援方法、並びにコンピュータ・プログラム | |
US10817123B2 (en) | Operation assistance apparatus and operation assistance method | |
JP5891191B2 (ja) | 稼動実績取得システム及び稼動実績取得方法 | |
US20200120268A1 (en) | Image capture assist device and image capture assist method | |
JP6885909B2 (ja) | ロボット制御装置 |