JPWO2019097676A1 - 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム - Google Patents
3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム Download PDFInfo
- Publication number
- JPWO2019097676A1 JPWO2019097676A1 JP2018505503A JP2018505503A JPWO2019097676A1 JP WO2019097676 A1 JPWO2019097676 A1 JP WO2019097676A1 JP 2018505503 A JP2018505503 A JP 2018505503A JP 2018505503 A JP2018505503 A JP 2018505503A JP WO2019097676 A1 JPWO2019097676 A1 JP WO2019097676A1
- Authority
- JP
- Japan
- Prior art keywords
- space
- monitoring
- distance
- worker
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3003—Monitoring arrangements specially adapted to the computing system or computing system component being monitored
- G06F11/3013—Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system is an embedded system, i.e. a combination of hardware and software dedicated to perform a certain function in mobile devices, printers, automotive or aircraft systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/3058—Monitoring arrangements for monitoring environmental properties or parameters of the computing system or of the computing system component, e.g. monitoring of power, currents, temperature, humidity, position, vibrations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39082—Collision, real time collision avoidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40201—Detect contact, collision with human
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40339—Avoid collision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40499—Reinforcement learning algorithm
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/43—Speed, acceleration, deceleration control ADC
- G05B2219/43202—If collision danger, speed is low, slow motion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Manipulator (AREA)
Abstract
Description
〈3次元空間監視装置10〉
図1は、実施の形態1に係る3次元空間監視装置10及びセンサ部20の構成を概略的に示す図である。図2は、3次元空間監視装置10及びセンサ部20の動作を示すフローチャートである。図1に示されるシステムは、3次元空間監視装置10と、センサ部20とを有する。図1には、共存空間30内において、第1の監視対象としての作業者31と第2の監視対象としてのロボット32とが協働作業を行う場合が示されている。
(1)センサ部20により共存空間30を計測することで取得された作業者31の時系列の計測情報(例えば、画像情報)31aに基づく第1の骨格情報41とロボット32の時系列の計測情報(例えば、画像情報)32aに基づく第2の骨格情報42とから、作業者31及びロボット32の動作パターンを機械学習することによって学習結果D2を生成するステップ(図2におけるステップS1〜S3)と、
(2)第1の骨格情報41から作業者31が存在できる仮想的な第1の動作空間43を生成し、第2の骨格情報42からロボット32が存在できる仮想的な第2の動作空間44を生成するステップ(図2におけるステップS5)と、
(3)作業者31から第2の動作空間44までの第1の距離45とロボット32から第1の動作空間43までの第2の距離46とを算出するステップ(図2におけるステップS6)と、
(4)学習結果D2に基づいて距離閾値Lを決定するステップ(図2におけるステップS4)と、
(5)第1の距離45と第2の距離46と距離閾値Lとに基づいて作業者31とロボット32との接触可能性を予測するステップ(図2におけるステップS7)と、
(6)予測された接触可能性に基づく処理を実行するステップ(図2におけるステップS8,S9)とを有する。
なお、図1に示される第1の骨格情報41、第2の骨格情報42、第1の動作空間43、及び第2の動作空間44の各形状は、例示であり、より具体的な形状の例は、後述の図5(A)から(E)に示される。
センサ部20は、作業者31の行動とロボット32の動作を3次元計測する(図2におけるステップS1)。センサ部20は、例えば、第1の監視対象である作業者31と第2の監視対象であるロボット32の色画像と、センサ部20から作業者31までの距離とセンサ部20からロボット32までの距離とを、赤外線を用いて同時に測定することができる距離画像カメラを有する。また、センサ部20に加えて、センサ部20と異なる位置に配置された他のセンサ部を備えてもよい。他のセンサ部は、互いに異なる位置に配置された複数台のセンサ部を含んでもよい。複数のセンサ部を備えることにより、センサ部によって測定することができない死角領域を減らすことができる。
学習部11は、センサ部20から取得した作業者31の第1の骨格情報41とロボット32の第2の骨格情報42と記憶部12に記憶された学習データD1とから、作業者31の行動パターンを機械学習し、その結果を学習結果D2として導出する。同様に、学習部11は、ロボット32の動作パターン(又は他の作業者の行動パターン)を機械学習し、その結果を学習結果D2として導出してもよい。記憶部12には、作業者31とロボット32の時系列の第1及び第2の骨格情報41,42に基づく機械学習によって取得された教師情報及び学習結果などが、学習データD1として随時格納される。学習結果D2は、作業者31が作業に対してどの程度熟練しているか(つまり、慣れているか)を示す指標である「習熟度」、作業者の疲労の程度(つまり、体調)を示す指標である「疲労度」、作業者の作業の進捗状況が相手方の作業の進捗状況と一致しているかどうかを示す指標である「協調レベル」の内の1つ以上を含むことができる。
図5(A)から(E)は、監視対象の骨格構造と動作空間の例を示す概略斜視図である。動作空間生成部13は、作業者31及びロボット32の個々の形状に合わせて仮想的な動作空間を形成する。
距離算出部14は、動作空間生成部13が生成した、作業者31又はロボット32の仮想的な第1及び第2の動作空間43,44(図1におけるD4)から、例えば、第2の動作空間44と作業者31の手との間の第2の距離46、及び第1の動作空間43とロボット32のアームとの間の第1の距離45を算出する(図2におけるステップS6)。具体的には、ロボット32のアームの先端部から作業者31までの距離を算出する場合、図5(A)の第1の動作空間43の垂体部分を構成する平面305〜308の各々からロボット32のアームの先端までの垂直方向の距離、図5(A)の第1の動作空間43の四角柱(頭部)部分を構成する各面からアームの先端まで垂直方向の距離を算出する。同様に、作業者31の手からロボット32までの距離を算出する場合、第2の動作空間44の四角柱を構成する各平面から手までの垂直方向の距離を算出する。
接触予測判定部15は、距離閾値Lを用いて第1及び第2の動作空間43,44と作業者31又はロボット32との干渉の可能性を判定する(図2におけるステップS7)。距離閾値Lは、学習部11による判定の結果である学習結果D2に基づいて決定される。したがって、距離閾値Lは、作業者31の状態(例えば、習熟度、疲労度など)又は作業状況(例えば、協調レベルなど)に応じて変化する。
情報提供部16は、光による図形の表示、光による文字の表示、音、振動など様々なモーダルを用いて、すなわち、人間の五感などによる感覚の情報を組み合わせたマルチモーダルにより、作業者31へ情報を提供する。例えば、接触予測判定部15が、作業者31とロボット32が接触すると予測した場合、作業机の上に警告のためのプロジェクションマッピングを行う。警告をより気づきやすく且つ分かりやすく表現するため、図6(A)及び(B)に示されるように、動作空間44とは反対向きの大きな矢印48をアニメーション表示して、作業者31がとっさに直感的に矢印48方向に手を移動させる動作を促す。また、作業者31の作業速度が、ロボット32の作業速度より遅い場合又は製造工場における目標作業速度を下回る場合、その内容を作業の邪魔にならない形で効果的に言葉49で提示することにより、作業を速めることを作業者31へ促す。
機械制御部17は、接触予測判定部15において接触する可能性があると判定された場合、ロボット32へ減速、停止、又は退避などの動作指令を出力する(図2におけるステップS8)。退避動作は、作業者31とロボット32が接触しそうな場合、ロボット32のアームを作業者31と反対の方向へ動かす動作である。作業者31は、このロボット32の動作を見ることにより、自分の動作が間違っていることを認識しやすくなる。
図7は、実施の形態1に係る3次元空間監視装置10のハードウェア構成を示す図である。3次元空間監視装置10は、例えば、製造工場におけるエッジコンピュータとして実装される。或いは、3次元空間監視装置10は、現場フィールドに近い製造機器に組み込まれたコンピュータとして実装される。
以上に説明したように、実施の形態1によれば、第1の監視対象と第2の監視対象との接触可能性を高い精度で判定することができる。
図8は、実施の形態2に係る3次元空間監視装置10a及びセンサ部20の構成を概略的に示す図である。図8において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。図9は、実施の形態2に係る3次元空間監視装置10aの学習部11aの構成例を概略的に示すブロック図である。図9において、図3に示される構成要素と同一又は対応する構成要素には、図3に示される符号と同じ符号が付される。実施の形態2に係る3次元空間監視装置10aは、学習部11aが学習装置114をさらに備えた点及び情報提供部16が学習部11aからの学習結果D9に基づいた情報を提供する点が、実施の形態1に係る3次元空間監視装置10と相違する。
(ルール1)青色は「問題なし」。
(ルール2)黄色は「注意」。
(ルール3)赤色は「警告」。
このため、学習装置114は、提示する情報の種別を入力して学習を行うことにより、使用すべき推奨の色を導き出す。
距離算出部14は、動作空間生成部13が生成した、作業者31又はロボット32の仮想的な第1及び第2の動作空間43,44(図1におけるD4)から、例えば、第2の動作空間44と作業者31の手との間の第2の距離46、及び第1の動作空間43とロボット32のアームとの間の第1の距離45を算出する(図2におけるステップS6)。具体的には、ロボット32のアームの先端部から作業者31までの距離を算出する場合、図5(A)の第1の動作空間43の錐体部分を構成する平面305〜308の各々からロボット32のアームの先端までの垂直方向の距離、図5(A)の第1の動作空間43の四角柱(頭部)部分を構成する各面からアームの先端まで垂直方向の距離を算出する。同様に、作業者31の手からロボット32までの距離を算出する場合、第2の動作空間44の四角柱を構成する各平面から手までの垂直方向の距離を算出する。
Claims (12)
- 第1の監視対象と第2の監視対象とが存在する共存空間を監視する3次元空間監視装置であって、
センサ部により前記共存空間を計測することで取得された前記第1の監視対象の時系列の第1の計測情報と前記第2の監視対象の時系列の第2の計測情報とから、前記第1の監視対象及び前記第2の監視対象の動作パターンを機械学習することによって学習結果を生成する学習部と、
前記第1の計測情報に基づいて前記第1の監視対象が存在できる仮想的な第1の動作空間を生成し、前記第2の計測情報に基づいて前記第2の監視対象が存在できる仮想的な第2の動作空間を生成する動作空間生成部と、
前記第1の監視対象から前記第2の動作空間までの第1の距離と前記第2の監視対象から前記第1の動作空間までの第2の距離とを算出する距離算出部と、
前記学習部の学習結果に基づいて距離閾値を決定し、前記第1の距離と前記第2の距離と前記距離閾値とに基づいて前記第1の監視対象と前記第2の監視対象との接触可能性を予測する接触予測判定部と、を備え、
前記接触可能性に基づく処理を実行する
ことを特徴とする3次元空間監視装置。 - 前記学習部は、前記第1の計測情報に基づいて生成された前記第1の監視対象の第1の骨格情報と前記第2の計測情報に基づいて生成された前記第2の監視対象の第2の骨格情報とから、前記動作パターンを機械学習することによって前記学習結果を出力し、
前記動作空間生成部は、前記第1の骨格情報から前記第1の動作空間を生成し、前記第2の骨格情報から前記第2の動作空間を生成する
ことを特徴とする請求項1に記載の3次元空間監視装置。 - 前記第1の監視対象は作業者であり、前記第2の監視対象はロボットであることを特徴とする請求項1又は2に記載の3次元空間監視装置。
- 前記第1の監視対象は作業者であり、前記第2の監視対象は他の作業者であることを特徴とする請求項1又は2に記載の3次元空間監視装置。
- 前記学習部から出力される前記学習結果は、前記作業者の習熟度、前記作業者の疲労度、及び前記作業者の協調レベルを含むことを特徴とする請求項3又は4のいずれか1項に記載の3次元空間監視装置。
- 前記学習部は、
前記第1の距離が大きいほど大きな報酬を受け取り、
前記第2の距離が大きいほど大きな報酬を受け取り、
前記ロボットの加速度の大きさが大きいほど小さな報酬を受け取り、
前記ロボットの力が大きいほど小さな報酬を受け取る
ことを特徴とする請求項3に記載の3次元空間監視装置。 - 前記作業者に情報を提供する情報提供部をさらに備え、
前記情報提供部は、前記接触可能性に基づく処理として、前記作業者への情報の提供を行う
ことを特徴とする請求項3又は4に記載の3次元空間監視装置。 - 前記情報提供部は、前記学習結果に基づいて、前記作業者への提供される表示情報に関して、前記作業者が気づきやすい配色、前記作業者が判別しやすい背景色と前景色の組み合わせ、前記作業者が読みやすい文字の量、前記作業者が認識しやすい文字の大きさを決定することを特徴とする請求項7に記載の3次元空間監視装置。
- 前記ロボットの動作を制御する機械制御部をさらに備え、
前記機械制御部は、前記接触可能性に基づく処理として、前記ロボットの制御を行う
ことを特徴とする請求項3に記載の3次元空間監視装置。 - 前記動作空間生成部は、
前記第1の骨格情報に含まれる関節の3次元位置データによって決まる第1の平面を用いて前記第1の動作空間を生成し、
前記第2の骨格情報に含まれる関節の3次元位置データによって決まる第2の平面を前記第2の平面に垂直な方向に移動させることで前記第2の動作空間を生成する
ことを特徴とする請求項2に記載の3次元空間監視装置。 - 第1の監視対象と第2の監視対象とが存在する共存空間を監視する3次元空間監視方法であって、
センサ部により前記共存空間を計測することで取得された前記第1の監視対象の時系列の第1の計測情報と前記第2の監視対象の時系列の第2の計測情報とから、前記第1の監視対象及び前記第2の監視対象の動作パターンを機械学習することによって学習結果を生成するステップと、
前記第1の計測情報に基づいて前記第1の監視対象が存在できる仮想的な第1の動作空間を生成し、前記第2の計測情報に基づいて前記第2の監視対象が存在できる仮想的な第2の動作空間を生成するステップと、
前記第1の監視対象から前記第2の動作空間までの第1の距離と前記第2の監視対象から前記第1の動作空間までの第2の距離とを算出するステップと、
前記学習結果に基づいて距離閾値を決定し、前記第1の距離と前記第2の距離と前記距離閾値とに基づいて前記第1の監視対象と前記第2の監視対象との接触可能性を予測するステップと、
前記接触可能性に基づく動作を実行するステップと
を有することを特徴とする3次元空間監視方法。 - コンピュータに、第1の監視対象と第2の監視対象とが存在する共存空間を監視させる3次元空間監視プログラムであって、
前記コンピュータに、
センサ部により前記共存空間を計測することで取得された前記第1の監視対象の時系列の第1の計測情報と前記第2の監視対象の時系列の第2の計測情報とから、前記第1の監視対象及び前記第2の監視対象の動作パターンを機械学習することによって学習結果を生成する処理と、
前記第1の計測情報に基づいて前記第1の監視対象が存在できる仮想的な第1の動作空間を生成し、前記第2の計測情報に基づいて前記第2の監視対象が存在できる仮想的な第2の動作空間を生成する処理と、
前記第1の監視対象から前記第2の動作空間までの第1の距離と前記第2の監視対象から前記第1の動作空間までの第2の距離とを算出する処理と、
前記学習結果に基づいて距離閾値を決定し、前記第1の距離と前記第2の距離と前記距離閾値とに基づいて前記第1の監視対象と前記第2の監視対象との接触可能性を予測する処理と、
前記接触可能性に基づく動作を実行する処理と
を実行させることを特徴とする3次元空間監視プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/041487 WO2019097676A1 (ja) | 2017-11-17 | 2017-11-17 | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6403920B1 JP6403920B1 (ja) | 2018-10-10 |
JPWO2019097676A1 true JPWO2019097676A1 (ja) | 2019-11-21 |
Family
ID=63788176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505503A Expired - Fee Related JP6403920B1 (ja) | 2017-11-17 | 2017-11-17 | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210073096A1 (ja) |
JP (1) | JP6403920B1 (ja) |
KR (1) | KR102165967B1 (ja) |
CN (1) | CN111372735A (ja) |
DE (1) | DE112017008089B4 (ja) |
TW (1) | TWI691913B (ja) |
WO (1) | WO2019097676A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3768472A1 (en) * | 2018-04-22 | 2021-01-27 | Google LLC | Systems and methods for learning agile locomotion for multiped robots |
CN111105109A (zh) * | 2018-10-25 | 2020-05-05 | 玳能本股份有限公司 | 操作检测装置、操作检测方法及操作检测系统 |
JP7049974B2 (ja) * | 2018-10-29 | 2022-04-07 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6997068B2 (ja) * | 2018-12-19 | 2022-01-17 | ファナック株式会社 | ロボット制御装置、ロボット制御システム、及びロボット制御方法 |
JP7277188B2 (ja) * | 2019-03-14 | 2023-05-18 | 株式会社日立製作所 | 作業場の管理支援システムおよび管理支援方法 |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
JP7295421B2 (ja) * | 2019-08-22 | 2023-06-21 | オムロン株式会社 | 制御装置及び制御方法 |
JP7448327B2 (ja) * | 2019-09-26 | 2024-03-12 | ファナック株式会社 | 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法 |
EP4190886A4 (en) | 2020-07-31 | 2024-02-21 | Ricoh Co Ltd | INFORMATION PROVISION APPARATUS, INFORMATION PROVISION SYSTEM, INFORMATION PROVISION METHOD AND PROGRAM |
WO2023026589A1 (ja) * | 2021-08-27 | 2023-03-02 | オムロン株式会社 | 制御装置、制御方法および制御プログラム |
DE102022208089A1 (de) | 2022-08-03 | 2024-02-08 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Steuern eines Roboters |
DE102022131352A1 (de) | 2022-11-28 | 2024-05-29 | Schaeffler Technologies AG & Co. KG | Verfahren zur Steuerung eines mit einem Menschen kollaborierenden Roboters und System mit einem kollaborativen Roboter |
WO2024116333A1 (ja) * | 2022-11-30 | 2024-06-06 | 三菱電機株式会社 | 情報処理装置、制御方法、及び制御プログラム |
WO2024122625A1 (ja) * | 2022-12-08 | 2024-06-13 | ソフトバンクグループ株式会社 | 情報処理装置及びプログラム |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS52116A (en) | 1975-06-23 | 1977-01-05 | Sony Corp | Storage tube type recorder/reproducer |
JP2666142B2 (ja) | 1987-02-04 | 1997-10-22 | 旭光学工業株式会社 | カメラの自動焦点検出装置 |
JPS647256A (en) | 1987-06-30 | 1989-01-11 | Toshiba Corp | Interaction device |
JPH07102675B2 (ja) | 1987-07-15 | 1995-11-08 | 凸版印刷株式会社 | 円圧式印刷機 |
JPS6444488A (en) | 1987-08-12 | 1989-02-16 | Seiko Epson Corp | Integrated circuit for linear sequence type liquid crystal driving |
JPH0789297B2 (ja) | 1987-08-31 | 1995-09-27 | 旭光学工業株式会社 | 天体追尾装置 |
JPH0727136B2 (ja) | 1987-11-12 | 1995-03-29 | 三菱レイヨン株式会社 | 面光源素子 |
JP3504507B2 (ja) * | 1998-09-17 | 2004-03-08 | トヨタ自動車株式会社 | 適切反力付与型作業補助装置 |
JP3704706B2 (ja) * | 2002-03-13 | 2005-10-12 | オムロン株式会社 | 三次元監視装置 |
JP3872387B2 (ja) * | 2002-06-19 | 2007-01-24 | トヨタ自動車株式会社 | 人間と共存するロボットの制御装置と制御方法 |
DE102006048163B4 (de) | 2006-07-31 | 2013-06-06 | Pilz Gmbh & Co. Kg | Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung |
JP4272249B1 (ja) | 2008-03-24 | 2009-06-03 | 株式会社エヌ・ティ・ティ・データ | 作業者の疲労度管理装置、方法及びコンピュータプログラム |
TW201006635A (en) * | 2008-08-07 | 2010-02-16 | Univ Yuan Ze | In situ robot which can be controlled remotely |
JP5036661B2 (ja) * | 2008-08-29 | 2012-09-26 | 三菱電機株式会社 | 干渉チェック制御装置および干渉チェック制御方法 |
JP2010120139A (ja) | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
CN102239032B (zh) | 2008-12-03 | 2014-07-02 | Abb研究有限公司 | 机器人安全系统和方法 |
DE102009035755A1 (de) * | 2009-07-24 | 2011-01-27 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Überwachen eines Raumbereichs |
DE102010002250B4 (de) * | 2010-02-23 | 2022-01-20 | pmdtechnologies ag | Überwachungssystem |
US10095991B2 (en) * | 2012-01-13 | 2018-10-09 | Mitsubishi Electric Corporation | Risk measurement system |
JP2013206962A (ja) * | 2012-03-27 | 2013-10-07 | Tokyo Electron Ltd | 保守システム及び基板処理装置 |
JP5549724B2 (ja) | 2012-11-12 | 2014-07-16 | 株式会社安川電機 | ロボットシステム |
TWI547355B (zh) | 2013-11-11 | 2016-09-01 | 財團法人工業技術研究院 | 人機共生安全監控系統及其方法 |
ES2773136T3 (es) * | 2014-06-05 | 2020-07-09 | Softbank Robotics Europe | Robot humanoide con capacidades para evitar colisiones y de recuperación de trayectoria |
JP6397226B2 (ja) | 2014-06-05 | 2018-09-26 | キヤノン株式会社 | 装置、装置の制御方法およびプログラム |
TWI558525B (zh) * | 2014-12-26 | 2016-11-21 | 國立交通大學 | 機器人及其控制方法 |
JP6494331B2 (ja) * | 2015-03-03 | 2019-04-03 | キヤノン株式会社 | ロボット制御装置およびロボット制御方法 |
US9981385B2 (en) * | 2015-10-12 | 2018-05-29 | The Boeing Company | Dynamic automation work zone safety system |
JP6657859B2 (ja) | 2015-11-30 | 2020-03-04 | 株式会社デンソーウェーブ | ロボット安全システム |
JP6645142B2 (ja) * | 2015-11-30 | 2020-02-12 | 株式会社デンソーウェーブ | ロボット安全システム |
-
2017
- 2017-11-17 WO PCT/JP2017/041487 patent/WO2019097676A1/ja active Application Filing
- 2017-11-17 JP JP2018505503A patent/JP6403920B1/ja not_active Expired - Fee Related
- 2017-11-17 CN CN201780096769.XA patent/CN111372735A/zh active Pending
- 2017-11-17 US US16/642,727 patent/US20210073096A1/en not_active Abandoned
- 2017-11-17 KR KR1020207013091A patent/KR102165967B1/ko active IP Right Grant
- 2017-11-17 DE DE112017008089.4T patent/DE112017008089B4/de not_active Expired - Fee Related
-
2018
- 2018-01-19 TW TW107102021A patent/TWI691913B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
JP6403920B1 (ja) | 2018-10-10 |
DE112017008089T5 (de) | 2020-07-02 |
KR20200054327A (ko) | 2020-05-19 |
TW201923610A (zh) | 2019-06-16 |
TWI691913B (zh) | 2020-04-21 |
WO2019097676A1 (ja) | 2019-05-23 |
CN111372735A (zh) | 2020-07-03 |
US20210073096A1 (en) | 2021-03-11 |
KR102165967B1 (ko) | 2020-10-15 |
DE112017008089B4 (de) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6403920B1 (ja) | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム | |
Segura et al. | Visual computing technologies to support the Operator 4.0 | |
Eswaran et al. | Challenges and opportunities on AR/VR technologies for manufacturing systems in the context of industry 4.0: A state of the art review | |
JP6386786B2 (ja) | 複合システムの構成要素上で実行されるタスクをサポートするユーザの追跡 | |
EP3401847A1 (en) | Task execution system, task execution method, training apparatus, and training method | |
Leu et al. | CAD model based virtual assembly simulation, planning and training | |
Lampen et al. | Combining simulation and augmented reality methods for enhanced worker assistance in manual assembly | |
Eswaran et al. | Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities | |
US11052537B2 (en) | Robot operation evaluation device, robot operation evaluating method, and robot system | |
US10414047B2 (en) | Method and a data processing system for simulating and handling of anti-collision management for an area of a production plant | |
JP2019188530A (ja) | ロボットのシミュレーション装置 | |
Boud et al. | Virtual reality: A tool for assembly? | |
US20220019939A1 (en) | Method and system for predicting motion-outcome data of a robot moving between a given pair of robotic locations | |
Skripcak et al. | Toward nonconventional human–machine interfaces for supervisory plant process monitoring | |
Liu et al. | A mixed perception-based human-robot collaborative maintenance approach driven by augmented reality and online deep reinforcement learning | |
Ko et al. | A study on manufacturing facility safety system using multimedia tools for cyber physical systems | |
Chryssolouris et al. | Artificial intelligence in manufacturing equipment, automation, and robots | |
Weng et al. | Quantitative assessment at task-level for performance of robotic configurations and task plans | |
Abd Majid et al. | Aluminium process fault detection and diagnosis | |
JP6807589B1 (ja) | 状態判定システム、状態判定方法、及び状態判定プログラム | |
JP7148938B2 (ja) | 状態判定システム、状態判定方法、及び状態判定プログラム | |
JP7485058B2 (ja) | 判定装置、判定方法及びプログラム | |
WO2021075102A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Lossie et al. | Smart Glasses for State Supervision in Self-optimizing Production Systems | |
Erboz et al. | Lean Management through Industry 4.0: Applicability to the Seven Types of Waste of the TPS System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180201 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180201 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180201 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6403920 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |