JP7463946B2 - 動作制御プログラム、動作制御方法、および動作制御装置 - Google Patents
動作制御プログラム、動作制御方法、および動作制御装置 Download PDFInfo
- Publication number
- JP7463946B2 JP7463946B2 JP2020187981A JP2020187981A JP7463946B2 JP 7463946 B2 JP7463946 B2 JP 7463946B2 JP 2020187981 A JP2020187981 A JP 2020187981A JP 2020187981 A JP2020187981 A JP 2020187981A JP 7463946 B2 JP7463946 B2 JP 7463946B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- identifying
- timing
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 124
- 238000010801 machine learning Methods 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 21
- 230000036544 posture Effects 0.000 description 55
- 238000013528 artificial neural network Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 239000002131 composite material Substances 0.000 description 11
- 238000013459 approach Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Robotics (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Manipulator (AREA)
Description
次に、図1に示した動作制御装置10の機能構成について説明する。図3は、動作制御装置の構成例を示す図である。図3に示すように、動作制御装置10は、通信部20、記憶部30、および制御部40を有する。
次に、各機能を図4~7を用いて詳細に説明する。まず、特定部41による、ロボットアーム100などの機器の動作環境を撮像した画像における対象物の領域特定について説明する。図4は、対象物の領域特定の一例を示す図である。撮像画像300は、ロボットアーム100の動作環境をロボットアーム100の側面からカメラ装置200で撮像した画像である。撮像画像300には、ロボットアーム100の他、障害物となり得る対象物150が写っている。
次に、動作制御装置10によって実行されるロボットアーム100などの機器の動作制御処理の流れを説明する。図8は、動作制御処理の流れを示すフローチャートである。図8に示す動作制御処理は、動作制御装置10が実行主体であり、機器と対象物150との接近や衝突を未然に回避するために、機器の稼働中、リアルタイムに実行される。そのため、カメラ装置200によって稼働中の機器の動作環境が常時撮像され、撮像された画像は、動作制御装置10に送信される。
上述したように、動作制御装置10は、第1のタイミングにおける機器の動作環境を撮像した第1の画像における対象物の領域を特定し、第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、第1のタイミングより後の第2のタイミングの機器の動作状態を表す第2の動作情報を生成し、第2の動作情報に基づいて、第2の機械学習モデルを用いて、機器の動作環境を表す第2の画像における機器の領域を特定し、機器の領域と、対象物の領域とを比較し、比較する処理の結果に基づいて、機器の回避動作を実行する。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更できる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更できる。
図9は、ハードウェア構成例を説明する図である。図9に示すように、動作制御装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図9に示した各部は、バスなどで相互に接続される。
第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、第1のタイミングより後の第2のタイミングの機器の動作状態を表す第2の動作情報を生成し、
第2の動作情報に基づいて、第2の機械学習モデルを用いて、機器の動作環境を表す第2の画像における機器の領域を特定し、
機器の領域と、対象物の領域とを比較し、
比較する処理の結果に基づいて、機器の回避動作を実行する、
処理をコンピュータに実行させることを特徴とする動作制御プログラム。
機器の回避動作を実行する処理は、重なりが有ると判定した場合、機器の回避動作を実行する処理を含む、
ことを特徴とする付記1に記載の動作制御プログラム。
機器の回避動作を実行する処理は、最短距離が所定の閾値以下の場合、機器の回避動作を実行する処理を含む、
ことを特徴とする付記1に記載の動作制御プログラム。
機器の領域を特定する処理は、それぞれが複数の方向から機器の動作環境を表す複数の第2の画像における機器の領域を特定する処理を含むことを特徴とする付記1に記載の動作制御プログラム。
第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、第1のタイミングより後の第2のタイミングの機器の動作状態を表す第2の動作情報を生成し、
第2の動作情報に基づいて、第2の機械学習モデルを用いて、機器の動作環境を表す第2の画像における機器の領域を特定し、
機器の領域と、対象物の領域とを比較し、
比較する処理の結果に基づいて、機器の回避動作を実行する、
処理をコンピュータが実行することを特徴とする動作制御方法。
機器の回避動作を実行する処理は、重なりが有ると判定した場合、機器の回避動作を実行する処理を含む、
ことを特徴とする付記7に記載の動作制御方法。
機器の回避動作を実行する処理は、最短距離が所定の閾値以下の場合、機器の回避動作を実行する処理を含む、
ことを特徴とする付記7に記載の動作制御方法。
機器の領域を特定する処理は、それぞれが複数の方向から機器の動作環境を表す複数の第2の画像における機器の領域を特定する処理を含むことを特徴とする付記7に記載の動作制御方法。
第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、第1のタイミングより後の第2のタイミングの機器の動作状態を表す第2の動作情報を生成し、
第2の動作情報に基づいて、第2の機械学習モデルを用いて、機器の動作環境を表す第2の画像における機器の領域を特定し、
機器の領域と、対象物の領域とを比較し、
比較する処理の結果に基づいて、機器の回避動作を実行する、
処理を実行する制御部を有することを特徴とする動作制御装置。
機器の回避動作を実行する処理は、重なりが有ると判定した場合、機器の回避動作を実行する処理を含む、
ことを特徴とする付記13に記載の動作制御装置。
機器の回避動作を実行する処理は、最短距離が所定の閾値以下の場合、機器の回避動作を実行する処理を含む、
ことを特徴とする付記13に記載の動作制御装置。
機器の領域を特定する処理は、それぞれが複数の方向から機器の動作環境を表す複数の第2の画像における機器の領域を特定する処理を含むことを特徴とする付記13に記載の動作制御装置。
プロセッサに動作可能に接続されたメモリと
を備えた動作制御装置であって、プロセッサは、
第1のタイミングにおける機器の動作環境を撮像した第1の画像における対象物の領域を特定する第1の特定部と、
第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、第1のタイミングより後の第2のタイミングの機器の動作状態を表す第2の動作情報を生成する生成部と、
第2の動作情報に基づいて、第2の機械学習モデルを用いて、機器の動作環境を表す第2の画像における機器の領域を特定する第2の特定部と、
機器の領域と、対象物の領域とを比較する比較部と、
比較する処理の結果に基づいて、機器の回避動作を実行する実行部と
を有することを特徴とする動作制御装置。
10 動作制御装置
20 通信部
30 記憶部
31 姿勢情報
32 画像DB
33 機械学習モデルDB
40 制御部
41 特定部
42 生成部
43 比較部
44 実行部
50 物体検出器
60 ニューラルネットワーク
70 データセット
100 ロボットアーム
150 対象物
200 カメラ装置
300、330 撮像画像
310、320、340、350 マスク画像
400~430 合成画像
Claims (8)
- 第1のタイミングにおける機器の動作環境を撮像した第1の画像における対象物の領域を特定し、
前記第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、前記第1のタイミングより後の第2のタイミングの前記機器の動作状態を表す第2の動作情報を生成し、
前記第2の動作情報に基づいて、第2の機械学習モデルを用いて、前記機器の動作環境を表す第2の画像における前記機器の領域を特定し、
前記機器の領域と、前記対象物の領域とを比較し、
前記比較する処理の結果に基づいて、前記機器の回避動作を実行する、
処理をコンピュータに実行させることを特徴とする動作制御プログラム。 - 前記機器の領域を特定する処理は、前記第2の機械学習モデルに前記第2の動作情報を入力することにより出力される、前記第1の画像より解像度の低い前記第2の画像から前記機器の領域を特定する処理を含むことを特徴とする請求項1に記載の動作制御プログラム。
- 前記機器の領域を特定する処理は、前記第2の機械学習モデルに前記第2の動作情報を入力することにより出力される、前記機器を示す画素と前記機器以外を示す画素とが2値化された、前記第2の画像から前記機器の領域を特定する処理を含むことを特徴とする請求項2に記載の動作制御プログラム。
- 前記機器の領域と、前記対象物の領域とを比較する処理は、前記第2の画像における前記機器の領域の位置と前記第1の画像における前記対象物の領域の位置との重なりの有無を判定する処理を含み、
前記機器の回避動作を実行する処理は、前記重なりが有ると判定した場合、前記機器の回避動作を実行する処理を含む、
ことを特徴とする請求項1に記載の動作制御プログラム。 - 前記機器の領域と、前記対象物の領域とを比較する処理は、前記第2の画像における前記機器の領域の位置と前記第1の画像における前記対象物の領域の位置との最短距離を測定する処理を含み、
前記機器の回避動作を実行する処理は、前記最短距離が所定の閾値以下の場合、前記機器の回避動作を実行する処理を含む、
ことを特徴とする請求項1に記載の動作制御プログラム。 - 前記対象物の領域を特定する処理は、それぞれが異なる複数の方向から前記機器の動作環境を撮像した複数の前記第1の画像における前記対象物の領域を特定する処理を含み、
前記機器の領域を特定する処理は、それぞれが前記複数の方向から前記機器の動作環境を表す複数の前記第2の画像における前記機器の領域を特定する処理を含むことを特徴とする請求項1に記載の動作制御プログラム。 - 第1のタイミングにおける機器の動作環境を撮像した第1の画像における対象物の領域を特定し、
前記第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、前記第1のタイミングより後の第2のタイミングの前記機器の動作状態を表す第2の動作情報を生成し、
前記第2の動作情報に基づいて、第2の機械学習モデルを用いて、前記機器の動作環境を表す第2の画像における前記機器の領域を特定し、
前記機器の領域と、前記対象物の領域とを比較し、
前記比較する処理の結果に基づいて、前記機器の回避動作を実行する、
処理をコンピュータが実行することを特徴とする動作制御方法。 - 第1のタイミングにおける機器の動作環境を撮像した第1の画像における対象物の領域を特定し、
前記第1のタイミングの機器の動作状態を表す第1の動作情報に基づいて、第1の機械学習モデルを用いて、前記第1のタイミングより後の第2のタイミングの前記機器の動作状態を表す第2の動作情報を生成し、
前記第2の動作情報に基づいて、第2の機械学習モデルを用いて、前記機器の動作環境を表す第2の画像における前記機器の領域を特定し、
前記機器の領域と、前記対象物の領域とを比較し、
前記比較する処理の結果に基づいて、前記機器の回避動作を実行する、
処理を実行する制御部を有することを特徴とする動作制御装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020187981A JP7463946B2 (ja) | 2020-11-11 | 2020-11-11 | 動作制御プログラム、動作制御方法、および動作制御装置 |
US17/463,367 US20220148119A1 (en) | 2020-11-11 | 2021-08-31 | Computer-readable recording medium storing operation control program, operation control method, and operation control apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020187981A JP7463946B2 (ja) | 2020-11-11 | 2020-11-11 | 動作制御プログラム、動作制御方法、および動作制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022077228A JP2022077228A (ja) | 2022-05-23 |
JP7463946B2 true JP7463946B2 (ja) | 2024-04-09 |
Family
ID=81453565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020187981A Active JP7463946B2 (ja) | 2020-11-11 | 2020-11-11 | 動作制御プログラム、動作制御方法、および動作制御装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220148119A1 (ja) |
JP (1) | JP7463946B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230202044A1 (en) * | 2021-12-29 | 2023-06-29 | Shanghai United Imaging Intelligence Co., Ltd. | Automated collision avoidance in medical environments |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018143003A1 (ja) | 2017-01-31 | 2018-08-09 | 株式会社安川電機 | ロボットパス生成装置及びロボットシステム |
JP2019202354A (ja) | 2018-05-21 | 2019-11-28 | Telexistence株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10210631B1 (en) * | 2017-08-18 | 2019-02-19 | Synapse Technology Corporation | Generating synthetic image data |
-
2020
- 2020-11-11 JP JP2020187981A patent/JP7463946B2/ja active Active
-
2021
- 2021-08-31 US US17/463,367 patent/US20220148119A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018143003A1 (ja) | 2017-01-31 | 2018-08-09 | 株式会社安川電機 | ロボットパス生成装置及びロボットシステム |
JP2019202354A (ja) | 2018-05-21 | 2019-11-28 | Telexistence株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220148119A1 (en) | 2022-05-12 |
JP2022077228A (ja) | 2022-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10317854B2 (en) | Machine learning device that performs learning using simulation result, machine system, manufacturing system, and machine learning method | |
Billard et al. | Discriminative and adaptive imitation in uni-manual and bi-manual tasks | |
JP4609584B2 (ja) | ロボット装置、顔認識方法及び顔認識装置 | |
Shademan et al. | Robust jacobian estimation for uncalibrated visual servoing | |
Kraft et al. | Birth of the object: Detection of objectness and extraction of object shape through object–action complexes | |
Niekum et al. | Online bayesian changepoint detection for articulated motion models | |
Ding et al. | Sim-to-real transfer for optical tactile sensing | |
Sayour et al. | Autonomous robotic manipulation: real‐time, deep‐learning approach for grasping of unknown objects | |
Gu et al. | Automated assembly skill acquisition and implementation through human demonstration | |
Fang et al. | Visual-guided robotic object grasping using dual neural network controllers | |
US11203116B2 (en) | System and method for predicting robotic tasks with deep learning | |
Maeda et al. | View-based teaching/playback for robotic manipulation | |
Hwang et al. | Development of a mimic robot—Learning from demonstration incorporating object detection and multiaction recognition | |
JP7463946B2 (ja) | 動作制御プログラム、動作制御方法、および動作制御装置 | |
Rojas et al. | Towards snap sensing | |
US20230330858A1 (en) | Fine-grained industrial robotic assemblies | |
Zhu et al. | Diff-lfd: Contact-aware model-based learning from visual demonstration for robotic manipulation via differentiable physics-based simulation and rendering | |
Dang et al. | Perfc: An efficient 2d and 3d perception software-hardware framework for mobile cobot | |
US20220143836A1 (en) | Computer-readable recording medium storing operation control program, operation control method, and operation control apparatus | |
Thoduka et al. | Using visual anomaly detection for task execution monitoring | |
dos Santos et al. | A neural autonomous robotic manipulator with three degrees of freedom | |
CN113551661A (zh) | 位姿识别、轨迹规划方法、装置、系统、存储介质及设备 | |
Marchionne et al. | GNC architecture solutions for robust operations of a free-floating space manipulator via image based visual servoing | |
Wang et al. | Alignment Method of Combined Perception for Peg‐in‐Hole Assembly with Deep Reinforcement Learning | |
Juett et al. | Learning to reach by building a representation of peri-personal space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230707 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7463946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |