JP2020080023A - 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 - Google Patents
学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 Download PDFInfo
- Publication number
- JP2020080023A JP2020080023A JP2018212578A JP2018212578A JP2020080023A JP 2020080023 A JP2020080023 A JP 2020080023A JP 2018212578 A JP2018212578 A JP 2018212578A JP 2018212578 A JP2018212578 A JP 2018212578A JP 2020080023 A JP2020080023 A JP 2020080023A
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- value
- candidate
- model
- candidates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39298—Trajectory learning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40609—Camera to monitor end effector as well as object to be handled
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Robotics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
図1を用いて、学習装置及び検知装置の機能構成を説明する。図1は、実施例に係る学習装置及び検知装置を含むシステムの機能構成を示す機能ブロック図である。システム1は、ピッキングロボットで用いられるモデルの学習、モデルを用いた把持位置の検知、及びピッキングロボットによる実際の把持の制御等を行うためのシステムである。図1に示すように、システム1は、学習装置10、検知装置20、把持システム30、把持システム40及び把持制御装置50を有する。
図1に示すように、学習装置10は、把持システム30と接続されている。把持システム30は、トレイ31、ロボット32及びカメラ33を有する。トレイ31には、把持対象の物体が置かれる。また、ロボット32は、二指ハンドを有するピッキングロボットである。ロボット32は、トレイ31上の物体を把持する。このとき、ロボット32は、学習装置10から指示された把持位置に対し把持を行う。また、カメラ33は、トレイ31を上から撮影し、撮影した画像を学習装置10に送信する。
ここで、学習装置10の処理を具体的に説明する。まず、学習装置10は、ティーチングレス学習を行うため、モデルを用いて学習データを自動的に生成する。その際、初めはモデルの把持位置の検知精度が低いため、学習データを効率的に生成することができない場合がある。そこで、学習装置10は、画像認識を用いた事前学習を行うことでモデルの精度を向上させる。
図1に示すように、検知装置20は、把持システム40と接続されている。把持システム40は、トレイ41、ロボット42及びカメラ43を有する。トレイ41には、把持対象の物体が置かれる。また、ロボット42は、二指ハンドを有するピッキングロボットである。ロボット42は、トレイ41上の物体を把持する。このとき、ロボット42は、把持制御装置50から指示された把持位置に対し把持を行う。また、カメラ43は、トレイ41を上から撮影し、撮影した画像を把持制御装置50に送信する。
図10、図11、図12及び図13のフローチャートを用いて、実施例の処理の流れを説明する。図10は、事前学習処理の流れを示すフローチャートである。また、図11は、生成処理の流れを示すフローチャートである。また、図12は、学習処理の流れを示すフローチャートである。また、図13は、検知処理の流れを示すフローチャートである。
上述したように、学習装置10は、入力された画像から特定の領域の候補、及び各候補が特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び候補ごとの信頼度を出力させる。また、学習装置10は、モデルによって出力された候補のうち、信頼度が所定の基準を満たさない候補のそれぞれについて、信頼度が大きいほど大きくなる第1の値を計算する。また、学習装置10は、第1の値を、信頼度が大きいほど小さくなるように重み付けした第2の値を計算する。また、学習装置10は、第2の値が小さくなるようにモデルを更新する。このように、学習装置10は、負例の潜在的に正解である候補の誤差を小さくした上で学習を行う。これは、特に、全ての正解候補に正解ラベルを付与することが困難なティーチングレスにおいて有効である。このため、実施例によれば、ティーチングレス学習による学習が行われたモデルの認識精度を向上させることができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
図14は、ハードウェア構成例を説明する図である。図14に示すように、学習装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図14に示した各部は、バス等で相互に接続される。また、検知装置20も、学習装置10と同様のハードウェア構成を有する。また、検知装置20も、学習装置10と同様のハードウェア構成により実現される。
10 学習装置
11 取得部
12 把持制御部
13 付与部
14 認識部
15、21 出力部
16 学習部
17 学習データ記憶部
18 モデルパラメータ記憶部
20 検知装置
20a テストデータ
20b 検知結果
22 検知部
24 モデルパラメータ記憶部
30、40 把持システム
31、41 トレイ
32、42 ロボット
33、43 カメラ
Claims (12)
- 入力された画像から特定の領域の候補、及び各候補が前記特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び前記候補ごとの信頼度を出力させ、
前記モデルによって出力された候補のうち、前記信頼度が所定の基準を満たさない候補のそれぞれについて、前記信頼度が大きいほど大きくなる第1の値を計算し、
前記第1の値を、前記信頼度が大きいほど小さくなるように重み付けした第2の値を計算し、
前記第2の値が小さくなるように前記モデルを更新する、
処理をコンピュータに実行させることを特徴とする学習プログラム。 - 前記第2の値を計算する処理は、前記候補における前記第1の値の大きさの順位が所定の順位以内である候補について、前記第2の値を計算することを特徴とする請求項1に記載の学習プログラム。
- 前記第2の値を計算する処理は、入力された値に対して出力値が単調減少する所定の関数に、前記信頼度を入力して得られる出力値を、前記第1の値に掛けることで前記第2の値を計算することを特徴とする請求項1又は2に記載の学習プログラム。
- 前記モデルによって出力された候補から、前記信頼度が前記所定の基準を満たす候補を選択領域として選択する処理をさらに実行させ、
前記更新する処理は、前記第1の画像にあらかじめ設定された正解の領域に対する、前記選択領域の差異の大きさを示す第3の値と、前記第2の値と、の両方が小さくなるように前記モデルを更新することを特徴とする請求項1から3のいずれか1項に記載の学習プログラム。 - 前記出力させる処理は、入力された画像から物体の把持位置の候補、及び各候補が前記把持位置であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の把持位置の候補、及び前記候補ごとの信頼度を出力させることを特徴とする請求項1から4のいずれか1項に記載の学習プログラム。
- 入力された画像から特定の領域の候補、及び各候補が前記特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び前記候補ごとの信頼度を出力させ、
前記モデルによって出力された候補のうち、前記信頼度が所定の基準を満たさない候補のそれぞれについて、前記信頼度が大きいほど大きくなる第1の値を計算し、
前記第1の値を、前記信頼度が大きいほど小さくなるように重み付けした第2の値を計算し、
前記第2の値が小さくなるように前記モデルを更新する、
処理をコンピュータが実行することを特徴とする学習方法。 - 入力された画像から特定の領域の候補、及び各候補が前記特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び前記候補ごとの信頼度を出力させる出力部と、
前記モデルによって出力された候補のうち、前記信頼度が所定の基準を満たさない候補のそれぞれについて、前記信頼度が大きいほど大きくなる第1の値を計算する第1の計算部と、
前記第1の値を、前記信頼度が大きいほど小さくなるように重み付けした第2の値を計算する第2の計算部と、
前記第2の値が小さくなるように前記モデルを更新する更新部と、
を有することを特徴とする学習装置。 - 入力された画像から特定の領域の候補、及び各候補が前記特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び前記候補ごとの信頼度を出力させ、前記モデルによって出力された候補のうち、前記信頼度が所定の基準を満たさない候補のそれぞれについて、前記信頼度が大きいほど大きくなる第1の値を計算し、前記第1の値を、前記信頼度が大きいほど小さくなるように重み付けした第2の値を計算し、前記第2の値が小さくなるように前記モデルを更新する、処理によって更新された前記モデルに、第2の画像を入力し、第2の候補、及び前記第2の候補ごとの信頼度を出力させ、
前記第2の候補のうち、前記信頼度が最大である候補を検知領域として検知する、
処理をコンピュータに実行させることを特徴とする検知プログラム。 - 前記出力させる処理は、入力された画像から物体の把持位置の候補、及び各候補が前記把持位置であることの確からしさを表す信頼度を出力するモデルに、前記第1の画像を入力し、複数の把持位置の候補、及び前記候補ごとの信頼度を出力させ、前記第2の値が小さくなるように前記モデルを更新する、処理によって更新された前記モデルに、前記第2の画像を入力し、前記第2の候補、及び前記第2の候補ごとの信頼度を出力させ、
前記検知する処理は、前記第2の候補のうち、前記信頼度が最大である候補を把持位置として検知する、
ことを特徴とする請求項8に記載の検知プログラム。 - 前記検知する処理によって検知した把持位置を、物体を把持するロボットを制御する把持装置に対して出力する処理をコンピュータにさらに実行させることを特徴とする請求項9に記載の検知プログラム。
- 入力された画像から特定の領域の候補、及び各候補が前記特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び前記候補ごとの信頼度を出力させ、前記モデルによって出力された候補のうち、前記信頼度が所定の基準を満たさない候補のそれぞれについて、前記信頼度が大きいほど大きくなる第1の値を計算し、前記第1の値を、前記信頼度が大きいほど小さくなるように重み付けした第2の値を計算し、前記第2の値が小さくなるように前記モデルを更新する、処理によって更新された前記モデルに、第2の画像を入力し、第2の候補、及び前記第2の候補ごとの信頼度を出力させ、
前記第2の候補のうち、前記信頼度が最大である候補を検知領域として検知する、
処理をコンピュータが実行することを特徴とする検知方法。 - 入力された画像から特定の領域の候補、及び各候補が前記特定の領域であることの確からしさを表す信頼度を出力するモデルに、第1の画像を入力し、複数の領域の候補、及び前記候補ごとの信頼度を出力させ、前記モデルによって出力された候補のうち、前記信頼度が所定の基準を満たさない候補のそれぞれについて、前記信頼度が大きいほど大きくなる第1の値を計算し、前記第1の値を、前記信頼度が大きいほど小さくなるように重み付けした第2の値を計算し、前記第2の値が小さくなるように前記モデルを更新する、処理によって更新された前記モデルに、第2の画像を入力し、第2の候補、及び前記第2の候補ごとの信頼度を出力させる出力部と、
前記第2の候補のうち、前記信頼度が最大である候補を検知領域として検知する検知部と、
を有することを特徴とする検知装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018212578A JP7135750B2 (ja) | 2018-11-12 | 2018-11-12 | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 |
US16/676,397 US11182633B2 (en) | 2018-11-12 | 2019-11-06 | Storage medium having stored learning program, learning method, and learning apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018212578A JP7135750B2 (ja) | 2018-11-12 | 2018-11-12 | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020080023A true JP2020080023A (ja) | 2020-05-28 |
JP7135750B2 JP7135750B2 (ja) | 2022-09-13 |
Family
ID=70552173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018212578A Active JP7135750B2 (ja) | 2018-11-12 | 2018-11-12 | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11182633B2 (ja) |
JP (1) | JP7135750B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7422621B2 (ja) | 2020-07-03 | 2024-01-26 | 株式会社日立製作所 | 認識管理装置、認識管理システム及び認識管理方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11312014B2 (en) * | 2018-09-10 | 2022-04-26 | Kindred Systems Inc. | System and method for robotic gripping utilizing dynamic collision modeling for vacuum suction and finger control |
JP7490359B2 (ja) * | 2019-12-24 | 2024-05-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017145960A1 (ja) * | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
JP2018018537A (ja) * | 2015-10-30 | 2018-02-01 | 株式会社モルフォ | 閾値変更装置 |
JP2018520404A (ja) * | 2015-04-28 | 2018-07-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7318051B2 (en) * | 2001-05-18 | 2008-01-08 | Health Discovery Corporation | Methods for feature selection in a learning machine |
US11020859B2 (en) * | 2015-05-01 | 2021-06-01 | Transportation Ip Holdings, Llc | Integrated robotic system and method for autonomous vehicle maintenance |
JP6705738B2 (ja) * | 2016-12-05 | 2020-06-03 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、およびプログラム |
US10444761B2 (en) * | 2017-06-14 | 2019-10-15 | Trifo, Inc. | Monocular modes for autonomous platform guidance systems with auxiliary sensors |
US11106967B2 (en) * | 2017-07-03 | 2021-08-31 | X Development Llc | Update of local features model based on correction to robot action |
JP6676030B2 (ja) * | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
JP6680750B2 (ja) * | 2017-11-22 | 2020-04-15 | ファナック株式会社 | 制御装置及び機械学習装置 |
US11097418B2 (en) * | 2018-01-04 | 2021-08-24 | X Development Llc | Grasping of an object by a robot based on grasp strategy determined using machine learning model(s) |
WO2019162241A1 (en) * | 2018-02-21 | 2019-08-29 | Robert Bosch Gmbh | Real-time object detection using depth sensors |
US11260534B2 (en) * | 2018-04-04 | 2022-03-01 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
JP7154815B2 (ja) * | 2018-04-27 | 2022-10-18 | キヤノン株式会社 | 情報処理装置、制御方法、ロボットシステム、コンピュータプログラム、及び記憶媒体 |
-
2018
- 2018-11-12 JP JP2018212578A patent/JP7135750B2/ja active Active
-
2019
- 2019-11-06 US US16/676,397 patent/US11182633B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018520404A (ja) * | 2015-04-28 | 2018-07-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性 |
JP2018018537A (ja) * | 2015-10-30 | 2018-02-01 | 株式会社モルフォ | 閾値変更装置 |
WO2017145960A1 (ja) * | 2016-02-24 | 2017-08-31 | 日本電気株式会社 | 学習装置、学習方法および記録媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7422621B2 (ja) | 2020-07-03 | 2024-01-26 | 株式会社日立製作所 | 認識管理装置、認識管理システム及び認識管理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7135750B2 (ja) | 2022-09-13 |
US11182633B2 (en) | 2021-11-23 |
US20200151488A1 (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7135749B2 (ja) | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 | |
JP6781415B2 (ja) | ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置 | |
JP7135750B2 (ja) | 学習プログラム、学習方法、学習装置、検知プログラム、検知方法及び検知装置 | |
JP7045139B2 (ja) | 機械学習装置、機械学習方法、および機械学習プログラム | |
JP5806606B2 (ja) | 情報処理装置、情報処理方法 | |
US10762391B2 (en) | Learning device, learning method, and storage medium | |
WO2011086889A1 (ja) | 特徴点選択システム、特徴点選択方法および特徴点選択プログラム | |
JP2017064910A (ja) | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 | |
EP3924787A1 (en) | Creation of digital twin of the interaction among parts of the physical system | |
US11410327B2 (en) | Location determination apparatus, location determination method and computer program | |
JP6756406B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US20210072734A1 (en) | Information processing apparatus and method, robot controlling apparatus and method, and non-transitory computer-readable storage medium | |
CN112231034A (zh) | 结合rpa和ai的软件界面元素的识别方法与装置 | |
US20200160119A1 (en) | Sequential learning maintaining a learned concept | |
US11203116B2 (en) | System and method for predicting robotic tasks with deep learning | |
JP7006782B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
WO2021095509A1 (ja) | 推定システム、推定装置および推定方法 | |
CN111612831A (zh) | 一种深度估计方法、装置、电子设备及存储介质 | |
US11514268B2 (en) | Method for the safe training of a dynamic model | |
EP4141806A1 (en) | Hand-drawn diagram recognition using visual arrow-relation detection | |
US20220148119A1 (en) | Computer-readable recording medium storing operation control program, operation control method, and operation control apparatus | |
CN113986245A (zh) | 基于halo平台的目标代码生成方法、装置、设备及介质 | |
JP2021170282A (ja) | 学習プログラム、学習方法および情報処理装置 | |
US20240013542A1 (en) | Information processing system, information processing device, information processing method, and recording medium | |
JP7507172B2 (ja) | 情報処理方法、情報処理システム及び情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7135750 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |