JP2017102755A - 機械学習支援装置 - Google Patents
機械学習支援装置 Download PDFInfo
- Publication number
- JP2017102755A JP2017102755A JP2015236094A JP2015236094A JP2017102755A JP 2017102755 A JP2017102755 A JP 2017102755A JP 2015236094 A JP2015236094 A JP 2015236094A JP 2015236094 A JP2015236094 A JP 2015236094A JP 2017102755 A JP2017102755 A JP 2017102755A
- Authority
- JP
- Japan
- Prior art keywords
- information
- artificial intelligence
- virtual space
- learning
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
以下、知能ロボットに、外界認識情報である画像情報と触覚情報(力覚情報を含む)との2つの感覚情報を機械学習(教師付き学習)させる例を説明する。
知能ロボットに必要な視覚機能とは、カメラで撮影した画像から物体を認識し、その物体の位置と姿勢を示す6次元位置情報J(x,y,z,θx,θy,θz)を検出する機能である。
知能ロボットに必要なもう一つの外界認識機能である触覚機能とは、知能ロボットの指や手首や腕などに備えた複数の触覚センサー(力覚センサーを含む)から出力される触覚(力覚を含む)情報が、知能ロボットが適切な操作又は動作をしたときの触覚(力覚を含む)情報のパターンの範囲内に入っているかどうかを検出する機能である。
以下、学習済みのニューラルネットワークを含む知能ロボットの動作を検証する例について、図1および図2を参照して説明する。
部品の3次元構造と表面画像との情報は、既知の情報であるCAD情報から得ることができるため、先ず、図1に示す仮想空間発生装置10のCG部11は、システム制御装置30からの指示により、その既知の情報に基づいて仮想空間に部品を出現させる。このときCG部11は、部品の仮想空間における位置と姿勢、つまり仮想空間における6次元位置(x,y,z,θx,θy,θz)をランダムに変えながら、仮想空間に複数の部品を積み上げて出現させる。そして、CG部11は、システム制御装置30からの指示により、その山積みされた部品を含む仮想空間の画像を生成する。この画像の例を図2に示す。図2の例では、5個の部品(A、B、C、D、E)が山積みされている。なお、この画像は、検証用の画像として使用される。
また、仮想空間発生装置10の力覚発生部12は、ロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、これらの情報に基づいて、6軸力覚情報(fx,fy,fz,mx,my,mz)を演算によって生成する。例えば、力覚センサーがn個あるとすれば、「6軸力覚情報1」〜「6軸力覚情報n」が演算によって生成される。そして、力覚発生部12は、生成した6軸力覚情報を仮想6軸力覚情報として出力する。なお、この力覚発生部12の処理は、既知の情報の一つである作業手順に基づいて行われる。また、この出力の仮想6軸力覚情報は、仮想知能ロボット装置20の学習済みとなっているニューラルネットワーク22に入力として与えられる。また、その入力の前には、作業手順や動作のステップに対応した重み係数やニューロンの閾値等が、ロボット制御部23により、必要に応じて記憶装置から読み出されてニューラルネットワーク22にロードされる。
ロボット制御部23は、部品の把持を開始するように知能ロボットの指の動作(動き)を制御すると、その制御後の指の仮想空間における位置と姿勢を示すロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)を出力する。また、このとき、ロボット制御部23は、そのロボットの指の6次元位置情報Rと合わせて、操作対象の部品につき、その制御後の仮想空間における位置と姿勢を示す6次元位置情報K(x,y,z,θx,θy,θz)も出力する。この6次元位置情報Rおよび6次元位置情報Kは、既述のとおり、知能ロボットのワーク誤差(カメラの精度による位置検出誤差、ロボットのブレなど)を加味したものとなっている。
そのロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、仮想空間発生装置10のCG部11は、これらの情報に基づいて、該CG部11の管理する仮想空間に出現させた部品などの物体の6次元位置の変化を検出する。そして、CG部11は、変化を検出した場合には、その変化を、管理する仮想空間に反映するため、該変化のあった部品などの物体の仮想空間における位置と姿勢の情報を更新する。なお、このCG部11の処理は、既知の情報の一つである作業手順に基づいて行われる。
また、仮想空間発生装置10の力覚発生部12は、ロボットの指の6次元位置情報R(x,y,z,θx,θy,θz)と操作対象の部品の6次元位置情報K(x,y,z,θx,θy,θz)とが入力されると、これらの情報に基づいて、6軸力覚情報(fx,fy,fz,mx,my,mz)を演算によって生成する。そして、力覚発生部12は、生成した6軸力覚情報を仮想6軸力覚情報として出力する。なお、この力覚発生部12の処理は、既知の情報の一つである作業手順に基づいて行われる。また、この出力の仮想6軸力覚情報は、仮想知能ロボット装置20の学習済みとなっているニューラルネットワーク22に入力として与えられる。また、その入力の前には、作業手順や動作のステップに対応した重み係数やニューロンの閾値等が、ロボット制御部23により、必要に応じて記憶装置から読み出されてニューラルネットワーク22にロードされる。
次に、ニューラルネットワーク22は、入力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を基に、操作対象の部品などの物体に対する操作又は動作が適切であるか否かを判断して、合格または不合格を示す力覚判定情報を出力する。この出力はロボット制御部23への入力となる。
ロボット制御部23は、ニューラルネットワーク22から出力された力覚判定情報に基づき、その操作を終えて次の動作に移るか、又は知能ロボットの指の動作(動き)を修正してその操作を継続するかを判定する。なお、このロボット制御部23の処理は、既知の情報の一つである作業手順に基づいて行われる。
ここで、ロボット制御部23は、力覚判定情報が合格を示す場合には既述のとおり次のステップの動作(操作)に移るが、不合格を示す場合には、知能ロボットの指の動作(動き)を修正してその操作を継続するようにする。具体的には、ロボット制御部23は、知能ロボットの指の動作(動き)を、所謂サーボ制御によって制御することで対象の部品を掴むようにする。このとき、知能ロボットの指は、そのサーボ制御によって部品を掴むように少しずつ動かされるので、ロボット制御部23は、サーボ制御のフィードバックを行う毎に、その指の動きの変化に応じた知能ロボットの指の仮想空間における位置と姿勢の情報と、その指によって操作された部品の仮想空間における位置と姿勢の情報とを出力する。そのため、本実施形態の機械学習支援装置では、知能ロボットの指による部品の把持が適切に行われるまで、サーボ制御のフィードバックが行われる毎に、上記(処理1)の制御後の処理から上記(処理5)の判定処理までが繰り返し実行される。
以下、上記実施形態の変形例である機械学習支援装置について説明する。この変形例の機械学習支援装置は、上記実施形態の機械学習支援装置の構成に、強化学習を行うための要素を追加したものである。そのため、以下では、その追加の要素についてのみ説明するものとして、上記実施形態と共通する構成要素については同じ符号を付して重複となる説明を省略する。
強化学習評価部40は、力覚発生部12から出力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を入力として、その仮想6軸力覚情報を、予め設定したルールに基づいて評価すると共に、その評価結果に基づき、ニューラルネットワーク22に対する学習指示信号の出力/非出力を制御する。この学習指示信号には報酬情報が含まれている。なお、予め設定したルールとは、予め決定しておくべき評価用の力覚情報のパターンの合格範囲である。
ニューラルネットワーク22は、強化学習部評価部40から学習指示信号が出力されると、強化学習評価部40への入力と並行してニューラルネットワーク22に入力される力覚発生部12から出力された仮想6軸力覚情報(fx,fy,fz,mx,my,mz)を合格の力覚情報のパターンとして学習する。この学習においては、学習指示信号に含まれる報酬情報の値が以前の学習時よりも大きい(報酬が多い)場合にのみ、入力の仮想6軸力覚情報を合格の力覚情報のパターンとして学習するようにする。
上記では、マルチセンサー情報として、画像情報と触覚情報(力覚情報を含む)との2つの感覚情報を用いる例を説明した。しかし、センサー情報はその2つに限定されない。
医薬品、食料品、材料などの検査では、画像による瑕疵の検査に加えて、赤外分光分析による有機化合物の検出や、蛍光X線分析による元素の検出など、画像では分からない不純物等の検査が併せて行われ、最終的な検査判定は、それらの情報を統合して行われる。
内視鏡カメラや術野カメラにおいては、画像の観察や記録という目的の他に、手術の遂行を支援する機能が必要となる。例えば、癌の手術では、該カメラによって、癌独自の血管構造の画像に強調処理を加えたり、癌の自家蛍光を検出したり(蛍光色素や試薬を利用して行う)、血管を造影することで、手術の遂行における癌の病変部の術中診断を支援する。
医療分野では、内視鏡やロボットサージェリーなどのシミュレーションのために人体内部のモデル化がなされている。そのため、そのモデル化した情報を使用して、上記の機械学習支援装置における仮想空間で、そのモデルのレベルやバリエーションを増やすようにすれば人工知能装置の学習を仮想空間で短時間に行うことができるようになる。これにより、内視鏡の安全挿入の支援や手術の支援、医療過誤回避の支援が可能となる。
11 CG部
12 力覚発生部
20 仮想知能ロボット装置
21 ニューラルネットワーク
22 ニューラルネットワーク
23 ロボット制御部
24 画像処理部
25 強化学習指示部
30 システム制御装置
40 強化学習評価部
100 機械学習支援装置
Claims (4)
- 複数センサーの出力情報に対応した複数の仮想情報を生成する情報生成部と、
前記情報生成部が生成した前記複数の仮想情報を用いて、人工知能装置を学習させる学習支援部と、
前記複数の仮想情報を用いて、該学習後の人工知能装置の動作の検証を行う検証支援部と
を備えたことを特徴とする機械学習支援装置。 - 請求項1に記載の機械学習支援装置において、
前記検証支援部が行う前記検証時に前記学習後の人工知能装置を更に強化学習させる強化学習部
を備えたことを特徴とする機械学習支援装置。 - 請求項1または請求項2に記載の機械学習支援装置において、
前記情報生成部は、
既知の情報に基づき前記学習後の人工知能装置の操作対象となる物体を含む仮想空間の画像を生成すると共に、前記既知の情報に基づき前記物体の前記仮想空間における位置および姿勢を示す物体位置情報を生成する視覚情報生成部と、
前記物体位置情報と、予め想定される、前記学習後の人工知能装置から出力されるべき該人工知能装置の可動部の前記仮想空間における位置および姿勢を示す可動部位置情報とに基づいて触覚情報を生成する触覚情報生成部と
を備え、
前記学習支援部が、前記仮想空間の画像と前記物体位置情報とを入力に用いて前記人工知能装置の視覚機能を学習させ、また、前記触覚情報を入力に用いて前記人工知能装置の触覚機能を学習させる
ことを特徴とする機械学習支援装置。 - 請求項1または請求項2に記載の機械学習支援装置において、
前記情報生成部は、
既知の情報に基づき前記学習後の人工知能装置の操作対象となる物体を含む仮想空間の画像を生成する視覚情報生成部と、
前記学習後の人工知能装置から出力される前記物体の前記仮想空間における位置および姿勢を示す第1の物体位置情報と、前記学習後の人工知能装置から出力される該人工知能装置の可動部の前記仮想空間における位置および姿勢を示す可動部位置情報とに基づき触覚情報を生成する触覚情報生成部と
を備え、
前記視覚情報生成部は、前記第1の物体位置情報と前記可動部位置情報とに基づいて前記仮想空間における前記物体の位置および姿勢を更新し、
前記検証支援部は、前記仮想空間の画像を入力として与えることにより、前記学習後の人工知能装置のニューラルネットワークに第2の物体位置情報を出力させ、また、前記触覚情報を入力として与えることにより、前記学習後の人工知能装置のニューラルネットワークに前記物体に対する操作が適切であるか否かを示す触覚判定情報を出力させて、該第2の物体位置情報と該触覚判定情報とに基づき前記学習後の人工知能装置の可動部の動作を検証すると共に、前記触覚情報生成部に前記触覚情報を生成させるように、また、前記視覚情報生成部に前記更新を行わせるように、前記学習後の人工知能装置に前記第1の物体位置情報と前記可動部位置情報とを出力させる
ことを特徴とする機械学習支援装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015236094A JP6604832B2 (ja) | 2015-12-02 | 2015-12-02 | 機械学習支援装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015236094A JP6604832B2 (ja) | 2015-12-02 | 2015-12-02 | 機械学習支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017102755A true JP2017102755A (ja) | 2017-06-08 |
JP6604832B2 JP6604832B2 (ja) | 2019-11-13 |
Family
ID=59016619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015236094A Active JP6604832B2 (ja) | 2015-12-02 | 2015-12-02 | 機械学習支援装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6604832B2 (ja) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108051999A (zh) * | 2017-10-31 | 2018-05-18 | 中国科学技术大学 | 基于深度强化学习的加速器束流轨道控制方法及系统 |
CN109118860A (zh) * | 2018-09-19 | 2019-01-01 | 江苏金惠甫山软件科技有限公司 | 基于人工智能的英语培训系统及方法 |
CN109426860A (zh) * | 2017-08-23 | 2019-03-05 | 幻视互动(北京)科技有限公司 | 一种基于神经网络的mr混合现实信息处理方法及装置 |
WO2019059343A1 (ja) * | 2017-09-22 | 2019-03-28 | Ntn株式会社 | ワーク情報処理装置およびワークの認識方法 |
JP2019067238A (ja) * | 2017-10-03 | 2019-04-25 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 制御装置、制御方法および制御プログラム |
JP2019197471A (ja) * | 2018-05-11 | 2019-11-14 | トヨタ自動車株式会社 | 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム |
WO2020004749A1 (ko) * | 2018-06-27 | 2020-01-02 | 한국전력공사 | 동영상 파일을 이용한 설비 학습 장치 및 방법 |
JP2020041889A (ja) * | 2018-09-10 | 2020-03-19 | 日本電気硝子株式会社 | ワーク検査方法及びワーク検査システム |
WO2020066209A1 (ja) * | 2018-09-27 | 2020-04-02 | 株式会社堀場製作所 | 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置 |
JP2020524328A (ja) * | 2017-06-19 | 2020-08-13 | インパクトビジョン インコーポレイテッド | 異物を識別するためのハイパースペクトル画像処理用のシステム及び方法 |
JP2020529932A (ja) * | 2017-08-07 | 2020-10-15 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム |
CN111868758A (zh) * | 2018-03-06 | 2020-10-30 | 欧姆龙株式会社 | 信息处理装置、信息处理方法以及程序 |
KR102194539B1 (ko) * | 2019-08-14 | 2020-12-23 | 한국공항공사 | 탑승교 접현 시스템 및 자동 조종 방법 |
CN112655017A (zh) * | 2018-12-26 | 2021-04-13 | 欧姆龙株式会社 | 图像检查系统设计装置、图像检查系统设计方法以及图像检查系统设计程序 |
US20210114215A1 (en) * | 2019-10-16 | 2021-04-22 | Lg Electronics Inc. | Robot and method for controlling the same |
JP2021070122A (ja) * | 2019-10-31 | 2021-05-06 | ミネベアミツミ株式会社 | 学習データ生成方法 |
JPWO2021085345A1 (ja) * | 2019-10-28 | 2021-05-06 | ||
JPWO2021111879A1 (ja) * | 2019-12-05 | 2021-06-10 | ||
CN112955912A (zh) * | 2018-09-15 | 2021-06-11 | 株式会社百德立孚 | Ai创作物的验证装置 |
WO2021200438A1 (ja) * | 2020-03-31 | 2021-10-07 | ミネベアミツミ株式会社 | 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置 |
WO2022054498A1 (ja) * | 2020-09-11 | 2022-03-17 | ソニーグループ株式会社 | 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム |
CN114630738A (zh) * | 2019-08-20 | 2022-06-14 | 思维机器学习公司 | 用于模拟感测数据和创建感知的系统和方法 |
JP2023502804A (ja) * | 2020-10-12 | 2023-01-26 | ソウル大学校産学協力団 | 目標志向的強化学習方法及びこれを遂行するための装置 |
US11734843B2 (en) | 2019-10-01 | 2023-08-22 | Fujifilm Business Innovation Corp. | Object texture measurement device |
JP7461638B2 (ja) | 2020-05-25 | 2024-04-04 | 国立大学法人広島大学 | 触覚評価装置、触覚評価方法及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203166A (ja) * | 1993-01-06 | 1994-07-22 | Fujitsu Ltd | 多次元位置測定,制御装置,及び、学習方法 |
JPH0780790A (ja) * | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | 三次元物体把持システム |
-
2015
- 2015-12-02 JP JP2015236094A patent/JP6604832B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203166A (ja) * | 1993-01-06 | 1994-07-22 | Fujitsu Ltd | 多次元位置測定,制御装置,及び、学習方法 |
JPH0780790A (ja) * | 1993-09-16 | 1995-03-28 | Fujitsu Ltd | 三次元物体把持システム |
Non-Patent Citations (2)
Title |
---|
中村仁彦,外11名: "仮想ロボットプラットフォーム", 日本ロボット学会誌, vol. 第19巻/第1号, JPN6019027550, 15 January 2001 (2001-01-15), JP, pages 28 - 36, ISSN: 0004077997 * |
坪根正,外3名: "仮想空間を利用した実空間のロボットのタスク学習", 電気学会論文誌C, vol. 第128巻/第7号, JPN6019027548, 1 July 2008 (2008-07-01), JP, pages 1222 - 1230, ISSN: 0004077996 * |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020524328A (ja) * | 2017-06-19 | 2020-08-13 | インパクトビジョン インコーポレイテッド | 異物を識別するためのハイパースペクトル画像処理用のシステム及び方法 |
JP2020529932A (ja) * | 2017-08-07 | 2020-10-15 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム |
CN109426860A (zh) * | 2017-08-23 | 2019-03-05 | 幻视互动(北京)科技有限公司 | 一种基于神经网络的mr混合现实信息处理方法及装置 |
WO2019059343A1 (ja) * | 2017-09-22 | 2019-03-28 | Ntn株式会社 | ワーク情報処理装置およびワークの認識方法 |
JP2019067238A (ja) * | 2017-10-03 | 2019-04-25 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 制御装置、制御方法および制御プログラム |
CN108051999A (zh) * | 2017-10-31 | 2018-05-18 | 中国科学技术大学 | 基于深度强化学习的加速器束流轨道控制方法及系统 |
CN108051999B (zh) * | 2017-10-31 | 2020-08-25 | 中国科学技术大学 | 基于深度强化学习的加速器束流轨道控制方法及系统 |
CN111868758B (zh) * | 2018-03-06 | 2024-01-12 | 欧姆龙株式会社 | 信息处理装置、信息处理方法以及存储介质 |
CN111868758A (zh) * | 2018-03-06 | 2020-10-30 | 欧姆龙株式会社 | 信息处理装置、信息处理方法以及程序 |
US11762679B2 (en) | 2018-03-06 | 2023-09-19 | Omron Corporation | Information processing device, information processing method, and non-transitory computer-readable storage medium |
JP2019197471A (ja) * | 2018-05-11 | 2019-11-14 | トヨタ自動車株式会社 | 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム |
JP7052546B2 (ja) | 2018-05-11 | 2022-04-12 | トヨタ自動車株式会社 | 自律移動システム、自律移動体、充電ドック、制御方法、及びプログラム |
WO2020004749A1 (ko) * | 2018-06-27 | 2020-01-02 | 한국전력공사 | 동영상 파일을 이용한 설비 학습 장치 및 방법 |
JP2020041889A (ja) * | 2018-09-10 | 2020-03-19 | 日本電気硝子株式会社 | ワーク検査方法及びワーク検査システム |
JP7054450B2 (ja) | 2018-09-10 | 2022-04-14 | 日本電気硝子株式会社 | ワーク検査方法 |
CN112955912A (zh) * | 2018-09-15 | 2021-06-11 | 株式会社百德立孚 | Ai创作物的验证装置 |
CN109118860A (zh) * | 2018-09-19 | 2019-01-01 | 江苏金惠甫山软件科技有限公司 | 基于人工智能的英语培训系统及方法 |
JP7418639B2 (ja) | 2018-09-27 | 2024-01-19 | 株式会社堀場製作所 | 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置 |
WO2020066209A1 (ja) * | 2018-09-27 | 2020-04-02 | 株式会社堀場製作所 | 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置 |
JPWO2020066209A1 (ja) * | 2018-09-27 | 2021-09-09 | 株式会社堀場製作所 | 粒子解析用データ生成方法、粒子解析用データ生成プログラム、及び粒子解析用データ生成装置 |
CN112655017A (zh) * | 2018-12-26 | 2021-04-13 | 欧姆龙株式会社 | 图像检查系统设计装置、图像检查系统设计方法以及图像检查系统设计程序 |
KR102194539B1 (ko) * | 2019-08-14 | 2020-12-23 | 한국공항공사 | 탑승교 접현 시스템 및 자동 조종 방법 |
CN114630738B (zh) * | 2019-08-20 | 2024-02-20 | 思维机器学习公司 | 用于模拟感测数据和创建感知的系统和方法 |
CN114630738A (zh) * | 2019-08-20 | 2022-06-14 | 思维机器学习公司 | 用于模拟感测数据和创建感知的系统和方法 |
US11734843B2 (en) | 2019-10-01 | 2023-08-22 | Fujifilm Business Innovation Corp. | Object texture measurement device |
US11724397B2 (en) * | 2019-10-16 | 2023-08-15 | Lg Electronics Inc. | Robot and method for controlling the same |
US20210114215A1 (en) * | 2019-10-16 | 2021-04-22 | Lg Electronics Inc. | Robot and method for controlling the same |
EP4052869A4 (en) * | 2019-10-28 | 2022-12-14 | Kabushiki Kaisha Yaskawa Denki | MACHINE LEARNING DATA GENERATING DEVICE, MACHINE LEARNING DEVICE, WORK SYSTEM, COMPUTER PROGRAM, METHOD FOR MAKING LEARNING DATA AND METHOD FOR MANUFACTURING WORK DEVICE |
JPWO2021085345A1 (ja) * | 2019-10-28 | 2021-05-06 | ||
CN114599488A (zh) * | 2019-10-28 | 2022-06-07 | 株式会社安川电机 | 机器学习数据生成装置、机器学习装置、作业系统、计算机程序、机器学习数据生成方法及作业机的制造方法 |
WO2021085345A1 (ja) * | 2019-10-28 | 2021-05-06 | 株式会社安川電機 | 機械学習データ生成装置、機械学習装置、作業システム、コンピュータプログラム、機械学習データ生成方法及び作業機械の製造方法 |
JP7344977B2 (ja) | 2019-10-28 | 2023-09-14 | 株式会社安川電機 | 機械学習データ生成装置、機械学習装置、機械学習データ生成方法及びコンピュータプログラム |
JP2021070122A (ja) * | 2019-10-31 | 2021-05-06 | ミネベアミツミ株式会社 | 学習データ生成方法 |
WO2021085561A1 (ja) * | 2019-10-31 | 2021-05-06 | ミネベアミツミ株式会社 | 学習データ生成方法 |
JPWO2021111879A1 (ja) * | 2019-12-05 | 2021-06-10 | ||
WO2021111879A1 (ja) * | 2019-12-05 | 2021-06-10 | Hoya株式会社 | 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ |
JP7245360B2 (ja) | 2019-12-05 | 2023-03-23 | Hoya株式会社 | 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ |
WO2021200438A1 (ja) * | 2020-03-31 | 2021-10-07 | ミネベアミツミ株式会社 | 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置 |
JP7423387B2 (ja) | 2020-03-31 | 2024-01-29 | ミネベアミツミ株式会社 | 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置 |
JP7461638B2 (ja) | 2020-05-25 | 2024-04-04 | 国立大学法人広島大学 | 触覚評価装置、触覚評価方法及びプログラム |
WO2022054498A1 (ja) * | 2020-09-11 | 2022-03-17 | ソニーグループ株式会社 | 医療用アーム制御システム、医療用アーム装置、医療用アームの制御方法及びプログラム |
JP2023502804A (ja) * | 2020-10-12 | 2023-01-26 | ソウル大学校産学協力団 | 目標志向的強化学習方法及びこれを遂行するための装置 |
JP7348296B2 (ja) | 2020-10-12 | 2023-09-20 | ソウル大学校産学協力団 | 目標志向的強化学習方法及びこれを遂行するための装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6604832B2 (ja) | 2019-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6604832B2 (ja) | 機械学習支援装置 | |
Zhao et al. | A CNN-based prototype method of unstructured surgical state perception and navigation for an endovascular surgery robot | |
US11344374B2 (en) | Detection of unintentional movement of a user interface device | |
US20200194117A1 (en) | Systems, methods, and media for remote trauma assessment | |
WO2011065035A1 (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
Bouteraa et al. | Task-space region-reaching control for medical robot manipulator | |
Ottenhaus et al. | Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning | |
Donat et al. | Estimating tip contact forces for concentric tube continuum robots based on backbone deflection | |
JP2007245326A (ja) | ロボットとロボットの制御方法 | |
Pedram et al. | Toward synergic learning for autonomous manipulation of deformable tissues via surgical robots: An approximate q-learning approach | |
Lu et al. | Toward image-guided automated suture grasping under complex environments: A learning-enabled and optimization-based holistic framework | |
Kirchner et al. | Intuitive interaction with robots–technical approaches and challenges | |
Vicente et al. | Towards markerless visual servoing of grasping tasks for humanoid robots | |
Sidiropoulos et al. | A human inspired handover policy using gaussian mixture models and haptic cues | |
Lazo et al. | Autonomous intraluminal navigation of a soft robot using deep-learning-based visual servoing | |
Amatya et al. | Real time kinect based robotic arm manipulation with five degree of freedom | |
Mikada et al. | Three‐dimensional posture estimation of robot forceps using endoscope with convolutional neural network | |
Infantino et al. | A cognitive architecture for robotic hand posture learning | |
Trombetta et al. | Variable structure human intention estimator with mobility and vision constraints as model selection criteria | |
Agrawal | Automating endoscopic camera motion for teleoperated minimally invasive surgery using inverse reinforcement learning | |
Fekri et al. | A deep learning force estimator system for intracardiac catheters | |
Geng et al. | Synergy-based affordance learning for robotic grasping | |
CN113561172A (zh) | 一种基于双目视觉采集的灵巧手控制方法及装置 | |
Saha et al. | EEG based gesture mimicking by an artificial limb using cascade-correlation learning architecture | |
Murphy et al. | A surgical robotic framework for safe and autonomous data-driven learning and manipulation of an unknown deformable tissue with an integrated critical space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191008 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6604832 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |