JP2020504633A - 認知システムによるロボット・プロテーゼの増強された制御 - Google Patents
認知システムによるロボット・プロテーゼの増強された制御 Download PDFInfo
- Publication number
- JP2020504633A JP2020504633A JP2019519664A JP2019519664A JP2020504633A JP 2020504633 A JP2020504633 A JP 2020504633A JP 2019519664 A JP2019519664 A JP 2019519664A JP 2019519664 A JP2019519664 A JP 2019519664A JP 2020504633 A JP2020504633 A JP 2020504633A
- Authority
- JP
- Japan
- Prior art keywords
- data
- user
- knowledge base
- identified
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/54—Artificial arms or hands or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/54—Artificial arms or hands or parts thereof
- A61F2/58—Elbows; Wrists ; Other joints; Hands
- A61F2/581—Shoulder joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/54—Artificial arms or hands or parts thereof
- A61F2/58—Elbows; Wrists ; Other joints; Hands
- A61F2/583—Hands; Wrist joints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2002/6827—Feedback system for providing user sensation, e.g. by force, contact or position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2002/701—Operating or control means electrical operated by electrically controlled means, e.g. solenoids or torque motors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2002/704—Operating or control means electrical computer-controlled, e.g. robotic control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/68—Operating or control means
- A61F2/70—Operating or control means electrical
- A61F2002/705—Electromagnetic data transfer
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/50—Prostheses not implantable in the body
- A61F2/76—Means for assembling, fitting or testing prostheses, e.g. for measuring or balancing, e.g. alignment means
- A61F2002/7615—Measuring means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45172—Prosthesis
Landscapes
- Health & Medical Sciences (AREA)
- Transplantation (AREA)
- Engineering & Computer Science (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Biomedical Technology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Vascular Medicine (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Cardiology (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Prostheses (AREA)
Abstract
Description
ここで、単なる例として、以下の図面を参照して、本発明の実施形態を説明する。
101:サーバ
105:認知システム
110:マスター知識ベース
120:個人化知識ベース
125:画像分析
130:無線接続
140:モバイル制御デバイス
150:ネットワーク
160:ロボット・サポート・デバイス
170:カメラ180:ARメガネ
185:ARメガネ送受信機
187:ARメガネ・カメラ
190:ロボット・プロテーゼ・デバイス
200:オブジェクト・データ・プログラム
300:操作プログラム
402:通信ファブリック
404:コンピュータ・プロセッサ
405:コンピューティング・デバイス
406:メモリ
408:永続手的ストレージ
410:通信ユニット
412:入力/出力(I/O)インターフェース
416:キャッシュ・メモリ
420:ディスプレイ
Claims (40)
- 1つ又は複数のプロセッサが、オブジェクトの画像データを含む入力を受け取ることと、
1つ又は複数のプロセッサが、前記オブジェクトの前記画像データに関する画像分析の実行に基づいて、前記オブジェクトの画像属性を判断することと、
1つ又は複数のプロセッサが、前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトと、前記複数の識別されたオブジェクトにそれぞれ対応する操作データとを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断することと、
前記オブジェクトの前記画像属性が前記知識ベースの前記識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトに対応する操作データをモバイル制御デバイスに伝送することと、
を含む方法。 - 前記モバイル制御デバイスは、前記1つ又は複数のプロセッサにより伝送された前記操作データを用いて、前記オブジェクトの操作を実行することができる操作デバイスに通信可能に接続され、受け取った前記入力が前記オブジェクトの前記画像データを含む前記オブジェクトは、前記操作デバイスのユーザにより選択される、請求項1に記載の方法。
- 1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、前記オブジェクトの前記操作を実行する前記操作デバイスのフィードバックを受け取ることであって、前記フィードバックは、前記操作デバイスからの感覚データと、前記ユーザにより選択された前記オブジェクトの操作中の前記操作デバイスの前記ユーザの画像フィードバックとを含む、受け取ることと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記操作デバイスからの前記感覚データの前記フィードバック、及び前記ユーザにより選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行することと、
1つ又は複数のプロセッサが、前記操作デバイスからの前記感覚データの前記フィードバック及び前記ユーザにより選択された前記オブジェクトの操作中の前記ユーザのフィードバックに基づく機械学習の実行に基づいて、前記ユーザにより選択された前記オブジェクトについての前記操作データを調整することと、
をさらに含む、請求項1に記載の方法。 - 前記オブジェクトの前記画像データと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断することは、前記オブジェクトの前記画像属性と前記知識ベースの前記識別されたオブジェクトとの比較により、所定の信頼性レベルを上回る類似スコアが生成される類似関数を実施することに基づく、請求項1に記載の方法。
- 1つ又は複数のプロセッサが、前記オブジェクトの前記操作を実行する前記操作デバイスからのフィードバックを受け取ることであって、前記操作デバイスのユーザは、前記オブジェクトの前記操作を改善するために、前記前記オブジェクトの前記操作への調整を実行し、前記フィードバックは、受け取った前記知識ベースの前記識別されたオブジェクトに対応する前記操作データに基づき、かつ、前記フィードバックは、前記操作デバイスに接続されたセンサからの感覚データと、前記オブジェクトの操作中に前記操作デバイスを視ている1つ又は複数のカメラからの前記操作デバイスの画像フィードバックとを含む、受け取ることと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記操作デバイスに接続された前記センサからの前記感覚データの前記フィードバック、及び前記オブジェクトの操作中に前記操作デバイスを視ている前記1つ又は複数のカメラから受け取った前記画像フィードバックに基づいて、前記オブジェクトの前記操作に関する機械学習を実行することと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記操作デバイスに接続された前記センサからの前記感覚データの前記フィードバック、及び前記オブジェクトの操作中に前記操作デバイスを視ている前記1つ又は複数のカメラからの前記操作デバイスの前記画像フィードバックに適用される前記機械学習の結果得られる、前記オブジェクトについての前記操作データを調整することと、
をさらに含む、請求項1に記載の方法。 - 前記オブジェクトは、プロテーゼ・デバイスのユーザにより選択され、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは画像属性を含み、前記1つ又は複数のプロセッサが操作データを伝送するステップは、選択された前記オブジェクトに合致する前記識別されたオブジェクトの前記画像属性データに対応する操作データを前記モバイル制御デバイスに伝送することを含み、前記モバイル制御デバイスは、前記プロテーゼ・デバイスに通信可能に接続され、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、請求項1に記載の方法。
- 1つ又は複数のプロセッサが、1つ又は複数のカメラから、前記プロテーゼ・デバイスの前記ユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取ることであって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、受け取ることと、
1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトの画像を受け取ることと、
1つ又は複数のプロセッサが、前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトが、前記ユーザにより選択された前記オブジェクトであると判断することと、
をさらに含む、請求項6に記載の方法。 - 1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取ることであって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザの画像フィードバックとを含む、受け取ることと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行することと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整することと、
をさらに含む、請求項6に記載の方法。 - 選択された前記オブジェクトについて調整される前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項8に記載の方法。
- 1つ又は複数のプロセッサが、選択された前記オブジェクトが複数の識別されたオブジェクトを含む前記知識ベースの1つの識別されたオブジェクトに合致しないと判断し、1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザに通知を与え、選択された前記オブジェクトに対応する非自動操作データの1又は複数の反復を機械学習処理に入力する、請求項6に記載の方法。
- 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項6に記載の方法。
- 前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断することは、前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断することを含む、請求項6に記載の方法。
- 1つ又は複数のプロセッサが、プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取ることと、
1つ又は複数のプロセッサが、前記画像データに関する画像分析の実行に基づいて、選択された前記オブジェクトの画像属性を判断することと、
1つ又は複数のプロセッサが、選択された前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断することであって、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、前記識別されたオブジェクトに対応する操作データとを含む、判断することと、
選択された前記オブジェクトの前記画像属性が前記知識ベースの識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、選択された前記オブジェクトに合致する前記識別されたオブジェクトの前記画像属性データに対応する操作データを、前記プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送することであって、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、伝送することと、
を含む方法。 - 1つ又は複数のプロセッサが、1つ又は複数のカメラから、前記プロテーゼ・デバイスの前記ユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取ることであって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、受け取ることと、
1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトの画像を受け取ることと、
1つ又は複数のプロセッサが、前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトが、前記ユーザにより選択された前記オブジェクトであると判断することと、
をさらに含む、請求項13に記載の方法。 - 1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取ることであって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザの画像フィードバックとを含む、受け取ることと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行することと、
1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整することと、
をさらに含む、請求項13に記載の方法。 - 選択された前記オブジェクトについて調整される前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項15に記載の方法。
- 1つ又は複数のプロセッサが、選択された前記オブジェクトが複数の識別されたオブジェクトを含む前記知識ベースの1つの識別されたオブジェクトに合致しないと判断し、1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザに通知を与え、選択された前記オブジェクトに対応する非自動操作データの1又は複数の反復を機械学習処理に入力する、請求項13に記載の方法。
- 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項13に記載の方法。
- 前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断することは、前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断することを含む、請求項13に記載の方法。
- コンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行されるとき、請求項1から請求項19までのいずれかに記載の方法をコンピュータに実行させるように適合されたプログラム・コード手段を含む、コンピュータ・プログラム。
- コンピュータに実行させるプログラム命令を含むコンピュータ・プログラムであって、前記プログラム命令は、
プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取るためのプログラム命令と、
前記画像データに関する画像分析の実行に基づいて、選択された前記オブジェクトの画像属性を判断するためのプログラム命令と、
選択された前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令であって、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、前記識別されたオブジェクトに対応する操作データとを含む、プログラム命令と、
選択された前記オブジェクトの前記画像属性が前記知識ベースの1つの識別されたオブジェクトに合致すると判断することに応答して、選択された前記オブジェクトの前記画像属性データに合致する前記識別されたオブジェクトに対応する操作データを、前記プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送するためのプログラム命令であって、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、プログラム命令と、
を含む、コンピュータ・プログラム。 - 1つ又は複数のカメラから、プロテーゼ・デバイスのユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取るためのプログラム命令であって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、プログラム命令と、
前記ユーザのビュー内の前記オブジェクトの画像を受け取るためのプログラム命令と、
前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記ユーザのビュー内の前記オブジェクトが、前記ユーザにより選択された前記オブジェクトであると判断するためのプログラム命令と、
をさらに含む、請求項21に記載のコンピュータ・プログラム。 - 前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取るためのプログラム命令であって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザの画像フィードバックとを含む、プログラム命令と、
前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行するためのプログラム命令と、
前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整するためのプログラム命令と、
をさらに含む、請求項21に記載のコンピュータ・プログラム。 - 選択された前記オブジェクトについて調整された前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項23に記載のコンピュータ・プログラム。
- プログラム命令が選択された前記オブジェクトが複数の識別されたオブジェクトを含む前記知識ベースの1つの識別されたオブジェクトと合致しないと判断することに応答して、前記プロテーゼ・デバイスの前記ユーザに通知を与え、選択された前記オブジェクトに対応する非自動操作データの1又は複数の反復を機械学習処理に入力するためのプログラム命令をさらに含む、請求項21に記載のコンピュータ・プログラム。
- 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項21に記載のコンピュータ・プログラム。
- 選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断するためのプログラム命令は、選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断するためのプログラム命令を含む、請求項21に記載のコンピュータ・プログラム。
- 1つ又は複数のコンピュータ・プロセッサと、
1つ又は複数のコンピュータ可読ストレージ媒体と、
前記1つ又は複数のプロセッサの少なくとも1つにより実行される、前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令と、
を含み、前記プログラム命令は、
オブジェクトの画像データを含む入力を受け取るためのプログラム命令と、
前記オブジェクトの前記画像データに関する画像分析の実行に基づいて、前記オブジェクトの画像属性を判断するためのプログラム命令と、
前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトと、前記複数の識別されたオブジェクトにそれぞれ対応する操作データとを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令と、
前記オブジェクトの前記画像属性が前記知識ベースの前記識別されたオブジェクトに合致すると判断することに応答して、前記知識ベースの前記識別されたオブジェクトに対応する操作データをモバイル制御デバイスに伝送するためのプログラム命令と、
を含む、システム。 - 前記オブジェクトは、プロテーゼ・デバイスのユーザにより選択され、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは画像属性を含み、操作データを伝送するための前記プログラム命令は、選択された前記オブジェクトに合致する前記識別されたオブジェクトの前記画像属性データに対応する操作データを前記モバイル制御デバイスに伝送するためのプログラム命令を含み、前記モバイル制御デバイスは、前記プロテーゼ・デバイスに通信可能に接続され、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、請求項28に記載のシステム。
- 1つ又は複数のカメラから、プロテーゼ・デバイスのユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取るためのプログラム命令であって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、プログラム命令と、
前記ユーザのビュー内の前記オブジェクトの画像を受け取るためのプログラム命令と、
前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記ユーザのビュー内の前記オブジェクトが、選択された前記オブジェクトであると判断するためのプログラム命令と、
をさらに含む、請求項29に記載のシステム。 - 前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取るためのプログラム命令であって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザからの画像フィードバックとを含む、プログラム命令と、
前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行するためのプログラム命令と、
前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整するためのプログラム命令と、
をさらに含む、請求項29に記載のシステム。 - 選択された前記オブジェクトについて調整された前記操作データが、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項31に記載のシステム。
- 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項29に記載のシステム。
- 選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断するためのプログラム命令は、選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断するためのプログラム命令を含む、請求項29に記載のシステム。
- 1つ又は複数のコンピュータ・プロセッサと、
1つ又は複数のコンピュータ可読ストレージ媒体と、
前記1つ又は複数のプロセッサの少なくとも1つにより実行される、前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令と、
を含み、前記プログラム命令は、
プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取るためのプログラム命令と、
前記画像データに関する画像分析の実行に基づいて、選択された前記オブジェクトの画像属性を判断するためのプログラム命令と、
選択された前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令であって、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、前記識別されたオブジェクトに対応する操作データとを含む、プログラム命令と、
選択された前記オブジェクトが前記知識ベースの識別されたオブジェクトに合致すると判断することに応答して、前記ユーザにより選択された前記オブジェクトに合致する前記識別されたオブジェクトに対応する操作データを、前記プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送するためのプログラム命令であって、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、プログラム命令と、
を含む、コンピュータ・システム。 - 1つ又は複数のカメラから、プロテーゼ・デバイスのユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取るためのプログラム命令であって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、プログラム命令と、
前記ユーザのビュー内の前記オブジェクトの画像を受け取るためのプログラム命令と、
前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記ユーザのビュー内の前記オブジェクトが、選択された前記オブジェクトであると判断するためのプログラム命令と、
をさらに含む、請求項35に記載のコンピュータ・システム。 - 前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取るためのプログラム命令であって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザからの画像フィードバックとを含む、プログラム命令と、
前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行するためのプログラム命令と、
前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整するためのプログラム命令と、
をさらに含む、請求項35に記載のコンピュータ・システム。 - 選択された前記オブジェクトについて調整された前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項37に記載のコンピュータ・システム。
- 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項35に記載のコンピュータ・システム。
- 選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断するためのプログラム命令は、選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断するためのプログラム命令を含む、請求項35に記載のコンピュータ・システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/337,207 US9717607B1 (en) | 2016-10-28 | 2016-10-28 | Augmented control of robotic prosthesis by a cognitive system |
US15/337,207 | 2016-10-28 | ||
PCT/IB2017/056146 WO2018078471A1 (en) | 2016-10-28 | 2017-10-05 | Augmented control of robotic prosthesis by cognitive system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020504633A true JP2020504633A (ja) | 2020-02-13 |
JP6990700B2 JP6990700B2 (ja) | 2022-01-12 |
Family
ID=59383228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019519664A Active JP6990700B2 (ja) | 2016-10-28 | 2017-10-05 | 認知システムによるロボット・プロテーゼの増強された制御 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9717607B1 (ja) |
JP (1) | JP6990700B2 (ja) |
CN (1) | CN110023043B (ja) |
DE (1) | DE112017003723B4 (ja) |
GB (1) | GB2570095B (ja) |
WO (1) | WO2018078471A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9717607B1 (en) * | 2016-10-28 | 2017-08-01 | International Business Machines Corporation | Augmented control of robotic prosthesis by a cognitive system |
US10248248B2 (en) | 2016-11-04 | 2019-04-02 | International Business Machines Corporation | User interface selection through intercept points |
US10229318B2 (en) * | 2017-02-21 | 2019-03-12 | International Business Machines Corporation | Activity-based robotic testing of wearable devices |
US10571148B2 (en) * | 2018-01-31 | 2020-02-25 | International Business Machines Corporation | Cognitive solution for microenvironment |
US11636383B2 (en) | 2019-09-03 | 2023-04-25 | International Business Machines Corporation | Detecting and preventing unwanted model training data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61142085A (ja) * | 1984-12-11 | 1986-06-28 | 三菱重工業株式会社 | 遠隔制御装置 |
JPH05111881A (ja) * | 1991-10-22 | 1993-05-07 | Nippon Telegr & Teleph Corp <Ntt> | 学習型筋電パターン認識ロボツトハンド制御装置 |
JPH10161743A (ja) * | 1996-11-28 | 1998-06-19 | Matsushita Electric Ind Co Ltd | 移動物体走行制御装置 |
JP2006198389A (ja) * | 2004-12-22 | 2006-08-03 | Doshisha | ロボット、および、そのロボットとともに使用される携帯可能な記憶媒体 |
JP2016052474A (ja) * | 2014-09-04 | 2016-04-14 | exiii株式会社 | プログラム及び情報処理装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5086401A (en) | 1990-05-11 | 1992-02-04 | International Business Machines Corporation | Image-directed robotic system for precise robotic surgery including redundant consistency checking |
JP3560670B2 (ja) | 1995-02-06 | 2004-09-02 | 富士通株式会社 | 適応的認識システム |
US7127100B2 (en) | 2001-06-25 | 2006-10-24 | National Instruments Corporation | System and method for analyzing an image |
WO2005092185A2 (en) | 2004-03-22 | 2005-10-06 | California Institute Of Technology | Cognitive control signals for neural prosthetics |
US8073528B2 (en) | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
EP2687339B1 (en) * | 2008-05-20 | 2015-10-21 | Ekso Bionics, Inc. | Device and method for decreasing energy consumption of a person by use of a lower extremity exoskeleton |
CN102309366B (zh) * | 2011-07-21 | 2014-09-24 | 山东科技大学 | 用眼动信号控制上假肢运动的控制系统和控制方法 |
US9255813B2 (en) * | 2011-10-14 | 2016-02-09 | Microsoft Technology Licensing, Llc | User controlled real object disappearance in a mixed reality display |
US9002098B1 (en) * | 2012-01-25 | 2015-04-07 | Hrl Laboratories, Llc | Robotic visual perception system |
US9120220B2 (en) * | 2012-02-29 | 2015-09-01 | GM Global Technology Operations LLC | Control of a glove-based grasp assist device |
US8996174B2 (en) * | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
US9775763B2 (en) | 2012-12-19 | 2017-10-03 | Intel Corporation | Adaptive exoskeleton, control system and methods using the same |
CA2900675A1 (en) * | 2013-03-14 | 2014-10-02 | Ekso Bionics, Inc. | Machine to human interfaces for communication from a lower extremity orthotic |
US10195058B2 (en) | 2013-05-13 | 2019-02-05 | The Johns Hopkins University | Hybrid augmented reality multimodal operation neural integration environment |
EP2813194B8 (en) | 2013-06-12 | 2018-07-11 | Otto Bock HealthCare GmbH | Control of limb device |
KR101700817B1 (ko) | 2014-01-10 | 2017-02-13 | 한국전자통신연구원 | 3차원 영상을 이용한 다수의 팔 및 손 검출 장치 및 그 방법 |
US9717607B1 (en) * | 2016-10-28 | 2017-08-01 | International Business Machines Corporation | Augmented control of robotic prosthesis by a cognitive system |
-
2016
- 2016-10-28 US US15/337,207 patent/US9717607B1/en not_active Expired - Fee Related
-
2017
- 2017-10-05 JP JP2019519664A patent/JP6990700B2/ja active Active
- 2017-10-05 DE DE112017003723.9T patent/DE112017003723B4/de active Active
- 2017-10-05 GB GB1907096.0A patent/GB2570095B/en active Active
- 2017-10-05 CN CN201780066938.5A patent/CN110023043B/zh active Active
- 2017-10-05 WO PCT/IB2017/056146 patent/WO2018078471A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61142085A (ja) * | 1984-12-11 | 1986-06-28 | 三菱重工業株式会社 | 遠隔制御装置 |
JPH05111881A (ja) * | 1991-10-22 | 1993-05-07 | Nippon Telegr & Teleph Corp <Ntt> | 学習型筋電パターン認識ロボツトハンド制御装置 |
JPH10161743A (ja) * | 1996-11-28 | 1998-06-19 | Matsushita Electric Ind Co Ltd | 移動物体走行制御装置 |
JP2006198389A (ja) * | 2004-12-22 | 2006-08-03 | Doshisha | ロボット、および、そのロボットとともに使用される携帯可能な記憶媒体 |
JP2016052474A (ja) * | 2014-09-04 | 2016-04-14 | exiii株式会社 | プログラム及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2018078471A1 (en) | 2018-05-03 |
GB201907096D0 (en) | 2019-07-03 |
DE112017003723T5 (de) | 2019-04-18 |
GB2570095A (en) | 2019-07-10 |
GB2570095B (en) | 2020-01-29 |
CN110023043A (zh) | 2019-07-16 |
DE112017003723B4 (de) | 2020-08-06 |
JP6990700B2 (ja) | 2022-01-12 |
US9717607B1 (en) | 2017-08-01 |
CN110023043B (zh) | 2022-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6990700B2 (ja) | 認知システムによるロボット・プロテーゼの増強された制御 | |
JP7341166B2 (ja) | ウェアラブルシステムのためのトランスモード入力融合 | |
JP2021057057A (ja) | 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム | |
US10593322B2 (en) | Electronic device and method for controlling the same | |
KR102643027B1 (ko) | 전자 장치, 그의 제어 방법 | |
US10212040B2 (en) | Troubleshooting voice-enabled home setup | |
JP2019535055A (ja) | ジェスチャに基づく操作の実施 | |
US20160250751A1 (en) | Providing personalized patient care based on electronic health record associated with a user | |
US11914787B2 (en) | Method for dynamic interaction and electronic device thereof | |
CN108681399B (zh) | 一种设备控制方法、装置、控制设备及存储介质 | |
EP3523709B1 (en) | Electronic device and controlling method thereof | |
KR102396794B1 (ko) | 전자 장치 및 이의 제어 방법 | |
JP2023521812A (ja) | 医療処置を準備するためのシステム及び方法 | |
Sharma et al. | Webcam controlled robotic arm for persons with SSMI | |
US10841482B1 (en) | Recommending camera settings for publishing a photograph based on identified substance | |
US20220295134A1 (en) | Dynamically using internet of things devices to control playback of multimedia | |
KR20210030796A (ko) | 인공 지능을 이용한 조리 기기 제어 방법 및 그 시스템 | |
JP2023551089A (ja) | Aiシステムにおけるアクセス認証 | |
WO2019145907A1 (en) | Method aimed at patients with motor disabilities for selecting a command by means of a graphic interface, and corresponding system and computer program product | |
AU2021419198A1 (en) | Synchronizing virtual reality notifications | |
CN205334503U (zh) | 具有人脸识别功能的机器人 | |
KR20210048270A (ko) | 복수 객체에 대한 오디오 포커싱 방법 및 장치 | |
KR102525661B1 (ko) | 작업 장치의 원격 제어를 위한 실시간 훈련 방법 및 장치 | |
JP7504180B2 (ja) | ウェアラブルシステムのためのトランスモード入力融合 | |
US12019438B2 (en) | Teleoperation with a wearable sensor system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6990700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |