JP2020504633A - 認知システムによるロボット・プロテーゼの増強された制御 - Google Patents

認知システムによるロボット・プロテーゼの増強された制御 Download PDF

Info

Publication number
JP2020504633A
JP2020504633A JP2019519664A JP2019519664A JP2020504633A JP 2020504633 A JP2020504633 A JP 2020504633A JP 2019519664 A JP2019519664 A JP 2019519664A JP 2019519664 A JP2019519664 A JP 2019519664A JP 2020504633 A JP2020504633 A JP 2020504633A
Authority
JP
Japan
Prior art keywords
data
user
knowledge base
identified
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019519664A
Other languages
English (en)
Other versions
JP6990700B2 (ja
Inventor
ラクシット、サルバジット
ガンシ、ジュニア、ジョン
ボスティック、ジェームズ
キーン、マーティン
トリム、クレイグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2020504633A publication Critical patent/JP2020504633A/ja
Application granted granted Critical
Publication of JP6990700B2 publication Critical patent/JP6990700B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/54Artificial arms or hands or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/54Artificial arms or hands or parts thereof
    • A61F2/58Elbows; Wrists ; Other joints; Hands
    • A61F2/581Shoulder joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/54Artificial arms or hands or parts thereof
    • A61F2/58Elbows; Wrists ; Other joints; Hands
    • A61F2/583Hands; Wrist joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2002/6827Feedback system for providing user sensation, e.g. by force, contact or position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/701Operating or control means electrical operated by electrically controlled means, e.g. solenoids or torque motors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/704Operating or control means electrical computer-controlled, e.g. robotic control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/705Electromagnetic data transfer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/76Means for assembling, fitting or testing prostheses, e.g. for measuring or balancing, e.g. alignment means
    • A61F2002/7615Measuring means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45172Prosthesis

Landscapes

  • Health & Medical Sciences (AREA)
  • Transplantation (AREA)
  • Engineering & Computer Science (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Cardiology (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Prostheses (AREA)

Abstract

【課題】 認知システムによるロボット・プロテーゼの増強された制御を提供する。【解決手段】 1つ又は複数のプロセッサのための方法及びシステムが、ユーザにより選択されたオブジェクトの画像データを受け取り、画像データに関する画像分析に基づいて、選択されたオブジェクトの画像属性を判断する。1つ又は複数のプロセッサは、選択されたオブジェクトの画像属性が、知識ベースの識別されたオブジェクトに合致するかどうかを判断し、識別されたオブジェクトは、画像属性と、識別されたオブジェクトに対応する操作データとを含み、プロテーゼ・デバイスのユーザにより選択されたオブジェクトが知識ベースの識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサは、ユーザにより選択されたオブジェクトに合致する識別されたオブジェクトに対応する操作データを、プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送し、モバイル制御デバイスは、識別されたオブジェクトに対応する操作データをプロテーゼ・デバイスに適用する。【選択図】 図3

Description

本発明は、一般に、プロテーゼ制御の分野に関し、より具体的には、認知システムによるプロテーゼ制御への適用可能性に関する。
プロテーゼ(prosthesis)とも呼ばれるプロテーゼ・デバイスは、欠損している身体部分と置き換えるため、又は機能していない身体部分を増強するために使用される。長い間、種々のプロテーゼ・デバイスが使用されており、プロテーゼに適用される技術の進歩を通じて、外傷又は病気により四肢のいずれかの機能を失った人、又は生まれつき身体付属肢(body appendage)の機能が失われている人が、技術支援される(technologically assisted)プロテーゼによりある程度の機能を取り戻すことが可能であった。
一部の現代のプロテーゼは、電気機械的機能を、場合によっては生体力学的(bio-mechanical)制御を利用して、ユーザが基本的機能の実施を助ける。技術支援プロテーゼでは、反復使用及び学習によってその生物学的相当物(biological counterpart)が実現する相互作用の微細な運動制御(fine motor control)、正確さ、並びに速度が不足していることが多い。
認知システムによるロボット・プロテーゼの増強された制御を提供する。
第1の態様によると、1つ又は複数のプロセッサが、オブジェクトの画像データを含む入力を受け取ることと;1つ又は複数のプロセッサが、オブジェクトの画像データに関する画像分析の実行に基づいて、オブジェクトの画像属性を判断することと;1つ又は複数のプロセッサが、オブジェクトの画像属性が、複数の識別されたオブジェクトと、複数の識別されたオブジェクトにそれぞれ対応する操作データとを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断することと;オブジェクトの画像属性が知識ベースの識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、知識ベースの識別されたオブジェクトに対応する操作データをモバイル制御デバイスに伝送することと、を含む方法が提供される。
本発明の第2の態様によると、1つ又は複数のプロセッサが、プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取ることと;1つ又は複数のプロセッサが、画像データに関する画像分析の実行に基づいて、選択されたオブジェクトの画像属性を判断することと;1つ又は複数のプロセッサが、選択されたオブジェクトの画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断することであって、知識ベースの複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、識別されたオブジェクトに対応する操作データとを含む、判断することと;選択されたオブジェクトの画像属性が知識ベースの識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、選択されたオブジェクトに合致する識別されたオブジェクトの画像属性データに対応する操作データを、プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送することであって、モバイル制御デバイスは、識別されたオブジェクトに対応する操作データをプロテーゼ・デバイスに適用する、伝送することと、を含む方法が提供される。
第3の態様によると、コンピュータ・プログラムであって、プログラムがコンピュータ上で実行されるとき、第1又は第2の態様の方法を実行するように適合されたプログラム・コード手段を含む、コンピュータ・プログラムが提供される。
第4の態様によると、コンピュータ・プロセッサにより実行可能なプログラム命令がそこに具体化された1つ又は複数のコンピュータ可読ストレージ媒体を含むコンピュータ・プログラム製品であって、プログラム命令は、プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取るためのプログラム命令と;画像データに関する画像分析の実行に基づいて、選択されたオブジェクトの画像属性を判断するためのプログラム命令と;選択されたオブジェクトの画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令であって、知識ベースの複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、識別されたオブジェクトに対応する操作データとを含む、プログラム命令と;選択されたオブジェクトの画像属性が知識ベースの1つの識別されたオブジェクトに合致すると判断することに応答して、選択されたオブジェクトの画像属性データに合致する識別されたオブジェクトに対応する操作データを、プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送するためのプログラム命令であって、モバイル制御デバイスは、識別されたオブジェクトに対応する操作データをプロテーゼ・デバイスに適用する、プログラム命令と、を含むコンピュータ・プログラム製品が提供される。
第5の態様によると、1つ又は複数のコンピュータ・プロセッサと、1つ又は複数のコンピュータ可読ストレージ媒体と、1つ又は複数のプロセッサの少なくとも1つにより実行される、1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令とを含み、プログラム命令は、オブジェクトの画像データを含む入力を受け取るためのプログラム命令と;オブジェクトの画像データに関する画像分析の実行に基づいて、オブジェクトの画像属性を判断するためのプログラム命令と;オブジェクトの画像属性が、複数の識別されたオブジェクトと、複数の識別されたオブジェクトにそれぞれ対応する操作データとを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令と;オブジェクトの画像属性が知識ベースのその識別されたオブジェクトに合致すると判断することに応答して、知識ベースの識別されたオブジェクトに対応する操作データをモバイル制御デバイスに伝送するためのプログラム命令と、を含むシステムが提供される。
第6の態様によると、1つ又は複数のコンピュータ・プロセッサと、1つ又は複数のコンピュータ可読ストレージ媒体と、1つ又は複数のプロセッサの少なくとも1つにより実行される、1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令とを含み、プログラム命令は、プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取るためのプログラム命令と;画像データに関する画像分析の実行に基づいて、選択されたオブジェクトの画像属性を判断するためのプログラム命令と;選択されたオブジェクトの画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令であって、知識ベースの複数の識別されたオブジェクトうちの1つの識別されたオブジェクトは、画像属性と、識別されたオブジェクトに対応する操作データとを含む、プログラム命令と;選択されたオブジェクトが知識ベースの識別されたオブジェクトに合致すると判断することに応答して、ユーザにより選択されたオブジェクトに合致する識別されたオブジェクトに対応する操作データを、プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送するためのプログラム命令であって、モバイル制御デバイスは、識別されたオブジェクトに対応する操作データをプロテーゼ・デバイスに適用する、プログラム命令と、を含むコンピュータ・システムが提供される。
本発明の実施形態は、1つ又は複数のプロセッサが、ユーザにより選択されたオブジェクトの画像データを受け取るための方法、コンピュータ・プログラム製品、及びシステムを開示する。1つ又は複数のプロセッサは、画像データに関する画像分析の実行に基づいて、選択されたオブジェクトの画像属性を判断する。1つ又は複数のプロセッサは、選択されたオブジェクトの画像属性が、複数の識別されたオブジェクトを含む知識ベースのうちの1つの識別されたオブジェクトに合致するかどうかを判断し、選択されたオブジェクトの画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断し、知識ベースの複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像特性と、識別されたオブジェクトに対応する操作データとを含み、プロテーゼ・デバイスのユーザにより選択されたオブジェクトが知識ベースの1つの識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、ユーザにより選択されたオブジェクトに合致する識別されたオブジェクトに対応する操作データを、プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送し、モバイル制御デバイスは、識別されたオブジェクトに対応する操作データをプロテーゼ・デバイスに適用する。
ここで、単なる例として、以下の図面を参照して、本発明の実施形態を説明する。
本発明の実施形態による、分散型データ処理環境を示す機能ブロック図である。 本発明の実施形態による、オブジェクト・データ・プログラムの動作ステップを示す。 本発明の実施形態による、操作プログラムの動作ステップを示す。 本発明の実施形態による、オブジェクト・データ・プログラム及び操作プログラムを作動可能に実行し、オブジェクト操作データへのアクセスを提供することができるコンピューティング・デバイスを含む、システムのコンポーネントのブロック図を示す。
本発明の実施形態は、オブジェクトを把持及び操作するためにプロテーゼ・デバイスを利用するのに、時間のかかる調整及び試行を行って、オブジェクトを成功裏に用いるための機能的なパラメータのセットの取得を必要とし得ると認識する。オブジェクトは、オブジェクトを適切に把持及び操作するために、一定量の圧力、テクスチャ感度、及び持ち上げ力を必要とし得る。場合によっては、パラメータのセットは、オブジェクトを把持するといった、オブジェクトの操作のパターンの属性と考えられ、オブジェクトをさらに操作するために変化し得る。ユーザが把持する種々のオブジェクトはそれぞれ、特定の操作パラメータの組を有することができ、パラメータのセットは変化に富んでいる。プロテーゼ・デバイスのユーザは、プロテーゼ・デバイスを利用する際の微細な運動制御、正確さ及び速度を得るのに必要とされる判断及び調整に苦労することがある。
本発明の幾つかの実施形態において、ロボット・プロテーゼの使用では、オブジェクトの操作の微細な運動制御、把持感度、正確さ及びの操作の速度の向上を含む、オブジェクトの操作を改善する操作インテリジェンスを提供する遠隔認知システムへのモバイル接続性が増強される。認知システムは、カメラ画像内のオブジェクトを識別するために画像分析を行い、画像分析に基づいて、複数の定められたオブジェクトの知識ベースを検索して特定のオブジェクトの合致を判断する能力を含む。本発明の実施形態は、プロテーゼ・デバイスによる画像分析に対応する、オブジェクトの操作についてのデータを含む知識ベースを利用する。眼の焦点、表情、身体の動き、バイオメトリクス、及びローカル・センサの触覚フィードバックが、プロテーゼ・デバイスのユーザが意図するオブジェクト及びタスクを判断するために用いられる。認知システムは、オブジェクト画像を知識ベース内の定められたオブジェクトに照合する際に、信頼性の閾値を超過するかどうかを判断し、識別されたオブジェクトに対応する操作データを、プロテーゼ・デバイスを制御するモバイル制御デバイスに伝送することにより、閾値の超過に応答する。
本発明の幾つかの実施形態において、プロテーゼ・デバイスについての操作データは、ユーザの認識されたオブジェクト及びタスクの操作のための支援を増強する。オブジェクトが知識ベース内で識別されない又はユーザ・タスクが認識されない実施形態においては、ロボット・プロテーゼ・デバイスは、別の源により作動されるが、他の源による作動からの画像及び操作データを機械学習技術に適用し、知識ベース内のオブジェクト識別データ及び操作データを増強及び/又は改善し、後の操作支援の増強を可能にする。
本発明の幾つかの実施形態は、プロテーゼのモバイル制御デバイスの近くに配置された、特定のプロテーゼ・デバイス及びそのユーザに対して改良されたオブジェクトについての操作データを含む個人化された知識ベース(personalized knowledge base)を含む。個人化知識ベース内に含まれる操作データは、ある時間にわたるオブジェクトの複数回の反復から受け取ったデータに対して行われる機械学習により改良される。本発明の幾つかの実施形態においては、操作データを連続的に受け取り、連続的な機械学習及び特定のオブジェクトと関連した操作データの改良のために認知システムに伝送する。
本発明の幾つかの実施形態は、プロテーゼ・デバイスとして直接機能できない操作デバイスに向けられ得るが、リポジトリ、又は複数の識別されたオブジェクト、及び複数の識別されたオブジェクトの個々の識別されたオブジェクトについて以前に生成された対応する操作データを含む知識ベースから、選択されたオブジェクトの伝送された操作データを受け取り、適用することが可能にされる。
ここで、図面を参照して本発明を詳細に説明する。図1は、本発明の実施形態による、全体が100で示される分散型データ処理環境を示す機能ブロック図である。図1は、1つの実装の例証を与えるに過ぎず、異なる実施形態を実装することができる環境に関するいずれの限定も意味しない。特許請求の範囲により列挙されるような本発明の範囲から都脱することなく、当業者により、示される実施形態への多くの修正をなすことができる。
分散型データ処理環境100は、無線接続130、モバイル制御デバイス140、ロボット・サポート・デバイス160、カメラ170、拡張現実(AR)メガネ180、ARメガネ送受信機185、ARメガネ・カメラ187、ロボット・プロテーゼ・デバイス190、及びサーバ101を含み、サーバ101は、認知システム105をさらに含む。幾つかの実施形態において、認知システム105は、モバイル制御デバイス140の遠隔で動作し、マスター知識ベース110、個人化知識ベース120、オブジェクト・データ・プログラム200及び操作プログラム300を含むように示される。本発明の幾つかの実施形態において、モバイル制御デバイス140は、無線接続130に無線で接続され、本発明の幾つかの実施形態においては、ロボット・プロテーゼ・デバイス190に無線で接続され、他の実施形態においては、ロボット・サポート・デバイス160に無線で接続される。本発明の幾つかの実施形態において、個人化知識ベース120は、モバイル制御デバイス140内に含まれる。認知システム105、マスター知識ベース110、個人化知識ベース120、無線接続130、カメラ170、及びARメガネ送受信機185は全て、ネットワーク150を介して相互接続される。
ネットワーク150は、例えば、ローカル・エリア・ネットワーク(LAN)、電気通信網、インターネットなどの広域ネットワーク(WAN)、仮想ローカル・エリア・ネットワーク(VLAN)、集積デバイスのバス接続、又は有線、無線、若しくは光接続を含み得るいずれかの組み合わせとすることができる。ネットワーク150は、データ、テキスト、音声、画像、プログラム命令、及び/又はテキスト、音声、データ及びビデオ情報を含むマルチメディア信号を含むビデオ信号を受送信することができる、無線接続130への接続のような1つ又は複数の有線及び/又は無線ネットワークを含むことができる。一般に、ネットワーク150は、サーバ101上でホストされる認知システム105、ARメガネ送受信機185、無線接続130、モバイル制御デバイス140、及びカメラ170の間の通信をサポートする接続及びプロトコルの任意の組み合わせとすることができる。
無線接続130は、モバイル制御デバイス140及びARメガネ送受信機185、カエラ170との間の通信、並びにネットワーク150を介して認知システム105への通信を提供する。適切に構成された無線接続130は、例えば、BLUETOOTH(登録商標)、Wi−Fi、無線、ZigBee(登録商標)、又は赤外線技術(ZigBeeは、米国及び世界中の他の国におけるZigBee Allianceの登録商標であり、BLUETOOTHは、米国及び世界中の他の国におけるBluetooth Special Interest Group(SIG),Inc.の商標である)。幾つかの実施形態において、無線接続130は、WiMAX(登録商標)技術(WiMAXは、米国及び世界中の他の国におけるWiMAX Forumの登録商標である)を使用すること、又はモバイル制御デバイス140をロボット・プロテーゼ・デバイス190、ロボット・サポート・デバイス160、又はARメガネ送受信機185からの信号及びセンサ入力、及びカメラ170に接続するための、3G、4G、又はこうした無線ネットワーク技術の将来の拡張を利用するための構成を含むことができる。
モバイル制御デバイス140は、認知システム105から、個人化知識ベース(KB)120又はマスター知識ベース(KB)110から取り出した操作データを受け取り、ロボット・プロテーゼ・デバイス190のような無線で接続されたプロテーゼ・デバイスの動作の運動制御を実行する。モバイル制御デバイス140は、無線接続130に接続され、ネットワーク150を介して認知システム105に通信する。本発明の幾つかの実施形態において、モバイル制御デバイス140は、ロボット・プロテーゼ・デバイス190のようなロボット・プロテーゼ・デバイスのユーザの近くに配置される。幾つかの実施形態において、モバイル制御デバイス140は、ユーザが取り付けること又は装着することができる。モバイル制御デバイス140は、プロテーゼ・デバイスの移動性及び操作を可能にするモータ及び他の電子コンポーネントに向けられる命令を処理するためのコンピューティング能力を含む。本発明の幾つかの実施形態において、モバイル制御デバイス140は、認知システム105から操作データを受け取り、モータ及び電子コンポーネントを無線で作動させ、ロボット・プロテーゼ・デバイス190の精密な感覚入力及び移動を可能にするように、メモリ及び処理電力を有するように構成されたスマートフォンである。他の実施形態において、モバイル制御デバイス140は、特に、プロテーゼ制御操作データを無線で受け取り、データを、プロテーゼ・デバイスの動作コンポーネントに向けられた特別な命令に変換するように構成される。本発明の幾つかの実施形態において、モバイル制御デバイス140は、ロボット・プロテーゼ・デバイス190のようなプロテーゼ・デバイスの制御を共有し、認知システム105の知識ベース及び感覚フィードバックから受け取った特定のオブジェクトについての操作データに基づいて、改良された運動制御、並びに正確な触覚圧力及び持ち上げ力を提供する。幾つかの実施形態において、プロテーゼ・デバイスの手動で開始される制御は、作動中のままであり、プロテーゼのユーザにより適切と見なされると、モバイル制御デバイス140を中断する又は無効にすることができる。
ロボット・サポート・デバイス160は、通常の活動を行うために、運動機能、強度、又は制御を欠いている人間のアームをサポートするように示される。本発明の幾つかの実施形態において、ロボット・サポート・デバイス160は、支持されるアームの支援動作を可能にするモータ及びコンポーネントを含むタイプのプロテーゼ・デバイスである。こうした実施形態において、ロボット・サポート・デバイス160は、モバイル制御デバイス140により無線で制御される。
カメラ170は、ロボット・プロテーゼ・デバイス190のようなロボット・プロテーゼ・デバイスのユーザの近くに配置される。本発明の幾つかの実施形態において、カメラ170は、ユーザ及びプロテーゼの外部にあり、視野内にユーザ及びオブジェクトを含む、ユーザのすぐ近くの領域のビューを含む。カメラ170は、認知システム105に動作可能に結合され、画像を生成し、ネットワーク150を介して画像を認知システム105に伝送し、そこから、認知システム105は、画像に関する分析を行って画像内のオブジェクトを判断する。認知システム105は、オブジェクトの属性を用いて、合致を求めて知識ベースを検索し、分析されたオブジェクト画像と知識ベース内のオブジェクトの格納された属性との間の合致の信頼性の百分率を求める。本発明の幾つかの実施形態において、カメラ170は、1つの又は1セットのビデオカメラとすることができ、そこから、分析のために1つ又は複数の画像を認知システム105に伝送することができる。本発明の幾つかの実施形態において、カメラ170は、ユーザの表情、他の身体及び付属肢の位置、並びにユーザのプロテーゼのビューを含む。カメラ170は、ユーザがその眼の焦点をカメラ170のすぐ近くの領域内のオブジェクトに向けるとき、ユーザの焦点を求めるために用いられる画像データを提供することができ、カメラ170は、プロテーゼの操作が行われるとき、表情のフィードバックを提供することができる。
本発明の幾つかの実施形態において、拡張現実(AR)メガネ180は、ロボット・プロテーゼ・デバイス190のユーザにより装着され得る。ARメガネ180は、ユーザが、すぐ近くのオブジェクトを視ること、及び、ユーザが、ロボット・プロテーゼ・デバイス190により操作されるオブジェクトの選択を指し示すことを可能にする。本発明の幾つかの実施形態において、ARメガネ180は、認知システム105からのデータを用いて、オブジェクトとの操作相互作用の中断といった、モバイル制御デバイス140との相互作用を可能にすることができる。他の実施形態において、ARメガネ180は、モバイル制御デバイス140を介するユーザ入力及びプロテーゼ・デバイスの制御を可能にする。ARメガネ180は、選択のためにオブジェクトの画像キャプチャを可能にする、認知システム105と動作可能に結合されたARメガネ・カメラ187を含むことができ、分析処理及びオブジェクト識別のために画像を認知システム105に提供することができる。ARメガネ180は、無線接続130及びネットワーク150を介して、ARメガネ180及びARメガネ・カメラ187の、認知システム105及びモバイル制御デバイス140への無線接続を提供するARメガネ送受信機185に接続される。他の実施形態において、オブジェクトの手動で動作される操作の間、ARメガネ・カメラ187が受け取る画像を、機械学習プロセス内に含ませること、及び、個人化知識ベース120及び/又はマスター知識ベース110内に含ませることができる。
本発明の幾つかの実施形態において、カメラ170及びARメガネ・カメラ187は、認知システム105に「動作可能に結合されている」と考えられ、かつ、プロテーゼ・デバイスのユーザ及び操作される関心あるオブジェクトのすぐ近くの1つ又は複数のカメラとすることができる。1つ又は複数のカメラは、ユーザの表情、眼の焦点、並びに身体の位置及び動きのビューを、選択及び操作のフィードバックとして提供する。他の実施形態において、認知システム105に動作可能に結合されたカメラを、プロテーゼ・デバイスに接続することができる。例えば、画像の選択及び操作のために、1つのカメラをデバイスの操作端に向け、別のカメラをユーザの方向に向け、フィードバックをキャプチャすることができる。さらに他の実施形態において、ARメガネ・カメラ187を含むARメガネ180などのウェアラブル・カメラにより、オブジェクト及びプロテーゼ・デバイスの画像を取得することができる。ARメガネ180はまた、ユーザの眼の焦点の画像をキャプチャし、オブジェクト選択の検出を助けることもできる。
ロボット・プロテーゼ・デバイス190は、プロテーゼ・アーム及びハンドとして示され、他の場合には、四肢又は四肢の部分用のプロテーゼ・デバイスを表す。ロボット・プロテーゼ・デバイス190は、プロテーゼのアーム、手首、ハンド、及び指のコンポーネントの1つ又はそれらの組み合わせの、ロボット支援動作を可能にするモータ及びコンポーネントを含む。本発明の幾つかの実施形態において、ロボット・プロテーゼ・デバイス190は、少なくとも1つのカメラ(図示せず)に動作可能に結合され、ロボット・プロテーゼ・デバイス190のユーザのビューを可能にする。本発明の幾つかの実施形態において、ロボット・プロテーゼ・デバイス190に動作可能に結合されている少なくとも1つのカメラは、ユーザによりオブジェクトを視ること及び選択することを可能にし、操作活動のフィードバックを(ARメガネ・カメラ187の代案として又はそれに加えて)提供する。他の実施形態において、ロボット・プロテーゼ・デバイス190は、プロテーゼのつま先、足、下腿及び上腿(図示せず)のロボット支援動作を可能にする。ロボット・プロテーゼ・デバイス190は、モバイル制御デバイス140から操作データを受け取り、モバイル制御デバイス140は、例えば、個人化知識ベース120又はマスター知識ベース110からアクセスすることができる制御命令を伝送し、プロテーゼ・デバイスのコンポーネントを操作する。本発明の実施形態は、認知システム105、並びに個人化知識ベース120又はマスター知識ベース110の操作データを利用し、手動又は発見ベースの動作と比べて、より微細な調整、正確さ、圧力、持ち上げ力及び速度を、プロテーゼ・デバイスの操作にもたらす。
サーバ101は、画像分析125、操作プログラム300、オブジェクト・データ・プログラム200、マスター知識ベース110、及び個人化知識ベース120のコンポーネントを有する認知システム105を含むように示される。本発明の幾つかの実施形態において、サーバ101は、管理サーバ、ウェブサーバ、モバイル・コンピューティング・デバイス、又はデータを受け取り、送り、処理し、オブジェクト・データ・プログラム200及び操作プログラム300の動作機能をサポートすることができる他のいずれかの電子デバイス若しくはコンピューティング・システムとすることができる。他の実施形態において、サーバ101は、クラウド・コンピューティング環境におけるような、サーバ・システムとして多数のコンピュータを利用するサーバ・コンピューティング・システムを表すことができる。さらに他の実施形態において、サーバ101は、ラップトップ・コンピュータ、タブレット・コンピュータ、ネットブック・コンピュータ、パーソナル・コンピュータ(PC)、デスクトップ・コンピュータ、携帯情報端末(PDA)、スマートフォン、又はオブジェクト・データ・プログラム200及び操作プログラム300のプログラム可能命令を実行し、かつ、ネットワーク150を介して分散型ネットワーク処理環境100内の認知システム105、モバイル制御デバイス140、ARメガネ送受信機185、カメラ170及び無線接続130との間のデータのアクセスを可能にすることができるいずれかのプログラム可能電子デバイスとすることができる。別の実施形態において、サーバ101は、分散型ネットワーク処理環境100内でアクセスされるとき、シームレス・リソースの単一のプールとして働くクラスタ化コンピュータ及びコンポーネント(例えば、データベース・サーバ・コンピュータ、アプリケーション・サーバ・コンピュータ等)を利用するコンピューティング・システムを表す。図4に関してさらに詳細に示され、説明されるように、サーバ101は、内部及び外部ハードウェア・コンポーネントを含むことができる。
認知システム105は、知識ベースを検索し、受け取った画像分析データに基づいて、知識ベースのオブジェクトを識別される選択されたオブジェクトと照合し、識別されたオブジェクトを操作するためにプロテーゼ・デバイスについての特定の操作データを、より微細、より正確、かつより迅速な運動制御と関連付ける。認知システム105は、機械学習も実行し、オブジェクトの手動及びロボット操作のフィードバックから、反復のパターンを確立し、新しい操作データをマスター知識ベース110などの知識ベースに付加するか、又は既存の操作データを連続的に改善する。認知システム105からの操作データは、手動の又は代替的な制御方法よりも高い動作速度で、より正確なターゲッテット化、把持圧力、及び持ち上げ力を提供する。認知システム105は、画像分析125、マスター知識ベース110、個人化知識ベース120、オブジェクト・データ・プログラム200及び操作プログラム300を含む。
画像分析125は、オブジェクト認識技術、及び画像内のオブジェクトを区別及び識別するための技術を含む。本発明の幾つかの実施形態において、画像分析125は、認知システム105の統合されたコンポーネントであるのに対して、他の実施形態においては、画像分析125は、直接又はネットワーク150(図示せず)を介して認知システム105に機能的に接続される。画像分析125は、デジタル化画像を受け取り、画像に関するオブジェクト認識分析を実行する。画像内の1つ又は複数のオブジェクトの認識は、画像オブジェクトが認識されるオブジェクトであることの確実性レベル(degree of certainty)の信頼性メトリック、典型的には百分率を含む。オブジェクト認識の確実性レベルは、マスター知識ベース110などの知識ベースにおいて識別されたオブジェクトが画像内で判断されたオブジェクトに合致するかどうかを判断するために、認知システム105により利用される。本発明の幾つかの実施形態において、知識ベース検索において識別されたオブジェクトと認識された画像オブジェクトとの間の合致の信頼性レベル(confidence level)を、ユーザ設定の確実性の閾値レベルと比較する。閾値レベルが満たされる又は超過した場合、識別されたオブジェクトと関連した操作データがモバイル制御デバイス140に伝送され、プロテーゼを作動させ、オブジェクトを操作し、それは、手動の又は代替的な制御よりも高い速度、正確さ、精度及び効率で行われる。
幾つかの実施形態において、認知システム105は、オブジェクトの特定の操作活動と共に成功又は満足のレベルを示すバイオメトリック及び画像フィードバックを受け取り、特定の操作データのセットと共に、オブジェクトについての最適化された操作データの機械学習の実行への入力としてフィードバックを適用する。
マスター知識ベース110は、特定のオブジェクトにマッピングされた特定の相互作用パターンの集まりである。相互作用パターン・データは、プロテーゼ・デバイス及びオブジェクトに特有の操作データを含む。マスター知識ベース110は、画像分析125からのオブジェクト認識データを照合するために認知システム105により用いられるオブジェクトに関するデータのセットを含む。認知システム105は、マスター知識ベース110を検索して、受け取った画像において認識されたオブジェクトとマスター知識ベース110内に含まれる対応するオブジェクト・データのセットとの間の合致を判断する。本発明の幾つかの実施形態において、マスター知識ベース110は、特定のタイプのプロテーゼ・デバイスの1より多いユーザに共有される。
個人化知識ベース120は、付加的な又は代替的な知識ベースとして働き、マスター知識ベース110と同様に動作するが、個人化知識ベース120は、複数のユーザに共有されず、モバイル制御デバイス140の近くに配置され、プロテーゼ・デバイスに特有の特定の操作データの改良点、及びプロテーゼ・デバイスのユーザの好みを受け取る。本発明の幾つかの実施形態において、個人化知識ベース120は、マスター知識ベース110からアクセスされる操作データを受け取り、引き続き、受け取った操作データの反復使用から、及び、表情、眼の焦点、身体の動き、バイオメトリクス、音声及びローカル・センサの触覚フィードバックから、データに対する機械学習ベースの調整を受け取ることができる。
オブジェクト・データ・プログラム200は、個人化知識ベース120又はマスター知識ベース110から所定の信頼性レベル内に識別されないオブジェクトについての最適化された操作データを収集し、判断する。幾つかの実施形態において、オブジェクト・データ・プログラム200は、選択されたオブジェクトを認識又は識別できない操作プログラム300により開始される。オブジェクト・データ・プログラム200は、認知システム105により識別されないオブジェクトの非自動ロボット又は手動操作により生成されるデータを収集するか、又は、個人化知識ベース120又はマスター知識ベース110はオブジェクトについての操作データを含まない。
本発明の幾つかの実施形態において、オブジェクト・データ・プログラム200は、オブジェクトの識別の確立を可能にし、ロボット及び/又は手動操作からの利用可能なセンサ・データを収集する。操作データ及びセンサ、カメラ、音声及びバイオメトリック・データの入力を機械学習技術に適用し、オブジェクトについての最適な操作データを判断する。入力は、オブジェクトの識別を提供することも含み、幾つかの実施形態においては、後のオブジェクト識別のためにより効率的な検索結果を可能にする分類データ入力を含むことができる。本発明の幾つかの実施形態において、操作データ、オブジェクト・データ及び応答フィードバック・データの入力は、後の識別を増強するために、オブジェクトの分類システムの使用を含むことができる。分類システムは、受け取った画像、形状、サイズからのオブジェクト認識データに基づくことができ、さらに、触感、表面属性、及び(非自明な重心を有する)重量分布、利用可能なバイオメトリクス、カメラ画像及び音声データを含むことができる。操作活動からのフィードバック及び応答データは、オブジェクトの操作の試行及び反復に対するユーザ応答、並びに操作試行の結果(オブジェクトのドロップ、オブジェクトの損傷、オブジェクトの過剰又は過少操作、ずれ(slippage)及び配向の問題など)の結果を反映する。
オブジェクト・データ・プログラム200は、最適化されたオブジェクト操作データを個人化知識ベース120に付加し、幾つかの実施形態においては、オブジェクト操作データが、オブジェクト識別及び操作データは、マスター知識ベース110にアクセスする他のユーザに共有され得るマスター知識ベース110に付加されるべきかどうかを判断する。本発明の幾つかの実施形態において、オブジェクト・データ・プログラム200は、新たに判断されたオブジェクト操作データをマスター知識ベース110に付加するかどうかを判断し、これを、オブジェクト操作データをマスター知識ベース110に付加すること(又は付加しないこと)を自動的に可能にするためのユーザ設定として、又は新たに生成された操作データを有する各オブジェクトについてのユーザ決定として提供することができる。
操作プログラム300は、操作データが、識別した選択されたオブジェクトに利用可能であるかどうかを判断し、該データをモバイル制御デバイス140に提供し、識別されたオブジェクトの操作動作を実行する。操作プログラム300は、ARメガネ180のARメガネ・カメラ187から、又はネットワーク150を介して認知システム105に接続された、オブジェクト及びユーザに近接して外部に配置されたカメラから、プロテーゼのユーザの眼の焦点を判断することにより、オブジェクトの選択を決定する。選択されたオブジェクトの画像は、認知システム105に伝送され、画像分析125は、オブジェクト認識技術を受け取った画像に適用し、選択されたオブジェクトを識別する。認識されたオブジェクトの識別を用いて、最初に、特定のユーザについてのオブジェクトと関連した操作データを求めて、個人化知識ベース120内を検索する。個人化された操作データは、特定のプロテーゼ及びユーザのために最適化されるので、特定のユーザについて個人化された操作データの検索に優先順位が付けられる。個人化知識ベース120内に識別されたオブジェクトについての操作データが見つからなかった場合、操作プログラム300は、マスター知識ベース110における検索を実行する。操作プログラム300が個人化知識ベース120又はマスター知識ベース110におけるターゲット・オブジェクトについての操作データを見つけることに応答して、操作プログラム300は、操作データを取り出し、それをプロテーゼ・デバイスに適用し、より優れた正確さ、精度、適切な触感力及び速度で、オブジェクトを自動的に操作する。オブジェクトが操作されるとき、プロテーゼ・デバイスのユーザによりなされるあらゆる操作の調整が、収集され、識別されたオブジェクトの機械学習に適用されたデータ内に含められ、それは、オブジェクト操作データの受け取った入力の反復からオブジェクトの操作を連続的に最適化する。選択されたオブジェクトが識別されない本発明の実施形態において、操作プログラム300は、オブジェクト・データ・プログラム200(図2に「A」で示される)を開始する。同様に、識別されたオブジェクトが、個人化知識ベース120内及びマスター知識ベース110内のどちらにもない場合、操作プログラム300は、オブジェクト・データ・プログラム200に従い、非自動操作データを収集し、オブジェクトの操作の複数の反復から最適化された、個人化知識ベース120内のオブジェクトについての操作パラメータのセットを含み、設定ファイルにおいて適切に可能にされた場合、オブジェクト・データ・プログラム200は、操作データをマスター知識ベース110に転送する。
図2は、本発明の実施形態による、オブジェクト・データ・プログラム200の動作ステップを示す。オブジェクト・データ・プログラム200は、操作プログラム300が、選択されたオブジェクトが識別されないと判断することに応答して開始し、又は識別された場合、操作プログラム300は、個人化知識ベース120内にも又はマスター知識ベース110内にも操作データが存在しないと判断する。幾つかの実施形態において、オブジェクト・データ・プログラム200を開始するためのクエリをメッセージ又は通知としてユーザに提示し、オブジェクト識別データベースから、存在しないことが知られているオブジェクトの操作データを収集することを開始することができる。
ステップ210において、オブジェクト・データ・プログラム200は、画像から認識されたオブジェクトが、データベース、又はマスター知識ベース110若しくは個人化知識ベース120などのオブジェクトの知識ベース内で識別されたオブジェクトと比べたときに、画像から認識されたオブジェクトが合致と考えらえれる信頼性レベルを定めるよう、入力を求める。幾つかの実施形態において、画像から認識されたオブジェクトが、マスター知識ベース110若しくは個人化知識ベース120内で識別されない場合、オブジェクト・データ・プログラム200は、オブジェクトを識別するために、インターネットでアクセス可能なリソースを検索し、識別の合致のある信頼性レベルを含むことができる。本発明の幾つかの実施形態において、オブジェクト・データ・プログラム200は、信頼性レベルの閾値を設定し、認められた合致を確立するよう、ユーザにメッセージ要求を提示することができる。信頼性レベルが既に設定されていた場合、オブジェクト・データ・プログラム200は、ディスプレイ・デバイス上のメッセージ又は可聴メッセージにより、ユーザが現在の信頼性レベル閾値の編集を望むかどうかを尋ねることができる。
選択されたオブジェクトが識別されなかったこと、又は操作データが個人化知識ベース120若しくはマスター知識ベース110において利用可能でないことがユーザに示されると、ステップ220において、オブジェクト・データ・プログラム200は、オブジェクト属性データを収集し、選択されたオブジェクトの識別を可能にする。本発明の幾つかの実施形態において、オブジェクト・データ・プログラム200は、選択されたオブジェクトに関して、サイズ、形状、及びARメガネ・カメラ187及び/又はカメラ170の画像から区別可能な他の物理的属性を判断し、格納する。他の実施形態において、オブジェクト・データ・プログラム200は、ユーザによる情報入力を収集し、識別を選択されたオブジェクトに付加する。オブジェクト属性及び識別は、個人化知識ベース120内に格納される。幾つかの実施形態において、プロテーゼ・デバイスは、オブジェクトに連絡し(例えば、オブジェクトを選択する技術として)、プロテーゼ・デバイス内又はその上に含まれるセンサが、表面粗度、テクスチャ、硬度、及び均一性のような、オブジェクトの物理的属性に関するデータを測定し、戻す。幾つかの実施形態において、オブジェクト・データ・プログラム200は、オブジェクトの重量を求め、オブジェクトを保持及び操作するのに必要な把持力、及び/又は選択されたオブジェクトを保持し、操作するためのその限界値を経験的に学習する。
ステップ230において、オブジェクト・データ・プログラム200は、ロボット・プロテーゼ・デバイス190のようなプロテーゼ・デバイスにより、オブジェクトのユーザのロボット操作からのデータを収集する。プロテーゼ・デバイスの非自動操作からのデータが、カメラ170からの表情、音声フィードバック、ユーザに接続されたセンサからのバイオメトリック・フィードバック、及びAGメガネ・カメラ187により記録されるようなオブジェクト操作結果といった対応するフィードバック・データと共に、オブジェクト・データ・プログラム200により収集される。操作データ及び対応するフィードバック・データは、認知システム105に伝送され、機械学習処理に入力され、選択されたオブジェクトについてのより成功した及びあまり成功していない操作パラメータを判断する。非自動操作は、オブジェクトの操作の多数の反復を含み、選択されたオブジェクトについての最適化した操作データを判断するために、付随するデータが、ネットワーク150を介して認知システム105に入力され、機械学習により処理される。
ステップ240において、オブジェクト・データ・プログラム200は、機械学習により最適化されたオブジェクト操作データを、個人化知識ベース120に付加する。操作プログラム300は、選択されたオブジェクトの非自動操作の反復の結果として、操作データを最適化し、機械学習処理のために、操作画像結果及び対応する操作データを認知システム105に伝送する。図3に関して詳細に説明されるように、オブジェクト・データ・プログラム200は、最適化した操作データを個人化知識ベース120に付加し、この個人化知識ベース120は、後の機会に選択されたオブジェクトを自動的に操作するために用いることができる特別な操作データを提供する。本発明の幾つかの実施形態において、操作プログラム300は、選択された項目に対応する操作データを付加的な操作データとして連続的に最適化し、操作結果のフィードバックが収集され、認知システム105の機械学習を通じて処理される。選択されたオブジェクトに対応する操作データは、選択されたオブジェクトが認識され、選択されたオブジェクトの画像に合致する識別を含み、それらは後で認知システム105に送られる。
選択されたオブジェクトについて最適化された操作データが個人化知識ベース120に付加されると、決定ステップ250において、オブジェクト・データ・プログラム200は、選択されたオブジェクトの操作データをマスター知識ベース110に付加するための機能がイネーブルにされるかどうかを判断する。オブジェクト・データ・プログラム200が、操作データをマスター知識ベース110に付加するようにイネーブルにされないと判断された場合(ステップ250、「ノー(NO)」分岐)、オブジェクト・データ・プログラム200は終了する。オブジェクト・データ・プログラム200が、選択されたオブジェクトの操作データをマスター知識ベース110に付加するための選択肢がイネーブルにされると判断される場合(ステップ250、「イエス(YES)」分岐)、ステップ260において、オブジェクト・データ・プログラム200は、画像に適用されるオブジェクト認識技術を用いて選択されたオブジェクトを識別するためにデータを伝送することを含む、選択されたオブジェクトの操作データをマスター知識ベース110に伝送する。
本発明の幾つかの実施形態において、最初に個人化知識ベース120に付加され、後でマスター知識ベース120に付加される操作データは、自動的に行われ、「新しい」操作データをマスター知識ベース110に自動的に付加するためのオブジェクト・データ・プログラム200の選択肢がイネーブルにされるかどうかに基づいている。操作データのマスター知識ベース110及び個人化知識ベース120への付加は、画像分析125(図1)により画像内で認識され、個人化知識ベース120若しくはマスター知識ベース110内で見いだされないオブジェクトを照合するための以前の検索の実施に基づいている。幾つかの実施形態において、選択肢は、オブジェクト・データ・プログラム200の設定ファイル内に含ませることができる。他の実施形態において、最初に、選択されたオブジェクトの特定の操作データのセットを個人化知識ベース120に付加する結果として、選択肢クエリをユーザに提示することができる。さらに他の実施形態において、オブジェクト・データ・プログラム200は、ユーザに問い合わせを行わないが、選択されたオブジェクトの特定の操作データをマスター知識ベース110に付加するよう、ユーザからの指示を要求する。
選択されたオブジェクトの、操作データのマスター知識ベース110への付加が完了すると、オブジェクト・データ・プログラム200が終了する。
図3は、本発明の実施形態による、操作プログラム300の動作ステップを示す。操作プログラム300は、マスター知識ベース110及び/又は個人化知識ベース120内に格納されたデータのような、操作データと関連したオブジェクト識別データと比べて、選択されたオブジェクトが、選択されたオブジェクトの画像から識別されるかどうかを判断する。選択されたオブジェクト画像が知識ベース内の識別されたオブジェクトとして認識される場合、操作プログラム300は、識別されたオブジェクトについての操作データが存在するかどうかを判断する。利用可能な操作データがプロテーゼ・デバイスのローカル・コントローラに送られ、オブジェクトの操作を自動的に実行する。
ステップ305において、操作プログラム300は、操作を意図した選択されたオブジェクトを決定する。本発明の幾つかの実施形態において、操作プログラム300は、カメラ画像を用いて、プロテーゼ・デバイスのユーザにより選択された特定のオブジェクトを判断する。他の実施形態においては、外部カメラを用いて、ユーザの眼の焦点及びプロテーゼ・デバイスのユーザのすぐ近くの可視領域を監視することにより、選択されたオブジェクトを判断する。本発明の幾つかの実施形態において、ユーザは、プロテーゼ・デバイスを用いて、選択されたオブジェクトに接近又は接触することができ、更に他の実施形態においては、オブジェクトの選択は、自然言語処理技術を用いて処理される言語コマンドにより行うことができる。本発明の幾つかの実施形態において、操作プログラム300は、プロテーゼ・デバイスのユーザにより選択されたオブジェクトを確認する。
決定ステップ310において、操作プログラム300は、選択されたオブジェクトが識別されるかどうかを判断する。本発明の幾つかの実施形態において、選択されたオブジェクトの識別は、個人化知識ベース120、又はマスター知識ベース110、又は画像データから判断されるオブジェクト属性データなどのオブジェクト・データを含む他の何らかのリポジトリ(図1に図示されない)のような知識ベースを検索し、かつ、選択されたオブジェクトの画像から判断された属性を、知識ベース又は他のリポジトリ内のオブジェクトの格納されたデータ属性と比較することによって行われる。例えば、選択されたオブジェクトの画像は、ユーザが装着するARメガネ180のARメガネ・カメラ187から入手可能であり得る。選択されたオブジェクトの画像は、認知システム105に送られ、画像分析125により実行されるオブジェクト認識技術により処理され、選択されたオブジェクトの画像内のオブジェクトを区別及び識別する。画像の識別されたオブジェクトを用いて、知識ベース又は識別されたオブジェクト・データの他のリポジトリの検索を行い、合致の信頼性レベルを求める。本発明の幾つかの実施形態において、コサイン類似関数のような類似関数を用いて、知識ベースの識別されたオブジェクトが所定の信頼性レベル内の選択されたオブジェクトに合致するかどうかに関する確率又はスコアを求めることができる。合致の信頼性レベルは、検索から識別されたオブジェクトが、選択されたオブジェクトの画像の光学的認識から判断されたオブジェクトに合致する相対的な確実性レベルを示す。プロテーゼ・デバイスのユーザは、そこで又はそれより上でオブジェクトが合致すると考えられる信頼性レベル閾値を設定する。確立された閾値より低い信頼性レベルにおいて、検索結果は、合致が見つからないと考えられる。
本発明の幾つかの実施形態において、信頼性レベルは、オブジェクトの知識ベース内のデータからの識別されたオブジェクトなどの他のオブジェクトにおいて共通であることが見出される、選択されたオブジェクトの画像などの1つのオブジェクトの属性により決定される。操作プログラム300は、オブジェクト検索において判断された信頼性レベルを示し、幾つかの実施形態においては、ユーザが、現在の閾値より下の信頼性レベルを受け入れる選択肢を提供するように構成することができる。選択されたオブジェクト画像から判断されたオブジェクトの検索が合致なし(no match)、又は合致の閾値より下の信頼性レベルを示す場合(ステップ310、「ノー」分岐)、操作プログラム300は、オブジェクト・データ・プログラム200(A)を開始し、選択されたオブジェクトの識別を確立し、選択されたオブジェクトに対応する操作データを収集する。
知識ベース又はオブジェクト・データのリポジトリを検索する結果としてオブジェクトが識別される場合(ステップ310、「イエス」分岐)、操作プログラム300は、決定ステップ315に進み、個人化知識ベース内に選択されたオブジェクトについての操作データが見つかるかどうかを判断する。本発明の幾つかの実施形態において、選択されたオブジェクトの識別を用いて個人化知識ベース120を検索し、選択されたオブジェクトについて操作データが見つかるかどうかを判断する。他の実施形態においては、マスター知識ベース110又はオブジェクト・データの別のリポジトリ又はインターネット・リソースを用いて、オブジェクトを識別するための検索を実行することができる。幾つかの実施形態において、個人化知識ベース120を用いて、識別した選択されたオブジェクトについて操作データが見つかるかどうかを判断するための最初の検索が実行される。操作プログラム300が、個人化知識ベース120内に操作データが見つかったと判断する場合(ステップ315、「イエス」分岐)、ステップ320において、操作プログラム300は、個人化知識ベース120からオブジェクト操作データを取り出す。本発明の幾つかの実施形態において、個人化知識ベース120からの操作データの取り出しは、マスター知識ベース110からの操作データよりも好ましく、それは、個人化知識ベース120から取り出された操作データは、特定のユーザ及びロボット・プロテーゼ・デバイス190のようなユーザのプロテーゼ・デバイスに特有であり、選択されたオブジェクトの操作において付加的な改良点及び精度を提供できるためである。選択されたオブジェクトについての操作データを取り出すと、操作プログラム300はステップ335に進み、選択されたオブジェクトを操作するための活動を実行する。
操作プログラム300が、選択される識別されたオブジェクトについて、個人化知識ベース120内に操作データが見つからないと判断すると(ステップ315、「ノー」分岐)、操作プログラム300は、決定ステップ325に進み、マスター知識ベース110などのマスター知識ベース内に、選択される識別されたオブジェクトについて操作データが見つかったと判断する。操作プログラム300は、選択されたオブジェクトの判断した識別に基づいて、マスター知識ベース110を検索し、選択される識別されたオブジェクトに対応する操作データを見つけることができないと(ステップ325、「ノー」分岐)、操作プログラム300は、オブジェクト・データ・プログラム200(A)を開始し、選択されたオブジェクトの識別を確立し、選択されたオブジェクトに対応する操作データを収集し、操作データの収集は、特定の手動制御された操作活動と関連したフィードバック・データの収集を含む。オブジェクト・データ・プログラム200は、操作データ及びフィードバック・データの収集に進み、図2に関して上述されるように、操作データを最適化するための機械学習処理のために、データを認知システム105に入力する。
操作プログラム300が、マスター知識ベース110のようなマスター知識ベース内に、選択されたオブジェクトについての操作データが見つかったと判断する場合(ステップ325、「イエス」分岐)、操作プログラム300はステップ330に進み、マスター知識ベースからオブジェクト操作データを取り出す。本発明の幾つかの実施形態において、選択されたオブジェクトについての操作データが取り出され、モバイル制御デバイス140のようなプロテーゼ・デバイスのローカル・コントローラに送られる。他の実施形態において、各操作命令は、操作プログラム300により処理され、特定の操作コマンドを実行するためにモバイル制御デバイス140に送られる。
ステップ335において、選択されたオブジェクトについての操作データを取り出すと、操作プログラム300は、選択されたオブジェクトの操作を実行する。操作プログラム300は、操作データを取り出し、コントローラ命令を、ロボット・プロテーゼ・デバイス190のようなプロテーゼ・デバイスの近くのモバイル制御デバイス140に送る。モバイル制御デバイス140は、操作プログラム300から操作命令を受け取り、次に、適切なモータ、スイッチ、及びロボット・プロテーゼ・デバイス190をイネーブルにする他のデバイスをアクティブ化する。マスター知識ベース110内で見つかった操作データの実施は、精度、正確さ及び速度がより向上した選択されたオブジェクトの操作を可能にし、選択されたオブジェクトの属性に適した触覚圧力を含む。
マスター知識ベース110において見つかった操作データを用いて選択されたオブジェクトを操作すると、操作プログラム300は、ステップ340において、選択されたオブジェクトの操作と関連したデータを収集する。本発明の幾つかの実施形態において、操作プログラム300は、選択されたオブジェクトの操作及び操作活動と関連したフィードバック・データを監視する。本発明の幾つかの実施形態において、プロテーゼ・デバイスのユーザが、操作データの自動処理の際に介入し、特定の操作活動を調整又は微調整することがある。データは、操作プログラム300が自動操作データへの調整をキャプチャすることにより収集され、それを、選択されたオブジェクトの操作を引き続き改良及び改善するために用いることができる。
ステップ345において、操作プログラムは、選択されたオブジェクトの操作中に収集された操作データを機械学習に適用する。操作プログラム300は、選択されたオブジェクトの操作中に収集された、連続的な改善の最適化活動に置いて機械学習に適用されるべき操作データを認知システム105に伝送する。本発明の幾つかの実施形態において、自動操作データになされる調整は、収集されたデータ内に含められ、選択されたオブジェクトの操作の複数の反復に基づき、かつ、プロテーゼ・デバイスのユーザにより手動でなされた調整を考慮して、選択されたオブジェクトについての自動操作データへの変更を含む機械学習に入力される。幾つかの実施形態において、操作プログラム300は、オブジェクト・データ・プログラム200を開始し、操作データ及び関連したフィードバック・データを収集することにより、操作データを収集することができる。他の実施形態において、操作プログラム300は、データ収集活動を実行し、機械学習に適用されるべきデータを認知システム105に伝送する。
図4は、本発明の実施形態による、オブジェクト・データ・プログラム200及び操作プログラム300を作動可能に実行することができるコンピューティング・デバイスを含み、かつ、オブジェクト操作データへのアクセスを提供する、システムのコンポーネントのブロック図を示す。
本発明の例証的な実施形態によると、コンピューティング・デバイス405が、サーバ101及びモバイル制御デバイス140(図1)に類似したコンポーネント及び機能的能力(functional capability)を含む。図4は、1つの実装の例証に過ぎず、異なる実施形態を実施できる環境に関するいずれの限定も意味するものではないことを理解されたい。示される環境への多くの修正をなすことができる。
コンピューティング・デバイス405は、コンピュータ・プロセッサ404、メモリ406、永続的ストレージ408、通信ユニット410、及び入力/出力(I/O)インターフェース412の間の通信を提供する通信ファブリック402を含む。通信ファブリック402は、プロセッサ(マイクロプロセッサ、通信及びネットワーク・プロセッサ等のような)、システム・メモリ、周辺機器、及びシステム内の他のいずれかのハードウェア・コンポーネントの間でデータ及び/又は制御情報を送るように設計された任意のアーキテクチャを有するように実装することができる。例えば、通信ファブリック402は、1つ又は複数のバスを有するように実装することができる。
メモリ406、キャッシュ・メモリ416及び永続的ストレージ408は、コンピュータ可読ストレージ媒体である。この実施形態において、メモリ406は、ランダム・アクセス・メモリ(RAM)414を含む。一般に、メモリ406は、任意の好適な揮発性又は不揮発性コンピュータ可読ストレージ媒体を含むことができる。
オブジェクト・データ・プログラム200及び操作プログラム300は、永続的ストレージ408内に格納され、メモリ406の1つ又は複数のメモリを介してそれぞれのコンピュータ・プロセッサ404の1つ又は複数により実行される。この実施形態において、永続的ストレージ408は、磁気ハードディスクドライブを含む。代替的に又は磁気ハードディスクドライブに加えて、永続的ストレージ408は、ソリッドステート・ハードドライブ、半導体ストレージ・デバイス、読み出し専用メモリ(ROM)、消去可能プログラム可能読み出し専用メモリ(EPROM)、フラッシュメモリ、又はプログラム命令若しくはデジタル情報を格納することができる他のいずれかのコンピュータ可読ストレージ媒体を含むことができる。
永続的ストレージ408により使用される媒体は、取り外し可能とすることもできる。例えば、取り外し可能なハードドライブを、永続的ストレージ408のために用いることができる。他の例として、光ディスク及び磁気ディスク、サムドライブ、及び永続的ストレージ408の一部でもある別のコンピュータ可読ストレージ媒体に転送するためにドライブに挿入されるスマートカードが挙げられる。
通信ユニット410は、これらの例において、分散型ネットワーク処理環境100のリソースを含む、他のデータ処理システム又はデバイスとの通信を提供する。これらの例において、通信ユニット410は、1つ又は複数のネットワーク・インターフェース・カードを含む。通信ユニット410は、物理的及び無線通信リンクのいずれか又は両方を用いて通信を提供することができる。オブジェクト・データ・プログラム200及び操作プログラム300は、通信ユニット410を通じて永続的ストレージ408にダウンロードすることができる。
I/Oインターフェース412は、コンピューティング・システム400に接続することができる他のデバイスとのデータの入力及び出力を可能にする。例えば、I/Oインターフェース412は、キーボード、キーパッド、タッチスクリーン、及び/又は他の何らかの好適な入力デバイスのような外部デバイス418への接続を提供することができる。外部デバイス418はまた、例えば、サムドライブ、携帯型光ディスク又は磁気ディスク、及びメモリカードなどの携帯型コンピュータ可読ストレージ媒体を含むこともできる。本発明の実施形態を実施するために用いられるソフトウェア及びデータ、例えばオブジェクト・データ・プログラム200及び操作プログラム300は、そうした携帯型コンピュータ可読ストレージ媒体上に格納することができ、I/Oインターフェース412を介して永続的ストレージ408にロードすることができる。I/Oインターフェース412は、ディスプレイ420にも接続される。
ディスプレイ420は、データを表示するための機構をユーザに提供し、例えば、コンピュータ・モニタとすることができる。
本明細書で説明されるプログラムは、それらが本発明の特定の実施形態において実施されるアプリケーションに基づいて識別される。しかしながら、本明細書でのいずれの特定のプログラムの命名も、便宜上用いられているに過ぎず、従って、本明細書は、こうした命名により識別される及び/又は暗示されるいずれかの特定のアプリケーションにおいてのみ使用するように限定されるべきではないことを理解されたい。
本発明は、システム、方法、及び/又はコンピュータ・プログラム製品とすることができる。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令をその上に有するコンピュータ可読ストレージ媒体(単数又は複数)を含むことができる。
コンピュータ可読ストレージ媒体は、命令実行デバイスにより使用される命令を保持及び格納できる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、これらに限定されるものではないが、電子記憶装置、磁気記憶装置、光学記憶装置、電磁気記憶装置、半導体記憶装置、又は上記のいずれかの適切な組み合わせとすることができる。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストとして、以下のもの:すなわち、ポータブル・コンピュータ・ディスケット、ハードディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラム可能読み出し専用メモリ(EPROM又はフラッシュメモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー・ディスク、パンチカード若しくは命令がそこに記録された溝内の隆起構造のような機械的にエンコードされたデバイス、及び上記のいずれかの適切な組み合わせが挙げられる。本明細書で使用される場合、コンピュータ可読ストレージ媒体は、電波、又は他の自由に伝搬する電磁波、導波管若しくは他の伝送媒体を通じて伝搬する電磁波(例えば、光ファイバ・ケーブルを通る光パルス)、又はワイヤを通って送られる電気信号などの、一時的信号自体として解釈されない。
本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスに、又は、例えばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク、及び/又は無線ネットワークなどのネットワークを介して外部コンピュータ又は外部ストレージ・デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、及び/又はエッジ・サーバを含むことができる。各コンピューティング/処理デバイスにおけるネットワーク・アダプタ・カード又はネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受け取り、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体に格納する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、Smalltalk、C++などのオブジェクト指向プログラミング言語、及び、「C」プログラミング言語若しくは類似のプログラミング言語などの通常の手続き型プログラミング言語を含む1つ又は複数のプログラミング言語の任意の組み合わせで記述することができる。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行される場合もあり、一部がユーザのコンピュータ上で、独立型ソフトウェア・パッケージとして実行される場合もあり、一部がユーザのコンピュータ上で実行され、一部が遠隔コンピュータ上で実行される場合もあり、又は完全に遠隔コンピュータ若しくはサーバ上で実行される場合もある。最後のシナリオにおいて、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)若しくは広域ネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続される場合もあり、又は外部コンピュータへの接続がなされる場合もある(例えば、インターネットサービスプロバイダを用いたインターネットを通じて)。幾つかの実施形態において、例えば、プログラム可能論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はプログラム可能論理アレイ(PLA)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を用いて電子回路を個人化することによりコンピュータ可読プログラム命令を実行し、本発明の態様を実施することができる。
本発明の態様は、本発明の実施形態による方法、装置(システム)及びコンピュータ・プログラム製品のフローチャート図及び/又はブロック図を参照して説明される。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図内のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されるであろう。
これらのコンピュータ可読プログラム命令を、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能データ処理装置のプロセッサに与えてマシンを製造し、それにより、コンピュータ又は他のプログラム可能データ処理装置のプロセッサによって実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロック内で指定された機能/動作を実施するための手段を作り出すようにすることができる。これらのコンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、及び/又は他のデバイスを特定の方式で機能させるように指示することができるコンピュータ可読媒体内に格納し、それにより、そのコンピュータ可読媒体内に格納された命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作の態様を実施する命令を含む製品を含むようにすることもできる。
コンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上にロードして、一連の動作ステップをコンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上で行わせてコンピュータ実施のプロセスを生成し、それにより、コンピュータ又は他のプログラム可能装置上で実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作を実行するためのプロセスを提供するようにすることもできる。
図面内のフローチャート及びブロック図は、本発明の種々の実施形態による、システム、方法、及びコンピュータ・プログラム製品の可能な実装の、アーキテクチャ、機能及び動作を示す。この点に関して、フローチャート内の各ブロックは、指定された論理機能を実装するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表すことができる。幾つかの代替的な実装において、ブロック内に示される機能は、図に示される順序とは異なる順序で生じることがある。例えば、連続して示される2つのブロックは、関与する機能に応じて、実際には実質的に同時に実行されることもあり、又はこれらのブロックはときとして逆順で実行されることもある。ブロック図及び/又はフローチャート図の各ブロック、及びブロック図及び/又はフローチャート図内のブロックの組み合わせは、指定された機能又は動作を実行する、又は専用のハードウェアとコンピュータ命令との組み合わせを実行する、専用ハードウェア・ベースのシステムによって実装できることにも留意されたい。
100:分散型ネットワーク処理環境
101:サーバ
105:認知システム
110:マスター知識ベース
120:個人化知識ベース
125:画像分析
130:無線接続
140:モバイル制御デバイス
150:ネットワーク
160:ロボット・サポート・デバイス
170:カメラ180:ARメガネ
185:ARメガネ送受信機
187:ARメガネ・カメラ
190:ロボット・プロテーゼ・デバイス
200:オブジェクト・データ・プログラム
300:操作プログラム
402:通信ファブリック
404:コンピュータ・プロセッサ
405:コンピューティング・デバイス
406:メモリ
408:永続手的ストレージ
410:通信ユニット
412:入力/出力(I/O)インターフェース
416:キャッシュ・メモリ
420:ディスプレイ

Claims (40)

  1. 1つ又は複数のプロセッサが、オブジェクトの画像データを含む入力を受け取ることと、
    1つ又は複数のプロセッサが、前記オブジェクトの前記画像データに関する画像分析の実行に基づいて、前記オブジェクトの画像属性を判断することと、
    1つ又は複数のプロセッサが、前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトと、前記複数の識別されたオブジェクトにそれぞれ対応する操作データとを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断することと、
    前記オブジェクトの前記画像属性が前記知識ベースの前記識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトに対応する操作データをモバイル制御デバイスに伝送することと、
    を含む方法。
  2. 前記モバイル制御デバイスは、前記1つ又は複数のプロセッサにより伝送された前記操作データを用いて、前記オブジェクトの操作を実行することができる操作デバイスに通信可能に接続され、受け取った前記入力が前記オブジェクトの前記画像データを含む前記オブジェクトは、前記操作デバイスのユーザにより選択される、請求項1に記載の方法。
  3. 1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、前記オブジェクトの前記操作を実行する前記操作デバイスのフィードバックを受け取ることであって、前記フィードバックは、前記操作デバイスからの感覚データと、前記ユーザにより選択された前記オブジェクトの操作中の前記操作デバイスの前記ユーザの画像フィードバックとを含む、受け取ることと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記操作デバイスからの前記感覚データの前記フィードバック、及び前記ユーザにより選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行することと、
    1つ又は複数のプロセッサが、前記操作デバイスからの前記感覚データの前記フィードバック及び前記ユーザにより選択された前記オブジェクトの操作中の前記ユーザのフィードバックに基づく機械学習の実行に基づいて、前記ユーザにより選択された前記オブジェクトについての前記操作データを調整することと、
    をさらに含む、請求項1に記載の方法。
  4. 前記オブジェクトの前記画像データと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断することは、前記オブジェクトの前記画像属性と前記知識ベースの前記識別されたオブジェクトとの比較により、所定の信頼性レベルを上回る類似スコアが生成される類似関数を実施することに基づく、請求項1に記載の方法。
  5. 1つ又は複数のプロセッサが、前記オブジェクトの前記操作を実行する前記操作デバイスからのフィードバックを受け取ることであって、前記操作デバイスのユーザは、前記オブジェクトの前記操作を改善するために、前記前記オブジェクトの前記操作への調整を実行し、前記フィードバックは、受け取った前記知識ベースの前記識別されたオブジェクトに対応する前記操作データに基づき、かつ、前記フィードバックは、前記操作デバイスに接続されたセンサからの感覚データと、前記オブジェクトの操作中に前記操作デバイスを視ている1つ又は複数のカメラからの前記操作デバイスの画像フィードバックとを含む、受け取ることと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記操作デバイスに接続された前記センサからの前記感覚データの前記フィードバック、及び前記オブジェクトの操作中に前記操作デバイスを視ている前記1つ又は複数のカメラから受け取った前記画像フィードバックに基づいて、前記オブジェクトの前記操作に関する機械学習を実行することと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記操作デバイスに接続された前記センサからの前記感覚データの前記フィードバック、及び前記オブジェクトの操作中に前記操作デバイスを視ている前記1つ又は複数のカメラからの前記操作デバイスの前記画像フィードバックに適用される前記機械学習の結果得られる、前記オブジェクトについての前記操作データを調整することと、
    をさらに含む、請求項1に記載の方法。
  6. 前記オブジェクトは、プロテーゼ・デバイスのユーザにより選択され、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは画像属性を含み、前記1つ又は複数のプロセッサが操作データを伝送するステップは、選択された前記オブジェクトに合致する前記識別されたオブジェクトの前記画像属性データに対応する操作データを前記モバイル制御デバイスに伝送することを含み、前記モバイル制御デバイスは、前記プロテーゼ・デバイスに通信可能に接続され、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、請求項1に記載の方法。
  7. 1つ又は複数のプロセッサが、1つ又は複数のカメラから、前記プロテーゼ・デバイスの前記ユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取ることであって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、受け取ることと、
    1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトの画像を受け取ることと、
    1つ又は複数のプロセッサが、前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトが、前記ユーザにより選択された前記オブジェクトであると判断することと、
    をさらに含む、請求項6に記載の方法。
  8. 1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取ることであって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザの画像フィードバックとを含む、受け取ることと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行することと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整することと、
    をさらに含む、請求項6に記載の方法。
  9. 選択された前記オブジェクトについて調整される前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項8に記載の方法。
  10. 1つ又は複数のプロセッサが、選択された前記オブジェクトが複数の識別されたオブジェクトを含む前記知識ベースの1つの識別されたオブジェクトに合致しないと判断し、1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザに通知を与え、選択された前記オブジェクトに対応する非自動操作データの1又は複数の反復を機械学習処理に入力する、請求項6に記載の方法。
  11. 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項6に記載の方法。
  12. 前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断することは、前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断することを含む、請求項6に記載の方法。
  13. 1つ又は複数のプロセッサが、プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取ることと、
    1つ又は複数のプロセッサが、前記画像データに関する画像分析の実行に基づいて、選択された前記オブジェクトの画像属性を判断することと、
    1つ又は複数のプロセッサが、選択された前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断することであって、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、前記識別されたオブジェクトに対応する操作データとを含む、判断することと、
    選択された前記オブジェクトの前記画像属性が前記知識ベースの識別されたオブジェクトに合致すると判断することに応答して、1つ又は複数のプロセッサが、選択された前記オブジェクトに合致する前記識別されたオブジェクトの前記画像属性データに対応する操作データを、前記プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送することであって、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、伝送することと、
    を含む方法。
  14. 1つ又は複数のプロセッサが、1つ又は複数のカメラから、前記プロテーゼ・デバイスの前記ユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取ることであって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、受け取ることと、
    1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトの画像を受け取ることと、
    1つ又は複数のプロセッサが、前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記プロテーゼ・デバイスの前記ユーザのビュー内の前記オブジェクトが、前記ユーザにより選択された前記オブジェクトであると判断することと、
    をさらに含む、請求項13に記載の方法。
  15. 1つ又は複数のプロセッサが、前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取ることであって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザの画像フィードバックとを含む、受け取ることと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行することと、
    1つ又は複数のプロセッサが、前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整することと、
    をさらに含む、請求項13に記載の方法。
  16. 選択された前記オブジェクトについて調整される前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項15に記載の方法。
  17. 1つ又は複数のプロセッサが、選択された前記オブジェクトが複数の識別されたオブジェクトを含む前記知識ベースの1つの識別されたオブジェクトに合致しないと判断し、1つ又は複数のプロセッサが、前記プロテーゼ・デバイスの前記ユーザに通知を与え、選択された前記オブジェクトに対応する非自動操作データの1又は複数の反復を機械学習処理に入力する、請求項13に記載の方法。
  18. 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項13に記載の方法。
  19. 前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断することは、前記プロテーゼ・デバイスの前記ユーザにより選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断することを含む、請求項13に記載の方法。
  20. コンピュータ・プログラムであって、前記プログラムがコンピュータ上で実行されるとき、請求項1から請求項19までのいずれかに記載の方法をコンピュータに実行させるように適合されたプログラム・コード手段を含む、コンピュータ・プログラム。
  21. コンピュータに実行させるプログラム命令を含むコンピュータ・プログラムであって、前記プログラム命令は、
    プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取るためのプログラム命令と、
    前記画像データに関する画像分析の実行に基づいて、選択された前記オブジェクトの画像属性を判断するためのプログラム命令と、
    選択された前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令であって、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、前記識別されたオブジェクトに対応する操作データとを含む、プログラム命令と、
    選択された前記オブジェクトの前記画像属性が前記知識ベースの1つの識別されたオブジェクトに合致すると判断することに応答して、選択された前記オブジェクトの前記画像属性データに合致する前記識別されたオブジェクトに対応する操作データを、前記プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送するためのプログラム命令であって、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、プログラム命令と、
    を含む、コンピュータ・プログラム。
  22. 1つ又は複数のカメラから、プロテーゼ・デバイスのユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取るためのプログラム命令であって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、プログラム命令と、
    前記ユーザのビュー内の前記オブジェクトの画像を受け取るためのプログラム命令と、
    前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記ユーザのビュー内の前記オブジェクトが、前記ユーザにより選択された前記オブジェクトであると判断するためのプログラム命令と、
    をさらに含む、請求項21に記載のコンピュータ・プログラム。
  23. 前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取るためのプログラム命令であって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザの画像フィードバックとを含む、プログラム命令と、
    前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行するためのプログラム命令と、
    前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整するためのプログラム命令と、
    をさらに含む、請求項21に記載のコンピュータ・プログラム。
  24. 選択された前記オブジェクトについて調整された前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項23に記載のコンピュータ・プログラム。
  25. プログラム命令が選択された前記オブジェクトが複数の識別されたオブジェクトを含む前記知識ベースの1つの識別されたオブジェクトと合致しないと判断することに応答して、前記プロテーゼ・デバイスの前記ユーザに通知を与え、選択された前記オブジェクトに対応する非自動操作データの1又は複数の反復を機械学習処理に入力するためのプログラム命令をさらに含む、請求項21に記載のコンピュータ・プログラム。
  26. 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項21に記載のコンピュータ・プログラム。
  27. 選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断するためのプログラム命令は、選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断するためのプログラム命令を含む、請求項21に記載のコンピュータ・プログラム。
  28. 1つ又は複数のコンピュータ・プロセッサと、
    1つ又は複数のコンピュータ可読ストレージ媒体と、
    前記1つ又は複数のプロセッサの少なくとも1つにより実行される、前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令と、
    を含み、前記プログラム命令は、
    オブジェクトの画像データを含む入力を受け取るためのプログラム命令と、
    前記オブジェクトの前記画像データに関する画像分析の実行に基づいて、前記オブジェクトの画像属性を判断するためのプログラム命令と、
    前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトと、前記複数の識別されたオブジェクトにそれぞれ対応する操作データとを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令と、
    前記オブジェクトの前記画像属性が前記知識ベースの前記識別されたオブジェクトに合致すると判断することに応答して、前記知識ベースの前記識別されたオブジェクトに対応する操作データをモバイル制御デバイスに伝送するためのプログラム命令と、
    を含む、システム。
  29. 前記オブジェクトは、プロテーゼ・デバイスのユーザにより選択され、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは画像属性を含み、操作データを伝送するための前記プログラム命令は、選択された前記オブジェクトに合致する前記識別されたオブジェクトの前記画像属性データに対応する操作データを前記モバイル制御デバイスに伝送するためのプログラム命令を含み、前記モバイル制御デバイスは、前記プロテーゼ・デバイスに通信可能に接続され、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、請求項28に記載のシステム。
  30. 1つ又は複数のカメラから、プロテーゼ・デバイスのユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取るためのプログラム命令であって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、プログラム命令と、
    前記ユーザのビュー内の前記オブジェクトの画像を受け取るためのプログラム命令と、
    前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記ユーザのビュー内の前記オブジェクトが、選択された前記オブジェクトであると判断するためのプログラム命令と、
    をさらに含む、請求項29に記載のシステム。
  31. 前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取るためのプログラム命令であって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザからの画像フィードバックとを含む、プログラム命令と、
    前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行するためのプログラム命令と、
    前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整するためのプログラム命令と、
    をさらに含む、請求項29に記載のシステム。
  32. 選択された前記オブジェクトについて調整された前記操作データが、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項31に記載のシステム。
  33. 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項29に記載のシステム。
  34. 選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断するためのプログラム命令は、選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断するためのプログラム命令を含む、請求項29に記載のシステム。
  35. 1つ又は複数のコンピュータ・プロセッサと、
    1つ又は複数のコンピュータ可読ストレージ媒体と、
    前記1つ又は複数のプロセッサの少なくとも1つにより実行される、前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令と、
    を含み、前記プログラム命令は、
    プロテーゼ・デバイスのユーザにより選択されたオブジェクトの画像データを受け取るためのプログラム命令と、
    前記画像データに関する画像分析の実行に基づいて、選択された前記オブジェクトの画像属性を判断するためのプログラム命令と、
    選択された前記オブジェクトの前記画像属性が、複数の識別されたオブジェクトを含む知識ベースの1つの識別されたオブジェクトに合致するかどうかを判断するためのプログラム命令であって、前記知識ベースの前記複数の識別されたオブジェクトのうちの1つの識別されたオブジェクトは、画像属性と、前記識別されたオブジェクトに対応する操作データとを含む、プログラム命令と、
    選択された前記オブジェクトが前記知識ベースの識別されたオブジェクトに合致すると判断することに応答して、前記ユーザにより選択された前記オブジェクトに合致する前記識別されたオブジェクトに対応する操作データを、前記プロテーゼ・デバイスに通信可能に接続されたモバイル制御デバイスに伝送するためのプログラム命令であって、前記モバイル制御デバイスは、前記識別されたオブジェクトに対応する前記操作データを前記プロテーゼ・デバイスに適用する、プログラム命令と、
    を含む、コンピュータ・システム。
  36. 1つ又は複数のカメラから、プロテーゼ・デバイスのユーザの眼の焦点方向、表情及び身体の動きの画像データを受け取るためのプログラム命令であって、前記眼の焦点、前記表情及び前記身体の動きの前記画像データは、前記ユーザのビュー内のオブジェクトに向けられる、プログラム命令と、
    前記ユーザのビュー内の前記オブジェクトの画像を受け取るためのプログラム命令と、
    前記ユーザの前記眼の焦点、前記表情及び前記身体の動きの前記画像データに基づいて、前記ユーザのビュー内の前記オブジェクトが、選択された前記オブジェクトであると判断するためのプログラム命令と、
    をさらに含む、請求項35に記載のコンピュータ・システム。
  37. 前記知識ベースの前記識別されたオブジェクトの前記操作データに基づいて、選択された前記オブジェクトの前記操作を実行する前記プロテーゼ・デバイスのフィードバックを受け取るためのプログラム命令であって、前記フィードバックは、前記プロテーゼ・デバイスからの感覚データと、選択された前記オブジェクトの操作中の前記ユーザからの画像フィードバックとを含む、プログラム命令と、
    前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザの前記フィードバックに基づいて、選択された前記オブジェクトの前記操作に関する機械学習を実行するためのプログラム命令と、
    前記知識ベースから受け取った前記識別されたオブジェクトの前記操作データ、前記プロテーゼ・デバイスからの前記感覚データの前記フィードバック、及び選択された前記オブジェクトの操作中の前記ユーザからのフィードバックに関する機械学習に基づいて、選択された前記オブジェクトについての前記操作データを調整するためのプログラム命令と、
    をさらに含む、請求項35に記載のコンピュータ・システム。
  38. 選択された前記オブジェクトについて調整された前記操作データは、前記ユーザ及び前記ユーザの前記プロテーゼ・デバイスに対して特に調整された操作データを有する第2の知識ベースに付加される、請求項37に記載のコンピュータ・システム。
  39. 前記画像データは、前記プロテーゼ・デバイスに接続され、1つ又は複数のカメラから受け取った前記画像データに関する画像分析を実行する認知システムに動作可能に結合された前記1つ又は複数のカメラから受け取られる、請求項35に記載のコンピュータ・システム。
  40. 選択された前記オブジェクトと前記知識ベースの前記識別されたオブジェクトとの間の合致を判断するためのプログラム命令は、選択された前記オブジェクト及び前記知識ベースの前記識別されたオブジェクトの信頼性レベルが所定の閾値を上回るかどうかを判断するためのプログラム命令を含む、請求項35に記載のコンピュータ・システム。
JP2019519664A 2016-10-28 2017-10-05 認知システムによるロボット・プロテーゼの増強された制御 Active JP6990700B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/337,207 US9717607B1 (en) 2016-10-28 2016-10-28 Augmented control of robotic prosthesis by a cognitive system
US15/337,207 2016-10-28
PCT/IB2017/056146 WO2018078471A1 (en) 2016-10-28 2017-10-05 Augmented control of robotic prosthesis by cognitive system

Publications (2)

Publication Number Publication Date
JP2020504633A true JP2020504633A (ja) 2020-02-13
JP6990700B2 JP6990700B2 (ja) 2022-01-12

Family

ID=59383228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019519664A Active JP6990700B2 (ja) 2016-10-28 2017-10-05 認知システムによるロボット・プロテーゼの増強された制御

Country Status (6)

Country Link
US (1) US9717607B1 (ja)
JP (1) JP6990700B2 (ja)
CN (1) CN110023043B (ja)
DE (1) DE112017003723B4 (ja)
GB (1) GB2570095B (ja)
WO (1) WO2018078471A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9717607B1 (en) * 2016-10-28 2017-08-01 International Business Machines Corporation Augmented control of robotic prosthesis by a cognitive system
US10248248B2 (en) 2016-11-04 2019-04-02 International Business Machines Corporation User interface selection through intercept points
US10229318B2 (en) * 2017-02-21 2019-03-12 International Business Machines Corporation Activity-based robotic testing of wearable devices
US10571148B2 (en) * 2018-01-31 2020-02-25 International Business Machines Corporation Cognitive solution for microenvironment
US11636383B2 (en) 2019-09-03 2023-04-25 International Business Machines Corporation Detecting and preventing unwanted model training data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61142085A (ja) * 1984-12-11 1986-06-28 三菱重工業株式会社 遠隔制御装置
JPH05111881A (ja) * 1991-10-22 1993-05-07 Nippon Telegr & Teleph Corp <Ntt> 学習型筋電パターン認識ロボツトハンド制御装置
JPH10161743A (ja) * 1996-11-28 1998-06-19 Matsushita Electric Ind Co Ltd 移動物体走行制御装置
JP2006198389A (ja) * 2004-12-22 2006-08-03 Doshisha ロボット、および、そのロボットとともに使用される携帯可能な記憶媒体
JP2016052474A (ja) * 2014-09-04 2016-04-14 exiii株式会社 プログラム及び情報処理装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5086401A (en) 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
JP3560670B2 (ja) 1995-02-06 2004-09-02 富士通株式会社 適応的認識システム
US7127100B2 (en) 2001-06-25 2006-10-24 National Instruments Corporation System and method for analyzing an image
WO2005092185A2 (en) 2004-03-22 2005-10-06 California Institute Of Technology Cognitive control signals for neural prosthetics
US8073528B2 (en) 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
EP2687339B1 (en) * 2008-05-20 2015-10-21 Ekso Bionics, Inc. Device and method for decreasing energy consumption of a person by use of a lower extremity exoskeleton
CN102309366B (zh) * 2011-07-21 2014-09-24 山东科技大学 用眼动信号控制上假肢运动的控制系统和控制方法
US9255813B2 (en) * 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
US9002098B1 (en) * 2012-01-25 2015-04-07 Hrl Laboratories, Llc Robotic visual perception system
US9120220B2 (en) * 2012-02-29 2015-09-01 GM Global Technology Operations LLC Control of a glove-based grasp assist device
US8996174B2 (en) * 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US9775763B2 (en) 2012-12-19 2017-10-03 Intel Corporation Adaptive exoskeleton, control system and methods using the same
CA2900675A1 (en) * 2013-03-14 2014-10-02 Ekso Bionics, Inc. Machine to human interfaces for communication from a lower extremity orthotic
US10195058B2 (en) 2013-05-13 2019-02-05 The Johns Hopkins University Hybrid augmented reality multimodal operation neural integration environment
EP2813194B8 (en) 2013-06-12 2018-07-11 Otto Bock HealthCare GmbH Control of limb device
KR101700817B1 (ko) 2014-01-10 2017-02-13 한국전자통신연구원 3차원 영상을 이용한 다수의 팔 및 손 검출 장치 및 그 방법
US9717607B1 (en) * 2016-10-28 2017-08-01 International Business Machines Corporation Augmented control of robotic prosthesis by a cognitive system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61142085A (ja) * 1984-12-11 1986-06-28 三菱重工業株式会社 遠隔制御装置
JPH05111881A (ja) * 1991-10-22 1993-05-07 Nippon Telegr & Teleph Corp <Ntt> 学習型筋電パターン認識ロボツトハンド制御装置
JPH10161743A (ja) * 1996-11-28 1998-06-19 Matsushita Electric Ind Co Ltd 移動物体走行制御装置
JP2006198389A (ja) * 2004-12-22 2006-08-03 Doshisha ロボット、および、そのロボットとともに使用される携帯可能な記憶媒体
JP2016052474A (ja) * 2014-09-04 2016-04-14 exiii株式会社 プログラム及び情報処理装置

Also Published As

Publication number Publication date
WO2018078471A1 (en) 2018-05-03
GB201907096D0 (en) 2019-07-03
DE112017003723T5 (de) 2019-04-18
GB2570095A (en) 2019-07-10
GB2570095B (en) 2020-01-29
CN110023043A (zh) 2019-07-16
DE112017003723B4 (de) 2020-08-06
JP6990700B2 (ja) 2022-01-12
US9717607B1 (en) 2017-08-01
CN110023043B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
JP6990700B2 (ja) 認知システムによるロボット・プロテーゼの増強された制御
JP7341166B2 (ja) ウェアラブルシステムのためのトランスモード入力融合
JP2021057057A (ja) 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
US10593322B2 (en) Electronic device and method for controlling the same
KR102643027B1 (ko) 전자 장치, 그의 제어 방법
US10212040B2 (en) Troubleshooting voice-enabled home setup
JP2019535055A (ja) ジェスチャに基づく操作の実施
US20160250751A1 (en) Providing personalized patient care based on electronic health record associated with a user
US11914787B2 (en) Method for dynamic interaction and electronic device thereof
CN108681399B (zh) 一种设备控制方法、装置、控制设备及存储介质
EP3523709B1 (en) Electronic device and controlling method thereof
KR102396794B1 (ko) 전자 장치 및 이의 제어 방법
JP2023521812A (ja) 医療処置を準備するためのシステム及び方法
Sharma et al. Webcam controlled robotic arm for persons with SSMI
US10841482B1 (en) Recommending camera settings for publishing a photograph based on identified substance
US20220295134A1 (en) Dynamically using internet of things devices to control playback of multimedia
KR20210030796A (ko) 인공 지능을 이용한 조리 기기 제어 방법 및 그 시스템
JP2023551089A (ja) Aiシステムにおけるアクセス認証
WO2019145907A1 (en) Method aimed at patients with motor disabilities for selecting a command by means of a graphic interface, and corresponding system and computer program product
AU2021419198A1 (en) Synchronizing virtual reality notifications
CN205334503U (zh) 具有人脸识别功能的机器人
KR20210048270A (ko) 복수 객체에 대한 오디오 포커싱 방법 및 장치
KR102525661B1 (ko) 작업 장치의 원격 제어를 위한 실시간 훈련 방법 및 장치
JP7504180B2 (ja) ウェアラブルシステムのためのトランスモード入力融合
US12019438B2 (en) Teleoperation with a wearable sensor system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211206

R150 Certificate of patent or registration of utility model

Ref document number: 6990700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150