JP2022528499A - ロボット・アームを誘導するための方法、誘導システム - Google Patents
ロボット・アームを誘導するための方法、誘導システム Download PDFInfo
- Publication number
- JP2022528499A JP2022528499A JP2021559474A JP2021559474A JP2022528499A JP 2022528499 A JP2022528499 A JP 2022528499A JP 2021559474 A JP2021559474 A JP 2021559474A JP 2021559474 A JP2021559474 A JP 2021559474A JP 2022528499 A JP2022528499 A JP 2022528499A
- Authority
- JP
- Japan
- Prior art keywords
- robot arm
- mod
- traj
- model
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 141
- 238000011282 treatment Methods 0.000 claims abstract description 33
- 230000004913 activation Effects 0.000 claims abstract description 17
- 230000003213 activating effect Effects 0.000 claims abstract description 13
- 230000005540 biological transmission Effects 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims description 67
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000006698 induction Effects 0.000 claims description 9
- 238000002347 injection Methods 0.000 claims description 7
- 239000007924 injection Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000007726 management method Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 2
- 238000012986 modification Methods 0.000 claims description 2
- 230000001939 inductive effect Effects 0.000 claims 5
- 230000000052 comparative effect Effects 0.000 claims 1
- 238000009795 derivation Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 16
- 238000010586 diagram Methods 0.000 abstract 1
- 230000008901 benefit Effects 0.000 description 81
- 210000003491 skin Anatomy 0.000 description 35
- 230000033001 locomotion Effects 0.000 description 31
- 239000011159 matrix material Substances 0.000 description 30
- 230000009466 transformation Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 17
- 239000013598 vector Substances 0.000 description 16
- 238000001514 detection method Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 10
- 239000000243 solution Substances 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000003595 spectral effect Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000000576 coating method Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000014616 translation Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012014 optical coherence tomography Methods 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 201000004384 Alopecia Diseases 0.000 description 1
- 208000032544 Cicatrix Diseases 0.000 description 1
- 201000004624 Dermatitis Diseases 0.000 description 1
- 208000008589 Obesity Diseases 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000975 bioactive effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 208000024963 hair loss Diseases 0.000 description 1
- 230000003676 hair loss Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013532 laser treatment Methods 0.000 description 1
- 201000001441 melanoma Diseases 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 235000020824 obesity Nutrition 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 208000017520 skin disease Diseases 0.000 description 1
- 230000037394 skin elasticity Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012306 spectroscopic technique Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000007920 subcutaneous administration Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 230000000699 topical effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/366—Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35117—Define surface by elements, meshes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40424—Online motion planning, in real time, use vision to detect workspace changes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40512—Real time path planning, trajectory generation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45117—Medical, radio surgery manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45122—Laser skin treatment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Radiology & Medical Imaging (AREA)
- Gynecology & Obstetrics (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Pathology (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Numerical Control (AREA)
Abstract
Description
点からなるメッシュを含む身体のモデルを生成するステップと、
計算機およびセンサのパラメータを用いて身体モデルの表面上における処置軌道を計画するステップと、
ロボット・アームの遠位端の誘導軌道を計算するステップと、
ロボット・アームの遠位端に配置されたヘッドの点が誘導軌道上で統御されるようにロボット・アームのキネマティック(kinematic)を生成するステップと、
誘導軌道をカバーするようにロボット・アームのキネマティックをアクティブ化するステップであって、前記軌道は、生成された身体モデルからリアル・タイムで計算される、アクティブ化するステップと、
空間の目標点の少なくとも1つの位置を受け取るステップと、
送信機の少なくとも1回の伝送および/またはオペレータ・デバイスのセンサの取得をアクティブ化するステップであって、前記オペレータ・デバイスは、ロボット化アームの遠位端に配置され、アクティブ化は、センサまたは送信機の軸の向きが目標点を通過する予め定められた直線と合致したときに実行され、前記目標点は、生成された身体モデル上を基準とする、アクティブ化するステップと
を含む、身体の表面のデータの処理のためにロボット・アームをリアル・タイムで誘導するための方法に関する。
点からなるメッシュを含む人体の表面の全部または一部の3Dモデルを生成するステップと、
計算機を用いて身体モデルの表面上における処置軌道を計画するステップと、
ロボット・アームの遠位端の誘導軌道を計算するステップと、
ロボット・アームの遠位端に配置されたヘッドの点が誘導軌道上で統御されるようにロボット・アームのキネマティックを生成するステップと、
誘導軌道をカバーするようにロボット・アームのキネマティックをアクティブ化するステップであって、前記誘導軌道は、人体の表面の3Dモデルからリアル・タイムで計算される、アクティブ化するステップと、
一定時点ごとでの人体の表面の新たな3Dモデルの生成は、ロボット・アームの変位をリアル・タイムで自動的に管理するためのロボット・アームの新たなキネマティックの計算を確実にし、3Dモデルの計算された新たな表面は、新たな処置軌道の計算および新たな誘導軌道の計算につながり、
空間の目標点の少なくとも1つの位置を受け取るステップと、
送信機の少なくとも1回の伝送をおよび/またはオペレータ・デバイスのセンサの取得をアクティブ化するステップであって、前記オペレータ・デバイスは、ロボット化アームの遠位端に配置され、アクティブ化は、センサのまたは送信機の軸の向きが目標点を通過する予め定められた直線と合致したときに実行され、前記目標点は、生成された身体モデル上を基準とする、アクティブ化するステップと
を含む、身体の表面のデータの処理のためにロボット・アームをリアル・タイムで誘導するための方法に関する。
異なる時点において複数の身体モデルを生成するための計算機と、
取得された身体モデルのメッシュ上に画定される点から計算される軌道からロボット・アームのキネマティックを計算する制御ユニットの計算機によって統御されるロボット・アームと、
少なくとも1つの送信機またはセンサを含む、ロボット・アームの端部に配置されたオペレータ・デバイスであって、少なくとも1つの送信機またはセンサのアクティブ化は、センサまたは送信機の軸の向きが目標点を通過する直線に沿って方向付けられたときに実行され、前記目標点は、生成された身体モデル上を基準とする、オペレータ・デバイスと
を含む、ロボット・アームを誘導するためのシステムに関する。
人体の表面の取得された3Dモデルのメッシュ上に画定される点から計算される軌道からロボット・アームのキネマティックを計算する制御ユニットの計算機によって統御されるロボット・アームと、
異なる時点において複数の身体モデルを生成するための計算機であって、一定時点ごとでの人体の表面の新たな3Dモデルの生成は、リアル・タイムで自動的にロボット・アームの変位を管理するためのロボット・アームの新たなキネマティックの計算を確実にし、3Dモデルの新たな計算された表面は、新たな軌道の計算につながる、計算機と、
少なくとも1つの送信機またはセンサを含む、ロボット・アームの端部に配置されたオペレータ・デバイスであって、少なくとも1つの送信機またはセンサのアクティブ化は、センサのまたは送信機の軸の向きが目標点を通過する直線に沿って方向付けられたときに実行され、前記目標点は、人体の表面の生成された3Dモデル上を基準とする、オペレータ・デバイスと
を含む、ロボット・アームを誘導するためのシステムに関する。
幾何学的データに対応する入力データを受け取るステップと、
入力データから第1の点群を生成するステップであって、各点は三次元空間座標に関連付けられる、生成するステップと、
第1の点群の各点において複数の属性を決定するステップであって、前記属性は、少なくとも1つの形状記述子、第1の点群のこの点における法線ベクトルを記述するデータを含む点の少なくとも1つの属性を含む、決定するステップと、
第2の拡充された点群を生成するために前記属性を各点と関連付けるステップと、
回帰を用いて、第2の点群の少なくとも1つの点におけるまたは人体モデルの少なくとも1つの関節における少なくとも1つの回転および少なくとも1つの形状係数を含む幾何学的パラメータのセットを計算するステップであって、前記回帰は、異なるパラメータ表示構成でパラメータ表示されたパラメトリック・モデルの複数の部分ビューから訓練されたニューラル・ネットワークの異なる層に従って行われる一連の行列演算から実行される、計算するステップと、
第1のメッシュを含む身体の身体モデルを生成するために、パラメータ表示されたモデルを決定するステップと
を含む、人体の三次元作業表面を生成するための方法に関する。
第1の点群の点によって画定される、基礎となる表面から、
または、対象の点のk個の最近傍の方法から直接得られる局所表面の近似から
のいずれかで計算される。
少なくとも2つの光学素子からの複数の画像の取得であって、第1の点群の点の各位置は、少なくとも2つの取得された画像の立体測定から推測される、取得、および/または、
変形されたパターンを含む画像の取得であって、前記パターンは、プロジェクタにより投写され、既知のジオメトリを含む、取得、および/または、
患者の皮膚の表面に伝導および反射される超音波信号の取得、および/または、
患者の皮膚の表面に伝導されるレーザの取得
によって得られるデータから生成される。
少なくとも1つの関節についての少なくとも1つの回転角度と、
少なくとも1つの形状係数と
をモデル化する。
空間におけるモデルの少なくとも1つの大域的平行移動、および/または
空間におけるモデルの少なくとも1つの大域的回転
をさらにモデル化する。
学習方法から得られる重み付け係数を含む行列の複数の乗算を含むニューラル・ネットワーク畳み込みまたは層、
非線形演算
を含む。
点群の点およびそれらの属性の値、および/または、
点群に対応するグラフの隣接行列
を含む。
異なるパラメータ表示構成でパラメータ表示されるパラメトリック・モデルの複数の部分ビューから実行される訓練、
訓練されたネットワークの各層についての重み付け係数を含む行列の作成
を含む深層学習法によって実行される。
空間におけるモデルの大域的平行移動、すなわち、Tx、Ty、Tzの3つのパラメータ、
空間におけるモデルの大域的回転、すなわち、Rx、Ry、Rzの3つのパラメータ、
例えば3つの回転パラメータを各々が有する24の関節を含むパラメトリック・モデルを用いた各関節の回転の角度、すなわち、合計72のパラメータを規定するRxi、Ryi、Rzi、
例えば20の形状係数を含むパラメトリック・モデルを用いた形状係数
の入力によるパラメトリック・モデルから得られてよい。後者は、人体の形状に影響する。
一実施形態によれば、本方法は、点の取得のステップACQを含む。この取得は、例えば画像取得デバイスを用いてなされてよい。例示的実施形態において、図3の光学系5は、画像IM1、IM2を取得するための2つのセンサ51、52を含む。これらは、例えば、少なくとも2つのカラーカメラまたは赤外線カメラを含む3Dカメラなどのカメラであってよい。種々の例示的実施形態によれば、カラーカメラまたは赤外線カメラが用いられてよい。選好的には、同一のカメラの対が選択される。各カメラの色を設定し、それらを空間の同じ点について対応付けるために、事前の較正ステップが実行されてよい。
一実施形態によれば、身体の表面上にパターンを投写するために、投写デバイスが用いられる。次いで、投写されたパターンの変形を解析するように、取得された画像が処理されてよい。この技法は、追加のデータを得ることを可能とし、3D再構築を向上することを可能とする。特に、投写されたパターンの変形の検出は、3D再構築の精度を向上することを可能とする。特に、投写されたパターンの変形の検出は、深さマップを生成するために計算される距離の評価の精度を向上することを可能とする。さらに、プロジェクタは、第1のグラフG1を生成するための点群の構築の間のノイズを低減することを可能とする。
本発明の方法は、例えば空間の基準点R0を基準とする空間座標に関連付けられた点のセットを生成することを目的とするステップを含む。これらの座標は、位置決めシステムSYS_POSの事前の較正から得られてよい。較正は、本発明の方法の開始時に、位置決めシステムSYS_POSの光学素子によって取得された特定のパターンから実行されてよい。一実施形態によれば、位置決めシステムSYS_POSおよび光学系SYS_OPTは、同じシステムであってよい。別の実施形態によれば、それらは、2つの別個のシステムに対応してよい。
一実施形態によれば、本発明の方法は、得られたグラフをフィルタリングするステップを含み、フィルタリングは、時間的および/または空間的フィルタリングであってよい。フィルタリングのステップは、検出ステップまで連続して第1のグラフG1の生成の間に生成されるノイズを低減することを可能とする。
本発明の方法は、各点viについて少なくとも1つの属性を決定するステップDET_ATiを含む。属性は、点viに関連付けられたデータに対応し、これらの属性は、デカルト・データ、形状記述子、識別子、ベクトル等の異なる性質のものであってよい。
一実施形態によれば、属性は、第1のグラフG1の各点viにおける、Dfiで表される少なくとも1つの形状記述子を含む。形状記述子は、点における空間の局所的な記述的特徴である。
よって、第1のグラフG1の各点viは、座標{xi,yi,zi}、法線ベクトルni、形状記述子のセット{Dfi1,DFi2,DFi3,…,DfiN}に関連付けられてよい。このステップは、図1においてASSO_ATiで表される。
パラメトリック人体モデルによる近似を用いて取得および拡充される人体の三次元再構築を可能とする計算ステップである。このステップは、図1においてREGで表される。回帰ステップの目的は、所与のパラメータを推定して、パラメータ表示可能な身体モデルにこれらのパラメータを設定することである。よって、カメラにより取得される部分ビューから、完全なパラメータ表示身体モデルが推定されてよい。
ニューラル・ネットワークは、「機械学習」の表現でよりよく知られる自動的学習によって訓練される。
よって、方法は、メッシュ状の表面の抽出のステップを含む。得られる表面のメッシュは、M1で表される第1のメッシュである。一実施形態によれば、第1のメッシュM1は、対象の表面の点がその近傍の点と共に三角形を画定しているメッシュである。図7は、対象の表面内に共局在化された三つ組の点niによって形成される複数の三角形を含むメッシュM1の一例を表す。
一実施形態によれば、本発明の方法は、第1のメッシュM1から第2のメッシュM2を定義するステップを含む。第2のメッシュM2は、有利には、半均質とされた三角形、例えば二等辺三角形を生成するように定義されてよい。本例において、三角形は、例えば生成されるメッシュの対称性を用いて、所与のアルゴリズムに従って変換されてよい。
一実施形態によれば、取得デバイス5は、ロボット・アーム6の動きを統御するように適合される本発明の方法からパラメータ表示身体モデルMOD_Pを計算するために、患者1の身体の全部または一部の点の取得ACQをリアル・タイムで実行する。ロボット・アーム6の誘導は、そのようにモデル化および再計算された表面の画定されたゾーン9内に設定される、図4において30で表される処置軌道TRAJ1から実行される。
ロボット・アーム6は、ロボット・アームを統御するための種々の制約を考慮する動きコントローラGEN_TRAJによって誘導される。特に、このコントローラは、設定された軌道の計画と、ユーザによる処置の対象となるゾーンの定義を考慮する。この表面は、本発明の方法に係る再構築された身体の表面上において画定される。さらに、コントローラCTRLは、リアル・タイムでロボット・アームの進行を適合させるための衝突検出モジュールから入来する命令を考慮し得る。最後に、コントローラCTRLは、例えば単一の画像の検出がロボットの特定の操作を要求する場合に、モジュールCNTR_8を介してロボット6のヘッドから入来するデータを考慮する。
一実施形態によれば、ロボット・アーム6は、有利にはロボット・アーム6の端部に配置されるオペレータ・デバイス8を含む。当該実施形態によれば、光学素子67は、ロボット・アームのヘッド8に対して軸から外れるように配置されてよく、または図6Aの場合のようにこのヘッドの端部に配置されてよい。
さらに、オペレータ・デバイス8は、超音波、高周波またはレーザのタイプの送信機または入射ビームを生成するのに用いられることが可能な任意の他の信号源を含んでよい。一実施形態によれば、オペレータ・デバイス8は、集束型送信機のアレイと、方向および伝送パワーを制御するための手段とを含んでよい。
最初に、ロボット・アーム6の動きの生成が、図2においてPATHで表される構成要素を用いてユーザにより設定される軌道を用いて規定される。ユーザは、ゾーン「腕」、「脚」もしくはこのゾーンの一部分またはそれに代えて身体全体などの、患者1の身体の表面の対象のゾーンを選択することができる。
一実施形態によれば、「オペレータ・デバイス」8とも称されるロボット・アーム6のヘッドには、皮膚科学アプリケーションのための光学系が装備される。この場合、対になった光学デバイスが配置されてよい。第1の光学デバイス83、84は、ロボット・アーム6によってなされる動きに起因していわゆる「巨視的」走査を実行するカメラを含む。これらのカメラは、皮膚の表面の対象の画像の撮像を実行する。一例によれば、光源が、撮像ゾーンを照明することを可能とする。伝送される光は、可視光もしくは赤外線またはそれに代えて例えば蛍光源であってよい。一例によれば、偏光子を含むLEDシステムが、偏光を伝送するように構成される。偏光の場合、LEDタイプの光源が偏光フィルタに覆われる。本例では、ロボット化アームのヘッドの端部に配置されたカメラに偏光フィルタが装備される。光源およびカメラのフィルタは、一例によれば、直交するように構成される。
別の場合のアプリケーションによれば、ロボット・アーム6は、その遠位端にレーザ送信機を含む。レーザ送信機は、例えば、オペレータ・デバイス8の遠位部上に配置されてよい。これは、脱毛、特定の皮膚疾患の処置または入れ墨の除去のために用いられてよい。さらに、レーザを用いたウルセラピー処置または任意の医療または審美的皮膚科学的処置が、レーザ光源を含むロボット・アームと共に実装されてよい。この目的で、レーザ光源の構成は、パワー、波長、パルス方式または連続方式等のパラメータに応じて、用途に従って適合されてよい。
Claims (20)
- 身体の表面のデータの処理のためにロボット・アーム(6)をリアル・タイムで誘導するための方法であって、
点からなるメッシュ(M1、M2)を含む人体の表面の全部または一部の3Dモデル(MOD_P)を生成するステップと、
計算機を用いて身体モデル(MOD_S)の表面上における処置軌道(TRAJ1)を計画するステップと、
前記ロボット・アーム(6)の遠位端のための誘導軌道(TRAJ2)を計算するステップと、
前記ロボット・アーム(6)の前記遠位端に配置されたヘッドの点が前記誘導軌道(TRAJ2)上で統御されるように前記ロボット・アーム(6)のキネマティック(kinematic)(PILOT_ROBOT)を生成するステップと、
前記誘導軌道(TRAJ2)をカバーするように前記ロボット・アーム(6)の前記キネマティックをアクティブ化するステップであって、前記誘導軌道(TRAJ2)は、前記人体の前記表面の前記3Dモデル(MOD_P)からリアル・タイムで計算される、アクティブ化するステップと、
前記ロボット・アーム(6)の変位をリアル・タイムで自動的に管理するための前記ロボット・アーム(6)の新たなキネマティックの前記計算を確実にする、一定時間ごとでの前記人体の前記表面の新たな3Dモデル(MOD_P)を生成するステップであって、前記3Dモデル(MOD_P)の新たな計算された表面は、新たな処置軌道(TRAJ1’)の計算および新たな誘導軌道(TRAJ2’)の計算につながる、生成するステップと、
空間の目標点(PTARGET)の少なくとも1つの位置を受け取るステップと、
送信機の少なくとも1回の伝送および/またはオペレータ・デバイス(8)のセンサの取得をアクティブ化するステップであって、前記オペレータ・デバイス(8)は、前記ロボット化アーム(6)の前記遠位端に配置され、前記アクティブ化は、前記センサまたは前記送信機の軸の向きが前記目標点(PTARGET)を通過する予め定められた直線と合致したときに実行され、前記目標点(PTARGET)は、生成された身体モデル(MOD_P)上を基準とする、アクティブ化するステップと
を含む方法。 - 前記処置軌道(TRAJ1)は、前記身体モデル(MOD_S)の表面の処置ゾーン内で生成されることを特徴とする、請求項1に記載の誘導する方法。
- 前記処置軌道(TRAJ1)は、前記身体モデル(MOD_S)の表面上で画定される処置ゾーン(34、35)の定義から自動的に生成されることを特徴とする、請求項2に記載の誘導する方法。
- 前記誘導軌道(TRAJ2)は、前記処置軌道(TRAJ1、TRAJ1’)に対する前記ロボット・アーム(6)の遠位端の相対位置を生成することを可能とする、予め定められた距離および向きの命令から計算されることを特徴とする、請求項1に記載の誘導する方法。
- 前記ロボット・アーム(6)は、互いに旋回リンク(612、623、634、645、656)によって2つずつ関節で繋がった少なくとも3つのブランチ(61、62、63、64、65、81)を含み、前記旋回リンクのセットは、所与の誘導軌道(TRAJ2)および生成された身体モデル(MOD_P)について計画されたキネマティックを含むことを特徴とする、請求項1に記載の誘導する方法。
- 前記ロボット・アーム(6)の新たな軌道(TRAJ2’)の生成からリアル・タイムで前記ロボット・アーム(6)が制御され得るように、一定時間ごとでの新たな身体モデル(MOD_S)の生成を含み、前記身体モデルの新たな計算された表面は、前記処置軌道(TRAJ1’)の修正につながり、前記方法は、前記新たな軌道(TRAJ2’)の画定領域上で統御される前記ロボット・アーム(6)の新たなキネマティックの計算をさらに含むことを特徴とする、請求項1に記載の誘導する方法。
- 身体モデル(MOD_S)を生成することを可能とする画像が取得される固定の位置からの前記ロボット・アーム(6)の位置を較正するステップを含むことを特徴とする、請求項1から6のいずれか一項に記載の誘導する方法。
- 前記処置軌道(TRAJ1、TRAJ1’)は、レーザ送信機からのレーザ・ビームの射出方針を確立するために用いられ、前記レーザ送信機は、前記オペレータ・デバイス(8)に固定されることを特徴とする、請求項1に記載の誘導する方法。
- 前記身体モデルが、円(38)の配置によって画定される新たなメッシュ(M3)を形成するような均質なメッシュ(M2)を含み、少なくとも1つの円が、空間の目標点(PTARGET)の位置を画定することを特徴とする、請求項8に記載の誘導する方法。
- 前記新たなメッシュ(M3)は、射出パワー命令および/または2つの射出の間の重なり量に関する命令の関数として生成されることを特徴とする、請求項9に記載の誘導する方法。
- 実行される射出の数のサンプリングは、前記新たなメッシュ(M3)、設定される前記射出パワーおよび共局在化された2つの円の間で画定される重なり量の関数であることを特徴とする、請求項10に記載の誘導する方法。
- 前記処置軌道(TRAJ1、TRAJ1’)は、超音波送信機からの超音波信号の射出方針を確立するために用いられ、前記超音波送信機は、前記オペレータ・デバイス(8)に固定されることを特徴とする、請求項1に記載の誘導する方法。
- 画像のセットが前記オペレータ・デバイス(8)上に配置された光学デバイス(83、84、86)から作成され、各画像(IM1、IM2)は、前記身体モデル(MOD_P)上の前記目標点(PTARGET)の位置および前記光学デバイス(83、84、86)の視認角度の関数として前記身体モデル(MOD_P)の前記メッシュ(M1、M2、M3)の少なくとも1つのノードまたは網目を指標とすることを特徴とする、請求項1に記載の誘導する方法。
- 少なくとも一対の画像は、一体であり前記オペレータ・デバイス(8)の異なる軸上に配置された2つのセンサを含む光学デバイス(83、84)から同時に取得され、各画像(IM1、IM2)は、前記身体モデル(MOD_P)の前記目標点(PTARGET)の位置および前記光学デバイス(83、84、86)の視認角度に応じた前記身体モデル(MOD_P)の前記メッシュの少なくとも1つのノードまたは網目を指標とし、前記画像は、三次元局所画像を再構成するように処理されることを特徴とする、請求項13に記載の誘導する方法。
- 前記三次元局所画像は、生成された身体モデルに3D表現で重ね合わせられることを特徴とする、請求項14に記載の誘導する方法。
- 前記オペレータ・デバイスの第1の光学デバイス(83、84)により取得される第1の画像は、リアル・タイムで画像のセットと比較され、前記比較の動作は、必要な場合に、対象のインジケータの生成を含み、前記対象のインジケータは、前記ロボット・アーム(6)を管理するためのデジタル制御を生成することを可能とすることを特徴とする、請求項1から15のいずれか一項に記載の誘導する方法。
- 前記誘導する命令は、前記第1の画像が抽出される目標位置における前記ロボット・アーム(6)の第1の管理および第2の光学デバイス(85)をアクティブ化するための前記オペレータ・デバイス(8)の第2の管理につながり、前記第2の光学デバイス(85)の前記アクティブ化は、前記目標点(PTARGET)を含むゾーンの付近の領域に第2の画像を作成することを可能とすることを特徴とする、請求項16に記載の誘導する方法。
- 前記比較のステップは、画像のセットで訓練されたニューラル・ネットワークからの取得された前記画像を分類するステップであることを特徴とする、請求項15から16のいずれか一項に記載の誘導する方法。
- ロボット・アーム(6)を誘導するためのシステムであって、
人体の表面の3Dモデルの取得されたメッシュ(M1、M2)上に画定される点から計算される軌道からロボット・アーム(6)のキネマティックを計算する制御ユニットの計算機によって統御されるロボット・アーム(6)と、
異なる時点において複数の身体モデル(MOD_P)を生成するための計算機であって、一定時間ごとでの前記人体の前記表面の新たな3Dモデル(MOD_P)の生成は、リアル・タイムで自動的に前記ロボット・アーム(6)の変位を管理するための前記ロボット・アーム(6)の新たなキネマティックの計算を確実にし、前記3Dモデル(MOD_P)の新たな計算された表面は、新たな軌道(TRAJ1’、TRAJ2’)の計算につながる、計算機と、
少なくとも1つの送信機またはセンサを含む、前記ロボット・アーム(6)の端部に配置されたオペレータ・デバイス(8)であって、前記少なくとも1つの送信機またはセンサのアクティブ化は、前記センサまたは前記送信機の軸の向きが目標点(PTARGET)を通過する直線に沿って方向付けられたときに実行され、前記目標点(PTARGET)は、人体の表面の生成された3Dモデル(MOD_P)上を基準とする、オペレータ・デバイス(8)と
を含むシステム。 - パラメータ表示身体モデル(MOD_P)を作成するために患者の身体の画像を取得するためのデバイス(5)と、請求項1から18のいずれか一項に記載の方法の実装のためのオペレータ・デバイス(8)を備えるロボット・アーム(6)とを含むことを特徴とする、ロボット・アーム(6)を誘導するためのシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1902944 | 2019-03-21 | ||
FR1902944A FR3094124B1 (fr) | 2019-03-21 | 2019-03-21 | Procede de guidage d’un bras robot, systeme de guidage |
PCT/EP2020/057704 WO2020188064A1 (fr) | 2019-03-21 | 2020-03-19 | Procede de guidage d'un bras robot, systeme de guidage |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022528499A true JP2022528499A (ja) | 2022-06-13 |
JPWO2020188064A5 JPWO2020188064A5 (ja) | 2023-03-28 |
Family
ID=68072524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021559474A Pending JP2022528499A (ja) | 2019-03-21 | 2020-03-19 | ロボット・アームを誘導するための方法、誘導システム |
Country Status (10)
Country | Link |
---|---|
US (1) | US20220183775A1 (ja) |
EP (1) | EP3941690A1 (ja) |
JP (1) | JP2022528499A (ja) |
KR (1) | KR20210154811A (ja) |
CN (1) | CN113766997A (ja) |
AU (1) | AU2020243171A1 (ja) |
FR (1) | FR3094124B1 (ja) |
IL (1) | IL286522A (ja) |
SG (1) | SG11202110331VA (ja) |
WO (1) | WO2020188064A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210349444A1 (en) * | 2020-05-11 | 2021-11-11 | X Development Llc | Accelerating robotic planning for operating on deformable objects |
WO2022224123A1 (en) * | 2021-04-19 | 2022-10-27 | Slovenská Technická Univerzita V Bratislave | Robotic epilation workplace and method of epilation performed at this workplace |
NL2028640B1 (en) * | 2021-07-06 | 2023-01-12 | Corbotics B V | Robotized imaging system |
CN114800524B (zh) * | 2022-05-25 | 2023-06-20 | 宁波职业技术学院 | 一种人机交互协作机器人主动避碰的系统及方法 |
FR3136153A1 (fr) * | 2022-06-07 | 2023-12-08 | Olivier Querbes | Procédé de commande d’un bras robotisé pour imagerie intra-orale |
CN115847449A (zh) * | 2023-02-22 | 2023-03-28 | 深圳市德壹医疗科技有限公司 | 基于路径规划的智能按摩方法、装置、设备及存储介质 |
CN116196095B (zh) * | 2023-05-06 | 2023-07-07 | 深圳由莱智能电子有限公司 | 智能护理设备的脱毛控制方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2248075T3 (es) * | 1999-04-14 | 2006-03-16 | Koninklijke Philips Electronics N.V. | Dispositivo de eliminacion de pelo con una fuente laser controlable. |
US8989349B2 (en) * | 2004-09-30 | 2015-03-24 | Accuray, Inc. | Dynamic tracking of moving targets |
US9084622B2 (en) * | 2006-08-02 | 2015-07-21 | Omnitek Partners Llc | Automated laser-treatment system with real-time integrated 3D vision system for laser debridement and the like |
CA2734143C (en) * | 2008-08-15 | 2021-08-31 | Brown University | Method and apparatus for estimating body shape |
US9226796B2 (en) * | 2012-08-03 | 2016-01-05 | Stryker Corporation | Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path |
WO2016082019A1 (en) * | 2014-11-25 | 2016-06-02 | Synaptive Medical (Barbados) Inc. | Hand guided automated positioning device controller |
FI20155784A (fi) * | 2015-11-02 | 2017-05-03 | Cryotech Nordic Oü | Automatisoitu järjestelmä laser-avusteiseen dermatologiseen hoitoon ja ohjausmenetelmä |
WO2017137087A1 (en) * | 2016-02-12 | 2017-08-17 | Brainlab Ag | Method and system for registering a patient with a 3d image using a robot |
CN105852970B (zh) * | 2016-04-29 | 2019-06-14 | 北京柏惠维康科技有限公司 | 神经外科机器人导航定位系统及方法 |
WO2018144969A1 (en) * | 2017-02-06 | 2018-08-09 | The Cleveland Clinic Foundation | Characterizing behavior of anatomical structures |
-
2019
- 2019-03-21 FR FR1902944A patent/FR3094124B1/fr active Active
-
2020
- 2020-03-19 WO PCT/EP2020/057704 patent/WO2020188064A1/fr active Search and Examination
- 2020-03-19 US US17/438,197 patent/US20220183775A1/en active Pending
- 2020-03-19 JP JP2021559474A patent/JP2022528499A/ja active Pending
- 2020-03-19 CN CN202080031626.2A patent/CN113766997A/zh active Pending
- 2020-03-19 EP EP20711201.2A patent/EP3941690A1/fr active Pending
- 2020-03-19 SG SG11202110331VA patent/SG11202110331VA/en unknown
- 2020-03-19 KR KR1020217034032A patent/KR20210154811A/ko active Search and Examination
- 2020-03-19 AU AU2020243171A patent/AU2020243171A1/en active Pending
-
2021
- 2021-09-19 IL IL286522A patent/IL286522A/en unknown
Also Published As
Publication number | Publication date |
---|---|
FR3094124B1 (fr) | 2022-08-12 |
SG11202110331VA (en) | 2021-10-28 |
CN113766997A (zh) | 2021-12-07 |
US20220183775A1 (en) | 2022-06-16 |
IL286522A (en) | 2021-10-31 |
WO2020188064A1 (fr) | 2020-09-24 |
EP3941690A1 (fr) | 2022-01-26 |
KR20210154811A (ko) | 2021-12-21 |
AU2020243171A1 (en) | 2021-10-14 |
FR3094124A1 (fr) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022528499A (ja) | ロボット・アームを誘導するための方法、誘導システム | |
US20200194117A1 (en) | Systems, methods, and media for remote trauma assessment | |
US9268015B2 (en) | Image-guided high intensity focused ultrasound and related apparatus and methods | |
US5806521A (en) | Composite ultrasound imaging apparatus and method | |
US20140243614A1 (en) | Transmissive imaging and related apparatus and methods | |
JP7097956B2 (ja) | ロボットの移動を管理するための装置、及び関連する処理ロボット | |
Moccia et al. | Toward improving safety in neurosurgery with an active handheld instrument | |
KR20230011902A (ko) | 일반 모델에서 이동 시퀀스를 정의하는 장치 | |
US20230206561A1 (en) | Method for generating a three-dimensional working surface of a human body, system | |
Ogunmolu et al. | Vision-based control of a soft robot for maskless head and neck cancer radiotherapy | |
CN114649083A (zh) | 一种三维模型处理方法、系统、装置及存储介质 | |
JPWO2020188064A5 (ja) | ||
CN115867223B (zh) | 用于引导机器人臂的机器人装置 | |
KR102426925B1 (ko) | 3d 시뮬레이션을 활용한 수술로봇의 동작 정보를 획득하는 방법 및 프로그램 | |
Nwodoh et al. | Three-dimensional model acquisition for medical robotics-assisted burn debridement system | |
Tang et al. | Autonomous ultrasound scanning robotic system based on human posture recognition and image servo control: an application for cardiac imaging | |
AU2022286641A1 (en) | Method for constructing an image from an optical device with variable focal length | |
CN118217006A (zh) | 一种基于激光的手术参考方案生成方法及装置 | |
Nia Kosari | Haptic Virtual Fixtures for Robotic Surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20211119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230317 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231117 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240423 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240712 |