JP2022036255A - ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 - Google Patents
ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2022036255A JP2022036255A JP2022003615A JP2022003615A JP2022036255A JP 2022036255 A JP2022036255 A JP 2022036255A JP 2022003615 A JP2022003615 A JP 2022003615A JP 2022003615 A JP2022003615 A JP 2022003615A JP 2022036255 A JP2022036255 A JP 2022036255A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- sight
- line
- stereoscopic display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 78
- 238000003860 storage Methods 0.000 title description 3
- 230000003044 adaptive effect Effects 0.000 title 1
- 238000003384 imaging method Methods 0.000 claims description 105
- 230000008859 change Effects 0.000 claims description 68
- 238000012545 processing Methods 0.000 claims description 27
- 230000000007 visual effect Effects 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 117
- 230000033001 locomotion Effects 0.000 description 27
- 238000004422 calculation algorithm Methods 0.000 description 16
- 230000009467 reduction Effects 0.000 description 11
- 230000008447 perception Effects 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000002432 robotic surgery Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/305—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
- H04N25/46—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0807—Indication means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Human Computer Interaction (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Gynecology & Obstetrics (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
Abstract
【課題】ロボット外科手術装置の制御のためのシステム、方法、およびコンピュータ可読媒体を提供すること【解決手段】ロボットアームと、自動立体視ディスプレイと、ユーザ画像撮影装置と、画像処理装置と、コントローラとを含む、システムが提供される。ロボットアームは、患者画像撮影装置に連結される。自動立体視ディスプレイは、患者画像撮影装置から取得された手術部位の画像を表示するように構成される。画像処理装置は、ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別するように構成される。コントローラは、第1モードにおいて、識別された位置に基づいて自動立体視ディスプレイ上に表示される画像の3D態様を調整し、第2モードにおいて、識別された位置と手術部位画像との関係に基づいてロボットアームまたは器具を動かすように構成される。【選択図】図4
Description
(関連出願の相互参照)
本出願は、2016年6月3日に出願された米国仮出願第62/345,522号の利益および優先権を主張し、その全内容が参照により本明細書に組み込まれる。
本出願は、2016年6月3日に出願された米国仮出願第62/345,522号の利益および優先権を主張し、その全内容が参照により本明細書に組み込まれる。
(背景技術)
ロボット外科手術システムは、最小侵襲性医療処置においてますます使用されている。通常、ロボット外科手術システムは、外科手術器具および/またはカメラが連結される1つ以上のロボットアームから離れて位置する、サージョンコンソールを含む。サージョンコンソールは、手術室のロボットアームの別の側、別の部屋、または別の建物内に位置してもよく、外科医からの入力を受け付けるための入力用ハンドルまたは他の入力装置を含む。入力は、患者の近く、例えば手術部位内のロボットアームを操作するコマンドに該入力を変換する、中央制御装置に伝達される。
ロボット外科手術システムは、最小侵襲性医療処置においてますます使用されている。通常、ロボット外科手術システムは、外科手術器具および/またはカメラが連結される1つ以上のロボットアームから離れて位置する、サージョンコンソールを含む。サージョンコンソールは、手術室のロボットアームの別の側、別の部屋、または別の建物内に位置してもよく、外科医からの入力を受け付けるための入力用ハンドルまたは他の入力装置を含む。入力は、患者の近く、例えば手術部位内のロボットアームを操作するコマンドに該入力を変換する、中央制御装置に伝達される。
サージョンコンソールは、三次元(3D)ディスプレイと呼ばれることもある立体視ディスプレイを含んでもよい。この点について、このようなディスプレイは、外科医が装着する対応する一対の立体視用眼鏡と組み合わせて、画像を左右の眼にそれぞれ別々に提供される一対の別個の画像として外科医に提示することによって、画像における奥行き知覚を容易にする。この一対の画像は、ディスプレイ上でそれぞれの眼に見えるものを異ならせる、左右の眼の間のオフセットの効果を再現するために作成される。ディスプレイ上でそれぞれの眼に見える画像の差は、画像内の対象物の奥行きの差として知覚される。いくつかの構成では、立体視ディスプレイは、ディスプレイの画素と慎重に位置合わせされたフィルムであって、立体視用眼鏡を介して、特定の画素行または画素列を一方の眼によって視認可能にし、他の画素行または画素列を他方の眼によって視認可能にする、フィルムを含む。
上述のサージョンコンソールおよび表示方式は適切なものであるが、改善されてもよい。特に、立体視用眼鏡および/またはディスプレイを介して手術部位を見ることに関し、多くの場合、知覚される画像の劣化を最小限にするために、外科医の眼がそれぞれ特定の位置に配置される必要がある。このように、外科医は、コンソール内での自身の位置を制限されることがある。また、いくつかの医療処置には比較的長い時間がかかる可能性があるため、立体視用眼鏡を着用すること、および/またはコンソール内の位置を制限され続けることは、外科医に不快感を与える可能性がある。
本開示の一態様によれば、上述のニーズに対処するシステム、方法、およびコンピュータ可読媒体が提供される。本開示の一態様では、ロボットアームと、自動立体視ディスプレイと、ユーザ画像撮影装置と、画像処理装置と、コントローラとを含む、ロボット外科手術装置の制御のためのシステムが提供される。ロボットアームは、患者画像撮影装置に連結される。自動立体視ディスプレイは、患者画像撮影装置から取得された手術部位の画像を表示するように構成される。画像処理装置は、ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別するように構成される。コントローラは、第1モードにおいて、識別された位置に基づいて自動立体視ディスプレイ上に表示される画像の3D態様を調整し、第2モードにおいて、識別された位置と手術部位画像との関係に基づいてロボットアームまたは器具を動かすように構成される。
本開示の別の態様では、システムの自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成される。各画素列は、対応する垂直レンズの下方に配置される。偶数画素列に対応する垂直レンズは、偶数画素列をユーザの第1の眼によって知覚可能とするように構成され、奇数画素列に対応する垂直レンズは、奇数画素列をユーザの第2の眼によって知覚可能とするように構成される。本開示のさらなる態様では、コントローラは、複数の画素のうちの1つ以上を調整することによって、自動立体視ディスプレイ上に表示される画像を調整するようにさらに構成される。本開示のさらに別の態様では、システムの画像処理装置は、ユーザ画像撮影装置から取得された画像内のユーザの第1の眼および第2の眼の位置を識別するようにさらに構成され、コントローラは、識別されたユーザの第1の眼の位置または識別されたユーザの第2の眼の位置に部分的に基づいて、自動立体視ディスプレイ上に表示された複数の画素のうちの1つ以上の画素を調整するようにさらに構成される。
本開示の別の態様では、システムのコントローラは、ユーザの第1の眼および第2の眼の位置に基づいてユーザの視線の位置を検出し、ユーザの視線の位置の他の位置への変化を検出し、視線の位置と手術部位画像との関係に基づいて、患者画像撮影装置に連結されたロボットアームを動かすようにさらに構成される。本開示のさらなる態様では、コントローラは、検出されたユーザの視線の位置の変化に応じて、アームを動かす速度の大きさおよび方向を計算するようにさらに構成される。本開示の代替的な態様では、ユーザの視線の位置の変化を検出するために、コントローラは、検出されたユーザの視線の位置の変化が、所定の位置からの第1の所定の距離範囲外であるかどうかを判定するようにさらに構成される。本開示の別の態様では、コントローラは、検出されたユーザの視線の位置の変化が、第1の所定の距離範囲よりも大きい第2の所定の距離範囲外であるかどうかを判定し、検出されたユーザの視線の位置の変化が第2の所定の距離範囲外であると判定されると、システムに通知を行わせるようにさらに構成される。
本開示の別の態様では、コントローラは、画像内のユーザの視線が、閾値時間よりも長い時間にわたりその位置で保持されているかどうかを判定し、視線が閾値時間より長い時間にわたり保持されていると、患者画像撮影装置に連結されたロボットアームを動かすようにさらに構成される。
本開示のさらに別の態様では、コントローラは、患者画像撮影装置を動かすための入力を検出し、識別された位置の変化を判定し、識別された位置の変化に基づいて頭部の位置および/または速度を判定し、判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定するようにさらに構成される。
本開示の別の態様では、患者画像撮影装置は、ビジュアルコンテンツを撮影して画像処理装置に送信する際に第1の所定のレイテンシを達成するように構成され、画像処理装置は、ビジュアルコンテンツを処理し、ユーザの視線の位置を判定し、患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成する、複数の並列実行サブプロセッサを備える。
本開示のさらに別の態様では、コントローラは、識別された位置に基づいて頭部姿勢を判定し、判定された頭部姿勢に基づいて並進速度を計算し、計算された並進速度からのx座標をマッピングして入出力速度を得、計算された並進速度からのz座標をマッピングし、判定された頭部姿勢に基づいてYZ方向速度を計算し、計算されたYZ速度をマッピングしてパン角速度を得、判定された頭部姿勢からロール値を抽出し、抽出されたロール値をマッピングしてロール角速度を得、入出力速度、パン角速度、およびロール角速度に基づいて、患者画像撮影装置の姿勢を判定することができるようにさらに構成される。
本開示のさらにまた別の態様では、ロボット外科手術装置は内視鏡を含む。
本開示のさらにまた別の態様では、コントローラは、第1モードと第2モードとの両方で同時に実行するように構成される。
本開示のさらにまた別の態様では、コントローラは、第1モードと第2モードとで別々に実行するように構成される。
本開示の別の態様では、ロボット外科手術装置を制御するためのコンピュータ実施方法が提供される。この方法は、ロボットアームに連結された患者画像撮影装置から取得された手術部位の画像を表示することと、ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別することと、自動立体視ディスプレイ上に表示される画像の3D態様を識別された位置に基づいて調整することにより第1モードで動作することと、患者画像撮影装置に連結されたロボットアームを識別された位置と手術部位画像との関係に基づいて動かすことにより第2モードで動作することとを含む。
本開示の別の態様によれば、自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成され、各画素列は対応する垂直レンズの下方に配置され、偶数画素列に対応する垂直レンズは、偶数画素列をユーザの第1の眼によって知覚可能とするように構成され、奇数画素列に対応する垂直レンズは、奇数画素列をユーザの第2の眼によって知覚可能とするように構成され、方法は、複数の画素のうちの1つ以上の画素を調整することによって、自動立体視ディスプレイ上に表示される画像を調整することをさらに含む。
本開示の別の態様では、方法は、ユーザ画像撮影装置から取得された画像内のユーザの第1の眼および第2の眼の位置を識別することと、識別されたユーザの第2の眼の位置の識別されたユーザの第1の眼の位置に部分的に基づいて、自動立体視ディスプレイ上に表示された複数の画素のうちの1つ以上の画素を調整することとをさらに含む。
本開示の別の態様では、方法は、第1の眼および第2の眼の位置に基づいてユーザの視線の位置を検出することと、ユーザの視線の位置の他の位置への変化を検出することと、視線の位置と手術部位画像との関係に基づいて、患者画像撮影装置に連結されたロボットアームを動かすこととをさらに含む。
本開示のさらに別の態様では、方法は、検出されたユーザの視線の位置の変化に応じて、手術部位画像内でのアームを動かす速度の大きさおよび方向を計算することをさらに含む。
本開示の別の態様では、方法は、検出されたユーザの視線の位置の変化が、所定の位置からの第1の所定の距離範囲外であるかどうかを判定することにより、ユーザの視線の位置の変化を検出することをさらに含む。
本開示の別の態様では、方法は、ユーザの視線の位置が、第1の所定の距離範囲よりも大きい第2の所定の距離範囲外であるかどうかを判定することと、ユーザの視線の位置が第2の所定の距離範囲外であると、システムに通知を行わせることとをさらに含む。
本開示のさらに別の態様では、方法は、ユーザの視線が、閾値時間よりも長い時間にわたりその位置で保持されているかどうかを判定することと、視線が閾値時間より長い時間にわたり保持されていると、患者画像撮影装置に連結されたロボットアームを動かすこととをさらに含む。
本開示のさらに別の態様によると、方法は、患者画像撮影装置を動かすための入力を検出することと、識別された位置の変化を判定することと、識別された位置の変化に基づいて頭部の位置および/または速度を判定することと、判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定することとをさらに含む。
本開示のさらに別の態様では、方法は、識別された位置に基づいて頭部姿勢を判定することと、判定された頭部姿勢に基づいて並進速度を計算することと、計算された並進速度からのx座標をマッピングして入出力速度を得ることと、計算された並進速度からのz座標をマッピングすることと、判定された頭部姿勢に基づいてYZ方向速度を計算することと、計算されたYZ速度をマッピングしてパン角速度を得ることと、判定された頭部姿勢からロール値を抽出することと、抽出されたロール値をマッピングしてロール角速度を得ることと、入出力速度、パン角速度、およびロール角速度に基づいて、患者画像撮影装置の姿勢を判定することをさらに含む。
本開示の別の態様では、方法は、第1モードと第2モードとの両方を同時に実行することをさらに含む。
本開示のさらにまた別の態様では、方法は、第1モードと第2モードとを別々に実行することをさらに含む。
本開示の別の態様によると、プロセッサによって実行されたときに、ロボットアームに連結された患者画像撮影装置から取得された手術部位の画像を表示させ、ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別させ、自動立体視ディスプレイ上に表示される画像の3D態様を識別された位置に基づいて調整することにより第1モードで動作させ、患者画像撮影装置に連結されたロボットアームを識別された位置と手術部位画像との関係に基づいて動かすことにより第2モードで動作させる命令を格納した非一時的なコンピュータ可読媒体が提供される。
本開示の一態様によると、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、偶数画素列と奇数画素列とを含む複数の画素を含む自動立体視ディスプレイであって、各画素列は対応する垂直レンズの下方に配置され、偶数画素列に対応する垂直レンズは、偶数画素列をユーザの第1の眼によって知覚可能とするように構成され、奇数画素列に対応する垂直レンズは、奇数画素列をユーザの第2の眼によって知覚可能とするように構成される、自動立体視ディスプレイに、複数の画素のうちの1つ以上の画素を調整することによって自動立体視ディスプレイ上に表示される画像を調整させる命令をさらに含む。
本開示の別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、ユーザ画像撮影装置から取得された画像内のユーザの第1の眼および第2の眼の位置を識別させ、識別されたユーザの第2の眼の位置の識別されたユーザの第1の眼の位置に部分的に基づいて、自動立体視ディスプレイ上に表示された複数の画素のうちの1つ以上の画素を調整させる命令をさらに含む。
本開示の別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、第1の眼および第2の眼の位置に基づいてユーザの視線の位置を検出させ、ユーザの視線の位置の他の位置への変化を検出させ、視線の位置と手術部位画像との関係に基づいて、患者画像撮影装置に連結されたロボットアームを動かす命令をさらに含む。
本開示のさらに別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、検出されたユーザの視線の位置の変化に応じて、手術部位画像内でのアームを動かす速度の大きさおよび方向を計算させる命令をさらに含む。
本開示のさらにまた別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、ユーザの視線の位置の変化を検出することが、検出されたユーザの視線の位置の変化が、所定の位置からの第1の所定の距離範囲外であるかどうかを判定することをさらに含むようにする命令をさらに含む。
本開示の別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、ユーザの視線が、閾値時間よりも長い時間にわたりその位置で保持されているかどうかを判定させ、視線が閾値時間より長い時間にわたり保持されていると、患者画像撮影装置に連結されたロボットアームを動かす命令をさらに含む。
本開示の別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、患者画像撮影装置を動かすための入力を検出させ、識別された位置の変化を判定させ、識別された位置の変化に基づいて頭部の位置および/または速度を判定させ、判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定させる命令をさらに含む。
本開示のさらに別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、識別された位置に基づいて頭部姿勢を判定させ、判定された頭部姿勢に基づいて並進速度を計算させ、計算された並進速度からのx座標をマッピングして入出力速度を得させ、計算された並進速度からのz座標をマッピングさせ、判定された頭部姿勢に基づいてYZ方向速度を計算させ、計算されたYZ速度をマッピングしてパン角速度を得させ、判定された頭部姿勢からロール値を抽出させ、抽出されたロール値をマッピングしてロール角速度を得させ、入出力速度、パン角速度、およびロール角速度に基づいて、患者画像撮影装置の姿勢を判定させる命令をさらに含む。
本開示のさらに別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、第1モードと第2モードとの両方を同時に実行させる命令をさらに含む。
本開示のさらにまた別の態様では、非一時的なコンピュータ可読媒体は、プロセッサによって実行されたときに、第1モードと第2モードとを別々に実行させる命令をさらに含む。
本発明は、例えば、以下を提供する。
(項目1)
患者画像撮影装置に連結されたロボットアームと、
前記患者画像撮影装置から取得された手術部位の画像を表示するように構成された自動立体視ディスプレイと、
ユーザ画像撮影装置と、
前記ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別するように構成された画像処理装置と、
第1モードにおいて、前記識別された位置に基づいて前記自動立体視ディスプレイ上に表示される前記画像の3D態様を調整し、第2モードにおいて、前記識別された位置と前記手術部位画像との関係に基づいて前記ロボットアームまたは器具を動かすように構成されたコントローラとを備える、ロボット外科手術装置の制御のためのシステム。
(項目2)
前記自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成され、
各画素列は、対応する垂直レンズの下方に配置され、
前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、
前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成される項目1に記載のシステム。
(項目3)
前記コントローラは、前記複数の画素のうちの1つ以上の画素を調整することによって、前記自動立体視ディスプレイ上に表示される前記画像を調整し、前記ユーザの知覚を改善するようにさらに構成される項目2に記載のシステム。
(項目4)
前記画像処理装置は、前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別するようにさらに構成され、
前記コントローラは、前記ユーザの前記第1の眼の前記識別された位置または前記ユーザの前記第2の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整するようにさらに構成される項目3に記載のシステム。
(項目5)
前記コントローラは、前記ユーザの前記第1の眼および前記第2の眼の位置に基づいて前記ユーザの視線の位置を検出し、前記ユーザの視線の位置の他の位置への変化を検出し、前記視線の位置と前記手術部位画像との前記関係に基づいて、前記患者画像撮影装置に連結された前記ロボットアームを動かすようにさらに構成される、項目1に記載のシステム。
(項目6)
前記患者画像撮影装置は、ビジュアルコンテンツを撮影して前記画像処理装置に送信する際に第1の所定のレイテンシを達成するように構成され、前記画像処理装置は、前記ビジュアルコンテンツを処理し、前記ユーザの視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成する、複数の並列実行サブプロセッサを備える項目5に記載のシステム。
(項目7)
前記コントローラは、前記検出されたユーザの視線の位置の変化に応じて、前記アームを動かす速度の大きさおよび方向を計算するようにさらに構成される、項目5に記載のシステム。
(項目8)
前記ユーザの視線の位置の変化を検出するために、前記コントローラは、前記検出されたユーザの視線の位置の変化が、所定の位置からの第1の所定の距離範囲外であるかどうかを判定するようにさらに構成される、項目5に記載のシステム。
(項目9)
前記コントローラは、前記検出されたユーザの視線の位置の変化が、前記第1の所定の距離範囲よりも大きい第2の所定の距離範囲外であるかどうかを判定し、前記検出されたユーザの視線の位置の変化が、前記第2の所定の距離範囲外であると判定されると、前記システムに通知を行わせるようにさらに構成される、項目7に記載のシステム。
(項目10)
前記コントローラは、前記画像内の前記ユーザの視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定し、前記視線が前記閾値時間より長い時間にわたり保持されていると、前記患者画像撮影装置に連結された前記ロボットアームを動かすようにさらに構成される、項目1に記載のシステム。
(項目11)
前記コントローラが、
前記患者画像撮影装置を動かすための入力を検出し、
前記識別された位置の変化を判定し、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定し、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定するようにさらに構成される、項目1に記載のシステム。
(項目12)
前記コントローラが、
前記識別された位置に基づいて頭部姿勢を判定し、
前記判定された頭部姿勢に基づいて並進速度を計算し、
前記計算された並進速度からのx座標をマッピングして入出力速度を得、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得、
前記判定された頭部姿勢からロール値を抽出し、
前記抽出されたロール値をマッピングしてロール角速度を得、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定するようにさらに構成される、項目1に記載のシステム。
(項目13)
前記ロボットアームは内視鏡を備える、項目1に記載のシステム。
(項目14)
前記コントローラは、前記第1モードと前記第2モードとの両方で同時に実行するように構成される、項目1に記載のシステム。
(項目15)
前記コントローラは、前記第1モードと前記第2モードとで別々に実行するように構成される、項目1に記載のシステム。
(項目16)
ロボットアームに連結された患者画像撮影装置から取得された手術部位の画像を表示することと、
前記ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別することと、
前記識別された位置に基づいて、自動立体視ディスプレイ上に表示された前記画像の3D態様を調整することにより第1モードで動作することと、
前記患者画像撮影装置に連結された前記ロボットアームを前記識別された位置と前記手術部位画像との関係に基づいて動かすことにより第2モードで動作することとを含む、ロボット外科手術装置の制御のためのコンピュータ実施方法。
(項目17)
前記自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成され、各画素列は対応する垂直レンズの下方に配置され、前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成され、
前記複数の画素のうちの1つ以上の画素を調整することによって、前記自動立体視ディスプレイ上に表示される前記画像を調整することをさらに含む、項目16に記載の方法。(項目18)
前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別することと、
前記ユーザの前記第2の眼の前記識別された位置の、前記ユーザの前記第1の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整し、前記ユーザの知覚を改善することをさらに含む、項目17に記載の方法。
(項目19)
前記第1の眼および前記第2の眼の位置に基づいて前記ユーザの視線の位置を検出することと、
前記ユーザの視線の位置の別の位置への変化を検出することと、
前記患者画像撮影装置に連結された前記ロボットアームを前記視線の位置と前記手術部位画像との前記関係に基づいて動かすことをさらに含む、項目16に記載の方法。
(項目20)
前記検出されたユーザの視線の位置の変化に応じて、前記手術部位画像内での前記アームを動かす速度の大きさおよび方向を計算することをさらに含む、項目19に記載の方法。
(項目21)
コンテンツを撮影して送信する際に第1の所定のレイテンシを達成することと、前記ビジュアルコンテンツを処理し、前記ユーザの視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成することとをさらに含む、項目19に記載の方法。
(項目22)
前記ユーザの視線の位置の変化を検出することが、前記検出されたユーザの視線の位置の変化が所定の位置からの第1の所定の距離範囲外であるかどうかを判定することをさらに含む、項目19に記載の方法。
(項目23)
前記ユーザの視線の位置が、前記第1の所定の距離範囲よりも大きい第2の所定の距離範囲外であるかどうかを判定することと、前記ユーザの視線の位置が前記第2の所定の距離範囲外であると、前記システムに通知を行わせることとをさらに含む、項目22に記載の方法。
(項目24)
前記ユーザの視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定することと、前記視線が前記閾値時間より長い時間にわたり保持されていると、前記患者画像撮影装置に連結された前記ロボットアームを動かすこととをさらに含む、項目16に記載の方法。
(項目25)
前記患者画像撮影装置を動かすための入力を検出することと、
前記識別された位置の変化を判定することと、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定することと、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定することをさらに含む、項目16に記載の方法。
(項目26)
前記識別された位置に基づいて頭部姿勢を判定することと、
前記判定された頭部姿勢に基づいて並進速度を計算することと、
前記計算された並進速度からのx座標をマッピングして入出力速度を得ることと、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得ることと、
前記判定された頭部姿勢からロール値を抽出することと、
前記抽出されたロール値をマッピングしてロール角速度を得ることと、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定することをさらに含む項目16に記載の方法。
(項目27)
前記第1モードと前記第2モードとの両方を同時に実行することをさらに含む項目16に記載の方法。
(項目28)
前記第1モードと前記第2モードとを別々に実行することをさらに含む項目16に記載の方法。
(項目29)
プロセッサによって実行されたときに、
ロボットアームに連結された患者画像撮影装置から取得された手術部位の画像を表示させ、
前記ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別させ、
前記識別された位置に基づいて、自動立体視ディスプレイ上に表示された前記画像の3D態様を調整することにより第1モードで動作させ、
前記患者画像撮影装置に連結された前記ロボットアームを前記識別された位置と前記手術部位画像との関係に基づいて動かすことにより第2モードで動作させる命令を格納した、非一時的なコンピュータ可読媒体。
(項目30)
プロセッサによって実行されたときに、偶数画素列と奇数画素列とを含む複数の画素を含む前記自動立体視ディスプレイであって、各画素列は対応する垂直レンズの下方に配置され、前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成される、前記自動立体視ディスプレイに、前記複数の画素のうちの1つ以上の画素を調整することによって前記自動立体視ディスプレイ上に表示される前記画像を調整させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目31)
プロセッサによって実行されたときに、
前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別させ、
前記ユーザの前記第2の眼の前記識別された位置の、前記ユーザの前記第1の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整させる命令をさらに含む、項目30に記載の非一時的なコンピュータ可読媒体。
(項目32)
プロセッサによって実行されたときに、
前記第1の眼および前記第2の眼の位置に基づいて前記ユーザの視線の位置を検出させ、
前記ユーザの視線の位置の、前記自動立体視ディスプレイ上の別の位置への変化を検出させ、
前記患者画像撮影装置に連結された前記ロボットアームを前記視線の位置と前記手術部位画像との前記関係に基づいて動かす命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目33)
プロセッサによって実行されたときに、前記検出されたユーザの視線の位置の変化に応じて、前記手術部位画像内での前記アームを動かす速度の大きさおよび方向を計算させる命令をさらに含む、項目32に記載の非一時的なコンピュータ可読媒体。
(項目34)
プロセッサによって実行されたときに、ビジュアルコンテンツを撮影して前記画像処理装置に送信する際に第1の所定のレイテンシを達成させ、前記ビジュアルコンテンツを処理し、前記ユーザの視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成させる命令をさらに含む、項目33に記載の非一時的なコンピュータ可読媒体。
(項目35)
プロセッサによって実行されたときに、ユーザの視線の位置の変化を検出することが、前記検出されたユーザの視線の位置の変化が所定の位置からの第1の所定の距離範囲外であるかどうかを判定することをさらに含むようにする命令をさらに含む、項目32に記載の非一時的なコンピュータ可読媒体。
(項目36)
プロセッサによって実行されたときに、前記ユーザの視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定させ、前記視線が前記閾値時間より長い時間にわたり保持されていると、前記患者画像撮影装置に連結された前記ロボットアームを動かす命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目37)
プロセッサによって実行されたときに、
前記患者画像撮影装置を動かすための入力を検出させ、
前記識別された位置の変化を判定させ、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定させ、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目38)
プロセッサによって実行されたときに、
前記識別された位置に基づいて頭部姿勢を判定させ、
前記判定された頭部姿勢に基づいて並進速度を計算させ、
前記計算された並進速度からのx座標をマッピングして入出力速度を得させ、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得させ、
前記判定された頭部姿勢からロール値を抽出させ、
前記抽出されたロール値をマッピングしてロール角速度を得させ、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目39)
プロセッサによって実行されたときに、前記第1モードと前記第2モードとの両方を同時に実行させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目40)
プロセッサによって実行されたときに、前記第1モードと前記第2モードとを別々に実行させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
本発明は、例えば、以下を提供する。
(項目1)
患者画像撮影装置に連結されたロボットアームと、
前記患者画像撮影装置から取得された手術部位の画像を表示するように構成された自動立体視ディスプレイと、
ユーザ画像撮影装置と、
前記ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別するように構成された画像処理装置と、
第1モードにおいて、前記識別された位置に基づいて前記自動立体視ディスプレイ上に表示される前記画像の3D態様を調整し、第2モードにおいて、前記識別された位置と前記手術部位画像との関係に基づいて前記ロボットアームまたは器具を動かすように構成されたコントローラとを備える、ロボット外科手術装置の制御のためのシステム。
(項目2)
前記自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成され、
各画素列は、対応する垂直レンズの下方に配置され、
前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、
前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成される項目1に記載のシステム。
(項目3)
前記コントローラは、前記複数の画素のうちの1つ以上の画素を調整することによって、前記自動立体視ディスプレイ上に表示される前記画像を調整し、前記ユーザの知覚を改善するようにさらに構成される項目2に記載のシステム。
(項目4)
前記画像処理装置は、前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別するようにさらに構成され、
前記コントローラは、前記ユーザの前記第1の眼の前記識別された位置または前記ユーザの前記第2の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整するようにさらに構成される項目3に記載のシステム。
(項目5)
前記コントローラは、前記ユーザの前記第1の眼および前記第2の眼の位置に基づいて前記ユーザの視線の位置を検出し、前記ユーザの視線の位置の他の位置への変化を検出し、前記視線の位置と前記手術部位画像との前記関係に基づいて、前記患者画像撮影装置に連結された前記ロボットアームを動かすようにさらに構成される、項目1に記載のシステム。
(項目6)
前記患者画像撮影装置は、ビジュアルコンテンツを撮影して前記画像処理装置に送信する際に第1の所定のレイテンシを達成するように構成され、前記画像処理装置は、前記ビジュアルコンテンツを処理し、前記ユーザの視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成する、複数の並列実行サブプロセッサを備える項目5に記載のシステム。
(項目7)
前記コントローラは、前記検出されたユーザの視線の位置の変化に応じて、前記アームを動かす速度の大きさおよび方向を計算するようにさらに構成される、項目5に記載のシステム。
(項目8)
前記ユーザの視線の位置の変化を検出するために、前記コントローラは、前記検出されたユーザの視線の位置の変化が、所定の位置からの第1の所定の距離範囲外であるかどうかを判定するようにさらに構成される、項目5に記載のシステム。
(項目9)
前記コントローラは、前記検出されたユーザの視線の位置の変化が、前記第1の所定の距離範囲よりも大きい第2の所定の距離範囲外であるかどうかを判定し、前記検出されたユーザの視線の位置の変化が、前記第2の所定の距離範囲外であると判定されると、前記システムに通知を行わせるようにさらに構成される、項目7に記載のシステム。
(項目10)
前記コントローラは、前記画像内の前記ユーザの視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定し、前記視線が前記閾値時間より長い時間にわたり保持されていると、前記患者画像撮影装置に連結された前記ロボットアームを動かすようにさらに構成される、項目1に記載のシステム。
(項目11)
前記コントローラが、
前記患者画像撮影装置を動かすための入力を検出し、
前記識別された位置の変化を判定し、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定し、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定するようにさらに構成される、項目1に記載のシステム。
(項目12)
前記コントローラが、
前記識別された位置に基づいて頭部姿勢を判定し、
前記判定された頭部姿勢に基づいて並進速度を計算し、
前記計算された並進速度からのx座標をマッピングして入出力速度を得、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得、
前記判定された頭部姿勢からロール値を抽出し、
前記抽出されたロール値をマッピングしてロール角速度を得、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定するようにさらに構成される、項目1に記載のシステム。
(項目13)
前記ロボットアームは内視鏡を備える、項目1に記載のシステム。
(項目14)
前記コントローラは、前記第1モードと前記第2モードとの両方で同時に実行するように構成される、項目1に記載のシステム。
(項目15)
前記コントローラは、前記第1モードと前記第2モードとで別々に実行するように構成される、項目1に記載のシステム。
(項目16)
ロボットアームに連結された患者画像撮影装置から取得された手術部位の画像を表示することと、
前記ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別することと、
前記識別された位置に基づいて、自動立体視ディスプレイ上に表示された前記画像の3D態様を調整することにより第1モードで動作することと、
前記患者画像撮影装置に連結された前記ロボットアームを前記識別された位置と前記手術部位画像との関係に基づいて動かすことにより第2モードで動作することとを含む、ロボット外科手術装置の制御のためのコンピュータ実施方法。
(項目17)
前記自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成され、各画素列は対応する垂直レンズの下方に配置され、前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成され、
前記複数の画素のうちの1つ以上の画素を調整することによって、前記自動立体視ディスプレイ上に表示される前記画像を調整することをさらに含む、項目16に記載の方法。(項目18)
前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別することと、
前記ユーザの前記第2の眼の前記識別された位置の、前記ユーザの前記第1の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整し、前記ユーザの知覚を改善することをさらに含む、項目17に記載の方法。
(項目19)
前記第1の眼および前記第2の眼の位置に基づいて前記ユーザの視線の位置を検出することと、
前記ユーザの視線の位置の別の位置への変化を検出することと、
前記患者画像撮影装置に連結された前記ロボットアームを前記視線の位置と前記手術部位画像との前記関係に基づいて動かすことをさらに含む、項目16に記載の方法。
(項目20)
前記検出されたユーザの視線の位置の変化に応じて、前記手術部位画像内での前記アームを動かす速度の大きさおよび方向を計算することをさらに含む、項目19に記載の方法。
(項目21)
コンテンツを撮影して送信する際に第1の所定のレイテンシを達成することと、前記ビジュアルコンテンツを処理し、前記ユーザの視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成することとをさらに含む、項目19に記載の方法。
(項目22)
前記ユーザの視線の位置の変化を検出することが、前記検出されたユーザの視線の位置の変化が所定の位置からの第1の所定の距離範囲外であるかどうかを判定することをさらに含む、項目19に記載の方法。
(項目23)
前記ユーザの視線の位置が、前記第1の所定の距離範囲よりも大きい第2の所定の距離範囲外であるかどうかを判定することと、前記ユーザの視線の位置が前記第2の所定の距離範囲外であると、前記システムに通知を行わせることとをさらに含む、項目22に記載の方法。
(項目24)
前記ユーザの視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定することと、前記視線が前記閾値時間より長い時間にわたり保持されていると、前記患者画像撮影装置に連結された前記ロボットアームを動かすこととをさらに含む、項目16に記載の方法。
(項目25)
前記患者画像撮影装置を動かすための入力を検出することと、
前記識別された位置の変化を判定することと、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定することと、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定することをさらに含む、項目16に記載の方法。
(項目26)
前記識別された位置に基づいて頭部姿勢を判定することと、
前記判定された頭部姿勢に基づいて並進速度を計算することと、
前記計算された並進速度からのx座標をマッピングして入出力速度を得ることと、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得ることと、
前記判定された頭部姿勢からロール値を抽出することと、
前記抽出されたロール値をマッピングしてロール角速度を得ることと、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定することをさらに含む項目16に記載の方法。
(項目27)
前記第1モードと前記第2モードとの両方を同時に実行することをさらに含む項目16に記載の方法。
(項目28)
前記第1モードと前記第2モードとを別々に実行することをさらに含む項目16に記載の方法。
(項目29)
プロセッサによって実行されたときに、
ロボットアームに連結された患者画像撮影装置から取得された手術部位の画像を表示させ、
前記ユーザ画像撮影装置から取得された画像内のユーザの少なくとも一部の位置を識別させ、
前記識別された位置に基づいて、自動立体視ディスプレイ上に表示された前記画像の3D態様を調整することにより第1モードで動作させ、
前記患者画像撮影装置に連結された前記ロボットアームを前記識別された位置と前記手術部位画像との関係に基づいて動かすことにより第2モードで動作させる命令を格納した、非一時的なコンピュータ可読媒体。
(項目30)
プロセッサによって実行されたときに、偶数画素列と奇数画素列とを含む複数の画素を含む前記自動立体視ディスプレイであって、各画素列は対応する垂直レンズの下方に配置され、前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成される、前記自動立体視ディスプレイに、前記複数の画素のうちの1つ以上の画素を調整することによって前記自動立体視ディスプレイ上に表示される前記画像を調整させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目31)
プロセッサによって実行されたときに、
前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別させ、
前記ユーザの前記第2の眼の前記識別された位置の、前記ユーザの前記第1の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整させる命令をさらに含む、項目30に記載の非一時的なコンピュータ可読媒体。
(項目32)
プロセッサによって実行されたときに、
前記第1の眼および前記第2の眼の位置に基づいて前記ユーザの視線の位置を検出させ、
前記ユーザの視線の位置の、前記自動立体視ディスプレイ上の別の位置への変化を検出させ、
前記患者画像撮影装置に連結された前記ロボットアームを前記視線の位置と前記手術部位画像との前記関係に基づいて動かす命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目33)
プロセッサによって実行されたときに、前記検出されたユーザの視線の位置の変化に応じて、前記手術部位画像内での前記アームを動かす速度の大きさおよび方向を計算させる命令をさらに含む、項目32に記載の非一時的なコンピュータ可読媒体。
(項目34)
プロセッサによって実行されたときに、ビジュアルコンテンツを撮影して前記画像処理装置に送信する際に第1の所定のレイテンシを達成させ、前記ビジュアルコンテンツを処理し、前記ユーザの視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成させる命令をさらに含む、項目33に記載の非一時的なコンピュータ可読媒体。
(項目35)
プロセッサによって実行されたときに、ユーザの視線の位置の変化を検出することが、前記検出されたユーザの視線の位置の変化が所定の位置からの第1の所定の距離範囲外であるかどうかを判定することをさらに含むようにする命令をさらに含む、項目32に記載の非一時的なコンピュータ可読媒体。
(項目36)
プロセッサによって実行されたときに、前記ユーザの視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定させ、前記視線が前記閾値時間より長い時間にわたり保持されていると、前記患者画像撮影装置に連結された前記ロボットアームを動かす命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目37)
プロセッサによって実行されたときに、
前記患者画像撮影装置を動かすための入力を検出させ、
前記識別された位置の変化を判定させ、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定させ、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目38)
プロセッサによって実行されたときに、
前記識別された位置に基づいて頭部姿勢を判定させ、
前記判定された頭部姿勢に基づいて並進速度を計算させ、
前記計算された並進速度からのx座標をマッピングして入出力速度を得させ、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得させ、
前記判定された頭部姿勢からロール値を抽出させ、
前記抽出されたロール値をマッピングしてロール角速度を得させ、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目39)
プロセッサによって実行されたときに、前記第1モードと前記第2モードとの両方を同時に実行させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
(項目40)
プロセッサによって実行されたときに、前記第1モードと前記第2モードとを別々に実行させる命令をさらに含む、項目29に記載の非一時的なコンピュータ可読媒体。
本開示の上記および他の態様、特徴、および利点は、添付の図面と関連させて以下の詳細な説明を考慮することにより、より明らかになるであろう。
外科医にとって快適さが改善された、視覚化および制御が向上したロボット外科手術システムを提供するために、様々なシステムおよび方法が本明細書に記載されている。特に、システムは、外科医の動きに関連するデータを連続的に受信し、その動きを外科医のユーザ体験を最適化するために使用するように構成される。例えば、(眼追跡、頭部追跡、または外科医の顔の一部の追跡によって得られる)外科医の動きは、外科医の位置を識別するために使用される。そして、識別された位置は、外科医が動いたかどうかを判定するために使用され、それによって、選択されたモードに応じて、表示された画像の3D態様を、外科医の視界を最適にするために調整してもよく、および/または識別された位置と手術部位画像との関係に基づいて、ロボットアームまたは器具を動かすために使用されてもよい。
本明細書で使用される場合、「臨床医」、「外科医」、「観察者」という用語は、一般に、本明細書に記載の自動立体視ディスプレイ装置のユーザを指す。また、「第1の眼」および「第2の眼」という用語は、本明細書ではユーザの左眼および右眼をそれぞれ指すのに使用されるが、この使用は例として提供されるものであり、限定として解釈されるべきではない。本明細書を通じて、「近位」という用語は、装置またはその構成部品の患者から最も遠い部分を指し、「遠位」という用語は、装置またはその構成部品の患者に最も近い部分を指す。
図1は、本明細書の様々な例示的実施形態による、用いられてもよい例示的なロボット外科手術システム100を示す。図1に示すシステム100の構成部品の具体的な数、およびその配置ならびに構成は、例示のためにのみ提供され、限定として解釈されるべきではない。例えば、本明細書の様々な実施形態は、図1に示される全ての構成部品よりも少ないかまたは多くの構成部品を用いる。さらに、図1に描く例示的なロボット外科手術システム100は、本明細書の様々な例示的実施形態が適用可能な例示的コンテキストとして提供される。しかし、本明細書の様々な例示的実施形態は、ロボット外科手術システム以外のコンテキスト、例えば一般的な立体視ディスプレイのコンテキストにおいても適用可能である。
システム100は、外科手術中に患者104が横たわる手術台102と、交換可能に固定された対応する外科手術器具108を有するロボットアーム106と、臨床医(本明細書では「ユーザ」とも呼ぶ)が外科手術中にインタラクトするために使用するハンドル112を有するコンソール110と、コンソール110をロボットアーム106、外科手術器具108、および画像撮影装置109に連結するコントローラ114および1つ以上のモータ116とを含む。ロボットアーム106は、それぞれ、手術台102に隣接して、および/または外科手術を受けている患者104の範囲内に配置された、対応するベースに取り付けられている。
コントローラ114は、1つ以上のプロセッサ118とメモリ120とを含み、コンソール110と一体化されてもよく、または手術室内の独立型装置として提供されてもよい。以下でさらに詳細に説明するように、プロセッサ118は、メモリ120に格納された命令136(一例ではソフトウェア)を実行し、本明細書の様々な実施形態の手順を実行する。理解されるように、プロセッサ118およびメモリ120の実装は、一例としてのみ提供されており、限定として解釈されるべきではない。例えば、本開示のいずれかの実施形態の手順は、ハードウェア構成部品、ファームウェア構成部品、ソフトウェア構成部品、および/またはそれらの任意の組み合わせによって実装されてもよい。
外科手術システム100の動作中、ハンドル112は臨床医によって動かされ、ロボットアーム106および/または外科手術器具108の作業端の対応する動きおよび/または作動をもたらす。ハンドル112がコントローラ114に信号を提供した後、コントローラ114は対応する信号を1つ以上の駆動モータ116に供給する。1つ以上の駆動モータ116は、ロボットアーム106および/または外科手術器具108を動かすために、ロボットアーム106に連結される。
ハンドル112は、様々な組織パラメータまたは状態、一例では操作、切断、またはその他の処理による組織抵抗、器具による組織への圧力、組織温度、組織インピーダンスなどに関するフィードバックを臨床医に提供するための、様々な触覚部124を含んでもよい。理解され得るように、このような触覚部124は、実際の動作状態をシミュレートする、向上した触覚フィードバックを臨床医に提供する。触覚部124は、振動モータ、電気活性ポリマー、圧電素子、静電装置、亜音速音響波表面作動装置、逆電子振動、またはユーザに触覚フィードバックを提供することができる任意の他の装置を含んでもよい。ハンドル112はまた、実際の動作状態を模倣する臨床医の能力をさらに向上させる、繊細な組織操作または治療のための様々な異なるアクチュエータ126を含んでもよい。
ハンドル112に加えて、コンソール110は、ユーザからの入力を受け付けるための、1つ以上の入力装置138を含む。例えば、入力装置138は、タッチスクリーン、マウス、キーボード、ジョイスティック、またはユーザからの入力をシステム100に伝達するのに適した任意の他の装置を含むが、これらに限定されない。一実施形態では、入力装置138は、ユーザが自動立体視ディスプレイ装置122(本明細書では「自動立体視ディスプレイ」または単に「ディスプレイ」とも呼ばれる)またはタッチスクリーン(含まれる場合)上に表示される選択、例えばプルダウンメニュー、ポップアップウィンドウ、または他の提示機構からの選択を可能にするように構成される。別の実施形態では、入力装置138は、例えば手術部位画像をズームインまたはズームアウトしたり、手術部位画像上の位置を選択したりして、ユーザが手術部位画像を操作することを可能にするように構成される。
外科手術器具108は、限定ではなく例として、画像撮影装置109、エンドエフェクタ、把持器、ナイフ、ハサミなどのような任意の種類の外科手術器具であってもよい。画像撮影装置109は、手術部位の立体画像を撮影するように構成され、立体画像撮影装置を含むカメラまたはプローブであってもよい。患者画像撮影装置として構成される適切なプローブには、内視鏡などが含まれるが、これらに限定されるものではない。プローブは、外科手術中に患者の内部の関心領域の立体画像を撮影するために患者に挿入される。本明細書のいくつかの実施形態によれば、画像撮影装置によって撮影された立体画像は、画像を臨床医に表示するコンソール110の自動立体視ディスプレイ122に伝達される。
以下でさらに詳細に説明するように、本明細書のいくつかの例示的な実施形態では、コンソール110は、ユーザ(図1では図示せず)の1つ以上の画像を撮影する画像撮影装置128(一例では1つ以上のカメラ)を含む。例えば、画像撮影装置128は、ユーザの静止画像やユーザの映像などを定期的に撮影するように構成されてもよい。別の実施形態では、画像撮影装置128は、ユーザの眼、顔、頭部または他の特徴を追跡するために使用される。この点について、ユーザの画像が処理されるときに検出される可能性がある固定位置を提供するために(図4に描かれる)ユーザによって装着されるウェアラブル129の使用によって、追跡が向上され得る。ウェアラブル129は、眼鏡、ヘッドバンド、ユーザ上の位置に配置された一組のマーカ、または別の構成の形態で提供されてもよい。画像撮影装置128はディスプレイ122と一体化することができ、および/またはディスプレイ122に位置固定することができ、それによって画像撮影装置128とディスプレイ122との間の位置関係がわかり、様々な計算においてプロセッサ118に依拠され得るようにする。別の例では、プロセッサ118は、画像撮影装置128によって撮影された画像を利用し、例えば判定されたユーザの位置を所定の位置基準と比較する認識および追跡アルゴリズムを用いることによって、ユーザの位置を判定する。プロセッサ118は、例えば、ディスプレイ122を介して視覚的に、1つ以上のオーディオ装置(一例ではスピーカ)130を介して聴覚的に、および/またはハンドル112による触覚フィードバックを介してユーザに提供される比較の結果に基づいて、メッセージを生成させる。そのようなメッセージをユーザに提供することにより、基準が満たされている場合には、自動立体視のビジュアルコンテンツの知覚を改善するためにより最適な位置へ動かす方法を、ユーザに通知することができる。
自動立体視のビジュアルコンテンツのユーザの知覚をさらに改善するために、システム100は、画像撮影装置128によって撮影されたユーザの画像および/または画像撮影装置109によって撮影された手術部位画像の間の遅延時間を短縮するように構成されるレイテンシ低減システム140を含む。一実施形態では、プロセッサ118は、レイテンシ低減システム140と通信するか、またはレイテンシ低減システム140を含む。一実施形態では、プロセッサは、レイテンシ低減システム140が<約60ミリ秒(ms)のレイテンシ目標を達成することを可能にするために並列に動作する、1つ以上のサブプロセッサを含む。一実施形態によれば、レイテンシ低減システム140は、グラフィカル・ユーザ・インターフェースが画像撮影装置109によって撮影された手術部位の映像ストリーム上にオーバーレイされたグリーンバックを用いる。そのような実施形態はデジタル操作を用いないため、画像強調、立体視フォーマットへの変換、および遠隔視聴または録画は実施されない。別の実施形態では、レイテンシ低減システム140は、頭部、眼、および/または顔のリアルタイムの動きと手術部位画像の表示との間のレイテンシを最小にするために、コントローラ114または自動立体視ディスプレイシステム134内に実装されるか、またはコントローラ114または自動立体視ディスプレイシステム134と通信する、追加の構成部品を含み、上述の実施形態の欠点を克服する。
図2は、本開示の一態様による、システム100のタワーに実装されるレイテンシ低減システム140のブロック図である。一実施形態によれば、レイテンシ低減システム140は、図1のコントローラ114に連結された周辺構成部品相互接続(peripheral component interconnect:PCI)カード202と、エンコーダ204と、デコーダ206とを含む。別個の構成部品として図示されているが、他の実施形態では、PCIカード202、エンコーダ204、およびデコーダ206のうちの2つ以上は、単一の構成部品として構成されてもよいことが理解されよう。
動作中、内視鏡などの画像撮影装置109は、映像をエンコーダ204に送信する。エンコーダ204は、映像を符号化された画像データに加工し、それによって映像を所望のフォーマットに変換する。加工後、符号化された画像データはPCIカード202に送信され、PCIカード202は画像データを操作して合成する。一実施形態では、データはその後コントローラ114にさらに伝達され、手術室のユーザが見るためにディスプレイ(図示せず)に画像データとして送信されるか、後の処理のためにメモリ120に格納される。別の実施形態では、符号化された画像データは、PCIカード202からデコーダ206に伝達され、デコーダ206は、画像データを元のフォーマット、例えば映像に変換するために、画像データを復号する。次に、映像はディスプレイ122に送信されて表示される。
映像を強調するために、グラフィカル・ユーザ・インターフェースは、コントローラ114またはコンピュータ123のいずれかによって映像にオーバーレイされる。一実施形態では、ディスプレイ122上の画像撮影装置128は、ユーザの位置を追跡し、ユーザの位置に関連するデータは、コントローラ114に送信されて、ディスプレイ122のための所望の映像フォーマットを生成する。このように、追跡されたユーザの位置の送信は、イーサネット(登録商標)または別の低レイテンシ通信プロトコルを介して送信される。上述のアーキテクチャは、ユーザ画像撮影装置128によって撮影された画像から導き出された、ユーザに対応する位置データを考慮に入れつつ、画像撮影装置109からの画像を処理、合成および/またはフォーマットすることを可能にする。
図3は、本開示の別の態様による、図1の自動立体視ディスプレイシステム134に含まれるレイテンシ低減システム140を示すブロック図である。ここで、レイテンシ低減システム140は、周辺構成部品相互接続(PCI)カード302と、コンピュータ323と、エンコーダ304と、デコーダ306と、場合により画像撮影装置328とを含む。理解されるように、いくつかの実施形態では、これらの構成部品のうち2つ以上が単一の構成部品として構成されてもよい。エンコーダ304は、画像撮影装置109から映像フォーマットで映像を受信し、コンピュータ123からデータを受信する。受信された映像は、符号化された画像データ、例えばコンピュータ323による処理のための所望のフォーマットのデータに変換される。そして、符号化された画像データは、コンピュータ323に連結されたPCIカード302に提供される。コンピュータ323は、画像撮影装置328から追加の画像データを受信してもよく、画像撮影装置328は、ユーザの位置を識別する目的で(コンピュータ323による処理に適したフォーマットで)ユーザの映像を撮影してもよい。一実施形態では、撮影されたユーザの映像に頭部追跡、眼追跡または顔追跡アルゴリズムが適用され、その結果が、符号化された画像データの修正およびフォーマットに使用される。そして、修正された符号化された画像データはデコーダ306に送信され、デコーダ306は、画像データを復号し、さらに画像データを元のフォーマットにフォーマットする。そして、復号された画像データは、映像としてディスプレイ122に提供され、表示される。図2に関連して説明したアーキテクチャと同様に、上述のアーキテクチャも、ユーザ画像撮影装置328によって撮影された画像から導き出された、ユーザに対応する位置データを考慮に入れつつ、画像撮影装置109からの画像を処理、合成および/またはフォーマットすることを可能にする。
図1に戻ると、コンソール110は、ディスプレイ122を再配置するように構成された1つ以上のモータ132も含み、プロセッサ118は、撮影されたユーザの画像に基づいてユーザの位置を判定し、判定されたユーザの位置を所定の位置基準と比較し、比較結果に基づいてモータ132にディスプレイ122を再配置させるように構成される。1つ以上のモータ132は、それぞれ単一の軸または複数の軸に沿ったディスプレイ122の再配置を容易にする、単一軸モータまたは多軸(一例では3軸)モータである。ユーザ位置に基づいてディスプレイ122を再配置することにより、ディスプレイ122が、ユーザに対して、立体視のビジュアルコンテンツの知覚を改善するためにより最適な位置を維持することが可能になる。
システム100の特定の構成部品(例えば、構成部品120,122,128,130および/または132)は、本明細書のいくつかの例示的実施形態による自動立体視ディスプレイシステム134を表してもよい。ここで、図4および図5を参照すると、例示的な自動立体視ディスプレイシステム134およびその自動立体視ディスプレイ122のさらなる態様が示されている。図4および図5に示すシステム134の構成部品の具体的な数、およびその配置ならびに構成は、例示のためにのみ提供され、限定として解釈されるべきではない。例えば、本明細書のいくつかの実施形態は、図4および図5に示される構成部品よりも少ないかまたは多くの構成部品を用いる。また、明瞭にするために、システム134のいくつかの構成部品は、図4および図5では省略されている。さらに、本明細書の自動立体視ディスプレイシステム134は、ロボット外科手術システム以外のコンテキスト、例えば一般的な自動立体視ディスプレイのコンテキストにおいても適用可能である。
図4は、自動立体視ディスプレイシステム134の一部の斜視図を含み、本明細書の様々な実施形態による、自動立体視ディスプレイ122、画像撮影装置128、オーディオ装置130、モータ132の例示的な配置を示す。ディスプレイ122は、スクリーン400と、スクリーン400の前面に配置されたレンチキュラレンズ層402とを含む。スクリーン400は、特定の画素によって表示されたビジュアルコンテンツを、レンチキュラレンズ層402を通して、ユーザ404の特定の眼に導く画素を含む。特に、図5に示すように、スクリーン400は、自動立体視ディスプレイ122の第1の組の画素506(一例では、奇数画素列)と、自動立体視ディスプレイ122の第2の組の画素508(一例では、偶数画素列)とを含む。レンチキュラレンズ層502は、対応する画素列の上に配置された複数の垂直レンズ502a、502bを含む。例えば、第1の組の画素306(例えば、奇数画素列)は、第1の組の画素506のビジュアルコンテンツがユーザの第1の眼によって知覚されることを可能にするのに適した角度で導かれるように構成される、1つ以上の垂直レンズ502aとオーバーレイされる。第2の組の画素508(例えば、偶数画素列)は、第2の組の画素308のビジュアルコンテンツがユーザの第2の眼によって知覚されることを可能にするのに適した角度で導かれるように構成される、1つ以上の垂直レンズ502bとオーバーレイされる。
例示的な自動立体視ディスプレイシステム134を説明したところで、図6を参照する。図6は、本明細書の一実施形態による、自動立体視ディスプレイシステム134を制御するための例示的なコンピュータ実装手順600を示す。一実施形態によれば、ロボット外科手術システム100は、自動立体視ディスプレイシステム134の3D態様が調整される、第1モードで動作されてもよく、またはユーザの位置と手術部位画像との関係が、ロボットアーム106および/またはロボットアーム106に連結された患者画像撮影装置109を動かすために使用される、第2モードで動作されてもよい。手順600は、メモリ120(図1)に格納された命令136を実行するプロセッサ118によって少なくとも部分的に実施されてもよい。また、図6の手順600に示されるステップの特定の順序は、限定ではなく例として提供される。したがって、手順600のステップは、本開示の範囲から逸脱することなく、図6に示される順序以外の順序で実行されてもよい。また、図6の手順600に示されるいくつかのステップは、互いに順番に実行されるのではなく、互いに並行して実行されてもよい。
一実施形態によれば、手順600は、ブロック602において自動立体視ディスプレイ122上に手術部位画像を表示することを含む。例えば、ロボットアーム106に連結された画像撮影装置109は、手術部位内に配置され、手術部位画像は、画像撮影装置109によって撮影される。コントローラ114は、撮影された手術部位画像を表す信号を自動立体視ディスプレイ122に送信し、自動立体視ディスプレイ122は手術部位画像を表示する。
ユーザが自動立体視ディスプレイ122を観察している間に、自動立体視ディスプレイ122に連結された画像撮影装置128は、ブロック604においてユーザの画像を撮影する。上述のように、画像撮影装置128は、映像フォーマットなどで一連の画像を撮影するか、または定期的にユーザの静止画像を撮影する。
ブロック606において、ユーザの1つ以上の特徴の位置が、撮影されたユーザ画像から識別される。一例では、ユーザの1つ以上の特徴は、ユーザの額、顎、鼻、右眼、左眼、ユーザの眼の間での位置、またはユーザの他の特徴などの、ユーザの顔の特徴を含む。別の例では、位置を識別するためのユーザの1つ以上の特徴は、ユーザの頭部である。ユーザの1つ以上の特徴の位置の検出は、ウェアラブル109(例えば、眼鏡、ヘッドバンド、ステッカーまたはユーザが装着する他のウェアラブル)の使用によって、さらに向上してもよい。そのような実装では、ウェアラブル109は、ユーザの画像において検出されてもよい1つ以上のマーカを含み、マーカは、ユーザの部分の位置を確立するために使用されてもよい。一実施形態では、ユーザの選択された特徴の認識および追跡のための適切なアルゴリズムが、撮影された一連の画像に適用される。例えば、眼追跡または頭部追跡アルゴリズムを使用して、ロボット外科手術システム10の使用中に常にユーザの眼または頭部を追跡する。追跡されたユーザの選択された特徴に関連するデータは、メモリ120に格納される。
ブロック608において、第1の動作モード、第2の動作モード、またはその両方の選択を受け付けたかどうかの判定が行われる。選択は、入力装置138を介して受け付けることができる。第1の動作モードの選択が受け付けられた場合、手順600はブロック610に進み、ブロック606において取得された識別されたユーザの位置に基づいて、自動立体視ディスプレイ122上の3D態様が調整される。一実施形態では、ユーザの第1および第2の眼の位置を計算するための眼追跡アルゴリズムから判定される、ユーザの第1の眼および第2の眼の配置を検出することによって、ユーザの位置が識別される。あるいは、ユーザの頭部の配置を検出することによって、ユーザの位置が識別される。眼追跡技術と同様に、頭部追跡は、ユーザの頭部の位置を固定し、適切なアルゴリズムは、頭部の固定位置に基づいて位置を計算する。
3D態様の調整は、ディスプレイ122の前面の第1の空間位置から第2の空間位置へのユーザの動きに基づいて、交互の画素列に示される画像の部分を調整することによって行われる。例えば、ユーザの左眼によって知覚される奇数画素列の1つ以上の画素が調整される、および/またはユーザの右眼によって知覚される偶数画素列の1つ以上の画素が調整される。その結果、奇数画素列上に配置された対応する垂直レンズ402aは、左眼に画像の対応する変化を知覚させることを可能にし、偶数画素列の上に配置された垂直レンズ402bは、右眼に画像の対応する変化を知覚させることを可能にする。ブロック606において識別されたユーザの位置が変化するにつれて、ブロック610を連続的に繰り返す。
第2の動作モードの選択が受け付けられた場合、手順600はブロック612に進む。ブロック612において、ブロック606において取得された識別されたユーザの位置とブロック602において表示された手術部位画像との関係に基づいて、ロボットアーム106、器具108、または画像撮影装置109が動かされる。ブロック608に戻ると、第1および第2モードの両方の選択が受け付けられた場合、手順600は、ブロック610および612の動作を順番にまたは同時に実行する。
図7は、手順600のブロック612で説明された、識別されたユーザの位置と手術部位画像との関係に基づいて、ロボットアーム106、および特に、ロボットアーム106に連結された画像撮影装置109を制御するための、例示的なコンピュータ実装手順700であり、別の実施形態によれば、識別されたユーザの位置はユーザの視線に基づく。手順700は、メモリ120(図1)に格納された命令136を実行するプロセッサ118によって少なくとも部分的に実施されてもよい。また、図7の手順700に示されるステップの特定の順序は、限定ではなく例として提供される。したがって、手順700のステップは、本開示の範囲から逸脱することなく、図7に示される順序以外の順序で実行されてもよい。さらに、図7の手順700に示されるいくつかのステップは、互いに順番に実行されるのではなく、互いに並行して実行されてもよい。
ブロック702において、ユーザの視線の位置は、例えば、手順600のブロック602から、識別されたユーザの位置に基づいて判定される。一実施形態では、ユーザの視線は、例えば、ユーザが注目しているスクリーン上の点にユーザの眼の焦点が合っているときなど、ユーザの眼で対象物を見るときの、ユーザの瞳孔の位置である。識別されたユーザの位置は、撮影されたユーザ画像からの第1の眼および第2の眼の位置を含んでもよい。この点について、撮影されたユーザ画像からユーザの視線の位置を計算するのに適した様々なアルゴリズムのいずれかが用いられる。例えば、ユーザの視線の位置は、撮影された一連のユーザ画像を含む画像データ(例えば、特にユーザの眼を含む、撮影されたユーザの映像)に眼追跡アルゴリズムを適用することによって判定されてもよく、それによって眼の位置を判定することができる。
そして、ブロック704において、ユーザの視線の位置の変化が検出されたかどうかの判定が行われる。一実施形態では、第1の時間インスタンスにおけるユーザの視線の第1の位置は、第2の時間インスタンスにおけるユーザの視線の第2の位置と比較される。例えば、ユーザの視線の第1の位置は、第1の時間インスタンスで撮影されたユーザの映像から取得されてもよく、ユーザの視線の第2の位置は、時間(例えば、第2の時間インスタンス)の経過後に撮影された同じ映像から取得されてもよい。2つの時間インスタンスにおける2つの位置の距離の差が閾値距離よりも大きい場合、位置の変化が検出され、手順700はブロック706に進む。距離の差が閾値距離未満である場合、ブロック704の動作が繰り返され、位置の変化は検出されない。
ブロック704における動作の別の例では、ユーザの視線が第1の所定の距離範囲外にあるかどうかの判定が行われる。第1の所定の距離範囲は、ユーザの視線の位置の変化の検出を引き起こさない初期視線位置(「デッドゾーン」の一部とも呼ばれる)からの許容可能な距離範囲を含んでもよい。画像のビューをズームインまたはズームアウトすることができる実施形態では、第1の所定の距離範囲に含まれる特定の距離をそれに応じてスケーリングしてもよいことが理解されよう。別の実施形態では、第1の所定の距離範囲は、初期視線位置に隣接する許容可能な距離であってもよい。例えば、選択された位置を示す入力は、入力装置138を介して受け付けられてもよい。ユーザの視線が第1の所定の距離範囲外ではないと判定された場合、制御はブロック702に戻る。ユーザの視線が第1の所定の距離範囲外であると判定された場合、制御はブロック706に進み、位置の変化が検出される。
ブロック708において、検出された位置の変化に応じて、ユーザの視線が第2の所定の距離範囲外にあるかどうかの判定が行われる。具体的には、第2の所定の距離範囲は、自動立体視ディスプレイ装置134のディスプレイ122に表示された画像の外にあるユーザの視線に対応する、眼が動く距離範囲を含んでもよい。例えば、第2の所定の距離範囲は、ディスプレイ122に表示される画像の外周を含み、かつその外周の外にある距離を含んでもよい。
ユーザの視線が第2の所定の距離範囲外ではないと判定された場合、手順はブロック710に続く。ブロック710において、ロボットアーム106は、ブロック704からユーザの視線が導かれる自動立体視ディスプレイ上に表示された画像上の位置に対応する、手術部位内の標的位置に、患者画像撮影装置109を動かす。この点について、ユーザの視線の位置の変化に基づいて、ロボットアーム106を動かす速度の大きさおよび方向が計算される。例えば、患者画像撮影装置109は、ビジュアルコンテンツを撮影してコンピュータ323に送信する際に、第1の所定のレイテンシを達成するように構成される。一実施形態では、第1の所定のレイテンシは、約60ms未満の範囲内にある。コンピュータ323は、ビジュアルコンテンツの処理、例えばデジタル処理を行い、ユーザの視線の位置を判定し、患者画像撮影装置109に制御信号を送信する際に、第2の所定のレイテンシを達成する、複数の並列実行サブプロセッサを備える。第2の所定のレイテンシは、約40ms未満の範囲内にある。ロボットアーム106は、患者画像撮影装置109を、ユーザの眼の焦点を自動立体視ディスプレイ122上に表示された画像の中心に合わせるような位置に動かす。一実施形態では、ユーザの視線の位置が変わった瞬間からロボットアーム106が位置に動くのに許容される総レイテンシは、約100ms未満である。
ブロック708に戻ると、ユーザの視線が第2の所定の距離範囲外にあると判定された場合、手順はブロック712に続く。ブロック712において、ロボットアーム106は、ユーザの視線が第2の所定の距離範囲外にあるという判定に応じて、ユーザの視線の方向および距離に対応する速度および方向で患者画像撮影装置109を動かし続ける。ユーザの視線が第2の所定の距離範囲内に戻るとき、患者画像撮影装置109の動きが停止することを通知することができる。通知は、例えば、自動立体視ディスプレイ122上に表示されたベクトルもしくは矢印を介して、またはテキスト命令によって視覚的に、スピーカ130からの音声コマンドによって聴覚的に、または入力用ハンドル112を介してユーザに伝達される振動などを通じて触覚的に示される。ベクトルまたは矢印が表示される一実施形態では、患者撮影画像装置109が、自動立体視ディスプレイ122の中心のような元の位置から遠ざかるにつれて矢印が長くなり、患者撮影画像装置109が元の位置に近づくにつれて矢印が短くなる。
他の実施形態では、上記の動作に加えて、手順700が追加の動作を含んでもよい。例えば、一実施形態によれば、ブロック708の動作を実行する前に、ブロック714において手術部位内の標的位置の確認が行われる。標的位置は、画像撮影装置109とは異なる第2の画像撮影装置から撮影された画像によって表される。標的位置は、手術部位に隣接する位置であってもよいし、メモリ120内のデータベースに格納されてもよく、自動立体視ディスプレイ122の一部、例えばポップアップウィンドウ中に、または入力装置138として機能するタッチスクリーン上に表示される。表示された画像が手術部位内の標的位置に対応することを確認する入力が受け付けられる。一実施形態では、入力装置138への入力(例えば、タッチスクリーンが含まれる場合、タッチスクリーン上でのキーボード上のボタンの押下またはマウスのクリック)を介して確認が受け付けられる。別の実施形態では、確認は、撮影されたユーザの画像において検出されたジェスチャを介して受け付けられる。例えば、まばたきまたは眼の開閉などの特定の眼のジェスチャを識別する適切なアルゴリズムを実装してもよい。
別の実施形態によれば、ブロック706において、ユーザの視線の位置が第1の所定の距離範囲外であるかどうかを判定することに関連して、ブロック716において、ユーザの視線が、閾値時間より長い時間、その位置に保持されているかどうかの判定が行われる。閾値時間未満の時間は、ユーザの視線の位置の変化が検出されることなしに位置間の眼球運動を可能にするバッファをユーザに提供する、デッドゾーンの一部であってもよい。視線が閾値時間よりも長くない時間にわたってその位置に保持されている場合、手順700はブロック702を繰り返す。視線が閾値時間よりも長い時間にわたる場合、手順700はブロック706に進み、位置の変化が検出される。
図8は、別の実施形態による、手順600のブロック612で説明された、識別されたユーザの位置と手術部位画像との関係に基づいて、ロボットアーム106、および特に、ロボットアーム106に連結された患者画像撮影装置109の動きを制御するための、例示的なコンピュータ実装手順800である。手順800は、メモリ120(図1)に格納された命令136を実行するプロセッサ118によって少なくとも部分的に実施されてもよい。また、図8の手順800に示されるステップの特定の順序は、限定ではなく例として提供される。したがって、手順800のステップは、本開示の範囲から逸脱することなく、図8に示される順序以外の順序で実行されてもよい。さらに、図8の手順800に示されるいくつかのステップは、互いに順番に実行されるのではなく、互いに並行して実行されてもよい。
ブロック802において、ユーザの位置は、例えば、手順600のブロック602から識別される。一実施形態では、ユーザの位置は、画像撮影装置128によって撮影されたユーザ画像から識別される。例えば、ユーザの映像または一連の画像が画像撮影装置128を介して撮影され、ユーザの固定位置(ユーザの頭部またはユーザの眼の位置など)を追跡するための追跡アルゴリズムが、撮影されたユーザの映像または一連の画像に適用される。
そして、ブロック804において、患者画像撮影装置109を動かすための入力が検出されたかどうかの判定が行われる。入力は、例えば、ユーザがボタンを押すこと、マウスに入力を提供すること、またはタッチスクリーン上でアイコンを選択することによって、入力装置138から受け付けてもよい。代替的に、入力は、ユーザによって行われ、画像撮影装置128によって撮影されたユーザの映像または一連の画像から識別されたジェスチャの検出によって、受け付けてもよい。入力が検出されない場合、ブロック804が繰り返される。入力が検出された場合、手順800はブロック806に進む。
次に、ブロック806において、ユーザの位置の変化が判定される。一実施形態では、ユーザの位置の変化は、追跡されたユーザの位置において検出される。例えば、x座標、y座標、またはz座標の配置の変化、もしくはロール、ピッチまたはヨーの変化などのユーザの頭部の位置の変化は、ユーザの位置の変化とみなされてもよい。ユーザの位置の変化は、例えばブロック802における第1の時間インスタンスにおけるユーザの位置を、ブロック806における第2の時間インスタンスにおけるユーザの位置と比較することによって判定されてもよい。一実施形態によれば、第1の時間インスタンスにおけるユーザの位置は、一連の画像またはユーザの映像における第1のフレームから取得され、第2の時間インスタンスにおけるユーザの位置は、一連の画像またはユーザの映像における次のフレームから取得される。一実施形態では、ユーザの位置の変化が意図された動作であるかどうかを判定するために、ユーザの位置の変化が閾値時間よりも長い時間、例えば、1秒以上にわたって、維持されたかどうかの判定を行ってもよい。別の実施形態では、追加的にまたは代替的に、ユーザの位置の変化が、ユーザの初期位置から所定の距離範囲外にあるかどうかの判定が行われる。さらに別の実施形態では、追加的にまたは代替的に、ユーザの位置が変化する速度が閾値速度を上回るかどうかの判定が行われる。ユーザの位置が初期位置から所定の距離範囲内にあるか、またはユーザの位置が変化する速度が閾値速度を下回る(言い換えれば、「デッドゾーン」内にある)場合、ユーザの位置の変化は意図された動作として検出されない。ユーザの位置の変化が判定された場合、方法800はブロック808に続く。位置の変化がないと判定された場合、ブロック806の動作が繰り返される。
ユーザの位置の変化が検出された場合、ブロック808において、ユーザの頭部の位置および/または速度の判定が行われる。特に、ユーザの画像や映像を用いて抽出したデータから、ユーザの頭部の位置および/または速度を判定するための計算が行われ、それによってユーザの頭部の動きの速度、距離、および方向を取得する。ユーザの頭部の動きの様々な態様は、判定された頭部の位置および/または速度から取得されてもよい。また、ユーザの頭部の動きの態様は、患者画像撮影装置109の動きおよび/または装置109によって撮影された画像の操作にマッピングされてもよい。例えば、頭部の配置は、患者画像撮影装置109の配置にマッピングされてもよく、頭部の速度は、患者画像撮影装置109の配置にマッピングされてもよい。
一実施形態では、ユーザの頭部の傾きは、ブロック810において判定された頭部の位置および/または速度から取得される。頭部の傾きとは、頭部を「いいえ」の動作で振るときと同様に、ユーザが頭部を左および/または右に動かしたときの動きである。頭部の傾きは、ブロック812においてパンニングを開始するために使用されてもよい。ブロック806,808,810、および812は、806になるまで繰り返され、ユーザの位置の変化は検出されない。
ユーザの頭部の位置および/または速度は、ブロック814において頭部の向きを判定するために使用することもできる。具体的には、データを用いて、頭部が初期位置に接近しているか遠ざかっているか、および頭部が動かされた速度を計算する。そして、アルゴリズムはデータに適用され、出力は、現在表示されている画像内の標的位置からブロック816においてズームインさせるか、またはブロック818においてズームアウトさせる。一例では、標的位置は、現在表示されている画像の中心であってもよく、それによって、頭部が固定位置(例えば、ディスプレイ122がある垂直面)に接近するように動かされた場合、ブロック816において、患者画像撮影装置109を標的位置に接近させるように動かすことによって、または標的位置で画像を拡大することによって、画像がズームインされる。同様に、頭部が固定位置から遠ざかるように動かされた場合、ブロック818において画像がズームアウトされる。ズームインまたはズームアウトの速度は、スケーリングされてもよい。例えば、頭部の向きの変化の速度は、ズームされた距離に正比例してもよい。代替的には、他のスケーリングを実施してもよい。また、ユーザがズーム速度に対する頭部の向きの速度のスケーリングを選択することができるような機構を含んでもよい。ブロック806、808、810、814、816および/または818は、806になるまで繰り返され、ユーザの位置の変化は検出されない。
ブロック820において、頭部のロールは、ユーザの頭部の位置および/または速度からも判定されてもよい。頭部のロールとは、ユーザが頭部を回転させて右耳を右肩に接近させるか、左耳を左肩に接近させるときの動きである。一実施形態では、頭部のロールの動きは、ブロック822において患者画像装置109をローリング運動で動かすことにマッピングされてもよい。例えば、患者画像装置109が傾斜した遠位端を含む実施形態では、患者画像装置109の長手方向軸に対して傾斜した遠位端を回転させることは、頭部のロールを用いて制御することができる。ブロック806、808、810、820、および822は、806になるまで繰り返され、ユーザの位置の変化は検出されない。
多くの場合、図9の手順900のフロー図に示すように、ユーザの頭部の位置および/または速度から得られる態様の2つ以上を組み合わせて、計算を組み合わせ、組み合わせた出力を提供するようにしてもよい。手順900は、メモリ120(図1)に格納された命令136を実行するプロセッサ118によって少なくとも部分的に実施されてもよい。また、図9の手順900に示されるステップの特定の順序は、限定ではなく例として提供される。したがって、手順900のステップは、本開示の範囲から逸脱することなく、図9に示される順序以外の順序で実行されてもよい。さらに、図9の手順900に示されるいくつかのステップは、互いに順番に実行されるのではなく、互いに並行して実行されてもよい。
頭部追跡の間、ブロック902において、ユーザの頭部姿勢が継続的に更新される。特に、ユーザの頭部のx方向、y方向、z方向およびロール、ピッチ、ならびにヨーは追跡され、更新される。更新の一部として、ブロック904において、並進速度はユーザの頭部姿勢から計算される。並進速度は、ユーザから所定の距離だけ離れた固定位置(例えば、ディスプレイ122上)に対して、ユーザの頭部の左右方向、上下方向、および内外方向の動きがどのくらい迅速に行われるかを示す。ブロック904における動作の実行と同時に、ブロック906において、ユーザの頭部姿勢からYZ方向速度(例えば、ユーザの頭部の頷き動作)が計算され、ブロック908において、ユーザの頭部姿勢からロールが抽出される。ブロック910において、ブロック904において判定された、計算された並進速度からのx座標が分離される。x座標は、固定位置(例えば、ディスプレイ122)に向かう、または固定位置から離れるユーザの頭部の動きを示す。ブロック912において、x座標がマッピングされ、その一例が図10Aに示される。マップは、x軸上のユーザの頭部の速度と、y軸上の患者画像撮影装置109の速度との二次元マップである。図10Aに示されるように、二次元マップは、それぞれの所定の速度に達するまで、ユーザの頭部の速度と患者画像撮影装置109の速度とが反比例することを示し、この2つの関係は、ユーザの頭部の速度が増加しても、患者画像撮影装置109の動きがないことを示す。他の実施形態では、マップは2つの速度間の異なる関係を示してもよいことが理解されよう。例えば、二次元マップではなく、この関係を線形、非線形、または他の関数としてマッピングすることができる。
ブロック904に戻ると、ブロック914において判定された、計算された並進速度からのz座標が、ブロック916においてマッピングされる。また、ブロック906からのYZ方向速度は、918で二次元的にマッピングされる。他の実施形態では、二次元マップではなく、この関係を線形、非線形、または他の関数としてマッピングすることができる。次に、ブロック916および918からの結果を組み合わせ、パン角速度を得る。また、ブロック908において抽出されたロールは、ロール角速度を得るためにブロック920においてマッピングされ、その一例が図10Bに示されている。図10Aのマップと同様に、図10Bのマップは、x軸上のユーザの頭部の速度と、y軸上の患者画像撮影装置109の速度とを含む。しかし、ここでは、画像撮影装置109の動きは、頭部の動きの速度の範囲に限定される。図9に戻ると、ブロック922において、画像撮影装置109の姿勢を判定するために、入出力速度、パン角速度、およびロール角速度の積分が計算される。判定されると、対応する信号が画像撮影装置109または対応するアーム106に供給され、画像撮影装置109を適切な位置に動かす。一実施形態では、画像撮影装置109および/またはロボットアーム106に供給される前に、ブロック922からの出力を構成するデータ点に、例えばデジタルフィルタ、ローパスフィルタ、指数平滑法などを用いた曲線フィッティングによってフィルタリング処理または平滑化処理を適用し、ノイズまたは他の望ましくないデータ点を除去してもよい。その結果、修正された対応する信号が出力され、それによって、ロボットアーム106または画像撮影装置109を比較的滑らかな動きで動かす。
図11は、さらに別の実施形態による、手順600のブロック612で説明された、識別されたユーザの位置と手術部位画像との関係に基づいて、ロボットアーム106、および特に、ロボットアーム106に連結された器具108の動きを制御するための、例示的なコンピュータ実装手順1100である。手順800は、メモリ120(図1)に格納された命令136を実行するプロセッサ118によって少なくとも部分的に実施されてもよい。また、図11の手順1100に示されるステップの特定の順序は、限定ではなく例として提供される。したがって、手順1100のステップは、本開示の範囲から逸脱することなく、図11に示される順序以外の順序で実行されてもよい。さらに、図11の手順1100に示されるいくつかのステップは、互いに順番に実行されるのではなく、互いに並行して実行されてもよい。
手順1100は、ブロック1102において、撮影されたユーザ画像からユーザの視線の位置を計算するのに適した、様々なアルゴリズムのうちのいずれかを使用して撮影されたユーザ画像に基づいて、例えば手順600のブロック602から、ユーザの位置を判定することを含む。ユーザの位置は、ユーザの眼または頭部の位置を計算するための眼追跡または頭部追跡アルゴリズムから判定されてもよい。器具を動かすための入力は、ブロック1104で受け付けられる。入力は、例えば、ユーザがボタンを押すこと、マウスに入力を提供すること、またはタッチスクリーン上でアイコンを選択することによって、入力装置138から受け付けてもよい。代替的に、入力は、撮影されたユーザ画像から検出されてもよい。例えば、ユーザに向けられた画像撮影装置128によって撮影された画像は、2連続でのまばたき、眼の持続的閉鎖、ウインクまたは別の眼球運動を含んでもよい、ユーザのまぶたの動きの静止画像および/または映像を撮影する。眼球運動はそれぞれ、把持顎を開閉する、ツールをオンまたはオフにするなどの所望の方法で器具108を動かすためのコマンドと関連付けられてもよい。別の実施形態では、ユーザに向けられた画像撮影装置128によって撮影された画像は、頷き、首振り、頭部の左右への動き、または他の頭部の動きを含んでもよい、ユーザの頭部の動きの静止画像および/または映像を撮影する。同様に、頭部の動きはそれぞれ、特定の方法で器具を動かすための、異なるコマンドに関連付けられてもよい。
一実施形態では、ブロック1106において、ユーザの入力が確認される。撮影されたユーザ画像から検出された入力が意図されたジェスチャであることを確認するために、ユーザの位置の判定は、ユーザの位置が閾値時間よりも長い時間、例えば、1秒以上にわたって保持されたかどうかの判定を含んでもよい。画像撮影装置128によって撮影された画像から検出されたユーザの動きを介して入力が提供される実施形態では、例えば、ユーザがボタンを押すこと、マウスに入力を提供すること、またはタッチスクリーン上でアイコンを選択することによって、入力の確認が行われてもよい。
受け付けられた入力に応じて、システム10は、ブロック1108において、器具を所望の方法で動かす。したがって、上述したように、例えば、把持顎の開閉を示すまばたき、ツールのオンまたはオフを示すための頷きなどの特定のジェスチャに関連する器具の動きが実行される。
本明細書に開示された実施形態は、本開示の例であり、様々な形態で具体化され得る。例えば、本明細書の特定の実施形態は別個の実施形態として説明されているが、本明細書の実施形態のそれぞれは、本明細書の他の実施形態の1つ以上と組み合わせることができる。本明細書に開示された特定の構造的および機能的詳細は、限定するものと解釈されるべきではなく、当業者に本開示を事実上適切に詳細な構造で様々に用いることを教示するための、特許請求の範囲の基本事項、および代表的な基本事項である。同様の参照番号は、図面の説明を通して同様のまたは同一の要素を指してもよい。
「一実施形態では」、「実施形態では」、「いくつかの実施形態では」、または「他の実施形態では」という表現は、それぞれ、本開示による同じまたは異なる実施形態の1つ以上を指してもよい。「AまたはB」の形式の表現は、「(A)、(B)、または(AおよびB)」を意味する。「A、B、またはCの少なくとも1つ」の形式の表現は、「(A);(B);(C);(AおよびB);(AおよびC);(BおよびC);または(A、B、およびC)」を意味する。「臨床医」という用語は、臨床医、または医師、看護師、技術者、医療補助者などの医療処置を行う任意の医療専門家を指してもよい。
本明細書に記載されたシステムはまた、1つ以上のコントローラを利用して様々な情報を受信し、受信した情報を変換して出力を生成してもよい。コントローラは、任意の種類の計算機器、計算回路、またはメモリに格納された一連の命令を実行することができる任意の種類のプロセッサまたは処理回路を含んでもよい。コントローラは、複数のプロセッサおよび/またはマルチコア中央処理装置(CPU)を含んでもよく、マイクロプロセッサ、デジタル信号プロセッサ、マイクロコントローラ、プログラマブル・ロジック・デバイス(PLD)、フィールド・プログラマブル・ゲート・アレイ(FPGA)などの任意の種類のプロセッサを含んでもよい。コントローラはまた、1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに1つ以上の方法および/またはアルゴリズムを実行させる、データおよび/または命令を格納するメモリを含んでもよい。
本明細書に記載された方法、プログラム、アルゴリズムまたはコードのいずれかは、プログラミング言語またはコンピュータプログラムに変換されるか、またはそれらによって表される。本明細書で使用する「プログラミング言語」および「コンピュータプログラム」という用語は、それぞれ、コンピュータへの命令を指定するために使用される任意の言語を含み、以下の言語およびその派生語を含む(ただしこれらに限定されない):アセンブラ、ベーシック、バッチファイル、BCPL、C、C+、C++、Delphi、Fortran、Java(登録商標)、JavaScript(登録商標)、マシンコード、オペレーティングシステムコマンド言語、Pascal、Perl、PL1、スクリプト言語、Visual Basic、それ自身がプログラムを指定するメタ言語、および全ての第1、第2、第3、第4、第5、またはそれ以上の世代のコンピュータ言語。また、データベースやその他のデータスキーマ、およびその他のメタ言語も含まれる。インタプリタ形式の言語、コンパイルされた言語、またはコンパイルされたアプローチとインタプリタ形式のアプローチの両方を使用する言語は区別されない。プログラムのコンパイルされたバージョンとソースバージョンとは区別されない。したがって、プログラミング言語が複数の状態(ソース、コンパイル、オブジェクト、またはリンクなど)で存在する可能性のあるプログラムの参照は、そのような状態の全ての参照である。プログラムの参照は、実際の命令および/またはそれらの命令の意図を包含してもよい。
本明細書に記載の方法、プログラム、アルゴリズムまたはコードのいずれも、1つ以上の機械可読媒体またはメモリに含まれてもよい。「メモリ」という用語は、プロセッサ、コンピュータ、またはデジタル処理装置などの機械によって読み取り可能な形式で情報を提供(例えば、格納および/または送信)する機構を含んでもよい。例えば、メモリは、読み出し専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュ・メモリ・デバイス、または任意の他の揮発性または不揮発性メモリ記憶装置を含んでもよい。その中に含まれるコードまたは命令は、搬送波信号、赤外線信号、デジタル信号、および他の同様の信号によって表すことができる。
前述の説明は本開示の例示に過ぎないことを理解されたい。当業者であれば、本開示から逸脱することなく、様々な代替例および変形例を考案することができる。したがって、本開示は、そのような代替例、変形例および変更例の全てを包含するように意図されている。添付の図面を参照して記載された実施形態は、本開示の特定の実施例を示すためにのみ提示される。上記および/または添付の特許請求の範囲と実質的に異なる他の要素、ステップ、方法および技術もまた、本開示の範囲内にあることが意図される。
Claims (14)
- 患者画像撮影装置を含むロボットアームと、
前記患者画像撮影装置によって取得された手術部位画像を表示するように構成された自動立体視ディスプレイと、
ユーザ画像を取得するように構成されたユーザ画像撮影装置と、
前記ユーザ画像内のユーザの少なくとも一部の位置を識別するように構成された画像処理装置と、
コントローラと
を備え、前記コントローラは、
前記自動立体視ディスプレイに対するユーザの視線の位置の変化を検出することと、
前記視線の位置の前記検出された変化に基づいて、前記患者画像撮影装置に連結された前記ロボットアームを動かすことを前記システムに行わせることと、
前記視線の位置の前記検出された変化が前記自動立体視ディスプレイ上に表示された前記手術部位の画像の視認領域の外にあるかどうかを判定することと、
前記視線の位置の前記検出された変化が前記視認領域の外にあることの判定に応答して、前記ユーザに通知を提供することであって、前記通知は、前記ユーザの前記視線が前記自動立体視ディスプレイ上に表示された前記手術部位の画像の前記視認領域の外にあることの聴覚指示または視覚指示を含む、ことと
を行うように構成されている、ロボット外科手術装置の制御のためのシステム。 - 前記自動立体視ディスプレイは、偶数画素列と奇数画素列とを含む複数の画素を含むようにさらに構成され、
各画素列は、対応する垂直レンズの下方に配置され、
前記偶数画素列に対応する前記垂直レンズは、前記偶数画素列を前記ユーザの第1の眼によって知覚可能とするように構成され、
前記奇数画素列に対応する前記垂直レンズは、前記奇数画素列を前記ユーザの第2の眼によって知覚可能とするように構成される、請求項1に記載のシステム。 - 前記コントローラは、前記複数の画素のうちの1つ以上の画素を調整することによって、前記自動立体視ディスプレイ上に表示される前記画像を調整し、前記ユーザによる自動立体視のビジュアルコンテンツの知覚を改善するようにさらに構成されている、請求項2に記載のシステム。
- 前記画像処理装置は、前記ユーザ画像撮影装置から取得された前記画像内の前記ユーザの前記第1の眼および前記第2の眼の位置を識別するようにさらに構成され、
前記コントローラは、前記ユーザの前記第1の眼の前記識別された位置または前記ユーザの前記第2の眼の前記識別された位置に部分的に基づいて、前記自動立体視ディスプレイ上に表示された前記複数の画素のうちの前記1つ以上の画素を調整するようにさらに構成されている、請求項3に記載のシステム。 - 前記患者画像撮影装置は、ビジュアルコンテンツを撮影して前記画像処理装置に送信する際に第1の所定のレイテンシを達成するように構成され、前記画像処理装置は、前記ビジュアルコンテンツを処理し、前記ユーザの前記視線の位置を判定し、前記患者画像撮影装置に制御信号を送信する際に、第2の所定のレイテンシを達成する、複数の並列実行サブプロセッサを備える、請求項1に記載のシステム。
- 前記コントローラは、前記ユーザの前記視線の前記位置の前記検出された変化に応答して、前記ロボットアームを動かす速度の大きさおよび方向を計算するようにさらに構成されている、請求項1に記載のシステム。
- 前記コントローラは、前記ユーザの前記視線が、閾値時間よりも長い時間にわたり前記位置で保持されているかどうかを判定し、前記視線が前記閾値時間より長い時間にわたり保持されていることに応答して、前記患者画像撮影装置に連結された前記ロボットアームを動かすようにさらに構成されている、請求項1に記載のシステム。
- 前記コントローラは、
前記患者画像撮影装置を動かすための入力を検出することと、
前記識別された位置の変化を判定することと、
前記識別された位置の変化に基づいて、頭部の位置および/または速度を判定することと、
前記判定された頭部の位置および/または速度に基づいて、頭部の傾き、頭部の向き、または頭部のロールのうちの1つ以上を判定することと
を行うようにさらに構成されている、請求項1に記載のシステム。 - 前記コントローラは、
前記識別された位置に基づいて頭部姿勢を判定することと、
前記判定された頭部姿勢に基づいて並進速度を計算することと、
前記計算された並進速度からのx座標をマッピングして入出力速度を得ることと、
前記計算された並進速度からのz座標をマッピングし、前記判定された頭部姿勢に基づいてYZ方向速度を計算し、前記計算されたYZ速度をマッピングしてパン角速度を得ることと、
前記判定された頭部姿勢からロール値を抽出することと、
前記抽出されたロール値をマッピングしてロール角速度を得ることと、
前記入出力速度、前記パン角速度、および前記ロール角速度に基づいて、前記患者画像撮影装置の姿勢を判定することと
を行うようにさらに構成されている、請求項1に記載のシステム。 - 前記ロボットアームは内視鏡を備える、請求項1に記載のシステム。
- 前記通知は、前記自動立体視ディスプレイ上に表示される矢印を含み、前記コントローラは、前記ユーザの前記視線の前記位置が前記視認領域の外にある程度に比例して、前記表示された矢印の長さを調節するようにさらに構成されている、請求項1に記載のシステム。
- 前記自動立体視ディスプレイは、
第1の組の画素および第2の組の画素を有するスクリーンと、
前記スクリーンの前面に配置されたレンチキュラレンズ層であって、前記レンチキュラレンズ層は、複数の第1の垂直レンズおよび複数の第2の垂直レンズを有し、前記複数の第1の垂直レンズは、対応する第1の組の画素の上に配置され、前記第1の組の画素のビジュアルコンテンツが前記ユーザの第1の眼によって知覚されることを可能にするために適した角度で導かれるように構成され、前記複数の第2の垂直レンズは、対応する第2の組の画素の上に配置され、前記第2の組の画素のビジュアルコンテンツが前記ユーザの第2の眼によって知覚されることを可能にするために適した角度で導かれるように構成されている、レンチキュラレンズ層と
を含む、請求項1に記載のシステム。 - 前記画像捕捉装置は、前記自動立体視ディスプレイに固定されている、請求項1に記載のシステム。
- 前記コントローラは、前記視線の位置の前記検出された変化が閾値時間よりも長い時間にわたり前記視認領域の外にあることの判定に応答して、前記通知を前記ユーザに提供することを前記システムに行わせるように構成されている、請求項1に記載のシステム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662345522P | 2016-06-03 | 2016-06-03 | |
US62/345,522 | 2016-06-03 | ||
JP2018561043A JP2019523663A (ja) | 2016-06-03 | 2017-05-26 | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
PCT/US2017/034619 WO2017210101A1 (en) | 2016-06-03 | 2017-05-26 | Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561043A Division JP2019523663A (ja) | 2016-06-03 | 2017-05-26 | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022036255A true JP2022036255A (ja) | 2022-03-04 |
Family
ID=60478970
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561043A Pending JP2019523663A (ja) | 2016-06-03 | 2017-05-26 | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
JP2022003615A Pending JP2022036255A (ja) | 2016-06-03 | 2022-01-13 | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561043A Pending JP2019523663A (ja) | 2016-06-03 | 2017-05-26 | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10980610B2 (ja) |
EP (1) | EP3463161A4 (ja) |
JP (2) | JP2019523663A (ja) |
CN (1) | CN109475387B (ja) |
AU (1) | AU2017275482A1 (ja) |
CA (1) | CA3023266A1 (ja) |
WO (1) | WO2017210101A1 (ja) |
Families Citing this family (144)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11871901B2 (en) | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US20140005640A1 (en) | 2012-06-28 | 2014-01-02 | Ethicon Endo-Surgery, Inc. | Surgical end effector jaw and electrode configurations |
US11504192B2 (en) | 2014-10-30 | 2022-11-22 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US10179407B2 (en) * | 2014-11-16 | 2019-01-15 | Robologics Ltd. | Dynamic multi-sensor and multi-robot interface system |
AU2017275482A1 (en) | 2016-06-03 | 2018-11-15 | Covidien Lp | Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display |
CA3052869A1 (en) * | 2017-02-17 | 2018-08-23 | Nz Technologies Inc. | Methods and systems for touchless control of surgical environment |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11510741B2 (en) | 2017-10-30 | 2022-11-29 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US11291510B2 (en) | 2017-10-30 | 2022-04-05 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11229436B2 (en) | 2017-10-30 | 2022-01-25 | Cilag Gmbh International | Surgical system comprising a surgical tool and a surgical hub |
US11311342B2 (en) | 2017-10-30 | 2022-04-26 | Cilag Gmbh International | Method for communicating with surgical instrument systems |
US11413042B2 (en) | 2017-10-30 | 2022-08-16 | Cilag Gmbh International | Clip applier comprising a reciprocating clip advancing member |
US10932806B2 (en) | 2017-10-30 | 2021-03-02 | Ethicon Llc | Reactive algorithm for surgical system |
US11564756B2 (en) | 2017-10-30 | 2023-01-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11317919B2 (en) | 2017-10-30 | 2022-05-03 | Cilag Gmbh International | Clip applier comprising a clip crimping system |
US11284936B2 (en) | 2017-12-28 | 2022-03-29 | Cilag Gmbh International | Surgical instrument having a flexible electrode |
US11844579B2 (en) | 2017-12-28 | 2023-12-19 | Cilag Gmbh International | Adjustments based on airborne particle properties |
US11633237B2 (en) | 2017-12-28 | 2023-04-25 | Cilag Gmbh International | Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures |
US11969142B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US11419630B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Surgical system distributed processing |
US20190201039A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Situational awareness of electrosurgical systems |
US11589888B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Method for controlling smart energy devices |
US11273001B2 (en) | 2017-12-28 | 2022-03-15 | Cilag Gmbh International | Surgical hub and modular device response adjustment based on situational awareness |
US11998193B2 (en) | 2017-12-28 | 2024-06-04 | Cilag Gmbh International | Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation |
US11058498B2 (en) | 2017-12-28 | 2021-07-13 | Cilag Gmbh International | Cooperative surgical actions for robot-assisted surgical platforms |
US10932872B2 (en) | 2017-12-28 | 2021-03-02 | Ethicon Llc | Cloud-based medical analytics for linking of local usage trends with the resource acquisition behaviors of larger data set |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US11786251B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US10987178B2 (en) | 2017-12-28 | 2021-04-27 | Ethicon Llc | Surgical hub control arrangements |
US11389164B2 (en) | 2017-12-28 | 2022-07-19 | Cilag Gmbh International | Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices |
US11540855B2 (en) | 2017-12-28 | 2023-01-03 | Cilag Gmbh International | Controlling activation of an ultrasonic surgical instrument according to the presence of tissue |
US11446052B2 (en) | 2017-12-28 | 2022-09-20 | Cilag Gmbh International | Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue |
US11376002B2 (en) | 2017-12-28 | 2022-07-05 | Cilag Gmbh International | Surgical instrument cartridge sensor assemblies |
US11291495B2 (en) | 2017-12-28 | 2022-04-05 | Cilag Gmbh International | Interruption of energy due to inadvertent capacitive coupling |
US10695081B2 (en) | 2017-12-28 | 2020-06-30 | Ethicon Llc | Controlling a surgical instrument according to sensed closure parameters |
US11559308B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method for smart energy device infrastructure |
US11056244B2 (en) | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks |
US11432885B2 (en) | 2017-12-28 | 2022-09-06 | Cilag Gmbh International | Sensing arrangements for robot-assisted surgical platforms |
US11132462B2 (en) | 2017-12-28 | 2021-09-28 | Cilag Gmbh International | Data stripping method to interrogate patient records and create anonymized record |
US11051876B2 (en) | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Surgical evacuation flow paths |
US10944728B2 (en) | 2017-12-28 | 2021-03-09 | Ethicon Llc | Interactive surgical systems with encrypted communication capabilities |
US11424027B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Method for operating surgical instrument systems |
US10966791B2 (en) | 2017-12-28 | 2021-04-06 | Ethicon Llc | Cloud-based medical analytics for medical facility segmented individualization of instrument function |
US11304763B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use |
US11744604B2 (en) | 2017-12-28 | 2023-09-05 | Cilag Gmbh International | Surgical instrument with a hardware-only control circuit |
US11109866B2 (en) | 2017-12-28 | 2021-09-07 | Cilag Gmbh International | Method for circular stapler control algorithm adjustment based on situational awareness |
US11423007B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Adjustment of device control programs based on stratified contextual data in addition to the data |
US11311306B2 (en) | 2017-12-28 | 2022-04-26 | Cilag Gmbh International | Surgical systems for detecting end effector tissue distribution irregularities |
US11602393B2 (en) | 2017-12-28 | 2023-03-14 | Cilag Gmbh International | Surgical evacuation sensing and generator control |
US10758310B2 (en) | 2017-12-28 | 2020-09-01 | Ethicon Llc | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
US11179175B2 (en) | 2017-12-28 | 2021-11-23 | Cilag Gmbh International | Controlling an ultrasonic surgical instrument according to tissue location |
US20190201146A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Safety systems for smart powered surgical stapling |
US11529187B2 (en) | 2017-12-28 | 2022-12-20 | Cilag Gmbh International | Surgical evacuation sensor arrangements |
US11166772B2 (en) | 2017-12-28 | 2021-11-09 | Cilag Gmbh International | Surgical hub coordination of control and communication of operating room devices |
US11308075B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity |
US11304699B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11317937B2 (en) | 2018-03-08 | 2022-05-03 | Cilag Gmbh International | Determining the state of an ultrasonic end effector |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11076921B2 (en) | 2017-12-28 | 2021-08-03 | Cilag Gmbh International | Adaptive control program updates for surgical hubs |
US11896322B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub |
US10892995B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11234756B2 (en) | 2017-12-28 | 2022-02-01 | Cilag Gmbh International | Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter |
US20190201087A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Smoke evacuation system including a segmented control circuit for interactive surgical platform |
US20190201113A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Controls for robot-assisted surgical platforms |
US11659023B2 (en) | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
US11324557B2 (en) | 2017-12-28 | 2022-05-10 | Cilag Gmbh International | Surgical instrument with a sensing array |
US11864728B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US11832899B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical systems with autonomously adjustable control programs |
US10892899B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Self describing data packets generated at an issuing instrument |
US11969216B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
US11253315B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Increasing radio frequency to create pad-less monopolar loop |
US11559307B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method of robotic hub communication, detection, and control |
US11419667B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location |
US11678881B2 (en) | 2017-12-28 | 2023-06-20 | Cilag Gmbh International | Spatial awareness of surgical hubs in operating rooms |
US11903601B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Surgical instrument comprising a plurality of drive systems |
US11666331B2 (en) | 2017-12-28 | 2023-06-06 | Cilag Gmbh International | Systems for detecting proximity of surgical end effector to cancerous tissue |
US11304720B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Activation of energy devices |
US11832840B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical instrument having a flexible circuit |
US11257589B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US11571234B2 (en) | 2017-12-28 | 2023-02-07 | Cilag Gmbh International | Temperature control of ultrasonic end effector and control system therefor |
US11464559B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US11147607B2 (en) | 2017-12-28 | 2021-10-19 | Cilag Gmbh International | Bipolar combination device that automatically adjusts pressure based on energy modality |
US10943454B2 (en) | 2017-12-28 | 2021-03-09 | Ethicon Llc | Detection and escalation of security responses of surgical instruments to increasing severity threats |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US11069012B2 (en) | 2017-12-28 | 2021-07-20 | Cilag Gmbh International | Interactive surgical systems with condition handling of devices and data capabilities |
US11464535B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Detection of end effector emersion in liquid |
US11818052B2 (en) | 2017-12-28 | 2023-11-14 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11278281B2 (en) | 2017-12-28 | 2022-03-22 | Cilag Gmbh International | Interactive surgical system |
US10849697B2 (en) | 2017-12-28 | 2020-12-01 | Ethicon Llc | Cloud interface for coupled surgical devices |
US11786245B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Surgical systems with prioritized data transmission capabilities |
US11672605B2 (en) | 2017-12-28 | 2023-06-13 | Cilag Gmbh International | Sterile field interactive control displays |
US11179208B2 (en) | 2017-12-28 | 2021-11-23 | Cilag Gmbh International | Cloud-based medical analytics for security and authentication trends and reactive measures |
US11304745B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical evacuation sensing and display |
US11410259B2 (en) | 2017-12-28 | 2022-08-09 | Cilag Gmbh International | Adaptive control program updates for surgical devices |
US11576677B2 (en) | 2017-12-28 | 2023-02-14 | Cilag Gmbh International | Method of hub communication, processing, display, and cloud analytics |
US11096693B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing |
US11364075B2 (en) | 2017-12-28 | 2022-06-21 | Cilag Gmbh International | Radio frequency energy device for delivering combined electrical signals |
US11202570B2 (en) | 2017-12-28 | 2021-12-21 | Cilag Gmbh International | Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems |
US11100631B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Use of laser light and red-green-blue coloration to determine properties of back scattered light |
US10898622B2 (en) | 2017-12-28 | 2021-01-26 | Ethicon Llc | Surgical evacuation system with a communication circuit for communication between a filter and a smoke evacuation device |
US11266468B2 (en) | 2017-12-28 | 2022-03-08 | Cilag Gmbh International | Cooperative utilization of data derived from secondary sources by intelligent surgical hubs |
US11160605B2 (en) | 2017-12-28 | 2021-11-02 | Cilag Gmbh International | Surgical evacuation sensing and motor control |
US11998291B2 (en) * | 2018-02-02 | 2024-06-04 | Covidien Lp | Robotic surgical systems with user engagement monitoring |
US11259830B2 (en) | 2018-03-08 | 2022-03-01 | Cilag Gmbh International | Methods for controlling temperature in ultrasonic device |
US11986233B2 (en) | 2018-03-08 | 2024-05-21 | Cilag Gmbh International | Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device |
US11534196B2 (en) | 2018-03-08 | 2022-12-27 | Cilag Gmbh International | Using spectroscopy to determine device use state in combo instrument |
US10973520B2 (en) | 2018-03-28 | 2021-04-13 | Ethicon Llc | Surgical staple cartridge with firing member driven camming assembly that has an onboard tissue cutting feature |
US11096688B2 (en) | 2018-03-28 | 2021-08-24 | Cilag Gmbh International | Rotary driven firing members with different anvil and channel engagement features |
US11471156B2 (en) | 2018-03-28 | 2022-10-18 | Cilag Gmbh International | Surgical stapling devices with improved rotary driven closure systems |
US11207067B2 (en) | 2018-03-28 | 2021-12-28 | Cilag Gmbh International | Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing |
US11259806B2 (en) | 2018-03-28 | 2022-03-01 | Cilag Gmbh International | Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein |
US11278280B2 (en) | 2018-03-28 | 2022-03-22 | Cilag Gmbh International | Surgical instrument comprising a jaw closure lockout |
US11197668B2 (en) | 2018-03-28 | 2021-12-14 | Cilag Gmbh International | Surgical stapling assembly comprising a lockout and an exterior access orifice to permit artificial unlocking of the lockout |
US11090047B2 (en) | 2018-03-28 | 2021-08-17 | Cilag Gmbh International | Surgical instrument comprising an adaptive control system |
US11219453B2 (en) | 2018-03-28 | 2022-01-11 | Cilag Gmbh International | Surgical stapling devices with cartridge compatible closure and firing lockout arrangements |
US11647888B2 (en) | 2018-04-20 | 2023-05-16 | Covidien Lp | Compensation for observer movement in robotic surgical systems having stereoscopic displays |
US10895757B2 (en) | 2018-07-03 | 2021-01-19 | Verb Surgical Inc. | Systems and methods for three-dimensional visualization during robotic surgery |
US11478318B2 (en) | 2018-12-28 | 2022-10-25 | Verb Surgical Inc. | Methods for actively engaging and disengaging teleoperation of a surgical robotic system |
US11464511B2 (en) | 2019-02-19 | 2022-10-11 | Cilag Gmbh International | Surgical staple cartridges with movable authentication key arrangements |
US11357503B2 (en) | 2019-02-19 | 2022-06-14 | Cilag Gmbh International | Staple cartridge retainers with frangible retention features and methods of using same |
US11298129B2 (en) | 2019-02-19 | 2022-04-12 | Cilag Gmbh International | Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge |
US11369377B2 (en) | 2019-02-19 | 2022-06-28 | Cilag Gmbh International | Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout |
US11317915B2 (en) | 2019-02-19 | 2022-05-03 | Cilag Gmbh International | Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers |
JP2020162916A (ja) * | 2019-03-29 | 2020-10-08 | ソニー株式会社 | 制御装置及びマスタスレーブシステム |
EP3952773A4 (en) * | 2019-04-12 | 2023-01-11 | Covidien LP | PROCESS AND SYSTEM FOR COLOR-BASED SEAM STRESS INDICATION |
US11204640B2 (en) | 2019-05-17 | 2021-12-21 | Verb Surgical Inc. | Methods for determining if teleoperation should be disengaged based on the user's gaze |
US11337767B2 (en) * | 2019-05-17 | 2022-05-24 | Verb Surgical Inc. | Interlock mechanisms to disengage and engage a teleoperation mode |
USD964564S1 (en) | 2019-06-25 | 2022-09-20 | Cilag Gmbh International | Surgical staple cartridge retainer with a closure system authentication key |
USD950728S1 (en) | 2019-06-25 | 2022-05-03 | Cilag Gmbh International | Surgical staple cartridge |
USD952144S1 (en) | 2019-06-25 | 2022-05-17 | Cilag Gmbh International | Surgical staple cartridge retainer with firing system authentication key |
US11612445B2 (en) | 2019-06-27 | 2023-03-28 | Cilag Gmbh International | Cooperative operation of robotic arms |
US11723729B2 (en) | 2019-06-27 | 2023-08-15 | Cilag Gmbh International | Robotic surgical assembly coupling safety mechanisms |
US11547468B2 (en) | 2019-06-27 | 2023-01-10 | Cilag Gmbh International | Robotic surgical system with safety and cooperative sensing control |
US11376083B2 (en) | 2019-06-27 | 2022-07-05 | Cilag Gmbh International | Determining robotic surgical assembly coupling status |
US11607278B2 (en) | 2019-06-27 | 2023-03-21 | Cilag Gmbh International | Cooperative robotic surgical systems |
US11413102B2 (en) | 2019-06-27 | 2022-08-16 | Cilag Gmbh International | Multi-access port for surgical robotic systems |
US11399906B2 (en) | 2019-06-27 | 2022-08-02 | Cilag Gmbh International | Robotic surgical system for controlling close operation of end-effectors |
US11369443B2 (en) | 2019-06-27 | 2022-06-28 | Cilag Gmbh International | Method of using a surgical modular robotic assembly |
US11571269B2 (en) | 2020-03-11 | 2023-02-07 | Verb Surgical Inc. | Surgeon disengagement detection during termination of teleoperation |
US11974829B2 (en) | 2021-06-30 | 2024-05-07 | Cilag Gmbh International | Link-driven articulation device for a surgical device |
US11931026B2 (en) | 2021-06-30 | 2024-03-19 | Cilag Gmbh International | Staple cartridge replacement |
CN115190284B (zh) * | 2022-07-06 | 2024-02-27 | 敏捷医疗科技(苏州)有限公司 | 一种图像处理方法 |
WO2024057821A1 (ja) * | 2022-09-14 | 2024-03-21 | ソニーグループ株式会社 | 表示装置および信号処理方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090245600A1 (en) * | 2008-03-28 | 2009-10-01 | Intuitive Surgical, Inc. | Automated panning and digital zooming for robotic surgical systems |
JP2010503899A (ja) * | 2006-09-20 | 2010-02-04 | アップル インコーポレイテッド | 3次元ディスプレイシステム |
US20100321482A1 (en) * | 2009-06-17 | 2010-12-23 | Lc Technologies Inc. | Eye/head controls for camera pointing |
JP2013022651A (ja) * | 2011-07-15 | 2013-02-04 | Olympus Corp | マニピュレータシステム |
WO2014155725A1 (ja) * | 2013-03-29 | 2014-10-02 | 国立大学法人 東京工業大学 | 内視鏡操作システムおよび内視鏡操作プログラム |
WO2015143067A1 (en) * | 2014-03-19 | 2015-09-24 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking |
JP2019523663A (ja) * | 2016-06-03 | 2019-08-29 | コヴィディエン リミテッド パートナーシップ | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002080773A1 (en) * | 2001-04-05 | 2002-10-17 | Johns Hopkins University | Augmentet reality apparatus and ct method |
GB0222265D0 (en) | 2002-09-25 | 2002-10-30 | Imp College Innovations Ltd | Control of robotic manipulation |
US8717423B2 (en) | 2005-05-09 | 2014-05-06 | Zspace, Inc. | Modifying perspective of stereoscopic images based on changes in user viewpoint |
KR100894874B1 (ko) * | 2007-01-10 | 2009-04-24 | 주식회사 리얼이미지 | 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법 |
IT1401669B1 (it) | 2010-04-07 | 2013-08-02 | Sofar Spa | Sistema di chirurgia robotizzata con controllo perfezionato. |
US8704879B1 (en) | 2010-08-31 | 2014-04-22 | Nintendo Co., Ltd. | Eye tracking enabling 3D viewing on conventional 2D display |
US10063996B2 (en) | 2011-02-11 | 2018-08-28 | Thermopylae Sciences and Technology | Methods and systems for providing geospatially-aware user-customizable virtual environments |
KR101887058B1 (ko) * | 2011-11-11 | 2018-08-09 | 엘지전자 주식회사 | 입체영상 처리 장치 및 입체영상 처리 장치의 전력 제어 방법 |
KR102105142B1 (ko) * | 2012-02-15 | 2020-04-27 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 입력 장치의 오퍼레이터가 볼 수 있는 디스플레이 영역으로 기구가 진입할 때 기구의 제어를 입력 장치로 전환하는 방법 |
US9498182B2 (en) | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US20140024889A1 (en) * | 2012-07-17 | 2014-01-23 | Wilkes University | Gaze Contingent Control System for a Robotic Laparoscope Holder |
US9533772B2 (en) * | 2014-07-09 | 2017-01-03 | Honeywell International Inc. | Visual search assistance for an occupant of a vehicle |
-
2017
- 2017-05-26 AU AU2017275482A patent/AU2017275482A1/en not_active Abandoned
- 2017-05-26 EP EP17807282.3A patent/EP3463161A4/en active Pending
- 2017-05-26 JP JP2018561043A patent/JP2019523663A/ja active Pending
- 2017-05-26 WO PCT/US2017/034619 patent/WO2017210101A1/en unknown
- 2017-05-26 US US16/306,685 patent/US10980610B2/en active Active
- 2017-05-26 CN CN201780032023.2A patent/CN109475387B/zh active Active
- 2017-05-26 CA CA3023266A patent/CA3023266A1/en not_active Abandoned
-
2021
- 2021-03-26 US US17/213,587 patent/US11547520B2/en active Active
-
2022
- 2022-01-13 JP JP2022003615A patent/JP2022036255A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010503899A (ja) * | 2006-09-20 | 2010-02-04 | アップル インコーポレイテッド | 3次元ディスプレイシステム |
US20090245600A1 (en) * | 2008-03-28 | 2009-10-01 | Intuitive Surgical, Inc. | Automated panning and digital zooming for robotic surgical systems |
US20100321482A1 (en) * | 2009-06-17 | 2010-12-23 | Lc Technologies Inc. | Eye/head controls for camera pointing |
JP2013022651A (ja) * | 2011-07-15 | 2013-02-04 | Olympus Corp | マニピュレータシステム |
WO2014155725A1 (ja) * | 2013-03-29 | 2014-10-02 | 国立大学法人 東京工業大学 | 内視鏡操作システムおよび内視鏡操作プログラム |
WO2015143067A1 (en) * | 2014-03-19 | 2015-09-24 | Intuitive Surgical Operations, Inc. | Medical devices, systems, and methods using eye gaze tracking |
JP2017512554A (ja) * | 2014-03-19 | 2017-05-25 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 視線追跡を使用する医療装置、システム、及び方法 |
JP2019523663A (ja) * | 2016-06-03 | 2019-08-29 | コヴィディエン リミテッド パートナーシップ | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20190298481A1 (en) | 2019-10-03 |
CN109475387A (zh) | 2019-03-15 |
AU2017275482A1 (en) | 2018-11-15 |
US10980610B2 (en) | 2021-04-20 |
JP2019523663A (ja) | 2019-08-29 |
CA3023266A1 (en) | 2017-12-07 |
EP3463161A1 (en) | 2019-04-10 |
US20210212793A1 (en) | 2021-07-15 |
WO2017210101A1 (en) | 2017-12-07 |
EP3463161A4 (en) | 2020-05-20 |
US11547520B2 (en) | 2023-01-10 |
CN109475387B (zh) | 2022-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022036255A (ja) | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 | |
US20240080433A1 (en) | Systems and methods for mediated-reality surgical visualization | |
JP7003985B2 (ja) | 医療用支持アームシステムおよび制御装置 | |
JP6709796B2 (ja) | 手術室及び手術部位認識 | |
JP2024514634A (ja) | 外科用データオーバーレイを制御するためのシステム及び方法 | |
EP2903551B1 (en) | Digital system for surgical video capturing and display | |
US9330477B2 (en) | Surgical stereo vision systems and methods for microsurgery | |
JP6939778B2 (ja) | 制御装置、制御方法及び手術システム | |
EP3265008B1 (en) | Surgical tool tracking to control surgical system | |
JP2023500053A (ja) | 外科手術仮想現実ユーザインターフェース | |
US11266294B2 (en) | Image processing device, endoscopic surgery system, and image processing method | |
JP7480477B2 (ja) | 医療用観察システム、制御装置及び制御方法 | |
JPWO2017145475A1 (ja) | 医療用情報処理装置、情報処理方法、医療用情報処理システム | |
CN105078580B (zh) | 手术机器人系统及其腹腔镜操作方法以及体感式手术用图像处理装置及其方法 | |
JP2022514635A (ja) | デュアル画像センサを有する内視鏡 | |
JP2006158452A (ja) | 医療用立体撮像装置 | |
JP2006158452A5 (ja) | ||
JP2020156800A (ja) | 医療用アームシステム、制御装置、及び制御方法 | |
JPWO2018096987A1 (ja) | 情報処理装置および方法、並びにプログラム | |
JP2024051017A (ja) | 医療用観察システム、医療用観察装置及び医療用観察方法 | |
US20220383531A1 (en) | System and method for determining depth perception in vivo in a surgical robotic system | |
WO2021125056A1 (en) | Method, apparatus and system for controlling an image capture device during surgery | |
KR101114234B1 (ko) | 수술 로봇 시스템 및 그 복강경 조작 방법 | |
WO2018043205A1 (ja) | 医療用画像処理装置、医療用画像処理方法、プログラム | |
JP7230923B2 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230707 |