JP4296278B2 - 医療用コクピットシステム - Google Patents
医療用コクピットシステム Download PDFInfo
- Publication number
- JP4296278B2 JP4296278B2 JP2004502860A JP2004502860A JP4296278B2 JP 4296278 B2 JP4296278 B2 JP 4296278B2 JP 2004502860 A JP2004502860 A JP 2004502860A JP 2004502860 A JP2004502860 A JP 2004502860A JP 4296278 B2 JP4296278 B2 JP 4296278B2
- Authority
- JP
- Japan
- Prior art keywords
- medical
- monitor
- cockpit
- imaging
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000003384 imaging method Methods 0.000 claims description 120
- 238000005259 measurement Methods 0.000 claims description 60
- 230000002093 peripheral effect Effects 0.000 claims description 34
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 29
- 238000012544 monitoring process Methods 0.000 claims description 15
- 238000001356 surgical procedure Methods 0.000 claims description 12
- 208000037656 Respiratory Sounds Diseases 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000008921 facial expression Effects 0.000 claims description 6
- 238000011282 treatment Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 239000012141 concentrate Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000005043 peripheral vision Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
ネットワーク型外科手術では、執刀医と患者とが同一サイトにいないため、執刀医はロボットを遠隔地より操縦して手術に当たることになる。このような場合、執刀医は術野の操作に集中すると同時に、手術室内の手術スタッフや計測機器から与えられる様々な情報を捕捉する必要がある。これを可能とするためには、術野だけではなく、術野に当たる医療ロボット周辺や第二の参加医療拠点の映像、音声などの情報が、術者の周辺に適切に配置される必要がある。
すなわち本発明は、診療室と遠隔地にいる執刀医とを有機的に結び付け、執刀医が必要とする診療室のあらゆる情報を遠隔地に伝送し、遠隔地にいる執刀医があたかも診療室で直接診療をしているような空間を作り出す医療用コクピットシステム、それに使用される医療用コクピット、この医療用コクピットシステムを実現するための診療室を提供することを目的とするものである。
特に本発明は、例えば没入型ディスプレイ装置とマルチスピーカ装置を用いて、周辺視野や立体音場を用いた情報提示を可能にして、執刀医の情報アクセスの円滑化を図ることを目的とする。
本実施の形態によれば、術者は、第2のモニタ手段を用いて術野の操作に集中することができ、また第1のモニタ手段を用いて診療室内の周辺視野状況を全体的に把握できるとともに、特に必要とする映像については局部映像として詳細を把握することができる。従って、本実施の形態では、術者が必要とする診療室の周辺情報を含めて把握することができるため、遠隔地にいる術者があたかも診療室にいるような空間を作り、術者が遠隔地にいながら直接診療をする環境を提供することができる。
本発明の第2の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、あらかじめ取得した患者の身体データまたは患者の固有データを蓄積したデータベース手段を有し、データベースに蓄積しているデータを診療室における各情報とともに送信するものである。
本実施の形態によれば、遠隔地にいる患者に関する診療に必要なデータをモニタ手段で見ながら遠隔診療をすることができる。
本発明の第3の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、診療室から送信される情報を、医療用コクピットの他に、他のコクピットに送信する送信手段を有するものである。
本実施の形態によれば、例えば診療室にいない診断医や他の術者が診療の進行に合わせて適切な診断をしながら診療室および術者にアドバイスし、又は手術に参加することができる。その他研修医などに対しての教育、見学サイトとしても利用することができる。
本発明の第4の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、身体情報撮像手段を、患部を複数の方向から撮像する複数の撮像装置から構成したものである。
本実施の形態によれば、遠隔地にいる術者が診療している部位を多角的に観察することができ、特に患部と術具との位置関係を正確に把握することができる。
本発明の第5の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、第1のモニタ手段を、操作部を操作する術者の位置において、水平方向視野角が120度から330度の範囲となるように配置したものである。
本実施の形態によれば、医療現場で得られる周辺情報に近い映像情報を得ることができる。なお、270度以上の範囲に第1のモニタ手段を配置すれば、人の周辺視野角をカバーすることができるためより好ましい。
本発明の第6の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、第2のモニタ手段として、主モニタ部と副モニタ部とを備え、主モニタ部では計測情報取得手段で取得する計測情報又は身体情報撮像手段からの映像を映し出し、副モニタ部では第1のモニタ手段に映し出したカタログ画面を選択的に切り換えて映し出すものである。
本実施の形態によれば、術者は手元の主モニタに集中した状態で、必要とする他の映像を手元で見ながら診療を行うことができる。
本発明の第7の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、第2のモニタ手段として、複数のモニタ部を備え、少なくとも一つのモニタ部は、当該診療システムの稼働中には映像を切り換えないものである。
本実施の形態によれば、例えば目を離すことができない映像を誤操作などにより切り換えてしまうことを完全に防止することができる。
本発明の第8の実施の形態は、第6又は第7の実施の形態による医療用コクピットシステムにおいて、副モニタ部でのカタログ画面の切り換えを、術者の発する音声、又は術者の動きや表情を検知して行うものである。
本実施の形態によれば、術者は執刀から手を離すことなく必要とする情報を手元で表示させることができる。
本発明の第9の実施の形態は、第6又は第7の実施の形態による医療用コクピットシステムにおいて、副モニタ部でのカタログ画面の切り換えを、フットスイッチを用いて行うものである。
本実施の形態によれば、術者は執刀から手を離すことなく必要とする情報を手元で表示させることができる。
本発明の第10の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、医療用コクピットには、術者の動きや表情を撮像するコクピット撮像手段と、術者の音声を取得するコクピット音声情報取得手段とを有し、コクピット撮像手段で撮像した映像とコクピット音声情報取得手段で取得した音声とをネットワークを介して診療室に送信するものである。
本実施の形態によれば、診療室側でも術者の状況を把握することができ、また術者の身振りや手振りまでを交えたトータルなコミュニケーションを可能とし、コミュニケーションを迅速円滑に行うことができる。
本発明の第11の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、診療室音声情報取得手段として、診療室におけるスタッフが保持するマイクロフォンとしたものである。
本実施の形態によれば、診療室におけるスタッフの音声を遠隔地にいる術者はリアルタイムで知ることができるので、診療室の様子を一層的確に知ることができるとともに、スタッフに適切な指示をすることができる。
本発明の第12の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、診療室音声情報取得手段として、患者の患部付近の音や患者の呼吸音を集音するマイクロフォンとしたものである。
本実施の形態によれば、遠隔地にいる術者は、診療の進行状況や、患者の異常を的確に判断することができる。
本発明の第13の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、第1のモニタ手段でのカタログ画面を、周辺視野映像で映し出される映像中の、当該カタログ画面で映し出す映像内容が映し出されている映像位置に配置したものである。
本実施の形態によれば、それぞれの局部映像は周辺視野映像中に対応して配置されるため、必要な局部映像を的確に判別することができる。
本発明の第14の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、第1のモニタ手段のカタログ画面に映し出す局部映像を、断続的に受信する映像情報としたものである。
本実施の形態によれば、必ずしも撮像手段の数に合わせた伝送回線を必要としないため、より多くの局部映像を取り扱うことが容易となり、術者に必要な映像情報を数多く提供することができる。
本発明の第15の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、音声再生手段をマルチスピーカ装置とし、診療室での本来の術者の位置で聞こえる音声の方向又は距離と同じ状態で医療用コクピット内の術者の位置で聞こえるように、立体音場として音声を再生するものである。
本実施の形態によれば、診療室の音声を高定位かつ臨場感のある音声で再現することができるので、術者があたかも診療室にいる感覚で音声を聞くことができる。
本発明の第16の実施の形態は、第1の実施の形態による医療用コクピットシステムにおいて、音声再生手段をマルチスピーカ装置とし、モニタ手段で映し出される周辺視野映像、又は局部映像で映し出される映像から音声が発生している場合には、映像の位置に対応して音声が聞こえるように、立体音場として音声を再生するものである。
本実施の形態によれば、例えば異常音を感じたときに反射的に必要とする映像情報を見ることができる。
本発明の第17の実施の形態は、第2の実施の形態による医療用コクピットシステムにおいて、データベース手段に記憶させているデータを身体情報撮像手段の映像に透過的に重畳させ、又は身体情報撮像手段の映像に近接表示させるものである。
本実施の形態によれば、患部例えばMRIのような断層画像を確認しながら的確な診療をすることができる。
本発明の第18の実施の形態による診療室は、ネットワークを介して医療用コクピットと接続され、患者の心電情報などの計測情報を取得する計測情報取得手段と、手術現場全体の状況を撮像する第1の診療室撮像手段と、手術室にいるスタッフ撮像用の第2の診療室撮像手段と、
患者の患部における手術音や患者の呼吸音を集音する第1の診療室音声情報取得手段と、
手術に携わる看護士などのスタッフの話声や発生音を集音する第2の診療室音声情報取得手段と、患者の患部を含む身体を撮像する身体情報撮像手段と、遠隔操作により患者を診療する診療手段と、術者の映像及び音声を再生するモニタと、を有する診療室であって、計測情報取得手段と第1の診療室撮像手段と第2の診療室撮像手段と第1の診療室音声情報取得手段と第2の診療室音声情報取得手段と身体情報撮像手段とからの情報を医療用コクピットに送信し、医療用コクピットからの術者の映像及び音声情報を受信し、医療用コクピットからの情報に基づいて診療手段を動作させるものである。
本実施の形態によれば、遠隔診療時に、診療室から離れた遠隔地にいる術者に必要とする診療室のあらゆる情報を的確に伝送することができる。また、診療室側でも術者の状況を把握することができ、また術者の身振りや手振りまでを交えたトータルなコミュニケーションを可能とし、コミュニケーションを迅速円滑に行うことができる。
本発明の第19の実施の形態による医療用コクピットは、ネットワークを介して診療室と接続され、診療室の映像を映し出すモニタ手段と、診療室の音声を再生する音声再生手段と、診療室の診療手段を遠隔操作する操作部と、術者の動きや表情を撮像するコクピット撮像手段と、術者の音声を取得するコクピット音声情報取得手段と、を有する医療用コクピットであって、モニタ手段として、操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、術者の手元に配置した第2のモニタ手段とを備え、第1のモニタ手段では、第1の診療室映像手段で撮像した診療室内の周辺視野映像を映し出すとともに、第2の診療室撮像手段で撮像した診療室内の複数箇所の局部映像を周辺視野映像の一部に重ねてそれぞれカタログ画面として映し出し、第2のモニタ手段では、計測情報取得手段で取得する計測情報又は身体情報撮像手段からの映像を映し出し、モニタ手段で映し出す映像と音声再生手段で再生する音声を診療室から受信し、操作部とコクピット撮像手段とコクピット音声情報取得手段とからの情報を診療室に送信するものである。
本実施の形態によれば、診療室から離れた遠隔地にいる術者があたかも診療室にいるような空間を作り、また、診療室側でも術者の状況を把握することができ、また術者の身振りや手振りまでを交えたトータルなコミュニケーションを可能とするため、術者が遠隔地にいながら直接診療をする環境を実現することができる。
本発明の第20の実施の形態は、第19の実施の形態による医療用コクピットにおいて、モニタ手段として、操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、術者の手元に配置した第2のモニタ手段とを備え、第1のモニタ手段では、診療室映像手段で撮像した診療室内の周辺視野映像を映し出すとともに、診療室内の複数箇所の局部映像を周辺視野映像の一部に重ねてそれぞれカタログ画面として映し出すものである。
本実施の形態によれば、術者は第1のモニタ手段を用いて診療室内の周辺視野状況を全体的に把握できるとともに、特に必要とする映像については局部映像として詳細を把握することができる。従って、本実施の形態では、術者が必要とする診療室の周辺情報を含めて把握することができるため、遠隔地にいる術者があたかも診療室にいるような空間を作り、術者が遠隔地にいながら直接診療をする環境を提供することができる。
本発明の第21の実施の形態は、第20の実施の形態による医療用コクピットにおいて、第1のモニタ手段でのカタログ画面を、周辺視野映像で映し出される映像中の、当該カタログ画面で映し出す映像内容が映し出されている映像位置に配置したものである。
本実施の形態によれば、それぞれの局部映像は周辺視野映像中に対応して配置されるため、周辺視野映像の中での位置を瞬時に把握でき、必要な局部映像を的確に判別することができる。
本発明の第22の実施の形態は、第20の実施の形態による医療用コクピットにおいて、第2のモニタ手段として、主モニタ部と副モニタ部とを備え、主モニタ部では計測情報取得手段で取得する計測情報又は身体情報撮像手段からの映像を映し出すものである。
本実施の形態によれば、術者は主モニタ部を用いて術野の操作に集中することができる。
本発明の第23の実施の形態は、第20の実施の形態による医療用コクピットにおいて、第2のモニタ手段として、主モニタ部と副モニタ部とを備え、副モニタ部では第1のモニタ手段に映し出したカタログ画面を選択的に切り換えて映し出すものである。
本実施の形態によれば、術者は主モニタ部を用いて術野の操作に集中することができる。
本発明の第24の実施の形態は、第19の実施の形態による医療用コクピットにおいて、複数の診療室と接続され、モニタ手段として、操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、術者の手元に配置した第2のモニタ手段とを備え、第2のモニタ手段で映し出している映像の診療室に対して、操作部からの情報を送信するものである。
本実施の形態によれば、ひとつの医療用コクピットから、複数の診療室にアクセスしている場合であっても、各診療室を間違いなくコントロールすることができ、術者は手元に配置した第2のモニタ手段を用いて術野の操作に集中することができる。
図1は本実施例による医療用コクピットシステムの全体構成を示すブロック図である。手術室においては、患者11は手術台10に寝ており、そのそばに手術具としての手術用マニピュレータまたはロボット(以下ロボットと記す。)12が配置されている。ロボット12はコントローラ23の指示に従って手術動作を行う。
手術室には、患者の心電図を取るために心電計などの心電情報を計測する計測情報取得装置13が設置され、その情報は計測情報サーバ21に蓄積される。手術室内には、手術室内の状況を撮像する撮像装置(手術室撮像手段)141と、患者11の患部を含む身体を撮像する撮像装置(身体情報撮像手段)142、143、144、145とを備えている。
ここで撮像装置141は、手術台10付近を中心とした手術現場全体の状況(周辺視野映像)を撮像する撮像装置以外に、局部映像を撮像する撮像装置として、手術室にいるスタッフ撮像用の撮像装置や、その他手術室内の各種装置や状況を局部映像として撮像する撮像装置を備えていることが好ましい。ここで、周辺視野映像を撮像する撮像装置141としては、全方位撮像が可能な全方位撮像装置が適している。ロボット12に設置された複数個の撮像装置142、143、144、145は、患者の患部を患者に対する種々の方向から撮像する。撮像装置142、143、144、145の数や位置は患部や手術の種類などにより適宜増減しかつ移動可能に配置する。これら撮像装置14で撮像された映像情報は映像情報サーバ22に蓄積される。
計測情報サーバ21、映像情報サーバ22、音声情報サーバ25およびデータベースサーバ26にそれぞれ蓄積された各種情報は統合サーバ30で統合され、ネットワーク40を介して執刀医(術者)のいる医療用コクピットに送信される。統合サーバ30は、計測情報サーバ21から供給される計測情報取得装置13からの情報、映像情報サーバ22から供給される複数個の撮像装置141、142、143、144、145からの映像情報、および、データベースサーバ26から供給されるデータベース16からの情報や撮像装置141、142、143、144、145からの映像情報を任意の周期で切り換えて出力するスイッチャ31、音声情報サーバ25からの音声情報を選択する音声情報抽出部32ならびに計測情報サーバ21、映像情報サーバ22、およびデータベースサーバ26から供給される映像情報をリアルタイム動画として抽出する動画抽出部33から構成されている。
医療用コクピットでは、ネットワーク40を介して送信された統合サーバ30からの情報を統合サーバ50で受信する。統合サーバ50はスイッチャ31で切り換えて得られた画像情報を順次蓄積する画像サーバ51、音声情報抽出部32からの音声情報を蓄積しかつマルチチャンネルに展開する音声情報ドライバ52、および動画抽出部33からの動画情報を蓄積する動画サーバ53から構成される。
画像サーバ51からの静止画は大画面のモニタ(第1のモニタ手段)73に示される。モニタ73は手術室全体(周辺視野)を表示する大画面部と、その中の所定の位置に計測情報サーバ21から供給される計測情報、映像情報サーバ22から供給される局部映像としての複数個の撮像装置142、143、144、145からの患者の患部映像情報、およびデータベースサーバ26から供給される映像情報をはめ込んで表示する複数の小画面部(カタログ画面)を有している。このときはめ込み用の小画面部は、通常の手術室における執刀医が各情報を見る位置に対応して配置される。したがって、執刀医は手術室から離れた遠隔位置にいるにもかかわらずあたかも実際の手術室の執刀位置にいるかのようにモニタ73における各画像配置を見ることができる。なお、はめ込み用の小画面部を、周辺視野映像で映し出される映像中の、当該小画面部で映し出す映像内容が映し出されている映像位置に配置してもよい。このように周辺視野映像の映像内容とリンクさせて小画面を配置することで、必要な小画面の映像を的確に判別することができる。また、小画面部に映し出す映像を、断続的に受信する映像情報とすることで、必ずしも撮像装置の数に合わせた伝送回線を必要とせず、より多くの局部映像を取り扱うことが容易となる。
動画サーバ53からの動画情報のうちメスの刃先を中心とした患部の動画情報は主モニタ(第2のモニタ手段)71に常時映出される。一方、動画サーバ53からの動画情報のうち執刀医が選択した動画情報または拡大画像は副モニタ(第2のモニタ手段)72に表示される。
主モニタ71および副モニタ72は執刀医の手元近辺に配置されており、執刀医はこれら主モニタ71および副モニタ72の画像を見ながら執刀位置63の操作部62を操作して手術を行う。執刀位置63には執刀医の話声および発生音を集音するマイクロフォン60が配置され、執刀医の話声または発生音に応じて副モニタ72に映出する動画情報または拡大画像を選択する。また、執刀医の動作を撮像する撮像装置61が医療用コクピットの適所に配置されており、執刀医が所定の動作をしたときに副モニタ72に映出する動画情報または拡大画像を選択するようにすることもできる。なお、執刀医の所定の動作をトリガ信号として利用する場合には、執刀医の動作を撮像する撮像装置61からの画像認識や、執刀医の身体に具備したトリガ発生装置の位置や動きの検出などがあるが、これらの執刀医の所定の動作をトリガ信号として利用する場合には、音声認識との併用が好ましい。また、執刀医の所定の動作の一つとしてフットスイッチを利用してもよい。なお、主モニタ71及び副モニタ72はそれぞれ複数設けてもよい。また主モニタ71については当該診療システムの稼働中には映像を切り換えないことが好ましい。
執刀医が操作した操作部62からの信号はサーバ54に供給され、ネットワーク40を介して手術室のコントローラ23に供給される。コントローラ23は操作部62の動きに応じてリアルタイムにロボット12を駆動し所定の手術動作を行う。
一方、マイクロフォン60で集音された執刀医の話声および撮像装置61で撮像された執刀医の様子はサーバ54に蓄積され、ネットワーク40を介して手術室のドライバ27に供給されモニタ17に映出される。したがって、手術室のスタッフは執刀医の様子を見ることができ、また、音声により執刀医の指示を受け取ることができる。
手術台10付近を中心とした手術現場全体の状況は撮像装置141で撮像され、その動画像信号Gは映像情報サーバ22に蓄積される。撮像装置142、143、144、145は患者11の患部を患者の各方向から撮像し、それぞれの動画像データC、D、E、Fは映像情報サーバ22に蓄積される。
計測情報取得装置13は患者の心電図を採取し、その波形図と波形に連動した音情報からなる計測情報Bを計測情報サーバ21に蓄積する。なお、計測情報取得装置13としては心電図以外の機器であってもよい。
データベース16からの情報Aはデータベースサーバ26に供給される。データベース16およびデータベースサーバ26は必ずしも手術室内にある必要がないことは前述したとおりである。
音声情報サーバ25、映像情報サーバ22、計測情報サーバ21およびデータベースサーバ26からの各出力は統合サーバ30で統合されネットワークを介して執刀医がいる遠隔地の医療用コクピットや診断医がいる遠隔地に送信される。
一方、ネットワークを介して医療用コクピットから送られてきた執刀医の手術動作は手術室のドライバ23に送信され、ロボット12のメス操作部121を駆動して手術を行う。また、執刀医の動作と音声はドライバ27に供給され、手術室内のモニタ17で再生される。
図に示すように一方(右側)のモニタ733には、例えばデータベース16の画像Aやその他の局部映像である画像Gがはめ込まれている。また中央のモニタ732には、患者の患部の画像C、D、E、F、他方(左側)のモニタ731には心電画像Bがはめ込まれており、心電図の波形に対応したピッピッという音も執刀医の位置からは心電画像Bのはめ込み位置から同時に再生されるように構成されている。これらのはめ込み画像は、ネットワークを介して送信されてきた動画像を統合サーバ50でスイッチングして切り換えた断続的な画像として順次映出される。したがって、モニタ731、732、733を見ることにより手術室の手術現場全体および手術に必要な各種の画像をすべて同時に得ることができる。
手術室の音声情報サーバ25から送信されてきた手術室の音は複数のサラウンドスピーカ76によりマルチチャンネルで再生さる。このように複数のサラウンドスピーカ76を用い、モニタ73で映し出される周辺視野映像、又は局部映像A、B、C、D、E、F、Gで映し出される映像から音声が発生している場合には、映像の位置に対応して音声が聞こえるように、立体音場として音声を再生することが好ましい。また複数のサラウンドスピーカ76を用い、手術室での本来の執刀医の位置で聞こえる音声の方向又は距離と同じ状態で医療用コクピット内の執刀医の位置で聞こえるように立体音場として音声を再生することが好ましい。
医療用コクピットには、さらに執刀医を撮像する複数の撮像装置61の話声を集音するマイクロフォン60および手術室のロボット12を操作するための操作部62が配置されている。撮像装置61、マイクロフォン60、および操作部62からの信号は、サーバ54に供給されネットワークを介して手術室に送信される。
手術現場や患者を撮像する撮像装置141、142、143、144、145が所定の位置にセッティングされ、計測情報装置13の電極が患者に取り付けられる。手術に携わるスタッフはマイクロフォン151を胸元などにクリップし、患者11の近くにはマイクロフォン152が配置される。あらかじめデータベース16に蓄積されている患者11の身体断層画像などの各種データはデータベースサーバ26に送られる。モニタ17は電源が投入され、遠隔地の医療用コクピットから送信される執刀医の映像を映出する。
撮像装置141、142、143、144、145の信号は映像情報サーバ22に、計測情報装置13からの映像および音は計測情報サーバ21に、マイクロフォン151、152からの音声は音声情報サーバ25に、データベース16からのデータはデータベースサーバ26にそれぞれ送られ、各サーバ21、22、25、26のデータは統合サーバ30で統合されネットワーク40を介して医療用コクピットに送信する。統合サーバ30は、計測情報サーバ21から供給される計測情報取得装置13からの情報、映像情報サーバ22から供給される複数個の撮像装置141、142、143、144、145からの映像情報、および、データベースサーバ26から供給されるデータベース16からの情報をスイッチャ31で任意の周期で切り換えて出力し、音声情報サーバ25からの音声情報を音声情報抽出部32で選択し、また、計測情報サーバ21、映像情報サーバ22、およびデータベースサーバ26から供給される映像情報を動画抽出部33で動画として抽出して送信する。なお、統合サーバ30で統合したデータをスイッチャ31、音声情報抽出部32および動画抽出部33を通さずにそのまま送信し、医療用コクピット側にスイッチャ31、音声情報抽出部32および動画抽出部33を設けて通してもよい。
また、統合サーバ50の音声情報ドライバ52でマルチチャンネル信号に展開された手術室内の音声情報は、サラウンドスピーカ76に供給され、医療用コクピット室内でマルチチャンネル再生され、医療用コクピット内の音声環境が手術室の音声環境と一致した状態で放声されるので、執刀医は手術室の執刀位置に立っているのと同じ環境でスタッフの声やレスピレータからの呼吸音など手術室内で発生する各種の音声を聞くことができる。
統合サーバ50の動画サーバ53からの動画情報のうち、メスの刃先を中心とした患部の拡大動画情報は、主モニタ71に常時映出される。一方、動画サーバ53からの動画情報のうち、執刀医が選択した拡大動画情報または拡大画像は副モニタ72に表示される。執刀医は主モニタ71の拡大画像と随時必要となる副モニタ72の拡大動画情報または拡大画像を見ながら操作部62を操作して手術を行う。操作部62の操作はサーバ54からネットワーク40を介して手術室のコントローラに供給され、コントローラ23がロボット12のメス操作部121を操作して手術を行う。このとき、データベース16から身体断層画像を取り出して主モニタ71に映出されている患部の画像に透過的に重畳したり、隣接して表示させることにより一層厳密な手術を行うことができる。
執刀医が通常手術中は手がふさがっているので、副モニタ72に再生させる拡大動画情報または拡大画像の選択は、マイクロフォン60が選択指令を受けたり、撮像装置が執刀医の特定の身体動作をキャッチしたとき、その他身振りによる指示によって選択できるようにすることが好ましい。たとえば、心電図を副モニタ72に拡大表示させたいときは、「シンデンズ」と発声するとサーバ53がその声により指示を受けて心電図の動画像を選択して副モニタ72に供給する。なお、フットスイッチからの操作や選択用の切り換えボタンを押すことにより切り換えるようにしてもよいことはもちろんである。身体動作による指示としては、執刀医の腕、手、若しくは指の移動、又は顔の特徴部である顎、鼻、眉、目、若しくは口の移動を認識し、これらの身体部位の移動方向を判別し、判別した結果をトリガ信号として用いてもよい。
操作部62の動きとロボットのメス操作部121の動きは連動するが、このとき伝送系の信号処理により操作部62の動きをメス操作部121の動きに変換するときの動き量をスケールダウンさせることにより、メス操作部121の微細な動きを実現したり、操作部62の手ぶれ成分を除去することができる。たとえば、操作部62の動きを100分の1にスケールダウンさせてメス操作部121を動かせば、操作部62を10cm動かしたときにメス操作部121は1mm動くことになり、微小な切開手術などを容易に行うことができる。また操作部62の5mm程度の手ぶれはメス操作部121では0.05mmの動きに変換され手術時の移動量としては無視できるので手ぶれは除去される。このスケール変更はサーバ54の操作つまみの設定変更やマイクロフォン60で指示するなどの方法で自由に変更することができる。
なお、以上の実施例においては、手術室と医療用コクピット間の2点間で情報の送受信を行う場合について説明したが、図4に示すように他の医療用コクピットとの間でも情報を送受信することもできる。
図に示すように、複数の診療室1、2、3が存在する場合、診療室1は医療用コクピット4、診療室2は医療用コクピット5、診療室3は医療用コクピット6からの指示によって手術などの診療を行うが、診療室1、2、3に対してコクピット7からは、例えば麻酔医師によるアドバイスが行われる。また診療室3のように、研修医用のコクピット8が、診療室3と医療用コクピット6との間でネットワーク接続されることで、研修医が医療用コクピット6にいる医師からの指導を受けながら診療室3を見学することもできる。
なお、医療用コクピットの操作部62を除いた構成を他の地点に設けることにより3地点以上の医療ステーション間で情報を送受信しながら遠隔手術をすることができるように構成してもよい。
また、図4に示すような例えば麻酔医師が用いるコクピット7でのモニタ構成は図5に示すような構成が好ましい。
図に示すように、複数の大画面のモニタ(第1のモニタ手段)73A、73B、73Cを備えるとともに、複数の主モニタ(第2のモニタ手段)71A、71B、71Cを備えている。大画面のモニタ(第1のモニタ手段)73A、73B、73Cでは、それぞれがそれぞれの手術室全体(周辺視野)を表示する画面でもよいが、それぞれの手術室の周辺視野映像を選択的に切り換えて表示してもよい。主モニタ(第2のモニタ手段)71A、71B、71Cでは、それぞれがそれぞれの手術室についての局部映像、特に患部の動画情報を表示することが好ましい。また、一つの医療用コクピットが複数の診療室と接続されている場合には、時分割でそれぞれの診療室をコントロールできるとともに、該当する診療室に対して操作部からの情報を正しく送信することが必要である。従って、少なくとも指示に関する、操作部からの情報、コクピット撮像手段からの情報、およびコクピット音声情報取得手段からの情報については、それぞれの診療室に対して選択的に時分割されて送信されるように構成することが好ましい。またこれらの術者の指示に関する情報は、術者の手元に配置した第2のモニタ手段で映し出している映像の診療室に対して送信されるように選択することが好ましい。
身体的特徴として、執刀医の腕、手、指、又は顔の特徴部である顎、鼻、眉、目、若しくは口を認識することも可能であるが、ここでは指を認識する場合で説明する。また、指自体を認識することも可能であるが、指先にLEDを取り付けることによって更に検出部の検出を容易に行うことができる。
図6では、2つの撮影装置61A、61BによってLEDの光源位置を検出する状態を示している。2つの撮影装置61A、61Bは、第2のモニター手段71、72よりも執刀医に近い位置に配置され、2つの撮影装置61A、61Bには、それぞれ魚眼レンズ161A、161Bが設けられている。
図において、カタログ画面A、B、C、D、E、Fは、既に図3において説明した第1のモニタ手段73内に映し出される小画面部を示している。また、光源101は第1の測定時間における測定位置を、光源102は第2の測定時間における測定位置を示している。なお、本実施例では平面視による二次元にて説明を行うが、実際には三次元として測定して検出を行う。また、本実施例では光源101と光源102の2点での測定位置を用いて説明するが、2点以上の複数の測定位置を検出し、これらの検出データから所定のデータを用いて測定してもよい。
また、撮影装置61A、61B及びカタログ画面A、B、C、D、E、Fのそれの位置データはあらかじめデータベースに登録している。
なお、上記実施例では、複数の光源101、102を用いて指示方向のカタログ画面A、B、C、D、E、Fを演算処理する方法を示したが、執刀医の位置を基準位置としてあらかじめ位置データを登録しておき、この基準位置データと光源の位置データから、指示方向のカタログ画面A、B、C、D、E、Fを演算処理する方法であってもよい。また、光源の測定位置を、例えば執刀医の音声又はフットスイッチなどの他のトリガ信号によって特定してもよい。また、実際の執刀に先立って計測した指示情報、又は実際の執刀中に計測した指示情報を記憶しておき、光源101、102からの測定データとカタログ画面A、B、C、D、E、Fとの位置関係を執刀医毎に記憶して、補正情報として用いることも有効である。このような補正情報を用いることで、執刀医毎によって生じる、指示方向の実際の位置関係からのずれを修正して、執刀医が希望するカタログ画面A、B、C、D、E、Fを選択することができる。
また、上記実施例の説明においては、各種のサーバを用い、これらのサーバにデータを蓄積する場合で説明したが、サーバでは必ずしもデータ蓄積をせずに、データの送受信を制御する機能を有するものであってもよい。
また、上記実施例の説明においては、ロボットは医療用コクピットからの指示情報に基づいて動作を行う説明をしたが、例えば危険回避機能などの自律性機能をロボットが備えていてもよい。また、ロボットは、あらかじめデータベースに登録されたプログラムであって、各種の現実の検出データに基づいて動作する基本動作プログラムに従って動作を行い、術者からはこの基本動作プログラムの選択や手動操作への切り換えを指示する場合であってもよい。
また、上記実施例で説明したモニタ手段は、二次元映像として説明したが、立体的な映像、三次元映像であることがより好ましい。
また、上記実施例で説明した診療室音声情報取得手段としては、ロボット12に設置された複数個の撮像装置142、143、144、145に設けたマイクロフォンであってもよい。なお、ロボット12のアーム先端側に撮影手段やマイクロフォンを設けることで、ロボット制御に用いるデータを利用して位置認識を正確に行うことができる。
また、上記実施例では人を対象とした診療システムとして説明したが、動物を対象とした診療システムとしてもそのまま利用できる。
また、本実施例でサーバに蓄積された診療に関する映像や音声データは、その後データを再生することで、研修医の模擬研修データとして利用することもできる。
また、図6に示す実施例において、魚眼レンズを用いて説明したが、広角レンズや複眼レンズを用いてもよく、またはこれらのレンズを用いなくても人工網膜チップやその他の一般的な撮像素子による撮影装置であってもよい。
また、執刀医の身体動作による指示を、手術室側の表示手段で表示することが好ましい。
また、上記実施例では、執刀医の身体動作による指示によってカタログ画面A、B、C、D、E、Fを選択する場合を説明したが、執刀医の身体動作による指示によって、診断又は治療箇所などの特定の患部位置を選択することもでき、特定の患部位置を選択する構成にあっては、特に手術室側でこの選択内容を表示手段で表示することが好ましい。
また、診療中の画像、音声データなどを記録して蓄積することが可能なので、医療技術の向上に資することができる。
また、本発明のような医療用コクピットシステムを実現することで、過疎地や行楽地などどこでも高度医療を受けられるといった普遍的医療サービスの提供を実現でき、移動による身体的及び経済的な患者負担の軽減を図れ、協業による医療技術の普及促進を図れ、診療現場が海外であっても自国の言葉による医療受診を受けることができ、どこでも主治医の治療が受けられることによる医師と患者の信頼関係を利用でき、時間の壁を超越して、例えば夜中の診療を現在昼間の場所で受けることができるなど多大の効果を奏することができる。
Claims (24)
- ネットワークを介して診療室と医療用コクピットとを接続し、
前記診療室には、
患者の心電情報などの計測情報を取得する計測情報取得手段と、
手術現場全体の状況を撮像する第1の診療室撮像手段と、
手術室にいるスタッフ撮像用の第2の診療室撮像手段と、
患者の患部における手術音や患者の呼吸音を集音する第1の診療室音声情報取得手段と、
手術に携わる看護士などのスタッフの話声や発生音を集音する第2の診療室音声情報取得手段と、
患者の患部を含む身体を撮像する身体情報撮像手段と、
遠隔操作により患者を診療する診療手段とを有し、
前記医療用コクピットには、
前記計測情報取得手段、前記第1の診療室撮像手段、前記第2の診療室撮像手段、及び前記身体情報撮像手段からの映像を映し出すモニタ手段と、
前記第1の診療室音声情報取得手段及び前記第2の診療室音声情報取得手段からの音声情報を再生する音声再生手段と、
前記診療手段を遠隔操作する操作部と、
を有する医療用コクピットシステムであって、
前記モニタ手段として、
前記操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、前記術者の手元に配置した第2のモニタ手段とを備え、
前記第1のモニタ手段では、
前記第1の診療室映像手段で撮像した診療室内の周辺視野映像を映し出すとともに、
前記第2の診療室撮像手段で撮像した診療室内の複数箇所の局部映像を前記周辺視野映像の一部に重ねてそれぞれカタログ画面として映し出し、
前記第2のモニタ手段では、前記計測情報取得手段で取得する計測情報又は前記身体情報撮像手段からの映像を映し出す
ことを特徴とする医療用コクピットシステム。 - あらかじめ取得した患者の身体データまたは患者の固有データを蓄積したデータベース手段を有し、前記データベースに蓄積しているデータを診療室における各情報とともに送信することを特徴とする請求項1に記載の医療用コクピットシステム。
- 診療室から送信される情報を、前記医療用コクピットの他に、他のコクピットに送信する送信手段を有する請求項1に記載の医療用コクピットシステム。
- 前記身体情報撮像手段を、患部を複数の方向から撮像する複数の撮像装置から構成したことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記第1のモニタ手段を、前記操作部を操作する術者の位置において、水平方向視野角が120度から330度の範囲となるように配置したことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記第2のモニタ手段として、主モニタ部と副モニタ部とを備え、前記主モニタ部では前記計測情報取得手段で取得する計測情報又は前記身体情報撮像手段からの映像を映し出し、前記副モニタ部では前記第1のモニタ手段に映し出したカタログ画面を選択的に切り換えて映し出すことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記第2のモニタ手段として、複数のモニタ部を備え、少なくとも一つの前記モニタ部は、当該診療システムの稼働中には映像を切り換えないことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記副モニタ部でのカタログ画面の切り換えを、術者の発する音声、又は術者の動きや表情を検知して行うことを特徴とする請求項6又は請求項7に記載の医療用コクピットシステム。
- 前記副モニタ部でのカタログ画面の切り換えを、フットスイッチを用いて行うことを特徴とする請求項6又は請求項7に記載の医療用コクピットシステム。
- 前記医療用コクピットには、術者の動きや表情を撮像するコクピット撮像手段と、術者の音声を取得するコクピット音声情報取得手段とを有し、前記コクピット撮像手段で撮像した映像と前記コクピット音声情報取得手段で取得した音声とをネットワークを介して前記診療室に送信することを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記診療室音声情報取得手段として、診療室におけるスタッフが保持するマイクロフォンとしたことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記診療室音声情報取得手段として、患者の患部付近の音や患者の呼吸音を集音するマイクロフォンとしたことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記第1のモニタ手段でのカタログ画面を、周辺視野映像で映し出される映像中の、当該カタログ画面で映し出す映像内容が映し出されている映像位置に配置したことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記第1のモニタ手段のカタログ画面に映し出す局部映像を、断続的に受信する映像情報としたことを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記音声再生手段をマルチスピーカ装置とし、診療室での本来の術者の位置で聞こえる音声の方向又は距離と同じ状態で前記医療用コクピット内の術者の位置で聞こえるように、立体音場として音声を再生することを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記音声再生手段をマルチスピーカ装置とし、前記モニタ手段で映し出される周辺視野映像、又は局部映像で映し出される映像から音声が発生している場合には、前記映像の位置に対応して音声が聞こえるように、立体音場として音声を再生することを特徴とする請求項1に記載の医療用コクピットシステム。
- 前記データベース手段に記憶させているデータを前記身体情報撮像手段の映像に透過的に重畳させ、又は前記身体情報撮像手段の映像に近接表示させることを特徴とする請求項2に記載の医療用コクピットシステム。
- ネットワークを介して医療用コクピットと接続され、
患者の心電情報などの計測情報を取得する計測情報取得手段と、
手術現場全体の状況を撮像する第1の診療室撮像手段と、
手術室にいるスタッフ撮像用の第2の診療室撮像手段と、
患者の患部における手術音や患者の呼吸音を集音する第1の診療室音声情報取得手段と、
手術に携わる看護士などのスタッフの話声や発生音を集音する第2の診療室音声情報取得手段と、
患者の患部を含む身体を撮像する身体情報撮像手段と、
遠隔操作により患者を診療する診療手段と、
前記術者の映像及び音声を再生するモニタと、
を有する診療室であって、
前記計測情報取得手段、前記第1の診療室撮像手段、前記第2の診療室撮像手段、前記第1の診療室音声情報取得手段、前記第2の診療室音声情報取得手段、及び前記身体情報撮像手段からの情報を前記医療用コクピットに送信し、前記医療用コクピットからの前記術者の映像及び音声情報を受信し、前記医療用コクピットからの情報に基づいて前記診療手段を動作させることを特徴とする診療室。 - ネットワークを介して診療室と接続され、
前記診療室の映像を映し出すモニタ手段と、
前記診療室の音声を再生する音声再生手段と、
前記診療室の診療手段を遠隔操作する操作部と、
術者の動きや表情を撮像するコクピット撮像手段と、
術者の音声を取得するコクピット音声情報取得手段と、
を有する医療用コクピットであって、
前記モニタ手段として、
前記操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、前記術者の手元に配置した第2のモニタ手段とを備え、
前記第1のモニタ手段では、
前記第1の診療室映像手段で撮像した診療室内の周辺視野映像を映し出すとともに、
前記第2の診療室撮像手段で撮像した診療室内の複数箇所の局部映像を前記周辺視野映像の一部に重ねてそれぞれカタログ画面として映し出し、
前記第2のモニタ手段では、前記計測情報取得手段で取得する計測情報又は前記身体情報撮像手段からの映像を映し出し、
前記モニタ手段で映し出す映像と前記音声再生手段で再生する音声を前記診療室から受信し、前記操作部と前記コクピット撮像手段と前記コクピット音声情報取得手段とからの情報を前記診療室に送信する
ことを特徴とする医療用コクピット。 - 前記モニタ手段として、前記操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、前記術者の手元に配置した第2のモニタ手段とを備え、前記第1のモニタ手段では、前記診療室映像手段で撮像した診療室内の周辺視野映像を映し出すとともに、診療室内の複数箇所の局部映像を前記周辺視野映像の一部に重ねてそれぞれカタログ画面として映し出すことを特徴とする請求項19に記載の医療用コクピット。
- 前記第1のモニタ手段でのカタログ画面を、周辺視野映像で映し出される映像中の、当該カタログ画面で映し出す映像内容が映し出されている映像位置に配置したことを特徴とする請求項20に記載の医療用コクピット。
- 前記第2のモニタ手段として、主モニタ部と副モニタ部とを備え、前記主モニタ部では前記計測情報取得手段で取得する計測情報又は前記身体情報撮像手段からの映像を映し出すことを特徴とする請求項20に記載の医療用コクピット。
- 前記第2のモニタ手段として、主モニタ部と副モニタ部とを備え、前記副モニタ部では前記第1のモニタ手段に映し出したカタログ画面を選択的に切り換えて映し出すことを特徴とする請求項20に記載の医療用コクピット。
- 複数の診療室と接続され、前記モニタ手段として、前記操作部を操作する術者から所定距離を持たせて配置した第1のモニタ手段と、前記術者の手元に配置した第2のモニタ手段とを備え、前記第2のモニタ手段で映し出している映像の前記診療室に対して、前記操作部からの情報を送信することを特徴とする請求項19に記載の医療用コクピット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002131944 | 2002-05-07 | ||
JP2002131944 | 2002-05-07 | ||
PCT/JP2003/005729 WO2003094768A1 (fr) | 2002-05-07 | 2003-05-07 | Systeme de visualisation medicale |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2003094768A1 JPWO2003094768A1 (ja) | 2005-09-08 |
JP4296278B2 true JP4296278B2 (ja) | 2009-07-15 |
Family
ID=29416625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004502860A Expired - Lifetime JP4296278B2 (ja) | 2002-05-07 | 2003-05-07 | 医療用コクピットシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20060052684A1 (ja) |
JP (1) | JP4296278B2 (ja) |
CN (1) | CN100379391C (ja) |
AU (1) | AU2003234910B2 (ja) |
CA (1) | CA2484825A1 (ja) |
WO (1) | WO2003094768A1 (ja) |
Families Citing this family (77)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040162637A1 (en) | 2002-07-25 | 2004-08-19 | Yulun Wang | Medical tele-robotic system with a master remote station with an arbitrator |
US6925357B2 (en) * | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
US7813836B2 (en) | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
US20050204438A1 (en) | 2004-02-26 | 2005-09-15 | Yulun Wang | Graphical interface for a remote presence system |
US20050278195A1 (en) * | 2004-05-28 | 2005-12-15 | Getz Harry L | Method for scheduling viewing of a live medical procedure |
US8077963B2 (en) | 2004-07-13 | 2011-12-13 | Yulun Wang | Mobile robot with a head-based movement mapping scheme |
WO2007005555A2 (en) | 2005-06-30 | 2007-01-11 | Intuitive Surgical | Indicator for tool state communication in multi-arm telesurgery |
US8273076B2 (en) | 2005-06-30 | 2012-09-25 | Intuitive Surgical Operations, Inc. | Indicator for tool state and communication in multi-arm robotic telesurgery |
US9198728B2 (en) | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
WO2007074440A2 (en) * | 2005-12-27 | 2007-07-05 | Given Imaging Ltd. | System and method for displaying the location of an in-vivo device |
US8849679B2 (en) | 2006-06-15 | 2014-09-30 | Intouch Technologies, Inc. | Remote controlled robot system that provides medical images |
US8113844B2 (en) * | 2006-12-15 | 2012-02-14 | Atellis, Inc. | Method, system, and computer-readable recording medium for synchronous multi-media recording and playback with end user control of time, data, and event visualization for playback control over a network |
US20080235052A1 (en) * | 2007-03-19 | 2008-09-25 | General Electric Company | System and method for sharing medical information between image-guided surgery systems |
US8265793B2 (en) | 2007-03-20 | 2012-09-11 | Irobot Corporation | Mobile robot for telecommunication |
JP5203628B2 (ja) * | 2007-04-19 | 2013-06-05 | 株式会社東芝 | 医療現場表示システム |
US9160783B2 (en) | 2007-05-09 | 2015-10-13 | Intouch Technologies, Inc. | Robot system that operates through a network firewall |
US10875182B2 (en) | 2008-03-20 | 2020-12-29 | Teladoc Health, Inc. | Remote presence system mounted to operating room hardware |
US8179418B2 (en) | 2008-04-14 | 2012-05-15 | Intouch Technologies, Inc. | Robotic based health care system |
US8170241B2 (en) | 2008-04-17 | 2012-05-01 | Intouch Technologies, Inc. | Mobile tele-presence system with a microphone system |
US9193065B2 (en) | 2008-07-10 | 2015-11-24 | Intouch Technologies, Inc. | Docking system for a tele-presence robot |
US9842192B2 (en) | 2008-07-11 | 2017-12-12 | Intouch Technologies, Inc. | Tele-presence robot system with multi-cast features |
US8340819B2 (en) | 2008-09-18 | 2012-12-25 | Intouch Technologies, Inc. | Mobile videoconferencing robot system with network adaptive driving |
US8996165B2 (en) | 2008-10-21 | 2015-03-31 | Intouch Technologies, Inc. | Telepresence robot with a camera boom |
US8463435B2 (en) * | 2008-11-25 | 2013-06-11 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
US9138891B2 (en) * | 2008-11-25 | 2015-09-22 | Intouch Technologies, Inc. | Server connectivity control for tele-presence robot |
DE102008059456B3 (de) * | 2008-11-28 | 2010-08-26 | Siemens Aktiengesellschaft | Verfahren zur Anzeige von Bilddaten und Vorrichtung zur Durchführung des Verfahrens |
US8849680B2 (en) | 2009-01-29 | 2014-09-30 | Intouch Technologies, Inc. | Documentation through a remote presence robot |
US8897920B2 (en) | 2009-04-17 | 2014-11-25 | Intouch Technologies, Inc. | Tele-presence robot system with software modularity, projector and laser pointer |
US20110172550A1 (en) | 2009-07-21 | 2011-07-14 | Michael Scott Martin | Uspa: systems and methods for ems device communication interface |
US8384755B2 (en) | 2009-08-26 | 2013-02-26 | Intouch Technologies, Inc. | Portable remote presence robot |
US11399153B2 (en) | 2009-08-26 | 2022-07-26 | Teladoc Health, Inc. | Portable telepresence apparatus |
US11154981B2 (en) | 2010-02-04 | 2021-10-26 | Teladoc Health, Inc. | Robot user interface for telepresence robot system |
US8670017B2 (en) * | 2010-03-04 | 2014-03-11 | Intouch Technologies, Inc. | Remote presence system including a cart that supports a robot face and an overhead camera |
WO2011116332A2 (en) * | 2010-03-18 | 2011-09-22 | SPI Surgical, Inc. | Surgical cockpit comprising multisensory and multimodal interfaces for robotic surgery and methods related thereto |
WO2011116335A2 (en) | 2010-03-18 | 2011-09-22 | SPI Surgical, Inc. | Introducer device |
US8935005B2 (en) | 2010-05-20 | 2015-01-13 | Irobot Corporation | Operating a mobile robot |
US8918213B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US10343283B2 (en) | 2010-05-24 | 2019-07-09 | Intouch Technologies, Inc. | Telepresence robot system that can be accessed by a cellular phone |
US10808882B2 (en) | 2010-05-26 | 2020-10-20 | Intouch Technologies, Inc. | Tele-robotic system with a robot face placed on a chair |
US20120010475A1 (en) * | 2010-07-06 | 2012-01-12 | Markus Rossmeier | Integrated display and control for multiple modalities |
US9264664B2 (en) | 2010-12-03 | 2016-02-16 | Intouch Technologies, Inc. | Systems and methods for dynamic bandwidth allocation |
US8930019B2 (en) | 2010-12-30 | 2015-01-06 | Irobot Corporation | Mobile human interface robot |
US9323250B2 (en) | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
WO2012103525A2 (en) | 2011-01-28 | 2012-08-02 | Intouch Technologies, Inc. | Interfacing with a mobile telepresence robot |
DE102011004370A1 (de) * | 2011-02-18 | 2012-08-23 | Siemens Aktiengesellschaft | Gelenkarm mit Feststellmechanismus |
US10769739B2 (en) | 2011-04-25 | 2020-09-08 | Intouch Technologies, Inc. | Systems and methods for management of information among medical providers and facilities |
JP6305915B2 (ja) * | 2011-04-28 | 2018-04-04 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 候補セグメンテーション画像を選択するための個別ボタンを備える医用画像装置 |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
US9098611B2 (en) | 2012-11-26 | 2015-08-04 | Intouch Technologies, Inc. | Enhanced video interaction for a user interface of a telepresence network |
WO2012174539A1 (en) * | 2011-06-17 | 2012-12-20 | Parallax Enterprises | Consolidated healthcare and resource management system |
US8836751B2 (en) | 2011-11-08 | 2014-09-16 | Intouch Technologies, Inc. | Tele-presence system with a user interface that displays different communication links |
US9251313B2 (en) | 2012-04-11 | 2016-02-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US8902278B2 (en) | 2012-04-11 | 2014-12-02 | Intouch Technologies, Inc. | Systems and methods for visualizing and managing telepresence devices in healthcare networks |
US9361021B2 (en) | 2012-05-22 | 2016-06-07 | Irobot Corporation | Graphical user interfaces including touchpad driving interfaces for telemedicine devices |
WO2013176762A1 (en) | 2012-05-22 | 2013-11-28 | Intouch Technologies, Inc. | Social behavior rules for a medical telepresence robot |
WO2014052802A2 (en) | 2012-09-28 | 2014-04-03 | Zoll Medical Corporation | Systems and methods for three-dimensional interaction monitoring in an ems environment |
CN102920458B (zh) * | 2012-11-06 | 2014-07-30 | 杨华明 | 多功能开放式呼吸代谢测定装置 |
EP2918079A1 (en) | 2012-11-09 | 2015-09-16 | Thomson Licensing | Handheld display zoom feature |
KR101645624B1 (ko) * | 2013-06-12 | 2016-08-05 | 삼성전자주식회사 | 의료 정보 제공 방법 및 장치 |
US20150161331A1 (en) * | 2013-12-04 | 2015-06-11 | Mark Oleynik | Computational medical treatment plan method and system with mass medical analysis |
CN104966450A (zh) * | 2015-06-30 | 2015-10-07 | 成都冠禹科技有限公司 | 一种医疗手术教学设备 |
KR102508831B1 (ko) | 2016-02-17 | 2023-03-10 | 삼성전자주식회사 | 원격 이미지 전송 시스템, 디스플레이 장치 및 그의 가이드 표시 방법 |
CN109069221B (zh) * | 2016-04-28 | 2021-09-17 | 索尼公司 | 控制装置、控制方法、程序和声音输出系统 |
US11862302B2 (en) | 2017-04-24 | 2024-01-02 | Teladoc Health, Inc. | Automated transcription and documentation of tele-health encounters |
US10483007B2 (en) | 2017-07-25 | 2019-11-19 | Intouch Technologies, Inc. | Modular telehealth cart with thermal imaging and touch screen user interface |
US11636944B2 (en) | 2017-08-25 | 2023-04-25 | Teladoc Health, Inc. | Connectivity infrastructure for a telehealth platform |
CN107582168A (zh) * | 2017-09-04 | 2018-01-16 | 合肥龙图腾信息技术有限公司 | 一种远程同步手术系统 |
JP6355146B1 (ja) * | 2017-11-20 | 2018-07-11 | 株式会社Medi Plus | 医療安全システム |
US20200337798A1 (en) * | 2017-11-20 | 2020-10-29 | Medi Plus Inc. | Medical safety system |
JP7244926B2 (ja) * | 2017-12-26 | 2023-03-23 | 慶應義塾 | 手術映像表示装置、手術映像表示装置の制御方法、及びプログラム |
CN108392269B (zh) * | 2017-12-29 | 2021-08-03 | 广州布莱医疗科技有限公司 | 一种手术辅助方法及手术辅助机器人 |
US10617299B2 (en) | 2018-04-27 | 2020-04-14 | Intouch Technologies, Inc. | Telehealth cart that supports a removable tablet with seamless audio/video switching |
CN108498182A (zh) * | 2018-05-07 | 2018-09-07 | 贵州民族大学 | 一种基于物联网的远程手术辅助系统 |
CN108577945A (zh) * | 2018-05-16 | 2018-09-28 | 张拴军 | 神经阻滞麻醉机器人智能辅助系统 |
US11520608B1 (en) * | 2021-12-20 | 2022-12-06 | Biosense Webster (Israel) Ltd. | Method and system for selectively cloning computer display monitors |
CN118245853B (zh) * | 2024-05-28 | 2024-07-19 | 云上广济(贵州)信息技术有限公司 | 医疗云数据的分类分级识别方法和系统 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0775439B2 (ja) * | 1985-10-23 | 1995-08-09 | クラリオン株式会社 | 立体音場再生装置 |
JPH0685784B2 (ja) * | 1987-03-30 | 1994-11-02 | 株式会社東芝 | 手術用3次元ピユ−ア−システム |
US5441047A (en) * | 1992-03-25 | 1995-08-15 | David; Daniel | Ambulatory patient health monitoring techniques utilizing interactive visual communication |
JPH07184923A (ja) * | 1993-12-28 | 1995-07-25 | Hitachi Ltd | 遠隔微細手術支援装置 |
JP2716010B2 (ja) * | 1995-07-31 | 1998-02-18 | 日本電気株式会社 | 遠隔制御医用通信システム |
EP1027459A1 (en) * | 1997-07-14 | 2000-08-16 | Abbott Laboratories | Telemedicine |
FI980704A (fi) * | 1998-03-27 | 1999-09-28 | Nokia Networks Oy | Menetelmä lähettää synkronoitu kanava radiolähettimessä |
JPH11313272A (ja) * | 1998-04-27 | 1999-11-09 | Sharp Corp | 映像音声出力装置 |
JP2001000449A (ja) * | 1999-06-22 | 2001-01-09 | Olympus Optical Co Ltd | 医療用システム |
JP3608448B2 (ja) * | 1999-08-31 | 2005-01-12 | 株式会社日立製作所 | 治療装置 |
JP2000116670A (ja) * | 1999-11-12 | 2000-04-25 | Olympus Optical Co Ltd | 手術用顕微鏡 |
JP2001290881A (ja) * | 2000-04-10 | 2001-10-19 | Net Hospital Inc | 医療診療レポート配信システムおよびそれに使用する入力装置 |
JP3877507B2 (ja) * | 2000-08-30 | 2007-02-07 | オリンパス株式会社 | 医療機器通信システム |
JP2002078772A (ja) * | 2000-09-06 | 2002-03-19 | Sukeyuki Kawaguchi | 筋トーヌス或いは筋電位センサーによる遠隔的コンピュータ画像診断及びレーザー鍼治療器 |
WO2002033641A2 (en) * | 2000-10-16 | 2002-04-25 | Cardionow, Inc. | Medical image capture system and method |
CN1291749A (zh) * | 2000-11-16 | 2001-04-18 | 上海交通大学 | 家庭远程医疗监护和咨询智能系统 |
-
2003
- 2003-05-07 CN CNB038101750A patent/CN100379391C/zh not_active Expired - Fee Related
- 2003-05-07 US US10/512,076 patent/US20060052684A1/en not_active Abandoned
- 2003-05-07 JP JP2004502860A patent/JP4296278B2/ja not_active Expired - Lifetime
- 2003-05-07 CA CA002484825A patent/CA2484825A1/en not_active Abandoned
- 2003-05-07 AU AU2003234910A patent/AU2003234910B2/en not_active Ceased
- 2003-05-07 WO PCT/JP2003/005729 patent/WO2003094768A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN1649548A (zh) | 2005-08-03 |
WO2003094768A1 (fr) | 2003-11-20 |
CA2484825A1 (en) | 2003-11-20 |
AU2003234910A1 (en) | 2003-11-11 |
AU2003234910B2 (en) | 2008-07-17 |
CN100379391C (zh) | 2008-04-09 |
US20060052684A1 (en) | 2006-03-09 |
JPWO2003094768A1 (ja) | 2005-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4296278B2 (ja) | 医療用コクピットシステム | |
US20220336078A1 (en) | System and method for tracking a portion of the user as a proxy for non-monitored instrument | |
US20210030275A1 (en) | System and method for remotely adjusting sound acquisition sensor parameters | |
US11297285B2 (en) | Dental and medical loupe system for lighting control, streaming, and augmented reality assisted procedures | |
US8953837B2 (en) | System and method for performing an automatic and self-guided medical examination | |
JP7145327B2 (ja) | 自動内視鏡ビデオ拡張 | |
US20210205027A1 (en) | Context-awareness systems and methods for a computer-assisted surgical system | |
CN117981001A (zh) | 对手术室内的对象和人员进行集线器识别和跟踪以叠加根据用户需求定制的数据 | |
JP6888620B2 (ja) | 制御装置、制御方法、プログラム及び音出力システム | |
JP2023502927A (ja) | 外科手術環境において使用するための視認システム | |
WO2012111012A1 (en) | System and method for performing an automatic and self-guided medical examination | |
CN114555000A (zh) | 用于音频信号布置和投射的系统和方法 | |
JP2024514642A (ja) | 非モニタリング器具の代替としてユーザの一部を追跡するためのシステム及び方法 | |
US12027257B2 (en) | Beacon-based systems and methods for generating medical facility metrics | |
CN117480569A (zh) | 作为非监测器械的代理来跟踪用户的一部分的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4296278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
EXPY | Cancellation because of completion of term |