JPWO2012081194A1 - 医療支援装置、医療支援方法および医療支援システム - Google Patents

医療支援装置、医療支援方法および医療支援システム Download PDF

Info

Publication number
JPWO2012081194A1
JPWO2012081194A1 JP2012507522A JP2012507522A JPWO2012081194A1 JP WO2012081194 A1 JPWO2012081194 A1 JP WO2012081194A1 JP 2012507522 A JP2012507522 A JP 2012507522A JP 2012507522 A JP2012507522 A JP 2012507522A JP WO2012081194 A1 JPWO2012081194 A1 JP WO2012081194A1
Authority
JP
Japan
Prior art keywords
unit
information
medical support
viewpoint
superimposition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012507522A
Other languages
English (en)
Inventor
増田 健司
健司 増田
幸 堀井
幸 堀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2012081194A1 publication Critical patent/JPWO2012081194A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Business, Economics & Management (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

遠隔地にいる者を含む複数人が、あたかも同じ空間上に存在し、現時点での遠隔地にいる人の動作が目の前の現実物体と適切な位置関係で表現する。医療支援装置は、ユーザの視界に応じた撮影信号を取得する撮像部(101)と、撮像部の姿勢を取得する姿勢観測部(102)と、撮像部の位置を取得する位置観測部(103)と、撮影信号からユーザの操作および当該操作が行われた操作位置を検出する操作検出部(104)と、操作の種類に応じて、重畳内容および操作位置に関する情報を含む重畳情報を生成する重畳情報構成部(105)と、撮像部(101)の位置と姿勢から表示する画面を生成する表示管理部(112)と、撮像部(101)の視点画像に表示管理部(112)が生成した画面を重畳して表示する表示部(113)と、重畳情報を他の医療支援装置に送信する通信部(111)とを備える。

Description

本発明は遠隔地にいる医師等のユーザを含む複数人で、他のユーザの視界や、操作の共有を行い医療支援行う医療支援システムに関するものである。
近年、高齢化社会への問題が大きく取りざたされている。特に地方では高齢化の進行が著しく、高齢化は都市部より過疎地域で加速すると推測されている。また一方、高度な医療設備を備えた医療機関は都市部に集中する傾向にあり、現状充分な医療を受けるには都市部の医療機関への依存を余儀なくされている。しかし、それは患者本人のみならず家族にとっても、肉体的・経済的・時間的に大きな負担を強いる。そこで、情報通信機器を活用した遠隔医療が注目されている。遠隔医療はテレビ会議装置の利用が一般的である。このテレビ会議装置は、コンピュータに接続された周辺機器があり、複数の医師が遠隔地の在宅患者の医療データをリアルタイムで入手し、画像と音声を用いた双方向通信により会話しながら診察している。このような従来の技術としては、例えば特許文献1に記載されたものが知られている。特許文献1は複数の医者が遠隔地の在宅患者の医療データをリアルタイムで入手し、画像と音声を用いた双方向通信により、会話しながら診察する在宅医療支援システムを提供するものである。これは遠隔診断において有用である。治療においても従来技術は応用可能である。特に遠隔地にいる権威の指揮の下患者の情報共有や、手術のアドバイスといった応用が期待される。
特開平8−215158号公報
しかしながら、従来のテレビ会議システムでは、表示装置の位置は固定されており、且つその画面は有限の大きさの平面である。会議の参加者は、表示装置の画面を確認する際、視線方向が拘束される事となる。また、遠隔からテレビ会議に参加している有識者が、現場で処置を行っている参加者に対し、画像をベースに助言を行う場合、処置を行っている会議参加者は、画面確認を伴う助言を聞くという動作と処置とを交互に繰り返すこととなり、患部から視線をそらさなければならない。これは円滑な処置を行う必要がある場合では、処置の妨げとなり問題となる。
本発明は、前記従来の課題を解決するもので、遠隔地にいる医師等のユーザを含む複数人で、他のユーザの視界や、操作の共有を行い医療支援行う医療支援システムを提供することを目的とする。
前記従来の課題を解決するために、本発明に係る医療支援装置は、ユーザの視界または操作をユーザ間で共有するための医療支援装置であって、ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、前記撮像部の姿勢に関する情報を取得する姿勢観測部と、前記撮像部の撮影位置に関する情報を取得する位置観測部と、前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出する操作検出部と、前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理する視点管理部と、前記操作検出部が検出した前記操作に基づいて重畳内容を決定するとともに、前記視点管理部が管理する信号および情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成する重畳情報構成部と、前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する表示管理部と、前記重畳情報を少なくとも一つの他の医療支援装置に送信する通信部とを備える。
ここで、前記操作位置に関する情報は、前記姿勢に関する情報、前記撮影位置に関する情報、および前記操作検出部が検出する操作位置とは、別の独立した系で表される。
この構成により、遠隔地にいる医師等のユーザを含む複数人で、他のユーザの視界や操作を共有することにより、視線方向の拘束や円滑な作業への妨げが軽減される。また、遠隔者の助言は実際の患部ベースに行う事で、より分かりやすい指示提示が可能となる。
また、前記通信部は、前記他の医療支援装置で撮影された撮影信号を受信し、前記医療支援装置は、さらに、任意の位置と、当該任意の位置の近傍に存在する2以上の前記他の医療支援装置の位置を示す情報に基づいて仮想視点情報を生成する仮想視点生成部と、前記任意の位置の近傍に存在する2以上の前記他の医療支援装置から受信した前記撮影信号、および前記仮想視点情報に基づいて前記任意の位置を仮想視点とする画像を生成する画像合成部とを備えるようにしてもよい。
この構成により、遠隔地にいる医師を含む複数人で、任意の位置での医師の視界や操作を共有することにより、視線方向の拘束や円滑な作業への妨げが軽減される。また、遠隔者の助言は実際の患部ベースに行う事で、より分かりやすい指示提示が可能となる。
また、前記重畳情報は、当該重畳情報に含まれる重畳内容の表示の態様を示す表示属性情報と対応づけて管理され、前記医療支援装置は、さらに、前記表示管理部で生成された前記重畳内容が合成された画像を、前記表示属性情報に応じて加工する画面調整部を備えるようにしてもよい。
この構成により、視野の任意の地点を拡大表示する、特定の種類の重畳情報以外を非表示にするといった、より詳細な表示制御が可能となる。
また、本発明に係る医療支援装置の各機能ブロックはコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体あるいはインターネット等の伝送媒体を介して配信することができる。
また、本発明は、集積回路であるLSIで実現してもよい。これらの各機能ブロックは個別に1チップ化されていてもよいし、一部または全てを含むように1チップ化されていてもよい。ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSIまたはウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。
本発明の医療支援装置によれば、遠隔地の人が、あたかも同じ空間上に存在し、現時点での遠隔の人の動作が目の前の現実物体と適切な位置関係で表現される事により、より直感的な指示や、協調作業を行う事が可能となる。
図1は、本発明の実施の形態1における医療支援装置の構成を示す機能ブロック図である。 図2は、実施の形態1における屋内の医療支援装置と他のノードの関係を示した図である。 図3は、実施の形態1における3次元空間の座標変換を示した図である。 図4は、実施の形態1における操作検出部が発行する操作検出情報を示した図である。 図5は、実施の形態1における重畳情報記憶部により記録される重畳情報を示した図である。 図6Aは、実施の形態1におけるユーザから要求を受け重畳情報を作成し視点画像と重畳情報を重畳して表示する処理を示したフローチャートである。 図6Bは、実施の形態1におけるユーザから要求を受け重畳情報を作成し視点画像と重畳情報を重畳して表示する処理を示したフローチャートである。 図7は、実施の形態1における視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。 図8は、本発明の実施の形態2における医療支援装置の機能ブロック図である。 図9は、実施の形態2における仮想視点を生成する処理を示したフローチャートである。 図10は、実施の形態2における視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。 図11は、実施の形態2における視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。 図12は、実施の形態2における仮想的に位置している視点からの視点画像を表示する処理を示したフローチャートである。 図13は、本発明の実施の形態3における医療支援装置の機能ブロック図である。 図14は、本発明の実施の形態3における表示属性の種別を示した図である。 図15Aは、本発明の実施の形態3における表示属性の一例を示した図である。 図15Bは、本発明の実施の形態3における表示属性の一例を示した図である。 図16は、本発明の実施の形態3における設定された表示属性を表示画面に反映する処理を示したフローチャートである。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における医療支援装置の構成を示す機能ブロック図である。
医療支援装置100は、医師等ユーザの視界または操作をユーザ間で共有するための装置であり、図1に示すように撮像部101、姿勢観測部102、位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、重畳情報記憶部110、通信部111、表示管理部112および表示部113を備える。また、重畳情報構成部105は、重畳位置決定部106および重畳画像生成部107により構成される。医療支援装置100は、例えば、撮像部101を小型カメラ、位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、通信部111、表示管理部112に対応するプログラムをそれぞれ記録するメモリ、ハードディスクなど記録媒体(図示せず)と、重畳情報記憶部110に対応するメモリ、ハードディスクなど記録媒体(図示せず)と、メモリに記録されたプログラムを実行するCPU(図示せず)などのプロセッサを有するコンピュータ、表示部113をヘッドマウント型のディスプレイにより構成して実現することができる。また、医療支援装置100は、前述したすべての要素をヘッドマウントディスプレイに内蔵することにより実現することもできる。以下の説明では、上記構成要素のうち一部の要素を搭載した医療支援装置100をサブセットと呼ぶ。例えば、前述した医療支援装置100の構成例においては、表示部113であるヘッドマウントディスプレイを保持しない医療支援装置100をサブセットと呼ぶことができる。図1において、他のノード130は、医療支援装置100と同等もしくは、そのサブセットの装置である。
上述の例では、位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、通信部111、表示管理部112はそれぞれ、プログラムとして、コンピュータが備えるメモリ、ハードディスクなどの記録媒体(図示せず)に格納されCPUにて、実行される構成を例示した。しかしながら、これに限定される必要はなく、例えば位置観測部103、操作検出部104、重畳情報構成部105、視点管理部108、座標変換部109、重畳情報記憶部110、通信部111、表示管理部112の一部又は全部を図示しない専用の処理回路(例えばLSI)などを用いてコンピュータを構成しても良い。このような構成を採用した場合、専用の処理回路(図示せず)を用いて実現した動作に対応するプログラムは、コンピュータが備えるメモリ、ハードディスクなどの記録媒体に格納する必要は必ずしもない。
また、このコンピュータはヘッドマウントディスプレイに内蔵できる程度に小型であることが望ましい。
またこのコンピュータは、無線、または有線にて通信(例えば送信、受信など)するための通信回路(図示せず)を備える。
通信部111は、例えば、この通信回路とこの通信回路を制御するためのプログラムを記録するメモリ、ハードディスクなど記録媒体(図示せず)を有する構成を有する。または通信回路を制御するためのプログラムをCPUにて実行したときの動作を図示しない専用の処理回路(例えばLSI)などを用いて構成をしても良い。
このような構成を採用した場合、専用の処理回路(図示せず)を用いて実現した動作に対応する通信回路を制御するためのプログラムは、コンピュータが備えるメモリ、ハードディスクなどの記録媒体に格納する必要は必ずしもない。
他のノード130はユーザ120とは別の人物により装着されている。他のノード130と、他のノード130が装着する装置は、ユーザ120と医療支援装置100関係と同様である。各ノードが互いに通信することにより、視野に重畳する情報や視界を共有し医療作業を支援する。
図2は、屋内での医療支援装置100と他のノード130の関係を示した図である。ここで上段は屋内を斜め上方から見下ろした図であり、下段は屋内を真上から見下ろした図である。本実施の形態1では、屋内の手術室を想定しており、ユーザは屋内及び遠隔地にいる医師とする。図2に示す屋内の中央には、患者である人物を載せる寝台が配置される。しかし、ここでは簡略化のため図示はしない。
図1に示すユーザ120にあたる医師などのユーザ201、202は、医療支援装置100に相当する医療支援装置211、212をそれぞれ装着している。この様に、手術室内にいる医師などのユーザ201、202は、ユーザに装着される医療支援装置211、212により、医療支援装置100の機能を利用する。
医療支援装置213、214、215はユーザに装着されない医療支援装置であり、医療支援装置100と同等もしくは、そのサブセットの装置である。医療支援装置100は、必ずしも人と対となって装着されるものとは限らない。ユーザに装着されない医療支援装置213、214、215は屋内に任意の地点に設置可能である。本実施の形態1では、中央(寝台がある地点)を取り囲む様に211〜215が設置される。このとき213は、天井に対して鉛直下方に設置され、図2の下図の様に他のユーザに装着される医療支援装置211、212、214、215を含む屋内全体が見渡せるように設置する。ここで本実施の形態1では、屋内全体を見渡せる様に213を設置したがこれに限るものではない。撮影可能なポイントが多い事は望ましいが、ノードの増加により処理量も増大するため状況に応じて設置可能な数を任意に指定できるものとする。
医療支援装置100において、各ノードは互いに装着する医療支援装置100の表示部113上に表示する文字列などの情報を少なくとも1つ以上共有し、それぞれの視野に重畳表示する。それぞれの視野上に表示するということは、表示する情報を各ノードの視点を原点とする固有の座標空間上に配置することを意味する。よって、それぞれのノードによって、同じ情報であっても、その配置場所を表す座標値の表現は異なる。よって、1つの情報を共有するためには、互いに共通な座標系上で情報管理が必要となる。
また、各ノードが人の頭部等に装着された医療支援装置100である場合、各ノードは医療作業に伴って頭部の位置は刻々と変化する事になる。そのため、ノードの頭部位置を時間毎に把握するためには、時系列に沿って変化する固有座標系の追跡も同時に必要となる。つまり、ある時点での固有座標系の座標値から共通座標系の座標値を取得する、もしくはその逆を実行できる必要がある。ここで、固有座標系と共通座標系の関係について説明する。
図3は、一般的な3次元空間の座標変換を説明するための図である。図3において、ある時刻における共通座標系301と、ある時刻からN時間経過後の固有座標系A302間の変換行列Qnを知りたいとする。ここで、固有座標系B303は、個別で自由に動く事が出来る独立した座標系である場合、固有座標系B203のn時間後に固有座標系Aに重なるときを考える。図に示される様に、共通座標系301において、固有座標系B303と共通座標系301との位置関係は変換行列Q0で表される。また、固有座標系B303とn時間後の固有座標系A302との位置関係は、固有座標系B303が固有座標系A302に移動する平行移動量p、回転角度θにより変換行列をQabと表す事ができる。このとき、(1)Qn=Q0+Qab、(2)Qab=P(θ、p)、という関係が成立する。
つまり、n時間時点の固有座標系A302と共通座標系301との位置関係Qnは、共通座標系301と、固有座標系の初期位置(固有座標系B303)との位置関係を示すQ0と、固有座標系の初期位置からの並行移動量pおよび、回転角度θ変化量により求めることができる。
次に本発明の実施の形態1における医療支援装置の機能ブロック図を用いて各ブロックとブロック間の関係を説明する。
撮像部101は、ユーザの視界に応じた撮影を行って撮影信号を取得する。すなわち、撮像部101は、ユーザ120の視線方向にある光学像、ユーザ120またはユーザ120の体の一部の光学像を電気的信号に変換した撮影信号を取得する。撮影信号は、操作検出部104、視点管理部108の入力情報となる。撮影信号は、操作検出部104においては、ユーザ120から医療支援装置100に対する操作要求を検出するために用いられる。具体的な方法は後述する。また、撮影信号は視点管理部108においては、ユーザ120の視線方向にある画像を取得するために用いられる。本実施の形態1において撮像部101が取得する撮影信号は、2台のカメラから得ることを想定する。2台のカメラはユーザ120の頭部に設置され左眼、右眼のそれぞれの視点からの撮影信号として扱われる。ただし、ユーザ120の操作要求を検出ための入力情報と、視線方向と一致する画像の取得という要件を満たすものであれば、本実施の形態1で想定する構成に限るものではない。
姿勢観測部102は、医療支援装置100を装着したユーザ120のヨー、ロール、ピッチ角といった視線方向の姿勢を示す姿勢に関する情報である視点角度を取得する。本実施の形態1では、姿勢観測部102は、3軸の角度取得が可能なセンサで構成され、医療支援装置100を装着したユーザ120の頭部に位置することを想定する。視点角度は、ユーザ120の視線方向を推定するために用いる。
位置観測部103は、医療支援装置100を装着したユーザ120の頭部の位置を示す撮影位置に関する情報である視点位置を取得する。視点位置は、ユーザ120が屋内に対してどの地点に位置しているか推定するために用いる。例えば、図2の医療支援装置100もしくは、サブセットとして示される医療支援装置213を屋内の基準となる装置とした場合の、医療支援装置213と、他の医療支援装置100もしくは、サブセットの相対位置を算出する事で屋内に対してどの地点に位置しているかを把握することが可能となる。
操作検出部104は、撮像部101が取得した撮影信号を解析しユーザ120の操作要求を表す動作を検出する。ここで検出処理の一例を示す。取得した撮影信号からユーザ120が操作要求を主に行う体の部位を抽出する。例えば検出部位として一般的に用いられる手から操作要求を検出する場合、肌色抽出や強い曲線部分の抽出もしくは医療支援装置100が予め保持する手形状のモデルマッチングにより、撮影信号中の手を推定、認識する方法が一般的に知られている。次に抽出した操作部位を時系列で追尾監視する。ここで例えば指差しの手形状を一定時間検出し続けた場合、撮影信号中の任意の一点を選択したという操作を検出したとし、操作要求を重畳情報構成部105に対して操作検出情報として通知する。操作要求を表す動作を検出しなかった場合は都度、撮像部101が取得した撮影信号を解析し操作要求を表す動作検出処理を繰り返す。ここで、操作検出情報とは少なくとも操作検出部104が検出した操作の種類を表す情報と撮影信号中の操作が行われた位置を表す情報からなる。
図4は操作検出部104が発行する操作検出情報の一例を示した図である。操作検出情報は少なくとも、操作種別401と操作検出位置402からなる。操作種別401は、操作検出部104が検出した動作の種類を表すもので、動作に応じて任意箇所の選択、重畳する画像の生成といった操作を表すことになる。操作検出位置402は、操作検出部104が撮像部101の撮影信号内の操作を検出した位置を表すものである。例えば、操作種別401は視野上の任意の点を指し示す為や、視野上に仮想的に設置されたボタンといたグラフィックを選択するための「押す」という動作や、視野内に表示されたグラフィックデータの位置を変更する為に、位置変更するグラフィックデータを「掴む」といった動作などがある。また、操作には、例えばマーカを付けるといったグラフィックを描画するような動作も含まれる。また、操作検出位置402は、撮影信号内において操作種別401が示す動作が行われた地点を示す、X座標およびY座標の値が保存される。さらに操作種別401および、操作検出位置402は例として挙げたバリエーション以外の種別や、Z座標といった情報を保持してもよい。
重畳情報構成部105は、操作検出部104の操作検知情報の通知を受け操作に対する情報生成、もしくは更新を行う。ここで、操作に対する情報とは、その操作が作用する位置を示す情報と、画面に表示される場合の視覚情報(重畳内容)から構成される重畳情報である。例えば、ユーザ120の視野内の任意の一点に対して情報を強化する目的で用いられる、メモや説明、ガイドといったテキストのグラフィック表示などが重畳情報となる。新たな重畳情報は重畳情報記憶部110に記録要求することにより保存される。また、重畳情報構成部105は通信部111を経由して重畳情報の生成通知または更新通知を他のノード130へ送信することにより、他のノード130に対しても重畳情報の生成、更新を知らせることが可能となる。さらに、重畳情報構成部105は、操作に対する情報生成、もしくは更新を画面に反映させるために表示管理部112に対して画面更新通知を行う。
重畳位置決定部106は操作検出情報が示す操作が行われた位置を算出する。他のノード130と、ある1つの重畳情報を共有するためには、共通の座標系上の座標位置を保持する必要がある。しかし、それぞれの医療支援装置100が検出する操作要求を表す動作は、それぞれの撮像部101が撮影した画像を基に検出される。すなわち、操作検出部104が検出する位置はそれぞれの撮像部101の座標系が基準となり、各ノードにおいて共通の座標系とはなっていない。重畳位置決定部106は、各ノード個別の座標系で得られる座標値を基に、操作位置に関する情報である共通座標系の座標値を決定する。重畳位置決定部106は、重畳情報構成部105から位置生成の要求を受けると共通座標系の座標値を算出する。ここで共通座標系の座標値の算出手順を説明する。重畳位置決定部106は、視点管理部108に視点情報の取得を要求し、現時点の視点位置、及び視点角度を取得する。視点位置、視点角度、及び操作検出部104で検出された操作位置から共通座標系での座標値を算出する。このとき、座標変換処理は座標変換部109に依頼する事により座標値を得る。
重畳画像生成部107は、操作検出部104から通知された操作検出情報が示す操作の種類に応じた画像を生成する。例えば、前述した視野内の任意の一点に対するテキストの重畳表示を指示する操作が通知された場合、テキストのグラフィック情報の生成処理を行う。重畳画像生成部107は重畳情報構成部105から画像生成要求を受けると、操作の種類を判定し、操作に応じた形状、色、文字、サイズ、グラフィック情報を作成する。
図5は、重畳情報記憶部により記録される重畳情報の一例を示した図である。重畳情報は少なくとも、データID501と、重畳情報種別502と、重畳情報表示位置503から構成される。データID501は、重畳情報個別に付与される一意な符号である。本実施の形態では図5のデータID501に示す様な一意な値が付与される。重畳情報種別502は、重畳情報の種別を表す。例えば、ある重畳情報が医療支援装置100およびサブセットである場合、図5の重畳情報種別502に示す様にノードという種別が付与される。また、視野に重畳される例えば患者の情報やメモなどのテキストグラフィックはラベル、例えばレントゲン画像などの画像データは画像という種別が付与される事で、それぞれの重畳情報の種類を分別する事ができる。さらに、ある任意のノードにとって、他のノード130も重畳情報の一種とみなすことが出来る。この場合、他のノード130はノードという重畳情報種別502により管理されてもよい。重畳情報表示位置503は、共通座標系における重畳情報の表示位置を示したものである。これは、図5の重畳情報表示位置503に示す様な共通座標系のX,Y,Z軸での座標値が設定される。ここで、重畳情報は上記以外の情報を保持してもよい。例えば、重畳情報がテキストを表示するものである場合、その文字列情報、フォント情報や、サイズ情報、色、字体情報などが挙げられる。また、任意の形状を持つ画像である場合は各頂点群を表した形状情報や、透過率の情報、形状の表面に使用するテクスチャ画像情報も含んでもよい。いずれも、重畳情報として扱う上で処理対象となるデータ、もしくは表示に関するデータは重畳情報として含めてよいものとする。
視点管理部108は、現時点の視点情報の取得、配信を行う。本実施の形態1では、視点情報として、視点から見える画像(視点画像)、固有座標系における視点のXYZ3軸(ロール、ピッチ、ヨー)角度(視点角度)、及びXYZ3軸の座標値(視点位置)の取得、配信を行う。視点から見える画像(視点画像)は撮像部101より取得する。固有座標系における視点のXYZ3軸(視点角度)は姿勢観測部102より取得する。固有座標系における視点のXYZ3軸の座標値(視点位置)は位置観測部103により取得する。視点管理部108は視点画像、視点角度、視点位置の少なくとも1つもしくは、すべての取得要求を受けると要求された情報を取得して視点情報として通知する。本実施の形態1では、重畳位置決定部106により視点情報の取得が要求される。ここで、視点管理部108が取得、配信するものは、必ずしも視点画像、視点角度、視点位置である必要はない。少なくとも1つ以上または、他の視点に関する情報であってもよい。他の視点に関する情報とは、たとえば深度センサによる視点からの奥行き情報や、赤外線といった特別な光線情報などがある。
座標変換部109は、共通座標系から各ノード個別の座標系での変換、もしくはその逆変換を行う。例えば、重畳位置決定部106は、視点管理部108から取得した現時点での視点の位置、姿勢情報を基に、上述の(1)、(2)式を満たすように(p、θ)の値を座標変換部109に設定する。このとき、各ノードの共通座標系との初期位置を表す位置関係Q0を当てはめることにより、座標変換部109は座標変換処理を行う。
重畳情報記憶部110は、重畳位置決定部106で生成された重畳情報の共通座標系における座標値、および重畳画像生成部107が画像生成要求により生成した画像情報といった重畳情報を記憶する。重畳情報は重畳情報構成部105からの情報更新依頼により記録される。これらの記憶される重畳情報は、表示管理部112により取得され表示部113で表示する画面生成に用いられる。
通信部111は、他のノード130と通信を行う。通信部111は、重畳情報構成部105より、重畳情報の生成、更新通知要求を受け取り、他のノード130に通知する。また、通知を受けた通信部111は、通知内容を重畳情報構成部105に通知する。これにより相互のノード間での通信を行う。
表示管理部112は、重畳情報構成部105より画面更新通知をうけ表示する画面を構成する。表示する画面は、重畳情報記憶部110に蓄積された重畳情報と現時点での視点から見える画像とから構成される。表示管理部112は、視点管理部108に視点情報取得を要求し、現時点の視点の左眼右眼画像を取得する。表示管理部112は、重畳情報記憶部110から共通座標系における視点位置、視点角度を取得する。さらに、共通座標系における視点位置、視点角度に基づいて視野範囲を算出し、そのエリア内に存在する重畳情報を、重畳情報記憶部110から取得する。表示管理部112は、座標変換部109を用いて、取得した各重畳情報の座標値を各ノード個別の座標系に配置し、現時点の視点画像に重畳される画面を生成する。さらに、表示管理部112は生成した画面と、視点管理部108から取得した視点画像である左眼右眼画像の重畳および画面表示を表示部113に依頼する。
表示部113は、表示管理部112から画面表示依頼を受け、左眼右眼画像に重畳情報により構成される画面を重畳して表示する。
図6Aおよび図6Bは図1に示された医療支援装置100が、ユーザ120から要求を受け重畳情報を作成し視点画像と重畳内容を重畳して表示する処理を示すフローチャートである。
まず、処理が開始され(S600)、ユーザ120からの操作要求を表す動作の検出処理に入る(S601)。検出処理は、まず操作検出部104が撮像部101から撮影信号を取得する(S602)。
操作検出部104は、取得した撮影信号からユーザ120が操作要求を表す操作部位を抽出する(S603)。本実施の形態1において、操作部位は手を想定する。手は、肌色抽出や強い曲線部分の抽出を行う事により、撮影信号中の手を推定、認識する方法が一般的に知られている。ここで、抽出する操作部位は手に限定するものではない。例えば、ユーザ120の視線といった、手以外の操作者の体の一部や、ユーザ120が手に持っているメスなどの道具を操作部位として抽出し操作認識に用いてもよい。
次に、操作検出部104は、抽出した操作部位を監視し(S604)、操作要求を表す動作を検出した場合は、撮影信号中の操作を検出した位置と共に重畳情報構成部105に対して操作検出情報を通知する(S605)。
操作要求を表す動作を検出しなかった場合は都度、撮像部101から撮影信号を取得する処理に戻り、操作要求を表す動作を検出するまで繰り返す。
操作検出情報の通知を受けた重畳情報構成部105は、操作検出部104から受け取った操作位置の共通座標系上で座標値を求めるために、重畳位置決定部106に位置算出を要求する(S606)。
要求を受けた重畳位置決定部106は、視点管理部108に対して現時点での視点位置、視点角度の取得を要求する(S607)。
重畳位置決定部106は、取得した視点位置、視点角度と、操作検出部104から通知された操作位置とを、座標変換部109に対して通知し、共通座標値への変換要求を行う(S608)。
座標変換部109は上述の式(1)、(2)を満たす(p、θ)として、視点管理部から取得した視点位置をp、視点角度をθと設定し、変換行列Qnを求めることで、共通座標系上での座標値を算出する(S609)。
重畳情報構成部105は、操作検出部104から受け取った操作位置に表示する画像を生成するために、重畳画像生成部107に対して重畳画像生成を要求する(S610)。
重畳画像生成部107は、操作検出部104から通知された操作検出情報の操作種別401を参照し、操作種別401に応じた重畳画像を生成する(S611)。ここで、重畳情報がテキストを表示するものである場合、生成する重畳画像は、図5で説明した、文字列情報、フォント情報や、サイズ情報、色、字体情報を用いて生成することができる。
ここでS606〜S609の重畳位置決定処理と、S610〜S611の重畳画像生成処理は、重畳情報を構成する要素を準備する要件を満たす限り順序は問わない。
重畳情報構成部105は、重畳位置決定部106により算出した操作位置と、前述した視野内の任意の一点に重畳するテキスト等のグラフィック情報である重畳画像とで、図5に示す重畳情報を生成する。重畳情報構成部105は生成した重畳情報を重畳情報記憶部110に更新し保存する(S612)。
この生成または更新を、他のノード130に対しても反映するために、重畳情報構成部105は通信部111に対して、重畳情報の生成通知または更新通知を行うよう要求する(S613)。
通信部111は通知を受けると、他のノード130に対して重畳情報と重畳情報の生成通知または更新通知を発行する(S614)。ここで、生成通知または更新通知を受けた他のノード130の通信部111は、重畳情報構成部105に対し更新を通知し、生成、更新された重畳情報が重畳情報構成部105により、重畳情報記憶部110に記録される。なお、他のノード130に対して、重畳情報の更新という要件が満たしていれば、他の方式、経路、方法であってもよい。
次に、重畳情報構成部105は、表示管理部112に対して画面更新を要求する(S615)。
表示管理部112は、表示画面を更新するために、視点からの実際の画像と、この実際の画像に重畳する重畳画像の配置を行う。表示管理部112は、視点管理部108から左眼右眼画像を取得する(S616)。
表示管理部112は、重畳情報記憶部110に記録されている共通座標系における視点位置、視点角度を取得する(S617)。
表示管理部112は、取得した共通座標系における視点位置、視点角度に基づいて、例えば透視投影法などを用いて視野範囲を算出する(S618)。
さらに重畳情報記憶部110に記録されている重畳情報の共通座標値が、表示管理部112で算出した視野範囲内に存在するか否かを判定し、視野範囲内に収まる重畳情報のみを、重畳情報記憶部110から取得する(S619)。
取得した重畳情報の位置座標は共通座標系における座標値であるため、表示管理部112は、座標変換部109を用いて、取得した各重畳情報の座標値を各ノード個別の固有座標系に変換する(S620)。
表示管理部112は、固有座標系に変換された座標値で示される位置に重畳情報で示される重畳画像を表示画面に配置し、現時点の視点画像に重畳される画面を生成する(S621)。
表示管理部112は生成した画面と、視点管理部108から取得した視点画像である左眼右眼画像の重畳および画面表示を表示部113に依頼する(S622)。
表示部113は表示管理部112から要求を受けると、視点画像に重畳される画面を重畳する(S623)。
そして、重畳により1つになった画面が表示される(S624)。以上により医療支援装置100がユーザ120から要求を受け重畳情報を作成し、視点画像と重畳画像を重畳して表示する処理が終了する(S625)。なお、このようにして重畳により1つになった画面は、通信部111を介して他のノードや遠隔地にいる医師が使用する表示装置(図示せず)に送信することも可能である。
次に、上記に説明した通信部111による他のノード130に対する生成通知または更新通知の発行処理(S614)が行われ、他のノード130が生成通知または更新通知を受けた場合の動作について説明する。なお、他のノード130の構成要素についても医療支援装置100と同様であるので同じ符号を用いて説明する。
生成通知または更新通知を受けた他のノード130の通信部111は、重畳情報構成部105に対して重畳情報の生成または更新を通知する。重畳情報構成部105は、生成または更新された重畳情報を、重畳情報記憶部110に記録する。
そして、上記と同様に、重畳情報構成部105による画面更新の要求処理(S615)から表示部113による表示処理(S624)までの処理を行うことで、ノード130の視点画像と、ユーザ120から受信した重畳情報に基づいた重畳画像を重畳して表示することになる。
図7は、医療支援装置100において視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。
ここで、例えば図7に示すように医療支援装置100を装着したユーザA710と、ノード130を装着したユーザB720とが患者730を挟んで立っている場合を想定する。そして、ユーザA710が、例えばマーカを選択した上で、患者730の体の一部分をAの視界711の点線740で示すように指を動かした場合、ユーザA710が装着した医療支援装置100の表示部113には、Aの視界712に示すようにユーザA710の視点画像に、点線740で示された指の動きに応じたマーカ750を示すグラフィックが重畳画像として重畳されて表示される。一方、ユーザB720が装着した医療支援装置100の表示部113には、Bの視界721に示すようにユーザB720の視点画像に、点線740で示された指の動きに応じたマーカ760を示すグラフィックが重畳画像として重畳されて表示される。
以上のように、ユーザが装着した医療支援装置またはそのサブセットが、そのユーザの視野にある物体に付加情報を重畳した画像を生成するための重畳情報を送信することにより、ユーザ間で操作の共有を行うことができる。また、重畳情報および視点画像を送信することにより、医療現場にいるユーザの視点で、その医療現場での視界や操作を共有することができるので、遠隔地においてより正確に医療作業を支援することが可能となる。
(実施の形態2)
図8は、本発明の実施の形態2の医療支援装置の構成を示す機能ブロック図である。図8において、図1と同じ構成要素については同じ符号を用い、説明を省略する。図8において、医療支援装置200は、図1と同じ符号で示されるブロックに加え仮想視点生成部114、画像合成部115を備える。本構成により、医療支援装置200およびサブセットが設置される屋内のあたかも同じ空間上に存在し、現時点での遠隔の人の動作が目の前の現実物体と適切な位置関係で表現される事により、より直感的な指示や、協調作業を行う事が可能となる。
次に本発明の実施の形態2における医療支援装置の機能ブロック図を用いてブロック間の関係を説明する。
仮想視点生成部114は、医療支援装置200および、サブセットが設置される同じ空間内の任意の地点を仮想的な視点とする仮想視点を生成する。仮想視点の生成は重畳情報構成部105より要求される。仮想視点生成部114は、仮想視点を作成するために、重畳情報記憶部110に記録されている重畳情報を取得する。仮想視点生成部114は、取得した重畳情報から仮想視点を生成する。仮想視点の生成処理の具体例については後述する。生成した仮想視点は重畳情報記憶部110に記録を要求する。ここで、仮想視点生成部114で、仮想視点が作られた場合、重畳情報構成部105は、視点管理部108に対して仮想視点表示を設定する。視点管理部108に設定される仮想視点表示は、実施の形態1で説明したユーザ120の操作要求処理と、仮想視点設定操作を切り分けるフラグとなる。仮想視点は、重畳情報の1種として扱われる。具体的には重畳情報種別502に仮想ノードを表すフラグが設定されたものである。このとき、重畳情報は、左右近傍のノードを示すデータID501の配列も保持する。これは、後述する仮想視点からの画像を生成する際に使用する為である。本実施の形態2では、複数のノード画像を合成する事により仮想的に存在する視点画像を生成する。このとき、複数のノードに左右近傍のノードを使用する。参照する左右近傍のノードを特定する為にデータID501を保持する。
画像合成部115は、仮想視点からの視点画像を生成する。仮想視点からの視点画像は、表示管理部112が視点管理部108から取得する視点画像として用いられる。ただし、これは、視点管理部の108で仮想視点モードが設定されている場合である。つまり、仮想視点モードの有無により、視点管理部108は、撮像部101からの撮影信号と、画像合成部115で生成された仮想視点からの視点画像とを切り換えて視点画像とする。画像合成部115は、仮想視点からの視点画像を生成するために、複数の他のノード130からの視点画像を取得する必要があるため、通信部111を通じて、他のノード130から各視点画像を取得する。
図9は実施の形態2に係る医療支援装置200において、仮想視点を生成する処理を示すフローチャートである。
本実施の形態2は仮想視点を生成する処理フローを説明するためユーザ120を遠隔地に存在するユーザとする。遠隔地のユーザ120は前述のユーザと同様に医療支援装置200を装着しているとする。ユーザ120は、実施の形態1の図6Aの操作検出の処理(S600〜S606)と同等のフローにより仮想視点の生成を医療支援装置200への操作要求として、インプットし、操作検出部104はが検出した操作位置を仮想視点の生成位置として重畳情報構成部105が受け取る(S800)。ここで、仮想視点の指定方法の一例を示す。図2に示すような屋内全体の画像を撮影できるノード213からの画像を画面に表示することで現地点の俯瞰するような画面を表示する。表示した画面から所望の地点を選択する事で仮想視点の位置を設定するといった方法とることができる。ただし、この方法に限らずユーザが任意の地点を設定する要件を満たせば、その提示方法、設定方法は他の方法により仮想位置を指定してもよい。
重畳情報構成部105は仮想視点生成部114に仮想視点生成を依頼する(S801)。
依頼を受けた仮想視点生成部114は、重畳情報構成部105から仮想視点の位置情報を取得する(S802)。
仮想視点生成部114は、仮想視点からの画像を他のノードの撮影信号を合成して生成する為に、取得した仮想視点の位置情報を左右近傍に位置する他のノード130を検索する(S803)。
仮想視点生成部114は、重畳情報記憶部110から「ノード」の重畳情報種別502をもつデータを1つずつ取得する(S804)。本実施の形態2では仮想視点からの画像を他のノードの撮影信号から合成して生成するため、取得する重畳情報は、重畳情報種別502に「ノード」を表す符号を持つものみを取得すればよい。
取得した重畳情報の重畳情報表示位置503を参照し、仮想視点の位置情報との距離を算出し近傍度合いを判定する(S805)。近傍を検出する理由は、仮想視点からの視点画像生成する際に、視点画像の基になるノードを確定することにある。一般的には、複数の視点から撮影した画像を基にして、それらの中間の視点からの画像を生成する手法として、Image Based Renderingが知られている。この中間視点が本実施の形態2での仮想視点にあたり、仮想視点からの画像を生成するために、近傍の他のノード130を検出する必要がある。ここで、閾値となる距離値は検索中の一番近いものを1つ以上選択してもよい。また、ある一定の固定値を用いてもよい。さらにユーザにより任意の値を設定してもよい。さらに、仮想視点として設定された位置には、ノード214やノード215といった固定的なノードと重なる可能性もある。この場合は近傍ノードを検索する必要はなく、ノード214やノード215といったノードを1つ選択する事でその地点からの視野画像を取得することができる。また、重畳情報記憶部110により取得した重畳情報の重畳情報表示位置503は共通座標系の座標値であり、ユーザ120により入力された仮想視点の位置とは異なる場合がある。その場合、図6AのS608と同様に、座標変換部109を用いることにより座標空間を統一し各ノードとの距離を判定することができる。
重畳情報記憶部110に記録されているノードの重畳情報において仮想視点近傍のノードが見つかるまで判定処理を繰り返す(S806)。
見つかった仮想視点近傍に存在するノードの重畳情報のデータID501群と、仮想視点の共用座標系での位置情報より構成される重畳情報を仮想視点生成部114が作成する(S807)。このとき重畳情報の重畳情報種別502は「仮想ノード」という種別で生成される。
作成した重畳情報は、重畳情報構成部105経由で重畳情報記憶部110に記録される(S808)。
重畳情報構成部105は視点管理部108に対して、仮想視点表示を設定する依頼を行う(S809)。
以上により、仮想視点を重畳情報として生成する処理を終了する(S810)。
その後、実施の形態1の図6Aに示ように他のノード130への通知処理(S613〜S614)行われる。
そして、生成通知または更新通知を受けた他のノード130の通信部111は、重畳情報構成部105に対して重畳情報の生成または更新を通知する。重畳情報構成部105は、生成または更新された重畳情報を、重畳情報記憶部110に記録する。そして、実施の形態1の図6Bに示すように、重畳情報構成部105による画面更新の要求処理(S615)から表示部113による表示処理(S624)までの処理を行うことによって、他のノード130では、仮想視点の位置に遠隔地のユーザ120を表示することが可能になる。
図10および図11は、医療支援装置200において視点画像に重畳内容を重畳した表示の一例を説明するための説明図である。
ここで、例えば図10に示すように医療支援装置200を装着したユーザA910と、医療支援装置200を装着したユーザB920とが患者930を挟んで立っており、遠隔地に医療支援装置200を装着したユーザC940が存在する場合を想定する。ここで、仮想視点が設定される前は、ユーザAの視界911に示すようにユーザA910が装着した医療支援装置200の表示部113には、ユーザA910の視点画像が表示される。一方、ユーザBの視界921に示すようにユーザB920が装着した医療支援装置200の表示部113には、ユーザB920の視点画像が表示される。
そして、ユーザC940が、例えば図10に示す点Dを仮想地点に選択した場合、図11に示すようにユーザA910が装着した医療支援装置200の表示部113には、ユーザC940が装着した医療支援装置200から送信された仮想視点を示す重畳情報を用いて、Aの視界912に示すようにユーザA910の視点画像に、点線941で示されるユーザCを示すグラフィックが重畳画像として重畳されて表示される。一方、ユーザB920が装着した医療支援装置200の表示部113には、同様にユーザC940が装着した医療支援装置200から送信された仮想視点を示す重畳情報を用いて、Bの視界922に示すようにユーザB920の視点画像に、点線942で示されるユーザCを示すグラフィックが重畳画像として重畳されて表示される。
以上のように、仮想視点も重畳情報として登録することにより、他の重畳情報と同様に扱うことが可能となる。また、仮想視点設定者は自分の手の動きといった体の動きも遠隔の人に伝えることが可能となる。つまり、仮想視点のノードは、図6Aおよび図6Bに示すフローを操作検出時だけでなく、手や指の位置といった情報を常時トラッキングし、リアルタイムで重畳情報として記録し続ける。これにより、現場で処置を行う人物へ、連続的に遠隔の人物を表示する事が可能となり、あたかも現場で強調作業を行っている様に表現する事が出来る。
図12は図8に示された医療支援装置200において、仮想的に位置している視点からの視点画像を表示する処理を示すフローチャートである。
まず、実施の形態1の図6Aの操作検出の処理(S600〜S606)と同様に、ユーザ操作の検出などが行われる。その後、図9のフローチャートと同様の処理が実行され仮想視点が生成される。さらに、その処理を表示部113である表示画面へ反映する為に、表示管理部112に対して画面更新の依頼が行われる(S900)。
表示管理部112は更新画面を作成する為に、視点管理部108へ視点画像の取得を依頼する(S901)。
依頼を受けた視点管理部108は上記に説明した仮想視点表示の設定処理(S809)により重畳情報構成部105から仮想視点表示が設定されているか否かを確認する事により設定状態の判定を行う。現状このノードは仮想視点に配置されているノードであり、仮想視点表示の設定処理(S809)により視点管理部108には仮想視点表示が設定されている。よって、判定は仮想視点表示となる(S902)。ここで、視点管理部108に仮想視点表示が設定されていない場合とは、仮想視点設定操作以外の操作を受けたケースである。実施の形態1で説明した、図6Aおよび図6Bに示すフローチャートがこのケースにあたり、視点管理部108に仮想視点表示が設定されていない場合の以降の処理はS616以降と同様のフローをとるものとする。
視点管理部108は、設定状態が仮想視点表示であるため、撮像部101から眼前の視点画像を取得するのではなく、画像合成部115に対して視点画像取得を要求する(S903)。
画像合成部115は重畳情報記憶部110から仮想視点の重畳情報を取得する(S904)。
仮想視点の重畳情報は上記処理(S807)で説明したように、仮想視点近傍に存在するノードの重畳情報のデータID501群が含まれる。これらの仮想視点近傍の重畳情報のデータID501が示す医療支援装置200および、サブセットを特定し(S905)、通信部111に対して、仮想視点近傍の特定した他のノード130の視点画像取得を依頼する(S906)。なお、記録されている仮想視点近傍の重畳情報のデータID501群に対して視点画像取得は繰り返されるものとする(S907)。なお、本実施の形態2では依頼を受けた他のノード130の通信部111は依頼に従い視点画像取得処理を実施する事になるが、視点画像を取得する要件を満たせば、有線通信、無線通信といった、各ノード間の通信の形態は限定しないものとする。
つぎに、画像合成部115は、取得した複数の他のノード130の視点画像を合成し1枚の視点画像を生成する(S908)。ここで、上記処理(S806)で述べたようにノード214や、ノード215の様な固定のノードと仮想視点が重なる場合は、そのノードの視野画像をそのまま使用してもよい。他のノード130の視点画像が複数枚存在する場合は、Image Based Renderingといった手法を用いることにより、3次元モデリングを行い仮想視点からの視点画像を生成する。
画像合成部115は作成した視点画像を視点管理部108に通知し、表示管理部112が視点画像を取得する(S909)。このとき、視点管理部108、および表示管理部112は、仮想視点であるか否かの区別なく視点画像を受け取るため、以降の処理は実施の形態1の図6Bと同様の処理フローで画面表示される(S910)。
以上のように、複数のユーザが装着した医療支援装置またはそのサブセットが協調して任意の視点から見た画像を生成、送信することにより、その医療現場での任意の視点からの視界や操作を共有することができるので、遠隔地においてより正確に医療作業を支援することが可能となる。
(実施の形態3)
図13は、本発明の実施の形態3における医療支援装置300の構成を示す機能ブロック図である。図13を用いてブロック間の関係を説明する。なお、図13は、図1および図8と同じ構成要素については同じ符号を用い、説明を省略する。また、医療支援装置300は、図1および図8と同じ符号で示されるブロックに加え、画面調整部116を備える。
操作検出部304は、図1および図8で示した操作検出部104の機能に加え、ユーザ120が操作要求を行う動作において、図14に示す表示属性の種別を個々に設定できる動作を認識する。認識した操作種別401は、操作検出情報として重畳情報構成部105に通知される。
重畳情報構成部305は、図1および図8で示した重畳情報構成部105の機能に加え、表示属性を表す符号を生成する。操作検出部304より通知された操作検出情報を参照し、操作に対応する表示属性を生成し、重畳情報記憶部110に保存する。
表示管理部312は図1および図8で示した表示管理部112の機能に加え、重畳情報記憶部110から表示属性情報を取得する。表示管理部312は、表示属性が示す符号に応じて表示画面を構成し、画面調整部116に対して画面調整を依頼する。
画面調整部116は、表示属性に応じて表示画面を加工する。画面調整部116は仮想視点の生成は重畳情報構成部305より依頼を受けると、表示属性に示される符号にしたがって、表示画面の加工を行う。本構成により、個々のユーザ120は装着する医療支援装置300に対し、視野の任意の地点を拡大表示する、特定の種類の重畳情報以外を非表示にするといった、視野画像の加工表示を指定する事が可能となる。
図14は、重畳情報記憶部110に表示属性として保存される情報を構成する表示属性の種別のバリエーションを示した図である。表示属性の種別は、表示の仕方を示した符号で表される。表示属性の種別は、表示管理部312、および画面調整部116が画面加工を行う際に参照することで、ユーザ120の所望の画面表示を実現する。表示属性の各種別について説明する。拡大表示1101、縮小表示1102は、本来表示すべき画面の一部分、または全体を拡大、縮小して表示する表示属性である。これは、視力以上の見え方が必要な作業をする場合に有用な表示方法となる。部分拡大表示1103は、拡大表示1101と同様視点画像の一部を拡大表示するものだが、虫眼鏡で任意の部分だけ拡大表示する様な表示属性である。これは、拡大部分以外の視野画像との位置関係を確認しながら、ある箇所を拡大表示するのに有用である。特に手術といった医療行為を行う場合、初見の患部確認などに利用できる。透過表示1104、フィルタリング表示1105は、重畳されている情報の内、その時だけ表示したいもの、または非表示にしたいものあるいは、透過表示を分けて表示する表示属性である。視野に情報を重畳する以上本来の視野で見えるべき箇所が隠れてしまう場合がある。透過表示1104、フィルタリング表示1105は個人毎に見やすい表示方法で表示することが可能となる。視点切替え1106、および2視点同時表示1107は、他のノード130との視野共有を行う表示属性である。協調作業である以上、複数の人物が各視点からの視界で作業し、協調作業者の動作は各個人の視野から推定してタイミングや、スピードやターゲット箇所などを調整している。また、遠隔医師が指導しながらの施術するケースなどは、術者自身からの視野を確認しながら助言をする事でより的確な指摘を行う事が可能となる。ここで、表示属性は図に示す1101〜1107に限るものでなく、ユーザ120が所望するモードを追加、削減することが可能であるものとする。また、上記で説明した表示属性以外にも、作業をサポートする表示属性という目的を満たす他の方法を用いてもよい。
図15Aおよび図15Bは、重畳情報記憶部110に格納される表示属性の一例を示した図である。表示属性は、重畳情報構成部305により生成され、重畳情報記憶部110に記録されるデータである。表示属性は、少なくとも、表示属性種別1201、位置情報1202、対象重畳情報ID1203、サイズ比率1204、透過比率1205から構成される。表示属性種別1201について図14を用いて説明する。表示属性種別1201は、図14で示される表示属性の種別を表す符号のうちいずれかが設定され表示の仕方を示した値である。位置情報1202は、画面加工の対象となっている画面位置を示した値である。例えば図15Aおよび図15Bでは2つのバリエーションを示している。図15Aに示す1201〜1205は拡大表示に対する表示属性を示したものであり、図15Bに示す1206〜1210は透過表示に対する表示属性を示したものである。順に説明する。表示属性の種別1201には、図14の拡大表示1101を示す符号が付与されている。このとき位置情報1202には、拡大する画面の部分の中心座標が設定される。対象重畳情報ID1203は、画面加工の対象となる重畳情報がある場合にその重畳情報のデータID501を示したものである。ここで、表示属性の種別1201を適応する対象重畳情報を特定しない場合や、重畳情報記憶部110に格納される重畳情報すべてに適応する場合の符号は任意の値を別途確保できるものとする。本例では画面全体を位置情報1202の示す地点を中心に拡大表示する場合を想定する為、対象重畳情報ID1204を特定しないものとし0を付与している。サイズ比率1204は拡大表示するための比率を設定する。透過比率1205は表示の透過度合いを示す値である。本例では拡大のみを行うものとしているため、等倍を設定している。次に図15Bに示す1206〜1210について任意の重畳情報を透過表示する為の表示属性について説明する。表示属性の種別1206の図14の透過表示1104を示す符号が付与されている。位置情報1207は本例では任意の重畳情報が確定している為使用しない。ここで、位置情報1207は必要に応じて設定し使用してもよい。例えば、透過対象とする操作が重畳情報ではなく、視野上のある範囲を指定する場合、その範囲の囲む矩形の4隅の頂点座標を格納する事などが考えられる。対象重畳情報ID1208は、透過対象となる重畳情報のIDが格納される。サイズ比率1209は表示のサイズ比率1204同様、縦横サイズの度合いを示す値である。本例では透過操作のみを行うものとしているため、等倍を設定している。最後に透過比率1210は表示の透過度合いを示す値であり、0.7と半透過を設定している。また、表示属性の種別1201、1206が2視点同時表示1107の場合、それぞれ表示する他のノード130の視点を表す重畳情報のデータID501が対象重畳情報IDに指定される。さらに、サイズ比率1204、1209は、縮小表示1102に対しても同様にサイズ比率1204が用いられるものとする。
図16は図13に示された医療支援装置300において、設定された表示属性を表示画面に反映する処理を示すフローチャートである。
まず、ユーザ操作の検出処理が開始されると、操作検出部304は、重畳情報構成部305に対して操作検出を通知する(S1301)。なお、ユーザ操作検出の処理は、図6Aの操作検出の処理(S601からS604)と同様の処理フローで行われる。
重畳情報構成部305は、操作検出情報を参照し、図4に示す操作種別401が表示属性に対する操作か否かを判定する(S1302)。例えば、操作検出情報の操作種別401が表示属性の表示属性種別1201に確保されている加工表示を指示する操作要求である場合、重畳情報構成部305は操作検出情報の操作種別401を表示属性に対する操作として扱う。表示属性の種別には図14に示す視点切替え1106などがある。操作種別401が表示属性操作でない場合は、指定された操作種別401に応じた処理を継続する。例えば、実施の形態1の図6Aに示すような重畳情報生成操作である場合は、処理(S606)以降の処理を行う。操作種別401が表示属性操作である場合、重畳情報構成部305は表示属性を重畳情報記憶部110に記録する(S1303)。このとき重畳情報構成部305は、視点管理部108に対して表示属性を通知する。例えば、表示属性種別1201が視点切替え1106の場合、実施の形態2の図9の処理(S809)と同様に仮想視点表示を設定すること、この後の表示処理において、切換え先の視点画像を使用することができる。また、表示属性として記録される情報は、図14に示す01〜05の値のうちいずれかが含まれるものとする。例えば、表示属性種別1201が透過表示1104である場合は、操作検出部304から通知された操作検出情報に含まれる操作検出位置402を参照し、操作検出位置402が示す重畳情報を確定する必要がある。操作検出位置402が示す位置情報はノードの固有座標系における座標値であるため、重畳情報構成部305は、S606〜S609と同様の処理を用いて共用座標系の座標値に変換する。次に、算出した共用座標系の座標値が示す地点に配置されている重畳情報を重畳情報記憶部から検索し、透過表示の対象とされている重畳情報を特定する。特定された重畳情報のデータID501を、入力された透過表示1104という表示属性種別1201と、透過率と共に表示属性として重畳情報記憶部110記録する。これは、他の表示属性の表示属性種別1201に対しても応用でき、同様に位置情報1202や、対象重畳情報ID1203を決定して設定してもよい。
重畳情報構成部305は、表示管理部312に対して画面更新を要求する(S1304)。
表示管理部312は、表示画面を生成する(S1305)。ここで、表示画面の構成は、実施の形態1の図6Bに示す処理(S616〜S621)と同等の処理を行って画面を生成するものとする。
表示管理部312は画面生成後、画面調整部116に対して画面調整を依頼する(S1306)。この要求は、重畳情報記憶部110が記録している表示属性に応じた画面に加工する為に行われる。
画面調整部116は、表示管理部312から要求を受けると、重畳情報記憶部110から表示属性を取得する(S1307)。
画面調整部116は、取得した表示属性に設定されている値に応じて、表示画面を加工する(S1308)。例えば、拡大表示1101である場合、表示属性には、表示属性種別1201、位置情報1202、サイズ比率1204が設定されている。画面調整部116は、表示属性種別1201から拡大表示1101である事を判断すると、位置情報1202が示す表示画像の地点を中心に、サイズ比率1204の値が示す拡大率で表示画面を再構成する。なお、表示属性種別1201の他の値においても、位置情報1202、対象重畳情報ID1203、サイズ比率1204、透過比率1205内いずれか、もしくは複数個使用して画面を加工するものとする。さらに、各加工方法について固有の手法に限定するものでなく、各表示属性種別1201が表す要件を満たせればよい。
次に画面調整部116は、表示部113に対して画面表示を要求し、要求を受けた表示部113は処理(S624)と同様の処理を行い、画面を表示する(S1309)。これにより設定された表示属性を表示画面に反映する処理が終了する。
以上のように、複数のユーザが装着した医療支援装置またはそのサブセットが協調して任意の視点から見た画像を生成、送信することにより、その医療現場での任意の視点からの視界や操作を共有することができるので、遠隔地においてより正確に医療作業を支援することが可能となる。また、視野の任意の地点を拡大表示する、特定の種類の重畳情報以外を非表示にするといった、より詳細な表示制御が可能となる。
本発明による医療支援装置は、遠隔地とのデータ共有、双方向の音声通信もしくは、身振り手振りを含めた画像通信を有し、遠隔診断だけでなく、手術等の遠隔治療として有用である。
100、200、300 医療支援装置
101 撮像部
102 姿勢観測部
103 位置観測部
104、304 操作検出部
105、305 重畳情報構成部
106 重畳位置決定部
107 重畳画像生成部
108 視点管理部
109 座標変換部
110 重畳情報記憶部
111 通信部
112、312 表示管理部
113 表示部
114 仮想視点生成部
115 画像合成部
116 画面調整部
120 ユーザ
130 他のノード
201、202 ユーザ
211、212 ユーザに装着される医療支援装置
213、214、215 ユーザに装着されない医療支援装置

Claims (14)

  1. ユーザの視界または操作をユーザ間で共有するための医療支援装置であって、
    ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、
    前記撮像部の姿勢に関する情報を取得する姿勢観測部と、
    前記撮像部の撮影位置に関する情報を取得する位置観測部と、
    前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出する操作検出部と、
    前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理する視点管理部と、
    前記操作検出部が検出した前記操作に基づいて重畳内容を決定するとともに、前記視点管理部が管理する信号および情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成する重畳情報構成部と、
    前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する表示管理部と、
    前記重畳情報を少なくとも一つの他の医療支援装置に送信する通信部と、
    を備える医療支援装置。
  2. 前記位置観測部は、前記撮影位置に関する情報を、前記撮像部における固有座標系を用いて取得し、
    前記操作検出部は、前記操作位置に関する情報を、前記撮像部における固有座標系を用いて取得する
    請求項1に記載の医療支援装置。
  3. 前記医療支援装置は、さらに、
    前記固有座標系を用いて示される情報を、他の前記医療支援装置と共通する共通座標系を用いて示される情報に変換する座標変換部とを備え、
    前記重畳情報構成部は、
    前記重畳内容を表示する位置を、前記共通座標系を用いて示された前記操作位置に関する情報で示される位置に決定する重畳位置決定部と、
    前記重畳内容を、前記操作の種類に応じた視覚情報として生成する重畳画像生成部と、
    を備える請求項2に記載の医療支援装置。
  4. 前記重畳情報構成部が新たに前記重畳情報を生成または更新した場合、
    前記通信部は、前記重畳情報に加えて前記重畳情報の生成通知または更新通知を、前記他の医療支援装置に送信する
    請求項1に記載の医療支援装置。
  5. 前記通信部は、前記他の医療支援装置から前記重畳情報を受信し、
    前記表示管理部は、受信した前記重畳情報に基づいて、前記視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する
    請求項1に記載の医療支援装置。
  6. 前記通信部は、前記他の医療支援装置から前記重畳情報に加えて前記重畳情報の生成通知または更新通知を受信し、
    前記表示管理部は、前記生成通知または前記更新通知により前記重畳内容を合成した画像を生成して表示する
    請求項5に記載の医療支援装置。
  7. 前記通信部は、前記撮影信号を前記他の医療支援装置に送信する
    請求項1に記載の医療支援装置。
  8. 前記通信部は、前記他の医療支援装置で撮影された撮影信号を受信し、
    前記医療支援装置は、さらに、
    任意の位置と、当該任意の位置の近傍に存在する2以上の前記他の医療支援装置の位置を示す情報に基づいて仮想視点情報を生成する仮想視点生成部と、
    前記任意の位置の近傍に存在する2以上の前記他の医療支援装置から受信した前記撮影信号、および前記仮想視点情報に基づいて前記任意の位置を仮想視点とする画像を生成する画像合成部と、
    を備える請求項1に記載の医療支援装置。
  9. 前記重畳情報は、当該重畳情報に含まれる重畳内容の表示の態様を示す表示属性情報と対応づけて管理され、
    前記医療支援装置は、さらに、
    前記表示管理部で生成された前記重畳内容が合成された画像を、前記表示属性情報に応じて加工する画面調整部
    を備える請求項1に記載の医療支援装置。
  10. 前記操作検出部は、前記撮像部により取得される前記撮影信号から、当該医療支援装置を装着するユーザの所定の部位の動きに基づいて前記操作を検出する
    請求項1に記載の医療支援装置。
  11. 前記医療支援装置は、さらに、
    前記重畳情報を格納する重畳情報記憶部
    を備える請求項1に記載の医療支援装置。
  12. 前記表示管理部は、観察者の左眼用画像及び右眼用画像を生成する
    請求項1に記載の医療支援装置。
  13. ユーザの視界または操作をユーザ間で共有するための医療支援システムであって、
    第1の医療支援装置および第2の医療支援装置は、
    ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、
    前記撮像部の姿勢に関する情報を取得する姿勢観測部と、
    前記撮像部の撮影位置に関する情報を取得する位置観測部と、
    前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出する操作検出部と、
    前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理する視点管理部と、
    前記操作検出部が検出した前記操作に基づいて重畳内容を決定するとともに、前記視点管理部が管理する信号および情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成する重畳情報構成部と、
    前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示する表示管理部と、
    少なくとも一つの他の医療支援装置との間で通信を行う通信部とを備え、
    前記第1の医療支援装置の前記通信部は、前記重畳情報を前記第2の医療支援装置に送信し、
    前記第2の医療支援装置の前記通信部は、前記第1の医療支援装置から前記重畳情報を受信し、
    前記第2の医療支援装置の前記表示管理部は、受信した前記重畳情報に基づいて、前記視点画像における前記操作位置に前記重畳内容を合成した画像を生成する
    医療支援システム。
  14. ユーザの視界または操作をユーザ間で共有するための医療支援装置における医療支援方法であって、
    ユーザの視界に応じた撮影を行って撮影信号を取得する撮像部と、
    前記撮像部の姿勢に関する情報を取得し、
    前記撮像部の撮影位置に関する情報を取得し、
    前記撮像部が取得した前記撮影信号から当該医療支援装置を装着したユーザの操作および当該操作が行われた操作位置を検出し、
    前記撮影信号と、前記姿勢に関する情報と、前記撮影位置に関する情報とを対応付けて管理し、
    検出した前記操作に基づいて重畳内容を決定するとともに、前記撮影信号、前記姿勢に関する情報、および前記撮影位置に関する情報に基づいて前記操作位置に関する情報を決定し、前記重畳内容および前記操作位置に関する情報を含む重畳情報を生成し、
    前記撮影信号から視点画像を生成し、当該視点画像における前記操作位置に前記重畳内容を合成した画像を生成して表示し、
    前記重畳情報を少なくとも一つの他の医療支援装置に送信する
    医療支援方法。
JP2012507522A 2010-12-17 2011-12-05 医療支援装置、医療支援方法および医療支援システム Pending JPWO2012081194A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010281586 2010-12-17
JP2010281586 2010-12-17
PCT/JP2011/006802 WO2012081194A1 (ja) 2010-12-17 2011-12-05 医療支援装置、医療支援方法および医療支援システム

Publications (1)

Publication Number Publication Date
JPWO2012081194A1 true JPWO2012081194A1 (ja) 2014-05-22

Family

ID=46244314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012507522A Pending JPWO2012081194A1 (ja) 2010-12-17 2011-12-05 医療支援装置、医療支援方法および医療支援システム

Country Status (4)

Country Link
US (1) US20120256950A1 (ja)
JP (1) JPWO2012081194A1 (ja)
CN (1) CN102668556A (ja)
WO (1) WO2012081194A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710968B2 (en) * 2012-12-26 2017-07-18 Help Lightning, Inc. System and method for role-switching in multi-reality environments
US9075906B2 (en) * 2013-06-28 2015-07-07 Elwha Llc Medical support system including medical equipment case
EP3022672A2 (en) * 2013-07-16 2016-05-25 Seiko Epson Corporation Information processing apparatus, information processing method, and information processing system
JP6397269B2 (ja) * 2013-09-06 2018-09-26 キヤノン株式会社 画像処理装置、画像処理方法
US10893831B2 (en) * 2013-10-25 2021-01-19 Resmed Inc. Electronic management of sleep related data
JP6336930B2 (ja) 2015-02-16 2018-06-06 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
US20160300030A1 (en) * 2015-04-08 2016-10-13 Medprodigy, Inc. System, method, and computer program for supplying medical equipment support
US10388069B2 (en) 2015-09-09 2019-08-20 Futurewei Technologies, Inc. Methods and systems for light field augmented reality/virtual reality on mobile devices
US10133532B2 (en) 2015-09-25 2018-11-20 Seiko Epson Corporation Display system, display device, information display method, and program
JP6733401B2 (ja) * 2016-07-28 2020-07-29 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム
IL289757B1 (en) 2016-05-09 2024-08-01 Magic Leap Inc Augmented reality systems and methods for user health analysis
JP6382928B2 (ja) * 2016-12-27 2018-08-29 株式会社コロプラ 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
WO2018225518A1 (ja) * 2017-06-07 2018-12-13 ソニー株式会社 画像処理装置、画像処理方法、プログラム、およびテレコミュニケーションシステム
WO2018230160A1 (ja) * 2017-06-12 2018-12-20 ソニー株式会社 情報処理システム、情報処理方法、およびプログラム
NL2019059B1 (en) * 2017-06-13 2018-12-19 Maritime Medical Applications B V Wireless communication system for remote medical assistance
JP2020065229A (ja) * 2018-10-19 2020-04-23 西日本電信電話株式会社 映像通信方法、映像通信装置及び映像通信プログラム
JP7372061B2 (ja) * 2019-07-01 2023-10-31 株式会社日立製作所 遠隔作業支援システム
WO2022168242A1 (ja) * 2021-02-04 2022-08-11 リバーフィールド株式会社 情報処理装置、支援システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
JP4065507B2 (ja) * 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) * 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
US7057637B2 (en) * 2004-04-21 2006-06-06 White Peter Mcduffie Reflected backdrop for communications systems
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
CN101554037A (zh) * 2006-09-22 2009-10-07 彼得·麦克达菲·怀特 3d显示以及远程呈现系统和其方法

Also Published As

Publication number Publication date
WO2012081194A1 (ja) 2012-06-21
CN102668556A (zh) 2012-09-12
US20120256950A1 (en) 2012-10-11

Similar Documents

Publication Publication Date Title
WO2012081194A1 (ja) 医療支援装置、医療支援方法および医療支援システム
Silva et al. Emerging applications of virtual reality in cardiovascular medicine
US20210022812A1 (en) Surgical Navigation Inside A Body
RU2740259C2 (ru) Позиционирование датчика ультразвуковой визуализации
US11819273B2 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
Van Krevelen et al. A survey of augmented reality technologies, applications and limitations
CA2896240C (en) System and method for role-switching in multi-reality environments
Carmigniani et al. Augmented reality technologies, systems and applications
TWI617279B (zh) 資訊處理裝置、資訊處理方法、及資訊處理系統
Barfield et al. Basic concepts in wearable computers and augmented reality
EP3570771B1 (en) Augmented reality for radiation dose monitoring
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
JP2016529773A (ja) マルチリアリティ環境における役割交渉のためのシステム及び方法
JP2016151791A (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
CN106980383A (zh) 一种虚拟模型展示方法、模块及基于该模块的虚拟人体解剖模型展示系统
JP2016151792A (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
WO2021062375A1 (en) Augmented and extended reality glasses for use in surgery visualization and telesurgery
JP6822413B2 (ja) サーバ装置及び情報処理方法、並びにコンピュータ・プログラム
JP2023526716A (ja) 外科手術ナビゲーションシステムおよびそのアプリケーション
CN114207557A (zh) 虚拟和物理相机的位置同步
JPWO2017056632A1 (ja) 情報処理装置及び情報処理方法
Dewitz et al. Real-time 3D scans of cardiac surgery using a single optical-see-through head-mounted display in a mobile setup
US20030179249A1 (en) User interface for three-dimensional data sets
CN116916813A (zh) 用于生理信号数据与位置信息收集及呈现的方法以及实现该方法的服务器及系统
KR20180123310A (ko) 증강현실을 이용한 복강경 수술 교육시스템

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160308