JP2023004884A - 拡張現実のグラフィック表現を表示するための表現装置 - Google Patents

拡張現実のグラフィック表現を表示するための表現装置 Download PDF

Info

Publication number
JP2023004884A
JP2023004884A JP2022079406A JP2022079406A JP2023004884A JP 2023004884 A JP2023004884 A JP 2023004884A JP 2022079406 A JP2022079406 A JP 2022079406A JP 2022079406 A JP2022079406 A JP 2022079406A JP 2023004884 A JP2023004884 A JP 2023004884A
Authority
JP
Japan
Prior art keywords
vis
display unit
augmented reality
representation
graphical representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022079406A
Other languages
English (en)
Other versions
JP7504942B2 (ja
Inventor
レーゲンスブルガー アロイス
Regensburger Alois
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Publication of JP2023004884A publication Critical patent/JP2023004884A/ja
Application granted granted Critical
Publication of JP7504942B2 publication Critical patent/JP7504942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】拡張現実のグラフィック表現を表示するための表現装置、拡張現実のグラフィック表現を提供するシステム及び方法を提供する。【解決手段】表現装置において、第1表示ユニットVIS.1は、少なくとも部分的に透明である。検出ユニットRUは、第2表示ユニットVIS.2の表現面に対する第1表示ユニットの相対的位置決めを検出する。第2表示ユニットの表現面VIS.Sは、グラフィック情報を表示する。処理ユニット22は、第1表示ユニットと第2表示ユニットの表現面との間の観察幾何を相対的位置決めに基づいて決定し、データセットを受信し、データセットに基づいて拡張現実を生成し、観察幾何に沿って拡張現実を表現面に仮想マッピングすることで拡張現実のグラフィック表現を提供する。第1表示ユニットは、拡張現実のグラフィック表現を、第2表示ユニットの表現面と少なくとも部分的に重畳させて表示する。【選択図】図1

Description

本発明は、拡張現実のグラフィック表現を表示するための表現装置、拡張現実のグラフィック表現を提供するためのシステムおよび方法に関する。
例えば検査オブジェクトの医療画像データの、医療情報をリアルに表現するために、拡張現実(英:augmented reality, AR)の表現が使用されることが増えている。その際、往々にして、現実のオブジェクトは、例えば医療オブジェクトおよび/または検査オブジェクトは、仮想データと、特に医療画像データおよび/または仮想オブジェクトと、重畳され、ディスプレイに表現される。高い没入感を有するリアルな表現のためには、仮想データと現実のオブジェクトとの間の正確なレジストレーション(重ね合わせ、位置合わせ)が必要とされる。
拡張現実における検査オブジェクトの術前および/または術中における画像データのグラフィック表現は、インターベンション型のおよび/または外科的な手術の際に、医療スタッフを、例えば医師を、支援するために使用することができる。しかしこの場合往々にして、拡張現実を表現する装置によって表示されるべき画像データが、特にリアルタイムで、提供ユニットおよび/または医療撮像装置によって受信され、処理されなければならないことは、不利である。これは、特に、画像データを拡張現実を表現する複数の装置に、特に同時に、提供する場合に、利用可能な伝送帯域幅によって、不利に制限され得る。さらに、その結果、拡張現実を表現する装置を用いて表示すべき画像データの画質も不利に低減され得る。検査オブジェクトの、特に術中における、画像データの記録と、拡張現実におけるそれらの表示との間の遅延、および/または、画質の低下は、インターベンション型のおよび/または外科的な手術の際の、誤調整を導き得る。これにより、検査オブジェクトの負傷リスクが増加され得る。
医療現場では、検査オブジェクトの3次元(3D)的に分解された画像データが医療スタッフの複数の観察者によって同時に観察され得ることが、頻繁に必要になる。この目的のために、例えば、医療スタッフによってウェアラブルな立体視フィルタ眼鏡と組み合わせた3Dモニタが使用可能である。ここで3Dモニタは、2つの立体視的な個別画像を提供することができ、当該個別画像は、医療スタッフの複数の観察者によって、フィルタ眼鏡を用いて立体視的に捕捉可能である。しかしここで、複数の、特にその時点での、観察者の観察点に対して立体視的な個別画像を適応できないこと、は不利である。その結果、特に観察点に依存して、3Dモニタで3次元的に分解された画像データを観察する際に、現実的でないおよび/または不十分な奥行き知覚が生じ得る。
したがって、本発明は、拡張現実の改善された適応を可能にするという課題に基づいている。
本課題は、本発明に従い、独立請求項のそれぞれの対象により達成される。合目的な発展形態を含む有利な実施形態は、従属請求項の対象である。
本発明は、第1の観点では、拡張現実のグラフィック表現を表示するための表現装置に関する。ここで、表現装置は、検出ユニットと、第1表示ユニットと、処理ユニットとを有する。さらに、第1表示ユニットは、少なくとも部分的に透明であるように形成されている。検出ユニットは、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めを検出するように、構成されている。その際、第2表示ユニットの表現面は、グラフィック情報を表示するように構成されている。処理ユニットは、第1表示ユニットと第2表示ユニットの表現面との間の観察幾何を相対的位置決めに基づいて決定するように、構成されている。また、処理ユニットは、データセットを受信するように、構成されている。さらに、処理ユニットは、拡張現実をデータセットに基づいて生成するように、構成されている。加えて、処理ユニットは、第2表示ユニットの表現面に観察幾何に沿って拡張現実を仮想マッピングすることにより拡張現実のグラフィック表現を提供するように、構成されている。さらに、第1表示ユニットは、拡張現実のグラフィック表現を第2表示ユニットの表現面と少なくとも部分的に重畳した状態で表示するように、構成されている。
第2表示ユニットは、例えばスクリーンおよび/またはモニタおよび/またはプロジェクタおよび/または投影面を有してよい。ここで、第2表示ユニットの表現面は、投影面および/またはスクリーンの表示層(英:panel)および/またはモニタの表示層を含んでよい。特に、第2表示ユニットの表現面は、空間的に限定された、特には連続した、面を含み得て、それらにはグラフィック情報が表示可能である。ここで、第2表示ユニットの表現面は、少なくとも部分的に、特に全体的に、平坦に、特に平面的に、または湾曲して、延在してよい。グラフィック情報は、特に医療に関する、画像データおよび/またはテキスト情報、例えば、特に医療的な、オブジェクトの動作パラメータおよび/またはオブジェクトパラメータ、および/または医療画像データに関するメタデータを含んでよい。
検出ユニットは、有利には、第1および第2表示ユニットの、特には第2表示ユニットの表現面の、空間的位置決めを検出するように、構成されていてもよい。第1および第2表示ユニットの空間的位置決めは、この場合、それぞれ、検出ユニットの座標系における第1および第2表示ユニットの空間的位置および/または姿勢を記述し得る。さらに、検出ユニットは、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めを第1および第2表示ユニットの検出された空間的位置決めに基づいて決定するように、構成されていてもよい。第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めは、有利には、第1表示ユニット、特に第1表示ユニットの座標系の原点と、第2表示ユニットの表現面、特に基準点、例えば表現面の中心点または隅角点との間の空間距離に関する情報を含み得る。さらに、相対的位置決めは、第2表示ユニットの表現面に対する、特には表現面の基準点における法線ベクトルに対する、第1表示ユニットの角度、特に視野角、に関する情報を含み得る。
代替的に、検出ユニットは、第1または第2表示ユニットの、特には第2表示ユニットの表現面の、それぞれ他方の表示ユニットに対する空間的位置決めを検出するように、構成されていてもよい。この場合、検出ユニットは、第1または第2表示ユニットに関して定義されて配置されていてもよく、特には、第1または第2表示ユニットに固定されていてもよく、および/または、少なくとも部分的に、特には全体的に、第1または第2表示ユニットへ組み込まれていてもよい。これにより、検出ユニットは、第1表示ユニットに対する第2表示ユニットの表現面の相対的位置決めを直接検出するように、構成されていてもよい。この場合、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めは、第1表示ユニットの座標系における表現面の、特に3次元的な、空間的位置および調整を記述することができる。
処理ユニットは、さらに、第1表示ユニット、特に1つまたは複数の視点、特に表現装置が動作状態にあるときに第1表示ユニットを通して見ているユーザの目と、第2表示ユニットの表現面と、の間の観察幾何を、相対的位置決めに基づいて、決定するように、構成されていてもよい。この場合、観察幾何は、第2表示ユニットの表現面と、第1表示ユニット、特にユーザの1つまたは複数の観察点との間の光路を、記述し得る。特に、観察幾何は、表現装置の動作状態においては、第2表示ユニットの表現面に表示されているグラフィック情報から、第1表示ユニットを通って、特に拡張現実のグラフィック表現を通って、1つまたは複数の観察点までの、特に第1表示ユニットを通して見ているユーザの目までの、光路を記述し得る。これにより、観察幾何は、第2表示ユニットに表示可能なグラフィック情報の、拡張現実のグラフィック表現との重畳観察の光路であって、ユーザの1つまたは複数の観察点に基づく光路、を記述し得る。
処理ユニットは、有利には通信可能に、第1表示ユニットおよび検出ユニットと、例えば無線または有線で、接続されていてもよい。データセットの受信は、特に、コンピュータ可読データ記憶装置からの取り込みおよび/または読み出し、および/またはデータ記憶ユニット、例えばデータベースからの受信、を含んでよい。さらに、データセットは、医療撮像装置によって準備されていてもよい。このために、処理ユニットはインターフェースを有してもよい。
データセットは、特には医療に関する画像データ、および/または、画像パラメータ、特にメタデータ、および/または、モデルデータ、特に患者モデルおよび/または器官モデルおよび/または組織モデル、および/または、モデルパラメータ、および/または、テキストデータ、例えば特に医療に関するオブジェクトの動作パラメータおよび/またはオブジェクトパラメータ、および/または、患者情報、例えば既往歴データおよび/または診断データ、および/または、生理学的情報、および/または、手続き上のデータ、例えば手術フェーズに関する情報、を含んでよい。
処理ユニットは、有利には、少なくとも1つの仮想オブジェクト、特には複数の仮想オブジェクトを含む拡張現実を、データセットに基づいて生成するように、構成されていてもよい。この場合、拡張現実は、第1表示ユニットの座標系における、少なくとも1つの仮想オブジェクトの、特には複数の仮想オブジェクトの、特には2次元的なおよび/または3次元的な、仮想配置を含んでよい。有利には、処理ユニットは、少なくとも1つの仮想オブジェクトであって、幾何学的なおよび/または解剖学的なおよび/またはテクスチャ的なおよび/またはグラフィック的な、データセットの特徴、を有する仮想オブジェクト、を生成するように、構成されていてもよい。さらに、処理ユニットは、拡張現実を、特に少なくとも1つの仮想オブジェクトを、第2表示ユニットの表現面とレジストレーション(重ね合わせ、位置合わせ)するように、構成されていてもよい。
処理ユニットは、さらに、拡張現実のグラフィック表現を、特に少なくとも1つの仮想オブジェクトのグラフィック表現を、拡張現実を、特に少なくとも1つの仮想オブジェクトを、第2表示ユニットの表現面へ、観察幾何に沿って、仮想マッピングすることによって、提給するように、構成されていてもよい。この場合、グラフィック表現は、特に、第1表示ユニットでの拡張現実の、2次元的なおよび/または3次元的な、特に立体視的な表現、を含み得る。この場合、拡張現実のグラフィック表現は、第1表示ユニットを通して見ているユーザにとって、仮想的に第2表示ユニットの表現面に配置されていてもよい。観察幾何に沿っての第2表示ユニットの表現面への拡張現実の仮想マッピングは、特に、観察幾何に沿っての第2表示ユニットの表現面での少なくとも1つの仮想オブジェクトの仮想的な配置を含み得る。さらに、拡張現実のグラフィック表現を提供するための仮想マッピングは、例えば、少なくとも1つの仮想オブジェクトの、第2表示ユニットの表現面への、観察幾何に沿った、仮想投影マッピング、および/または、レイトレーシング(英:ray-tracing)、および/または、写像行列に従う、特にカメラ行列に従うレンダリング、に基づいてよい。また、第2表示ユニットの表現面への拡張現実の仮想マッピングは、特にはその時点での、観察幾何に従った、少なくとも1つの仮想オブジェクトの仮想照明および/または仮想影を含み得る。さらに、処理ユニットは、仮想マッピングのステレオ視差(英:stereo disparity)を、観察幾何に応じて、第1表示ユニットによる拡張現実のグラフィック表現の立体視的な表示のために適応させるように、構成されていてもよい。追加的に、拡張現実のグラフィック表現は、コンテキスト情報を、例えば患者情報および/またはワークフロー指示を、含み得て、それらは、有利には、第2表示ユニットの表現面の外側に、特には表現面に隣接しておよび/または表現面と共に1つの平面内に、仮想的に配置されている。
拡張現実のグラフィック表現の提供は、コンピュータ可読記憶媒体での保存、および/または、第1表示ユニットへの送信、を含み得る。
第1表示ユニットは、有利には、拡張現実のグラフィック表現を、特には2次元的または3次元的に、表示するように、構成されていてもよい。特に、第1表示ユニットは、拡張現実のグラフィック表現を立体視的に表示するように、構成されていてもよい。第1表示ユニットは、有利には、現実の、特には対象の、オブジェクトを、特に第2表示ユニットの表現面を、拡張現実のグラフィック表現と、特には少なくとも1つの仮想オブジェクトのグラフィック表現と、少なくとも部分的に重畳させてディスプレイに、表現するように、構成されていてもよい。このために、第1表示ユニットは、例えば、スクリーンおよび/またはモニタおよび/またはプロジェクタおよび/または投影面を有し得る。有利には、第1表示ユニットは、眼鏡、特にスマートグラス、および/または、ヘルメット、特にヘッドマウントディスプレイ、として構成されてよい。さらに、第1表示ユニットは、携帯可能であるように、特にユーザにとってウェアラブルであるように、構成されていてもよい。この場合、第1表示ユニットは、有利には、ユーザの動きに、特にはユーザの頭部の動きに、追従してよい。さらに、第1表示ユニットは、少なくとも部分的に透明であるように、特には光透過型および/またはシースルー型であるように、構成されていてもよい。さらに、第1表示ユニットは、ユーザの視野内に配置されるように、構成されていてもよい
提案される実施形態は、有利には、特にはその時点における、ユーザの観察幾何に、適応させた、拡張現実のグラフィック表現を表示することができる。ここで、拡張現実のグラフィック表現は、グラフィック情報を少なくとも部分的に重畳することができ、当該グラフィック情報は、第2表示ユニットがその表現面に表現装置の動作状態のときに表示するもの、である。さらに、第2表示ユニットは、表現装置が動作状態にあるときに、グラフィック情報を、拡張現実のグラフィック表現の表示に影響されずに、特に遅延することなく、および/または高画質で、第2表示ユニットの表現面に表示できる。
提案される表現装置の別の有利な実施形態においては、処理ユニットは、相対的位置決めが変化した場合、第1表示ユニットと第2表示ユニットの表現面との間の観察幾何を、反復的に特定するように、構成されていてもよい。さらに、処理ユニットは、相対的位置決めが変化した場合、拡張現実のグラフィック表現を、最後に特定された観察幾何に基づいて、提供するように、構成されていてもよい。
検出ユニットは、有利には、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めを反復的に、特には連続的に、検出するように、構成されていてもよい。さらに、処理ユニットは、第2表示ユニットの表現面に対する第1表示ユニットの最後に検出された相対的位置決めとそれ以前に検出された相対的位置決めとの間の偏差を、識別するように、構成されていてもよい。この場合、偏差の識別は、最後に検出された相対的位置決めとそれ以前に検出された相対的位置決めとの間の比較を、含み得る。さらに、処理ユニットは、観察幾何を、特に最後に検出された相対的位置決めに基づいて、反復的に決定するように、構成されていてもよい。加えて、処理ユニットは、拡張現実のグラフィック表現を、最後に特定された観察幾何に基づいて、提供するように、構成されていてもよい。特に、処理ユニットは、拡張現実のグラフィック表現を、第2表示ユニットの表現面への拡張現実の仮想マッピングによって、最後に特定された観察幾何に沿って、提供するように、構成されていてもよい。
それにより、拡張現実のグラフィック表現は、有利には、特にはユーザの移動により、変化した相対的位置決めに、適応され得る。
提案される表現装置の別の有利な実施形態においては、検出ユニットは、第1表示ユニットおよび第2表示ユニットから離して配置されていてもよい、または、少なくとも部分的に、特には完全に、第1表示ユニットまたは第2表示ユニットへ組み込まれていてもよい。
第1変形例においては、検出ユニットは、第1および第2表示ユニットから離して、特には表現装置が動作状態にあるときに第1および第2表示ユニットが配置されている空間に対して、位置固定的に配置されていてもよい。有利には、検出ユニットはこの場合、第1および第2表示ユニットが、表現装置の動作状態において、検出ユニットの検出領域に配置されているように、配置されていてもよく、特には位置決めされていてもよい。これにより、検出ユニットは、その都度、第1および第2表示ユニットの空間的位置決めを、特には同時に、検出するように、構成されていてもよい。
第2変形例においては、検出ユニットは、少なくとも部分的に第1表示ユニットに、または、少なくとも部分的に第2表示ユニットに、組み込まれていてもよい。この場合、検出ユニットは、第1または第2表示ユニットに対して、特には第2表示ユニットの表現面に対して、定義された、特には位置固定的な、配置を有していてもよい。有利には、検出ユニットは、表現装置が動作状態にあるときにそれぞれの他方の表示ユニットが検出ユニットの検出領域に配置されているように、少なくとも部分的に第1または第2表示ユニットに組み込まれていてもよい。これにより、検出ユニットは、第1表示ユニットと第2表示ユニットとの間の相対的位置決めを直接的に検出するように、構成されていてもよい。
検出ユニットが第1表示ユニットから離して配置される場合、特に検出ユニットが少なくとも部分的に第2表示ユニットに組み込まれている場合、検出ユニットは、有利には、複数の、特には同種の又は異なる、表現装置の、それぞれの空間的位置決めを、特にはそれぞれの相対的位置決めを、特には同時に、検出するように、構成されていてもよい。
提案される表現装置の別の有利な実施形態においては、検出ユニットは、相対的位置決めを検出する光学的なおよび/または電磁的なおよび/または音響的なセンサを有し得る。
例えば、検出ユニットは、カメラとして構成された光学センサを有し得る、特には、2Dカメラ、および/または、全方位カメラ、および/または、3Dカメラ、特にはステレオカメラ、および/または、深度カメラ、および/または、飛行時間型カメラ(TOFカメラ)、を有し得て、当該カメラは、第1および/または第2表示ユニットを少なくとも部分的に、特には光学的に、検出するように、構成されている。さらに、検出ユニットは電磁センサを有し得て、当該電磁センサは第1および/または第2表示ユニットを、電磁波に基づいて、特には電磁波の変化および/または干渉に基づいて、位置特定するように、構成されていてもよい。電磁センサはさらに、特には検出ユニットが少なくとも部分的に第1または第2表示ユニットに組み込まれている場合には、検出ユニットの空間的位置決めを検出するジャイロセンサとして、構成されていてもよい。さらに、検出ユニットは、音響的な、特に超音波に基づく、センサを有し得て、当該センサは、所定の超音波音場を放射するように、そして、超音波音場の反射成分に基づいて相対的位置決めを検出するように、構成されている。有利には、検出ユニットは、信号を、第2表示ユニットの表現面に対する第1表示ユニットの検出された相対的位置決めに応じて、処理ユニットへ提給するように、構成されていてもよい。
提案される実施形態は、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めの高精度な検出を可能とする。
提案される表現装置の別の有利な実施形態においては、検出ユニットは、相対的位置決めを、第1および/または第2表示ユニットの物理的特徴に基づいて、および/または、第2表示ユニットの表現面に可視的および/または不可視的に表示されるグラフィックマーカ構造に基づいて、検出するように、構成されていてもよい。
第1および/または第2表示ユニットの物理的特徴は、例えば輪郭および/または形状および/または材料特性および/またはテクスチャ、例えば反射率および/または吸収性を含み得る。さらに、第1および/または第2表示ユニットは、物理的な、特には2次元的または3次元的な、マーカ構造を有して得て、当該マーカ構造は、定義された配置で第1および/または第2表示ユニットに固定されている、および/または、少なくとも部分的に第1および/または第2表示ユニットに、例えば第1および/または第2表示ユニットの縁部および/またはフレーム部に、組み込まれている。有利には、検出ユニットは、それぞれのマーカ構造の空間的位置決めを、特には空間的位置および/または方向づけおよび/または姿勢を、検出するように、構成されていてもよい。
代替的または追加的に、第2表示ユニットは、グラフィックマーカ構造を、特には人間のユーザにとって、可視的および/または不可視的に表示するように、構成されていてもよい。グラフィックマーカ構造は、有利には、特には第2表示ユニットの表現面に対して静止している、グラフィック位置マークの配置であって、例えば幾何形状および/または定義されたパターンのグラフィック位置マークの配置、を含み得る。検出ユニットは、有利には、表現装置の動作状態において第2表示ユニットの表現面に表示されるグラフィックマーカ構造を検出するように、構成されていてもよい。さらに、検出ユニットは、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めを、検出されたグラフィックマーカ構造に基づいて、特にはグラフィックマーカ構造の空間的位置決めに基づいて、検出するように、構成されていてもよい。
第2表示ユニットは、グラフィックマーカ構造を可視的に、特には少なくとも部分的にグラフィック情報と重畳させて、および/または、少なくとも部分的にグラフィック情報へ組み込んで、表示するように、構成されていてもよい。
代替的または追加的に、第2表示ユニットは、グラフィックマーカ構造を不可視的に表示するように、構成されていてもよい。この場合、グラフィックマーカ構造の表示は、有利には、人間のユーザによって認知可能な光スペクトルの外側の波長領域で、例えば赤外線の領域で、行われ得る。代替的または追加的に、第2表示ユニットは、グラフィックマーカ構造を、時間的および/または空間的にインターリーブしてグラフィック情報とともに表示するように、構成されていてもよい。時間的インターリーブは、この場合、グラフィック情報の表示の時間的シーケンス内でのグラフィックマーカ構造の、特には繰り返しの、表示を、記述することができる。ここで、第2表示ユニットは、グラフィックマーカ構造が人間のユーザにとって認識可能ではないように、グラフィックマーカ構造を、グラフィック情報の表示のシーケンス内においてまれにおよび/または短時間、表示するように、構成されていてもよい。グラフィック情報を伴うグラフィックマーカ構造の空間的にインターリーブされた表示は、例えば行毎および/または列毎に行われ得る。この場合、第2表示ユニットは、有利には、空間的にインターリーブされた表示におけるグラフィックマーカ構造が人間のユーザにとって認識可能ではないように、グラフィックマーカ構造の空間的分解能を設定するように、構成されていてもよい。有利には、第2表示ユニットは、グラフィックマーカ構造を、人間のユーザにとって認識可能なグラフィック情報への影響なしに表示するように、構成されていてもよい。
提案される実施形態は、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めの格別に堅牢(ロバスト)でかつそのうえ高精度な検出を、可能とする。
提案される表現装置の別の有利な実施形態では、拡張現実のグラフィック表現は、拡張現実の少なくとも1つの仮想オブジェクトのグラフィック表現を、有して得る。さらに、検出ユニットは、相対的位置決めに基づいて、観察パラメータを決定するように、構成されていてもよい。加えて、処理ユニットは、観察パラメータに基づいて、少なくとも1つの仮想オブジェクトを決定するように、構成されていてもよい。代替的にまたは追加的に、処理ユニットは、観察パラメータに基づいて、少なくとも1つの仮想オブジェクトのグラフィック表現の、分解能および/またはスケーリングおよび/またはサイズおよび/または位置決めを、適応させるように、構成されていてもよい。
相対的位置決めに基づいて決定される観察パラメータは、有利には、観察幾何の1つまたは複数の特性を、特にはユーザ非固有に、記述してもよい。例えば、観察パラメータは、特にはその時点の、空間距離であって、第1表示ユニット、特には第1表示ユニットの座標系の原点、及び、第2表示ユニットの表現面、特には表現面の基準点、例えば中心点または隅角点、の間の空間距離、に関する情報を含み得る。さらに、観察パラメータは、第2表示ユニットの表現面に対する、特には表現面の基準点における法線ベクトルに対する、第1表示ユニットの角度、特には視野角、に関する情報を含み得る。更に、観察パラメータは、第2表示ユニットの表現面に対する第1表示ユニットの視野の空間的拡張、特にファン角(英:fan angle、独:Faecherwinkel)、に関する情報を含み得る。
処理ユニットは、有利には、少なくとも1つの仮想オブジェクトを観察パラメータに基づいて決定するように、構成されていてもよい。この場合、少なくとも1つの仮想オブジェクトの決定は、例えば 、特にはコンテンツおよび/またはグラフィックに関する、データセットのフィルタリング、および/または、データセットの再構成、を含んでよい。データセットのフィルタリングは、例えば、データセットの要素および/または特徴および/または情報を、データセットの少なくとも1つの仮想オブジェクトを決定するための観察パラメータに基づいて、選択すること、を含み得る。代替的にまたは追加的に、処理ユニットは、少なくとも1つの仮想オブジェクトのグラフィック表現の、特には空間的および/または時間的な、分解能、および/または、スケーリング、および/または、サイズ、および/または、位置決め、を観察パラメータに基づいて、調整するように、構成されていてもよい。例えば、処理ユニットは、第1表示ユニットと第2表示ユニットの表現面との間の空間距離を増加させて、少なくとも1つの仮想オブジェクトのグラフィック表現の空間的分解能を減少させるように、構成されていてもよい。更に、処理ユニットは、例えばスケーリングを用いて、第1表示ユニットと第2表示ユニットの表現面との間の空間距離を増加させて、少なくとも1つの仮想オブジェクトのグラフィック表現を縮小させるように、構成されていてもよい。さらに、処理ユニットは、第2表示ユニットの表現面での少なくとも1つの仮想オブジェクトのグラフィック表現の、位置決め、特に位置および/または方向づけ、を、観察パラメータ、特には視野角、に応じて、調整するように、構成されていてもよい。処理ユニットは、さらに、少なくとも1つの仮想オブジェクトのグラフィック表現のさらに別の表現パラメータを、観察パラメータに基づいて、例えばフォントサイズおよび/または線の太さおよび/またはカラーコーディングおよび/またはグレー値コーディングに基づいて、調整するように、構成されていてもよい。
提案される実施形態は、有利には、拡張現実の、特には少なくとも1つの仮想オブジェクトの、グラフィック表現の没入型かつリアルな表示を可能とし、当該表示では、第2表示ユニットの表現面との少なくとも部分的な重畳が可能である。
提案される表現装置の別の有利な実施形態では、検出ユニットは、表現装置の動作状態において第1表示ユニットを通し見ているユーザの、入力および/または識別を、検出するように、構成されていてもよい。さらに、検出ユニットは、追加的にユーザの入力および/または識別に基づいて、特にユーザ固有に、観察パラメータを決定するように、構成されていてもよい。
相対的位置決めを検出する検出ユニットのセンサは、有利には、ユーザの入力を検出するようにも、構成されていてもよい。代替的にまたは追加的に、検出ユニットは、さらなるセンサ、特には光学的および/または電磁的および/または音響的および/または触覚的なセンサ、を有してよく、当該センサは、ユーザの入力を検出するように、構成されていてもよい。検出ユニットは、有利には、入力手段に基づいて、ユーザの入力を検出するように、構成されていてもよい。入力手段は、例えば、ポインティングデバイス、例えばペンおよび/またはマーカ構造体、および/または、入力ユニット、例えばキーボード、および/または、ユーザの身体の一部、例えば手および/または指、および/または、光信号的および/または音響的信号、を含み得る。有利には、検出ユニットは、特には入力手段に基づいて、ユーザの入力を2次元空間的および/または3次元空間的に分解して検出するように、構成されていてもよい。特には、検出ユニットは、ユーザの入力を、例えば軌道および/またはジェスチャとして、逐一および/または時間分解して、検出するように、構成されていてもよい。
ユーザの入力は、有利には、情報、特には少なくとも1つの入力パラメータ、を有していてもよく、当該情報は、少なくとも1つの仮想オブジェクトの決定、および/または、少なくとも1つの仮想オブジェクトのグラフィック表現の分解能および/またはスケーリングおよび/またはサイズおよび/または位置決めの適応、のための情報である。例えば、ユーザの入力は、少なくとも1つの仮想オブジェクトを決定するためのデータセットの要素および/または特徴および/または情報を選択するための基準、を有し得る。
更に、検出ユニットは、ユーザの識別を検出するように、構成されていてもよい。検出ユニットは、相対的位置決めを検出する検出ユニットのセンサを用いて、および/または、さらなるセンサを用いて、ユーザの識別を検出するように、構成されていてもよい。ユーザの識別の検出は、例えば、生体的な特徴、例えば音声プロファイルおよび/または指紋、に基づいて、および/または、ユーザの入力に基づいて、および/または、識別媒体、例えばバーコードおよび/または無線周波数識別システム(英:radiofrequency identification, RFID)に基づいて、行われ得る。処理ユニットは、有利には、ユーザの識別に基づいて、役割を割り当てるように、構成されていてもよい。ユーザの様々な役割は、例えば、特には医療上の、処置の重要性および/またはインタラクションの程度および/またはそれぞれのユーザの専門的技能に基づいて、分類されていてもよい。
処理ユニットは、ユーザの異なる識別、特には役割、に対して、拡張現実を少なくとも部分的に異ならせて生成するように、構成されていてもよい。さらに、処理ユニットは、ユーザの異なる識別、特には役割、に対して、拡張現実のグラフィック表現を少なくとも部分的に異ならせて提供するように、構成されていてもよい。検出ユニットは、有利には、追加的に、ユーザの識別、特には役割、に基づいて、観察パラメータを決定する、特には選択する、ように、構成されていてもよい。有利には、検出ユニットは、ユーザの分類された役割に対して、それぞれ少なくとも1つの観察パラメータを、コンピュータ可読データ記憶装置からの取り込みおよび/または読み出しによって、および/または、データ記憶ユニット、例えばデータベース、からの受信によって、決定してもよい。観察パラメータは、例えば、少なくとも1つの仮想オブジェクトを決定するためのデータセットの、要素および/または特徴および/または情報を選択するための基準であって、特にはユーザ固有のおよび/または役割固有の基準、を有し得る。代替的にまたは追加的に、観察パラメータは、少なくとも1つの仮想オブジェクトのグラフィック表現の、分解能および/またはスケーリングおよび/またはサイズおよび/または位置決めに関する命令であって、特にはユーザ固有および/または役割固有の命令、を有し得る。さらに、特にユーザ固有の、観察パラメータは、ユーザ固有のステレオ視差に関する情報、を有し得る。この場合、処理ユニットは、有利には、拡張現実のグラフィック表現を提給する仮想マッピングを、特には拡張現実のグラフィック表現の立体視的な表示のために、観察パラメータに基づいて、ユーザ固有のステレオ視差へ適応させるように、構成されていてもよい。
提案される実施形態は、有利には、拡張現実の、特に少なくとも1つの仮想オブジェクトの、グラフィック表現の、ユーザ固有なおよび/またはコンテキスト依存な適応であって、特には手動での適応、を可能にすることができる。
提案される表現装置の別の有利な実施形態は、データセットは、表現装置の動作状態において第2表示ユニットが表現面に表示するグラフィック情報に関するパラメータを、有し得る。この場合、処理ユニットはさらに、拡張現実をパラメータに応じて生成するように、構成されていてもよい。
パラメータは、第2表示ユニットが表現装置の動作状態において表示するグラフィック情報に関する、オリジナル情報および/または表現情報、を有し得る。ここで、オリジナル情報は、例えば、グラフィック情報のソース、例えば、グラフィック情報を記録および/または提給する医療撮像装置、に関する情報を有し得る。特に、パラメータは、グラフィック情報に関するメタデータを有し得る。さらに、オリジナル情報は、グラフィック情報に関する記録パラメータおよび/または再構成パラメータを有し得る。さらに、オリジナル情報は、位置決め情報を有し得て、当該位置決め情報は、例えば、グラフィック情報のソースの、特には撮影および/または提給のための医療撮像装置の、例えば空間的位置および/または方向づけおよび/または姿勢および/または空間的な撮影領域、を記述する。表現情報は、さらに、グラフィック情報の表示に関する情報を有し得る、例えば、フレームレートおよび/または分解能および/または画像値のコーディング、例えばカラーコーディングまたはグレー値コーディング、を有し得る。
処理ユニットは、さらに、パラメータに応じて拡張現実を生成するように、構成されていてもよい。特に、処理ユニットは、少なくとも1つの仮想オブジェクト、特には複数の仮想オブジェクト、をパラメータに応じて決定するように、構成されていてもよい。さらに、処理ユニットは、第1表示ユニットの座標系における、少なくとも1つの仮想オブジェクト、特に複数の仮想オブジェクト、の仮想的な配置をパラメータに応じて適応させるように、構成されていてもよい。これにより、さらに、第2表示ユニットの表現面での少なくとも1つの仮想オブジェクトのグラフィック表現の位置決めは、パラメータに応じて、調整され得る。特に、処理ユニットは、拡張現実、特に少なくとも1つの仮想オブジェクト、を、観察幾何及びパラメータに基づいて、グラフィック情報とともにレジストレーション(重ね合わせ、位置合わせ)するように、構成されていてもよい。処理ユニットは、さらに、拡張現実の、特に少なくとも1つの仮想オブジェクトの、グラフィック表現を、パラメータに応じて調整するように構成されていてもよい。
これにより、動作状態において第2表示ユニットの表現面に表示されるグラフィック情報と少なくとも部分的に重畳した状態での、拡張現実のグラフィック表現の没入感を向上させることが可能になる。
提案される表現装置の別の有利な実施形態では、データセットは、第1の医療画像データを有し得る。ここで、処理ユニットは、第1の医療画像データに基づいて、拡張現実を生成するように、構成されていてもよい。有利には、第2表示ユニットは、表現装置の動作状態では、第2医療画像データのグラフィック表現を、グラフィック情報として、表現面に表示してもよい。この場合、第1医療画像データおよび第2医療画像データは、検査オブジェクトの少なくとも部分的に共通する検査領域の、マッピングおよび/またはモデル、を有し得る。さらに、表現装置の動作状態では、拡張現実のグラフィック表現は、少なくとも部分的に、第2医療画像データのグラフィック表現と、重畳されていてもよい。
第1医療画像データおよび/または第2医療画像データは、有利には、1つの医療撮像装置によって、または、様々な医療撮像装置によって、記録および/または提供されていてもよい。ここで、第1および/または第2医療画像データを記録する少なくとも1つの医療撮像装置は、例えば、医療X線装置、および/または、磁気共鳴システム(MRT)、および/または、コンピュータ断層撮影システム(CT)、および/または、陽電子放射断層撮影システム(PET)、および/または、超音波装置、および/または、内視鏡、特には腹腔鏡および/または気管支鏡、および/または、カテーテル、として構成されていてもよい。この場合、第1および第2医療画像データは、それらの記録パラメータおよび/または再構成に関して、同一または相異なるものであってよい。さらに、第1および第2医療画像データは、互いにレジストレーションされていてもよい。
有利には、第1医療画像データは、特には時間分解された、2次元的なまたは3次元的な空間的に分解されたマッピングであって、検査オブジェクトの少なくとも1つの第1検査領域の、例えば解剖学的領域のおよび/または臓器の、特には中空器官のおよび/または骨構造の、マッピング、を有し得る。さらに、第2医療画像データは、特には時間分解された、2次元的なまたは3次元的な空間的に分解されたマッピングであって、検査オブジェクトの少なくとも1つの第2検査領域の、例えば解剖学的領域のおよび/または臓器の、特には中空器官のおよび/または骨構造の、マッピング、を有し得る。第1および/または第2医療画像データは、例えばシーン、例えば外科用ビデオ、を有し得る。この場合、第1および第2検査領域は、少なくとも部分的に一致し得る。これにより、第1および第2医療画像データは、少なくとも部分的に、検査オブジェクトの共通する検査領域を、マッピングし得る。第1および/または第2医療画像データは、それぞれ、検査オブジェクトの、特には第1および/または第2検査領域の、対比されたマッピング(英:contrasted mapping、独:kontrastierte Abbildung)および/または分割されたマッピング(英:segmented mapping、独:segmentierte Abbildung)を有し得る。検査オブジェクトは、例えば、人間の患者、および/または、動物の患者、および/または、検査ファントム、であり得る。さらに、第1および第2医療画像データは、検査オブジェクトを、特には共通する検査領域を、異なる記録時点に対してまたは少なくとも部分的に同じ記録時点に対して、例えば術前および/または術中に、マップし得る。さらに、第1医療画像データは、第2医療画像データを記録するための、特には内視鏡および/またはカテーテルとして構成された医療撮像装置のマッピング、特には術中におけるマッピング、を有し得る、またその逆も同様である。
代替的にまたは追加的に、第1および/または第2医療画像データは、それぞれの検査領域の、特には中空器官の、2Dモデルおよび/または3Dモデルを有し得る、特には、センターラインモデルおよび/またはボリュームモデル、例えばボリュームメッシュモデル(英:volume mesh model)、を有し得る。
処理ユニットは、有利には、拡張現実を第1医療画像データに基づいて生成するように、構成されていてもよい。例えば、処理ユニットは、第1医療画像データにおいてマッピングされている、解剖学的オブジェクト、例えば組織領域および/または器官、特には中空器官、および/または、医療オブジェクト、例えば外科用および/または診断用機器および/またはインプラント、の分割および/または識別によって、少なくとも1つの仮想オブジェクトを決定するように、構成されていてもよい。少なくとも1つの仮想オブジェクトは、分割および/または識別された解剖学的および/または医療的オブジェクトの、例えばマッピングおよび/または仮想表現、例えば2Dモデルまたは3Dモデル、を有し得る。
第2表示ユニットは、有利には、表現装置の動作状態において、第2医療画像データのグラフィック表現を、グラフィック情報として、表示するように、構成されていてもよい。さらに、処理ユニットは、拡張現実のグラフィック表現を以下のように提給するように、構成されていてもよい、すなわち、表現装置の動作状態において、第1表示ユニットによって表示さる拡張現実のグラフィック表現が、第2表示ユニットの表現面における第2医療画像データのグラフィック表現と、少なくとも部分的に重畳されるように、拡張現実のグラフィック表現を提供するように、構成されていてもよい。特に、処理ユニットは、拡張現実のグラフィック表現を以下のように提供するように、構成されていてもよい、すなわち、検査オブジェクトの少なくとも部分的に共通する領域が、拡張現実のグラフィック表現と第2医療画像データのグラフィック表現が重畳された状態で、合同的に配置されているように、拡張現実のグラフィック表現を提供するように、構成されていてもよい。特に、処理ユニットは、拡張現実のグラフィック表現を第2医療画像データのグラフィック表現と、相対的位置決めに基づいて、特には観察幾何に基づいて、レジストレーション(重ね合わせ、位置合わせ)するように、構成されていてもよい。
提案される実施形態は、拡張現実のグラフィック表現を、第2表示ユニットの表現面に動作状態において表示される第2医療画像データのグラフィック表現と、少なくとも部分的に重畳して表示することを、可能にすることができる。この場合、第2医療画像データのグラフィック表現の表示は、特にはその画質および/または表示遅延に関して、拡張現実のグラフィック表現の表示から影響を受けないままでいることができる。
提案される表現装置の別の有利な実施形態においては、第1画像データは、検査オブジェクトを、3次元的にマッピング(マップ化)することおよび/またはマッピング(モデル化)することができる。さらに、処理ユニットは、第2画像データのグラフィック表現に関して仮想窓を有する拡張現実のグラフィック表現を提供するように、構成されていてもよい。
有利には、処理ユニットは、第2表示ユニットの表現面における、特には2次元の、関心領域を、特には第2医療画像データに関して、決定するおよび/または識別するように、構成されていてもよい。この場合、処理ユニットは、例えば、ユーザのさらなる入力に基づいて、および/または、幾何学的特徴、例えば輪郭および/または画像値および/またはコントラスト値、および/または、解剖学的特徴、例えば組織境界および/または血管壁、および/または、第2医療画像データのマーカ構造、に基づいて、関心領域を、決定するおよび/または識別するように、構成されていてもよい。有利には、関心領域は、第2表示ユニットの表現面の、特に連続的でありおよび/または空間的に限定された、少なくとも一部分、を記述してよく、当該一部分には、拡張現実のグラフィック表示における仮想窓を位置決めされ得る。
仮想窓は、拡張現実のグラフィック表現の、空間的に限定されたおよび/または連続した、領域を表し得て、この領域は、第2表示ユニットの表現面と少なくとも部分的に重畳した状態において、第2医療画像データのグラフィック表現に対して仮想的な透過性を、有する。有利には、処理ユニットは、拡張現実のグラフィック表現を、特には少なくとも1つの仮想オブジェクトのグラフィック表現を、第2表示ユニットの表現面における関心領域に、配置するように、構成されていてもよい。処理ユニットは、有利には、仮想窓を、2次元的にまたは3次元的に、空間分解して提供するように、構成されていてもよい。仮想窓はさらに、第1医療画像データの少なくとも1つの、特には2次元的または3次元的に空間分解された、領域を有してよい。有利には、処理ユニットは、拡張現実のグラフィック表現を以下のように提給するように、構成されていてもよい、すなわち、検査オブジェクトの少なくとも部分的に共通する領域が、特には共通の幾何学的および/または解剖学的特徴が、拡張現実のグラフィック表現と、特には仮想窓と、第2医療画像データのグラフィック表現が重畳された状態で、合同的に配置されているように、拡張現実のグラフィック表現を提供するように、構成されていてもよい。処理ユニットはさらに、仮想窓を、特には第1医療画像データの領域を、特にはその時点の、観察幾何に応じて、適応させるように構成されていてもよい。さらに、処理ユニットは、仮想窓を、観察パラメータ、および/または、グラフィック情報に関する、特には第2医療画像データに関する、パラメータ、に応じて適応させるように、構成されていてもよい。観察幾何に応じた仮想窓の適応は、有利には、第2表示ユニットの表現面における、特には関心領域における、拡張現実の仮想マッピングであって、表現面に対して奥行き次元を有する拡張現実の仮想マッピング、を含み得る。この場合、拡張現実の、特には少なくとも1つの仮想オブジェクトの、表現面へのマッピングは、例えば、観察幾何に沿った、仮想投影マッピング、および/または、レイトレーシング(英:ray tracing)、および/または、写像行列に従うレンダリング、特には第1医療画像データを記録および/または提供する医療撮像装置の写像行列および/またはカメラ行列に従うレンダリング、に基づいていてもよい。さらに、奥行き次元(英:depth dimension、独:Tiefendimension)は、第2表示ユニットの表現面に対して、略垂直に延在し得る。特に、第2表示ユニットの表現面における関心領域は、透過性の空間領域を制限し得て、当該透過性は、拡張現実のグラフィック表現との、特には仮想窓との、重畳により、提供される。
提案される実施形態は、有利には、第2表示ユニットの表現面で、仮想窓を通しての、拡張現実のグラフィック表現の第1医療画像データの没入的な観察を可能にすることができる。
提案される表現装置の別の有利な実施形態においては、検査オブジェクトの共通する領域は、囲繞中空空間を含み得る。この場合、仮想窓は、中空空間の囲繞部であって、拡張現実の第2表示ユニットの表現面への仮想マッピングに関する仮想平面によって切断される囲繞部、により、限定されていてもよい。
囲繞中空空間は、特には組織および/または構造および/または組織境界によって、空間的に限定された、特には液体で満たされた、検査オブジェクトの中空空間を、例えば中空器官を、表し得る。中空器官は、例えば、血管の一部、特には動脈または静脈、および/または、肺、および/または、腸、および/または、心臓、を含み得る。
有利には、処理ユニットは、第2表示ユニットの表現面における関心領域を、特には第2医療画像データに関して、中空空間の囲繞部に基づいて決定するおよび/または識別するように、構成されていてもよい。拡張現実を第2表示ユニットの表現面に仮想マッピングする場合、中空空間の囲繞部は、特には第2表示ユニットの表現面に対して平行のまたは傾斜した、仮想平面によって、切断され得る。この場合、中空空間の切断された囲繞部は、特には閉じているかまたは破断している、輪郭を有し得る。処理ユニットは、有利には、中空空間の切断された囲繞部の輪郭を、特には拡張現実の仮想マッピングの際に、決定するおよび/または識別するように、構成されていてもよく、それは例えば画像値および/またはコントラスト値に基づいて行われる。有利には、処理ユニットは、関心領域を、特には連続した、面として、決定するおよび/または識別するように、構成されていてもよく、当該面は、切断された囲繞部の輪郭により境界付けされる。特に、切断された中空空間の輪郭は、透過性の空間領域を限定し得て、当該空間領域は、拡張現実のグラフィック表現とも、特には仮想窓との、重畳によって提供される。仮想窓を2次元的に構成する場合、処理ユニットは、仮想窓を、関心領域に対応させて、特には中空空間の切断された囲繞部によって、空間的に限定して決定するように、構成されていてもよい。仮想窓を3次元的に構成する場合、処理ユニットは、仮想窓を、追加的に表現面の奥行き次元に沿って、中空空間の囲繞部によって限定するように、構成されていてもよい。
これにより、縁取られた中空空間のリアルな表現、及び、仮想窓を通してのその観察、が可能になる。
提案される表現装置の別の有利な実施形態においては、処理ユニットは、第2画像データへマッピングされる少なくとも1つのオブジェクトの仮想継続部を有する拡張現実のグラフィック表現を提供するように、構成されていてもよい。さらに、第1表示ユニットは、第2表示ユニットの表現面の外側および/または近傍に、仮想継続部を表示するように、構成されていてもよい。
有利には、処理ユニットは、第2医療画像データにおける少なくとも1つの、特には解剖学的および/または医療的および/または幾何学的な、オブジェクトを、識別するように、構成されていてもよく、それは、例えば、画像値および/またはコントラスト値および/またはマーカ構造および/または解剖学的アトラスに基づいて行われる。第2医療画像データにおける少なくとも1つのオブジェクトの識別は、例えば分割(セグメント化)を含み得る。さらに、処理ユニットは、第1医療画像データにおけるオブジェクトであって、少なくとも1つのオブジェクトに対応するオブジェクトを識別するように、構成されていてもよく、それは、例えば第1医療画像データと第2医療画像データとの間のレジストレーションに基づいて、および/または、画像値および/またはコントラスト値および/またはマーカ構造および/または解剖学的アトラスに基づいて、行われる。この場合、第1医療画像データにおける少なくとも1つの対応的なオブジェクトの識別は、例えば分割(セグメント化)を含み得る。有利には、処理ユニットは、さらに、対応するオブジェクトのマッピングおよび/または仮想表現、特にはモデル、を有する仮想継続部を、第1医療画像データに基づいて、決定するように、構成されていてもよい。さらに、処理ユニットは、仮想継続部が表現装置の動作状態において第2表示ユニットの表現面の外側および/または近傍に表示されるように、拡張現実を、第2表示ユニットの表現面に仮想的にマッピングするように、構成されていてもよい。この場合、仮想継続部は、第2表示ユニットの表現面と平行な面に配置されていてもよい、または、表現面に対して所定の角度で配置されていてもよい。
これにより、拡張現実のグラフィック表現の、第2表示ユニットの表現面とレジストレーションされつつも、表現面によっては空間的に限定されてはいない表示、を可能とすることができる。
本発明は、第2態様においては、提案される表現装置と、特には複数の提案される表現装置と、第2表示ユニットと、医療撮像装置と、を備えるシステムに関する。ここで、医療撮像装置は、第1医療画像データおよび/または第2医療画像データを記録および/または提供するように、構成されている。さらに、第2表示ユニットは、第2医療画像データのグラフィック表現を表現面に表示するように、構成されている。
提案されるシステムの有利な点は、基本的に、拡張現実のグラフィック表現を表示するための提案される表現装置の有利な点に、対応する。ここで記載された特徴、有利な点、または、代替的な実施形態は、同様に、別の請求される対象にも適用可能であり、またその逆も同様である。
提案される表現装置の別の有利な実施形態においては、医療撮像装置は、少なくとも部分的に検査オブジェクトの検査領域に配置されるように、構成されていてもよい。
医療撮像装置は、例えば内視鏡として、特には腹腔鏡および/または気管支鏡として、および/または、カテーテルとして、構成されていてもよい。ここで、医療撮像装置の遠位部は、システムの作動状態においては、検査オブジェクト、特には検査オブジェクトの中空器官、に配置されていてもよい。さらに、医療撮像装置の遠位部は、第1および/または第2医療画像データを記録するように、構成されていてもよい。
本発明は、第3態様においては、拡張現実のグラフィック表現を提供するための方法に関する。ここで、第2表示ユニットの表現面に対する第1表示ユニットの相対的位置決めは、検出ユニットを用いて検出される。さらに、グラフィック情報は、第2表示ユニットの表現面に表示される。さらに、第1表示ユニットと第2表示ユニットの表現面との間の観察幾何は、相対的位置決めに基づいて、決定される。さらに、データセットは、受信される。さらに、拡張現実は、データセットに基づいて生成される。さらに、拡張現実のグラフィック表現は、拡張現実を第2表示ユニットの表現面に観察幾何に沿って仮想マッピングすることにより、提供される。ここで、提供は、第1表示ユニットを用いて、拡張現実のグラフィック表現を、第2表示ユニットの表現面においてグラフィック情報と少なくとも部分的に重畳させて表示すること、を含む。
提案される方法の有利な点は、基本的に、拡張現実のグラフィック表現を表示するための提案される表現装置の有利な点に、対応する。ここで記載された特徴、有利な点、または、代替的な実施形態は、同様に、別の請求される対象にも適用可能であり、またその逆も同様である。本発明に係る装置、特には表現装置および/またはシステムは、有利には、提案される方法の実施形態を実行するように、構成されていてもよい。
本発明の実施形態例は、図面に示されており、以下においてより詳細に説明される。異なる図においては、同一の特徴に対しては、同一の参照符号が用いられている。
図1は、拡張現実のグラフィック表現を表示するための表現装置の有利な実施形態の概略図を示す。 図2は、拡張現実のグラフィック表現を表示するための表現装置の別の有利な実施形態の概略図を示す。 図3は、拡張現実のグラフィック表現を表示するための表現装置の更に別の有利な実施形態の概略図を示す。 図4は、仮想窓を有する拡張現実の仮想マッピングの概略図を示す。 図5は、提案されるシステムの有利な実施形態の概略図を示す。 図6は、拡張現実のグラフィック表現を提供するための提案される方法の概略図を示す。
図1には、拡張現実のグラフィック表現を表示するための、提案される表現装置の、有利な実施形態が概略的に示されている。表現装置は、検出ユニットRUと、第1表示ユニットVIS.1と、処理ユニット22とを有し得る。この場合、第1表示ユニットVIS.1は、少なくとも部分的に透明であるように構成されていてもよい。さらに、検出ユニットRUは、第2表示ユニットVIS.2の表現面VIS.Sに対する第1表示ユニットVIS.1の相対的位置決めを検出するように構成されていてもよい。検出ユニットRUは、例えば、相対的位置決めを検出する光学的なおよび/または電磁的なおよび/または音響的なセンサを有し得る。さらに、第2表示ユニットVIS.2の表現面VIS.Sは、グラフィック情報GIを表示するように構成されていてもよい。第2表示ユニットVIS.2は、例えば、スクリーンおよび/またはモニタおよび/またはプロジェクタおよび/または投影面を有し得る。ここで、第2表示ユニットVIS.2の表現面VIS.Sは、投影面および/またはスクリーンの表示層および/またはモニタの表示層を含んでよい。特に、第2表示ユニットVIS.2の表現面VIS.Sは、限定された領域を含み得て、そこにはグラフィック情報GIが表示可能である。ここで、第2表示ユニットVIS.2の表現面VIS.Sは、少なくとも部分的に、特には全体的に、平坦に、特に平面的に、または湾曲して、延在してよい。グラフィック情報GIは、特には医療に関する、画像データおよび/またはテキスト情報、例えば、動作パラメータ、および/または、特には医療に関する、オブジェクトのオブジェクトパラメータ、および/または、医療画像データに関するメタデータ、を含み得る。
さらに、処理ユニット22は、第1表示ユニットVIS.1と第2表示ユニットVIS.2の表現面VIS.Sとの間の観察幾何を、相対的位置決めに基づいて、決定するように、構成されていてもよい。処理ユニット22はさらに、データセットを受信するように、構成されていてもよい。有利には、処理ユニット22は、第1表示ユニットVIS.1と検出ユニットRUとに、例えば信号22.Sを用いて、通信可能に接続されていてもよい。また、処理ユニット22は、拡張現実をデータセットに基づいて生成するように、構成されていてもよい。さらに、処理ユニット22は、拡張現実を第2表示ユニットVIS.2の表現面VIS.Sに観察幾何に沿って仮想マッピングすることにより拡張現実のグラフィック表現G.ARを提供するように、構成されていてもよい。
第1表示ユニットVIS.1は、有利には、拡張現実のグラフィック表現G.ARを第2表示ユニットVIS.2の表現面VIS.Sと少なくとも部分的に重畳させて、特に立体視的に、表示するように、構成されてよい。このために、第1表示ユニットVIS.1は、例えば、スクリーンおよび/またはモニタおよび/またはプロジェクタおよび/または投影面を有し得る。有利には、第1表示ユニットVIS.1は、眼鏡、特にはスマートグラス、および/またはヘルメット、特にヘッドマウントディスプレイとして、構成されていてもよい。さらに、第1表示ユニットVIS.1は、携帯可能であるように、特にユーザUによってそのユーザUの視野内でウェアラブルであるように、構成されていてもよい。
この場合、検出ユニットRUは、少なくとも部分的に第1表示ユニットVIS.1に組み込まれていてもよい。さらに、検出ユニットRUは、第1表示ユニットVIS.1に対して定義された、特に位置固定された構成を有し得る。有利には、検出ユニットRUは、第2表示ユニットVIS.2が表現装置の動作状態では検出ユニットRUの検出領域に配置されているように、少なくとも部分的に第1表示ユニットVIS.1に組み込まれていてもよい。
有利には、処理ユニット22はさらに、相対的位置決めが変化する場合、第1表示ユニットVIS.1と第2表示ユニットVIS.2の表現面VIS.Sとの間の観察幾何を繰り返し決定するように、構成されていてもよい。加えて、処理ユニット22は、相対的位置決めが変化する場合、拡張現実のグラフィック表現G.ARを最後に決定された観察幾何に基づいて提供するように、構成されてよい。
拡張現実のグラフィック表現G.ARは、有利には、拡張現実の少なくとも1つの仮想オブジェクトのグラフィック表現を有し得る。この場合、検出ユニットRUは、観察パラメータを相対的位置決めに基づいて決定するように、構成されていてもよい。さらに、処理ユニット22は、少なくとも1つの仮想オブジェクトを観察パラメータに基づいて決定するように、構成されていてもよい。代替的にまたは追加的に、処理ユニット22は、少なくとも1つの仮想オブジェクトのグラフィック表現の分解能および/またはスケーリングおよび/またはサイズおよび/または位置決めを観察パラメータに基づいて適応させるように、構成されていてもよい。
検出ユニットRUはさらに、表現装置の動作状態における第1表示ユニットVIS.1を通して見るユーザUの入力および/または識別を検出するように、構成されていてもよい。加えて、検出ユニットRUは、観察パラメータを追加的にユーザUの入力および/または識別に基づいて決定するように、構成されていてもよい。
有利には、データセットは、表現装置の動作状態において第2表示ユニットVIS.2が表現面VIS.Sに表示するグラフィック情報GIに対するパラメータを有し得る。さらに、処理ユニット22は、拡張現実をパラメータに応じて生成するように、構成されていてもよい。
図2は、提案される表現装置の別の有利な実施形態の概略図を示す。この場合、検出ユニットRUは、第1表示ユニットVIS.1および第2表示ユニットVIS.2から離間して配置されていてもよく、特には表現装置の動作状態において第1表示ユニットVIS.1および第2表示ユニットVIS.2が配置されている空間に対して位置固定的に配置されていてもよい。有利には、検出ユニットRUは、第1表示ユニットVIS.1および第2表示ユニットVIS.2が表現装置の動作状態において検出ユニットRUの検出領域に配置されているように、配置されていてもよく、特に位置決めされていてもよい。加えて、検出ユニットRUは、相対的位置決めを第1表示ユニットVIS.1および第2表示ユニットVIS.2の物理的特徴に基づいて検出するように、構成されていてもよい。
図3には、提案される表現装置の別の有利な実施形態が概略的に示されている。この場合、検出ユニットRUは、第2表示ユニットVIS.2の表現面VIS.Sに可視的および/または不可視的に表示されるグラフィックマーカ構造PMに基づいて相対的位置決めを検出するように、構成されていてもよい。グラフィックマーカ構造PMは、有利には、例えば幾何形状および/または定義されたパターンといったグラフィック位置マークの2次元的な配列であって、特には第2表示ユニットVIS.2の表現面VIS.Sに対して静止している、2次元的な配列を含み得る。さらに、検出ユニットRUは、第2表示ユニットVIS.2の表現面VIS.Sに対する第1表示ユニットVIS.1の相対的位置決めを検出されたグラフィックマーカ構造に基づいて、特にはグラフィックマーカ構造PMの空間的位置決めに基づいて検出するように、構成されていてもよい。
図4は、仮想窓WWを有する拡張現実ARの仮想マッピングの概略図を示す。この場合、データセットは、第1医療画像データを有し得る。加えて、処理ユニット22は、拡張現実ARを第1医療画像データに基づいて生成するように、構成されていてもよい。更に、第2表示ユニットVIS.2は、表現装置の動作状態において第2医療画像データのグラフィック表現を表現面VIS.Sに表示することができる。この場合、第1医療画像データおよび第2医療画像データは、検査オブジェクトの少なくとも部分的に共通する検査領域のマッピングおよび/またはモデルを、描写できる。有利には、第1医療画像データは、検査オブジェクトを3次元的に描写できる。さらに、拡張現実ARのグラフィック表現G.ARは、少なくとも部分的に第2医療画像データのグラフィック表現と重畳されていてもよい。さらに、処理ユニット22は、第2画像データのグラフィック表現に関して仮想窓WWを有する拡張現実ARのグラフィック表現G.ARを提供するように、構成されていてもよい。
有利には、検査オブジェクトの共通する領域は、囲繞中空空間HO、例えば中空器官、を含み得る。中空器官は、例えば血管部分、特には動脈または静脈、および/または肺および/または腸および/または心臓、を含み得る。この場合、仮想窓WWは、中空空間HOの囲繞部VWであって、第2表示ユニットVIS.2の表現面VIS.Sへの拡張現実ARの仮想マッピングにおいて仮想平面VPによって切断される囲繞部VWによって、限定されていてもよい。拡張現実ARを第2表示ユニットVIS.2の表現面VIS.Sに仮想マッピングする際、中空空間HOの囲繞部VWは、仮想平面VPであって、特には第2表示ユニットVIS.2の表現面VIS.Sに対して平行な、仮想平面VPによって、切断され得る。ここで、切断された中空空間HOの囲繞部VWは、特には閉じているかまたは破断している、輪郭WW.Cを有してもよい。特に、中空空間HOの切断された囲繞部VWの輪郭WW.Cは、透明部分の空間領域を限定することができ、当該透明部分は拡張現実ARのグラフィック表現G.AR、特には仮想窓WW、との重畳により提供される。有利には、処理ユニット22は、仮想平面VPにより切断された中空空間の囲繞部、特に輪郭WW.C、に対応させて、仮想窓WWを空間的に限定して決定するように、構成されていてもよい。仮想窓WWを3次元構成する場合、処理ユニット22はそれに加えて、表現面VIS.Sの奥行き次元に沿って中空空間HOの囲繞部VWを通って仮想窓WWを限定するように、構成されていてもよい。説明のため、図4には、第1表示ユニット越しに見ているユーザUの2つの例示的な観察位置P.1および観察位置P.2が示されている。この場合、拡張現実ARのグラフィック表現G.ARと重ね合わされた表示であって、第2表示ユニットVIS.2の表現面VIS.Sにおける第2画像データのグラフィック表現の表示は、特にその時点における、視点位置P.1またはP.2に応じて、ユーザUの相異なる視線方向VD.1またはVD.2で、観察され得る。視線方向VD.1に対する限定光線VD.1Bおよび視線方向VD.2に対する限定光線VD2.Bは、表現面VIS.Sの奥行き次元に沿って中空空間HOの囲繞部VWを通る仮想窓WWの、特には視覚的な、限定を図解している。この場合、拡張現実ARのグラフィック表現G.ARを提供するための第2表示ユニットVIS.2の表現面VIS.Sにおける拡張現実ARの仮想マッピングは、観察幾何に沿った、例えば仮想投影マッピング(英:virtual projection mapping)および/またはレイトレーシング(英:ray-tracing)および/または、写像行列(英:mapping matrix)に従うレンダリング、特には第1医療画像データを記録および/または提供するための医療撮像装置の写像行列および/またはカメラ行列に従うレンダリング、に基づいていてもよく、特にはユーザUの観察位置P.1もしくはP.2および/または視線方向VD.1もしくはVD.2に依存した状態で、基づいていてもよい。
図5には、提案されるシステムが概略的に示されている。システムは、表現装置と、第2表示ユニットVIS.2と、医療撮像装置MDとを有し得る。この場合、医療撮像装置MDは、少なくとも部分的に、検査オブジェクト31の、特には患者載置装置32に配置されている検査オブジェクト31の、検査領域RE内に、特には中空器官内に、配置されるように、構成されていてもよい。有利には、医療撮像装置MDは、第1および/または第2医療画像データを記録および/または提供するように、構成されていてもよい。さらに、第2表示ユニットVIS.2は、第2医療画像データのグラフィック表現を表現面VIS.Sに表示するように、構成されていてもよい。
処理ユニット22は、有利には、少なくとも1つの、第2画像データにおいてマッピングされる、特には解剖学的および/または医療的および/または幾何学的な、オブジェクトG.OBの、仮想連続部G.VFを有する拡張現実ARのグラフィック表現G.ARを提供するように、構成されていてもよい。図5には、一例として、中空器官が、少なくとも1つの第2画像データにおいてマッピングされるオブジェクトGI.OBとして、示されている。ここで、第1表示ユニットVIS.1は、仮想連続部G.VFを第2表示ユニットVIS.2の表現面VIS.Sの外側および/またはそれと境を接して表示するように、構成されていてもよい。この場合、仮想連続部G.VFは、有利には、医療オブジェクトおよび/または中空器官内の医療撮像装置MDに対するグラフィックパスプラニング情報G.PPを含み得る。
図6には、拡張現実ARのグラフィック表現G.ARを提供PROV-G.ARするための提案される方法の有利な実施形態が、概略的に示されている。この場合、第2表示ユニットVIS.2の表現面VIS.Sに対する第1表示ユニットVIS.1の相対的位置決めPOSは、検出ユニットRUを用いて、検出され得る。さらに、グラフィック情報GIは、第2表示ユニットVIS.2の表現面VIS.Sに表示VISU-GIされ得る。さらに、第1表示ユニットVIS.1と第2表示ユニットVIS.2の表現面VIS.Sとの間の観察幾何GEOは、相対的位置決めPOSに基づいて、決定DET-GEOされ得る。加えて、データセットDSが、受信REC-DSされ得る。さらに、拡張現実ARは、データセットDSに基づいて生成GEN-ARされ得る。さらに、拡張現実のグラフィック表現G.ARは、観察幾何GEOに沿って第2表示ユニットVIS.2の表現面VIS.Sに拡張現実ARを仮想マッピングすることにより、提供PROV-G.ARされ得る。この場合、提供PROV-G.ARは、第1表示ユニットVIS.1を用いて、第2表示ユニットVIS.2の表現面VIS.Sにおけるグラフィック情報GIと少なくとも部分的に重畳させて、拡張現実のグラフィック表現G.ARを表示VISU-G.ARすることを含み得る。
記載される図面に含まれる概略的な表現は、いかなる縮尺または寸法比も描写しない。
最後に、上記で詳述した方法および装置は、本発明の範囲から逸脱することなく、当業者であれば多種多様な方法で修正することができる実施形態例にすぎないことを改めて指摘する。さらに、不定冠詞「ein」または「eine」(英語であれば不定冠詞「a」や「an」)の使用は、該当する特徴が複数存在する可能性もあることを排除するものではない。同様に、「ユニット」および「要素」という概念は、該当する構成要素が複数の協働するサブ構成要素からなることを排除するものではなく、これらサブ構成要素は、必要に応じて空間的に散在していてもよい。

Claims (15)

  1. 拡張現実(AR)のグラフィック表現(G.AR)を表示(VISU-G.AR)するための表現装置であり、
    前記表現装置は、検出ユニット(RU)と、第1表示ユニット(VIS.1)と、処理ユニット(22)とを備え、
    前記第1表示ユニット(VIS.1)は、少なくとも部分的に透明に構成されており、
    前記検出ユニット(RU)は、第2表示ユニット(VIS.2)の表現面(VIS.S)に対する前記第1表示ユニット(VIS.1)の相対的位置決め(POS)を検出(CAP-POS)するように、構成されており、
    前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)は、グラフィック情報(GI)を表示(VISU-GI)するように、構成されており、
    前記処理ユニット(22)は、
    -前記第1表示ユニット(VIS.1)と前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)との間の観察幾何(GEO)を前記相対的位置決め(POS)に基づいて決定(DET-GEO)し、
    -データセット(DS)を受信(REC-GEO)し、
    -前記拡張現実(AR)を前記データセット(DS)に基づいて生成(GEN-AR)し、そして、
    -前記観察幾何(GEO)に沿って前記拡張現実(AR)を前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)へ仮想マッピングすることにより前記拡張現実(AR)の前記グラフィック表現(G.AR)を提供(PROV-G.AR)する、
    ように構成されており、
    前記第1表示ユニット(VIS.1)は、前記拡張現実(AR)の前記グラフィック表現(G.AR)を、前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)と少なくとも部分的に重畳させて表示(VISU-G.AR)するように、構成されている、
    表現装置。
  2. 前記処理ユニット(22)は、相対的位置決め(POS)が変化した場合には、
    -前記第1表示ユニット(VIS.1)と前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)との間の前記観察幾何(GEO)を繰り返し決定(DET-GEO)し、そして、
    -前記拡張現実(AR)の前記グラフィック表現(G.AR)を、最後に決定された前記観察幾何(GEO)に基づいて、提供(PROV-G.AR)する、
    ように構成されている、
    請求項1に記載の表現装置。
  3. 前記検出ユニット(RU)は、前記第1表示ユニット(VIS.1)および前記第2表示ユニット(VIS.2)から離間して配置されているか、少なくとも部分的に前記第1表示ユニット(VIS.1)または前記第2表示ユニット(VIS.2)へ組み込まれている、
    請求項1または2に記載の表現装置。
  4. 前記検出ユニット(RU)は、前記相対的位置決め(POS)を検出(CAP-POS)する光学的および/または電磁的および/または音響的センサを有する、
    請求項1~3のいずれか1項に記載の表現装置。
  5. 前記検出ユニット(RU)は、前記相対的位置決め(POS)を、前記第1表示ユニット(VIS.1)および/または前記第2表示ユニット(VIS.2)の物理的特徴に基づいて、および/または、前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)に可視的および/または不可視的に表示されるグラフィックマーカ構造(PM)に基づいて、検出(CAP-POS)するように、構成されている、
    請求項1~4のいずれか1項に記載の表現装置。
  6. 前記拡張現実(AR)の前記グラフィック表現(G.AR)は、前記拡張現実(AR)の少なくとも1つの仮想オブジェクトのグラフィック表現を有し、
    前記検出ユニット(RU)は、前記相対的位置決め(POS)に基づいて観察パラメータを決定する、ように構成されており、
    前記処理ユニット(22)は、
    -前記少なくとも1つの仮想オブジェクトを前記観察パラメータに基づいて決定するように、および/または、
    -前記少なくとも1つの仮想オブジェクトの前記グラフィック表現の、分解能および/またはスケーリングおよび/またはサイズおよび/または位置決め、を前記観察パラメータに基づいて調整するように、構成されている、
    請求項1~5のいずれか1項に記載の表現装置。
  7. 前記検出ユニット(RU)はさらに、
    -前記表現装置の動作状態において前記第1表示ユニット(VIS.1)を通して見ているユーザ(U)の、入力および/または識別を検出し、そして、
    -前記観察パラメータを、さらに、前記ユーザ(U)の前記入力および/または前記識別に基づいて、決定するように、
    構成されている、
    請求項6に記載の表現装置。
  8. 前記データセット(DS)は、前記グラフィック情報(GI)に関するパラメータを有しており、前記表現装置の動作状態において前記第2表示ユニット(VIS.2)が当該グラフィック情報(GI)を前記表現面(VIS.S)に表示し、
    前記処理ユニット(22)はさらに、前記拡張現実(AR)を前記パラメータに応じて生成(GEN-AR)するように、構成されている、
    請求項1~7のいずれか1項に記載の表現装置。
  9. 前記データセット(DS)は、第1医療画像データを有し、
    前記処理ユニット(22)は、前記拡張現実(AR)を前記第1医療画像データに基づいて生成するように、構成されており、
    前記表現装置の動作状態においては、
    -前記第2表示ユニット(VIS.2)は、第2医療画像データのグラフィック表現を、前記グラフィック情報(GI)として、前記表現面(VIS.S)に表示し、
    前記第1医療画像データおよび前記第2医療画像データは、検査オブジェクト(31)の少なくとも部分的に共通する検査領域(RE)のマッピングおよび/またはモデルを有し、
    -前記拡張現実(AR)の前記グラフィック表現(G.AR)は、少なくとも部分的に前記第2医療画像データの前記グラフィック表現と重畳されている、
    請求項1~8のいずれか1項に記載の表現装置。
  10. 第1画像データは、前記検査オブジェクト(31)を3次元的にマッピングおよび/またはモデリングし、
    前記処理ユニット(22)は、第2画像データの前記グラフィック表現に関して仮想窓(WW)を有する前記拡張現実(AR)の前記グラフィック表現(G.AR)を提供するように、構成されている、
    請求項9に記載の表現装置。
  11. 前記検査オブジェクト(31)の前記共通する検査領域は、囲繞中空空間(HO)を含み、
    前記仮想窓(WW)は、前記中空空間(HO)の囲繞部(VW)であって前記拡張現実(AR)を前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)への仮想マッピングについての仮想平面(VP)によって切断される囲繞部(VW)により、限定されている、
    請求項10に記載の表現装置。
  12. 前記処理ユニット(22)は、第2画像データにマッピングされた少なくとも1つのオブジェクト(GI.OB)の仮想継続部(G.VF)を有する前記拡張現実(AR)の前記グラフィック表現(G.AR)を提供するように、構成されており、
    前記第1表示ユニット(VIS.1)は、前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)の外側および/または近傍に、前記仮想継続部(G.VF)を表示するように、構成されている、
    請求項9~11のいずれか1項に記載の表現装置。
  13. 請求項9~12のいずれか1項に記載の表現装置と、第2表示ユニット(VIS.2)と、医療撮像装置とを備えるシステムであって、
    前記医療撮像装置(MD)は、前記第1医療画像データおよび/または前記第2医療画像データを記録するおよび/または提供するように、構成されており、
    前記第2表示ユニット(VIS.2)は、前記第2医療画像データのグラフィック表現を前記表現面(VIS.S)に表示するように、構成されている、
    システム。
  14. 前記医療撮像装置(MD)は、少なくとも部分的に検査オブジェクト(31)の検査領域(RE)に配置されるように、構成されている、
    請求項13に記載のシステム。
  15. 拡張現実(AR)のグラフィック表現(G.AR)を提供(PROV-G.AR)するための方法であって、
    第2表示ユニット(VIS.2)の表現面(VIS.S)に対する第1表示ユニット(VIS.1)の相対的位置決め(POS)は、検出ユニット(RU)を用いて、検出(CAP-POS)され、
    グラフィック情報(GI)は、前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)に表示(VISU-GI)され、
    前記第1表示ユニット(VIS.1)と前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)との間の観察幾何(GEO)は、前記相対的位置決め(POS)に基づいて、決定(DET-GEO)され、
    データセット(DS)は、受信(REC-DS)され、
    前記拡張現実(AR)は、前記データセット(DS)に基づいて、生成(GEN-AR)され、
    前記拡張現実(AR)の前記グラフィック表現(G.AR)は、前記観察幾何(GEO)に沿って前記拡張現実(AR)を前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)に仮想マッピングすることにより提供(PROV-G.AR)され、
    前記提供(PROV-G.AR)は、前記第1表示ユニット(VIS.1)を用いての、前記第2表示ユニット(VIS.2)の前記表現面(VIS.S)での前記グラフィック情報(GI)と少なくとも部分的に重畳した、前記拡張現実(AR)の前記グラフィック表現(G.AR)の表示(VISU-G.AR)、を含む、
    方法。

JP2022079406A 2021-06-24 2022-05-13 拡張現実のグラフィック表現を表示するための表現装置 Active JP7504942B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021206565.1 2021-06-24
DE102021206565.1A DE102021206565A1 (de) 2021-06-24 2021-06-24 Darstellungsvorrichtung zur Anzeige einer graphischen Darstellung einer erweiterten Realität

Publications (2)

Publication Number Publication Date
JP2023004884A true JP2023004884A (ja) 2023-01-17
JP7504942B2 JP7504942B2 (ja) 2024-06-24

Family

ID=84388578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022079406A Active JP7504942B2 (ja) 2021-06-24 2022-05-13 拡張現実のグラフィック表現を表示するための表現装置

Country Status (4)

Country Link
US (1) US11941765B2 (ja)
JP (1) JP7504942B2 (ja)
CN (1) CN115527010A (ja)
DE (1) DE102021206565A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN219266680U (zh) * 2023-03-31 2023-06-27 荆晨 延展现实显示系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5228307B2 (ja) * 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
EP2795893A4 (en) * 2011-12-20 2015-08-19 Intel Corp PRESENTATIONS OF AN ADVANCED REALITY BETWEEN SEVERAL EQUIPMENT
US9626799B2 (en) * 2012-10-02 2017-04-18 Aria Glassworks, Inc. System and method for dynamically displaying multiple virtual and augmented reality scenes on a single display
EP4380150A3 (en) 2015-10-08 2024-07-24 InterDigital VC Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
JP2018097160A (ja) * 2016-12-14 2018-06-21 セイコーエプソン株式会社 表示システム、表示装置、及び、表示装置の制御方法
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
EP3598948B1 (de) 2018-07-27 2022-03-16 Siemens Healthcare GmbH Bildgebendes system und verfahren zum erzeugen einer stereoskopischen darstellung, computerprogramm und datenspeicher
EP3637374A1 (en) 2018-10-09 2020-04-15 Siemens Healthcare GmbH Method and system for visualising a spatial surface curvature of a 3d-object, computer program product, and computer-readable storage medium
US10909751B2 (en) * 2019-01-31 2021-02-02 Intel Corporation Methods and apparatus to transition between 2D and 3D renderings of augmented reality content
US11379033B2 (en) 2019-09-26 2022-07-05 Apple Inc. Augmented devices
KR102495213B1 (ko) * 2020-11-05 2023-02-07 한국전자통신연구원 증강 현실 기반의 스크린 스포츠 체험 장치 및 방법
DE102021205700B4 (de) 2021-06-07 2023-07-06 Siemens Healthcare Gmbh Darstellungsvorrichtung zur Anzeige einer erweiterten Realität und Verfahren zum Bereitstellen einer erweiterten Realität

Also Published As

Publication number Publication date
US11941765B2 (en) 2024-03-26
DE102021206565A1 (de) 2022-12-29
US20220414994A1 (en) 2022-12-29
JP7504942B2 (ja) 2024-06-24
CN115527010A (zh) 2022-12-27

Similar Documents

Publication Publication Date Title
US11759261B2 (en) Augmented reality pre-registration
US20230016227A1 (en) Medical augmented reality navigation
US12086988B2 (en) Augmented reality patient positioning using an atlas
EP2637593B1 (en) Visualization of anatomical data by augmented reality
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
US11340708B2 (en) Gesture control of medical displays
US20230050857A1 (en) Systems and methods for masking a recognized object during an application of a synthetic element to an original image
US20220215539A1 (en) Composite medical imaging systems and methods
JP7504942B2 (ja) 拡張現実のグラフィック表現を表示するための表現装置
US10854005B2 (en) Visualization of ultrasound images in physical space
EP3944254A1 (en) System for displaying an augmented reality and method for generating an augmented reality
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
CA3085814C (en) Hypersurface reconstruction of microscope view
US20220409283A1 (en) Presentation device for displaying a graphical presentation of an augmented reality
US20240331329A1 (en) Method and system for superimposing two-dimensional (2d) images over deformed surfaces

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240612

R150 Certificate of patent or registration of utility model

Ref document number: 7504942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150