KR102307530B1 - 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 - Google Patents

제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 Download PDF

Info

Publication number
KR102307530B1
KR102307530B1 KR1020157015626A KR20157015626A KR102307530B1 KR 102307530 B1 KR102307530 B1 KR 102307530B1 KR 1020157015626 A KR1020157015626 A KR 1020157015626A KR 20157015626 A KR20157015626 A KR 20157015626A KR 102307530 B1 KR102307530 B1 KR 102307530B1
Authority
KR
South Korea
Prior art keywords
image data
projection
rendered projection
user
rendered
Prior art date
Application number
KR1020157015626A
Other languages
English (en)
Other versions
KR20150090117A (ko
Inventor
플로렌트 안드레 로버트 챈들러
토마스 버나드 파스칼 빈센트
Original Assignee
카덴스 메디컬 이미징 아이엔씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 카덴스 메디컬 이미징 아이엔씨 filed Critical 카덴스 메디컬 이미징 아이엔씨
Publication of KR20150090117A publication Critical patent/KR20150090117A/ko
Application granted granted Critical
Publication of KR102307530B1 publication Critical patent/KR102307530B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/15Transmission-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Pulmonology (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법에 있어서,
상기 방법은 :
상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계;
상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계;
상기 사용자로부터 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계;
상기 주어진 창에 다수의 뷰들을 순차적으로 디스플레이하는 단계로서,
상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며,
상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터 일부까지의 연속적인 상기 구조의 정보를 순차적으로 디스플레이하는 것을 가능하게 하며,
상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되고, 그리고
상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성되는, 디스플레이 단계를 포함하는, 방법이 개시된다.

Description

제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 {Method and system for displaying to a user a transition between a first rendered projection and a second rendered projection}
관련출원에 대한 상호 참조
본 출원은 2012년 11월 23일자 미국 임시출원에 대한 우선권을 함유하며, 그 임시출원의 전체 내용이 본원에 참고로 편입된다.
발명의 기술 분야
본 발명은 이미지화에 관한 것이다. 보다 구체적으로, 본 발명은 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템에 관한 것이다.
시각화 기술들이 진보함에 따라, 의료 영상 솔루션들은 의료 전문가들에게 진단의 질을 높이기 위한, 보다 발전된 시각 지원을 제공하고 있다. 스캐닝 영상 획득 기술들이 진화되어, 주어진 검사를 위해 생성되는 데이터량을 계속 증가시킨다.
의료 영상 솔루션들은 다양한 그래픽 사용자 인터페이스(GUI)를 구현하여, 의료 전문가들이 점점 더 많아지는 영상 데이터(영상 형태로 랜더링된 또는 영상들과 혼합된 모든 데이터 포함)를 검토하는 것을 지원하며, 영상 데이터의 검사(examination)를 지원한다. 이러한 솔루션들의 목적은 최종 진단을 강화하기 위해 상관 분석 및 결합 분석을 제공하는 것이다.
데이터 검사의 일 형태는, 스캐너에 의해 제공된 원시(raw) 정보인 얇은 슬라이스들의 형태, 주어진 평면으로 투영된 다수의 얇은 슬라이스들의 정보인 두꺼운 슬라이스들의 형태, 그리고 전술한 것들 중 임의의 것의 3D 재구성 형태의, 2D 및 3D 정보의 분석이다.
2D 얇은 슬라이스, 2D 두꺼운 슬라이스 및 3D 재구성임에도 불구하고, 그래픽 사용자 인터페이스들은, 다수의 뷰포트(viewport)들에 의해, 다수의 뷰(view)들 및 영상 데이터의 랜더링된 투영을 위한 플레이스홀더(placeholder)로 확장된다.
의료 전문가들이 이러한 GUI 뷰포트들에 걸친 정보들을 연관시키는 것을 지원하도록 제공되는 일부 솔루션들은, 상기 뷰포트들 각각에 비임상(nonclinical) 정보를 오버레이하는 것에 초점을 맞추어, 사람이 주어진 관심 영역을 인식적으로 비교할 수 있도록 한다. 그러나 안타깝게도 종래 기술에는 여전히 많은 한계점들이 남아있다.
예를 들어, 현재 선행 기술 방법들의 제 1 한계점은, 의료 전문가들에게 디스플레이된 임상 정보 상으로의 비임상 정보 도입은, 결국 랜더링된 정보의 임상적 관련 측면들을 방해하게 된다는 것이다.
현재 선행 기술 방법들의 제 2 한계점은, 이러한 오버레이들을 이용하여 해부학적 비교(correlation)들을 수행하기 위해, 의료 전문가들이 많은 양의 비-진단 중심의 인지 과정을 필요로 한다는 것이다.
현재 선행 기술 방법들의 제 3 한계점은, 선행 기술 방법들은 주어진 GUI 내에서 다수의 뷰포트들을 사용하는 반면, 사용자는 주어진 시간에 오로지 고유한 뷰(unique view)에만 상호작용하고 집중할 수 있다는 것이다. 이와 같이, 검사 및 진단을 위해 영상 데이터의 상이한 랜더링된 투영 영상이 필요하다면, 사용자는 자신의 시각 초점을 상이한 뷰 위치로 변경해야 한다. 따라서 사용자는 잠시 시각적 일관성을 잃게 된다. 또한 단순히 의료 전문가들에게 상이한 형식의 의료 영상 정보를 검사하기 위한 수단을 제공하기 위해, 시각화 공간을 낭비한다.
현재 선행 기술 방법들의 제 4 한계점은, 상기 한계점들의 조합의 결과로서, 2D 얇은 슬라이스 해부 면들 사이임에도 불구하고 (축방향(axial) 투영부터 관상 투영까지와 같이) 시각화 패러다임을 변경할 때, 의료 전문가들은, 일관성 없이, 정보의 "갑작스런" 재구성을 제공받는다. 이로 인해 작업자가 이전 형식을 현재 형식과 연관시키기 위해서는 상당히 많은 인지적 노력(cognitive effort)이 필요하다.
현재 종래의 방법들의 제 5 한계점은 3D 재구성이 관여될 때 나타난다. 구조의 다수의 시각 표현들이 제공됨에도 불구하고, 단순히 주어진 평면에서 바라봄으로써 3D 재구성을 하는 동안 나타날 구조들의 종류를 예측하는 것은, 불가능하지 않다면, 대체로 어렵다. 따라서 3D 표현 및 2D 표현간의 불일치가 존재하며, 이로 인해 양 정보 모두를 연관시키기 위한 많은 인지적 노력이 다시 한 번 필요하게 된다.
근본적으로 다른, 또 다른 한계점은, 검사 과정에서 작업자는 2D 및 3D 정보를 혼합하는 (확대 또는 축소(zooming in and out) 및 패닝(panning)과 같은) 상이한 영상 처리들로 이어지게 되지만, (위치 및 상태 관점에서) 상기 프로세스가 시작했던 곳으로 되돌아갈 수 없다는 사실이다. 이는 상기 작업자가 항상 그/그녀가 상기 전체 영상 데이터를 보았는지 의문을 들게 하기 때문에 제한이 많다.
예를 들어, 도 1은 3개의 전형적인 해부학적 평면들인 시상면, 축면 및 관상면을 도시하며, 이들을 중첩한 영상도 함께 도시한다. 도 1에 도시된 바와 같이, 각 영상 내에서 라인들의 교차점에 관심 지점이 제공된다. 3D 표현 중심에서의 교차점은 완전히 가려지기 때문에, 임상적으로 관련이 없다. 본 실시 예에서, 작업자는 원하는 정보를 얻기 위해 각각의 해부학적 평면들을 순차적으로 관찰해야할 것이라는 것을 이해할 수 있을 것이다.
도 2에서, 치아 임플란트의 검사 모습이 도시되어 있다. 심층 구조 상의 임상 관련 정보를 얻기 위해, 단면도를 포함한 4개의 서로 다른 뷰들이 생성된다. 상기 영상들을 순차적으로 검사하는 것만으로 진단이 이루어질 수 있다.
도 3에서, 관심 영역은 유색 라인들의 교차점이다. 당업자는 복잡한 해부학적 구조에 대해 이러한 시각적 비-연관 정보를 처리하는 것이 어려우며, 능숙한 인지 과정이 필요하다는 것을 이해할 것이다.
도 5에서, 그래픽 사용자 인터페이스는 각각의 적절한 해부학적 평면들을 이들의 재구성과 함께 제공하기 위해 선택된다. 작업자의 집중을 돕기 위해, 3D 카메라 중심에 해당하는 2D 해부학적 평면들 상에 파란색의 화살표들이 오버레이되어있다. 각각의 영상이 3D로 동기화된다는 사실을 고려할 때, 상기 3D에서 한 단계 이동하는 것은 새로운 2D 영상들의 랜더링을 유발한다. 이 때, 모든 영상들은 한번에 이동한다. 인간의 시각적 분석 능력을 고려하여 볼 때, 이는 확실히 편리하지 않다.
도 6에서, 유사한 애플리케이션에 대한 또 다른 그래픽 사용자 인터페이스를 도시한다. 이 그래픽 사용자 인터페이스에서는, 3D 재구성 뷰와 연관시키기 위해 동적인 라인들이 2D 영상들 상에 오버레이되어 있다.
도 7에서, 2D 및 3D 정보의 연관을 위해 또 다른 유형의 정보 중첩이 얻어진다. 이러한 색 및 오버레이들은, 주어진 관심 영역을 진단하고 작업자에게 제공된 최종 시각적 정보 상에 비임상적 정보를 도입하도록 기능을 변경한다는 것을 명확하게 알 수 있다.
도 8은 또 다른 예를 도시한다. 이 예에서, 해부학적 축면(axial plane)은 3D 뷰 상에서 적색의 두꺼운 라인들로 표시되며, 단지 작업자가 비임상적 정보를 연관시킬 때 이를 지원하기 위한 목적만을 위해, 상기 3D 뷰 상에 상기 비임상적 정보를 도입한다.
도 9는 또 다른 종래의 기능적 정보용 그래픽 사용자 인터페이스를 도시한다.
도 10은 상기에서 언급한 한계점들의 일부를 갖는 초음파 장치로부터의 데이터를 디스플레이하기 위한, 종래의 그래픽 사용자 인터페이스의 또 다른 예를 도시한다.
따라서 상기에서 식별된 문제점들 중 적어도 하나를 극복할 방법이 필요하다.
본 발명의 기능들은 이하의 본 발명의 명세서, 도면 및 설명을 검토함으로써 명백해질 것이다.
일 형태에 따르면, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법이 개시된다. 상기 방법은 : 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계; 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계; 상기 사용자로부터의 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계; 상기 주어진 창에 다수의 뷰들을 순차적으로 디스플레이하는 단계로서, 상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며, 상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영의 일부간의 전이를 수행하도록 정해지고(defined), 상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터까지 연속적인 상기 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되고(defined), 그리고 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성되는, 디스플레이 단계를 포함한다.
다른 형태에 따르면, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템이 존재한다. 상기 시스템은: 디스플레이 장치; 중앙 처리 유닛; 상기 제 1 영상 데이터와 상기 제 2 영상 데이터를 저장하기 위한 데이터베이스를 포함하고, 그리고 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션을 포함하는 메모리를 포함하며, 상기 애플리케이션은 : 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하기 위한 명령어들로서, 상기 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 명령어들; 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하기 위한 명령어들; 상기 사용자로부터의 입력을 획득하기 위한 명령어들로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 명령어들; 상기 주어진 창에 다수의 뷰들을 순차적으로 디스플레이하기 위한 명령어들로서, 상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며, 상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 한정되며(defined), 상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터의 일부까지 연속적인 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되며, 그리고 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성되는, 명령어들을 포함한다.
다른 형태에 따르면, 컴퓨터-실행 가능 명령어들을 저장하기 위한 비-일시적 컴퓨터-판독 가능 저장 매체가 개시되며, 상기 명령어들이 실행될 때, 상기 명령어들은 컴퓨팅 장치가 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법을 수행하도록 한다. 상기 방법은 : 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계; 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계; 상기 사용자로부터의 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계; 다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계로서, 상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며, 상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며, 상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터 일부까지 연속적인 상기 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되고, 그리고 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성되는, 디스플레이 단계를 포함한다.
일 실시 예에 따르면, 상기 3D 스캐닝 장치는 컴퓨터 단층 촬영(CT) 스캔 장치, 단층영상합성법 장치, 자기 공명 영상(MRI) 장치, 양전자 방출 단층 촬영(PET) 장치 및 초음파 장치 중 적어도 하나로 구성된 군으로부터 선택된다.
일 실시 예에 따르면, 상기 제 1 영상 데이터의 제 1 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택된다.
일 실시 예에 따르면, 상기 최종 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택된다.
일 실시 예에 따르면, 상기 제 1 영상 데이터는 상기 구조를 스캔하는 제 1 3D 스캐닝 장치에 의해 생성되며, 상기 제 2 영상 데이터는 상기 구조를 스캔하는 제 2 3D 스캐닝 장치에 의해 생성된다.
일 실시 예에 따르면, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상기 구조를 스캔하는 단일 3D 스캐닝 장치에 의해 생성된다.
일 실시 예에 따르면, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 동일하다.
일 실시 예에 따르면, 사용자로부터의 입력을 획득하는 단계는, 상기 입력을 키보드 및 마우스 중 적어도 하나로부터 획득하는 것을 포함한다.
일 실시 예에 따르면, 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계는 터치스크린 디스플레이 상에서 수행되며, 상기 사용자로부터의 입력을 획득하는 단계는 상기 터치스크린 디스플레이 상에서의 손가락 제스처를 감지하는 것을 포함한다.
일 실시 예에 따르면, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 상기 구조를 스캔하는 3D 스캐닝 장치로부터 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 수신하는 것을 포함한다.
일 실시 예에 따르면, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 메모리에서 상기 제 1 영상 데이터 및 제 2 영상 데이터를 가져오는 것을 포함한다.
일 실시 예에 따르면, 상기 사용자로부터의 입력을 획득하는 단계는, 상기 제 2 영상 데이터 일부의 최종 랜더링된 투영의 표시를 획득하는 것과, 주어진 뷰 내의 관심 영역에 대해 수행하는 줌(zoom)의 표시를 획득하는 것을 포함한다. 또한 상기 방법은 상기 주어진 뷰 내에 다수의 확대된 뷰들을 생성하는 것을 더 포함하며, 상기 주어진 창에서의 다수의 뷰들은 상기 생성된 다수의 확대된 뷰들을 포함한다.
일 실시 예에 따르면, 상기 시스템은 상기 중앙 처리 유닛에 동작가능하게(operatively) 연결된 통신 포트를 더 포함하며, 상기 연결 포트는 상기 구조를 스캔하는 원격 3D 스캐닝 장치에 상기 시스템을 동작가능하게 연결하기 위한 것이다.
일 실시 예에 따르면, 상기 통신 포트는 데이터 네트워크를 통해, 상기 구조를 스캔하는 상기 원격 3D 스캐닝 장치에 동작가능하게 연결된다.
일 실시 예에 따르면, 상기 데이터 네트워크는 근거리 통신망(LAN), 대도시권 통신망(MAN) 및 원거리 통신망(WAN)으로 구성된 군으로부터 선택된다.
일 실시 예에 따르면, 상기 데이터 네트워크는 인터넷을 포함한다.
일 실시 예에 따르면, 상기 디스플레이 장치는 터치스크린 디스플레이이며, 상기 사용자의 입력 중 적어도 일부분은 상기 터치스크린 디스플레이로부터 획득된다.
일 실시 예에 따르면, 다수의 뷰들 중 적어도 하나는, 관련 랜더링된 투영 및 상기 사용자로부터의 입력 중 적어도 하나와 관련된, 디스플레이되는 시각적 정보를 더 포함한다.
일 실시 예에 따르면, 상기 사용자로부터의 입력은 상기 제 1 영상 데이터 내에 위치 속성 데이터를 더 포함하며, 상기 위치 속성 데이터는 차후의 뷰들에 대한 랜더링된 투영과 관련된 랜더링 파라미터들을 판단하기 위해 사용된다.
일 실시 예에 따르면, 상기 사용자로부터의 입력은 수행할 세그먼트화(segmentation)에 관한 정보를 포함하며, 다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계는 다수의 뷰들 중 적어도 하나를 디스플레이하기 전에 세그먼트화(segmentation)를 수행하는 것을 포함한다.
본 발명이 쉽게 이해되기 위해서, 본 발명의 실시 예들이 첨부된 도면들에 예시적으로 도시된다.
도 1은 종래 사용자 인터페이스의 제 1 실시 예를 도시하는 스크린샷이다.
도 2는 종래 사용자 인터페이스의 제 2 실시 예를 도시하는 스크린샷이다.
도 3은 종래 사용자 인터페이스의 제 3 실시 예를 도시하는 스크린샷이다.
도 4는 종래 사용자 인터페이스의 제 4 실시 예를 도시하는 스크린샷이다.
도 5는 종래 사용자 인터페이스의 제 5 실시 예를 도시하는 스크린샷이다.
도 6은 종래 사용자 인터페이스의 제 6 실시 예를 도시하는 스크린샷이다.
도 7은 종래 사용자 인터페이스의 제 7 실시 예를 도시하는 스크린샷이다.
도 8은 종래 사용자 인터페이스의 제 8 실시 예를 도시하는 스크린샷이다.
도 9는 종래 사용자 인터페이스의 제 9 실시 예를 도시하는 스크린샷이다.
도 10은 종래 사용자 인터페이스의 제 10 실시 예를 도시하는 스크린샷이다.
도 11은 초기 2D 두꺼운 축방향 투영 영상을 도시하는 스크린샷이다.
도 12는 도 11에서 마킹된 영역에 해당하는, 확대된 관심 영역을 도시하는 스크린샷이다.
도 13은 최종 2D 두꺼운 관상 투영 영상을 도시하는 스크린샷이다.
도 14는 초기 2D 두꺼운 축방향 투영 영상을 도시하는 스크린샷이다.
도 15는 시간적으로 도 14에 도시된 뷰 다음에 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 16은 시간적으로 도 15에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 17은 시간적으로 도 16에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 18은 상기 영상 데이터 일부의 원하는 최종 2D 두꺼운 축방향 투영 영상을 확대한 영상을 도시하는 스크린샷이다.
도 19는 초기 2D 두꺼운 축방향 투영 영상을 확대하여 도시한 스크린샷이다.
도 20은 시간적으로 도 19에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 21은 시간적으로 도 20에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 22는 시간적으로 도 21에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 23은 시간적으로 도 22에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 24는 시간적으로 도 23에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 25는 시간적으로 도 24에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 26은 도 13에 도시된 뷰와 동일한, 원하는 최종 2D 두꺼운 관상 투영 영상을 도시하는 스크린샷이다.
도 27은 초기 2D 두꺼운 축방향 투영 영상을 도시하는 스크린샷이다.
도 28은 시간적으로 도 27에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 29는 시간적으로 도 28에 도시된 뷰 다음으로 나타나는, 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 30은 시간적으로 도 29에 도시된 뷰 다음으로 나타나는, 다수의 뷰들 중 하나의 뷰를 도시하는 스크린샷이다.
도 31은 영상 데이터를 디스플레이하는 방법을 제공하는, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템의 실시 예를 도시하는 블록도이다.
도 32는 영상 데이터를 디스플레이하는 방법을 제공하는, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법의 제 1 실시예를 도시하는 흐름도이다.
도 33은 원하는 최종 3D 랜더링된 투영 영상을 도시하는 스크린샷이다.
도 34는 도 33에 도시된 뷰와 유사한 뷰를 도시하는 스크린샷이다.
도 35는 시간적으로 도 34에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시하는 스크린샷이다.
도 36은 시간적으로 도 35에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스의 뷰들 중 하나의 뷰를 도시하는 스크린샷이다.
도 37은 시간적으로 도 36에 도시된 뷰 다음으로 나타나는 다수의 뷰들의 시퀀스의 뷰들 중 하나의 뷰를 도시하는 스크린샷이다.
도 38은 영상 데이터의 2D 두꺼운 관상면 투영 영상에 관한, 영상 데이터 일부의 최종 랜더링된 투영 영상을 도시하는 스크린샷이다.
본 발명의 자세한 설명 및 장점들은 아래에 포함된 상세한 설명으로부터 명백해질 것이다.
다음의 실시 예들의 설명에서, 본 발명이 실시 될 수 있는 실시 예를 설명하기 위해 첨부된 도면들이 참조된다.
용어들(terms)
"발명" 및 이와 유사한 용어들은, 달리 명시되지 않은 한, "본 출원에 개시된 하나 이상의 발명들"을 의미한다.
"형태(aspect)", "실시 예", "실시 예들", "본 실시 예(상기 실시 예)", "상기 실시 예들", "하나 이상의 실시 예들", "일부 실시 예들", "특정 실시 예들", "일 실시 예", "다른 실시 예" 등의 용어들은, 달리 명시되지 않은 한, "개시된 발명(들)의 하나 이상의 실시 예(하지만 모든 실시 예를 말하진 않는다)"를 의미한다.
달리 명시되지 않은 한, 실시 예를 기술하는 데 있어서 "다른 실시 예" 또는 "다른 형태"로의 언급은, 그 언급된 실시 예가 다른 실시 예와 상호 배타적이라는 것을 의미하지 않는다.
달리 명시되지 않은 한, "포함하는" 및 이의 변형은 "포함하지만, 이에 한정되는 것은 아닌"을 의미한다.
"하나" 및 "상기(혹은 그(the))"란 용어들은, 달리 명시되지 않은 한, "하나 이상"을 의미한다.
"다수"란 용어는, 달리 명시되지 않은 한, "두개 이상"을 의미한다.
"본원에"란 용어는, 달리 명시되지 않은 한, "참고로 편입될 수 있는 모든 것을 포함하는 본 출원에"를 의미한다.
"그에 따라(whereby)"란 용어는, 오직 이전에 명시적으로 언급된 것의 의도된 결과(result), 목표, 결과(consequence)만을 표현하는 절(clause) 또는 다른 단어들의 세트를 단지 선행하기 위해서만 본원에서 사용된다. 따라서 "그에 따라"라는 용어가 청구항에서 사용될 때, "그에 따라"란 용어가 수식하는 절 또는 다른 단어들은 그 청구항의 특정한 또 다른 한계들을 설정하지 않으며, 또한 그 청구항의 의미 또는 범위를 제한하지 않는다.
"예를 들어(e.g.)" 등과 같은 용어들은 "예를 들어"를 의미하며, 따라서 그것들이 설명하는 용어 또는 구(phrase)를 제한하지 않는다. 예를 들어, "컴퓨터는 인터넷을 통해 데이터(예를 들어, 명령어들(instructions), 데이터 구조)를 전송한다"란 문장에서, 상기 "예를 들어"란 용어는 "명령어들"이 컴퓨터가 인터넷을 통해 전송할 수 있는 "데이터"의 한 예임을 설명하며, 또한 "데이터 구조"는 컴퓨터가 인터넷을 통해 전송할 수 있는 "데이터"의 한 예임을 설명한다. 그러나 "명령어들"과 "데이터 구조" 모두는 단지 "데이터"의 예일 뿐이며, "명령어들" 및 "데이터 구조"를 제외한 다른 것들도 "데이터"가 될 수 있다.
"즉(i.e.)"등과 같은 용어들은 "즉(that is)"을 의미하며, 따라서 그것들이 설명하는 용어 또는 구(phrase)를 제한한다. 예를 들어, "컴퓨터는 인터넷을 통해 데이터(즉, 명령어들(instructions))를 전송한다"란 문장에서, 상기 "즉"이란 용어는 "명령어들"이 컴퓨터가 인터넷을 통해 전송하는 "데이터"라는 것을 설명한다.
"영상 데이터"등과 같은 용어들은, 스캐너 기술들(CT, MRI, X-rays, 초음파)에 의해 얻어진 정보와 관련된, 영상 데이터(예를 들어, 픽셀들 및 복셀들(voxels))를 구성하는 통합된 영상 요소들, 그리고 영상 데이터의 통합된 디지털 요소를 구성하는 임의의 "원 자료(materia prima)"를 의미한다.
"구조"등과 같은 용어들은, 스크린 상에서 랜더될 때, 해부학적 장기들(organs), 조직들, 암들 중 작업자에 대한 일관된 정보를 시각적으로 묘사하는, 영상 데이터의 적어도 일부를 포함하는 관심영역을 의미한다.
"투영"등과 같은 용어들은, 원하는 시각적 및 차원적 관점으로부터 주어진 뷰포인트에서 영상 데이터의 적어도 일부를 랜더링하는 것(예를 들어, 3D 표면 랜더링, 3D 볼륨 랜더링, 2D 슬랩-랜더링, 2D 단면 슬라이스 랜더링, 2D 시상 랜더링, 2D 관상 랜더링, 2D 오블리크(oblique) 랜더링 및 2D 다-평면 재구성)에 관련된 수학적 프로세스를 의미한다.
"사용자", "조작자" 등과 같은 용어들은 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템과 상호작용하는 사람을 의미한다. 상기 사용자는 상기 시스템과 상호작용하기 위한 적절한 기술들을 가진다는 것을 이해할 수 있을 것이다. 상기 구조가 인체의 일부인 실시 예에서, 상기 사용자는 방사선 전문의일 수 있다.
제목 및 요약 모두, 어떠한 방식으로든 개시된 본 발명(들)의 범위를 제한하는 것으로 간주되어서는 안된다. 본 출원서의 제목 및 본 출원서에 제공된 부분들의 머리말들(headings)은 단지 편의를 위함이며, 어떠한 방식으로든, 본 발명을 제한하는 것으로 간주되어서는 안된다.
다양한 실시 예들이 본원에 기재되어 있으며, 단지 예시의 목적으로만 제공된다. 기술된 실시 예들은 어떠한 의미에서든지 제한하지 않으며, 제한하도록 의도되지 않는다. 개시된 본 발명(들)은, 본 발명으로부터 쉽게 명백하듯이, 여러 실시 예들에 널리 적용될 수 있다. 당업자는 개시된 발명(들)이 (구조적 또는 논리적 수정들과 같은) 다양한 수정들 및 변형들로 실시될 수 있다는 것을 인식할 것이다. 달리 명시되지 않은 한, 개시된 발명(들)의 특정한 기능들은 하나 이상의 특정 실시 예들 및/또는 도면들의 참조와 함께 기술될 수 있음에도 불구하고, 이러한 기능들은, 그 기능들을 기술하기 위해 참조된 하나 이상의 특정 실시 예들 또는 도면들에서의 사용으로 한정되지 않음이 이해되어야한다.
본 발명은, 방법, 시스템, 비-일시적 컴퓨터-판독 가능 저장 매체와 같은 컴퓨터-판독 가능 매체를 포함하여 다양한 방식들로 구현될 수 있음이 이해될 것이다. 본 명세서에서, 이러한 구현들 또는 본 발명이 취해질 수 있는 임의의 다른 형식은 시스템들 또는 기술들과 관련될 수 있다. 태스크(task)를 수행하도록 구성되는 것으로 기술된 (프로세서 또는 메모리와 같은) 구성요소는, 주어진 시간에 상기 작업을 수행하도록 일시적으로 구성된 일반적인 구성요소, 상기 태스크를 수행하도록 제조된 특정 구성요소 모두를 포함한다.
이를 염두에 두고, 본 발명은 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법, 시스템 및 컴퓨터 프로그램 제품에 관한 것이다.
이제 도 11을 참조하면, 폐(작업자에 의해 관심영역으로 취해진 구조)를 나타내는, 영상 데이터의 주어진 슬라이스에서 얻어진 초기 2D 두꺼운 축방향 투영 영상(6개의 미가공 2D 얇은 축방향 투영 영상들의 최대 강도 투영)이 도시되며, 이는 참조번호 100으로 마킹된 영역 내에 결절(nodule)을 나타낸다.
이제 도 12를 참조하면, 도 11에 도시된 마킹된 영역(100)에 해당하는, 확대된 관심 영역을 2D 두꺼운 축방향 투영으로 도시한다. 결절(102)이 (상기 작업자에 의한 그 다음의 관심 영역으로서 취해진 추가 구조임을) 보일 수 있다.
어떤 점에서, 상기 사용자(또한 방사선 전문의 또는 작업자로 언급된 사용자)는, 해부학적 투영 방향을 (예를 들어, 축방향 투영으로부터 관상 투영으로) 전환(toggle)하기 위해, 사용자 인터페이스 상에서 클릭을 수행하기로 결정할 수 있다.
도 13에서 도시된 바와 같이, 최종 2D 두꺼운 관상 투영 영상(동등한 두께)은 상기 결절(102) 위치에서 상기 영상 데이터를 재-슬라이싱함으로써 얻어져서, 이러한 두께에 따라 영상 데이터 요소 강도들의 축적을 랜더링한다.
작업자가 상기 클릭을 수행하기 바로 전에 해부학적 방향은 축방향이지만, 그 직후에는 상기 해부학적 방향은 관상 방향임을 이해할 것이다. 따라서 이러한 방향 변경은 급작스러우며, 시각적 혼란을 일으킨다.
상기 결절(1002)이 최종 랜더링된 투영 영상의 중심에 남아있음에도 불구하고, 이러한 급작스런 해부학적 방향 변경 때문에, 어떠한 시각적 설명 없이 많은 시각적 유사 구조들이 나타난다.
이러한 상황은, 2D 두꺼운 관상 투영 모드에서 상기 영상 데이터를 따라 스크롤함으로써 상기 결절(102) 주위의 3D 환경을 재구성하는 인지적 작업을 수행하기 위해, 그리고 초기 2D 두꺼운 축방향 투영 영상의 그것과 정보를 지능적으로 연관시키기 위해 방사선 전문의의 전문 지식을 필요로 한다.
도 14를 참고하면, 도 11에 도시된 종래의 축방향 투영 영상과 동등한 초기 2D 두꺼운 축방향 투영 영상을 도시한다.
이 실시 예에서, 사용자는 상기 결절(102) 상에 입력을 제공할 수 있다.
실제로, 상기 사용자에 의해 제공된 입력은 상기 영상 데이터의 주어진 부분(상기 작업자가 관심 구조를 검사하기 위한 관심영역)을 확대하고자 하는 바람을 나타낼 수 있다. 이 경우, 상기 영상 데이터의 부분은 상기 결절(102)을 포함한다.
상기 사용자에 의해 제공된 입력은 다양한 유형일 수 있다는 것은, 당업자에 의해 이해될 것이다. 실제로, 그리고 일 실시 예에서, 상기 입력은 마우스 및 키보드와의 상호작용 중 적어도 하나를 포함할 수 있다.
대안적으로, 상기 상호작용은 다른 입/출력 장치들을 통해 수행될 수 있다. 또 다른 실시 예에서, 상기 상호작용은, 영상 데이터내의 상기 사용자 입력 위치, 현재 투영 상태 등으로부터 기인한, 대화형 그래픽 사용자 요소들을 가진 입/출력 장치들의 조합을 통해 수행될 수 있다.
일 실시 예에서, 상기 사용자에 의해 제공된 입력은, 더블-클릭을 포함하며, 상기 더블-클릭은 줌이 수행되어야 하는 곳에 디스플레이된 영상 내, 주어진 위치에서 마우스를 사용하여 수행된다. 이러한 특정 경우에, 상기 영상 내의 주어진 위치는 결절(102)이 디스플레이되는 위치이다. 또 다른 실시 예에서, 상기 사용자에 의해 제공된 입력은 구조(예를 들어, 결절)를 나타낼 수 있다. 따라서 이러한 구조의 실-시간 세그먼트화(segmentation)에 대한 정보를 제공하여서, 사용자가 상기 입력에 의해 지정된 특정 구조를 시각적으로 검사하도록, 상기 특정 관심 영역상의 줌 비율의 동적 결정을 허용하면서 관련 관심 영역을 동적으로 한정(defined)한다.
다른 실시 예에서, 상기 줌은 상기 사용자에 의해 제공된 입력 주위의 관심 영역의 디폴트 크기이다.
상기 사용자에 의해 제공된 입력을 따라, 그리고 이하에 더 설명되는 바와 같이, 다수의 뷰들의 시퀀스를 포함하는 전이는 초기 2D 두꺼운 축방향 투영 이미징에서 시작하여, 영상 내의 주어진 위치에 중점을 둔 영상 데이터의 부분 주위의 주어진 확대된 비율에서 멈출 것이다.
상기 전이의 시작은 도 14에 도시되며, 전이의 멈춤 또는 끝은 도 18에 도시된다. 다수의 뷰들 중 적어도 하나는, 관련된 랜더링된 투영 및 상기 사용자로부터의 입력 중 적어도 하나와 연관된, 디스플레이된 시각적 정보를 포함할 수 있다는 것이 이해될 것이다.
도 15는 시간적으로 도 14에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
미묘하지만, 상기 투영 뷰가 기존 원근 광선 투사법(perspective ray casting)으로, 그러나 5도로 좁혀진 시야로의 3D 볼륨 랜더링을 포함함에 따라, 상기 랜더링된 투영은 이전 랜더링된 투영과는 다르다는 것이 당업자에 의해 이해될 것이다. 시야를 5도로 좁히는 것은, 광선들이 거의 평행하도록 하여, 상기 영상 데이터 일부의 2D 랜더링된 투영 뷰로 꾸미기(faking) 위함이다.
도 16은 시간적으로 도 15에 도시된 뷰 다음으로 사용자에게 디스플레이될 다수의 뷰들의 시퀀스 중 또 다른 뷰를 도시한다.
미묘하지만, 상기 투영 뷰가 기존 원근 광선 투사법(perspective ray casting)으로, 그러나 5도로 좁혀진 시야로의 3D 볼륨 랜더링을 포함함에 따라, 상기 랜더링된 투영은 이전 랜더링된 투영과는 다르다는 것이 당업자에 의해 이해될 것이다. 시야를 5도로 좁히는 것은, 광선들이 거의 평행하도록 하여, 상기 영상 데이터 일부의 2D 랜더링된 투영 뷰로 꾸미기(faking) 위함이다.
도 17은 시간적으로 도 16에 도시된 뷰 다음으로 사용자에게 디스플레이될 다수의 뷰들의 시퀀스 중 또 다른 뷰를 도시한다.
이제 도 18을 참고하면, 상기 영상 데이터 일부 중 원하는 최종 2D 두꺼운 축방향 투영 영상을 확대시켜, 상기 영상 내 주어진 위치에 중점을 두게 한 영상을 도시한다.
도 19에 도시된 뷰는 도 18에 도시된 뷰와 유사하지만, 이제 도 19에 도시된 뷰는 확대된 초기 2D 두꺼운 축방향 투영 영상으로 간주된다.
실제로, 그런 다음 도 19에 도시된 결절(102)상에, 또는 다른 곳에, 사용자에 의한 입력이 더 제공될 수 있다.
실제로, 상기 사용자에 의해 제공된 입력은 다양한 유형일 수 있음이 이해될 것이다. 일 실시 예에서, 상기 입력은 마우스 및 키보드와의 상호작용 중 적어도 하나를 포함할 수 있다.
선택적으로, 상기 상호작용은 다른 입/출력 장치들을 통해 수행될 수 있다. 또 다른 실시 예에서, 상기 상호작용은, 영상 데이터내의 상기 사용자 입력 위치, 현재 투영 상태 등으로부터 기인한, 대화형 그래픽 사용자 요소들을 가진 입/출력 장치들의 조합을 통해 수행될 수 있다.
일 실시 예에서, 상기 사용자에 의해 제공된 입력은 디스플레이된 영상에 주어진 위치에서 마우스를 사용하여 수행되는 클릭을 포함할 수 있다. 이 특정 예에서, 상기 영상 에 주어진 위치는 상기 결절(102)이 디스플레이된 위치이다.
이 경우, 상기 사용자에 의해 제공된 입력은, 영상 데이터의 일부에서 해부학적 랜더링된 투영 방향을 축방향 랜더링된 투영으로부터 관상 랜더링된 투영으로 변경하고자 하는 바람을 나타낼 수 있다는 것이 이해될 것이다.
상기 사용자에 의해 제공된 입력을 따라, 그리고 이하에 더 설명되는 바와 같이, 다수의 뷰들의 시퀀스를 포함하는 전이는 확대된 상기 초기 2D 두꺼운 축방향 랜더링된 투영 영상에서 시작하여, 상기 주어진 위치에 중점을 둔 영상 데이터 일부의 2D 두꺼운 관상 랜더링된 투영 영상에서 멈출 것이다.
상기 전이의 시작은 도 19에 도시되며, 전이의 멈춤 또는 끝은 도 26에 도시됨을 알 수 있을 것이다.
도 20은 시간적으로 도 19에 도시된 이전 뷰 다음으로 나오는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
현재 랜더링된 투영은 도 19에서 도시된 이전 랜더링된 투영과는 다르다는 것이 이해될 것이다.
상기 사용자가, 그 현재 랜더링된 투영을 통해, 그리고 상이한 중간 해부학적 방향들에서, 상기 결절(102) 및 그 주위 환경들을 계속해서 시각화 할 수 있다는 것이 당업자에 의해 또한 이해될 것이다. 종래 방법들에서는, 컴퓨터에서-생성된 정보는 영상 데이터와 관련이 없고, (사용자에게 영상 데이터와 무관한 정보를 제공하면서) 오직 시각적 영상의 연속성을 위한 목적으로만 설계되었다. 그러나 종래 방법들과는 반대로, 상기 중간 해부학적 방향들의 랜더링은 영상 데이터의 적어도 일부로부터 파생된 것임이, 당업자에 의해 또한 이해될 것이다.
결과적으로, 당업자는, 상기 사용자는 시각적 정보의 순차적 연속성으로 인해, 제시된 정보를 해석하기 위한 상당한 인지적 노력이 전혀 필요로 하지 않다는 것을 이해할 것이다. 결과적으로, 상기 결절(102) 및 그 주변 환경들은 쉽게 구별가능하다.
도 21은 시간적으로 도 20에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
도 22는 시간적으로 도 21에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
도 23은 시간적으로 도 22에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
도 24는 시간적으로 도 23에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
도 25는 시간적으로 도 24에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
도 26은 도 13에 도시된 종래의 관상 랜더링된 투영 영상과 동등한, 원하는 최종 2D 두꺼운 관상 랜더링된 투영 영상을 나타내는 뷰를 도시한다.
랜더링된 투영 영상의 상이한 해부학적 방향의 급작스런 랜더링으로 인한 "시각적 놀람(visual surprise)"의 디스플레이를 방지함으로써, 사용자는 상기 영상 데이터 일부의 특정 요소의 특성을 쉽게 가늠할 수 있으며, 이는 큰 이점임이 이해될 것이다.
보다 상세하게는, 그리고 본원에 도시된 사례의 경우, 방사선 전문의는 디스플레이된 다수의 뷰들의 시퀀스로부터, 영상 데이터 일부의 특정 요소는 원형임을 쉽게 판단할 수 있을 것이며, 어떠한 해부학적 방향도 연장되지 않기 때문에 상기 방사선 전문의는 결절의 존재를 유추할 수 있을 것이다.
이러한 판단은 도 12 및 도 13에 개시된 종래의 기술을 사용하여서는 불가능했을 것이다.
이제 도 27을 참조하면, 도 18에 도시된 뷰와 유사한 뷰가 도시된다. 보다 상세하게는, 그 뷰는 초기 2D 두꺼운 축방향 투영 영상이다.
이 실시 예에서, 사용자는 상기 결절(102) 상에 입력을 제공할 수 있다.
실제로, 상기 사용자에 의해 제공된 입력은, 상기 영상 데이터 일부 상에서, 상기 랜더링된 투영을 초기 축방향 랜더링된 투영으로부터 3D 볼륨 랜더링 투영으로 변경하고자 하는 바람을 나타낼 수 있다.
상기 사용자에 의해 제공된 입력은 다양한 유형일 수 있다는 것은, 당업자에 의해 이해될 것이다. 실제로, 그리고 일 실시 예에서, 상기 입력은 마우스 및 키보드와의 상호작용 중 적어도 하나를 포함할 수 있다.
선택적으로, 상기 상호작용은 다른 입/출력 장치들을 통해 수행될 수 있다. 또 다른 실시 예에서, 상기 상호작용은, 영상 데이터내의 상기 사용자 입력 위치, 현재 투영 상태 등으로부터 기인한, 대화형 그래픽 사용자 요소들을 가진 입/출력 장치들의 조합을 통해 수행될 수 있다.
일 실시 예에서, 상기 사용자에 의해 제공된 입력은, 클릭-및-드래그를 포함하며, 상기 클릭-및-드래그는 디스플레이된 영상 내 주어진 위치에서, 마우스를 사용하여 수행된다. 이러한 특정 경우에, 상기 영상 내의 주어진 위치는 상기 결절(102)이 디스플레이되는 위치이다.
이 실시 예에서, 상기 사용자에 의해 상기 결절(102)상에 제공된 입력은, 상기 영상 데이터 일부 상에서, 상기 초기 랜더링된 투영의 랜더링된 투영을 축방향 랜더링된 투영으로부터 3D 볼륨 랜더링 투영으로 변경하고자 하는 바람의 표시일 수 있다.
또 다른 실시 예에서, 상기 사용자 입력은, 사용자의 관심영역 위치를 나타내는 것 외에도, 상기 입력 위치 근방의 영상 데이터보다 유사한 영상 데이터 특성들을 갖춘 영상 데이터 요소들의 상호적 판단(예를 들어, 앞서 언급한 상호적 세그먼트화(segmentation))을 가능하게 할 수 있다. 이러한 경우, 상기 사용자로부터의 입력은 수행할 세그먼트화(segmentation)와 관련된 정보를 포함하며, 주어진 창에서 다수의 뷰들의 순서대로 디스플레이하는 단계는 다수의 뷰들 중 적어도 하나를 디스플레이하는 것에 앞서 세그먼트화(segmentation)를 수행하는 것을 포함한다.
다른 실시 예에서, 상기 사용자로부터의 입력은, 사용자의 관심영역 위치를 나타내는 것 외에도, 영상 데이터의 요소들(예를 들어, 복셀 강도(voxel intensity))에 의해 묘사된 바와 같은 구조의 속성을 나타내는 위치 속성 데이터를 포함할 수 있다. 상기 위치 속성 데이터는 3D 랜더링에 관여된 차후의 뷰들에 대한 랜더링된 투영과 관련된 (실-시간 3D 이동 함수들 판단에 대한) 랜더링 파라미터들을 판단하기 위해 사용될 수 있다(참조 : IEE Transaction on Visualization and Computer Graphics, vol.8(3), 2002.7, pp.270-285, Multidimensional Transfer Functions for Interactive Volume Rendering). 상기 위치 속성 데이터는 차후의 뷰들에 대한 랜더링된 투영과 관련된 랜더링 파라미터들을 판단하기 위해 사용된다.
그런 다음, 다수의 뷰들의 시퀀스의 전이가 시작될 것이며, 상기 시퀀스의 전이는, 확대된 초기 2D 두꺼운 축방향 투영 영상으로 시작될 것이며, 주어진 위치에 중점을 둔 영상 데이터 일부의 3D 볼륨 랜더링 투영 영상으로 종료될 것이다.
상기 전이의 시작은 도 27에 도시되며, 전이의 멈춤 또는 끝은 도 33에 도시됨을 알 수 있을 것이다.
도 28는 시간적으로 도 27에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
현재 랜더링된 투영은 도 27에 도시된 이전 랜더링된 투영과 다르다는 것은 당업자에 의해 이해될 것이다.
상기 사용자가, 그 현재 랜더링된 투영을 통해, 그리고 상이한 중간 해부학적 방향들에서, 상기 결절(102) 및 그 주위 환경들을 계속해서 시각화 할 수 있다는 것이 당업자에 의해 또한 이해될 것이다.
또한 당업자는, 상기 사용자가 시각적 정보의 순차적 연속성으로 인해 디스플레이된 정보를 해석하기 위한 상당한 인지적 노력을 전혀 필요로 하지 않다는 것을 이해할 것이다. 상기 결절(102) 및 그 주변 환경들은 쉽게 구별가능하다.
이제 도 29를 참조하면, 시간적으로 도 28에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
구체적으로, 도 29의 뷰는 도 28의 이전 뷰와 유사하지만 동등하지는 않은 랜더링된 투영과, 그리고 상기 주어진 위치 주변의 영상 데이터 일부 환경의 3D 볼륨 랜더링 투영 뷰를 겸비하고 있다.
당업자는, 그 현재 랜더링된 투영을 통해, 상기 사용자는 상기 결절(102) 및 그 주위 환경들을 계속해서 시각화 할 수 있으며, 나아가 유발되는 3D 구조와 2D 정보를 시각적으로 관련시킬 수 있다는 것을 이해할 것이다.
이제 도 30을 참조하면, 시간적으로 도 29에 도시된 뷰 다음으로 사용자에게 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰를 도시한다.
구체적으로, 도 30의 뷰는 도 29에 도시된 이전 뷰와 유사하지만 동등하지는 않은 랜더링된 투영과, 그리고 상기 주어진 위치 주변의 영상 데이터 일부 환경의 3D 볼륨 랜더링 투영 뷰를 겸비하고 있다.
도 29와 비교하여 볼 때, 도 29에 도시된 이전 뷰의 랜더링된 투영과 유사한 랜더링된 투영 및 3D 볼륨 랜더링 투영의 겸비는, 이전 뷰에 비해 3D 볼륨 랜더링 투영 영상을 강화시켜서, 사용자가 원하는 최종 3D 볼륨 랜더링 투영 영상과 지속적으로 더 가까워질 수 있도록 한다는 것이 당업자에 의해 이해될 것이다.
이제 도 33을 참조하면, 원하는 최종 3D 볼륨 랜더링 투영 영상이 도시된다.
결절(102) 주변 환경 내에서 복잡한 3D 구조의 급작스런 유발로 인한 "시각적 놀람(visual surprise)"의 디스플레이를 방지함으로써, 사용자가 상기 영상 데이터 일부의 요소 특성을 쉽게 가늠할 수 있다는 것은, 당업자에 의해 이해될 것이다.
보다 상세하게는, 방사선 전문의는 다수의 뷰들의 시퀀스로부터, 상기 영상 데이터 일부의 특정 요소는 원형임을 쉽게 판단할 수 있을 것이며, 따라서 상기 방사선 전문의는 3D 환경에 제공되는 정보 특성으로 결절의 존재를 유추할 수 있을 것이다.
도 34에 도시된 뷰는 도 33에 도시된 뷰와 유사하지만, 이제 도 34에 도시된 뷰는 초기 3D 랜더링된 투영 영상으로 간주된다.
실제로, 입력은 사용자에 의해 제공될 수 있다는 것이 이해될 것이다.
상기 사용자에 의해 제공된 입력은 다양한 유형일 수 있다는 것은, 당업자에 의해 이해될 것이다. 실제로, 그리고 일 실시 예에서, 상기 입력은 마우스 및 키보드와의 상호작용 중 적어도 하나를 포함할 수 있다.
선택적으로, 상기 상호작용은 다른 입/출력 장치들을 통해 수행될 수 있다. 또 다른 실시 예에서, 상기 상호작용은, 영상 데이터내의 상기 사용자 입력 위치, 현재 투영 상태 등으로부터 기인한, 대화형 그래픽 사용자 요소들을 가진 입/출력 장치들의 조합을 통해 수행될 수 있다.
실제로, 이 경우에 상기 사용자에 의해 제공된 입력은, 상기 영상 데이터의 2D 두꺼운 관상 랜더링된 투영에 대해 상기 영상 데이터의 현재 부분 위치를 공간적으로 판단하고자 하는 바람을 나타낼 수 있다는 것이 이해될 것이다.
구체적으로, 이것은 방사선 전문의에게, 환자 추적 중에 상이한 폐검사들 간의 관심영역을 연관시키기 위해 주로 사용되는 폐문(hilum of lung)에 대한 해부학적, 공간적 상관관계를 제공하여, 조사 중인 한 영역이, 서로 다른 시간에 3D 스캐너 장치에 의해 생성되는 별개의 영상 데이터의 다른 영역에 해당하는지를 확인할 수 있게 한다.
상기 사용자에 의해 제공된 입력을 따라, 그리고 이하에 더 설명되는 바와 같이, 다수의 뷰들의 시퀀스의 전이는 상기 초기 3D 볼륨 랜더링 투영 영상에서 시작하여, 상기 영상 데이터의 2D 두꺼운 관상 랜더링된 투영 영상과 결합된, 영상 데이터 일부의 3D 볼륨 랜더링 투영 영상에서 멈출 것이다.
상기 전이의 시작은 도 34에 도시되며, 전이의 멈춤 또는 끝은 도 38에 도시됨을 알 수 있을 것이다.
이제 도 35를 참조하면, 시간적으로 도 34에 도시된 뷰 다음으로 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰가 도시된다.
상기 3D 볼륨 랜더링 투영 영상 및 상기 2D 두꺼운 랜더링된 투영 영상 모두에 대해, 현재 랜더링된 투영은 도 34의 이전 랜더링된 투영과 다르다는 것은 당업자에 의해 이해될 것이다.
그 현재 랜더링된 투영을 통해, 상기 사용자는 상기 영상 데이터 일부 및 그 주위 환경들을 계속해서, 그리고 상이한 중간 해부학적 방향들에서, 시각화 할 수 있다.
상기 사용자는 시각적 정보의 순차적 연속성으로 인해 디스플레이된 정보를 해석하기 위한 상당한 인지적 노력을 전혀 필요로 하지 않다는 것이 이해될 것이다.
이제 도 36을 참조하면, 시간적으로 도 35에 도시된 뷰 다음으로 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰가 도시된다.
상기 3D 볼륨 랜더링 투영 영상 및 상기 2D 두꺼운 랜더링된 투영 영상 모두에 대해, 현재 랜더링된 투영은 도 35의 이전 랜더링된 투영과 다르다는 것은 당업자에 의해 이해될 것이다.
그 현재 랜더링된 투영을 통해, 상기 사용자는 상기 영상 데이터 일부 및 그 주위 환경들을 계속해서, 그리고 상이한 중간 해부학적 방향들에서, 시각화 할 수 있다.
다시 한번, 상기 사용자는 시각적 정보의 순차적 연속성으로 인해 디스플레이된 정보를 해석하기 위한 상당한 인지적 노력을 전혀 필요로 하지 않다는 것이 이해될 것이다.
이제 도 37을 참조하면, 시간적으로 도 36에 도시된 뷰 다음으로 디스플레이되는 다수의 뷰들의 시퀀스 중 하나의 뷰가 도시된다.
상기 3D 볼륨 랜더링 투영 영상 및 상기 2D 두꺼운 랜더링된 투영 영상 모두에 대해, 현재 랜더링된 투영은 도 36의 이전 랜더링된 투영과 다르다는 것은 당업자에 의해 이해될 것이다.
그 현재 랜더링된 투영을 통해, 상기 사용자는 상기 영상 데이터 일부 및 그 주위 환경들을 계속해서, 그리고 상이한 중간 해부학적 방향들에서, 시각화 할 수 있다.
이제 도 38을 참조하면, 상기 영상 데이터의 2D 두꺼운 관상 투영 영상에 대한, 상기 영상 데이터 일부의 최종 랜더링된 투영 영상을 도시한다.
급작스런 전체 영상 데이터 유발로 인한 "시각적 놀람(visual surprise)"의 디스플레이를 방지함으로써, 사용자는 상기 영상 데이터 일부의 위치를 쉽게 가늠할 수 있다는 것이, 당업자에 의해 이해될 것이다.
이제 도 31을 참조하면, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템의 실시예가 도시된다.
이 실시 예에서, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템(3100)은, 중앙 처리 장치(CPU)(3102), 디스플레이 장치(3104), 입력 장치들(3106), 통신 포트들(3108), 데이터 버스(3110) 및 메모리(3112)를 포함한다.
상기 중앙 처리 장치(CPU)(3102), 디스플레이 장치(3104), 입력 장치들(3106), 통신 포트들(3108) 및 메모리(3112)는, 상기 데이터 버스(3110)를 통해 동작가능하게 연결된다.
상기 디스플레이 장치(3104)는 사용자에게 데이터를 디스플레이하기 위해 사용된다.
상기 디스플레이 장치(3104)는 다양한 유형일 수 있다는 것이, 당업자에 의해 이해될 것이다.
일 실시 예에서, 상기 디스플레이 장치(3104)는 표준 액정 화면(LCD)이다.
상기 입력 장치들(3106)은 사용자가 입력을 제공할 수 있도록 하기 위해 사용된다. 상기 입력은 입력 장치들에 따라 다양한 유형일 수 있다.
일 실시 예에서, 상기 입력 장치들(3106)은 키보드와 마우스를 포함한다.
당업자는 상기 입력 장치들(3106)에 대해 다양한 실시 예들이 가능할 수 있다는 것을 이해할 것이다.
예를 들어, 일 실시 예에서, 상기 입력 장치(3106)는 터치스크린 디스플레이를 형성하기 위해, 디스플레이 장치(3104)로 통합될 수 있다. 그렇게 함으로써, 상기 사용자는 상기 디스플레이 장치(3104)의 스크린 상에 수행되는 손가락 제스처를 사용하여 사용자의 입력 중 적어도 일부를 제공할 것이다.
상기 통신 포트들(3108)은 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템(3100)과, 그리고 원격 처리 유닛간의 데이터를 공유하기 위해 사용된다.
더 상세하게는, 상기 통신 포트들(3108)은 3D 스캐닝 장치와 통신하기 위해 사용된다는 것이 이해될 것이다.
더 상세하게는, 상기 통신 포트들(3108)은 제 1 3D 스캐닝 장치에 동작가능하게 연결된 제 1 통신 포트를 포함할 수 있다. 상기 통신 포트(3108)는 제 2 3D 스캐닝 장치에 동작가능하게 연결된 제 2 통신 포트를 포함할 수 있다.
상기 제 1 및 제 2 3D 스캐닝 장치는 데이터 네트워크를 통해 수행될 수 있다는 것이 이해될 것이다.
상기 데이터 네트워크는 근거리 통신망(LAN), 대도시권 통신망(MAN) 및 원거리 통신망(WAN) 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 상기 데이터 네트워크는 인터넷을 포함한다.
상기 중앙 처리 장치(CPU)(3102)는 다양한 유형일 수 있다는 것이 이해될 것이다.
실제로, 영상 데이터를 디스플레이하기 위한 시스템(3100)의 사양들은, 가장 기본적인 컴퓨터에서부터 고급 서버(advanced server)까지 매우 다양할 수 있다는 것이 당업자에 의해 이해될 것이다.
상기 메모리(3112)는 데이터를 저장하기 위해 사용된다.
당업자는 상기 메모리(3112)가 다양한 유형일 수 있음을 이해할 것이다.
더 상세하게는, 그리고 일 실시 예에서, 상기 메모리(3112)는 운영 체제 모듈(3114), 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션(3116), 그리고 영상 데이터를 저장하기 위한 데이터베이스(3118)를 포함한다.
일 실시 예에서, 상기 운영 체제 모듈(3114)은
Figure 112015056692165-pct00001
에 의해 제공된다.
선택적으로, 상기 운영 체제 모듈(3114)은
Figure 112015056692165-pct00002
, Linux 등에 의해 제조되는 OS X로 구성되는 군으로부터 선택된다.
또 하나의 실시 예에서, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 애플리케이션(3116)은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하기 위한 명령어들을 포함하며, 상기 각각의 데이터는 동일한 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성된다. 일 실시 예에서는, 상기 스캐닝의 획득은 상기 스캐닝과 동시에, (예를 들어, PET/CT 기술들을 사용하여) 해당 3D 스캐닝 장치에 의해 일어난다는 것을 이해할 수 있다. 또 다른 실시 예에서는, 상기 스캐닝 획득은 스캐닝과 다른 시간에, 해당 3D 스캐닝 장치에 의해 일어날 수 있음이 더 이해될 것이다(예를 들어, 폐 환자의 평가를 위한 CT 스캔 추적의 치료법에 대한 응답). 일 실시 예에서, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는, 상기 통신 포트들(3108)을 통해 해당 3D 스캐닝 장치로부터 직접적으로 얻어진다는 것이 이해될 것이다. 대안적 실시 예에서, 상기 제 1 영상 데이터 및 제 2 영상 데이터는 상기 메모리(3118)로부터 얻어진다.
제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션(3116)은, 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하기 위한 명령어들을 더 포함한다. 상기 제 1 뷰는 상기 디스플레이 장치(3104)의 주어진 창에 디스플레이된다는 것이 이해될 것이다.
제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션(3116)은, 상기 사용자로부터의 입력을 획득하기 위한 명령어를 더 포함하며, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타낸다. 일 실시 예에서, 상기 사용자로부터의 입력은, (예를 들어, '응용 임상 의학 물리학 저널(Journal of Applied Clinical Medical Physics), Vol.14, No.1, 2013; 상호 정보 디몬스 알고리즘의 다중 해상도 변화에 기초한, 식도암 환자들을 위치결정에 대한 PET 및 CT 영상들의 등록(Registration of PET and CT images based on multiresolution gradient of mutual information demons algorithm for positioning esophageal cancer patients)'에 설명된 방법들을 사용한) 랜더링에 앞서 제 1 및 제 2 영상 데이터를 형태상 피팅(morphologically fitting)을 고려하여, 필요한 공간 변환의 판단에 대한 정보를 제공한다는 것이 이해될 것이다.
제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션(3116)은, 다수의 뷰들을 상기 디스플레이 장치의 주어진 창에 순차적으로 디스플레이하기 위한 명령어들을 더 포함하며, 각각의 뷰는 제 1 영상 데이터 및 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당한다.
다수의 랜더 영상들은 제 1 랜더링된 투영 및 최종 랜더링된 투영간의 전이를 수행하도록 정해진다.
상기 전이는, 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터의 일부까지, 연속적인 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 한다. 적어도 제 1 랜더링된 투영 및 최종 랜더링된 투영은 상이한 공간 배열에 따라 한정된다는 것이 이해될 것이다. 일 실시 예에서, 상기 제 1 영상 데이터 및 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성된다는 것이 이해될 것이다. 또 다른 실시 예에서, 상기 제 1 영상 데이터 및 제 2 영상 데이터는 유사한 3D 스캐닝 장치들에 의해, 그러나 상이한 시점에서, 생성된다는 것이 더 이해될 것이다.
영상 데이터를 저장하는 데이터베이스(3118)는 제 1 영상 데이터 및 제 2 영상 데이터를 더 포함한다.
상기 영상 데이터는 당업자에 의해 알려진 다양한 실시 예들에 따라 저장될 수 있음이 이해될 것이다.
또한, 비-일시적 컴퓨터-판독 가능 저장 매체는 컴퓨터-실행 가능 명령어들을 저장하기 위해 제공될 수 있다는 것이 이해될 것이다. 이러한 컴퓨터-실행 가능 명령어들이 실행될 때, 상기 명령어들은 컴퓨팅 장치가 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 방법을 수행하도록 유발할 것이다. 이 경우, 상기 방법은 : 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계; 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계; 상기 사용자로부터의 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계; 상기 주어진 창에 다수의 뷰들을 순차적으로 디스플레이하는 단계로서, 상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며, 상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며, 상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터 일부까지 연속적인 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되고, 그리고 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성되는, 디스플레이 단계를 포함한다.
이제 도 38을 참조하면, 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 방법의 실시 예가 도시된다.
참조번호 3200의 처리 단계에 따라, 영상 데이터가 얻어진다. 상기 영상 데이터를 얻는 단계는 제 1 영상 데이터 및 제 2 영상 데이터를 얻는 것을 포함한다는 것이 이해될 것이다.
일 실시 예에서, 각각의 제 1 영상 데이터 및 제 2 영상 데이터는, 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성된다.
대안적 실시 예에서, 제 1 영상 데이터 및 제 2 영상 데이터는 구조를 스캔하는 단일 3D 스캐닝 장치에 의해 생성된다.
또 다른 실시 예에서, 상기 3D 스캐닝 장치는 컴퓨터 단층 촬영(CT) 스캔 장치, 단층영상합성법 장치, 자기 공명 영상(MRI) 장치, 양전자 방출 단층 촬영(PET) 장치 및 초음파 장치 중 적어도 하나로 구성된 군으로부터 선택된다.
또 다른 실시 예에서, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 영상 데이터를 저장하기 위한 데이터베이스로부터 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 수신하는 것을 포함한다.
구조는 그 자체가 대상(object)이 될 수 있는, 유형의(tangible) 엔티티 또는 무형의 엔티티일 수 있다는 것이 이해될 것이다. 유형의 엔티티의 예로서, 생물학적 구조(장기(organ)) 또는 물리적 구조(예를 들어, 물질적 요소)같은 것들이 있으며, 무형의 엔티티의 예로서, 주어진 장기 활동의 기능적 표현 또는 특정 제약 조건 하에서의 물질 요소의 기능 동작과 같은, 상기 대상의 속성이 있다.
비제한적인 예에 의해, 구조는 뇌 또는 뇌 활동의 표현 중 하나 일 수 있으며, 그리고 로드(rod) 또는 로드의 탄성 표현 중 하나 일 수 있다.
이전 예의 추가적인 비제한적 예시에 의해, 뇌와 같은 구조는 자기 공명 영상(MRI) 장치를 사용하여 3D로 스캐닝될 수 있으며, 반면에 뇌 활동은 양전자 방출 단층 촬영(PET) 장치를 사용하여 3D로 스캐닝될 수 있다.
참조번호 3202의 처리 단계에 따라, 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰는 주어진 창에 디스플레이된다.
언급된 바와 같이, 상기 제 1 영상 데이터의 제 1 랜더링된 투영은 다양한 유형일 수 있음이 이해될 것이다.
실제로, 그리고 일 실시 예에서, 상기 제 1 영상 데이터의 제 1 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택된다.
일 실시 예에서, 상기 주어진 창은 사용자의 디스플레이 유닛 상에 디스플레이되는 그래픽 사용자 인터페이스(GUI)에 포함된다.
선택적으로, 상기 주어진 창은 영상 데이터를 디스플레이하기 위한 플레이어이다.
참조번호 3204의 처리 단계에 따르면, 사용자로부터 입력이 얻어진다. 상기 입력은 상기 제 2 영상 데이터 일부의 최종 랜더링된 투영을 나타낸다.
언급된 바와 같이, 상기 제 2 영상 데이터 일부의 최종 랜더링된 투영은 다양한 유형들일 수 있음이 이해될 것이다.
실제로, 그리고 일 실시 예에서, 상기 제 2 영상 데이터 일부의 최종 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택된다.
상기 입력은 다양한 실시 예들에 따라 사용자에 의해 제공될 수 있음이, 당업자에 의해 이해될 것이다.
일 실시 예에서, 상기 입력은 사용자의 상기 주어진 창과의 상호작용을 사용하여 제공된다. 실제로, 상기 입력은 마우스 또는 키보드 중 적어도 하나를 사용하여 제공될 수 있다.
대안적 실시 예에서, 의학적 응용의 경우, 상기 입력은 수술(procedure) 중에 사용되는 의료용 장치를 통해 감지될 수 있다. 이러한 실시 예에서, 상기 의료용 장치는 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 장치에 연결된 내시경일 수 있다.
참조번호 3206의 처리 단계에 따르면, 다수의 뷰들이 상기 주어진 창에 순차적으로 디스플레이된다.
일 실시 예에서, 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계는 터치스크린 디스플레이 상에서 수행된다는 것이 이해될 것이다.
다수의 뷰들 중 각각의 뷰는, 제 1 영상 데이터 및 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영들에 해당한다.
상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 최종 랜더링된 투영간의 전이를 수행하도록 정해진다.
게다가, 상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터까지 연속적인 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 한다.
적어도 제 1 랜더링된 투영 및 최종 랜더링된 투영은 상이한 공간 배열에 따라 한정되며, 그리고 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는 상이한 3D 스캐닝 장치들에 의해 생성된다는 것이 이해될 것이다.
연속적인 정보의 순차적 디스플레이는, 구조의 적어도 하나의 3D 스캐닝 장치에 의해 생성된 영상 데이터 내에 포함된 정보를 처리함으로써, 영상 데이터 내의 관심 영역의 주변 환경의 해석을 가능하게 하는 시각적 인식을 의미한다는 것이 이해될 것이다.
상기 정보 처리는, 구성 내 요소들의 순차적 디스플레이를 통해, 구조 영상 데이터의 상이한 공간적 배열들 간의 시각적 상관관계를 형성하기 위한 모션을 사용하는 영상 데이터의 상이한 공간적 배열들의 순차적 디스플레이를 의미한다. 전술한 내용을 제한하지 않는 예로서, 이 방법은, 시작 및 종료 지점들, 동작의 번짐(blurring of action)을 통해 장소 또는 방향, 배향 및 위치를 변화시키기 위한, 공간적 배열들에 대한 동작(act)이나 프로세스를 묘사한다.
상기 공간적 배열은 어레이(array)가 배치되는, 공간 속성의 개념을 의미한다는 것이 이해될 것이다. 3D 스캐닝 장치에 의해 생성된 영상 데이터를 참고하여, 그리고 비제한적 예에 의해, 어레이는 뇌의 영상 데이터를 생성하기 위해, MRI 스캐닝 장치에 의해 생성된 (그리고 수신된) 주어진 무선-주파수 영역들에 의해 여기되고(excited) (그리고 기록된), 특정 해부학적 조직들 내의 양성자들의 완화 시간(relaxing time)을 나타내는 복셀들의 어레이거나 또는 뇌와 같은 구조에 주입되는 양전자-방출 방사성 핵종(추적자)에 의해 방출되는, 그리고 뇌 내의 추적자 농도의 영상 데이터를 생성하는 PET 스캐닝 장치에 의해 캡처되는, 감마선들의 양을 나타내는 복셀들의 어레이일 수 있다.
전술한 내용을 제한하지 않으며, 다른 예에 의해, 적어도 영상 데이터의 일부에 공간적으로 배열되는 서로 상이한 수단에 해당함에 따라, 2D 축면 내의 영상 데이터의 공간적 배열은 2D 관상면의 영상 데이터의 공간적 배열과 상이하다. 역으로, 주어진 영상 데이터를 나타내는 3D 모델을 상호작용하여 회전시키는 것은, 그것의 공간적 배열을 변화시키지 않으며, 일관된 2D 축면 검토 모드에서 영상 데이터를 통해 스크롤링하는 것 또한, 공간적 배열을 변화시키지 않는다.
조항(clause) 1 : 제 1 영상 데이터의 제 1 랜더링된(rendered) 투영(projection) 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법에 있어서,
상기 방법은 :
상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계;
상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계;
상기 사용자로부터 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계;
다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계로서,
상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며(defined),
상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터의 상기 일부까지의 연속적인 상기 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 그리고
상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되는(defined), 디스플레이 단계를 포함하는, 방법.
삭제
조항 2 : 제 1항에 있어서, 상기 3D 스캐닝 장치는 컴퓨터 단층 촬영(CT) 스캔 장치, 단층영상합성법 장치, 자기 공명 영상(MRI) 장치, 양전자 방출 단층 촬영(PET) 장치 및 초음파 장치 중 적어도 하나로 구성된 군으로부터 선택되는, 방법.
조항 3 : 제 1항 또는 제 2항에 있어서, 상기 제 1 영상 데이터의 제 1 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택되는, 방법.
조항 4 : 제 1항 내지 제 3항 중 어느 한 항에 있어서, 상기 최종 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택되는, 방법.
조항 5 : 제 1항 내지 제 4항 중 어느 한 항에 있어서, 상기 제 1 영상 데이터는 상기 구조를 스캔하는 제 1 3D 스캐닝 장치에 의해 생성되며, 상기 제 2 영상 데이터는 상기 구조를 스캔하는 제 2 3D 스캐닝 장치에 의해 생성되는, 방법.
조항 6 : 제 1항 내지 제 4항 중 어느 한 항에 있어서, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는, 상기 구조를 스캔하는 단일 3D 스캐닝 장치에 의해 생성되는, 방법.
조항 7 : 제 1항 내지 제 6항 중 어느 한 항에 있어서, 상기 사용자로부터의 입력을 획득하는 단계는, 키보드 및 마우스 중 적어도 하나로부터 상기 입력을 획득하는 것을 포함하는, 방법.
조항 8 : 제 1항 내지 제 6항 중 어느 한 항에 있어서, 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계는 터치스크린 디스플레이 상에서 수행되며, 상기 사용자로부터의 입력을 획득하는 단계는 상기 터치스크린 디스플레이 상에서 손가락 제스처를 감지하는 것을 포함하는, 방법.
조항 9 : 제 1항에 있어서, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 상기 구조를 스캔하는 3D 스캐닝 장치로부터 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 수신하는 것을 포함하는, 방법.
조항 10 : 제 1항 내지 제 8항 중 어느 한 항에 있어서, 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 메모리에서 상기 제 1 영상 데이터 및 제 2 영상 데이터를 가져오는(retrieving) 것을 포함하는, 방법.
조항 11 : 제 1항 내지 제 10항 중 어느 한 항에 있어서, 상기 사용자로부터의 입력을 획득하는 단계는, 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영의 표시를 획득하는 것과, 주어진 뷰 내의 관심 영역에 대해 수행할 줌(zoom)의 표시를 획득하는 것을 포함하며, 상기 방법은 상기 주어진 뷰 내에 다수의 확대된 뷰들을 생성하는 것을 더 포함하며, 상기 주어진 창에서의 다수의 뷰들은 상기 생성된 다수의 확대된 뷰들을 포함하는, 방법.
조항 12 : 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템에 있어서,
상기 시스템은:
사용자에게 데이터를 디스플레이하기 위한 디스플레이 장치;
상기 디스플레이 장치에 동작가능하게(operatively) 연결된 중앙 처리 유닛;
상기 중앙 처리 유닛에 동작가능하게 연결된 입력 장치로서, 상기 입력 장치는 상기 사용자로부터의 입력을 획득하기 위한 것인, 입력 장치;
상기 중앙 처리 유닛에 동작가능하게(operatively) 연결된 메모리를 포함하고,
상기 메모리는 제 1 영상 데이터 및 제 2 영상 데이터를 저장하기 위한 데이터베이스, 그리고 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션을 포함하며,
상기 애플리케이션은 :
상기 데이터베이스로부터 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하기 위한 명령어들로서, 상기 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 명령어들;
상기 디스플레이 장치 상에서 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하기 위한 명령어들;
상기 입력 장치로부터, 상기 사용자로부터의 입력을 획득하기 위한 명령어들로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 명령어들;
상기 디스플레이 장치 상에서 다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하기 위한 명령어들로서,
상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며,
상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터의 일부까지 연속적인 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 그리고
상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되는, 명령어들을 포함하는, 시스템.
삭제
조항 13 : 제 12항에 있어서, 상기 시스템은, 상기 중앙 처리 유닛에 동작가능하게 연결된 통신 포트를 포함하며, 상기 연결 포트는 상기 구조를 스캔하는 원격 3D 스캐닝 장치에 상기 시스템을 동작가능하게 연결하기 위한 것인, 시스템.
조항 14 : 제 13항에 있어서, 상기 통신 포트는, 데이터 네트워크를 통해, 상기 구조를 스캔하는 상기 원격 3D 스캐닝 장치에 동작가능하게 연결된, 시스템.
조항 15 : 제 14항에 있어서, 상기 데이터 네트워크는 근거리 통신망(LAN), 대도시권 통신망(MAN) 및 원거리 통신망(WAN)으로 구성된 군으로부터 선택되는, 시스템.
조항 16 : 제 15항에 있어서, 상기 데이터 네트워크는 인터넷을 포함하는, 시스템.
조항 17 : 제 12항에 있어서, 상기 디스플레이 장치는 터치스크린 디스플레이이며, 상기 사용자의 입력 중 적어도 일부분은 상기 터치스크린 디스플레이로부터 획득되는, 시스템.
조항 18 : 컴퓨터-실행 가능 명령어들을 저장하기 위한 비-일시적 컴퓨터-판독 가능 저장 매체로서, 상기 명령어들이 실행될 때, 상기 명령어들은 컴퓨팅 장치가 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법을 수행하도록 하는, 비-일시적 컴퓨터-판독 가능 저장 매체에 있어서,
상기 방법은 :
상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계;
상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계;
상기 사용자로부터의 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계;
다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계로서,
상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며,
상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터 일부까지 연속적인 상기 구조 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 그리고
상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되는, 디스플레이 단계를 포함하는, 비-일시적 컴퓨터-판독 가능 저장 매체.
삭제
조항 19 : 제 1항 내지 제 11항 중 어느 한 항에 있어서, 다수의 뷰들 중 적어도 하나는, 관련된 랜더링된 투영 및 상기 사용자로부터의 입력 중 적어도 하나와 연관된, 디스플레이된 시각적 정보를 포함하는, 방법.
조항 20 : 제 1항 내지 제 11항 및 제 19항 중 어느 한 항에 있어서, 상기 사용자로부터의 입력은 상기 제 1 영상 데이터 내에 위치 속성 데이터를 더 포함하며, 상기 위치 속성 데이터는 차후의 뷰들에 대한 랜더링된 투영과 관련된 랜더링 파라미터들을 판단하기 위해 사용되는, 방법.
조항 21 : 제 1항 내지 제 11항 및 제 19항 내지 제 20항 중 어느 한 항에 있어서, 상기 사용자로부터의 입력은 수행할 세그먼트화(segmentation)에 관한 정보를 포함하며, 다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계는, 다수의 뷰들 중 적어도 하나를 디스플레이하기 전에 세그먼트화(segmentation)를 수행하는 것을 포함하는, 방법.
상기 설명은 현재, 발명자에 의해 고려된 특정 바람직한 실시예에 관한 것이지만, 본 발명은, 본 발명의 다양한 형태로, 본원에 기재된 요소들의 기계적 및 기능적 동등물을 포함한다는 것이 이해될 것이다.

Claims (21)

  1. 제 1 영상 데이터의 제 1 랜더링된(rendered) 투영(projection) 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법에 있어서,
    상기 방법은 :
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계;
    디스플레이 장치에 의해, 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계;
    이미지 장치에 의해, 상기 사용자로부터 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계;
    상기 디스플레이 장치에 의해, 다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계로서,
    상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
    상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며(defined),
    상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터의 상기 일부까지의 연속적인 상기 구조의 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 그리고
    상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되는(defined), 디스플레이 단계를 포함하는, 방법.
  2. 제 1항에 있어서,
    상기 3D 스캐닝 장치는 컴퓨터 단층 촬영(CT) 스캔 장치, 단층영상합성법 장치, 자기 공명 영상(MRI) 장치, 양전자 방출 단층 촬영(PET) 장치 및 초음파 장치 중 적어도 하나로 구성된 군으로부터 선택되는, 방법.
  3. 제 1항 또는 제 2항에 있어서,
    상기 제 1 영상 데이터의 제 1 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택되는, 방법.
  4. 제 1항 또는 제 2항에 있어서,
    상기 최종 랜더링된 투영은 2D 얇은 슬라이스, 2D 두꺼운 슬라이스, 2D 최대 강도 투영, 3D 광선-추적, 3D 표면 랜더링, 3D 원근 투영, 3D 내시경적 투영 및 월드 투영(world projection)으로 구성된 군으로부터 선택되는, 방법.
  5. 제 1항 또는 제 2항에 있어서,
    상기 제 1 영상 데이터는 상기 구조를 스캔하는 제 1 3D 스캐닝 장치에 의해 생성되며,
    상기 제 2 영상 데이터는 상기 구조를 스캔하는 제 2 3D 스캐닝 장치에 의해 생성되는, 방법.
  6. 제 1항 또는 제 2항에 있어서,
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터는, 상기 구조를 스캔하는 단일 3D 스캐닝 장치에 의해 생성되는, 방법.
  7. 제 1항 또는 제 2항에 있어서,
    상기 사용자로부터의 입력을 획득하는 단계는, 키보드 및 마우스 중 적어도 하나로부터 상기 입력을 획득하는 것을 포함하는, 방법.
  8. 제 1항 또는 제 2항에 있어서,
    상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계는 터치스크린 디스플레이 상에서 수행되며,
    상기 사용자로부터의 입력을 획득하는 단계는 상기 터치스크린 디스플레이 상에서 손가락 제스처를 감지하는 것을 포함하는, 방법.
  9. 제 1항에 있어서,
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 상기 구조를 스캔하는 3D 스캐닝 장치로부터 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 수신하는 것을 포함하는, 방법.
  10. 제 1항 또는 제 2항에 있어서,
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계는, 메모리에서 상기 제 1 영상 데이터 및 제 2 영상 데이터를 가져오는(retrieving) 것을 포함하는, 방법.
  11. 제 1항, 제 2항 또는 제 9항 중 어느 한 항에 있어서,
    상기 사용자로부터의 입력을 획득하는 단계는, 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영의 표시를 획득하는 것과, 주어진 뷰 내의 관심 영역에 대해 수행할 줌(zoom)의 표시를 획득하는 것을 포함하며,
    상기 방법은 상기 주어진 뷰 내에 다수의 확대된 뷰들을 생성하는 것을 더 포함하며,
    상기 주어진 창에서의 다수의 뷰들은 상기 생성된 다수의 확대된 뷰들을 포함하는, 방법.
  12. 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 시스템에 있어서,
    상기 시스템은:
    사용자에게 데이터를 디스플레이하기 위한 디스플레이 장치;
    상기 디스플레이 장치에 동작가능하게(operatively) 연결된 중앙 처리 유닛;
    상기 중앙 처리 유닛에 동작가능하게 연결된 입력 장치로서, 상기 입력 장치는 상기 사용자로부터의 입력을 획득하기 위한 것인, 입력 장치;
    상기 중앙 처리 유닛에 동작가능하게(operatively) 연결된 메모리를 포함하고,
    상기 메모리는 제 1 영상 데이터 및 제 2 영상 데이터를 저장하기 위한 데이터베이스, 그리고 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하기 위한 애플리케이션을 포함하며,
    상기 애플리케이션은 :
    상기 데이터베이스로부터 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하기 위한 명령어들로서, 상기 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 명령어들;
    상기 디스플레이 장치 상에서 상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하기 위한 명령어들;
    상기 입력 장치로부터, 상기 사용자로부터의 입력을 획득하기 위한 명령어들로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 명령어들;
    상기 디스플레이 장치 상에서 다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하기 위한 명령어들로서,
    상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
    상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며,
    상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터의 일부까지 연속적인 상기 구조의 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 그리고
    상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되는, 명령어들을 포함하는, 시스템.
  13. 제 12항에 있어서,
    상기 시스템은, 상기 중앙 처리 유닛에 동작가능하게 연결된 통신 포트를 포함하며,
    상기 통신 포트는 상기 구조를 스캔하는 원격 3D 스캐닝 장치에 상기 시스템을 동작가능하게 연결하기 위한 것인, 시스템.
  14. 제 13항에 있어서,
    상기 통신 포트는, 데이터 네트워크를 통해, 상기 구조를 스캔하는 상기 원격 3D 스캐닝 장치에 동작가능하게 연결된, 시스템.
  15. 제 14항에 있어서,
    상기 데이터 네트워크는 근거리 통신망(LAN), 대도시권 통신망(MAN) 및 원거리 통신망(WAN)으로 구성된 군으로부터 선택되는, 시스템.
  16. 제 15항에 있어서, 상기 데이터 네트워크는 인터넷을 포함하는, 시스템.
  17. 제 12항에 있어서,
    상기 디스플레이 장치는 터치스크린 디스플레이이며,
    상기 사용자의 입력 중 적어도 일부분은 상기 터치스크린 디스플레이로부터 획득되는, 시스템.
  18. 컴퓨터-실행 가능 명령어들을 저장하기 위한 비-일시적 컴퓨터-판독 가능 저장 매체로서, 상기 명령어들이 실행될 때, 상기 명령어들은 컴퓨팅 장치가 제 1 영상 데이터의 제 1 랜더링된 투영 및 제 2 영상 데이터의 최종 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법을 수행하도록 하는, 비-일시적 컴퓨터-판독 가능 저장 매체에 있어서,
    상기 방법은 :
    상기 제 1 영상 데이터 및 상기 제 2 영상 데이터를 획득하는 단계로서, 각각의 데이터는 구조를 스캔하는 해당 3D 스캐닝 장치에 의해 생성되는, 데이터 획득 단계;
    상기 제 1 영상 데이터의 제 1 랜더링된 투영에 해당하는 제 1 뷰를 주어진 창에 디스플레이하는 단계;
    상기 사용자로부터의 입력을 획득하는 단계로서, 상기 입력은 상기 제 2 영상 데이터 일부의 상기 최종 랜더링된 투영을 나타내는, 입력 획득 단계;
    다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계로서,
    상기 뷰들 각각은 상기 제 1 영상 데이터 및 상기 제 2 영상 데이터 중 적어도 하나의 상이한 랜더링된 투영에 해당하며,
    상기 다수의 랜더링된 투영들은 상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영간의 전이를 수행하도록 정해지며,
    상기 전이는 상기 제 1 영상 데이터부터 상기 제 2 영상 데이터 일부까지 연속적인 상기 구조의 정보를 순차적으로 디스플레이하는 것을 가능하게 하며, 그리고
    상기 제 1 랜더링된 투영 및 상기 최종 랜더링된 투영 중 적어도 하나는 상이한 공간 배열에 따라 한정되는, 디스플레이 단계를 포함하는, 비-일시적 컴퓨터-판독 가능 저장 매체.
  19. 제 1항, 제 2항 또는 제 9항 중 어느 한 항에 있어서,
    다수의 뷰들 중 적어도 하나는, 관련된 랜더링된 투영 및 상기 사용자로부터의 입력 중 적어도 하나와 연관된, 디스플레이된 시각적 정보를 포함하는, 방법.
  20. 제 1항, 제 2항 또는 제 9항 중 어느 한 항에 있어서,
    상기 사용자로부터의 입력은 상기 제 1 영상 데이터 내에 위치 속성 데이터를 더 포함하며,
    상기 위치 속성 데이터는 차후의 뷰들에 대한 랜더링된 투영과 관련된 랜더링 파라미터들을 판단하기 위해 사용되는, 방법.
  21. 제 1항, 제 2항 또는 제 9항 중 어느 한 항에 있어서,
    상기 사용자로부터의 입력은 수행할 세그먼트화(segmentation)에 관한 정보를 포함하며,
    다수의 뷰들을 순차적으로 상기 주어진 창에 디스플레이하는 단계는, 다수의 뷰들 중 적어도 하나를 디스플레이하기 전에 세그먼트화(segmentation)를 수행하는 것을 포함하는, 방법.
KR1020157015626A 2012-11-23 2013-11-22 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템 KR102307530B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261729472P 2012-11-23 2012-11-23
US61/729,472 2012-11-23
PCT/CA2013/000982 WO2014078944A1 (en) 2012-11-23 2013-11-22 Method and system for displaying to a user a transition between a first rendered projection and a second rendered projection

Publications (2)

Publication Number Publication Date
KR20150090117A KR20150090117A (ko) 2015-08-05
KR102307530B1 true KR102307530B1 (ko) 2021-09-30

Family

ID=50775343

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157015626A KR102307530B1 (ko) 2012-11-23 2013-11-22 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템

Country Status (14)

Country Link
US (1) US10905391B2 (ko)
EP (1) EP2923262B1 (ko)
JP (1) JP6396310B2 (ko)
KR (1) KR102307530B1 (ko)
CN (2) CN108378865A (ko)
AU (2) AU2013350270A1 (ko)
BR (1) BR112015011804B1 (ko)
CA (1) CA2892326C (ko)
CL (1) CL2015001378A1 (ko)
HK (1) HK1216049A1 (ko)
IL (1) IL238682B (ko)
MX (1) MX2015006351A (ko)
SG (1) SG11201503711YA (ko)
WO (1) WO2014078944A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10163261B2 (en) * 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10216762B2 (en) * 2014-06-04 2019-02-26 Panasonic Corporation Control method and non-transitory computer-readable recording medium for comparing medical images
EP3510939B1 (en) * 2016-09-12 2023-01-11 FUJIFILM Corporation Ultrasound diagnostic system and method of controlling ultrasound diagnostic system
US11779192B2 (en) * 2017-05-03 2023-10-10 Covidien Lp Medical image viewer control from surgeon's camera
EP3684463A4 (en) 2017-09-19 2021-06-23 Neuroenhancement Lab, LLC NEURO-ACTIVATION PROCESS AND APPARATUS
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
EP3731749A4 (en) 2017-12-31 2022-07-27 Neuroenhancement Lab, LLC NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE
US10809958B2 (en) * 2018-04-16 2020-10-20 Microsoft Technology Licensing, Llc Setting up multiple displays via user input
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
CN109360233A (zh) * 2018-09-12 2019-02-19 沈阳东软医疗系统有限公司 图像融合方法、装置、设备及存储介质
CA3112564A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
CN110060252B (zh) * 2019-04-28 2021-11-05 重庆金山医疗技术研究院有限公司 一种图片内目标提示处理方法、装置及内窥镜系统
JP7497422B2 (ja) 2020-03-16 2024-06-10 富士フイルム株式会社 画像処理装置、画像表示システム、画像処理装置の作動方法及びプログラム
CN111651131B (zh) * 2020-05-18 2024-02-27 武汉联影医疗科技有限公司 图像的显示方法、装置和计算机设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291596A (ja) 2008-06-06 2009-12-17 Siemens Medical Solutions Usa Inc 3次元医療用画像における空間的関係を伝達するための動画

Family Cites Families (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5348020A (en) * 1990-12-14 1994-09-20 Hutson William H Method and system for near real-time analysis and display of electrocardiographic signals
JPH1057370A (ja) * 1996-08-21 1998-03-03 Shimadzu Corp 医用3次元画像表示装置
JP4179661B2 (ja) * 1998-04-24 2008-11-12 東芝医用システムエンジニアリング株式会社 医用画像処理装置
US6633686B1 (en) * 1998-11-05 2003-10-14 Washington University Method and apparatus for image registration using large deformation diffeomorphisms on a sphere
JP4659950B2 (ja) * 1999-08-20 2011-03-30 株式会社東芝 超音波診断装置
US7890887B1 (en) * 2001-03-07 2011-02-15 Fonar Corporation System and method for the operation of diagnostic medical equipment
GB2382509B (en) * 2001-11-23 2003-10-08 Voxar Ltd Handling of image data created by manipulation of image data sets
AU2002348241A1 (en) * 2001-11-24 2003-06-10 Image Analysis, Inc. Automatic detection and quantification of coronary and aortic calcium
WO2003045247A1 (fr) * 2001-11-30 2003-06-05 Hitachi Medical Corporation Tomographie cardiaque et tomogramme utilisant un appareil de tomodensitometrie a rayons x
US6828972B2 (en) * 2002-04-24 2004-12-07 Microsoft Corp. System and method for expression mapping
US20040047497A1 (en) * 2002-09-10 2004-03-11 Confirma, Inc. User interface for viewing medical images
CA2449888A1 (en) * 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
JP2004167042A (ja) * 2002-11-21 2004-06-17 Fuji Photo Film Co Ltd 画像表示装置
JP2004173910A (ja) * 2002-11-27 2004-06-24 Fuji Photo Film Co Ltd 画像表示装置
WO2004114063A2 (en) * 2003-06-13 2004-12-29 Georgia Tech Research Corporation Data reconstruction using directional interpolation techniques
GB2415876B (en) * 2004-06-30 2007-12-05 Voxar Ltd Imaging volume data
DE102004035740A1 (de) 2004-07-23 2006-03-16 Siemens Ag Verfahren zur Zwischenbildgenerierung bei der Bildgebung mit einer tomographischen bildgebenden Modalität
US20060034513A1 (en) 2004-07-23 2006-02-16 Siemens Medical Solutions Usa, Inc. View assistance in three-dimensional ultrasound imaging
US20060079746A1 (en) * 2004-10-11 2006-04-13 Perret Florence M Apparatus and method for analysis of tissue classes along tubular structures
JP2008520052A (ja) * 2004-11-12 2008-06-12 モク3, インコーポレイテッド シーン間遷移のための方法
US7840050B2 (en) * 2005-05-05 2010-11-23 Siemens Medical Solutions Usa, Inc. System and method for piecewise registration of timepoints
JP2008546441A (ja) * 2005-06-15 2008-12-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1及び第2画像を比較するためのモデルに基づく弾性画像登録方法
US7880738B2 (en) * 2005-07-14 2011-02-01 Molsoft Llc Structured documents and systems, methods and computer programs for creating, producing and displaying three dimensional objects and other related information in those structured documents
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US20080008366A1 (en) * 2006-06-20 2008-01-10 Vladimir Desh Simultaneous visualization, analysis and navigation of multi-modality medical imaging data
WO2008037533A1 (en) 2006-09-29 2008-04-03 Esaote Spa User interface for displaying mri images
DE102006048834A1 (de) * 2006-10-16 2008-04-17 Rust, Georg-Friedemann, Dr. Bildliche Darstellung dreidimensionaler Datensätze
US8788012B2 (en) * 2006-11-21 2014-07-22 General Electric Company Methods and apparatus for automatically registering lesions between examinations
US9597041B2 (en) 2007-03-30 2017-03-21 General Electric Company Sequential image acquisition with updating method and system
US7894663B2 (en) * 2007-06-30 2011-02-22 General Electric Company Method and system for multiple view volume rendering
WO2009070319A1 (en) * 2007-11-27 2009-06-04 Ortiz David J Computer graphic user interface and display system
WO2009070160A1 (en) 2007-11-27 2009-06-04 University Of Washington Eliminating illumination crosstalk while imaging using multiple imaging devices
US8531449B2 (en) * 2007-12-18 2013-09-10 Navteq B.V. System and method for producing multi-angle views of an object-of-interest from images in an image dataset
DE112009000101T5 (de) * 2008-01-04 2010-11-11 3M Innovative Properties Co., St. Paul Globale Kamerawegoptimierung
US20110178389A1 (en) * 2008-05-02 2011-07-21 Eigen, Inc. Fused image moldalities guidance
US8432391B2 (en) * 2008-06-02 2013-04-30 Panasonic Corporation Remote control device and remote control method
US8170312B2 (en) 2008-06-17 2012-05-01 Siemens Medical Solutions Usa, Inc. Respiratory motion compensated cardiac wall motion determination system
US8432405B2 (en) * 2008-06-26 2013-04-30 Microsoft Corporation Dynamically transitioning between hardware-accelerated and software rendering
JP5322548B2 (ja) * 2008-09-17 2013-10-23 株式会社東芝 X線ct装置、医用画像処理装置および医用画像処理プログラム
DE102008052690B4 (de) * 2008-10-22 2019-10-31 Siemens Healthcare Gmbh Vorrichtung und Verfahren zur Rekonstruktion und Visualisierung von Projektionsdaten
US8745536B1 (en) * 2008-11-25 2014-06-03 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls
US8619083B2 (en) * 2009-01-06 2013-12-31 Microsoft Corporation Multi-layer image composition with intermediate blending resolutions
US8690776B2 (en) 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
EP2409280A1 (en) * 2009-03-20 2012-01-25 Koninklijke Philips Electronics N.V. Visualizing a view of a scene
US20100254584A1 (en) * 2009-04-07 2010-10-07 Siemens Corporation Automated method for assessment of tumor response to therapy with multi-parametric mri
JP5405264B2 (ja) * 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
US8803908B2 (en) * 2010-01-15 2014-08-12 Apple Inc. Digital image transitions
US9235575B1 (en) * 2010-03-08 2016-01-12 Hewlett-Packard Development Company, L.P. Systems and methods using a slideshow generator
US8494245B2 (en) * 2010-03-09 2013-07-23 Siemens Aktiengesellschaft System and method for guiding transcatheter aortic valve implantations based on interventional C-Arm CT imaging
US10235497B2 (en) 2010-03-23 2019-03-19 Koninklijke Philips, N.V. Volumetric ultrasound image data reformatted as an image plane sequence
US8594401B2 (en) 2010-03-30 2013-11-26 The Johns Hopkins University Automated characterization of time-dependent tissue change
US8581905B2 (en) * 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
JP5897273B2 (ja) * 2010-07-22 2016-03-30 株式会社東芝 医用画像表示装置及びx線コンピュータ断層撮影装置
EP2601637B1 (en) * 2010-08-02 2019-12-18 Koninklijke Philips N.V. System and method for multi-modality segmentation of internal tissue with live feedback
JP5661382B2 (ja) * 2010-08-31 2015-01-28 キヤノン株式会社 画像表示装置
US8922546B2 (en) * 2010-09-30 2014-12-30 Siemens Aktiengesellschaft Dynamic graphical user interfaces for medical workstations
US8805045B2 (en) * 2010-10-12 2014-08-12 Siemens Aktiengesellschaft Interaction method for regions of-interest in time series images
US9262444B2 (en) * 2010-11-24 2016-02-16 General Electric Company Systems and methods for applying series level operations and comparing images using a thumbnail navigator
US20120139906A1 (en) * 2010-12-03 2012-06-07 Qualcomm Incorporated Hybrid reality for 3d human-machine interface
US8823732B2 (en) * 2010-12-17 2014-09-02 Pictometry International Corp. Systems and methods for processing images with edge detection and snap-to feature
US8860717B1 (en) * 2011-03-29 2014-10-14 Google Inc. Web browser for viewing a three-dimensional object responsive to a search query
US20120265050A1 (en) 2011-04-04 2012-10-18 Ge Wang Omni-Tomographic Imaging for Interior Reconstruction using Simultaneous Data Acquisition from Multiple Imaging Modalities
US20120259224A1 (en) * 2011-04-08 2012-10-11 Mon-Ju Wu Ultrasound Machine for Improved Longitudinal Tissue Analysis
JP5813986B2 (ja) * 2011-04-25 2015-11-17 株式会社東芝 画像処理システム、装置、方法及びプログラム
US9218643B2 (en) * 2011-05-12 2015-12-22 The Johns Hopkins University Method and system for registering images
US20140143716A1 (en) * 2011-06-22 2014-05-22 Koninklijke Philips N.V. System and method for processing a medical image
AU2012286480A1 (en) * 2011-07-18 2014-01-30 Dog Microsystems Inc. Method and system for performing rendering
US9613453B2 (en) * 2011-10-04 2017-04-04 Google Inc. Systems and method for performing a three pass rendering of images
US9519981B2 (en) * 2011-11-04 2016-12-13 Siemens Healthcare Gmbh Visualizing brain network connectivity
US9196091B2 (en) * 2012-01-24 2015-11-24 Kabushiki Kaisha Toshiba Image processing method and system
US20130328874A1 (en) * 2012-06-06 2013-12-12 Siemens Medical Solutions Usa, Inc. Clip Surface for Volume Rendering in Three-Dimensional Medical Imaging
US9075460B2 (en) * 2012-08-10 2015-07-07 Blackberry Limited Method of momentum based zoom of content on an electronic device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009291596A (ja) 2008-06-06 2009-12-17 Siemens Medical Solutions Usa Inc 3次元医療用画像における空間的関係を伝達するための動画

Also Published As

Publication number Publication date
AU2013350270A1 (en) 2015-05-28
EP2923262A1 (en) 2015-09-30
CA2892326A1 (en) 2014-05-30
MX2015006351A (es) 2016-03-15
BR112015011804B1 (pt) 2022-02-15
EP2923262B1 (en) 2019-08-07
IL238682A0 (en) 2015-06-30
SG11201503711YA (en) 2015-06-29
CN108378865A (zh) 2018-08-10
BR112015011804A2 (pt) 2017-07-11
HK1216049A1 (zh) 2016-10-07
EP2923262A4 (en) 2016-07-13
WO2014078944A1 (en) 2014-05-30
IL238682B (en) 2020-06-30
JP2016508242A (ja) 2016-03-17
CL2015001378A1 (es) 2016-04-01
JP6396310B2 (ja) 2018-09-26
KR20150090117A (ko) 2015-08-05
CA2892326C (en) 2021-06-22
AU2019226207A1 (en) 2019-09-26
AU2013350270A2 (en) 2017-06-01
US20150335303A1 (en) 2015-11-26
CN104969265A (zh) 2015-10-07
US10905391B2 (en) 2021-02-02

Similar Documents

Publication Publication Date Title
KR102307530B1 (ko) 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템
JP4820680B2 (ja) 医用画像表示装置
JP6670595B2 (ja) 医用画像処理装置
JP2008526382A (ja) 血流の表示方法およびシステム
Abou El-Seoud et al. An interactive mixed reality ray tracing rendering mobile application of medical data in minimally invasive surgeries
CN107170021B (zh) 时变数据的细化重构
US9237849B1 (en) Relative maximum intensity projection
Zhang et al. MR and ultrasound cardiac image dynamic visualization and synchronization over Internet for distributed heart function diagnosis
JP5398791B2 (ja) 医用画像表示装置
US20060103678A1 (en) Method and system for interactive visualization of locally oriented structures
Lawonn et al. Illustrative Multi-volume Rendering for PET/CT Scans.
Sveinsson et al. ARmedViewer, an augmented-reality-based fast 3D reslicer for medical image data on mobile devices: A feasibility study
Ropinski et al. Multimodal visualization with interactive closeups
CN110546684B (zh) 时变数据的定量评估
Wu et al. Toward a multimodal diagnostic exploratory visualization of focal cortical dysplasia
JP5484425B2 (ja) 眼科装置及びその制御方法、コンピュータプログラム
Kainz et al. Volume visualization in the clinical practice
KR20150047935A (ko) 다중 의료 영상을 표시하는 방법 및 이를 수행하기 위한 의료 영상 기기
CN113268192B (zh) 一种医学图像浏览方法和系统
Blank et al. Perspective volume rendered motion: gaining insights virtually
Aspin et al. Medivol: An initial study into real-time, interactive 3D visualisation of soft tissue pathologies
WO2006057663A2 (en) Method and system for interactive visualization of locally oriented structures
Navigation Informatics in Radiology (infoRAD)

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right