KR102111707B1 - 렌더링을 수행하기 위한 방법 및 시스템 - Google Patents

렌더링을 수행하기 위한 방법 및 시스템 Download PDF

Info

Publication number
KR102111707B1
KR102111707B1 KR1020147004188A KR20147004188A KR102111707B1 KR 102111707 B1 KR102111707 B1 KR 102111707B1 KR 1020147004188 A KR1020147004188 A KR 1020147004188A KR 20147004188 A KR20147004188 A KR 20147004188A KR 102111707 B1 KR102111707 B1 KR 102111707B1
Authority
KR
South Korea
Prior art keywords
projection
projection model
projected data
projected
image data
Prior art date
Application number
KR1020147004188A
Other languages
English (en)
Other versions
KR20140054087A (ko
Inventor
토마스 빈센트
트리스탄 라파름
Original Assignee
카덴스 메디컬 이매징 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 카덴스 메디컬 이매징 아이엔씨. filed Critical 카덴스 메디컬 이매징 아이엔씨.
Publication of KR20140054087A publication Critical patent/KR20140054087A/ko
Application granted granted Critical
Publication of KR102111707B1 publication Critical patent/KR102111707B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)

Abstract

주어진 뷰포인트에서 원근 렌더링 (perspective rendering)에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하기 위한 방법 및 시스템이 개시되며, 상기 방법은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하는 투사 모델 (projection model)을 제공하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징이 있는, 투사 모델 제공 단계, 이미지 데이터를 획득하는 단계, 제1 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하는 단계, 제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하는 단계 그리고 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 디스플레이하는 단계를 포함한다.

Description

렌더링을 수행하기 위한 방법 및 시스템{Method and system for performing rendering}
관련된 출원들 상호-참조
본 특허 출원은 2011년 7월 18일에 출원된 "Method and system for performing rendering" 제목의 미국 임시 특허 출원 No. 61/509,092에 대한 우선권을 주장하며, 상기 특허 출원의 명세서는 본원에 참조로서 편입된다.
발명의 기술분야
본 발명은 부피 측정 이미지의 향상된 시각화를 생성하기 위한 시스템들 및 방법들에 관한 것이며, 더 상세하게는 중공 기관들 (hollow organs)과 같은 물체들의 부피 측정의 이미지의 3차원 디스플레이를 생성하기 위한 시스템들 및 방법들에 관한 것이다.
컴퓨터 단층촬영 (Computer Tomography (CT)) 내시경으로도 알려진 가상 내시경은 인간 몸체 내 해부학적 구조의 내부 및 외부 표면들을 검사하도록 하는 비-침입 진단 절차이다. 최근에, 그런 절차는 결장 암 차폐 동안에 미국 특허 6,694,163 그리고 미국 특허 5,891,030에서 제안한 것과 같이 결장과 같은 중공 기관들을 검사하기 위해서 사용되었다. 이 절차는 가상의 대장내시경 또는 CT 대장내시경으로 알려져 있다.
원래는, CT 대장내시경은 미국 특허 5,782,762에서 상세하게 설명된 것처럼 3D 환경의 원근 렌더링 (perspective rendering)을 포함하여 결장의 내부 부분의 3D 모습을 나타내는 가상 환경을 생성함으로써 기존의 대장내시경을 흉내낸다. 그러나, 그것은 기존의 대장내시경의 바로 그 한계를 또한 흉내내며, 그 한계는 결장팽기 주름들의 뒤 또는 깊은 주름들 사이와 같이 광학적인 광선들의 도달 범위 외에 위치한 영역들을 볼 수 없다는 것이다.
그래서, 가상 카메라를 통해서 시각화된 결장 점막의 양을 증가시키기 위해서 새로운 기술들이 나타났으며, 그 중에서도 그 기술들은, 미국 특허 5,891,030 ['030]에서 상세하게 설명된 평평한 결장, (2) 도 1a에서 도시된 미국 특허 6,947,039 (이하 '039 라고 함)에서 상세하게 설명된 큐브 뷰 (cube view), (3) 도 1b 및 도 1c에 도시된 미국 특허 7,609,910 (이하 '910 이라고 함)에서 상세하게 설명된 파노라마식 투사, (4) 미국 특허 출원 2011/0116692 (이하 '692 라고 함)에서 상세하게 설명된 펼쳐진 결장 투사 그리고 더 최근에는 (5) 미국 특허 출원 2010/0142788 (이하 '788 라고 함)에서 상세하게 설명된 결장 내부 뒤틀림을 제한하는 오브젝트 직경-특정 원통형 투사 기술이다.
'030, '692 그리고 '788에서 상세하게 설명된 기술들은 공통적인 한계를 가지며, 이 한계는 원근 3D 투사들로부터 2D 투사들로의 물체들의 사람 인식에 관련된 패러다임 전환이다. 이 기술들은 형상들에서의 시각적인 왜곡을 초래하며, 이는 관찰자들이 정보를 어떻게 해석하는가를 다시 배워야 할 것을 필요로 하며, 그리고 결국에는 결장 점막 평가에 부정적인 영향을 줄 수 있을 것이다. 추가로, '692 그리고 '788 은 이런 인위적인 것들을 줄이려고 하지만, 그러나 결장의 제한된 단면을 평가할 것을 필요로 한다. 이는 증가된 검토 시간, 그리고 전통적인 원근 투사들에서의 더 긴 공개 (exposition)와는 반대로 손상 부위들에는 감소한 시각적인 공개라는 두 가지 한계들로 이끈다.
또한, '039에서 상세하게 설명된 기술은 운전하는 동안에 후사경 (rear-mirror)을 계속해서 보는 것과 유사하게 전면 투사 및 후면 투사의 계속적인 공개라는 본래의 결점을 가진다. 추가로, 그리고 큐브 뷰 만이 완전한 360 환경을 표현하기 위해서 관련되기 때문에, 몇몇의 물체들은 상이한 큐브 뷰들의 다중의 가장자리들에서 부분적으로 존재할 수 있다. 이런 두 결점들은 비 효율적인 임상의 리딩 패러다임 (reading paradigm)으로 이끄는 기술에 대한 분명한 한계이다.
가장자리 물체들의 분할된-뷰, 그리고 정보 과잉을 극복하기 위한 '039 의 발전은 '910에서 상세하게 설명된다. 그 기술은 상기 큐브 뷰들의 몇몇을 왜곡시키는 것을 포함하며 그리고 그것들을 프론트-뷰 (front-view) 주위에서 어셈블하며, 반면에 백-뷰 (back-view)는 제거한다. 원래, 그리고 비록 '039 가 두 가지 상이한 레이아웃들을 제안하지만, 그 왜곡은 프론트-뷰의 중심에서 시작하는 방사성 이미지 라인들을 따라 상기 이미지 내에서 비-균일하다; 그 왜곡은 동일한 물체가 상기 "왜곡된 어셈블된 뷰" 내에서 어느 곳에 위치하는가에 따라서 상이하게 보일 것이라는 것을 수반하여, 관찰자에 대해서는 추가적인 인위적인 것들을 생성한다.
또한, 상기 큐브-뷰 왜곡은 특정 구역 내에서 결장 주름들이 실제로 컴팩트한 경우에는 실질적인 대안의 솔루션을 제공하지 않으며, 이는 제한된 그리고 비-선형적인 왜곡된 시야 (field-of-view)는 대부분의 정보에게는 보이지 않은 채로 있을 것이기 때문이다. 결국, '039는 원래의 정보가 최종적인 어셈블된 공간 내에 들어맞도록 하기 위해서 그 원래의 정보를 삭제하거나, 보간하거나 또는 어떤 면에서는 변경하는 매핑 프로세스를 필요로 하여, 프로세싱 시간을 늘이고 그리고 원래 의료 정보를 변경시킨다.
상기에서 확인된 약점들 중 적어도 하나의 약점을 극복할 방법 및 장치가 필요하다.
본 발명의 특징들은 아래에서 본 발명의 개시, 도면들 그리고 설명을 검토하면 명백할 것이다.
본 발명은 상기와 같은 약점(들)을 극복할 수 있도록 하는, 렌더링을 수행하기 위한 방법 및 시스템을 제공하려고 한다.
본 발명의 한 모습에 따라서, 주어진 뷰포인트에서 원근 렌더링 (perspective rendering)에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 방법이 제공되며, 상기 방법은, 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하는 투사 모델 (projection model)을 제공하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징이 있는, 투사 모델 제공 단계; 이미지 데이터를 획득하는 단계; 제1 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하는 단계; 제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하는 단계; 그리고 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 디스플레이하는 단계를 포함한다.
본 발명의 다른 모습에 따라, 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 방법이 제공되며, 상기 방법은, 이미지 데이터를 제공하는 단계; 투사 모델의 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하며, 상기 투사 모델은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징이 있는, 제1 투사 수행 단계; 제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하는 단계; 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 포함하는 투사된 데이터를 제공하는 단계를 포함한다.
일 실시예에 따라, 상기 이미지 데이터를 상기 제공하는 것은 자기 공명 이미징 (magnetic resonance imaging (MRI)) 기기, 양전자 방출 단층 촬영 (positron emission tomography (PET) 기기, X-레이 기기, 초음파 기기 및 그것들의 임의 조합으로 구성된 그룹으로부터 선택된 기기로부터 상기 이미지 데이터를 수신하는 것을 포함한다.
다른 실시예에 따라, 상기 투사된 데이터를 상기 제공하는 것은 상기 투사된 데이터를 스크린 상에 디스플레이하는 것을 포함한다.
다른 실시예에 따라, 상기 투사된 데이터를 상기 제공하는 것은 상기 투사된 데이터를 저장하는 것 그리고 상기 투사된 데이터를 원격 위치로 전송하는 것 중 적어도 하나를 수행하는 것을 포함한다.
일 실시예에 따라, 상기 이미지 데이터를 제공하는 것은 DICOM 서버로부터 상기 이미지 데이터를 수신하는 것을 포함한다.
일 실시예에 따라, 상기 투사 모델의 상기 제1 부분은 반구형 (semispherical) 투사 모델의 반구 부분을 포함하며, 상기 투사 모델의 상기 제2 부분은 원통형 투사 모델을 포함한다.
다른 실시예에 따라서, 상기 반구형 투사 모델은:
Figure 112014015952472-pct00001
의 특징을 가진다.
일 실시예에 따라서, 상기 원통형 투사 모델은:
Figure 112014015952472-pct00002
의 특징을 가진다.
일 실시예에 따라, 상기 투사 모델의 상기 제1 부분은 타원체 투사 모델의 일부를 포함하며, 그리고 상기 투사 모델의 상기 제2 부분은 곡선 모양의 원통형 투사 모델을 포함한다.
일 실시예에 따라, 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 각각은 상기 주어진 뷰포인트로부터 투사된 뷰포인트로 확장하는 축 주변으로 대칭적이다.
본 발명의 한 모습에 따라, 실행되면 프로세싱 기기로 하여금 위에서 개시된 방법을 수행하도록 하는 컴퓨터-실행가능 명령어들을 저장하는 컴퓨터-독출가능 저장 매체가 제공된다.
일 실시예에 따라서, 위에서 개시된 상기 방법은 플라이-스루 (fly-through)를 수행하기 위해서 사용된다.
본 발명의 한가지 모습에 따라, 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 시스템이 개시되며, 상기 시스템은, 이미지 데이터를 수신하고 제공하기 위한 이미지 데이터 제공 유닛; 투사 모델의 제1 부분에 따라 상기 제공된 이미지 데이터의 적어도 하나의 부분의 투사를 수행하는 제1 투사 수행 유닛으로서, 상기 투사 모델은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징이 있으며, 상기 제1 투사 수행 유닛은 제1 투사된 데이터를 더 제공하는, 제1 투사 수행 유닛; 상기 투사 모델의 상기 제2 부분에 따라 상기 제공된 이미지 데이터의 다른 부분의 투사를 수행하고 그리고 제2 투사된 데이터를 제공하는 제2 투사 수행 유닛; 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 수신하며, 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 생성하며, 그리고 상기 투사된 데이터를 제공하며 그럼으로써 상기 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 하나의 부분에서 렌더링하는, 투사된 데이터 제공 유닛을 포함한다.
본 발명의 한가지 모습에 따라, 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 시스템이 개시되며, 상기 시스템은, 디스플레이 기기; 이미지 데이터 제공 유닛; 중앙 프로세싱 유닛; 프로그램을 포함하는 메모리를 포함하며, 이 경우 상기 프로그램은 상기 메모리에 저장되며 그리고 상기 중앙 프로세싱 유닛에 의해서 실행되도록 구성되며, 상기 프로그램은 상기 이미지 데이터 제공 유닛으로부터 이미지를 획득하기 위한 명령어들; 투사 모델의 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하기 위한 명령어들로서, 상기 투사 모델은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징이 있는, 명령어들; 제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하기 위한 명령어들; 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 생성하기 위한 명령어들; 상기 생성된 투사된 데이터를 상기 디스플레이 기기로 제공하기 위한 명령어들을 포함한다.
일 실시예에 따라서, 상기 시스템은 출력 기기를 더 포함하며, 또한 이 경우에 상기 프로그램은 상기 생성된 투사된 데이터를 상기 출력 기기로 전송하기 위한 명령어들을 포함한다.
여기에서 개시된 상기 방법의 이점은 상기 방법이 전통적인 내시경을 흉내내는 원근 투사를 가능하게 하며, 이는 형상들 상에서의 또는 검토자의 지각 상에서 최소로 왜곡을 하면서 내시경에 보이지 않는 영역들을 효과적으로 렌더링하게 한다.
여기에서 개시된 방법의 이점은 그 방법이 CT 대장 내시경에서 사용되면 종래 기술의 전형적인 또는 평평한, 펼쳐진 또는 큐브 투사들의 렌더링으로 인해서 생성된 주요한 왜곡들 및 비-선형성들을 방지하면서도 종래 기술에 비해서 단일의 패스 동안에 검사되는 결장 점막의 양을 증가시킨다는 것이다.
여기에서 개시된 본 방법의 다른 이점은 그것이 사람의 지각에 부합하는 선형적인 방사상 왜곡을 가능하게 할 수 있을 것이라는 것이다.
본 발명을 쉽게 이해할 수 있도록 하기 위해서, 본 발명의 실시예들은 첨부된 도면들에서 예로서 도시된다.
도 1a, 1b 및 1c는 종래 기술 레퍼런스로부터 비롯된 도면들이다.
도 2a는 주어진 뷰 포인트에서 렌더링을 수행하기 위한 방법의 첫 번째 실시예를 보여주는 흐름도이다.
도 2b는 주어진 뷰 포인트에서 렌더링을 수행하기 위한 방법의 두 번째 실시예를 보여주는 흐름도이다.
도 3은 반구형 투사 모델의 원근적인 뷰를 도시한 개략도이다.
도 4는 원통형 투사 모델의 원근적인 뷰를 도시한 개략도이다.
도 5는 제1 부분 및 제2 부분을 포함하는 투사 모델의 원근 뷰를 보여주는 개략도이며, 상기 제1 부분은 반구형 투사 모델을 포함하며 그리고 상기 제2 부분은 원통형 투사 모델을 포함한다.
도 6a는 타원체 투사 모델 및 반구형 투사 모델의 측면 정면 뷰를 보여주는 개략도이며 도 6b는 타원체 투사 모델 상의 중첩된 반구형 투사 모델의 측면 정면 뷰를 보여준다.
도 7은 제1 부분 및 제2 부분을 포함하는 투사 모델의 첫 번째 실시예의 측면 정면 뷰를 보여주는 개략도이며, 상기 제1 부분은 반구형 투사 모델을 포함하며 그리고 상기 제2 부분은 원통형 투사 모델을 포함하며 그리고 투사 모델의 두 번째 실시예는 점선들로 도시되며 그리고 제1 부분 및 제2 부분을 포함하며, 이 경우 제1 부분은 타원체 투사 모델을 포함하며 그리고 제2 부분은 곡선 모양의 원통형 투사 모델을 포함한다.
도 8a는 제1 부분 및 제2 부분을 포함하는 투사 모델 실시예의 측면 정면 뷰를 보여주는 개략도이며, 상기 제1 부분은 반구형 투사 모델을 포함하며 그리고 상기 제2 부분은 원통형 투사 모델 그리고 이미지 평면에서 상기 투사 모델을 이용하여 생성된 대응하는 투사된 이미지를 포함한다.
도 8b의 (b) 부분은 구형 투사의 원통형 투사와의 결합의 이미지 평면 내의 예 그리고 상기 구형 투사로부터의 결과의 확대된 모습을 보여주는 스크린샷이다.
도 8b의 (b) 부분은 종래 기술의 투사 모델을 이용하여 생성된 투사된 이미지의 예를 보여주는 스크린샷이다.
도 8b의 (c) 부분은 도 8a에서 개시된 투사 모델을 이용하여 생성된 투사된 이미지의 예를 보여주는 스크린샷이다.
도 9a는 직장-맹장 플라이-스루 동안에 생성되었으며 그리고 여기에서 개시된 방법의 실시예에 따라서 생성되었던 이미지의 스크린샷이다.
도 9b는 직장-맹장 플라이-스루 동안에 생성되었으며 그리고 종래 기술의 원근 렌더링에 따라서 생성되었던 이미지의 스크린샷이다.
도 9d는 맹장-직장 플라이-스루 동안에 생성되었으며 그리고 여기에서 개시된 방법의 실시예에 따라서 생성되었던 이미지의 스크린샷이다.
도 9d는 맹장-직장 플라이-스루 동안에 생성되었으며 그리고 종래 기술의 원근 렌더링에 따라서 생성되었던 이미지의 스크린샷이다.
도 9e는 나중의 시험을 위해서 관찰자가 클릭한대로 위치한 손상부위의 국부적으로 내장된 원근 렌더링을 보여주는 스크린샷이다.
도 9f는 정상적인 플라이-스루 궤도와는 다른 위치로 3D 카메라를 수동으로 회전시킴에 의한 전통적인 원근 렌더링 상의 손상부위를 보여주는 스크린샷이다.
도 10a는 주어진 뷰포인트에서 렌더링을 수행하는 시스템의 첫 번째 실시예를 보여주는 블록도이다.
도 10b는 주어진 뷰포인트에서 렌더링을 수행하는 시스템의 두 번째 실시예를 보여주는 블록 도면이다.
도 11은 반-구형 투사 모델 및 원통형 투사 모델을 포함하는 투사 모델의 특정 경우에 대한 투사 벡터들을 보여주는 도면이다. 그것은 상기 투사 모델들의 전이 지역에서 두 개의 실질적으로 유사한 벡터들을 도시한다.
도 12는 본 발명의 일 실시예를 보여주는 도면이며, 이 경우 상기 투사의 한 부분은 원거리 뷰를 위한 반-구형 투사 모델이며, 45도의 시야 (field of view (FOV))의 특징을 가지며, 근거리 뷰를 위한 원통형 투사 모델은 90도의 시야의 특징을 가진다.
실시예들의 다음의 설명에서, 첨부된 도면들에 대한 참조들은 본 발명이 수행될 수 있을 일 예의 예시이다. 개시된 본 발명의 범위로부터 벗어나지 않으면서도 다른 실시예들이 만들어질 수 있다는 것이 이해될 것이다.
이제 도 2a를 참조하면, 주어진 뷰포인트에서 원근 렌더링 (perspective rendering)에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 방법의 첫 번째 실시예가 도시된다.
CT 대장내시경 (colonography)의 환경에서 사용될 때에, 여기에서 개시된 방법은 종래 기술의 전형적인 또는 평평한, 펼쳐진 또는 큐브 (cube) 투사들의 렌더링으로 인한 주요한 왜곡들 및 비-선형성들을 방지하면서도 종래 기술에 비해서 단일의 패스 동안에 검사되는 결장 점막의 양을 증가시키기 위해 특히 유용할 것이며, 이는 커다란 이점이다.
더 상세하게 그리고 프로세싱 단계 202에 따라서, 원거리 뷰 (far view)를 렌더링하기 위해 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위해서 사용된 제2 부분을 포함하는 투사 모델이 제공된다. 일 실시예에서 원거리 뷰는 종래 기술의 원근 투사를 이용하여 커버되는 영역으로서 이해될 것이라는 것이 인식될 것이다.
상기 시각적 영역들 중 적어도 하나의 부분은 상기 투사 모델의 제2 부분을 이용하여 렌더링된다는 것이 인식될 것이다. 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징을 가진다는 것이 또한 인식될 것이다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자들은 이것이 아래에서 더 설명되는 것과 같이 커다란 이점이라는 것을 인식할 것이다.
투사 벡터들은 두 개의 요소들의 조합이라는 특징을 가진다; 투사 광선의 원점 (origin), 그리고 도 11에서 예시로 도시된 것처럼 렌더링될 물체로의 광선 궤도 (trajectory). 도 11을 계속 참조하면, 이 도면은 반-구형 (semi-spherical) 투사 및 원통형 (cylindrical) 투사 모델을 포함하는 투사 모델의 특정 경우에 대한 투사 벡터들을 보여준다는 것이 인식될 것이다. 그것은 상기 전이 구역에서 두 개의 실질적으로 유사한 벡터들을 도시한다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 광선 궤도가 몇몇의 실시예에서 상기 투사 모델 상의 원점의 투사와 정렬되지 않을 수 있다는 것을 인식할 것이다. 또한, 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 원점이 레이-캐스팅과 같은 최신의 3D 렌더링 기술들에서 사용된 근거리 평면 요소들에 연관될 수 있다는 것을 인식할 것이다.
다양한 실시예들이 본원에서 아래에 개시될 것이지만, 바람직한 실시예에서 상기 투사 모델의 상기 제1 부분은 다음의 식의 특징을 가진다는 것이 인식될 것이다:
.... 반-구형 투사 모델
Figure 112014015952472-pct00003
또한 바람직한 실시예에서, 상기 투사 모델의 상기 제2 부분은 다음의 식의 특징을 가진다:
... 원통형 투사 모델
Figure 112014015952472-pct00004
도 12는 상기 실시예에서 사용된 반-구형 투사 모델 및 원통형 투사 모델을 도시한다.
도 2a를 계속 참조하고 그리고 프로세싱 단계 204에 따르면, 이미지 데이터가 획득된다. 상기 이미지 데이터는 다양한 소스들로부터 획득될 수 있을 것이라는 것이 인식될 것이다. 바람직한 실시예에서, 상기 이미지 데이터는 X-레이 기기, 자기 공명 이미징 (magnetic resonance imaging (MRI)) 기기, 초음파 기기, 양전자 방출 단층 촬영 (positron emission tomography (PET) 기기 및 그것들의 임의 조합으로 구성된 그룹으로부터 선택된 기기로부터 수신된다. 대안으로, 상기 이미지 데이터는 DICOM 저장 서버들에 의해서 제공될 수 있을 것이다.
프로세싱 단계 206에 따라, 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사가 상기 투사 모델의 상기 제1 부분에 따라서 수행된다. 대응하는 제1의 투사된 데이터는 상기 제1 투사로부터 생성된다.
도 2a를 계속 참조하며 그리고 프로세싱 단계 208에 따라서, 상기 이미지 데이터의 다른 부분의 제2 투사가 상기 투사 모델의 상기 제2 부분에 따라서 수행된다. 대응하는 제2의 투사된 데이터는 상기 제2 투사로부터 생성된다.
프로세싱 단계 210에 따라서, 투사된 데이터는 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 이용하여 디스플레이된다.
상기 투사된 데이터는 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 포함한다는 것이 인식될 것이다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는, 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 이용하여 상기 투사된 데이터를 생성하는 것은 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터 중 적어도 하나를 변경하는 것을 필요로 하지 않는다는 것을 인식할 것이다. 이것은 종래 기술을 능가하는 커다란 이점이며, 이는 데이터를 수정할 때에 정보를 잃는 위험이 감소되기 때문이며 그리고 또한 상기 투사된 데이터를 생성하기 위해서 필요한 프로세싱 자원들의 양이 제한되기 때문이며, 즉, 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터 중 적어도 하나를 수정하기 위해서 추가적인 양의 프로세싱 자원들이 필요하지 않기 때문이다.
이제 도 2b를 참조하면, 주어진 뷰 포인트에서 렌더링을 수행하기 위한 방법의 두 번째 실시예가 도시된다.
프로세싱 단계 212에 따라, 이미지 데이터가 제공된다. 일 실시예에서, 상기 이미지 데이터를 제공하는 것은 상기 이미지 데이터를 DICOM (Digital Imaging and Communications in Medicine) 서버로부터 수신하는 것을 포함한다.
프로세싱 단계 214에 따르면, 투사 모델의 제1 부분에 따른 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사가 수행된다. 상기 투사 모델은 원거리 뷰를 렌더링하기 위해서 사용된 상기 제1 부분 그리고 근거리 뷰를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적인 영역들의 적어도 하나의 부분이 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 이 경우에 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이는 실질적으로 유사한 투사 벡터들이라는 특징을 가진다.
본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 도 2b에서 도시된 실시예에서 언급된 상기 투사 모델이 도 2a에서 개시된 투사 모델과 동일하다는 것을 인식할 것이다.
프로세싱 단계 216에 따라, 상기 이미지 데이터의 다른 부분의 제2 투사는 상기 투사 모델의 상기 제2 부분에 따라서 수행된다. 제2의 투사된 데이터는 그에 따라서 생성된다.
프로세싱 단계 218에 따라, 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 포함하는 투사된 데이터가 제공된다.
일 실시예에서, 상기 투사된 데이터를 제공하는 것은 상기 투사된 데이터를 스크린 상에 디스플레이하는 것을 포함한다.
다른 실시예semispherical에서, 상기 투사된 데이터를 제공하는 것은 상기 투사된 데이터를 저장하는 것 그리고 그 투사된 데이터를 원격 위치로 전송하는 것 중 적어도 하나를 수행하는 것을 포함한다. 일 실시예에서 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 각각은 상기 주어진 뷰포인트로부터 투사된 뷰포인트까지 확장된 축 주위에서 대칭적이라는 것이 인식될 것이다. 이제 도 3을 참조하면, 반구형 (semispherical) 투사 모델의 실시예를 보여준다. 일 실시예에서 상기 반구형 투사 모델은 상기 투사 모델의 제1 부분으로 사용될 수 있을 것이며 그리고 원거리 뷰를 렌더링하기 위해서 더 정밀하게 사용될 수 있을 것이라는 것이 인식될 것이다.
도 4를 참조하면, 원통형 투사 모델의 실시예가 도시된다. 일 실시예에서, 상기 원통형 투사 모델은 투사 모델의 제2 부분으로서 사용될 수 있을 것이며 그리고 근거리 뷰를 렌더링하기 위해서 더 정밀하게 사용될 수 있을 것이라는 것이 인식될 것이다.
이제 도 5를 참조하면, 제1 부분 및 제2 부분을 포함하는 투사 모델의 다른 실시예의 원근 뷰를 보여주며, 이 경우에 상기 반구형 투사 모델은 상기 투사 모델의 상기 제1 부분이며 그리고 또한 상기 원통형 모델은 상기 투사 모델의 상기 제2 부분이다.
이제 도 6a를 참조하면, 타원체 투사 모델의 타원 상에 위치한 각 포인트가 대응하는 이미지 평면 상에 그 스스로를 어떻게 투사하는가를 보여준다. 반구형 투사 모델의 반구 상에 위치한 각 포인트가 상기 이미지 평면 상에 자신을 어떻게 투사하는가를 또한 보여준다.
본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 타원체 투사 모델의 상기 실시예에서 상기 이미지 평면 내의 상기 투사된 이미지를 따라, 특히 상기 투사된 뷰 포인트 주위에서 더욱 큰 정밀도 그리고 균일함이 얻어지는 것을 인식할 것이다. 임상적으로 말하자면 큰 손상 부위만이 멀리서부터 보일 수 있으며 그리고 더 작은 손상 부위들은 구별하기 더 힘들기 때문에, 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 이 실시예가 의학적인 응용에 대해 특히 적절하다는 것을 인식할 것이다.
도 6b는 반구형 투사 모델을 나타내는 반구의 다양한 표면 포인트들에서 그리고 타원체 투사 모델을 나타내는 타원의 다양한 포인트들에서 투사 벡터들을 보여준다.
이제 도 7을 참조하면, 투사 모델의 첫 번째 실시예 그리고 투사 모델의 두 번째 실시예가 도시된다.
상기 투사 모델의 상기 첫 번째 실시예는 제1 부분 및 제2 부분을 포함한다. 상기 투사 모델의 상기 제1 부분은 반구형 투사 모델의 반구 부분을 포함하며 반면에 상기 투사 모델의 상기 제2 부분은 원통형 투사 모델을 포함한다.
점선들로 도시된 상기 투사 모델의 상기 두 번째 실시예는 제1 부분 및 제2 부분을 포함한다. 상기 투사 모델의 상기 제1 부분은 타원체 투사 모델의 일부를 포함하며 반면에 상기 투사 모델의 상기 제2 부분은 곡선 모양의 원통형 투사 모델의 일부를 포함한다. 도 7이 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 사이의 경계에서 투사 벡터를 더 보여준다는 것이 인식될 것이다. 그 경계에서의 투사 벡터들은 상기 투사 모델의 상기 첫 번째 실시예 그리고 상기 투사 모델의 상기 두 번째 실시예 각각에 대해 실질적으로 유사하다는 것이 인식될 것이다. 특히, 두 광선들의 원점이 비록 상이하지만 가깝게 있으며, 상기 광선 궤적은 실질적으로 유사하다.
도 8a를 참조하면, 제1 부분 그리고 제2 부분을 포함하는 투사 모델의 실시예가 도시된다. 상기 제1 부분은 반구형 투사 모델을 포함하며 반면에 상기 투사 모델의 상기 제2 부분은 원통형 투사 모델을 포함한다. 상기 이미지 평면 내 투사 모델의 투사로부터의 결과가 또한 도시된다.
위에서 언급된 것처럼, 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 사이의 전이는 실질적으로 유사한 투사 벡터들이라는 특징을 가진다. 이것은 상기 투사 모델의 상기 제1 부분에 따른 투사에 대응하는 이미지의 일부와 상기 투사 모델의 상기 제2 부분에 대응하는 이미지의 일부 사이에서의 평탄하고 그리고 비-왜곡된 전이를 가능하게 할 것이며, 이는 플라이 스루 (fly through)를 수행할 때에 커다란 이점이다.
도 8b의 (c) 부분을 이제 참조하면, 도 8a에서 개시된 투사 모델을 이용하여 생성된 투사된 이미지의 예를 보여주는 스크린샷이 도시된다. 상기 투사된 이미지에 의해서 커버되는 영역은 도 8b의 (b) 부분에서 보이는 종래 기술에 따라 생성된 투사된 이미지에 의해서 커버되는 영역보다 아주 더 크다는 것이 인식될 것이다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 투사 모델의 상기 제1 부분에 따른 투사에 대응하는 스크린샷의 일부와 상기 투사 모델의 상기 제2 부분에 대응하는 스크린샷의 일부 사이의 평탄하고 그리고 비-왜곡된 전이를 더 인식할 것이다.
또한 그리고 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 각각이 상기 뷰포인트로부터 상기 투사된 뷰포인트로 확장된 축 주변으로 대칭적인 실시예에서, 상기 투사된 이미지는 방사상 왜곡 (radial distortion)이 없다는 것이 인식될 것이며, 이는 커다란 이점이다. 방사상 왜곡들은 손상부위 (lesion)의 크기를 그 손상부위의 방사상 위치에 종속하여 크기를 지나치게 강조하거나 또는 과소하게 강조할 수 있을 것이며 그래서 '039에서 도시된 것처럼 임상 학자의 작업을 복잡하게 할 수 있기 때문에 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 이것이 커다란 이점이라는 것을 인식할 것이다. 특히, 312 및 412에서 제시된 '039의 실시예들이 동일한 뷰포인트를 렌더링하지만, 매핑 프로세스에 종속하여, 동일한 결장팽기 주름 (haustral fold)이 312에서는 사각형 형상으로 그리고 412에서는 둥근 형상으로 각각 상이한 형상으로 도시되는 것을 볼 수 있다. 더욱이, 예를 들어 308/306의 전이에 더 가까워지면, 관찰자는 더 큰 왜곡을 볼 것이다.
이제 도 9b 및 9d를 참조하면, 직장-맹장 플라이-스루 (rectum-caecum fly-through) 또는 맹장-직장 플라이-스루 중 어느 하나로부터 비롯된 그리고 종래 기술의 원근 렌더링에 따라서 생성되었던 이미지들이 도시된다. 그 이미지들은 6 mm의 중간에 (in-between) 접혀진 손상부위를 보여주지 못한다. 더 정밀하게는, 도 9b는 직장-맹장 플라이-스루 동안에 생성된 이미지를 보여주며 반면에 도 9d는 맹장-직장 플라이-스루 동안에 생성된 이미지를 보여준다.
도 9a, 도 9c 및 도 9e는 직장-맹장 플라이-스루 또는 맹장-직장 플라이-스루 중 어느 하나로부터 비롯된 그리고 여기에서 개시된 상기 방법에 따라서 생성되었던 이미지들을 보여주며 그리고 이들은 모든 경우들에 6 mm의 손상부위가 커버되지 않을 것이라는 것을 보여준다. 더욱 상세하게는, 도 9a는 직장-맹장 플라이-스루 동안에 생성된 이미지를 보여주며 반면에 도 9c는 맹장-직장 플라이-스루 동안에 생성된 이미지를 보여준다.
도 9e는 나중의 검사를 위해서 관찰자가 클릭한대로 위치한 손상부위의 국부적으로 내장된 원근 렌더링을 보여준다. 원근 렌더링들 둘 모두가 유사하는 것이 인식될 것이다.
이제 도 10a를 참조하면, 주어진 뷰포인트에서 렌더링을 수행하기 위한 시스템 (1000)의 실시예가 도시된다.
상기 시스템 (1000)은 중앙 프로세싱 유닛 (CPU) (1002), 디스플레이 기기 (1004), 입력 기기들 (1006), 이미지 데이터 제공 유닛 (1008), 데이터 버스 (1010), 메모리 (1012)를 포함한다.
상기 중앙 프로세싱 유닛 (CPU) (1002), 디스플레이 기기 91004), 입력 기기들 (1006), 이미지 데이터 제공 유닛 (1008), 메모리 (1012)는 데이터 버스 (1010)를 경유하여 각각 작동적으로 (operatively) 연결된다.
상기 중앙 프로세싱 유닛 (CPU) (1002)은 컴퓨터 독출가능 명령어들을 실행하기 위해서 사용된다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 중앙 프로세싱 유닛 (CPU) (1002)의 다양한 실시예들이 제공될 수 있을 것이라는 것을 인식할 것이다. 바람직한 실시예에서, 상기 중앙 프로세싱 유닛 (CPU) (1002)은 워크스테이션 및 랩탑 중 하나이다.
상기 디스플레이 기기 (1004)는 이미지를 디스플레이하기 위해서 사용된다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 이미지 디스플레이 (1004)의 다양한 실시예들이 제공될 수 있을 것이라는 것을 인식할 것이다. 바람직한 실시예에서, 상기 디스플레이 기기 (1004)는 컴퓨터 스크린 또는 핸드헬드 기기이다.
상기 입력 기기 (1006)는 오퍼레이터가 상기 시스템 (1000)과 상호작용 (interact)하는 것을 가능하게 하기 위해서 사용된다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 입력 기기 (1006)의 다양한 실시예들이 제공될 수 있을 것이라는 것을 인식할 것이다. 바람직한 실시예에서, 상기 입력 기기 (1006)는는 마우스 그리고 키보드를 포함한다.
상기 이미지 데이터 제공 유닛 (1008)은 이미지 데이터를 상기 시스템 (1000)에 제공하기 위해서 사용된다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 이미지 데이터 제공 유닛 (1008)의 다양한 실시예들이 제공될 수 있을 것이라는 것을 인식할 것이다. 바람직한 실시예에서, 상기 이미지 데이터 제공 유닛 (1008)은 하드 드라이브, 메모리, 이미징 시스템으로의 통신 인터페이스, PACS 시스템 및 CT 스캐너로 구성된 그룹으로부터 선택된다. 상기 이미지 데이터 제공 유닛 (1008)이 또한 입력 기기로서 언급될 수 있을 것이라는 것이 인식될 것이다.
상기 메모리 유닛 (1012)은 데이터를 저장하기 위해서 사용된다. 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 상기 메모리 유닛 (1012)의 다양한 실시예들이 제공될 수 있을 것이라는 것을 인식할 것이다. 바람직한 실시예에서, 상기 메모리 유닛 (1012)은 운영 시스템 모듈 (10104) 그리고 렌더링을 수행하기 위한 애플리케이션 (1016)을 포함한다. 또한 바람직한 실시예에서, 상기 운영 시스템 모듈 (1014)은 Microsoft(TM)에 의해서 제조된 Windows 7(TM)이다. 렌더링을 수행하기 위한 상기 애플리케이션 (1016)은 상기 이미지 데이터 제공 유닛 (1008)으로부터 이미지 데이터를 획득하기 위한 명령어들을 포함한다. 렌더링을 수행하기 위한 상기 애플리케이션 (1016)은 투사 모델의 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하기 위한 명령어들을 더 포함하며, 상기 투사 모델은 원거리 뷰를 렌더링하기 위해 사용된 상기 제1 부분 그리고 근거리 뷰를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적인 영역들 중 적어도 하나의 부분이 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 이 경우에 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 사이의 전이는 실질적으로 유사한 투사 벡터들이라는 특징을 가진다. 렌더링을 수행하기 위한 상기 애플리케이션 (1016)은 제2의 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라서 상기 이미지 데이터의 다른 부분의 제2의 투사를 수행하기 위한 명령어들을 더 포함한다. 렌더링을 수행하기 위한 상기 애플리케이션 (1016)은 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 이용하여 투사된 데이터를 생성하기 위한 명령어들을 더 포함한다. 렌더링을 수행하기 위한 상기 애플리케이션 (1016)은 상기 생성된 투사된 데이터를 상기 디스플레이 기기로 제공하기 위한 명령어들을 더 포함한다. 렌더링을 수행하기 위한 상기 애플리케이션 (1016)이 상기 생성된 투사된 데이터를 도 10a에는 도시되지 않은 출력 기기로 전송하기 위한 명령어들을 더 포함할 수 있을 것이며, 이는 상기 생성된 투사된 데이터를 저장하는 것 그리고 상기 생성된 투사된 데이터를 원격의 프로세싱 유닛으로 전송하는 것 중 적어도 하나를 수행하기 위해서 사용될 수 있을 것이라는 것이 인식될 것이다.
이제 도 10b를 참조하면, 주어진 뷰포인트에서 렌더링을 수행하기 위한 시스템 (1019)의 두 번째 실시예가 도시된다.
주어진 뷰포인트에서 렌더링을 수행하기 위한 상기 시스템 (1019)은 이미지 데이터 제공 유닛 (1020)을 포함한다. 상기 이미지 데이터 제공 유닛 (1020)은 이미지 데이터를 수신하고 제공하기 위해서 사용된다.
주어진 뷰포인트에서 렌더링을 수행하기 위한 상기 시스템 (1019)은 제1 투사 수행 유닛 (1022)을 포함한다. 상기 제1 투사 수행 유닛 (1022)은 상기 제공된 이미지 데이터의 적어도 하나의 부분의 투사를 투사 모델의 제1 부분에 따라 수행하기 위해서 사용된다. 상기 투사된 모델은 원거리 뷰를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적인 영역들 중 적어도 하나의 부분이 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 이 경우에 상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 사이의 전이는 실질적으로 유사한 투사 벡터들이라는 특징을 가진다. 상기 제1 투사 수행 유닛 (1022)은 제1의 투사된 데이터를 제공하기 위해서 또한 사용된다.
주어진 뷰포인트에서 렌더링을 수행하기 위한 상기 시스템 (1019)은 제2 투사 수행 유닛 (1024)을 더 포함한다. 상기 제2 투사 수행 유닛 (1024)은 상기 제공된 이미지 데이터의 다른 부분의 투사를 상기 투사 모델의 상기 제2 부분에 따라서 수행하기 위해서 그리고 제2의 투사된 데이터를 제공하기 위해서 사용된다.
주어진 뷰포인트에서 렌더링을 수행하기 위한 상기 시스템 (1019)은 투사된 데이터 제공 유닛 (1026)을 더 포함한다. 상기 투사된 데이터 제공 유닛 (1026)은 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 수신하고, 상기 제1의 투사된 데이터 그리고 상기 제2의 투사된 데이터를 투사된 데이터를 생성하기 위해서 그리고 그 생성된 데이터를 제공하기 위해서 사용된다.
또한, 컴퓨터-실행가능 명령어들을 저장하기 위해서 컴퓨터-독출가능 저장 매체가 제공될 수 있을 것이라는 것이 인식될 것이다. 그런 컴퓨터-실행가능 명령어들은 실행되면 컴퓨터 기기로 하여금, 주어진 뷰포인트에서 원근 렌더링 (perspective rendering)에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 방법을 수행하도록 하며, 상기 방법은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하는 투사 모델 (projection model)을 제공하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 이 경우에 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가 실질적으로 유사한 투사 벡터들이라는 특징이 있는, 투사 모델 제공 단계; 이미지 데이터를 획득하는 단계; 제1 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하는 단계; 제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하는 단계; 그리고 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 디스플레이하는 단계를 포함한다.
상기 도면들에 도시되지는 않았지만, 대안의 실시예들에서, 상기 뷰 포인트는 카메라 위치와 일치하지 않을 수 있을 것이며, 또는 카메라 위치는 물체 형상에 따라서 변경될 수 있을 것이며, 또는 대안으로 상기 뷰포인트는 주어진 카메라 위치에 대해 상기 물체 형상에 따라서 바뀔 수 있을 것이라는 것이 인식될 것이다.
본 발명이 CT 대장내시경의 환경에서 사용될 수 있을 것이라고 설명되었지만, 본 발명이 속한 기술 분야에서의 통상의 지식을 가진 자는 본 발명이 물체의 내부 구조들을 보여주는 목적을 위해서는 임의 유형의 2차원 또는 3차원 이미징 시스템과 함께 사용될 수 있을 것이라는 것을 인식할 것이다. 더 상세하게는, 가상의 내시경을 통해서 중공 기관들을 시험하기에 본 발명은 아주 적합하다. 대안의 실시예에서, 여기에서 설명된 상기 방법은 2차원 또는 3차원 이미징을 포함하는 비-의료적인 애플리케이션들에서 사용될 수 있을 것이다. 그런 한가지 애플리케이션은 파이프 평가 및 크랙들 식별을 위한 것일 수 있다.

Claims (16)

  1. 주어진 뷰포인트에서 원근 렌더링 (perspective rendering)에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 방법으로서,
    상기 방법은:
    원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하는 투사 모델 (projection model)을 제공하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가, 반드시 동일한 원점을 가지지는 않지만 시각화될 물체에서 동일한 위치에서 마주치는 투사 벡터들이라는 특징이 있는, 투사 모델 제공 단계;
    이미지 데이터를 획득하는 단계;
    제1 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하는 단계;
    제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하는 단계;
    상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 디스플레이하는 단계를 포함하는, 방법.
  2. 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 방법으로서,
    상기 방법은:
    이미지 데이터를 제공하는 단계;
    투사 모델의 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하며, 상기 투사 모델은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가, 반드시 동일한 원점을 가지지는 않지만 시각화될 물체에서 동일한 위치에서 마주치는 투사 벡터들이라는 특징이 있는, 제1 투사 수행 단계;
    제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하는 단계;
    상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 포함하는 투사된 데이터를 제공하는 단계를 포함하는, 방법.
  3. 제2항에 있어서,
    상기 이미지 데이터를 제공하는 것은,
    자기 공명 이미징 (magnetic resonance imaging (MRI)) 기기, 양전자 방출 단층 촬영 (positron emission tomography (PET) 기기, X-레이 기기, 초음파 기기 및 그것들의 임의 조합으로 구성된 그룹으로부터 선택된 기기로부터 상기 이미지 데이터를 수신하는 것을 포함하는, 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 투사된 데이터를 제공하는 것은 상기 투사된 데이터를 스크린 상에 디스플레이하는 것을 포함하는, 방법.
  5. 제2항 또는 제3항에 있어서,
    상기 투사된 데이터를 제공하는 것은 상기 투사된 데이터를 저장하는 것 그리고 상기 투사된 데이터를 원격 위치로 전송하는 것 중 적어도 하나를 수행하는 것을 포함하는, 방법.
  6. 제2항에 있어서,
    상기 이미지 데이터를 제공하는 것은 DICOM (Digital Imaging and Communications in Medicine) 서버로부터 상기 이미지 데이터를 수신하는 것을 포함하는, 방법.
  7. 제1항 또는 제2항에 있어서,
    상기 투사 모델의 상기 제1 부분은 반구형 (semispherical) 투사 모델의 반구 부분을 포함하며, 상기 투사 모델의 상기 제2 부분은 원통형 투사 모델을 포함하는, 방법.
  8. 삭제
  9. 삭제
  10. 제1항 또는 제2항에 있어서,
    상기 투사 모델의 상기 제1 부분은 타원체 투사 모델의 일부를 포함하며,
    상기 투사 모델의 상기 제2 부분은 곡선 모양의 원통형 투사 모델을 포함하는, 방법.
  11. 제1항 또는 제2항에 있어서,
    상기 투사 모델의 상기 제1 부분 그리고 상기 투사 모델의 상기 제2 부분 각각은 상기 주어진 뷰포인트로부터 투사된 뷰포인트로 확장하는 축 주변으로 대칭적인, 방법.
  12. 실행되면 프로세싱 기기로 하여금 제1항 또는 제2항에서 청구된 방법을 수행하도록 하는 컴퓨터-실행가능 명령어들을 저장하는 비-일시적 컴퓨터-독출가능 저장 매체.
  13. 플라이-스루 (fly-through)를 수행하기 위해서 제1항 또는 제2항에서 청구된 방법을 사용하는 기기.
  14. 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 시스템으로서,
    상기 시스템은:
    이미지 데이터를 수신하고 제공하기 위한 이미지 데이터 제공 유닛;
    투사 모델의 제1 부분에 따라 상기 제공된 이미지 데이터의 적어도 하나의 부분의 투사를 수행하는 제1 투사 수행 유닛으로서, 상기 투사 모델은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가, 반드시 동일한 원점을 가지지는 않지만 시각화될 물체에서 동일한 위치에서 마주치는 투사 벡터들이라는 특징이 있으며, 상기 제1 투사 수행 유닛은 제1 투사된 데이터를 더 제공하는, 제1 투사 수행 유닛;
    상기 투사 모델의 상기 제2 부분에 따라 상기 제공된 이미지 데이터의 다른 부분의 투사를 수행하고 그리고 제2 투사된 데이터를 제공하는 제2 투사 수행 유닛;
    상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 수신하며, 상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 생성하며, 그리고 상기 투사된 데이터를 제공하며 그럼으로써 상기 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 하나의 부분에서 렌더링하는, 투사된 데이터 제공 유닛을 포함하는 시스템.
  15. 주어진 뷰포인트에서 원근 렌더링에 보이지 않는 시각적 영역들의 적어도 한 부분의 상기 주어진 뷰포인트에서 렌더링을 수행하는 시스템으로서,
    상기 시스템은:
    디스플레이 기기;
    이미지 데이터 제공 유닛;
    중앙 프로세싱 유닛;
    프로그램을 포함하는 메모리를 포함하며,
    상기 프로그램은 상기 메모리에 저장되며 그리고 상기 중앙 프로세싱 유닛에 의해서 실행되도록 구성되며, 상기 프로그램은:
    상기 이미지 데이터 제공 유닛으로부터 이미지를 획득하기 위한 명령어들;
    투사 모델의 제1 부분에 따라 상기 이미지 데이터의 적어도 하나의 부분의 제1 투사를 수행하기 위한 명령어들로서, 상기 투사 모델은 원거리 뷰 (far view)를 렌더링하기 위해서 사용된 제1 부분 그리고 근거리 뷰 (near view)를 렌더링하기 위한 제2 부분을 포함하여, 상기 시각적 영역들의 적어도 일부가 상기 투사 모델의 상기 제2 부분을 이용하여 렌더링되도록 하며 그리고 상기 투사 모델의 상기 제1 부분과 상기 투사 모델의 상기 제2 부분 사이의 전이 (transition)가, 반드시 동일한 원점을 가지지는 않지만 시각화될 물체에서 동일한 위치에서 마주치는 투사 벡터들이라는 특징이 있는, 명령어들;
    제2 투사된 데이터를 생성하기 위해서 상기 투사 모델의 상기 제2 부분에 따라 상기 이미지 데이터의 다른 부분의 제2 투사를 수행하기 위한 명령어들;
    상기 제1 투사된 데이터 그리고 상기 제2 투사된 데이터를 이용하여 투사된 데이터를 생성하기 위한 명령어들;
    상기 생성된 투사된 데이터를 상기 디스플레이 기기로 제공하기 위한 명령어들을 포함하는, 시스템.
  16. 제15항에 있어서,
    상기 시스템은 출력 기기를 더 포함하며,
    상기 프로그램은 상기 생성된 투사된 데이터를 상기 출력 기기로 전송하기 위한 명령어들을 포함하는, 시스템.
KR1020147004188A 2011-07-18 2012-07-18 렌더링을 수행하기 위한 방법 및 시스템 KR102111707B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161509092P 2011-07-18 2011-07-18
US61/509,092 2011-07-18
PCT/CA2012/000684 WO2013010261A2 (en) 2011-07-18 2012-07-18 Method and system for performing rendering

Publications (2)

Publication Number Publication Date
KR20140054087A KR20140054087A (ko) 2014-05-08
KR102111707B1 true KR102111707B1 (ko) 2020-05-15

Family

ID=47558533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147004188A KR102111707B1 (ko) 2011-07-18 2012-07-18 렌더링을 수행하기 위한 방법 및 시스템

Country Status (12)

Country Link
US (1) US9996968B2 (ko)
EP (1) EP2734982B1 (ko)
JP (1) JP6739897B2 (ko)
KR (1) KR102111707B1 (ko)
CN (1) CN103688293B (ko)
AU (1) AU2012286480A1 (ko)
BR (1) BR112014001143B1 (ko)
CA (1) CA2842119C (ko)
CL (1) CL2014000123A1 (ko)
IL (1) IL230443A (ko)
MX (1) MX338918B (ko)
WO (1) WO2013010261A2 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG11201503711YA (en) * 2012-11-23 2015-06-29 Cadens Medical Imaging Inc Method and system for displaying to a user a transition between a first rendered projection and a second rendered projection
TWI681691B (zh) 2014-04-30 2020-01-01 瑞士商菲利浦莫里斯製品股份有限公司 電熱式氣溶膠產生系統、裝置及其控制方法
JP6663423B2 (ja) 2014-08-21 2020-03-11 フィリップ・モーリス・プロダクツ・ソシエテ・アノニム エアロゾル発生装置およびシステム
CN105261052B (zh) 2015-11-03 2018-09-18 沈阳东软医疗系统有限公司 管腔图像展开绘制方法及装置
GB2587010B (en) * 2019-09-12 2023-10-18 Fovo Tech Limited A method for generating and modifying non-linear perspective images of a 3D scene

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007532202A (ja) * 2004-04-09 2007-11-15 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド ボリューム画像のパノラマビュー画像の作成システムおよび方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5891030A (en) 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
US6611282B1 (en) 1999-01-04 2003-08-26 Remote Reality Super wide-angle panoramic imaging apparatus
WO2002093495A1 (en) * 2001-05-11 2002-11-21 Koninklijke Philips Electronics N.V. Method, system and computer program for producing a medical report
JP3871614B2 (ja) 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
CN101006469A (zh) 2004-04-09 2007-07-25 美国西门子医疗解决公司 用于产生体积图像的全景视图的系统和方法
PL1803097T3 (pl) * 2004-06-23 2011-04-29 Koninl Philips Electronics Nv Endoskopia wirtualna
CN101534713A (zh) * 2006-07-17 2009-09-16 梅德拉股份有限公司 集成医疗成像系统
JP2010131257A (ja) 2008-12-05 2010-06-17 Ziosoft Inc 医療用画像処理装置及び医療用画像処理プログラム
JP5631584B2 (ja) 2009-12-25 2014-11-26 株式会社東芝 医用画像処理装置、医用画像処理プログラム及び医用画像診断装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007532202A (ja) * 2004-04-09 2007-11-15 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド ボリューム画像のパノラマビュー画像の作成システムおよび方法

Also Published As

Publication number Publication date
EP2734982A2 (en) 2014-05-28
AU2012286480A1 (en) 2014-01-30
CA2842119A1 (en) 2013-01-24
BR112014001143B1 (pt) 2022-05-24
CL2014000123A1 (es) 2014-09-26
IL230443A0 (en) 2014-03-31
MX338918B (es) 2016-05-05
JP2014524810A (ja) 2014-09-25
WO2013010261A3 (en) 2013-04-11
WO2013010261A2 (en) 2013-01-24
CN103688293A (zh) 2014-03-26
US20150161817A1 (en) 2015-06-11
KR20140054087A (ko) 2014-05-08
IL230443A (en) 2017-10-31
EP2734982B1 (en) 2020-08-26
JP6739897B2 (ja) 2020-08-12
MX2014000639A (es) 2015-05-15
US9996968B2 (en) 2018-06-12
CN103688293B (zh) 2017-10-31
BR112014001143A2 (pt) 2017-02-21
CA2842119C (en) 2015-07-07
EP2734982A4 (en) 2015-03-04

Similar Documents

Publication Publication Date Title
US7304644B2 (en) System and method for performing a virtual endoscopy
US10692272B2 (en) System and method for removing voxel image data from being rendered according to a cutting region
KR102307530B1 (ko) 제 1 랜더링된 투영 및 제 2 랜더링된 투영간의 전이를 사용자에게 디스플레이하는 방법 및 시스템
JP5562339B2 (ja) 医用画像表示装置及び医用画像表示方法
KR102111707B1 (ko) 렌더링을 수행하기 위한 방법 및 시스템
JP2007537770A (ja) 内視鏡画像内の管腔状構造のディスプレイ最適化のための動的なクロップボックス決定方法
KR20210146283A (ko) 부분 깊이 맵으로부터의 합성 삼차원 이미징의 생성
JP2013208433A (ja) レンダリング方法及び装置
US20220343589A1 (en) System and method for image processing
CN111124233B (zh) 医学影像的显示方法、交互方法及存储介质
Williams et al. Volumetric curved planar reformation for virtual endoscopy
JP2014524810A5 (ko)
CN108876783B (zh) 图像融合方法及系统、医疗设备和图像融合终端
WO2014192275A1 (ja) 投影画像生成装置、方法およびプログラム
US11062447B2 (en) Hypersurface reconstruction of microscope view
CN106296707A (zh) 医学图像处理方法及装置
JP2023004884A (ja) 拡張現実のグラフィック表現を表示するための表現装置
JP2012010893A (ja) 画像表示装置、画像表示方法、曲線特定装置、曲線特定方法、プログラム、および、記録媒体

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant