KR20170059469A - 삼차원 오브젝트를 가시화하기 위한 방법, 가시화 디바이스, 및 컴퓨터 프로그램 제품 - Google Patents
삼차원 오브젝트를 가시화하기 위한 방법, 가시화 디바이스, 및 컴퓨터 프로그램 제품 Download PDFInfo
- Publication number
- KR20170059469A KR20170059469A KR1020177010960A KR20177010960A KR20170059469A KR 20170059469 A KR20170059469 A KR 20170059469A KR 1020177010960 A KR1020177010960 A KR 1020177010960A KR 20177010960 A KR20177010960 A KR 20177010960A KR 20170059469 A KR20170059469 A KR 20170059469A
- Authority
- KR
- South Korea
- Prior art keywords
- rays
- scattering
- illumination
- way
- volume
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
Abstract
이종 삼차원 오브젝트(OBJ)의 내부 볼륨이 복수의 시뮬레이팅되는 시감 광선들(R1,...,R6)에 의하여 가시화된다. 오브젝트 볼륨(OV)에 들어가는 각각의 시감 광선(R1,...,R6)에 대해, i) 시감 광선(R1,...,R6)을 따라 산란 포지션이 결정되고, ⅱ) 랜덤 프로세스에 따라 산란 방향이 선택되며, 그리고 ⅲ) 시감 광선(R1,...,R6)은 산란 포지션에서, 선택된 산란 방향으로 산란된다. 시감 광선(R1,...,R6)이 오브젝트 볼륨(OV)에 흡수되거나 또는 오브젝트 볼륨(OV)을 빠져나갈 때까지, 단계들 i) 내지 ⅲ)은 반복되며, 빠져나가는 시감 광선은 조명원(LP1,...,LP3, LS1, LS2)에 부딪치며, 문제의 가시화 픽셀에 대한 시감 광선(R1,...,R6)의 조명 기여는 조명원(LP1,...,LP3, LS1, LS2)의 밝기 값 및/또는 컬러 값에 따라 결정된다. 문제의 가시화 픽셀에 대한 밝기 값 및/또는 컬러 값을 결정하기 위하여, 복수의 시감 광선들(R1,...,R6)의 조명 기여들에 대해 통계적 평균이 수행된다.
Description
본 발명은, 볼륨 렌더링(volume rendering), 즉, 이미지(image) 합성을 통한 불균질한 삼차원 오브젝트(object)들의 가시화의 기술 분야에 관한 것이다. 그러한 오브젝트들은 특히 실제 신체들 또는 가상으로 모델링되는(modeled) 오브젝트들일 수 있다. 삼차원 오브젝트들의 가시화는 특히, 의학에서, 지구물리학에서, 재료 테스팅(testing)에서, 가상 현실 분야에서, 그리고/또는 컴퓨터 게임(computer game)들에서, 많은 수의 적용 영역들을 갖는다.
볼륨 렌더링 동안, 내부 볼륨이 또한 가시화되는데, 즉, 단지 불균질한 오브젝트의 표면이 가시화되는 것이 아니며, 그 결과 투명도 효과들 및/또는 내부 구조들이 현실성 있게 재생될 수 있다. 여기서, 삼차원 오브젝트는 삼차원 분해능의 볼륨 데이터(data)에 의해 표현된다.
볼륨 렌더링을 위한 알려진 방법은 광선 투사로 지칭되는 것이며, 이 광선 투사에서는, 아래에서 시감 광선들로 지칭되는 상상의 광선들의 전파가 시뮬레이팅되며(simulated), 이 상상의 광선들은 상상의 검출기 또는 상상의 관찰자의 눈으로부터 나오고, 가시화될 오브젝트를 통과한다. 오브젝트 내의 지점들에 대한 조명 값들이 시감 광선들을 따라 확인된다. 마지막으로, 시감 광선들에 대해 확인된 조명 값들로부터, 가시화되는 이차원 이미지가 구성된다.
현실성 있는 가시화는, 전역 조명의 효과들, 예컨대, 환경 폐색, 그림자들, 반투명성, 컬러 블리딩(color bleeding)으로서 알려진 것, 표면 셰이딩(shading), 복잡한 카메라(camera) 효과들 및/또는 임의의 원하는 주변 광 조건들에 의한 조명이 가능한 한 완전히 고려될 것을 요구한다. 여기서, 환경 폐색은 또한, 주변 폐색으로 빈번히 지칭된다. 그러한 조명 효과들은, 특히 볼륨 렌더링할 때, 깊이 및 형상 지각에, 그리고 그에 따라 개선된 이미지 이해에 크게 기여한다.
알려진 볼륨 렌더링 시스템(system)들은 빈번히 로컬(local) 조명 효과들을 고려하지만, 모든 전역 조명 효과들을 현실성 있게 통합할 수는 없다.
Thomas Kroes 등에 의한 "Exposure Render: An Interactive Photo-Realistic Volume Rendering Framework"(PLoS ONE, 볼륨 7, 이슈(issue) 7, 2012년 7월)란 문헌은, 시감 광선들을 트레이싱(tracing)하기 위한 우드콕(Woodcock) 추적으로서 알려진 것과 함께 몬테카를로 시뮬레이션(Monte Carlo simulation)을 사용하는 볼륨 렌더링 방법을 개시한다. 그러나, 현실성 있는 셰이딩 효과들을 계산하기 위해, 개개의 시감 광선 외에 추가적인 광선들이 오브젝트 볼륨 내에서 트레이싱될(traced) 필요가 있으며, 이는 상당한 계산적 경비를 요구한다. 게다가, 중요도 샘플링(sampling)으로서 알려진 것이 필요하며, 이 중요도 샘플링은 몬테카를로 방법의 통계적 특성들에 영향을 끼친다.
본 발명의 목적은 전역 조명 효과들의 효율적인 통합을 허용하는, 삼차원 오브젝트를 가시화하기 위한 방법, 가시화 디바이스(device), 및 컴퓨터 프로그램(program) 제품을 특정하는 것이다.
이 목적은 특허 청구항 제 1 항의 특징들을 갖는 방법에 의해, 특허 청구항 제 14 항의 특징들을 갖는 가시화 디바이스에 의해, 그리고 특허 청구항 제 15 항의 특징들을 갖는 컴퓨터 프로그램 제품에 의해 달성된다.
볼륨 데이터(data)에 의해 표현되는 불균질한 삼차원 오브젝트를 가시화하기 위해, 개개의 가시화 픽셀(pixel)에 대해 많은 수의 시감 광선들이 시뮬레이팅되며(simulated), 이 시감 광선들은 가시화 픽셀과 연관된다. 여기서, 볼륨 데이터는 오브젝트 볼륨에서 이미징될(imaged) 오브젝트의 밀도를 표시한다. 여기서, 밀도는 특히, 물리적 밀도, 광학적 밀도, 굴절률 및/또는 밝기 값, 컬러 값, 투명도 값 및/또는 불투명도 값이며, 스칼라(scalar), 벡터(vectorial) 또는 텐서(tensorial) 형태로 주어질 수 있다. 가시화 픽셀들은 특히 가상으로 이미징(imaging) 평면 또는 만곡된 이미징 표면 상에 배열될 수 있다. 본 발명에 따라, 오브젝트 볼륨에 들어가는 개개의 시감 광선에 대해, i) 시감 광선을 따르는 밀도에 따라, 산란 포지션(position)이 결정되고, ⅱ) 랜덤 프로세스(random process)에 따라, 산란 방향이 선택되며, 그리고 ⅲ) 시감 광선은 산란 포지션에서, 선택된 산란 방향으로 산란된다. 여기서, 랜덤 프로세스는 예컨대, 의사 난수 또는 준 난수 발생기에 기반할 수 있다. 시감 광선이 오브젝트 볼륨에 흡수되거나 또는 오브젝트 볼륨을 빠져나갈 때까지, 단계들 i) 내지 ⅲ)은 반복되며, 빠져나가는 시감 광선은 조명원에 입사되며, 개개의 가시화 픽셀에 대한 시감 광선의 조명 기여는 조명원의 밝기 및/또는 컬러 값에 따라 확인된다. 연관되는 가시화 픽셀에 대한 밝기 및/또는 컬러 값을 확인하기 위하여, 많은 수의 시감 광선들의 개개의 조명 기여들에 대해 통계적 평균이 취해진다.
본 발명은 복잡한 전역 조명 효과들이 효율적으로 고려되도록 허용한다. 랜덤(random)하게 선택된 산란 방향으로의 시감 광선들의 산란에 기반하여, 조명원 상에서의 흡수 또는 입사까지, 시감 광선들 또는 조명 광선들의 연쇄적인 분기(cascaded branching)들(이 연쇄적인 분기들의 계산은 커다란 경비와 연관됨)이 회피될 수 있으며, 그럼에도 불구하고 오브젝트 볼륨 내의 복잡한 광학 경로들이 고려될 수 있다.
본 발명의 유리한 실시예들 및 발전들은 종속 청구항들에서 특정된다.
본 발명의 유리한 실시예에 따라, 오브젝트 볼륨을 둘러싸는 환경 이미지가 조명원으로서 제공될 수 있다. 여기서, 빠져나가는 시감 광선의, 환경 이미지 상의 입사 지점 및 시감 광선의 조명 기여가 환경 이미지의 입사 지점에서의 밝기 및/또는 컬러 값에 따라 확인되는 것이 가능하다. 그러한 환경 이미지는 또한, 광 프로브(probe) 또는 광 맵(map)으로 빈번히 지칭된다.
그러한 환경 이미지가 오브젝트 볼륨을 완전히 또는 부분적으로 둘러싸는 경우, 적어도, 빠져나가는 시감 광선들의 상당한 비율에 대해, 그들이 환경 이미지의 이미지 지점을 가격하고 그에 따라 조명 기여를 수신한다는 것이 예상되어야 한다. 이러한 방식으로, 시감 광선들의 큰 비율이 낭비되는 것을 방지하는 것이 가능한데, 말하자면, 즉, 조명 기여를 제공하지 않고, 트레이싱되는(traced) 것이 가능하다.
그러한 환경 이미지를 사용하여, 오브젝트는, 이 오브젝트가 환경 이미지에 의해 이미징되는 환경에 놓이며, 여기서, 이로써 유도되는 조명에 의해 현실성 있게 영향받는 것처럼 가시화될 수 있다.
본 발명의 발전에 따라, 오브젝트 볼륨을 둘러싸는 복수의 환경 이미지들이 조명원들로서 제공될 수 있다. 여기서, 산란 유형은 시감 광선과 연관될 수 있으며, 환경 이미지들 중 적어도 하나가, 빠져나가는 시감 광선의 산란 유형에 따라 선택될 수 있다. 이후, 적어도 하나의 선택된 환경 이미지에 기반하여, 시감 광선의 조명 기여가 특정하게 확인될 수 있다.
산란 유형은 특정하게, 반사 또는 투과일 수 있다. 부가하여, 산란되지 않은 시감 광선들에 대한 "비-산란"이란 산란 유형이 또한 있을 수 있다. 반사 산란 유형이 바람직하게는, 기껏해야 약간 확산되는 표면에서의 반사에 따라 강한 이방성 산란과 연관될 수 있는 반면에 투과 산란 유형은 그에 비해 더 낮은 이방성을 갖는 산란과 연관될 수 있다. 바람직하게는, 반사 산란 유형의 경우, 기껏해야 약간 선명하지 않은 환경 이미지가 선택될 수 있으며, 투과 산란 유형의 경우, 비교적 강하게 씻긴 환경 이미지가 선택될 수 있다.
특히, 환경 이미지들 중 제 1 환경 이미지로부터, 산란 유형에 특정한 필터링(filtering)에 의해, 환경 이미지들 중 적어도 하나의 제 2 환경 이미지를 생성하는 것이 가능하다. 따라서, 비-산란 시감 광선들을 갖는 필터링되지 않은(unfiltered) 제 1 환경 이미지가 선택되고, 반사 산란 유형의 경우, 블러링 필터(blurring filter)에 의해 약간 블러링되는(blurred) 제 2 환경 이미지가 선택되며, 그리고 투과 산란 유형의 경우, 그에 비해 강하게 블러링되거나 또는 확산되는 환경 이미지가 선택되는 것이 가능하다.
이러한 방식으로, 대응하게 필터링된(filtered) 환경 이미지들에 의해, 산란들의 특정 특성들, 이를테면, 특히, 산란들의 이방성을 효과적으로 시뮬레이팅하거나(simulate) 또는 구현하는 것이 가능하다.
본 발명의 유리한 발전에 따라, 시감 광선의 조명 기여는, 조명원으로부터 산란 포지션으로 산란 없이 이동하는 조명 광선의 밝기 및/또는 컬러 값에 따라 수정될 수 있다. 이는, 복잡한 광선 트레이싱(tracing)을 회피하면서, 조명원의 특정 광 영향들이 효과적으로 고려되도록 허용한다.
본 발명의 추가적인 발전에 따라, 적어도 하나의 바람직하게는 이차원의 광원이 조명원으로서 제공될 수 있다. 여기서, 산란 방향의 선택은 유리하게, 적어도 하나의 광원 방향으로의 산란 방향들로 제한될 수 있다. 랜덤 방향으로 오브젝트 볼륨을 빠져나가는 시감 광선이 광원을 가격하는 것으로 종종 예상될 수 없기 때문에, 가능한 산란 방향들의 제한은 낭비되는 시감 광선들의 비율이 말하자면 감소되게 할 수 있다.
특히, 미리특정된 확률을 사용하여 산란 방향의 제한이 수행되는 것이 제공될 수 있으며, 어떠한 제한도 주어지지 않으면, 빠져나가는 시감 광선의 조명 기여에 확산 조명 기여가 통합되는 것이 제공될 수 있다.
본 발명의 실시예에 따라, 시감 광선의 조명 기여는 산란 포지션에서의 밀도에 의해 영향받을 수 있다.
바람직하게는, 전달 함수가 제공될 수 있으며, 이 전달 함수는 밀도의 개개의 값을 밝기 값, 컬러 값, 투명도 값 및/또는 불투명도 값으로 이미징한다(image). 이러한 방식으로, 오브젝트의 내부 구조들을 가시화하는 것이 가능하며, 이 오브젝트의 내부 구조들은, 컬러들, 밝기들, 투명도 및/또는 불투명도에 의해 특정가능한 방식으로 밀도 또는 특성 밀도 프로파일(profile)을 변화시킴으로써 특성화된다.
특히, 산란 전에 이용가능한 시감 광선의 조명 기여의 컬러 값은 밀도와 연관되는 컬러 값과 관련될 수 있는데, 즉, 곱해질 수 있으며, 결과적 컬러 값이 시감 광선의 조명 기여에서 사용될 수 있다.
더욱이, 산란 포지션에서의 밀도 또는 일반 밀도 프로파일의 구배가 확인될 수 있으며, 산란 방향은 구배에 따라 선택될 수 있다. 구배 계산은 전적으로 또는 부분적으로 사전에 수행될 수 있거나, 또는 대안적으로 또는 부가적으로, 시감 광선의 산란에 의해 트리거링될(triggered) 수 있다.
특히, 구배의 절대 값이 결정될 수 있으며, 이 절대 값에 따라 좌우되는 확률로, 반사 및/또는 굴절 산란 유형이 시감 광선과 연관될 수 있다. 이후, 구배 방향이 표면 법선으로서 결정될 수 있으며, 산란 방향을 선택할 때, 표면 법선에 대하여 반사 및/또는 굴절되는 산란 방향들이 선호될 수 있다.
본 발명의 유리한 실시예에 따라, 산란 포지션은, 우드콕(Woodcock) 추적을 사용하여 확인될 수 있다. 바람직하게는, 시감 광선의 산란에 대한 확률은 여기서, 오브젝트 볼륨에서 시감 광선이 이동하는 거리의 길이에 따라 증가할 수 있다.
추가적인 실시예에 따라, 시감 광선의 산란들의 수가 확인될 수 있는데, 예컨대, 증분될 수 있으며, 이 수의 함수로써 오브젝트 볼륨에서의 시감 광선의 흡수가 이루어질 수 있다. 특히, 산란들에 대한 최대 수가 특정될 수 있으며, 일단 이 최대 수를 초과하면, 시감 광선은 흡수되는 것으로 간주된다.
추가적인 실시예에 따라, 가시화 픽셀과 연관되는 개개의 시감 광선은 가시화 픽셀로부터 가상 렌즈(lens) 상의 랜덤하게(randomly) 선택된 포지션 상으로 지향될 수 있다. 이후, 시감 광선은 가상 렌즈의 굴절률에 따라, 선택된 포지션에서 굴절될 수 있으며, 굴절되는 시감 광선은 추가로 트레이싱될 수 있다. 이러한 방식으로, 깊이 및/또는 모션 블러(motion blur)와 같은 광학 이미징(imaging) 효과들을 갖는 가상 카메라(camera)가 시뮬레이팅될 수 있으며, 그 결과 현실감이 향상될 수 있다.
본 발명의 예시적 실시예들은, 도면을 참조하여 아래에서 더욱 상세히 설명될 것이다.
도 1 내지 도 3은 각각, 삼차원 오브젝트를 가시화하기 위한, 시뮬레이팅되는 광선 전파를 이용하는 예시적 실시예의 개략적 예시를 도시한다.
도 1-도 3은 각각, 삼차원 오브젝트(OBJ)의 가시화를 예시한다. 삼차원 오브젝트(OBJ)는, 예컨대, 단층촬영 데이터에 기반하여 가상으로 모델링된(modeled) 신체의 일부일 수 있다. 도 1-도 3에서 예시되는 구조들은 바람직하게는, 컴퓨터를 사용하여 가상 구조들로서 시뮬레이팅된다. 이 목적을 위해 요구되는 계산들의 실질적인 부분은 컴퓨터의 그래픽 카드(graphic card)로 아웃소싱될(outsourced) 수 있으며, 그곳에서 대량 병렬 방식으로 수행될 수 있다. 오브젝트(OBJ)는 삼차원 오브젝트 볼륨(OV)에 포함되며, 이 삼차원 오브젝트 볼륨(OV)은 점선의 직사각형에 의해 표시된다. 오브젝트(OBJ)는 오브젝트 볼륨(OV) 내의 볼륨 데이터에 의해 표현되며, 이 데이터는 삼차원 또는 공간 분해능으로 가시화될 오브젝트(OBJ)의 밀도를 제공한다. 여기서, 밀도는 특히, 삼차원 분해능으로 오브젝트(OBJ)의 물리적 밀도, 광학적 밀도, 굴절률 및/또는 밝기, 컬러, 투명도 및/또는 불투명도를 표시할 수 있다.
가상 검출기(D)가 이미징 평면으로서의 역할을 하며, 가시화되는 오브젝트(OBJ)는 이 이미징 평면 상에 가상으로 프로젝팅된다(projected). 검출기(D)는, 가상 이차원 방식으로 배열되는 많은 수의 가시화 픽셀들을 포함한다. 검출기(D) 앞에 가상 렌즈(L)가 배열되며, 이 가상 렌즈(L)는 검출기(D)와 함께 가상 카메라를 형성한다. 광학 이미징 효과들, 이를테면, 깊이 및/또는 모션 블러(motion blur)가 검출기(D) 및 렌즈(L)의 어레인지먼트(arrangement)에 의해 시뮬레이팅될 수 있다.
오브젝트(OBJ)는, 내부 구조들의 예들로서, 암시적(implicit) 제 1 표면(IS1) 및 암시적 제 2 표면(IS2)을 갖는다. 밀도 프로파일이 점프(jump)를 나타내는, 말하자면, 즉, 밀도의 구배의 절대 값이 로컬로(locally) 매우 커지는 오브젝트(OBJ)의 내부 또는 외부 구역들이 암시적 표면들로서 이해되거나 또는 식별될 수 있다. 이는, 예컨대, 근육 조직으로부터 뼈 조직으로의 전이부에서의 경우이다. 이후, 대응하는 전이부는 뼈 표면으로서 식별될 수 있다. 이후, 바람직하게는 반사 특성들을, 이러한 방식으로 식별되는 표면, 이 경우, IS1 및 IS2와 연관시키는 것이 가능하다.
많은 수의 시뮬레이팅되는 시감 광선들은 검출기(D)의 개개의 가시화 픽셀로부터 나온다. 본 예시적 실시예들의 경우, 예시적 시감 광선들(R1,...,R6)이 도 1-도 3에서 표시된다. 검출기(D)의 개개의 가시화 픽셀로부터 나오는 시감 광선(R1,…,R6)은 바람직하게는, 가상 렌즈(L) 상의 랜덤하게 선택된 포지션 상으로 지향되며, 그리고 굴절의 물리적 법칙에 따른 렌즈(L)의 굴절률에 따라 이 선택된 포지션에서 굴절된다. 이후, 굴절된 시감 광선(R1,...,R6)은 추가로 트레이싱된다. 가시화될 오브젝트(OBJ)의 이미지(이 이미지가 사용자에게 제시될 것임)를 생성하기 위하여, 검출기(D)의 개개의 가시화 픽셀에 대해, 많은 수의 시감 광선들이 시뮬레이팅되는데, 즉, 계산된다. 이후, 가시화 픽셀 단위로, 많은 수의 시감 광선들에 대해 통계적 평균이 수행된다. 가시화 동안 추가적인 시감 광선들이 계산되기 때문에, 생성되는 이미지의 품질은 연속하여 개선되는데, 즉, 시뮬레이션 동안 통계적 이미지 잡음은 감소한다.
바람직하게는 컬러 값을 포함하는 조명 기여는, 가시화 픽셀로부터 나오는 각각의 시감 광선과 연관된다. 초기에, 컬러 값은 컬러 화이트(white)로 초기화된다. 렌즈(L)에 의해 굴절되는 시감 광선들의 경우, 이 시감 광선들이 오브젝트 볼륨(OV)에 들어가는지 또는 아닌지의 여부에 관한 확인이 각각 수행된다. 본 예시적 실시예들에서, 시감 광선(R1)이 오브젝트 볼륨(OV)에 들어가지 않는 반면에 다른 시감 광선들(R2,...,R6)은 오브젝트 볼륨(OV)에 들어간다. 오브젝트 볼륨(OV)에 들어가는 시감 광선들(R2,...,R6)의 경우, 오브젝트 볼륨(OV) 내의 산란 포지션은, 각각의 경우, 보통 우드콕 추적으로 지칭되는 것을 사용하여 확인된다. 우드콕 추적 동안, 오브젝트 볼륨(OV)에서 이동하는 경로의 길이와 함께 개개의 시감 광선을 따르는, 오브젝트(OBJ)의 바람직하게는 보간된 밀도에 따라 산란 확률이 증가한다. 확인된 산란 포지션에서, 개개의 시감 광선의 산란이 시뮬레이팅된다. 산란은 시감 광선의 방향을 변경시키며, 이는 도 1-도 3에서 개개의 산란 포지션에서의 대응하는 킹크(kink)들에 의해 표시된다. 특히, 분기 없이, 개개의 시감 광선이 산란된다. 이러한 방식으로, 시감 광선들의 연쇄적인 분기 또는 시감 광선들의 분기된 트리(tree)들(이들을 계산하기 복잡함)을 회피하는 것이 가능하다.
산란 방향은 랜덤 프로세스(random process)에 의해 선택된다. 여기서, 바람직하게는, 확률 밀도 함수(probability density function)(또한, PDF로서 축약됨)가 사용되며, 이 확률 밀도 함수는, 개개의 산란 포지션에 대해, 시감 광선이 개개의 산란 방향으로 산란될 확률을 표시한다. 그러한 확률 밀도 함수는 또한, 위상 함수로 빈번히 지칭된다. 위상 함수는 오브젝트(OBJ)의 로컬(local) 재료 특성들로부터, 예컨대, 단층촬영 데이터로부터 도출되는 로컬 엑스레이(x-ray) 감쇠 또는 "하운스필드 스케일(Hounsfield scale)"로서 알려진 것에 따른 흡수에 기반하여 도출될 수 있다. 로컬 재료 특성들은 바람직하게는, 오브젝트(OBJ)의 볼륨 데이터에서 밀도의 컴포넌트(component)로서 코딩된다(coded). 바람직하게는, 밀도 및 이 밀도로부터 도출되는 데이터가 오브젝트 볼륨(OV)의 모든 각각의 포지션에서, 그리고 특히 시감 광선들 및 이 시감 광선들의 산란 포지션들을 따라 효율적으로 보간될 수 있도록, 볼륨 데이터가 코딩된다.
바람직하게 보간된 밀도 또는 이 밀도의 컴포넌트들에 전달 함수를 적용함으로써, 산란 포지션에서의 로컬 컬러가 도출될 수 있다. 전달 함수는, 예컨대, 더 낮은 밀도들보다는, 더 높은 밀도들인 더 어둡고, 더욱 포화되고 그리고/또는 상이한 컬러와 연관될 수 있다. 산란 포지션에서의, 오브젝트(OBJ)와 광 사이의 상호작용을 모델링하기(model) 위하여, 산란 포지션에 존재하는 컬러는 개개의 시감 광선과 연관되는 컬러와 결합되는데, 예컨대, 곱해진다.
이러한 방식으로 다음 차례의 산란 포지션을 결정하기 위하여, 우드콕 추적을 사용하여, 랜덤-기반 산란 방향으로 산란되는 시감 광선(R3,...,R6)이 추가로 트레이싱되며, 다음 차례의 산란 포지션에서는, 이전 산란 포지션에 대해서와 동일한 동작들이 사용된다. 이 프로세스는, 개개의 시감 광선이 오브젝트 볼륨(OV)에 흡수되거나 또는 오브젝트 볼륨(OV)을 빠져나갈 때까지 반복된다. 여기서, 흡수는, 산란 동작들의 최대 수를 특정함으로써 모델링될 수 있으며, 이 수를 초과할 때, 개개의 시감 광선이 흡수되는 것으로 간주되거나, 또는 흡수는, 산란 이벤트(event)들의 수에 기반하여 개개의 시감 광선의 소광에 대한 확률 밀도 함수를 사용함으로써 모델링될 수 있다. 랜덤-기반 산란과 우드콕 추적의 그러한 결합은 또한, 몬테카를로 렌더링으로 빈번히 지칭된다.
도 1 및 도 2에 예시된 예시적 실시예들에서, 오브젝트 볼륨(OV)을 둘러싸는 환경 이미지들(LP1, LP2 및 LP3)이 조명원들로서 제공된다. 그러한 환경 이미지들은 또한, "광 프로브(probe)" 또는 "광 맵(map)"으로 빈번히 지칭된다. 환경 이미지들(LP1, LP2 및 LP3)은 바람직하게는, 가능한 한 완전히 오브젝트 볼륨(OV)을 둘러싸며, 따라서 가능하다면, 오브젝트 볼륨(OV)을 빠져나가는 모든 각각의 시감 광선이 환경 이미지들 중 하나의 환경 이미지(LP1, LP2 또는 LP3)에 입사된다. 환경 이미지들(LP1, LP2 또는 LP3)은 이들이 오브젝트 볼륨(OV)에 위치되는 관찰자가 이미징되는 환경에 대해 갖는 것처럼 개개의 뷰(view)를 이미징하도록 각각의 경우 배열되거나 또는 프로젝팅된다.
도 1 및 도 2에 의해 예시되는 예시적 실시예에 대해, 환경 이미지(LP1)가 필터링되지 않은 환경 이미지, 예컨대, 거리의 올 어라운드(all-around) 이미지인 것이 가정된다. 환경 이미지(LP2)는, 약간의 블러 필터를 적용함으로써 환경 이미지(LP1)로부터 생성되는 반사 환경 이미지이다. 따라서, 환경 이미지(LP2)는 환경 이미지(LP1)의 약간 블러링된 버전(version)이다. 부가하여, 환경 이미지(LP3)는, 강한 블러 필터를 적용함으로써 환경 이미지(LP1)로부터 생성되는 확산 환경 이미지이다. 따라서, 환경 이미지(LP3)는 환경 이미지(LP1)의 강하게 블러링된 또는 거의 확산된 버전이다. 이 유형의 거의 확산된 환경 이미지(LP3)는 또한, "방사 조도 광 맵"으로 빈번히 지칭된다.
필터링되지 않은 환경 이미지(LP1)를 사용하여, 비-산란 시감 광선의 조명 기여가 확인된다. 이에 따라, 단지 반사되는 시감 광선의 조명 기여는 반사 환경 이미지(LP2)에 기반하여 확인되며, 투과적으로 산란되는 시감 광선의 조명 기여는 확산 환경 이미지(LP3)에 기반하여 확인된다. 환경 이미지 상의 시감 광선의 입사 지점에서의 밝기 및/또는 컬러 값에 따라, 개개의 시감 광선의 조명 기여가 확인된다.
도 1에서, 추가로 추적되는 시감 광선(R1)은 오브젝트 볼륨(OV)을 가격하는 것이 아니라, 비-산란 시감 광선으로서, 필터링되지 않은 환경 이미지(LP1)를 가격한다. 이는 오브젝트 볼륨(OV)을 통과하는 시감 광선(R2)에 또한 적용되지만, 이 시감 광선(R2)은 여기서 산란되지 않으며, 그에 따라 입사 지점에서의 환경 이미지(LP1)의 밝기 또는 컬러 값에 따라 그것의 조명 기여를 마찬가지로 수신한다.
시감 광선(R3)은 초기에, 오브젝트 볼륨(OV)에서, 각각의 경우 반사적으로 제 2 표면(IS2)에서 산란되고 이후 제 1 표면(IS1)에서 산란되며, 그리고 후속하여, 이 시감 광선(R3)이 오브젝트 볼륨(OV)을 빠져나가기 전에, 오브젝트(OBJ) 내에서 투과적으로 다시 한 번 산란된다. 투과 산란에 기인하여, 투과 산란 유형이 시감 광선(R3)과 연관되며, 그에 따라, 확산 환경 이미지(LP3)는, 이 환경 이미지(LP3)의 입사 지점에서의 밝기 또는 컬러 값에 따라 시감 광선(R3)의 조명 기여를 확인하기 위하여 선택된다. 시감 광선(R4)은, 이 시감 광선(R4)이 오브젝트 볼륨(OV)을 빠져나가기 전에, 오브젝트(OBJ) 내에서 세 개의 산란 포지션들에서 각각의 경우 랜덤-기반 산란 방향으로 투과적으로 산란된다. 투과 산란에 기인하여, 투과 산란 유형이 시감 광선(R4)과 연관되며, 이에 따라 그것의 조명 기여는 확산 환경 이미지(LP3)에 기반하여 확인된다.
시감 광선(R5)은, 이 시감 광선(R5)이 오브젝트 볼륨(OV)을 빠져나가기 전에, 오브젝트 볼륨(OV) 내에서 제 2 표면(IS2)에서 특정하게는 반사적으로 단 한 번 산란된다. 반사 산란에 기인하여, 반사 산란 유형이 시감 광선(R5)과 연관되며, 그것의 조명 기여는 반사 환경 이미지(LP2)에 기반하여, 즉, 입사 지점에서의 환경 이미지(LP2)의 밝기 및/또는 컬러 값에 기반하여 확인된다.
시감 광선(R6)은, 오브젝트(OBJ) 내에서 세 개의 산란 포지션들에서 각각의 경우 랜덤-기반 방향으로 투과적으로 산란되며, 이후, 예컨대 마지막 산란 포지션 근처의 높은 로컬 밀도로 인해 오브젝트(OBJ) 내에서 흡수된다. 모든 산란 이벤트들 후에 시감 광선(R6)이 오브젝트 볼륨(OV) 내에 남아 있을 정도까지, 오브젝트 볼륨(OV)을 빠져나가고 환경 이미지(LP1, LP2 또는 LP3)로부터 조명 기여를 수신하는 시감 광선들(R1,...,R5)과는 대조적으로, 이 시감 광선(R6)은 어떠한 조명 기여도 수신하지 않는다. 이후, 개개의 시감 광선의 결과적 조명 기여 또는 결과적 컬러가 검출기(D)의 각각 연관되는 가시화 픽셀에 추가된다.
오브젝트 볼륨(OV) 내의 암시적 표면들, 이 경우 IS1 및 IS2에 대한 표면 셰이딩 효과들을 계산하기 위해, 밀도의 로컬 구배는 시감 광선의 개개의 산란 포지션에 대한 볼륨 데이터로부터 산란 포지션에서 보간되며, 이 구배의 절대 값에 따라, 확률적 표면 산란 이벤트가 모델링된다(modeled). 그러한 표면 산란 이벤트는 반사 산란, 예컨대, 시감 광선의 반사 또는 암시적 표면에서의 시감 광선의 굴절일 수 있다. 그러한 반사 산란이 발생하면, 로컬 밀도 구배의 방향에 의해 주어지는 표면 법선의 반구에서의 랜덤 산란 방향이 선택된다. 반사 산란에 대한 확률은, 바람직하게는, 산란 포지션에 대해 보간된 볼륨 데이터의 BRDF(bidirectional reflectance distribution function)로서 알려진 것에 기반하여 결정된다. 반사 산란들의 경우, 반구의 다른 방향들보다, 반사의 물리적 법칙에 따라 반사 방향을 따르는 산란 방향들이 훨씬 선호된다. 따라서, 반사적으로 산란되는 시감 광선은 확률적으로, 말하자면, 반사의 법칙에 의해 특정된 반사 방향으로 초점이 맞춰진다. 반사 산란 유형은 단지 반사적으로 산란되는 시감 광선, 이 경우 시감 광선(R5)과 연관된다. 단지 반사적으로 산란되는 시감 광선이 오브젝트 볼륨(OV)을 빠져나가면, 이 시감 광선의 조명 기여는 입사 지점에서의 반사 환경 이미지(LP2)의 밝기 및/또는 컬러 값에 기반하여 확인된다. 개개의 시감 광선이 투과적으로 산란되면, 위에서 이미 언급된 바와 같이, 투과 산란 유형이 그 시감 광선과 연관되며, 그 시감 광선의 조명 기여는, 그 시감 광선이 오브젝트 볼륨(OV)을 빠져나간다면, 환경 이미지(LP3)에 기반하여 확인된다. 둘 모두의 경우들에서, 조명 기여는 개개의 시감 광선과 연관되는 컬러와 결합되는데, 예컨대, 곱해지며, 그리고 각각 연관되는 가시화 픽셀에 추가된다. 오브젝트 볼륨(OV)을 가격하지 않는 시감 광선, 이 경우 R1, 또는 오브젝트 볼륨(OV)에서 산란되지 않는 시감 광선, 이 경우 R2는 필터링되지 않은 환경 이미지(LP1)로부터의 조명 기여를 수신한다.
도 2는 개개의 시감 광선의 조명 기여에 추가적인 기여들이 통합되는 본 발명의 변형을 예시한다. 이 목적을 위해, 조명 광선들(IR1,...,IR6)이 개개의 시감 광선의 조명 기여에 대한 추가적인 기여들로서 시뮬레이팅된다. 부가적으로, 조명 광선들(IR1,...,IR6)은 오브젝트 볼륨(OV) 내의 각각의 반사 산란 포지션에 대해 계산되며, 도 2에서 파선 화살표들에 의해 표시된다.
도 2에서, 시감 광선들(R1,...,R5)은 도 1과 관련하여 이미 설명된 바와 같이 산란되며, 그리고 대응하는 조명 기여들을 수신한다. 도 1과 관련하여 설명된 이들 조명 기여들 외에, 도 2에서 예시된 예시적 실시예에서는, 개개의 시감 광선(R3 또는 R5)의 조명 기여에 대한 추가적인 기여들이 각각의 반사 산란에 대한 조명 광선들(IR1,...,IR6)에 의해, 여기서 시감 광선들(R3 및 R5)에 의해 추가된다. 예컨대, 제 2 표면(IS2)에서의 시감 광선(R5)의 반사 산란의 경우, 조명 광선들(IR3 및 IR4)의 기여들이 시감 광선(R5)의 조명 기여에 추가된다. 확산 조명 기여에 대응하는 조명 광선(IR3)이 여기서 환경 이미지(LP3)로부터 반사 산란 포지션으로 이동하는 반면에, 반사 조명 기여에 대응하는 조명 광선(IR4)은 환경 이미지(LP2)로부터 반사 산란 포지션으로 이동한다. 선택되는 환경 이미지(LP3) 상의 조명 광선(IR3)의 시작 지점은 반사 지점에서의 표면(IS2)의 반구에서 랜덤 포지션이다. 조명 광선(IR4)의 경우, 반사 방향으로의 일 지점이 환경 이미지(LP2) 상의 시작 지점으로서 선택된다. 반사 산란 포지션에 대한 조명 광선들(IR3 및 IR4)의 기여들에 기반하여, 그와 연관되는 컬러 값이 수정될 수 있다. 여기서, 반사 산란 포지션과 본래 연관되는 컬러 값은 확산 조명 광선(IR3)의 밝기 및/또는 컬러 값으로 가중될 수 있으며, 반사 조명 광선(IR4)의 밝기 및/또는 컬러 값이 그에 추가될 수 있다. 이후, 결과적 컬러 값이 시감 광선(R5)과 연관되는 컬러 값과 결합되어, 예컨대, 곱해져서, 그에 따라 후속 산란 이벤트들에 대해 시감 광선(R5)의 컬러 값이 수정될 수 있다. 조명 광선들(IR3 및 IR4)을 사용하여 제 2 표면(IS2)에서의 시감 광선(R5)의 반사에 대해 위에서 설명된 조명 방법은, 제 2 표면(IS2)(이 경우, 조명 광선들(IR1 및 IR2)을 사용함) 및 제 1 표면(IS1)(이 경우, 조명 광선들(IR5 및 IR6)을 사용함)에서의 시감 광선(R3)의 반사 산란들의 경우에 또한 수행된다.
여기서, 조명 광선들(IR1,...,IR6)은 각각의 경우 산란되지 않으며, 분기되지 않는다. 이러한 방식으로, 계산하기 복잡한 조명 광선들의 연쇄적인 분기들이 회피될 수 있다.
도 3은 본 발명의 추가적인 변형을 예시하며, 여기서 환경 이미지들 대신에, 이차원 광원들(LS1 및 LS2)이 조명원들로서 동작한다. 이 예시적 실시예에서, 산란 포지션들은 앞선 예시적 실시예들과 관련하여 이미 설명된 바와 같이 결정된다. 그러나, 도 1 및 도 2에서 예시된 예시적 실시예들에 대조적으로, 도 3에 예시된 예시적 실시예에서는, 산란 방향의 선택이 광원들(LS1 및 LS2) 방향으로의 산란 방향들로 제한되는데, 즉, 각각의 산란 포지션에 대해, 초기에, 광원들 중 하나의 광원(LS1 또는 LS2)(어쩌면, 그 영역으로 가중됨)이 랜덤하게 선택되며, 후속하여, 선택된 광원의 표면 상의 랜덤 포지션이 결정된다. 이후, 결정된 랜덤 포지션의 방향으로 산란이 수행된다.
광원들(LS1 및 LS2)이 오브젝트 볼륨(OV)을 둘러싸지 않기 때문에, 산란 방향의 선택을 제한하는 것에 의해, 시감 광선들의 상당한 부분이 광원을 가격하지 않으며 그에 따라 말하자면 낭비되는 상황을 회피하는 것이 가능하다. 도 3에서 예시된 예시적 실시예에서, 시감 광선들(R1 및 R2)은 오브젝트 볼륨에서 산란되지 않으며, 또한 광원들(LS1 및 LS2) 중 어느 쪽도 가격하지 않는다. 이에 따라, 그들은 조명 기여를 수신하지 않는다. 시감 광선(R5)은 제 2 표면(IS2)에서 반사되고, 광원(LS2)을 가격하며, 이 광원(LS2)의 밝기 및/또는 컬러 값이 시감 광선(R5)의 조명 기여에 추가된다. 시감 광선(R6)은 오브젝트(OBJ) 내에서 투과적으로 4회 산란되며, 여기서 산란 방향은 각각의 경우 광원들 중 어느 한 광원(LS1 또는 LS2)의 방향으로 향한다. 4번째 산란 후에, 시감 광선(R6)은 오브젝트(OBJ)에 흡수되며, 검출기(D)의 연관되는 가시화 픽셀에 대한 어떠한 조명 기여도 제공하지 않는다. 시감 광선(R4)은 각각의 경우 광원들(LS1 및 LS2) 중 하나의 광원의 방향으로 오브젝트(OBJ) 내에서 3회 산란되며, 마지막으로 광원(LS1)의 방향으로 오브젝트 볼륨(OV)을 빠져나가며, 이 광원(LS1)의 밝기 및/또는 컬러 값은 시감 광선(R4)의 조명 기여에 추가된다.
각각의 산란에 대해, 예외 없이, 설명된 바와 같이 산란 방향들이 제한되면, 오브젝트 볼륨(OV)을 통과하는 모든 가능한 광학 경로들이 고려될 수 있는 것은 아니다. 이에 대한 결과는, 오브젝트 볼륨(OV) 내의 구역들이 조명되지 않을 수 있으며, 그에 따라, 가시화되는 이미지 상에서 완전히 블랙(black)으로 나타난다는 것이다. 그러한 비-조명 구역들을 회피하기 위해, 특정된 확률로 제한되지 않는 산란들이 선택을 위해 또한 허용될 수 있다. 이는, 예컨대 사용자에 의해 특정될 수 있는 확률 임계치 아래로, 광원들(LS1 또는 LS2)의 방향으로의 산란 대신에, 임의의 원하는, 바람직하게는 통계적으로 균등하게 분산된 방향으로의 산란이 또한 허용될 수 있음을 의미한다. 바람직하게는, 특정 산란 유형, 이를테면, 예컨대, "주변 라이팅(lighting)"이 제한 없이 산란되는 그러한 시감 광선과 연관될 수 있다.
이에 따라, 도 3에서, 시감 광선(R3)은 초기에, 제한되지 않은 랜덤 방향으로 제 2 표면(IS2)에서 산란되며, 후속하여, 오브젝트(OBJ) 내에서 제한되지 않은 랜덤 방향으로 다시 산란된다. 이에 따라, "주변 라이팅"이란 산란 유형이 시감 광선(R3)과 연관된다. 시감 광선(R3)은 오브젝트 볼륨(OV)을 빠져나가며, 광원들 중 어느 쪽(LS1 또는 LS2)도 가격하지 않는다. 그러나, 산란 유형 "주변 라이팅"과 연관된 시감 광선으로서, R3는 "주변 폐색 라이팅"으로 또한 빈번히 지칭되는, 약한 확산 및 등방성 주변 광 기여를 수신한다. 이러한 방식으로, 오브젝트(OBJ)의 완전한 비-조명 구역들이 효과적으로 회피될 수 있다.
검출기(D)의 가시화 픽셀들은 가시화 이미지 버퍼(buffer)를 형성하며, 이 가시화 이미지 버퍼는 모든 시감 광선들의 통계적으로 평균된 조명 기여들을 포함한다. 이 가시화 이미지 버퍼는 사용자에게 계속해서 제시되며, 그리고 배경의 추가적인 시감 광선들을 계산함으로써, 끊임없이 세부조정된다. "고 명암비 이미지(HDRI;high dynamic range image)들"로서 알려진 고-대비 이미지들의 경우, 가시화 이미지가 사용자에게 제시되기 전에, 동적 압축이 수행될 수 있다. 가시화 매개변수들, 이를테면, 예컨대, 가상 카메라의 포지션이 변하면, 가시화 이미지 버퍼는 삭제될 수 있으며, 시감 광선들의 계산은 재시작될 수 있다. 시감 광선들 및 조명 기여들이 서로 독립적으로 계산될 수 있기 때문에, 본 발명에 따른 가시화 방법이 또한 병렬화되며, 그에 따라, 대량 병렬 방식으로 동작하는 그래픽 카드(graphic card) 상에서 또는 멀티코어 아키텍처(multicore architecture) 상에서 효과적으로 수행될 수 있다.
컬러 추적을 위한 몬테카를로 방법을 사용함으로써, 본 발명은 오브젝트 볼륨(OV)을 통과하는 임의의 원하는 광학 경로들을 고려하며, 복잡한 조명 효과들 및 카메라 모델(model)들을 시뮬레이팅할 수 있다. 방법의 확률적 성질로 인해, 오브젝트 볼륨(OV) 내의 심지어 많은 수의 복잡한 광학 경로들이 고려되어, 시간에 따라, 사진과 동일한 매끄러운 가시화 이미지가 생성될 수 있다. 이 방법은 매우 효율적인데, 그 이유는 오브젝트 볼륨(OV)을 통과하는 단 한 개의 경로만이, 개개의 시감 광선에 대해 우드콕 추적을 사용하여 트레이싱되어야 하기 때문이다.
Claims (16)
- 볼륨 데이터(volume data)에 의해 표현되는 불균질한 삼차원 오브젝트(object)(OBJ)를 가시화하기 위한 방법으로서,
a) 상기 볼륨 데이터는 오브젝트 볼륨(OV;object volume)에서 이미징될(imaged) 상기 오브젝트(OBJ)의 밀도를 표시하고,
b) 개개의 가시화 픽셀(pixel)에 대해, 상기 가시화 픽셀과 연관되는 많은 수의 시감 광선들(R1,...,R6)이 시뮬레이팅되며(simulated), 상기 오브젝트 볼륨(OV)에 들어가는 개개의 시감 광선(R1,...,R6)에 대해,
i) 상기 시감 광선(R1,...,R6)을 따르는 밀도에 따라, 산란 포지션(position)이 결정되고,
ⅱ) 랜덤 프로세스(random process)에 따라, 산란 방향이 선택되고,
ⅲ) 상기 시감 광선(R1,...,R6)이 상기 산란 포지션에서, 선택된 산란 방향으로 산란되며, 그리고
ⅳ) 상기 시감 광선(R1,...,R6)이 상기 오브젝트 볼륨(OV)에 흡수되거나 또는 상기 오브젝트 볼륨(OV)을 빠져나갈 때까지, 단계들 i) 내지 ⅲ)은 반복되며, 빠져나가는 시감 광선은 조명원(LP1,...,LP3, LS1, LS2)에 입사되고, 상기 조명원(LP1,...,LP3, LS1, LS2)의 밝기 및/또는 컬러(color) 값에 따라, 상기 개개의 가시화 픽셀에 대한 상기 시감 광선(R1,...,R6)의 조명 기여가 확인되며, 그리고
c) 연관되는 가시화 픽셀에 대한 밝기 및/또는 컬러 값을 확인하기 위하여, 상기 많은 수의 시감 광선들(R1,...,R6)의 개개의 조명 기여들에 대해 통계적 평균이 취해지는,
방법. - 제 1 항에 있어서,
상기 오브젝트 볼륨(OV)을 둘러싸는 환경 이미지(image)(LP1,...,LP3)가 상기 조명원으로서 제공되고,
상기 빠져나가는 시감 광선의, 상기 환경 이미지(LP1,...,LP3) 상의 입사 지점이 확인되며, 그리고
상기 환경 이미지(LP1,...,LP3)의 상기 입사 지점에서의 밝기 및/또는 컬러 값에 따라, 상기 시감 광선(R1,...,R6)의 상기 조명 기여가 확인되는,
방법. - 제 2 항에 있어서,
상기 오브젝트 볼륨(OV)을 둘러싸는 복수의 환경 이미지들(LP1,...,LP3)이 조명원들로서 제공되고,
산란 유형이 상기 시감 광선(R1,...,R6)과 연관되고,
상기 환경 이미지들(LP1,...,LP3) 중 적어도 하나가 상기 빠져나가는 시감 광선의 산란 유형에 따라 선택되며, 그리고
적어도 하나의 선택된 환경 이미지(LP1,...,LP3)에 기반하여, 상기 시감 광선(R1,...,R6)의 상기 조명 기여가 특정하게 확인되는,
방법. - 제 2 항 또는 제 3 항에 있어서,
상기 환경 이미지들 중 적어도 제 2 환경 이미지(LP2, LP3)는 산란 유형에 특정한 필터링(filtering)에 의해 상기 환경 이미지들 중 제 1 환경 이미지(LP1)로부터 생성되는,
방법. - 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 시감 광선(R1,...,R6)의 상기 조명 기여는, 조명원(LP1,...,LP3, LS1, LS2)으로부터 상기 산란 포지션으로 산란 없이 이동하는 조명 광선(IR1,...,IR6)의 밝기 및/또는 컬러 값에 따라 수정되는,
방법. - 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
적어도 하나의 광원(LS1, LS2)이 상기 조명원으로서 제공되며, 그리고
상기 산란 방향의 선택은 상기 적어도 하나의 광원(LS1, LS2) 방향으로의 산란 방향들로 제한되는,
방법. - 제 6 항에 있어서,
특정된 확률을 사용하여, 상기 산란 방향의 제한이 수행되며, 그리고
어떠한 제한도 주어지지 않으면, 상기 빠져나가는 시감 광선의 상기 조명 기여에 확산 조명 기여가 통합되는,
방법. - 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
상기 시감 광선(R1,...,R6)의 상기 조명 기여는 상기 산란 포지션에서의 밀도에 의해 영향받는,
방법. - 제 1 항 내지 제 8 항 중 어느 한 항에 있어서,
전달 함수가 제공되며, 상기 전달 함수는 상기 밀도의 개개의 값을 밝기 값, 컬러 값, 투명도 값 및/또는 불투명도 값으로 이미징하는(image),
볼륨 데이터에 의해 표현되는 불균질한 삼차원 오브젝트(OBJ)를 가시화하기 위한 방법. - 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
상기 산란 포지션에서의 상기 밀도의 구배가 확인되며, 그리고
상기 산란 방향은 상기 구배에 따라 선택되는,
방법. - 제 10 항에 있어서,
상기 구배의 절대 값이 결정되며, 그리고
상기 구배의 상기 절대 값에 따라 좌우되는 확률로, 반사 및/또는 굴절 산란 유형이 상기 시감 광선(R1,...,R6)과 연관되고,
상기 구배의 방향은 표면 법선으로서 결정되며, 그리고
상기 산란 방향을 선택할 때, 상기 표면 법선에 대하여 반사 및/또는 굴절되는 산란 방향들이 선호되는,
방법. - 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
상기 산란 포지션은, 우드콕(Woodcock) 추적을 사용하여 확인되는,
방법. - 제 1 항 내지 제 12 항 중 어느 한 항에 있어서,
상기 시감 광선(R1,...,R6)의 산란들의 수가 확인되며, 그리고
이 수에 따라, 상기 오브젝트 볼륨(OV)에서의 상기 시감 광선(R1,...,R6)의 흡수가 이루어지는,
방법. - 제 1 항 내지 제 13 항 중 어느 한 항에 있어서,
가시화 픽셀과 연관되는 개개의 시감 광선(R1,...,R6)이 상기 가시화 픽셀로부터 가상 렌즈(lens)(L) 상의 랜덤하게(randomly) 선택된 포지션 상으로 지향되고,
상기 시감 광선(R1,...,R6)은 상기 가상 렌즈(L)의 굴절률에 따라, 선택된 포지션에서 굴절되며, 그리고
굴절된 시감 광선은 추가로 트레이싱되는(traced),
방법. - 볼륨 데이터에 의해 표현되는 불균질한 삼차원 오브젝트(OBJ)를 가시화하기 위한 가시화 장치로서,
제 1 항 내지 제 14 항 중 어느 한 항에 따른 방법을 수행하기 위한 수단들을 모두 가지는,
가시화 장치. - 볼륨 데이터에 의해 표현되는 불균질한 삼차원 오브젝트(OBJ)를 가시화하기 위한 컴퓨터 프로그램(computer program) 제품으로서,
제 1 항 내지 제 14 항 중 어느 한 항에 따른 방법을 수행하도록 설정된,
컴퓨터 프로그램 제품.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2014/070231 WO2016045701A1 (de) | 2014-09-23 | 2014-09-23 | Verfahren, visualisierungsvorrichtung und computerprogrammprodukt zur visualisierung eines dreidimensionalen objekts |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170059469A true KR20170059469A (ko) | 2017-05-30 |
Family
ID=51660448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177010960A KR20170059469A (ko) | 2014-09-23 | 2014-09-23 | 삼차원 오브젝트를 가시화하기 위한 방법, 가시화 디바이스, 및 컴퓨터 프로그램 제품 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10068368B2 (ko) |
EP (2) | EP3178068B1 (ko) |
JP (1) | JP6342068B2 (ko) |
KR (1) | KR20170059469A (ko) |
CN (1) | CN107077756B (ko) |
WO (1) | WO2016045701A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220000266A (ko) | 2020-06-25 | 2022-01-03 | 인제대학교 산학협력단 | 대기 환경 정보의 3차원 표출 최적화를 위한 장치 및 방법 |
KR20240113300A (ko) | 2023-01-13 | 2024-07-22 | 조영우 | 언리얼 엔진4와 볼륨 렌더링을 활용한 3차원 대기환경정보 가시화를 위한 장치 및 방법 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3057067B1 (en) * | 2015-02-16 | 2017-08-23 | Thomson Licensing | Device and method for estimating a glossy part of radiation |
WO2017064689A1 (en) * | 2015-10-17 | 2017-04-20 | Arivis Ag | Direct volume rendering in virtual and/or augmented reality |
US11188146B2 (en) | 2015-10-17 | 2021-11-30 | Arivis Ag | Direct volume rendering in virtual and/or augmented reality |
US10055878B2 (en) * | 2016-08-31 | 2018-08-21 | Siemens Healthcare Gmbh | Method of visualizing a three-dimensional object from a data volume |
EP3264369B1 (en) | 2017-08-22 | 2021-09-29 | Siemens Healthcare GmbH | Visualizing an image data set with object-dependent focusing parameter |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
WO2020006505A1 (en) * | 2018-06-29 | 2020-01-02 | Baobab Studios Inc. | Systems and methods for generating dynamic real-time high-quality lighting for digital animation |
US10832466B2 (en) | 2018-10-25 | 2020-11-10 | International Business Machines Corporation | View-dependent stochastic volume rendering with Monte Carlo ray exploration |
EP3681142B1 (de) * | 2019-01-14 | 2021-09-08 | GMG GmbH & Co. KG | Verfahren zur abschätzung eines zu erwartenden spektralen reflexionswertes eines schichtsystems |
EP3796265A1 (en) | 2019-09-23 | 2021-03-24 | Siemens Healthcare GmbH | Implicit surface shading in medical volumetric rendering |
US11253214B2 (en) * | 2019-12-13 | 2022-02-22 | Varian Medical Systems International Ag | Statistical method for material property extraction from multi-energy images |
US11398072B1 (en) * | 2019-12-16 | 2022-07-26 | Siemens Healthcare Gmbh | Method of obtaining a set of values for a respective set of parameters for use in a physically based path tracing process and a method of rendering using a physically based path tracing process |
DE102020210030A1 (de) | 2020-08-07 | 2022-02-10 | Siemens Healthcare Gmbh | Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten |
DE102021210435A1 (de) | 2020-10-20 | 2022-04-21 | Siemens Healthcare Gmbh | Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten |
DE102020213305A1 (de) | 2020-10-21 | 2022-04-21 | Siemens Healthcare Gmbh | Verfahren und Vorrichtung zur Visualisierung von dreidimensionalen Objekten |
CN112396684A (zh) * | 2020-11-13 | 2021-02-23 | 贝壳技术有限公司 | 光线追踪方法、装置及机器可读存储介质 |
DE102021110797A1 (de) | 2021-04-27 | 2022-10-27 | Siemens Healthcare Gmbh | Verfahren und System zum Optimieren einer Abstandsschätzung |
EP4293626A1 (de) | 2022-06-15 | 2023-12-20 | Siemens Healthcare GmbH | Verfahren und vorrichtung zum bereitstellen eines dreidimensionalen modells eines objekts |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1726517B (zh) * | 2002-12-20 | 2010-05-26 | 皇家飞利浦电子股份有限公司 | 基于协议的体积可视化 |
US7301538B2 (en) * | 2003-08-18 | 2007-11-27 | Fovia, Inc. | Method and system for adaptive direct volume rendering |
US8294706B2 (en) * | 2006-08-03 | 2012-10-23 | Siemens Medical Solutions Usa, Inc. | Volume rendering using N-pass sampling |
US8144829B2 (en) * | 2008-02-27 | 2012-03-27 | The Board Of Trustees Of The Leland Stanford Junior University | Cone-beam CT imaging scheme |
DE102009042327A1 (de) * | 2009-09-21 | 2011-04-07 | Siemens Aktiengesellschaft | Effiziente Visualisierung von Objekteigenschaften mittels Volume Rendering |
WO2014034905A1 (ja) * | 2012-08-30 | 2014-03-06 | 株式会社東芝 | 超音波診断装置、画像処理装置及び画像処理方法 |
DE102012217089A1 (de) * | 2012-09-21 | 2014-03-27 | Siemens Aktiengesellschaft | Schichtdarstellung von Volumendaten |
CN103049930B (zh) * | 2012-12-06 | 2016-07-06 | 南方医科大学 | 三维医学图像动态高斯体模型绘制方法 |
US9330485B2 (en) * | 2013-02-20 | 2016-05-03 | Kabushiki Kaisha Toshiba | Volume rendering of medical images |
GB2541084B (en) * | 2013-03-15 | 2017-05-17 | Imagination Tech Ltd | Rendering with point sampling and pre-computed light transport information |
CN103604819B (zh) * | 2013-11-25 | 2016-03-30 | 东北大学 | 一种利用双能透射及低能散射进行物质识别的装置及方法 |
US10347042B2 (en) * | 2014-03-13 | 2019-07-09 | Pixar | Importance sampling of sparse voxel octrees |
US9552663B2 (en) * | 2014-11-19 | 2017-01-24 | Contextvision Ab | Method and system for volume rendering of medical images |
US9659405B2 (en) * | 2015-04-01 | 2017-05-23 | Toshiba Medical Systems Corporation | Image processing method and apparatus |
-
2014
- 2014-09-23 EP EP14780790.3A patent/EP3178068B1/de active Active
- 2014-09-23 WO PCT/EP2014/070231 patent/WO2016045701A1/de active Application Filing
- 2014-09-23 JP JP2017516063A patent/JP6342068B2/ja active Active
- 2014-09-23 US US15/512,579 patent/US10068368B2/en active Active
- 2014-09-23 EP EP18181716.4A patent/EP3418978B1/de active Active
- 2014-09-23 CN CN201480082147.8A patent/CN107077756B/zh active Active
- 2014-09-23 KR KR1020177010960A patent/KR20170059469A/ko not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220000266A (ko) | 2020-06-25 | 2022-01-03 | 인제대학교 산학협력단 | 대기 환경 정보의 3차원 표출 최적화를 위한 장치 및 방법 |
KR20240113300A (ko) | 2023-01-13 | 2024-07-22 | 조영우 | 언리얼 엔진4와 볼륨 렌더링을 활용한 3차원 대기환경정보 가시화를 위한 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN107077756B (zh) | 2021-03-02 |
EP3178068B1 (de) | 2018-09-19 |
EP3418978A1 (de) | 2018-12-26 |
US20170294042A1 (en) | 2017-10-12 |
EP3178068A1 (de) | 2017-06-14 |
CN107077756A (zh) | 2017-08-18 |
WO2016045701A1 (de) | 2016-03-31 |
US10068368B2 (en) | 2018-09-04 |
EP3418978B1 (de) | 2021-02-03 |
JP2017534965A (ja) | 2017-11-24 |
JP6342068B2 (ja) | 2018-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170059469A (ko) | 삼차원 오브젝트를 가시화하기 위한 방법, 가시화 디바이스, 및 컴퓨터 프로그램 제품 | |
CN113781626B (zh) | 遍历在射线追踪中使用的数据的技术 | |
CN104008563B (zh) | 利用虚拟点光源实现动画三维场景的全局光照绘制的方法 | |
EP2107530B1 (en) | Rendering of subsurface scattering effects in translucent objects | |
KR20090057994A (ko) | 광선 추적 이미지 처리 시스템의 픽셀 컬러 결정 | |
KR20150108623A (ko) | 영상 처리 장치 및 방법 | |
US20090115784A1 (en) | Image processing apparatus and image processing method | |
Zhou et al. | Accurate depth of field simulation in real time | |
CN112396684A (zh) | 光线追踪方法、装置及机器可读存储介质 | |
CN107707835A (zh) | 图像处理方法及装置、电子装置和计算机可读存储介质 | |
CN111739142A (zh) | 场景渲染方法、装置、电子设备及计算机可读存储介质 | |
EP2600314A1 (en) | Simulation of three-dimensional (3d) cameras | |
US9905042B2 (en) | Method and visualization apparatus for the volumetric visualization of a three-dimensional object | |
Zhdanov et al. | Photorealistic rendering of images formed by augmented reality optical systems | |
JP7188902B2 (ja) | 情報処理システム及びプログラム | |
US10713836B2 (en) | Simulating lenses | |
Zhou | Accurate depth based post-processing for perception enhancement in real time three-dimensional graphics | |
JP7188901B2 (ja) | 情報処理システム及びプログラム | |
WO2024193219A1 (zh) | 虚拟场景的光照更新方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
CN118628633A (zh) | 高光效果的渲染方法、装置、设备、存储介质及程序产品 | |
Kinev et al. | Methods for Calculating and Visualizing the Spatial Distribution of Illumination in Three-dimensional Models of Optically Complex Scenes | |
CN117541706A (zh) | 用于光线追踪实现透明材质的实时渲染处理方法和系统 | |
JP2009265916A (ja) | センサ特性シミュレーション装置及びプログラム並びに視覚特性シミュレーション装置及びプログラム | |
Bastian et al. | Modelling the perceptual effects of lens distortion via an immersive virtual reality system | |
Sabati | Ray tracing algorithm rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |