KR20140020921A - 화상 처리 장치 및 화상 처리 방법 - Google Patents

화상 처리 장치 및 화상 처리 방법 Download PDF

Info

Publication number
KR20140020921A
KR20140020921A KR1020137024455A KR20137024455A KR20140020921A KR 20140020921 A KR20140020921 A KR 20140020921A KR 1020137024455 A KR1020137024455 A KR 1020137024455A KR 20137024455 A KR20137024455 A KR 20137024455A KR 20140020921 A KR20140020921 A KR 20140020921A
Authority
KR
South Korea
Prior art keywords
image
images
displacements
horizontal direction
composite image
Prior art date
Application number
KR1020137024455A
Other languages
English (en)
Inventor
다카후미 모리후지
마사미 오가타
요시키 오카모토
마사아키 하라
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20140020921A publication Critical patent/KR20140020921A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

정보 처리 장치 및 방법은 정보를 처리하기 위한 로직을 제공한다. 일 실시 형태에 있어서, 컴퓨터에 의해 실시되는 방법은 복수개의 화상과 연관된 공간적 위치들을 수신하는 단계를 포함한다. 이 방법은 적어도 공간적 위치들에 기초하여 서로 반대의 제1 수평 방향 및 제2 수평 방향에 있어서의 화상들의 변위들을 결정한다. 그런 다음 이 방법은 프로세서를 이용하여, 결정된 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성한다.

Description

화상 처리 장치 및 화상 처리 방법{IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD}
본 출원은 2011년 3월 28일자로 출원된 일본 특허 출원 JP2011-069311호에 기초하고 그 우선권의 혜택을 주장하며, 그 전체 내용은 본 명세서에 참조되어 포괄된다.
개시된 예시적인 실시 형태들은 화상 처리 장치 및 화상 처리 방법에 관한 것이다. 보다 구체적으로, 개시된 예시적인 실시 형태들은 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상을 처리해서 입체 화상 표시용의 좌안 화상 및 우안 화상을 생성하는 화상 처리 장치 및 화상 처리 방법에 관한 것이다.
예를 들어, 특허문헌 1에는 도 8에 도시된 바와 같이, 양안 시차(binocular disparity)를 이용한 입체 화상 표시에 관해 기재되어 있다. 도 8은 양안 시차를 이용한 입체 화상 표시에 있어서 스크린상에 오브젝트들(예를 들어, 물체들)의 좌상과 우상이 표시되는 위치들과, 그 입체 화상들이 스크린상에 재생되는 위치들 간의 관계를 나타낸다. 예를 들어, 도면에 도시된 바와 같이, 스크린상의 표시에 있어서 좌상 La가 우측으로 시프팅되고 스크린상의 표시에 있어서 우상 Ra가 좌측으로 시프팅되는 오브젝트 A에 관해서는, 좌우의 시선들이 스크린 표면보다 가까운 측에서 서로 교차하기 때문에, 그 입체 화상이 스크린 표면보다 가까운 측의 위치에서 재생된다. 참조 부호 DPa는 오브젝트 A에 대한 수평 방향의 시차 벡터를 나타낸다.
또한, 예를 들어, 도면에 도시된 바와 같이, 좌상 Lb 및 우상 Rb가 스크린 상의 동일 위치에 표시되는 오브젝트 B에 관해서는, 좌우의 시선들이 스크린 표면에서 서로 교차하기 때문에, 그 입체 화상이 스크린 표면상의 위치에서 재생된다. 또한, 예를 들어, 도면에 도시된 바와 같이, 스크린상의 표시에 있어서 좌상 Lc가 좌측으로 시프팅되고 스크린상의 표시에 있어서 우상 Rc가 우측으로 시프팅되는 오브젝트 C에 관해서는, 좌우의 시선들이 스크린 표면보다 먼 측에서 서로 교차하기 때문에, 그 입체 화상이 스크린 표면보다 먼 측의 위치에서 재생된다. 참조 부호 DPc는 오브젝트 C에 대한 수평 방향의 시차 벡터를 나타낸다.
종래에는 예를 들어, 형광 현미경(fluorescence microscope)을 이용하여 인간의 세포 등의 생체를 깊이 방향의 위치를 바꾸어서 촬상했다. 형광 현미경은 가까운 측에서 물체에 의해 차단될 일 없이, 각 깊이 방향의 위치에서 촬상하기 위해 이용될 수 있다.
형광 현미경은 예를 들어, 관찰할 세포에 형광 재료를 부착시키고, 레이저 광 등으로 형광 재료를 조사하여 형광 재료를 여기시키고, 여기 상태가 기저 상태로 복귀될 때 방사되는 광을 관찰하는 현미경이다. 여기서 그 상세한 설명은 생략하지만, 형광 현미경으로서 공초점 현미경 및 2-광자 여기 현미경이 알려져 있다.
[선행기술문헌]
[특허문헌]
[특허문헌 1] 일본 특허 출원 공개 제2005-6114호 공보
종래, 전술한 바와 같이, 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상에 대해 화소(pixel)마다 가산 및 평균 처리를 적용해서 1개의 평가용 2차원 화상을 생성하는 경우가 많았다. 도 9는 20개의 화상에 대하여 가산 및 평균 처리를 적용하여, 1개의 2차원 화상을 생성하는 예를 나타낸다. 참조 부호 "#1" 내지 "#20"은 촬상 화상을 나타내고, 참조 부호 "#1-#20"은 생성된 2차원 화상을 나타낸다. 이 경우, 복수개의 화상이 깊이 방향의 위치를 바꾸어서 촬상되고 3차원의 정보를 갖지만, 복수개의 화상은 축퇴되어(degenerated) 2차원 상태에서 평가되며, 3차원의 정보가 유효하게 활용되지 않는다.
또한, 예를 들어, 종래 기술에서 입체 효과를 달성하기 위해, 시점을 변화시켜서 이동시키거나, 또는 계층 관계를 강조하기 위해 해칭(hatching)을 행한다. 그러나, 시점을 변화시켜서 이동시킬 때에는 유저의 시선을 반사하는 조작을 행할 필요가 있기 때문에, 평가에 집중할 수 없다는 단점이 있다. 또한, 계층 관계를 강조하는 해칭은 입체 효과를 달성하기에 불충분하다.
개시된 예시적인 실시 형태들은 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상과 연관된 3차원 정보를 유효하게 활용할 수 있어서, 충분한 입체 효과를 갖는 화상의 표시를 가능하게 한다.
예시적인 실시 형태에 따르면, 컴퓨터에 의해 실시되는 방법은 복수개의 화상과 연관된 데이터를 수신한다. 데이터는 화상들의 공간적 위치들을 특정한다. 이 방법은 적어도 공간적 위치들에 기초하여 제1 수평 방향 및 제2 수평 방향에 있어서의 화상들의 변위들을 결정하는 단계를 포함한다. 제1 수평 방향은 제2 수평 방향과 반대이다. 이 방법은 프로세서를 이용하여, 결정된 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성하는 단계를 포함한다.
다른 예시적인 실시 형태에 따르면, 정보 처리 장치는 복수개의 화상과 연관된 데이터를 수신하도록 구성된 수신 유닛을 포함한다. 데이터는 화상들의 공간적 위치들을 특정한다. 결정부는 적어도 공간적 위치들에 기초하여 제1 수평 방향 및 제2 수평 방향에 있어서 화상들의 변위들을 결정하도록 구성된다. 제1 수평 방향은 제2 수평 방향과 반대이다. 생성부는 결정된 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성하도록 구성된다.
다른 예시적인 실시 형태에 따르면, 유형의, 비-일시적 컴퓨터 판독가능 매체는 적어도 하나의 프로세서에 의해 실행될 때, 복수개의 화상과 연관된 데이터를 수신하는 단계를 포함하는 방법을 프로세서에 실행시키는 명령어들을 저장한다. 데이터는 화상들의 공간적 위치들을 특정한다. 이 방법은 적어도 공간적 위치들에 기초하여 제1 수평 방향 및 제2 수평 방향에 있어서 화상들의 변위들을 결정하는 단계를 포함한다. 제1 수평 방향은 제2 수평 방향과 반대이다. 이 방법은 프로세서를 이용하여, 결정된 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성하는 단계를 포함한다.
개시된 예시적인 실시 형태에 따르면, 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상에 대한 3차원 정보를 유효하게 활용할 수 있어서, 충분한 입체 효과를 갖는 화상의 표시가 가능하게 한다.
도 1은 예시적인 제1 실시 형태에 따른, 화상 처리 장치의 구성의 예를 도시하는 블록도이다.
도 2는 개시된 예시적인 실시 형태들에 따른, 화상 생성부에 있어서의 화상의 시프팅 처리와 가산 및 평균 처리를 설명하기 위한 도면이다.
도 3은 개시된 예시적인 실시 형태들에 따른, 실제 공간에서 촬상된 화상에 있어서의 수평 크기, 수직 크기, 및 깊이 거리와, 3D 모니터 표시상에 있어서의 수평 크기, 수직 크기, 및 깊이의 예를 나타내는 도면이다.
도 4는 개시된 예시적인 실시 형태들에 따른, 화상의 깊이 방향의 위치와 시프트 양 간의 (선형적 및 비선형적) 관계를 설명하기 위한 도면들을 포함한다.
도 5는 제2 실시 형태에 따른, 화상 처리 장치의 구성의 예를 도시하는 블록도이다.
도 6은 개시된 예시적인 실시 형태들에 따른, 화상 생성부에 있어서의 은면 제거를 설명하기 위한 도면들을 포함한다.
도 7은 개시된 예시적인 실시 형태들에 따른, 가장 가까운 화상만이 유효 영역을 가질 때의 은면 제거를 설명하기 위한 도면이다.
도 8은 양안 시차를 이용한 입체 화상 표시에 있어서, 스크린상에 오브젝트들의 좌상 및 우상이 표시되는 위치들과, 스크린상에 그들의 입체 화상들이 재생되는 위치 간의 관계를 설명하기 위한 도면이다.
도 9는 종래 기술에 있어서 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상에 대해 화소마다 가산 및 평균 처리를 행하여 1개의 2차원 화상을 생성하는 처리를 설명하기 위한 도면이다.
도 10은 개시된 예시적인 실시 형태들에 따른, 예시적인 컴퓨터 시스템의 도면이다.
이하, 본 개시의 예시적인 실시 형태들에 대해 설명한다. 여기서, 설명은 하기의 순서로 행한다.
1. 제1 실시 형태
2. 제2 실시 형태
3. 변형예, 및
4. 예시적인 컴퓨터 시스템
1. 제1 실시 형태
a. 화상 처리 장치의 구성
도 1은 제1 실시 형태에 따른 화상 처리 장치(100)의 구성의 예를 나타낸다. 이 화상 처리 장치(100)는 화상 생성부(101), 시프트 양 결정부(102), 및 화질 조정부(103)를 포함한다. 이 화상 처리 장치(100)는 대응하는 수신부에서 수신되고, 깊이 방향의 위치를 바꾸어서 촬상된 복수개(예를 들면, N개)의 화상(예를 들면, 형광 현미경 화상)에 기초하여 입체 화상을 표시하기 위한 좌안 화상 및 우안 화상을 생성한다.
화상 생성부(101)는 기준 위치의 화상을 기준으로 하여 복수개의 화상(화상 데이터)을 그들의 깊이 방향의 위치들에 따라 반대 방향들로 시프팅하는 처리를 행하여, 시차가 부여된 좌안 화상군(group of left-eye images)과 우안 화상군(group of right-eye images)을 생성한다. 그리고, 화상 생성부(101)는 각 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행하여, 좌안 화상 SL 및 우안 화상 SR을 생성한다.
도 2는 개시된 실시 형태에 따른, 화상 생성부(101)의 처리의 예를 나타낸다. 이 처리의 예에서는, 깊이 방향에서 등간격으로 순차적으로 위치를 바꾸어서 촬상된 8개의 화상 #1 내지 #8을 처리하며, 화상 #4를 기준 위치의 화상으로서 이용한다.
화상 생성부(101)는 기준 위치의 화상(화상 #4)을 기준으로 하여 8개의 화상을 그들의 깊이 방향의 위치들에 따라 수평 방향으로 시프팅하는 처리를 행하여, 좌안 화상군을 구성하는 복수개의 화상을 생성한다. 구체적으로, 화상 생성부(101)는 기준 위치의 화상을 기준으로 하여 가까운 측의 화상들(화상 #3 내지 #1)을 그들의 깊이 방향의 위치들에 따라 일 수평 방향으로 순차적으로 시프팅하고, 기준 위치의 화상을 기준으로 하여 먼 측의 화상들(화상 #5 내지 #8)을 그들의 깊이 방향의 위치들에 따라 다른 수평 방향으로 순차적으로 시프팅한다.
이 경우, 화상 생성부(101)는 기준 위치의 화상(화상 #4)을 기준으로 하여 가까운 측의 화상들을 수평 방향으로 "+d'"만큼 순차적으로 시프팅한다. 이에 의해, 기준 위치의 화상(화상 #4)을 기준으로 하여 가장 가까운 화상(화상 #1)은 수평 방향으로 "+3d'"만큼 시프팅된다. 또한, 이 경우, 화상 생성부(101)는 기준 위치의 화상(화상 #4)을 기준으로 하여 먼 측의 화상들을 수평 방향으로 "-d'"만큼 순차적으로 시프팅한다. 이에 의해, 기준 위치의 화상(화상 #4)을 기준으로 하여 가장 먼 화상(화상 #8)은 수평 방향으로 "-4d'"만큼 시프팅된다. 여기서, "d'"는 후술하는 바와 같이, 시프트 양 결정부(102)에 의해 촬상 조건 및 표시 조건에 기초하여 결정되는 시프트 양을 나타낸다.
그리고, 화상 생성부(101)는 시프팅 처리가 행해진 좌안 화상군을 구성하는 복수개의 화상들(화상 #1 내지 #8)에 대하여, 각 화소 위치마다 화소들(화소 데이터)의 가산 및 평균 처리를 행하여, 좌안 화상 SL(#1-#8)을 생성한다. 이 경우, 시프팅 처리가 행해지기 때문에, 화소 위치에 따라 가산 및 평균 처리의 대상으로 되는 화소수는 1개 내지 8개 중 임의의 것이 된다.
또한, 화상 생성부(101)는 기준 위치의 화상(화상 #4)을 기준으로 하여 8개의 화상을 그들의 깊이 방향의 위치들에 따라 수평 방향으로 시프팅하는 처리를 행하여, 우안 화상군을 구성하는 복수개의 화상을 생성한다. 구체적으로, 화상 생성부(101)는 기준 위치의 화상을 기준으로 하여 가까운 측의 화상들(화상 #3 내지 #1)을 그들의 깊이 방향의 위치들에 따라 다른 수평 방향으로 순차적으로 시프팅하고, 기준 위치의 화상을 기준으로 하여 먼 측의 화상들(화상 #5 내지 #8)을 깊이 방향의 위치들에 따라 일 수평 방향으로 순차적으로 시프팅한다. 이 시프팅 처리는 전술한 좌안 화상군을 구성하는 복수개의 화상을 생성하는 경우의 것과는 반대 방향으로 대칭적인 시프팅을 행하는 처리이다.
이 경우, 화상 생성부(101)는 기준 위치의 화상(화상 #4)을 기준으로 하여 가까운 측의 화상들을 수평 방향으로 "-d'"만큼 순차적으로 시프팅한다. 이에 의해, 기준 위치의 화상(화상 #4)을 기준으로 하여 가장 가까운 화상(화상 #1)은 수평 방향으로 "-3d'"만큼 시프팅된다. 또한, 이 경우, 화상 생성부(101)는 기준 위치의 화상(화상 #4)을 기준으로 하여 먼 측의 화상들을 수평 방향으로 "+d'"만큼 순차적으로 시프팅한다. 이에 의해, 기준 위치의 화상(화상 #4)을 기준으로 하여 가장 먼 화상(화상 #8)은 수평 방향으로 "+4d'"만큼 시프팅된다.
그리고, 화상 생성부(101)는 시프팅 처리가 행해진 우안 화상군을 구성하는 복수개의 화상들(화상 #1 내지 #8)에 대하여, 각 화소 위치마다 화소들(화소 데이터)의 가산 및 평균 처리를 행하여, 우안 화상 SR(#1-#8)을 생성한다. 이 경우, 시프팅 처리가 행해지기 때문에, 화소 위치에 따라, 가산 및 평균 처리의 대상으로 되는 화소수는 1개 내지 8개 중 임의의 것이 된다.
도 1을 다시 참조하면, 시프트 양 결정부(102)는 촬상 조건 및 표시 조건에 기초하여 시프트 양 d를 결정한다. 이제 시프트 양 결정부(102)에서 시프트 양 d'을 결정하는 방법을 상세하게 설명한다. 여기서, 도 3은 실제 공간에서 촬상된 화상에 있어서의 수평 크기, 수직 크기, 및 깊이 거리(depth distance)와, 3D 모니터 표시상에 있어서의 수평 크기, 수직 크기, 및 깊이의 예를 나타낸다.
촬상 화상의 도트 피치(dot pitch)를 dps[m]로 나타낸다고 하면, 촬상 화상에서의 깊이 거리는 Zs[pixel]=Zs[m]/dps에 의해 계산된다. 한편, 입체 표시시에 재현되는 깊이 Ld[m]는 Ld=Ls*de/(de+d)에 의해 계산된다. 여기서, Ls는 시청 거리를 나타내고, de는 좌안과 우안의 간격을 나타내고, d는 시차(가까운 측의 값들이 포지티브 값들로서 정의됨)를 나타낸다. 촬상 화상을 표시할 때의 화각(angle of view)에 따라 입체 화상을 생성하기 위해, d는 Zs와 같은 값으로 설정된다.
여기서, 가장 가까운 타겟 화상의 시차를 dmax로 나타내고, 가장 먼 타겟 화상의 시차를 dmin으로 나타낸다고 하면, 다음의 수학식 (1)이 성립한다.
Figure pct00001
여기서, dpd는 디스플레이의 도트 피치를 나타낸다. dmax와 dmin 간의 차인 델타-d는 수학식 (1)로부터 다음의 수학식 (2)로 표현되고, 델타-d는 수학식 (3)에 따라 화소값으로 표현된다.
Figure pct00002
Figure pct00003
시프트 양 d'[pixel]은 수학식 (3)으로부터 수학식 (4)로 표현되고, 여기서, N은 촬상된 화상의 개수를 나타낸다.
Figure pct00004
여기서, 수학식 (5)는 수학식 (4)에 수학식 (3)을 대입하고, 스케일링 파라미터 s(통상적으로 1임)를 추가한 것이다.
Figure pct00005
여기서, 모든 파라미터가 얻어지지 않는 경우, 파라미터들은 미리 다음과 같이 설정될 수 있다.
(1) 디스플레이는 46V-크기의 1,920*1,080의 패널이고, 도트 피치 dpd는 0.053m이다.
(2) 시청 거리 Ls는 3H(디스플레이의 높이의 3배)이다.
(3) 좌안과 우안의 간격 de는 6.5cm이다.
또한, d'은 적절히 상수 배로 될 수 있다. 이 경우, 스케일링 파라미터 s가 조정된다. 또한, 델타-d가 쾌적한 시차 범위를 초과하면, d'을 축소하여, d'을 쾌적한 시차 범위 내로 맞춘다. 이 경우, 스케일링 파라미터 s가 조정된다. 본 명세서에서는 상기의 계산의 상세 설명을 생략하지만, 쾌적한 시차 범위는 예를 들면, 가정된 시청 거리 또는 스크린 크기로부터 계산될 수 있다. 예를 들어, 46V-크기 TV로 쾌적한 시청이 실현되는 범위는 시청 거리 1.7m에서 깊이가 0.5m(가까운 측) 내지 1.5m(먼 측)이며, 시차로 치환하면 -56 화소(가까운 측) 내지 55 화소(먼 측)로 표현된다.
또한, 상기의 설명에서, 화상들의 깊이 방향의 위치들과 시프트 양들 간의 관계는 도 4에 도시된 바와 같이 선형적으로 설정된다. 따라서, 깊이 방향으로 등간격으로 순차 위치를 바꾸어서 촬상된 8개의 화상 #1 내지 #8을 시프트 양 d'만큼 순차적으로 시프팅하는 처리를 행한다. 이 경우, 각 화상에 부여되는 시차는 델타-d를 등분함으로써 계산된다.
그러나, 화상들의 깊이 방향의 위치들과 시프트 양들 간의 관계는 도 4의 (b)에 도시된 바와 같이 비선형적으로 설정될 수 있다. 이 경우, 각 화상에 부여되는 시차는 델타-d를 비선형적으로 나눔으로써 계산된다. 시차와 깊이 간의 관계는 원래 비선형적이기 때문에, 상기와 같은 방식으로 화상들의 깊이 방향의 위치들과 시프트 양들 간의 관계를 비선형적으로 설정함으로써, 적절하게 깊이를 재현할 수 있게 된다.
도 1을 다시 참조하면, 화질 조정부(103)는 화상 생성부(101)에서 생성된 좌안 화상 SL 및 우안 화상 SR에 대하여, 콘트라스트 조정 등의 화질 조정을 행하여, 화질 조정된 좌안 화상 SL' 및 우안 화상 SR'을 출력한다. 이 경우, 예를 들어, 화상 생성부(101)에서 생성된 각 화상의 다이내믹 레인지를 확장함으로써, 어두운 화상을 밝은 화상으로 조정하여, 화상을 보기 쉽게 하는 것이 가능하게 된다.
도 1에 도시된 화상 처리 장치(100)의 동작을 설명한다. 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상(화상 데이터)은 화상 생성부(101)에 제공된다. 또한, 시프트 양 결정부(102)에는, 촬상된 화상들의 도트 피치 및 촬상된 화상들의 깊이 거리 등의 촬상 조건, 및 시청 거리 및 좌안과 우안의 간격 등의 표시 조건을 나타내는 파라미터들이 제공된다. 그리고, 시프트 양 결정부(102)에서는, 예를 들어, 수학식 (5)에 기초하여 시프트 양 d'이 결정된다. 이 시프트 양 d'은 화상 생성부(101)에 있어서 각 화상을 시프팅하는 처리에 이용된다.
화상 생성부(101)에서는, 기준 위치의 화상을 기준으로 하여 복수개(n개)의 화상을 그들의 깊이 방향의 위치들에 따라 반대 방향들로 시프팅하는 처리가 행해져서, 시차가 부여된 좌안 화상군 및 우안 화상군이 생성된다. 그리고, 화상 생성부(101)에서는, 각 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리가 행해져서, 좌안 화상 SL 및 우안 화상 SR이 생성된다.
화상 생성부(101)에서 생성된 좌안 화상 SL 및 우안 화상 SR은 화질 조정부(103)에 제공된다. 화질 조정부(103)에서는, 좌안 화상 SL 및 우안 화상 SR에 대하여 콘트라스트 조정 등의 화질 조정이 행해진다. 예를 들어, 화상 생성부(101)에서 생성된 각 화상의 다이내믹 레인지가 확장되어, 어두운 화상이 밝은 화상으로 조정된다. 그리고, 화질 조정부(103)로부터 화질 조정된 좌안 화상 SL' 및 우안 화상 SR'이 출력된다.
전술한 바와 같이, 도 1에 도시된 화상 처리 장치(100)에 있어서, 화상 생성부(101)에서는 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상에 기초하여 시차가 부여된 좌안 화상 SL 및 우안 화상 SR이 생성된다. 특히, 화상 생성부(101)에서는, 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상을, 기준 위치의 화상을 기준으로 하여 그들의 깊이 방향의 위치들에 따라 반대 방향들로 시프팅하는 처리가 행해져서, 시차가 부여된 좌안 화상군 및 우안 화상군이 생성된다.
그리고, 이 화상 생성부(101)에서는, 각 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리가 행해져서 좌안 화상 SL 및 우안 화상 SR이 생성된다. 이에 따라, 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상에 대한 3차원 정보가 유효하게 활용되어, 시차가 부여된 좌안 화상 SL과 우안 화상 SR이 생성됨으로써, 충분한 입체 효과를 갖는 화상의 표시가 가능하게 된다.
또한, 도 1에 도시된 화상 처리 장치(100)에 있어서, 화상 생성부(101)에서 생성된 좌안 화상 SL 및 우안 화상 SR은 화질 조정부(103)에 제공되어, 콘트라스트 조정 등의 화질 조정이 행해진다. 따라서, 예를 들어, 화상 생성부(101)에서 생성된 각 화상 SL 및 SR의 다이내믹 레인지를 확장하여, 어두운 화상을 밝은 화상으로 조정함으로써, 입체 화상을 보기 쉽게 할 수 있다.
2. 제2 실시 형태
a. 화상 처리 장치의 구성의 예
도 5는 제2 실시 형태에 따른 화상 처리 장치(100A)의 구성의 예를 나타낸다. 이 화상 처리 장치(100A)는 화상 생성부(101A), 시프트 양 결정부(102), 및 화질 조정부(103)를 포함한다. 도 5에 있어서, 도 1과 대응하는 컴포넌트들을 식별하기 위해 동일한 참조 부호를 이용한다. 그러한 컴포넌트들에 대한 상세한 설명은 본 명세서에서 적절히 생략한다.
이 화상 처리 장치(100A)는 도 1에 도시된 화상 처리 장치(100)와 마찬가지로, 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상에 기초하여 입체 화상을 표시하기 위한 좌안 화상 및 우안 화상을 생성한다. 그러나, 이 화상 처리 장치(100A)에서는, 화상 생성부(101A)에서 은면 제거(hidden surface elimination)가 행해지기 때문에, 복수개(n개) 화상으로서, 예를 들어, 형광 현미경 화상 대신에, 각 깊이 방향의 위치의 화상이, 가까운 측의 물체가 뜻밖에 나타나도록 처리될 수 있다.
화상 생성부(101A)는 기준 위치의 화상을 기준으로 하여 복수개(n개)의 화상을 그들의 깊이 방향의 위치들에 따라 반대 방향들로 시프팅하는 처리를 행하여, 시차가 부여된 좌안 화상군과 우안 화상군을 생성한다. 그리고, 화상 생성부(101A)는 각 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행하여, 좌안 화상 SL 및 우안 화상 SR을 생성한다. 이 처리는 도 1에 도시된 화상 처리 장치(100)에 있어서의 화상 생성부(101)의 처리와 마찬가지이다.
화상 생성부(101A)는 화상 생성부(101)와는 달리, 각 화상군에 대하여 가산 및 평균 처리를 행할 때, 유효 영역의 정보에 기초하여 은면 제거를 행한다. 여기서, 유효 영역은 각 화상이 촬상되는 위치에 실제로 존재하는 물체의 영역을 나타낸다. 예를 들어, 유효 영역의 정보는 유저에 의해 수동으로 제공될 수 있다. 대안적으로, 예를 들어, 유효 영역의 정보에 대해서는, 예를 들어, 화상 생성부(101A)에서, 공간 주파수가 높은 부분 또는 공간 주파수가 낮은 부분이 추출될 수 있고, 추출된 부분은 유효 영역으로서 이용될 수 있다. 또한, 도 5에 있어서는, 유효 영역의 정보가 화상 생성부(101A)의 외부로부터 제공된다.
이제 은면 제거에 대해서 설명한다. 도 6의 (a)는 개시된 실시 형태들에 따라, 은면 제거를 행하지 않는 경우를 나타낸다. 이 경우, 각 화소 위치에 있어서 축적 가중치는 "1/화소수"이다. 예를 들어, 8개의 화상이 서로 겹쳐지는 화소 위치들에 있어서 그 축적 가중치는 1/8이다. 한편, 도 6의 (b)는 개시된 실시 형태들에 따라 은면 제거를 행하는 경우를 나타낸다. 이 경우, 유효 영역이 없는 각 화소 위치에서의 축적 가중치는 "1/화소수"이다. 그러나, 유효 영역 내의 축적 가중치는 1이고, 가까운 측의 화상의 유효 영역의 은면에 해당하는 부분에서 먼 측의 화상의 축적 가중치는 0이다. 여기서, 은면 제거는 도 6의 (b)에 나타낸 방법에 한정되지 않는다.
도 7은 개시된 실시 형태에 따라, 가장 가까운 화상(화상 #1)만 유효 영역을 가질 경우의 은면 제거를 나타낸다. 여기서, 도 7에는 도면의 간단화를 위해서, 좌안 화상 SL의 처리에 대해서만 나타낸다. 이 경우, 화상 #1의 유효 영역 내의 각 화소 위치에 있어서, 화상 #1의 화소는 그대로 좌안 화상 SL(#1-#8)의 화소로서 이용된다. 이와 대조적으로, 화상 #1의 유효 영역 외부의 각 화소 위치에 있어서, 각 화상의 화소들은 가산 및 평균 처리가 행해져서 그 결과가 좌안 화상 SL(#1-#8)로서 이용된다.
도 5에 도시된 화상 처리 장치(100A)의 나머지 구성은 도 1에 도시된 화상 처리 장치(100)의 구성과 마찬가지이며, 도 5에 도시된 화상 처리 장치(100A)는 도 1에 도시된 화상 처리 장치(100)와 마찬가지로 동작한다.
도 5에 도시된 화상 처리 장치(100A)는 도 1에 도시된 화상 처리 장치(100)와 마찬가지의 장점을 갖는다. 또한, 도 5에 도시된 화상 처리 장치(100A)에 있어서는, 화상 생성부(101A)에서, 좌안 화상군 및 우안 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행함으로써 좌안 화상 SL 및 우안 화상 SR을 생성할 때, 은면 제거가 행해진다 (도 6의 (b)를 참조). 따라서, 복수개(n개) 화상으로서, 형광 현미경 화상이 대신에, 각 깊이 방향의 위치의 화상이, 가까운 측에서 물체가 뜻밖에 나타나도록 처리될 수 있다. 즉, 각 화상에 대한 잘못된 3차원 정보를 이용하는 일 없이 좌안 화상 SL 및 우안 화상 SR을 생성하기 위해 은면 제거를 실시할 수 있다.
3. 변형예
전술한 실시 형태들에 있어서는, 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상이 형광 현미경 등의 현미경에 의해 촬상된 화상들이다. 그러나, 본 기술은 그 외의 깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상을 처리하여 입체 화상 표시용의 좌안 화상 및 우안 화상을 생성하는 경우에도 적용될 수 있다.
4. 예시적인 컴퓨터 시스템
실시 형태에 있어서, 전술한 장치의 기능들, 및 그 장치와 연관된 각종 부분들은 예를 들어, 도 10에 도시된 컴퓨터 시스템(1000)을 이용하여 달성될 수 있다. 또한, 추가의 실시 형태에 있어서, 구성 요소들, 섹션들, 및 부분들 중 하나 이상의 기능들은 유형의, 비-일시적 컴퓨터 판독가능 저장 매체(tangible, non-transitory computer-readable storage medium)에 저장된 명령어들을 이용하여 컴퓨터 시스템(1000)을 제어함으로써 달성될 수 있다. 그러한 실시 형태들에 있어서, 컴퓨터 시스템(1000)의 예들로서는 퍼스널 컴퓨터, 랩탑 컴퓨터, 태블릿 컴퓨터, 모바일 폰, 스마트 폰, 휴대 정보 단말기(personal digital assistance: PDA), 모바일 정보 단말기, 및/또는 모바일 게임 콘솔을 포함하지만, 그것에 한정되지 않는다.
도 10에 도시된 바와 같이, 컴퓨터 시스템(1000)은 중앙 처리 장치(central processing unit: CPU)(1002), 호스트 버스(1008), 브릿지(1010), 및 유형의 컴퓨터 판독가능 저장 매체를 포함하며, 그러한 저장 매체의 예로서는 판독 전용 메모리(read only memory: ROM)(1004) 및 랜덤 액세스 메모리(random access memory: RAM)(1006)를 포함한다. 또한, 컴퓨터 시스템(1000)은 외부 버스(1012), 인터페이스(1014), 입력부(1016), 출력부(1018), 저장부(1020), 드라이브(1022), 연결 포트(1024), 및 통신부(1026)를 포함한다.
CPU(1002)는 예를 들어, 연산 처리부 또는 제어부로서 기능할 수 있고, ROM(1004), RAM(1006), 저장부(1020), 또는 착탈가능식 기록 매체(1028)에 저장된 각종 명령어들에 기초하여 각 구성 요소의 동작의 일부 또는 전체 동작을 제어한다. ROM(1004)은 예를 들면, CPU(1002)에 로딩될 명령어들 또는 연산 동작에 이용되는 데이터 등을 저장하도록 구성될 수 있다. RAM(1006)은 예를 들어, CPU(1002)에 로딩될 명령어들 또는 프로그램의 실행 중에 임의적으로 변화되는 각종 파라미터들을 일시적으로 또는 영구적으로 저장한다.
이러한 구성 요소들은 예를 들어, 고속 데이터 전송을 수행할 수 있는 호스트 버스(1008)에 의해 서로 연결된다. 호스트 버스(1008)는 브릿지(1010)를 통해 외부 버스(1012)에 연결되는데, 예를 들어, 외부 버스의 데이터 전송 속도는 상대적으로 낮다. 또한, 입력부(1016)는 예를 들어, 마우스, 키보드, 터치 패널, 버튼, 스위치, 또는 레버를 포함할 수 있다. 또한, 입력부(1016)는 적외선 또는 다른 무선 전파를 이용하여 제어 신호를 전송할 수 있는 리모트 콘트롤일 수 있다.
출력부(1018)는 디스플레이 장치일 수 있지만, 이것에 한정되지 않으며, 디스플레이 장치는 음극선관(cathode ray tube: CRT), 액정 디스플레이(liquid crystal display: LCD), 플라즈마 디스플레이 패널(plasma display panel: PDP), 전기 발광 디스플레이(electro-luminescence display: ELD), 오디오 출력 장치(예를 들어, 스피커 또는 헤드폰), 프린터, 모바일 폰, 및/또는 팩시밀리를 포함하는데, 이들은 취득한 정보에 대한 시각적 또는 청각적 통지를 유저에게 제공할 수 있다.
저장부(1020)는 각종 데이터를 저장하기 위한 유형의, 비-일시적 컴퓨터 판독가능 저장 매체 또는 장치의 예이다. 저장부(1020)는 예를 들어, 하드 디스크 드라이브(hard disk drive: HDD), 반도체 저장 장치, 광학식 저장 장치, 광-자기 저장 장치 등의 자기 저장 장치를 포함할 수 있다.
드라이브(1022)는 자기 디스크, 광 디스크, 광-자기 디스크, 또는 반도체 메모리 등의 착탈가능식 기록 매체(1028)에 기록된 정보를 판독하거나, 또는 착탈가능식 기록 매체(1028)에 정보를 기록하는 장치이다. 착탈식 기록 매체(1028)는 예를 들어, DVD 매체, 블루-레이 매체(Blu-ray medium), HD-DVD 매체, 또는 각종 타입의 반도체 저장 매체 등의, 유형의, 비-일시적 저장 매체의 다른 예이다. 착탈가능식 기록 매체(1028)는 예를 들어, 전자 장치 또는 IC 카드일 수 있는데, 거기에는 비접촉식 IC 칩이 장착된다. IC는 집적 회로(Integrated Circuit)의 약어이다.
연결 포트(1024)는 USB 포트, IEEE1394 포트, SCSI, RS-232C 포트, 또는 광학 오디오 단자 등의 외부 연결 장치(1030)를 연결하기 위한 포트를 포함하는 포트일 수 있지만, 그것에 한정되지 않는다. 외부 연결 장치(1030)는 예를 들어, 프린터, 모바일 뮤직 플레이어, 디지털 카메라, 디지털 비디오 카메라, 또는 IC 레코더일 수 있다.
통신부(1026)는 네트워크(1032)에 연결되는 통신 장치이고, 예를 들어, 유선 또는 무선 LAN을 위한 통신 카드, 블루투스(Bluetooth), 또는 무선 USB, 광 통신 라우터, ADSL 라우터, 또는 각종 통신을 위한 모뎀이다. 통신부(1026)에 연결된 네트워크(1032)는 유선-연결된 또는 무선-연결된 네트워크로 구성되고, 예를 들어, 인터넷, 가정용 LAN, 적외선 통신, 가시광 통신, 방송, 또는 위성 통신이다.
당업자는 첨부된 특허청구범위 또는 그 균등물의 범위 내에 들어오는 한, 설계 요건 및 다른 요인에 따라 다양한 변형, 조합, 서브-조합, 및 변경이 이루어질 수 있다는 것을 이해할 것이다.
본 개시는 다음의 구성을 취할 수도 있다는 것을 유의한다.
(1) 화상 처리 장치로서,
깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상을 처리하여 좌안 화상 및 우안 화상을 생성하는 화상 생성부를 포함하고,
상기 화상 생성부는,
기준 위치의 화상을 기준으로 하여 복수개의 화상을 그들의 깊이 방향의 위치들에 따라 반대 방향들로 시프팅하는 처리를 행하여 시차가 부여된 좌안 화상군 및 우안 화상군을 생성하고, 각 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행하여 좌안 화상 및 우안 화상을 생성하는, 화상 처리 장치.
(2) (1)에 있어서,
상기 화상 생성부는,
상기 복수개의 화상 중에서, 기준 위치의 화상을 기준으로 하여 기준 위치보다 가까운 측의 화상들을 그들의 깊이 방향의 위치들에 따라 일 수평 방향으로 순차적으로 시프팅하고, 복수개의 화상 중에서, 기준 위치의 화상을 기준으로 하여 기준 위치보다 먼 측의 화상들을 그들의 깊이 방향의 위치들에 따라 다른 수평 방향으로 시프팅하는 처리를 행하여 좌안 화상군을 구성하는 복수개의 화상을 생성하고, 그 복수개의 화상에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행하여 좌안 화상을 생성하고,
상기 복수개의 화상 중에서, 기준 위치의 화상을 기준으로 하여 기준 위치보다 가까운 측의 화상들을 그들의 깊이 방향의 위치들에 따라 다른 수평 방향으로 순차적으로 시프팅하고, 복수개의 화상 중에서, 기준 위치의 화상을 기준으로 하여 기준 위치보다 먼 측의 화상들을 그들의 깊이 방향의 위치들에 따라 일 수평 방향으로 시프팅하는 처리를 행하여 우안 화상군을 구성하는 복수개의 화상을 생성하고, 복수개의 화상에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행하여 우안 화상을 생성하는, 화상 처리 장치.
(3) (1)에 있어서,
상기 화상들의 깊이 방향의 위치들과 시프트 양들 간의 관계는 선형적으로 설정되는, 화상 처리 장치.
(4) (1)에 있어서,
상기 화상 생성부는 각 화상군에 대하여 가산 및 평균 처리를 행할 때 은면 제거를 행하는, 화상 처리 장치.
(5) (1)에 있어서,
상기 화상 생성부에서 생성된 각 화상들에 대해 적어도 콘트라스트 조정을 행하는 화질 조정부를 더 포함하는, 화상 처리 장치.
(6) (1)에 있어서,
상기 깊이 방향의 위치들을 바꾸어서 촬상된 복수개의 화상은 형광 현미경 화상들인, 화상 처리 장치.
(7) 화상 처리 방법으로서,
깊이 방향의 위치를 바꾸어서 촬상된 복수개의 화상을, 기준 위치의 화상을 기준으로 하여 그들의 깊이 방향의 위치들에 따라 반대 방향들로 시프팅하는 처리를 실행하여, 시차가 부여된 좌안 화상군 및 우안 화상군을 생성하는 제1 단계, 및
상기 제1 단계에서 생성된 각 화상군에 대하여 각 화소 위치마다 화소들의 가산 및 평균 처리를 행하여 좌안 화상 및 우안 화상을 생성하는 제2 단계를 포함하는, 화상 처리 방법.
100, 100A: 화상 처리 장치
101, 101A: 화상 생성부
102: 시프트 양 결정부
103: 화질 조정부

Claims (20)

  1. 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법으로서,
    복수개의 화상과 연관된 데이터를 수신하는 단계 -상기 데이터는 화상들의 공간적 위치들을 특정함-,
    적어도 상기 공간적 위치들에 기초하여 제1 수평 방향 및 제2 수평 방향에 있어서의 화상들의 변위들을 결정하는 단계 -상기 제1 수평 방향은 상기 제2 수평 방향과 반대임-, 및
    프로세서를 이용하여, 결정된 상기 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성하는 단계를 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  2. 제1항에 있어서,
    상기 제1 합성 화상의 제1 눈에의 투영 및 상기 제2 합성 화상의 제2 눈에의 투영에 기초하여, 유저에 의한 감지를 위해 입체 화상을 생성하는 단계를 더 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  3. 제2항에 있어서,
    상기 제1 눈은 인간의 좌안에 해당하고, 상기 제2 눈은 인간의 우안에 해당하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  4. 제2항에 있어서,
    상기 입체 화상은 형광 현미경을 통해 감지될 수 있는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  5. 제1항에 있어서,
    수신된 상기 데이터에 기초하여 화상들 중 하나를 기준 화상으로서 식별하는 단계를 더 포함하고, 상기 기준 화상은 대응하는 공간적 기준 위치와 연관되는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  6. 제5항에 있어서,
    상기 결정하는 단계는,
    수직 방향에 있어서 상기 기준 화상으로부터 상기 화상들 중 대응하는 화상들의 이격 거리들을 결정하는 단계, 및
    화상들에 대해, 적어도 대응하는 상기 이격 거리들의 값들에 기초하여 상기 변위들의 크기들을 계산하는 단계를 더 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  7. 제6항에 있어서,
    상기 결정하는 단계는 촬상 조건 또는 표시 조건 중 적어도 하나를 획득하는 단계를 더 포함하고,
    상기 계산하는 단계는 획득된 정보에 기초하여 화상들에 대한 상기 변위들의 크기들을 계산하는 단계를 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  8. 제6항에 있어서,
    화상들 중 적어도 하나의 화상에 대한 상기 변위의 크기는 대응하는 상기 이격 거리의 값에 정비례하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  9. 제6항에 있어서,
    화상들 중 적어도 하나의 화상에 대한 상기 변위의 크기는 대응하는 이격 거리의 값과 비선형적인 관계에 따라 연관되는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  10. 제6항에 있어서,
    상기 결정하는 단계는,
    화상들 중 적어도 하나의 화상에 대해, 계산된 상기 변위의 크기가 임계값을 초과하는지 여부를 결정하는 단계, 및
    상기 변위의 크기가 상기 임계값을 초과할 때, 상기 변위의 변경된 크기를 산출하는 단계를 더 포함하고, 상기 변경된 크기는 상기 계산된 크기보다 작은, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  11. 제6항에 있어서,
    상기 결정하는 단계는,
    화상들에 대한 제1 변위들의 세트 및 화상들에 대한 제2 변위들의 세트를 결정하는 단계를 더 포함하고, 상기 제1 변위들의 세트는 상기 제1 합성 화상에 대응하고, 상기 제2 변위들의 세트는 상기 제2 합성 화상에 대응하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  12. 제11항에 있어서,
    상기 제1 변위들의 세트 및 상기 제2 변위들의 세트는 대응하는 상기 변위들의 크기들과 연관되는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  13. 제11항에 있어서,
    상기 제1 변위들의 세트를 결정하는 단계는,
    화상들 중 대응하는 하나의 화상이 상기 수직 방향에 있어서 상기 기준 화상 상방에 배치되는지 여부를 결정하는 단계,
    상기 대응하는 화상이 상기 수직 방향에 있어서 상기 기준 화상 상방에 배치될 때, 상기 대응하는 화상의 상기 제1 변위를 상기 제1 수평 방향과 연관시키는 단계, 및
    상기 대응하는 화상이 상기 수직 방향에 있어서 상기 기준 화상 상방에 배치될 때, 상기 대응하는 화상의 상기 제1 변위를 상기 제2 수평 방향과 연관시키는 단계를 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  14. 제11항에 있어서,
    상기 제2 변위들의 세트를 결정하는 단계는,
    화상들 중 대응하는 하나의 화상이 상기 수직 방향에 있어서 상기 기준 화상 상방에 배치되는지 여부를 결정하는 단계,
    상기 대응하는 화상이 상기 수직 방향에 있어서 상기 기준 화상 상방에 배치될 때, 상기 대응하는 화상의 상기 제2 변위를 상기 제1 수평 방향과 연관시키는 단계, 및
    상기 대응하는 화상이 상기 수직 방향에 있어서 상기 기준 화상 상방에 배치될 때, 상기 대응하는 화상의 상기 제2 변위를 상기 제2 수평 방향과 연관시키는 단계를 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  15. 제11항에 있어서,
    상기 생성하는 단계는,
    화상들의 결정된 상기 제1 변위들에 기초하여 상기 제1 합성 화상을 생성하는 단계, 및
    화상들의 결정된 상기 제1 변위들에 기초하여 상기 제2 합성 화상을 생성하는 단계를 더 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  16. 제1항에 있어서,
    상기 생성하는 단계는,
    변위된 화상들 중 대응하는 화상들의 화소 값들에 대해 가산 및 평균 처리를 적용하는 단계, 및
    처리된 화소 값들에 기초하여 상기 제1 합성 화상 및 상기 제2 합성 화상을 생성하는 단계를 더 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  17. 제16항에 있어서,
    상기 생성하는 단계는,
    화상들 중 적어도 하나의 화상 내의 유효 영역을 식별하는 정보를 획득하는 단계를 더 포함하고, 상기 유효 영역은 화상들 중 적어도 하나의 화상 내의 물체의 존재를 나타내는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  18. 제17항에 있어서,
    상기 적용하는 단계는,
    상기 유효 영역의 외부에 배치된 하나 이상의 화소의 값에 대해 가산 및 평균 처리를 적용하는 단계, 및
    상기 제1 합성 화상 및 상기 제2 합성 화상 내에서, 상기 유효 영역 내에 배치된 적어도 하나의 화소의 값을 유지하는 단계를 더 포함하는, 화상을 생성하기 위해 컴퓨터에 의해 실시되는 방법.
  19. 정보 처리 장치로서,
    복수개의 화상과 연관된 데이터를 수신하도록 구성된 수신부 -상기 데이터는 화상들의 공간적 위치들을 특정함-,
    적어도 공간적 위치들에 기초하여 제1 수평 방향 및 제2 수평 방향에 있어서의 화상들의 변위들을 결정하도록 구성된 결정부 -상기 제1 수평 방향은 상기 제2 수평 방향과 반대임-, 및
    결정된 상기 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성하도록 구성된 생성부를 포함하는, 정보 처리 장치.
  20. 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서에 방법을 실행시키는 명령어들을 저장하는 유형의, 비-일시적 컴퓨터 판독가능 매체로서, 상기 방법은,
    복수개의 화상과 연관된 데이터를 수신하는 단계 -상기 데이터는 화상들의 공간적 위치들을 특정함-,
    적어도 상기 공간적 위치들에 기초하여 제1 수평 방향 및 제2 수평 방향에 있어서의 화상들의 변위들을 결정하는 단계 -상기 제1 수평 방향은 상기 제2 수평 방향과 반대임-, 및
    결정된 상기 변위들에 기초하여 제1 합성 화상 및 제2 합성 화상을 생성하는 단계를 포함하는, 유형의, 비-일시적 컴퓨터 판독가능 매체.
KR1020137024455A 2011-03-28 2012-03-21 화상 처리 장치 및 화상 처리 방법 KR20140020921A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011069311A JP5987267B2 (ja) 2011-03-28 2011-03-28 画像処理装置および画像処理方法
JPJP-P-2011-069311 2011-03-28
PCT/JP2012/001960 WO2012132333A1 (en) 2011-03-28 2012-03-21 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
KR20140020921A true KR20140020921A (ko) 2014-02-19

Family

ID=45937512

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137024455A KR20140020921A (ko) 2011-03-28 2012-03-21 화상 처리 장치 및 화상 처리 방법

Country Status (6)

Country Link
US (1) US9779539B2 (ko)
EP (1) EP2692139A1 (ko)
JP (1) JP5987267B2 (ko)
KR (1) KR20140020921A (ko)
CN (1) CN103444193B (ko)
WO (1) WO2012132333A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140118505A1 (en) * 2012-10-26 2014-05-01 Reald Inc. Stereoscopic image capture
CN104378163A (zh) * 2014-11-14 2015-02-25 北京智谷睿拓技术服务有限公司 可见光信号接收控制方法、控制装置及接收设备
CN104393931B (zh) * 2014-11-17 2018-12-25 北京智谷睿拓技术服务有限公司 可见光信号接收控制方法、控制装置及接收设备
US20160313548A1 (en) * 2015-04-21 2016-10-27 Olympus Corporation Method for capturing image of three-dimensional structure of specimen and microscopic device
US20170155886A1 (en) * 2015-06-24 2017-06-01 Derek John Hartling Colour-Z: Low-D Loading to High-D Processing
DE102016101967B9 (de) * 2016-02-04 2022-06-30 Carl Zeiss Microscopy Gmbh Verfahren und Vorrichtungen zur Stereobilddarstellung
JP6790544B2 (ja) * 2016-07-21 2020-11-25 コニカミノルタ株式会社 トモシンセシス撮影画像選定装置及びトモシンセシス撮影画像生成システム
CN106507059A (zh) * 2016-12-08 2017-03-15 廖其荣 一种加油站红外成像监测设备
CN110520833B (zh) * 2017-05-09 2020-12-08 华为技术有限公司 一种vr绘图方法、设备及系统
EP4006615A1 (en) * 2020-11-30 2022-06-01 Leica Instruments (Singapore) Pte. Ltd. Imaging system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996041311A2 (en) * 1995-06-07 1996-12-19 Geshwind David M Stereoscopic interactive painting
JP4298016B2 (ja) * 1997-09-25 2009-07-15 株式会社東芝 超音波診断装置
US6191809B1 (en) * 1998-01-15 2001-02-20 Vista Medical Technologies, Inc. Method and apparatus for aligning stereo images
EP1069454B1 (en) * 1998-03-27 2014-01-29 Hideyoshi Horimai Three-dimensional image display
JP3619063B2 (ja) * 1999-07-08 2005-02-09 キヤノン株式会社 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
MXPA03001029A (es) * 2000-08-04 2003-05-27 Dynamic Digital Depth Res Pty Tecnica de codificacion y conversion de imagen.
US7197193B2 (en) * 2002-05-03 2007-03-27 Creatv Microtech, Inc. Apparatus and method for three dimensional image reconstruction
JP4190357B2 (ja) 2003-06-12 2008-12-03 シャープ株式会社 放送データ送信装置、放送データ送信方法および放送データ受信装置
JP4623516B2 (ja) * 2003-12-09 2011-02-02 独立行政法人科学技術振興機構 画像からの対象物検出方法及び対象物検出装置
JP4673000B2 (ja) * 2004-05-21 2011-04-20 株式会社キーエンス 蛍光顕微鏡、蛍光顕微鏡装置を使用した表示方法、蛍光顕微鏡画像表示プログラム及びコンピュータで読み取り可能な記録媒体並びに記憶した機器
JP4707368B2 (ja) * 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
KR100739730B1 (ko) * 2005-09-03 2007-07-13 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
WO2009020277A1 (en) * 2007-08-06 2009-02-12 Samsung Electronics Co., Ltd. Method and apparatus for reproducing stereoscopic image using depth control
JP4792127B2 (ja) * 2008-07-24 2011-10-12 パナソニック株式会社 立体視再生が可能な再生装置、再生方法、プログラム
WO2010048632A1 (en) * 2008-10-24 2010-04-29 Real D Stereoscopic image format with depth information
EP2474167A4 (en) * 2009-09-01 2014-12-10 Prime Focus Vfx Services Ii Inc SYSTEM AND PROCESS FOR TRANSFORMING TWO-DIMENSIONAL IMAGES TO THREE-DIMENSIONAL IMAGES
JP2011069311A (ja) 2009-09-28 2011-04-07 Mitsubishi Heavy Ind Ltd 圧縮機、組立方法
GB2478776B (en) * 2010-03-18 2015-08-19 Snell Ltd Analysis of stereoscopic images
JP5846738B2 (ja) * 2011-01-06 2016-01-20 任天堂株式会社 表示制御プログラム、表示装置、表示システム、および、表示制御方法

Also Published As

Publication number Publication date
WO2012132333A1 (en) 2012-10-04
JP5987267B2 (ja) 2016-09-07
US9779539B2 (en) 2017-10-03
US20130342530A1 (en) 2013-12-26
CN103444193A (zh) 2013-12-11
EP2692139A1 (en) 2014-02-05
CN103444193B (zh) 2016-01-20
JP2012205169A (ja) 2012-10-22

Similar Documents

Publication Publication Date Title
KR20140020921A (ko) 화상 처리 장치 및 화상 처리 방법
JP5741683B2 (ja) 立体映像処理装置及び立体映像処理方法
JP6147275B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
EP2357838B1 (en) Method and apparatus for processing three-dimensional images
KR102130123B1 (ko) 다시점 영상 디스플레이 장치 및 그 제어 방법
TWI493505B (zh) 影像處理方法以及影像處理裝置
US9338426B2 (en) Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6610535B2 (ja) 画像処理装置および画像処理方法
US9495795B2 (en) Image recording device, three-dimensional image reproducing device, image recording method, and three-dimensional image reproducing method
JP2012100116A (ja) 表示処理装置、表示処理方法およびプログラム
JP5929922B2 (ja) 画像処理装置および画像処理方法
JP5127973B1 (ja) 映像処理装置、映像処理方法および映像表示装置
WO2013089183A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
JP6025740B2 (ja) エネルギー値を用いたイメージ処理装置およびそのイメージ処理方法、並びにディスプレイ方法
JP2013201688A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JPWO2012120880A1 (ja) 立体画像出力装置及び立体画像出力方法
JP5765418B2 (ja) 立体視画像生成装置、立体視画像生成方法、立体視画像生成プログラム
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法
CN112929631B (zh) 用于在3d视频中显示弹幕的方法和设备、3d显示设备
JP2011221905A (ja) 情報処理装置
US20140055579A1 (en) Parallax adjustment device, three-dimensional image generation device, and method of adjusting parallax amount
CN115244570A (zh) 合并分离像素数据以获得更深景深
JP6085943B2 (ja) 視差制御装置及び視差制御プログラム

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid