KR20090067547A - 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치 - Google Patents

깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치 Download PDF

Info

Publication number
KR20090067547A
KR20090067547A KR1020070135239A KR20070135239A KR20090067547A KR 20090067547 A KR20090067547 A KR 20090067547A KR 1020070135239 A KR1020070135239 A KR 1020070135239A KR 20070135239 A KR20070135239 A KR 20070135239A KR 20090067547 A KR20090067547 A KR 20090067547A
Authority
KR
South Korea
Prior art keywords
depth
resolution
information
image
distance
Prior art date
Application number
KR1020070135239A
Other languages
English (en)
Other versions
KR101367282B1 (ko
Inventor
심재영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070135239A priority Critical patent/KR101367282B1/ko
Priority to US12/219,444 priority patent/US8620099B2/en
Priority to CN200810149782XA priority patent/CN101465004B/zh
Priority to EP08167231.3A priority patent/EP2076048B1/en
Priority to JP2008282349A priority patent/JP5603002B2/ja
Publication of KR20090067547A publication Critical patent/KR20090067547A/ko
Application granted granted Critical
Publication of KR101367282B1 publication Critical patent/KR101367282B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 영상 처리에 관한 것으로, 3차원 영상의 픽셀들 각각의 깊이값이, 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 분할된 결과인 구간들 중 어느 구간에 해당하는지 판단하는 구간 판단부; 및 상기 구간 판단부의 판단 결과에 따라 상기 각각의 깊이값을 양자화하여 표현하는 적응적 양자화부를 포함할 수 있다.
3차원 영상, 깊이 정보, 적응적 정보 표현, 양자화

Description

깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치{Method and Apparatus for Adaptive Information representation of 3D Depth Image}
본 발명은 영상 처리에 관한 것으로, 특히 깊이 영상의 깊이 정보에 대한 처리 방법 및 장치에 관한 것이다.
3D 형상 정보를 취득하기 위해서는 여러 장의 컬러 영상들로부터 컴퓨터 영상(computer vision) 기술을 이용하여 수동적으로 추출하는 방법 등의 여러가지 방법이 제안되고 있으나, 일반적으로는 깊이 카메라(depth camera)라는 깊이 정보 획득 장치를 이용하여 깊이 영상(depth image)을 얻도록 하고 있다. 왜냐하면, 컴퓨터 영상 기술을 이용하는 방법 등은 일반적으로 그 과정이 복잡한데다가 정확한 실세계의 깊이 정보를 제공하기도 어렵다. 이에 비해 깊이 카메라를 이용하면 비교적 쉽고 정확하게 깊이 영상을 취득할 수 있기 때문이다.
도 1 은 일반적인 깊이 카메라의 원리에 대한 개념도이다.
도 1 을 참조하면, 적외선(IR: Infra Red)과 같은 광원(light source)(11)이 입사광(101)으로서 장면(Scene)(10)에 조사되고 그 반사광(102)을 깊이 센서(Depth Sensor)(12)로 감지하여 시간차(TOF: Time of Flight)를 측정함으로써 장면(10) 내 의 각각의 객체까지의 거리를 계산할 수 있다. 그 결과, 감지된 광의 intensity 영상(14)과 계산된 깊이 영상(13)을 얻을 수 있다.
구체적으로, 깊이 카메라는 그 깊이 카메라에 구비된 촬영 버튼이 조작되면, 장면(10)내의 피사체에 적외선을 조사하고, 그 피사체의 각 지점마다, 적외선이 조사된 시점부터 그 지점으로부터 반사된 적외선이 감지되는 시점까지의 시간을 고려하여 그 지점의 깊이값을 계산하고, 계산된 깊이값을 영상으로 표현함으로써, 그 피사체를 나타내는 깊이 영상(13)을 생성 및 획득한다. 여기서, 깊이값이란 그 깊이 카메라로부터의 거리를 의미한다.
이러한 깊이 영상의 픽셀들 각각의 깊이값은, 그 깊이값에 관계없이 일정한 비트수로 표현되므로, 그 일정한 비트수가 그 픽셀의 깊이값을 표현하는 데 불필요하게 많은 경우가 일반적이고, 이 경우, 그 깊이 영상의 효율적인 저장, 효율적인 전송, 효율적인 처리에 한계가 있을 수 밖에 없다는 문제점이 존재한다.
본 발명은 깊이 카메라로부터 얻어지는 깊이 정보를 측정 거리에 따른 해상도 특성을 고려하여 거리에 따라 적응적인 최적의 양자화 값으로 표시하기 위한 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치를 제공하는 것을 그 목적으로 한다.
또한, 본 발명은 거리별로 적응적인 정보 표현이 가능하도록 함으로써, 깊이 정보의 정확도를 잃지 않으면서 적은 데이터 양으로 저장 및 전송할 수 있도록 하 는데 그 목적이 있다.
본 발명의 실시예를 통해, 3차원 영상의 픽셀들 각각의 깊이값이, 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 분할된 결과인 구간들 중 어느 구간에 해당하는지 판단하는 구간 판단부; 및 상기 구간 판단부의 판단 결과에 따라 상기 각각의 깊이값을 양자화하여 표현하는 적응적 양자화부를 포함하는 깊이 정보에 대한 적응적 정보 표현 장치를 제공함을 그 목적으로 한다.
또한, 본 발명은, 각각은 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 구분된 결과인 영역들 각각에 대응되며 양자화된 대표값들을 나타내는 Look-up Table을 저장하는 Look-up Table 저장부; 및 상기 3차원 영상의 픽셀들 각각의 깊이값마다,상기 Look-up Table에 나타난 대표값들 중 상기 깊이값에 대응된 대표값을 상기 깊이값의 양자화된 결과로서 출력하는 적응적 양자화부를 포함하는 깊이 정보에 대한 적응적 정보 표현 장치를 제공함을 그 목적으로 한다.
한편, 본 발명은, 3차원 영상의 픽셀들 각각의 깊이값이, 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 분할된 결과인 구간들 중 어느 구간에 해당하는지 판단하는 단계; 및 상기 판단 결과에 따라 상기 각각의 깊이값을 양자화하여 표현하는 단계를 포함하는 깊이 정보에 대한 적응적 정보 표현 방법을 제공하는 것을 그 목적으로 한다.
또한, 본 발명은, 3차원 영상의 픽셀들 각각의 깊이값마다, 각각은 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 구분된 결과인 영역들 각각에 대응되며 양자화된 대표값들을 나타내며 미리 마련된 Look-up Table에서 상기 깊이값에 대응된 대표값을 찾는 단계; 및 상기 찾아진 대표값을 상기 깊이값의 양자화된 결과로서 결정하는 단계를 포함하는 단계를 포함하는 깊이 정보에 대한 적응적 정보 표현 방법을 제공하는 것도 그 목적으로 한다.
실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
도 2a 또는 도 2b 는 본 발명의 제1 실시예에 따른 깊이 정보 표현 방식의 예시도이다.
도 2a를 참조하여 깊이 카메라의 깊이 정보 표현 방식을 살펴보면, 깊이 카메라(21)는 측정 한계거리 (22)까지 깊이값에 관계없이 항상 일정한 비트수로 깊이 정보를 양자화하여 표현한다. 즉, 깊이값에 관계없이 그 깊이값의 해상도가 동일하다. 본 명세서에서, 측정 한계거리란 깊이 카메라(21)가 측정할 수 있는 최대 깊이 값을 의미한다.
이를 좀 더 상세히 살펴보면, 도 2a에 도시된 깊이 카메라(21)는, 3차원 영상의 픽셀들 각각의 깊이값이 깊이 카메라(21)로부터 가까운 거리(Near Distance) 또는 먼 거리(Far Distance)를 의미하는지에 관계없이 모든 깊이값의 해상도(Depth Resolution)를 동일한 값으로 표현한다. 본 명세서에서, 3차원 영상은 픽셀들 각각마다 깊이값을 갖는 영상을 의미하며, 깊이 카메라에 의해 획득되는 깊이 영상은 3차원 영상의 일 례이다. 또한, 본 명세서에서, 해상도란 정밀도(accuracy)를 의미한다. 즉, 깊이 카메라(21)의 해상도가 높다는 것은 깊이 카메라(21)가 깊이값을 양자화함에 있어 양자화 스텝 사이즈(step size)가 작다는 것을 의미하고, 깊이 카메라(21)의 해상도가 낮다는 것은 깊이 카메라(21)가 깊이값을 양자화함에 있어 양자화 스텝 사이즈가 크다는 것을 의미한다. 도 2a에 도시된 바에서는, 깊이 카메라(21)로부터 가까운 거리를 의미하는 깊이값을 양자화함에 있어 고려되는 양자화 스텝 사이즈(201)는, 깊이 카메라(21)로부터 먼 거리를 의미하는 깊이값을 양자화함에 있어 고려되는 양자화 스텝 사이즈(202)와 동일하다.
이 경우, 깊이 카메라(21)의 해상도는 깊이 카메라(21)마다 상이하기 때문에 이를 고려해서 깊이 카메라(21)의 특성에 맞는 비트수를 결정한 뒤, 깊이 카메라(21)는 그 결정된 비트수로 깊이값을 양자화한다.
도 2b는 깊이 카메라(21)가, 자신이 측정할 수 있는 깊이값을 언제나 일정한 해상도로 양자화하는 경우, 그 깊이 카메라(21)의 특성에 맞도록 깊이값을 표현하도록 하는 장치에 관한 예시도이다. 도 2b에 도시된 본 발명에 의한 깊이 정보에 대한 적응적 정보 표현 장치는, 깊이 카메라(21)상에 구현될 수 있다.
즉, 도 2b에 도시된 적응적 양자화부(23)는 , 측정 한계거리(22)에 대한 정보인 측정 한계거리 정보와, '깊이값에 관계없이 일정한' 해상도에 관한 정보인 해상도 정보를 입력단자 IN 1을 통해 입력받는다. 이 때, 측정 한계거리와 해상도는 적응적 양자화부(23)가 구비된 깊이 카메라(21)의 사양(specification)으로서 고유하게 결정되어 있다. 이 후, 적응적 양자화부(23)는 그 입력된 측정 한계거리(22)를 그 입력된 해상도를 고려하여 비트수를 결정한다. 이 때, 그 결정된 비트수는 그 입력된 측정 한계거리(22)가 그 입력된 해상도로 분할됨으로써 생성되는 영역들의 개수를 표현하기 위해 필요한 최소한의 비트수를 의미할 수 있다. 본 명세서에서, 영역은 측정 한계거리가 양자화 스텝 사이즈로 분할된 결과들 각각을 의미한다. 이 후, 적응적 양자화부(23)는 입력단자 IN 2를 통해 입력된 3차원 영상의 픽셀들 각각의 깊이값을 그 결정된 비트수로 양자화하여 그 각각의 깊이값을 표현하고, 양자화된 깊이값을 출력단자 OUT 1을 통해 출력한다.
이 경우 깊이 카메라(21)의 해상도를 고려하지 않고 불필요하게 많은 비트수(예를 들어, 16비트)를 사용하여 깊이 정보를 표현하는 경우에 비해 보다 적은 메모리로 깊이 정보를 저장 및 전송할 수 있다.
예를 들어, 측정 한계거리(22)가 10m이고, 깊이 카메라(21)의 측정 가능한 깊이값의 해상도가 양자화 스텝 사이즈가 3mm인 해상도라 가정한다.
이 때, 10m 범위에서 3mm의 오차 내에서 깊이 값을 표현할 수 있는 최소 비트수는 <수학식 1>과 같다. 즉, 적응적 양자화부(23)는 다음의 수학식 1에 따라 비 트수를 결정할 수 있다.
Figure 112007092009304-PAT00001
( 수학식 1에 표기된 꺽쇠 기호는 기호안의 값을 넘는 최소의 정수를 의미하며, 이는 이하의 수학식에서도 마찬가지이다.).
따라서, 만일, 기존의 방법이 3차원 영상의 픽셀 당 깊이값을 16 비트를 사용하여 표현한다면, 본 발명의 제1 실시예에 따를 경우, 기존의 방법에 비해 4비트 줄어든 12비트만을 사용하고도 한 픽셀의 깊이값을 기존의 방법과 동일한 정확도로 표현할 수 있다.
한편, 일반적으로 깊이 카메라로 측정할 수 있는 깊이 값은 깊이 카메라로부터 거리가 가까울수록 그 해상도는 높아지고, 깊이 카메라로부터 거리가 멀어질수록 그 해상도는 낮아진다. 즉, 가까운 거리에서는 세밀하게 깊이를 표현할 수 있지만 먼 거리에서는 세밀하게 깊이를 표현할 필요가 없는 경우가 많이 발생한다. 이 경우, 깊이 카메라가, 도 2a 및 도 2b에 도시된 바와 같이, 자신이 측정할 수 있는 깊이값 모두를 동일한 해상도로 표현함에 있어, 그 해상도가 깊이 카메라로부터 가까운 거리에 맞추어진 경우에는 깊이 카메라로부터 먼 거리를 의미하는 깊이값에 대해서는 불필요하게 많은 비트 수를 할당하게 되고, 그 해상도가 깊이 카메라로부터 먼 거리에 맞추어진 경우에는 깊이 카메라로부터 가까운 거리를 의미하는 깊이값은 정확하게 표현될 수 없다.
따라서, 이러한 특성을 반영하여 가까운 거리에서 측정된 깊이 정보는 세밀한 해상도로 표현하고, 먼 거리에서 측정된 깊이 정보는 성긴 해상도로 표현함으로써 정확도와 효율적인 비트 할당을 동시에 할 수 있도록 하는 방법을 제안한다.
도 3a 내지 도 3d는 본 발명의 제2 실시예 및 제3 실시예에 따른 깊이 정보에 대한 적응적 정보 표현 장치의 예시도이다.
도 3a는 본 발명의 제2 실시예 또는 제3 실시예에 따른 깊이 영상의 깊이 정보에 대한 적응적 정보 표현 장치에서의 깊이 카메라의 깊이 정보 표현 방식을 설명하기 위한 개념도이다. 도 3a는 깊이 카메라(31)가 깊이값에 따라 다른 정확도로 깊이 정보를 측정하는 경우를 도시하고 있다.
도 3a에 도시된 바에 따르면, 본 발명의 제2 실시예 또는 제3 실시예에 따른 깊이 정보에 대한 적응적 정보 표현 방법을 위해서는, 측정 한계거리를 각각 내에서는 해상도가 일정한 다수의 구간들로 분할하고, 각각의 구간 별로 서로 다른 양자화 스텝 사이즈로 깊이값을 양자화하여 표현하는 것을 도시하고 있다.
이를 위해서, 우선, 측정의 대상이 되는 깊이 카메라(31)로부터 측정 한계거리(32)에 관한 정보인 측정 한계거리 정보 및 거리별 해상도에 관한 정보인 거리별 해상도 정보를 입력받는다. 본 명세서에서, 거리별 해상도란, 깊이 카메라(31)로부터의 거리에 따른 해상도를 의미한다. 한편, 그 입력된 측정 한계거리 정보에 나타난 측정 한계거리는, 그 입력된 거리별 해상도 정보에 나타난 거리별 해상도에 따라, 각각내에서는 해상도가 일정한 다수의 구간들로 분할된다.
그리고 각각의 구간 별로 해상도에 따른 거리별 비트수를 할당한다. 이 때, 구간에 대한 거리별 비트수란, 그 구간에서의 해상도를 고려하여 결정된 비트수를 의미한다. 구체적으로, 구간에 대한 거리별 비트수란, 그 구간의 길이가 그 구간에서의 해상도로 구분된 결과를 표현하기 위해 필요한 최소한의 비트수를 의미할 수 있다. 즉, 구간에 대한 거리별 비트수란, 그 구간의 길이를 그 구간에서의 해상도로 분할됨으로써 생성되는 영역들의 개수를 표현하기 위해 필요한 최소한의 비트수를 의미할 수 있다.
그리고 소정의 객체에 대해서 깊이 정보를 측정한다.
그 측정 결과, 측정된 거리가 어떤 구간에 해당하느냐에 따라서 거리별 비트수로 그 깊이값을 양자화하여 표현한다.
도 3b 는 본 발명의 제2 실시예에 따른 3차원 영상의 깊이 정보에 대한 적응적 정보 표현 장치에 대한 일실시예 구성도이다.
도 3b에 도시된 바와 같이, 본 발명의 제2 실시예에 따른 3차원 영상의 깊이 정보에 대한 적응적 정보 표현 장치는, 거리 구간 구분 처리부(33), 구간 판단부(34), 및 적응적 양자화부(35)를 포함할 수 있다.
여기서, 거리 구간 구분 처리부(33)는, 적응적인 해상도 값을 표현하기 위해, 3차원 영상에 대한 측정 한계거리(32)에 대한 정보인 측정 한계거리 정보 및 그 3차원 영상에 대한 거리별 해상도에 대한 정보인 거리별 해상도 정보를 입력단자 IN 3을 통해 입력 받고, 그 입력된 측정 한계거리 정보에 나타난 측정 한계거리(32)를 그 입력된 거리별 해상도 정보에 나타난 거리별 해상도를 고려하여 다수의 구간들로 분할한다. 본 명세서에서, 3차원 영상에 대한 측정 한계거리란, 그 3 차원 영상을 생성한 깊이 카메라(31)의 사양으로서 고유하게 결정되어 있는 측정 한계거리를 의미하고, 3차원 영상에 대한 거리별 해상도란, 그 3차원 영상을 생성한 깊이 카메라(31)의 사양으로서 고유하게 결정되어 있으며 구간마다 값이 상이한 해상도를 의미한다.
또한, 거리 구간 구분 처리부(33)는 구간들 각각마다 그 구간에 대한 거리별 비트수를 결정한다.
구간 판단부(34)는 거리 구간 구분 처리부(33)에 의해 측정 한계거리가 어떠한 구간들로 나뉘었는지에 대해 인지하고 있으며, 입력단자 IN 4를 통해 입력된 3차원 영상의 픽셀들 각각의 깊이값이 그 구간들 중 어느 구간에 속하는지 판단한다.
적응적 양자화부(35)는 거리 구간 구분 처리부(33)에 의해 각 구간마다 결정된 거리별 비트수를 인지하고 있으며, 입력단자 IN 4를 통해 입력된 3차원 영상의 픽셀들 각각의 깊이값을, 구간 판단부(34)의 판단 결과에 따라 양자화한다. 즉, 적응적 양자화부(35)는, 그 각각의 깊이값마다, 그 깊이값을 그 깊이값이 속한다고 판단된 구간에 대한 거리별 비트수로 양자화하여 표현하고, 양자화된 결과를 출력단자 OUT 2를 통해 출력한다.
한편, 입력단자 IN 3을통해 입력된 측정 한계거리 정보와 거리별 해상도 정보는 '입력단자 IN 4를 통해 입력되는 3차원 영상'에 대한 측정 한계거리에 대한 정보와 거리별 해상도에 대한 정보이다.
도 3c 는 본 발명의 제2 실시예 또는 제3 실시예에 따른 3차원 영상의 깊이 정보에 대한 적응적 정보 표현 방식에 대한 상세 예시도이다.
도 3c의 예시도는 측정 한계거리(32)가7.5m인 깊이 카메라(31)의 측정 거리에 따른 해상도를 각각 다음과 같이 정의하는 경우를 가정한다.
제 1 구간(310)을 깊이 카메라(31)로부터 0.3m까지로 하고 여기서의 해상도는 양자화 스텝 사이즈가 2.5mm인 해상도로 한다. 제 2 구간(320)을 깊이 카메라(31)로부터 0.3m에서 1m까지로 하고 여기서의 해상도는 양자화 스텝 사이즈가 6mm인 해상도로 한다. 제 3 구간(330)을 깊이 카메라(31)로부터 1m에서 2m까지로 하고 여기서의 해상도는 양자화 스텝 사이즈가 13mm인 해상도로 한다. 제 4 구간(340)을 깊이 카메라(31)로부터 2m에서 7.5m까지로 하고 여기서의 해상도는 양자화 스텝 사이즈가 22mm인 해상도로 한다.
이 경우, 각 구간별(310, 320, 330, 340)로 해당하는 해상도를 표현할 수 있는 최소 비트수를 계산하면 다음과 같다. 즉, 거리 구간 구분 처리부(33)는 다음의 수학식 2에 따라, 제1 구간(310)에 대한 거리별 비트수를 결정할 수 있고, 다음의 수학식 2에 따라, 제2 구간(320)에 대한 거리별 비트수를 결정할 수 있고, 다음의 수학식 3에 따라, 제3 구간(330)에 대한 거리별 비트수를 결정할 수 있고, 다음의 수학식 4에 따라, 제4 구간(340)에 대한 거리별 비트수를 결정할 수 있다.
Figure 112007092009304-PAT00002
Figure 112007092009304-PAT00003
Figure 112007092009304-PAT00004
Figure 112007092009304-PAT00005
이 경우, 3차원 영상의 픽셀들 각각의 깊이값을 양자화하여 표현함에 있어, 그 각각의 깊이값이 어느 구간(310, 320, 330, 340)에 포함되는지를 별도의 부가 정보로 표현할 필요가 있고, 본 실시예에서는 구간의 수가 4개이므로 2비트로 이 부가 정보를 표현할 수 있다.
결론적으로, 만일, 종래의 기술이 3차원 영상의 픽셀들 각각의 깊이값을 일률적으로 16 비트를 사용하여 표현한다면, 본 발명의 제2 실시예에 따를 경우, (0~0.3m), (0.3m~1.0m), (1.0m~2.0m) 및 (2.0m~7.5m)의 각각의 구간별(310, 320, 330, 340)로 9, 9, 9, 10비트로 각각의 깊이값을 표현할 수 있으므로, 이는 일률적으로 16비트로 깊이값을 표현하는 종래의 기술에 비해 훨씬 적은 비트수를 사용하고도 한 픽셀의 깊이값을 종래의 기술과 동일한 정확도로 표현할 수 있다.도 3d 는 본 발명의 제3 실시예에 따른 3차원 영상의 깊이 정보에 대한 적응적 정보 표현 장 치에 대한 또다른 일실시예 구성도이다.
도 3b에서는 측정 한계거리(32)를 구간들로 구분하고 각 구간별로 독립적인 양자화를 수행하여 깊이값을 표현하였다. 그러나, 전체 측정 한계거리(32)에 대해 거리에 따라 달라지는 해상도를 고려한 대표 값을 미리 설정하고 이를 look-up table로 만든 후에, 입력되는 깊이값을 이 look-up table을 이용하여 양자화 및 표현할 수도 있으며, 이하, 도 3c 및 도 3d를 이용하여 본 발명의 제3 실시예로서 설명한다.
도 3c의 예로부터(0~0.3m), (0.3m~1.0m), (1.0m~2.0m), (2.0m~7.5m)각 구간별(310, 320, 330, 340) 해상도를 고려하여, 각 구간마다 그 구간에 속하는 깊이값들을 표현할 수 있는 대표값의 개수는 각각 다음과 같다. 즉, 제1 구간(310)에 속하는 깊이값들을 나타내는 대표값들의 개수는 수학식 6으로 표현될 수 있고, 제2 구간(320)에 속하는 깊이값들을 나타내는 대표값들의 개수는 수학식 7로 표현될 수 있고, 제3 구간(330)에 속하는 깊이값들을 나타내는 대표값들의 개수는 수학식 8로 표현될 수 있고, 제4 구간(340)에 속하는 깊이값들을 나타내는 대표값들의 개수는 수학식 9로 표현될 수 있다.
Figure 112007092009304-PAT00006
Figure 112007092009304-PAT00007
Figure 112007092009304-PAT00008
Figure 112007092009304-PAT00009
이를 모두 합치면 총 564개의 대표값이 되고, 이것은 10비트로 표현할 수 있다. 따라서 도 3d과 같이 측정 한계거리(32) 내의 564개의 대표값을 look-up table로 만들어 두고, 3차원 영상의 픽셀들 각각의 깊이값을 look-up table을 이용하여 10비트로 양자화하고 표현할 수 있다.
이 경우는, 본 발명의 제2 실시예에서와 달리, 3차원 영상의 픽셀들 각각의 깊이값을 양자화하여 표현함에 있어, 그 각각의 깊이값이 어느 구간에 속하는지를 나타낼 필요는 없다.
결국, 도 3c에 도시된 바에 따르면, 본 발명의 제3 실시예에 의한 적응적 양자화부(38)는 3차원 영상의 픽셀들 각각의 깊이값을 10비트로 양자화하여 표현한다. 만일, 종래의 기술이 3차원 영상의 픽셀들 각각의 깊이값을 일률적으로 16 비트를 사용하여 표현한다면, 본 발명의 제3 실시예에 의한 적응적 양자화부(38)는, 일률적으로 16비트로 깊이값을 표현하는 종래의 기술에 비해 훨씬 적은 비트수를 사용하고도 한 픽셀의 깊이값을 종래의 기술과 동일한 정확도로 표현할 수 있다.
도 3d에 도시된 바와 같이, 본 발명의 제3 실시예에 따른 깊이 영상의 깊이 정보에 대한 적응적 정보 표현 장치는, Look-up Table 생성부(36), Look-up Table 저장부(37), 및 적응적 양자화부(38)를 포함할 수 있다.
여기서, Look-up Table 생성부(36)는, 적응적인 해상도 값을 표현하기 위해, 3차원 영상에 대한 측정 한계거리를 나타내는 측정 한계거리(32) 정보 및 그 3차원 영상에 대한 거리별 해상도를 나타내는 거리별 해상도 정보를 입력단자 IN 5를 통해 입력 받고, 그 입력된 측정 한계거리 정보에 나타난 측정 한계거리(32)를 그 입력된 거리별 해상도 정보에 나타난 거리별 해상도를 고려하여 다수의 영역들로 구분하고, 그 구분된 영역들 각각마다 대표값을 설정하고, 설정된 대표값들 각각을 그 영역들의 개수에 상응하는 비트수로 양자화하고, 양자화된 대표값들을 나타내는 Look-up Table을 생성한다. 여기서, 그 영역들의 개수에 상응하는 비트수는, 측정 한계거리(32)의 영역들의 개수를 표현하기 위해 필요한 최소한의 비트수를 의미할 수 있다.
결국, Look-up Table 생성부(36)가 생성한 Look-up Table은, 각각은 영역들 각각에 대응되며 양자화되어 있는 대표값들을 나타낸다.
Look-up Table 저장부(37)는 Look-up Table 생성부(36)에 의해 생성된 Look-up Table을 저장한다.
적응적 양자화부(38)는, 입력단자 IN 6을 통해 입력된 3차원 영상의 픽셀들 각각의 깊이값마다, 그 저장된 Look-up Table에 나타난 대표값들 중 그 깊이값에 대응된 대표값을 그 깊이값의 양자화된 결과로서 출력단자 OUT 3을 통해 출력한다.
한편, 입력단자 IN 5를통해 입력된 측정 한계거리 정보와 거리별 해상도 정보는 '입력단자 IN 6을 통해 입력되는 3차원 영상'에 대한 측정 한계거리에 대한 정보와 거리별 해상도에 대한 정보이다.
도 4a는 본 발명의 제1 실시예에 따른 깊이 정보에 대한 적응적 정보 표현 방법을 설명하기 위한 플로우챠트이며, 도 2b를 이용하여 설명하면 다음과 같다.
적응적 양자화부(23)는 3차원 영상의 픽셀들 각각의 깊이값을, 깊이 카메라(21)의 측정 한계거리 및 해상도에 따라 결정된 비트수로 양자화하여 표현한다(제41 단계).
도 4b는 본 발명의 제2 실시예에 따른 깊이 정보에 대한 적응적 정보 표현 방법을 설명하기 위한 플로우챠트이며, 도 3b를 이용하여 설명하면 다음과 같다.
구간 판단부(34)는 3차원 영상의 픽셀들 각각의 깊이값이, 그 3차원 영상에 대한 측정 한계거리가 그 3차원 영상에 대한 거리별 해상도에 따라 분할된 결과인 구간들 중 어느 구간에 속하는지 판단한다(제42 단계).
제42 단계 후에, 적응적 양자화부(35)는 그 3차원 영상의 픽셀들 각각의 깊이값을, 제42 단계의 판단 결과에 따라 양자화하여 표현한다(제43 단계).
도 4c는 본 발명의 제3 실시예에 따른 깊이 정보에 대한 적응적 정보 표현 방법을 설명하기 위한 플로우챠트이며, 도 3d를 이용하여 설명하면 다음과 같다.
적응적 양자화부(38)는, 3차원 영상의 픽셀들 각각의 깊이값마다, 그 깊이값 에 대응된 대표값을 Look-up Table 저장부(37)에 저장된 Look-up Table에서 찾는다(제44 단계).
제44 단계 후에, 적응적 양자화부(38)는 그 3차원 영상의 픽셀들의 깊이값들 각각마다, 그 깊이값에 대해 제44 단계에서 찾아진 대표값을 그 깊이값의 양자화된 결과로서 결정한다(제45 단계).
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
도 1 은 일반적인 깊이 카메라의 원리에 대한 개념도이다.
도 2a 및 도 2b 는 일반적인 깊이 카메라의 깊이 정보 표현 방식에 대한 제1 실시예의 예시도이다.
도 3a 내지 도 3d는 본 발명의 실시예에 따른 3차원 영상의 깊이 정보에 대한 적응적 정보 장치에 대한 제2 실시예 및 제3 실시예의 예시도들이다.
도 4a 내지 도 4c 는 본 발명의 실시예에 따른 3차원 영상의 깊이 정보에 대한 적응적 정보 표현 방법에 대한 제1 실시예 내지 제3 실시예의 흐름도들이다.

Claims (18)

  1. 3차원 영상의 픽셀들 각각의 깊이값이, 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 분할된 결과인 구간들 중 어느 구간에 속하는지 판단하는 구간 판단부; 및
    상기 구간 판단부의 판단 결과에 따라 상기 각각의 깊이값을 양자화하여 표현하는 적응적 양자화부를 포함하는 깊이 정보에 대한 적응적 정보 표현 장치.
  2. 제1 항에있어서, 상기 깊이 정보에 대한 적응적 정보 표현 장치는
    상기 측정 한계거리를 상기 거리별 해상도를 고려하여 상기 구간들로 분할하는 거리 구간 구분 처리부를 더 포함하는 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  3. 제1 항에있어서, 상기 적응적 양자화부는
    상기 구간들 각각마다 상기 구간에서의 상기 해상도에 따라 정해진 비트수 중, 상기 각각의 깊이값이 속한 상기 구간에서의 상기 비트수로 상기 각각의 깊이값을 양자화하는 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  4. 제3 항에있어서, 상기 구간들 각각마다, 상기 비트수는 상기 구간의 길이 및 상기 구간에서의 상기 해상도에 따라 정해진 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  5. 제3 항에있어서, 상기 구간에 대해 정해진 상기 비트수는, 상기 구간이 상기 구간에서의 상기 해상도로 구분된 결과를 표현하기 위해 필요한 최소한의 비트수인 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  6. 제1 항에있어서, 상기 해상도는 상기 구간마다 상이한 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  7. 각각은 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 구분된 결과인 영역들 각각에 대응되며 양자화된 대표값들을 나타내는 Look-up Table을 저장하는 Look-up Table 저장부; 및
    상기 3차원 영상의 픽셀들 각각의 깊이값마다,상기 Look-up Table에 나타난 대표값들 중 상기 깊이값에 대응된 대표값을 상기 깊이값의 양자화된 결과로서 출력하는 적응적 양자화부를 포함하는 깊이 정보에 대한 적응적 정보 표현 장치.
  8. 제7 항에있어서, 상기 깊이 정보에 대한 적응적 정보 표현 장치는
    상기 Look-up Table을 생성하는 Look-up Table 생성부를 더 포함하는 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  9. 제7 항에있어서, 상기 양자화된 대표값들 각각은, 상기 영역들의 개수에 상응하는 비트수로 양자화된 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 장치.
  10. 3차원 영상의 픽셀들 각각의 깊이값이, 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 분할된 결과인 구간들 중 어느 구간에 속하는지 판단하는 단계; 및
    상기 판단 결과에 따라 상기 각각의 깊이값을 양자화하여 표현하는 단계를 포함하는 깊이 정보에 대한 적응적 정보 표현 방법.
  11. 제10 항에 있어서, 상기 깊이 정보에 대한 적응적 정보 표현 방법은
    상기 측정 한계거리를 상기 거리별 해상도를 고려하여 상기 구간들로 분할하는 단계를 더 포함하는 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 방법.
  12. 제10 항에 있어서, 상기 표현하는 단계는
    상기 구간들 각각마다 상기 구간에서의 상기 해상도에 따라 정해진 비트수 중, 상기 각각의 깊이값이 속한 상기 구간에서의 상기 비트수로 상기 각각의 깊이값을 양자화하는 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 방법.
  13. 제12 항에 있어서, 상기 구간들 각각마다, 상기 비트수는 상기 구간의 길이 및 상기 구간에서의 상기 해상도에 따라 정해진 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 방법.
  14. 제12 항에 있어서, 상기 구간에 대해 정해진 상기 비트수는, 상기 구간이 상기 구간에서의 상기 해상도로 구분된 결과를 표현하기 위해 필요한 최소한의 비트수인 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 방법.
  15. 제10 항에 있어서, 상기 해상도는 상기 구간마다 상이한 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 방법.
  16. 3차원 영상의 픽셀들 각각의 깊이값마다, 각각은 상기 3차원 영상에 대한 측정 한계거리가 상기 3차원 영상에 대한 거리별 해상도에 따라 구분된 결과인 영역들 각각에 대응되며 양자화된 대표값들을 나타내며 미리 마련된 Look-up Table에서 상기 깊이값에 대응된 대표값을 찾는 단계; 및
    상기 찾아진 대표값을 상기 깊이값의 양자화된 결과로서 결정하는 단계를 포함하는 단계를 포함하는 깊이 정보에 대한 적응적 정보 표현 방법.
  17. 제16 항에 있어서, 상기 깊이 정보에 대한 적응적 정보 표현 방법은
    상기 Look-up Table을 생성하는 단계를 더 포함하고, 상기 찾는 단계는 상기 깊이값에 대응된 대표값을 상기 생성된 Look-up Table에서 찾는 것을 특징으로 하는 깊이 정보 대한 적응적 정보 표현 방법.
  18. 제16 항에 있어서, 상기 양자화된 대표값들 각각은, 상기 영역들의 개수에 상응하는 비트수로 양자화된 것을 특징으로 하는 깊이 정보에 대한 적응적 정보 표현 방법.
KR1020070135239A 2007-12-21 2007-12-21 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치 KR101367282B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020070135239A KR101367282B1 (ko) 2007-12-21 2007-12-21 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치
US12/219,444 US8620099B2 (en) 2007-12-21 2008-07-22 Method, medium, and apparatus representing adaptive information of 3D depth image
CN200810149782XA CN101465004B (zh) 2007-12-21 2008-09-27 表示3d深度图像的自适应信息的方法和设备
EP08167231.3A EP2076048B1 (en) 2007-12-21 2008-10-22 Adaptive representation of 3d depth image information
JP2008282349A JP5603002B2 (ja) 2007-12-21 2008-10-31 深さ情報に対する適応的情報表現方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070135239A KR101367282B1 (ko) 2007-12-21 2007-12-21 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20090067547A true KR20090067547A (ko) 2009-06-25
KR101367282B1 KR101367282B1 (ko) 2014-03-12

Family

ID=40527581

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070135239A KR101367282B1 (ko) 2007-12-21 2007-12-21 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치

Country Status (5)

Country Link
US (1) US8620099B2 (ko)
EP (1) EP2076048B1 (ko)
JP (1) JP5603002B2 (ko)
KR (1) KR101367282B1 (ko)
CN (1) CN101465004B (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120009648A (ko) * 2010-07-20 2012-02-02 삼성전자주식회사 깊이영상 부호화를 위한 율-왜곡 최적화 장치 및 방법
US8339582B2 (en) 2009-11-13 2012-12-25 Samsung Electronics Co., Ltd. Apparatus and method to correct image
KR101273869B1 (ko) * 2012-03-08 2013-06-11 동의대학교 산학협력단 거리정보를 이용한 관심영역의 화질 제어장치 및 그 제어방법
KR20160148577A (ko) * 2015-05-11 2016-12-26 보에 테크놀로지 그룹 컴퍼니 리미티드 깊이 이미지를 프로세싱하기 위한 방법 및 장치
US9945947B2 (en) 2014-06-02 2018-04-17 Samsung Electronics Co., Ltd. Method and apparatus for generating depth value corresponding to subject using depth camera
CN110824726A (zh) * 2019-12-06 2020-02-21 成都工业学院 一种π型像素排布的立体显示装置

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100016803A (ko) * 2008-08-05 2010-02-16 주식회사 몬도시스템즈 내용 적응적 해상도 비디오 압축을 위한 영상 분석 장치 및방법
CN101715143B (zh) * 2008-10-07 2011-09-14 华为技术有限公司 自适应量化和自适应反量化的方法、装置及其系统
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
JP2011029998A (ja) * 2009-07-27 2011-02-10 Sony Corp 画像記録装置、画像記録方法、及びプログラム
US8330822B2 (en) * 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US10111401B2 (en) 2010-08-31 2018-10-30 Technologies Holdings Corp. System and method for determining whether to operate a robot in conjunction with a rotary parlor
EP2670148B1 (en) * 2011-01-27 2017-03-01 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional imaging device and three-dimensional imaging method
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US8671885B2 (en) 2011-04-28 2014-03-18 Technologies Holdings Corp. Vision system for robotic attacher
EP2719160A2 (en) * 2011-06-06 2014-04-16 3Shape A/S Dual-resolution 3d scanner
KR101707463B1 (ko) * 2011-12-29 2017-02-16 인텔 코포레이션 가변 깊이 압축
CN102510514A (zh) * 2011-12-29 2012-06-20 Tcl集团股份有限公司 一种适用于三维立体显示设备的图像处理方法
KR20150036261A (ko) 2012-07-13 2015-04-07 후아웨이 테크놀러지 컴퍼니 리미티드 3차원 비디오를 표현하는 비트 스트림을 코딩하는 장치
CA2893011C (en) * 2013-01-11 2017-11-21 Mediatek Singapore Pte. Ltd. Method and apparatus for efficient coding of depth lookup table
CN104904199B (zh) * 2013-01-11 2017-06-06 寰发股份有限公司 深度查找表的编解码方法及装置
CN104036226B (zh) * 2013-03-04 2017-06-27 联想(北京)有限公司 一种目标物信息获取方法及电子设备
US10271034B2 (en) * 2013-03-05 2019-04-23 Qualcomm Incorporated Simplified depth coding
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
CN104079941B (zh) 2013-03-27 2017-08-25 中兴通讯股份有限公司 一种深度信息编解码方法、装置及视频处理播放设备
WO2014166100A1 (en) * 2013-04-12 2014-10-16 Mediatek Singapore Pte. Ltd. A flexible dlt signaling method
WO2015139203A1 (en) 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. Dlt signaling in 3d video coding
WO2016000210A1 (en) * 2014-07-01 2016-01-07 Mediatek Singapore Pte. Ltd. An improved depth lookup table
US9716875B2 (en) * 2015-09-18 2017-07-25 Intel Corporation Facilitating quantization and compression of three-dimensional graphics data using screen space metrics at computing devices
US10191450B2 (en) 2015-12-18 2019-01-29 Electronics And Telecommunications Research Institute Method and apparatus for generating binary hologram
US11206386B2 (en) * 2016-01-13 2021-12-21 Sony Corporation Information processing apparatus and information processing method
CN106323190B (zh) * 2016-09-26 2018-12-25 深圳奥比中光科技有限公司 可定制深度测量范围的深度测量方法及深度图像的系统
WO2018099571A1 (en) * 2016-12-02 2018-06-07 Huawei Technologies Co., Ltd. Apparatus and method for 3d video coding
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
CN106840021B (zh) * 2017-03-30 2020-05-26 联想(北京)有限公司 控制方法及电子设备
US10553015B2 (en) * 2017-03-31 2020-02-04 Google Llc Implicit view-dependent quantization
JP7105062B2 (ja) 2017-12-21 2022-07-22 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、コンテンツ処理装置、コンテンツ処理システム、および画像処理方法
CN108111852B (zh) * 2018-01-12 2020-05-29 东华大学 面向量化分块压缩感知编码的双测量参数率失真控制方法
KR102546321B1 (ko) * 2018-07-30 2023-06-21 삼성전자주식회사 3차원 영상 표시 장치 및 방법
WO2020072842A1 (en) * 2018-10-05 2020-04-09 Interdigital Vc Holdings, Inc. Methods and apparatus for depth encoding and decoding
US10896523B2 (en) * 2019-04-01 2021-01-19 Microsoft Technology Licensing, Llc Depth image compression

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371515A (en) * 1989-09-28 1994-12-06 Sun Microsystems, Inc. Method and apparatus for non-linear dithering of digital images
JP3190118B2 (ja) 1992-06-30 2001-07-23 キヤノン株式会社 画像処理装置
US5798762A (en) * 1995-05-10 1998-08-25 Cagent Technologies, Inc. Controlling a real-time rendering engine using a list-based control mechanism
JPH10124646A (ja) * 1996-10-17 1998-05-15 Minolta Co Ltd 3次元計測装置
KR970048605A (ko) 1995-12-29 1997-07-29 김주용 무선 주파수 거리 측정 장치 및 방법
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
KR100267259B1 (ko) 1998-02-20 2000-10-16 박호군 여러대의 카메라 입력 영상을 이용한 조밀한 깊이정보 추출방법및 그를 이용한 중간영상 합성방법
US7047305B1 (en) * 1999-12-09 2006-05-16 Vidiator Enterprises Inc. Personal broadcasting system for audio and video data using a wide area network
CN1466737A (zh) * 2000-08-09 2004-01-07 动态数字视距研究有限公司 图像转换和编码技术
US6677945B2 (en) * 2001-04-20 2004-01-13 Xgi Cayman, Ltd. Multi-resolution depth buffer
KR100450823B1 (ko) * 2001-11-27 2004-10-01 삼성전자주식회사 깊이 이미지 기반 3차원 물체의 표현을 위한 노드 구조
KR20040023088A (ko) 2002-09-10 2004-03-18 엘지전자 주식회사 사용자의 위치에 따라 최적의 영상을 제공하는 영상 표시장치 및 방법
EP1587329B1 (en) * 2003-01-20 2015-04-15 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
GB0329312D0 (en) * 2003-12-18 2004-01-21 Univ Durham Mapping perceived depth to regions of interest in stereoscopic images
ATE382919T1 (de) * 2004-02-17 2008-01-15 Koninkl Philips Electronics Nv Erzeugen einer tiefenkarte
DE602004014901D1 (de) 2004-04-29 2008-08-21 Mitsubishi Electric Corp Adaptive Quantisierung einer Tiefenkarte
EP1766558A2 (en) * 2004-07-02 2007-03-28 Koninklijke Philips Electronics N.V. Video processing
JP2006261871A (ja) 2005-03-16 2006-09-28 Victor Co Of Japan Ltd ハンズフリーカメラにおける画像処理装置
JP4962001B2 (ja) 2006-04-28 2012-06-27 日立化成工業株式会社 絶縁性基板、金属箔付き基板、及びプリント配線板
US20080044097A1 (en) * 2006-08-21 2008-02-21 Siemens Medical Solutions Usa, Inc. Fast JPEG-LS Based Compression Method for Medical Images
CN101682758A (zh) * 2006-12-19 2010-03-24 皇家飞利浦电子股份有限公司 用于对图像信号进行编码的方法和系统、经编码的图像信号、用于对图像信号进行解码的方法和系统
JP2009163717A (ja) 2007-12-10 2009-07-23 Fujifilm Corp 距離画像処理装置および方法、距離画像再生装置および方法並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8339582B2 (en) 2009-11-13 2012-12-25 Samsung Electronics Co., Ltd. Apparatus and method to correct image
KR20120009648A (ko) * 2010-07-20 2012-02-02 삼성전자주식회사 깊이영상 부호화를 위한 율-왜곡 최적화 장치 및 방법
KR101273869B1 (ko) * 2012-03-08 2013-06-11 동의대학교 산학협력단 거리정보를 이용한 관심영역의 화질 제어장치 및 그 제어방법
US9945947B2 (en) 2014-06-02 2018-04-17 Samsung Electronics Co., Ltd. Method and apparatus for generating depth value corresponding to subject using depth camera
KR20160148577A (ko) * 2015-05-11 2016-12-26 보에 테크놀로지 그룹 컴퍼니 리미티드 깊이 이미지를 프로세싱하기 위한 방법 및 장치
CN110824726A (zh) * 2019-12-06 2020-02-21 成都工业学院 一种π型像素排布的立体显示装置
CN110824726B (zh) * 2019-12-06 2024-05-28 成都工业学院 一种π型像素排布的立体显示装置

Also Published As

Publication number Publication date
US20090161989A1 (en) 2009-06-25
EP2076048A3 (en) 2011-11-09
CN101465004A (zh) 2009-06-24
JP2009151758A (ja) 2009-07-09
US8620099B2 (en) 2013-12-31
CN101465004B (zh) 2013-05-15
EP2076048B1 (en) 2019-08-21
JP5603002B2 (ja) 2014-10-08
EP2076048A2 (en) 2009-07-01
KR101367282B1 (ko) 2014-03-12

Similar Documents

Publication Publication Date Title
KR101367282B1 (ko) 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치
KR101652393B1 (ko) 3차원 영상 획득 장치 및 방법
KR101706093B1 (ko) 3차원 좌표 추출 시스템 및 그 방법
US20200267947A1 (en) Arrangement and method for measuring the biological mass of fish, and use of the arrangement
JP6467776B2 (ja) 測距システム、情報処理装置、情報処理方法及びプログラム
EP3309583B1 (en) Distance measuring apparatus, distance measuring method, and distance measuring program
EP2662833B1 (en) Light source data processing device, method and program
CN107463659B (zh) 物体搜索方法及其装置
US10140722B2 (en) Distance measurement apparatus, distance measurement method, and non-transitory computer-readable storage medium
JPWO2016075885A1 (ja) 距離検出装置及び距離検出方法
JP2018160049A (ja) 画像認識装置
JP2015127668A (ja) 計測装置、システムおよびプログラム
RU2014151621A (ru) Способ и система для инспекции тела человека на основе обратного рассеивания
JP2005242488A (ja) 物体検出装置、物体検出方法、プログラム
KR101687712B1 (ko) 분광장비를 이용하는 영상처리장치 및 그의 제어방법
KR20150072049A (ko) 다-파장 분광장치를 이용한 객체인식 장치 및 그 방법
CN108240806B (zh) 一种高光谱水深反演波段选择的方法
CN109035390B (zh) 基于激光雷达的建模方法及装置
JP6250035B2 (ja) 奥行きセンサベース反射物体の形状取得方法及び装置
EP3688407B1 (en) Light projection systems
JP6282940B2 (ja) 林相解析装置及びプログラム
CN107643890B (zh) 游戏场景构建方法及装置
KR101696088B1 (ko) 초음파 물체 인식 방법 및 장치
JP2016019201A (ja) 撮影システム、画像処理装置及びプログラム
KR20200090296A (ko) 구조적 깊이 카메라 시스템에서 인코딩 장치 및 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20071221

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20120327

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20071221

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20130131

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20131120

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20140219

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20140220

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20170119

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20170119

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20180119

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20180119

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20190116

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20190116

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20200120

Start annual number: 7

End annual number: 7

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20211202