KR101896307B1 - Method and apparatus for processing depth image - Google Patents

Method and apparatus for processing depth image Download PDF

Info

Publication number
KR101896307B1
KR101896307B1 KR1020120093529A KR20120093529A KR101896307B1 KR 101896307 B1 KR101896307 B1 KR 101896307B1 KR 1020120093529 A KR1020120093529 A KR 1020120093529A KR 20120093529 A KR20120093529 A KR 20120093529A KR 101896307 B1 KR101896307 B1 KR 101896307B1
Authority
KR
South Korea
Prior art keywords
depth image
input depth
image
input
level
Prior art date
Application number
KR1020120093529A
Other languages
Korean (ko)
Other versions
KR20130082053A (en
Inventor
김선권
최욱
이승규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/737,332 priority Critical patent/US9213883B2/en
Publication of KR20130082053A publication Critical patent/KR20130082053A/en
Application granted granted Critical
Publication of KR101896307B1 publication Critical patent/KR101896307B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

깊이 영상을 처리하기 위한 방법 및 장치가 제공된다. 서로 상이한 누적 시간을 사용하여 생성된 깊이 영상들을 이용함으로써 노이즈 및 모션 블러가 감소된 깊이 영상이 생성된다. 깊이 영상의 노이즈 및 모션 블러에 기반하여 이후 생성될 깊이 영상에 대한 누적 시간이 결정될 수 있다.A method and apparatus for processing depth images is provided. Using depth images generated using different cumulative times produces a depth image with reduced noise and motion blur. Based on the noise of the depth image and the motion blur, the cumulative time for the depth image to be generated later can be determined.

Description

깊이 영상을 처리하는 방법 및 장치{METHOD AND APPARATUS FOR PROCESSING DEPTH IMAGE}METHOD AND APPARATUS FOR PROCESSING DEPTH IMAGE < RTI ID = 0.0 >

아래의 실시예들은 깊이 영상을 처리하기 위한 방법 및 장치에 관한 것으로 보다 상세히는 깊이 영상의 생성에 사용되는 누적 시간과 관련된 깊이 영상의 처리 방법 및 장치가 개시된다.The following embodiments relate to a method and apparatus for processing a depth image, and more particularly, to a method and apparatus for processing a depth image related to the cumulative time used to generate a depth image.

비행시간(Time-of-Flight; ToF) 깊이(depth) 카메라는 씬의 2.5차원(Dimension; D) 정보를 제공하는 카메라이다. 여기서, 2.5D는 가시의 면에 대해서만 깊이 정보가 제공됨을 의미한다.Time-of-Flight (ToF) Depth A camera is a camera that provides 2.5-dimensional (D) information about a scene. Here, 2.5D means that depth information is provided only for the visible surface.

ToF 깊이 카메라는, 적외선(InfraRed; IR) 신호를 조사하는 발광다이오드(Light Emitting Diode; LED) 및 IR 신호를 검출(detection)하는 센서(sensor)를 포함한다. LED로부터 조사된 IR 신호는 물체에 맞고 반사되어 센서로 돌아온다. 센서는 물체에 맞고 반사되어 돌아온 IR 신호를 검출한다. 여기서, IR 신호는 IR 광을 의미할 수 있다.The ToF depth camera includes a light emitting diode (LED) that irradiates an InfraRed (IR) signal and a sensor that detects an IR signal. The IR signal emitted from the LED is reflected on the object and reflected back to the sensor. The sensor detects an IR signal reflected and returned to the object. Here, the IR signal may mean IR light.

IR 신호의 이동 시간(travel time)은 ToF 깊이 카메라로부터 조사된 IR 신호 및 ToF 깊이 카메라에 의해 검출된 IR 신호 간의 위상차에 기반하여 계산된다. ToF 깊이 영상은 신호의 이동 시간이 거리로 환산된 결과를 영상으로서 구성한 것이다. 말하자면, ToF 깊이 영상은 IR 신호의 이동 시간을 거리로 환산함으로써 카메라 및 물체 간의 거리를 나타내는 영상이다.The travel time of the IR signal is calculated based on the phase difference between the IR signal illuminated from the ToF depth camera and the IR signal detected by the ToF depth camera. The ToF depth image consists of the result of converting the signal travel time into distance as an image. In other words, the ToF depth image is an image representing the distance between the camera and the object by converting the travel time of the IR signal into distance.

IR 신호의 위상차는 센서로 돌아온 IR 신호의 세기를 2 개 또는 4 개의 페이즈(phase)들에 대해 측정한 결과를 사용함으로써 간접적으로 계산될 수 있다. 여기서, IR 신호의 세기는 IR 광의 세기를 의미할 수 있다.The phase difference of the IR signal can be calculated indirectly by using the result of measuring the intensity of the IR signal returned to the sensor for two or four phases. Here, the intensity of the IR signal may indicate the intensity of the IR light.

누적 시간(integration time)은 페이즈들 각각에 대해 IR 신호의 세기를 측정하는 시간들을 모두 합한 시간을 의미한다. 누적 시간 동안, 측정의 대상인 물체 또는 ToF 깊이 카메라가 움직인 경우, 상기의 ToF 깊이 카메라에 의해 촬영된 ToF 깊이 영상 내에 모션 블러(motion blur)가 발생한다.The integration time means a time obtained by summing the times for measuring the intensity of the IR signal for each of the phases. During the cumulative time, when an object to be measured or a ToF depth camera moves, a motion blur occurs in the ToF depth image photographed by the ToF depth camera.

일 실시예는 서로 상이한 누적 시간을 사용하여 생성된 복수 개의 깊이 영상들을 이용함으로써 노이즈 및 모션 블러가 감소된 깊이 영상을 생성하는 방법 및 장치를 제공할 수 있다.One embodiment can provide a method and apparatus for generating a depth image with reduced noise and motion blur by using a plurality of depth images generated using different cumulative times.

일 실시예는 깊이 영상의 노이즈 및 모션 블러에 기반하여 누적 시간을 결정하는 방법 및 장치를 제공할 수 있다.One embodiment can provide a method and apparatus for determining an accumulation time based on noise and motion blur of a depth image.

일 측면에 있어서, 입력 깊이 영상의 픽셀들 각각의 적어도 하나의 시공간적 이웃 픽셀을 결정하는 단계, 상기 적어도 하나의 시공간적 이웃 픽셀 각각의 가중치를 계산하는 단계 및 상기 적어도 하나의 시공간적 이웃 픽셀들 각각의 깊이 값 및 상기 가중치에 기반하여 상기 픽셀들 각각의 깊이 값을 갱신함으로써 출력 깊이 영상을 생성하는 단계를 포함하는 깊이 영상 처리 방법이 제공될 수 있다.In one aspect, the method includes determining at least one spatially neighboring pixel of each of the pixels of the input depth image, calculating a weight of each of the at least one spatially neighboring pixel, and calculating a depth of each of the at least one spatially neighboring pixel And generating an output depth image by updating a depth value of each of the pixels based on the weight value and the weight value.

상기 입력 깊이 영상은 중간 입력 깊이 영상일 수 있다.The input depth image may be an intermediate input depth image.

상기 결정하는 단계는, 선행 입력 깊이 영상 및 후행 깊이 영상 간의 제1 대응 관계를 식별하는 단계, 상기 식별된 제1 대응 관계에 기반하여 움직임 벡터를 검출하는 단계, 상기 검출된 움직임 벡터에 기반하여 상기 선행 입력 깊이 영상 또는 상기 후행 입력 깊이 영상 중 하나의 깊이 영상과 상기 중간 입력 깊이 영상 간의 제2 대응 관계를 추정하는 단계 및 상기 추청된 제2 대응 관계에 기반하여 상기 중간 입력 깊이 영상의 픽셀들 각각의 상기 적어도 하나의 시공간적 이웃 픽셀을 결정하는 단계를 포함할 수 있다.Wherein the determining step comprises the steps of: identifying a first correspondence between a preceding input depth image and a trailing depth image; detecting a motion vector based on the identified first correspondence; Estimating a second corresponding relationship between a depth image of one of the preceding input depth image and the subsequent input depth image and the intermediate input depth image, and estimating a second corresponding relationship between the pixels of the intermediate input depth image And determining the at least one spatiotemporal neighbor pixel of the at least one spatially neighboring pixel.

상기 선행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 선행하는 입력 깊이 영상일 수 있다. 상기 후행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 후행하는 입력 깊이 영상일 수 있다.The preceding input depth image may be an input depth image temporally preceding the intermediate input depth image. The trailing input depth image may be an input depth image traced temporally to the intermediate input depth image.

상기 선행 입력 깊이 영상의 누적 시간 및 상기 후행 입력 깊이 영상의 누적 시간은 상기 중간 입력 깊이 영상의 누적 시간에 비해 더 짧을 수 있다.The cumulative time of the preceding input depth image and the cumulative time of the subsequent input depth image may be shorter than the cumulative time of the intermediate input depth image.

상기 식별하는 단계는, 선행 적외선 강도 영상 및 후행 적외선 강도 영상 간의 광학적 흐름(optical flow)을 계산하는 단계 및 상기 광학적 흐름에 기반하여 상기 제1 대응 관계를 식별하는 단계를 포함할 수 있다.The identifying step may include calculating an optical flow between a preceding infrared intensity image and a trailing infrared intensity image and identifying the first correspondence based on the optical flow.

상기 선행 적외선 강도 영상은 상기 선행 입력 깊이 영상에 대응할 수 있다.The preceding infrared intensity image may correspond to the preceding input depth image.

상기 후행 적외선 강도 영상은 상기 후행 입력 깊이 영상에 대응할 수 있다.The trailing infrared intensity image may correspond to the trailing depth image.

상기 식별하는 단계는, 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각에 쌍방 필터(bilateral filter)를 적용함으로써 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각의 노이즈를 감소시키는 단계를 더 포함할 수 있다.The identifying step may further include reducing a noise of each of the preceding infrared intensity image and the following infrared intensity image by applying a bilateral filter to each of the preceding infrared intensity image and the following infrared intensity image .

상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치는 상기 적어도 하나의 이웃 픽셀 각각의 노이즈가 작을수록 증가할 수 있다.The weight of each of the at least one neighboring pixel may increase as the noise of each of the at least one neighboring pixel is smaller.

상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치는 상기 적어도 하나의 이웃 픽셀 각각에서 발생한 모션 블러(motion blur)가 작을수록 증가할 수 있다.The weight of each of the at least one neighboring pixel may increase as the motion blur generated in each of the at least one neighboring pixel is smaller.

다른 일 측에 따르면, 깊이 영상의 노이즈의 수준을 계산하는 단계, 상기 깊이 영상의 모션 블러의 수준을 계산하는 단계 및 상기 노이즈의 수준 및 상기 모션 블러의 수준 중 하나 이상에 기반하여 깊이 영상의 생성에 있어서의 누적 시간을 결정하는 단계를 포함하는 깊이 영상 처리 방법이 제공될 수 있다.According to another aspect, there is provided a method of generating a depth image, comprising: calculating a level of noise of a depth image; calculating a level of motion blur of the depth image; and generating a depth image based on at least one of the level of the noise and the level of the motion blur The depth image processing method including the step of determining the cumulative time in the depth image processing step.

상기 결정하는 단계에서, 상기 깊이 영상의 상기 노이즈의 수준이 상기 이전의 깊이 영상의 노이즈의 수준보다 더 크면 상기 누적 시간은 증가할 수 있고, 상기 깊이 영상의 상기 모션 블러의 수준이 상기 깊이 영상의 이전의 깊이 영상의 모션 블러의 수준보다 더 크면 상기 누적 시간은 감소할 수 있다.Wherein if the level of the noise of the depth image is greater than the level of noise of the previous depth image, the accumulation time may increase, and if the level of the motion blur of the depth image is less than the level of the depth image, The cumulative time may be reduced if it is greater than the level of the motion blur of the previous depth image.

또 다른 일 측에 따르면, 입력 깊이 영상을 수신하는 수신부 및 상기 입력 깊이 영상의 픽셀들 각각의 적어도 하나의 시공간적 이웃 픽셀을 결정하고, 상기 적어도 하나의 시공간적 이웃 픽셀 각각의 가중치를 계산하고, 상기 적어도 하나의 시공간적 이웃 픽셀들 각각의 깊이 값 및 상기 가중치에 기반하여 상기 픽셀들 각각의 깊이 값을 갱신함으로써 출력 깊이 영상을 생성하는 처리부를 포함하는 깊이 영상 처리 장치가 제공될 수 있다.According to another aspect, there is provided a method of generating a depth image, comprising: receiving a receiving depth image and determining at least one spatially neighboring pixel of each of the pixels of the input depth image; calculating a weight of each of the at least one spatially neighboring pixel; And a processing unit for generating an output depth image by updating the depth value of each of the pixels based on the depth value of each of the temporal and spatial neighboring pixels and the weight value.

상기 처리부는 선행 입력 깊이 영상 및 후행 깊이 영상 간의 제1 대응 관계를 식별하고, 상기 식별된 제1 대응 관계에 기반하여 움직임 벡터를 검출할 수 있고, 상기 검출된 움직임 벡터에 기반하여 상기 선행 입력 깊이 영상 또는 상기 후행 입력 깊이 영상 중 하나의 깊이 영상과 상기 중간 입력 깊이 영상 간의 제2 대응 관계를 추정할 수 있고, 상기 추청된 제2 대응 관계에 기반하여 상기 중간 입력 깊이 영상의 픽셀들 각각의 상기 적어도 하나의 시공간적 이웃 픽셀을 결정할 수 있다.Wherein the processing unit is operable to identify a first correspondence between a preceding input depth image and a trailing depth image and to detect a motion vector based on the identified first correspondence relationship, Wherein the second input image can estimate a second corresponding relationship between a depth image of one of the input depth image and the subsequent input depth image and the intermediate input depth image, At least one spatially neighboring pixel may be determined.

상기 처리부는 선행 적외선 강도 영상 및 후행 적외선 강도 영상 간의 광학적 흐름(optical flow)을 계산하고, 상기 광학적 흐름에 기반하여 상기 제1 대응 관계를 식별할 수 있다.The processing unit may calculate an optical flow between a leading infrared intensity image and a trailing infrared intensity image and identify the first correspondence based on the optical flow.

상기 처리부는 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각에 쌍방 필터(bilateral filter)를 적용함으로써 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각의 노이즈를 감소시킬 수 있다.The processing unit may reduce the noise of each of the preceding infrared intensity image and the following infrared intensity image by applying a bilateral filter to each of the preceding infrared intensity image and the following infrared intensity image.

상기 처리부는 상기 적어도 하나의 이웃 픽셀 각각의 노이즈가 작을수록 상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치를 증가시킬 수 있다.The processing unit may increase the weight of each of the at least one neighboring pixel as the noise of each of the at least one neighboring pixel is smaller.

상기 처리부는 상기 적어도 하나의 이웃 픽셀 각각에서 발생한 모션 블러가 작을수록 상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치를 증가시킬 수 있다.The processing unit may increase the weight of each of the at least one neighboring pixel as the motion blur generated in each of the at least one neighboring pixels is smaller.

또 다른 일 측에 따르면, 깊이 영상을 수신하는 수신부 및 깊이 영상의 노이즈의 수준 및 모션 블러의 수준 중 하나 이상을 계산하고, 상기 노이즈의 수준 및 상기 모션 블러의 수준 중 하나 이상에 기반하여 상기 깊이 영상의 생성에 있어서의 누적 시간을 결정하는 처리부를 포함하는 깊이 영상 처리 장치가 제공될 수 있다.According to another aspect, there is provided a method of calculating a depth image, the method comprising: calculating at least one of a receiver receiving a depth image and a level of noise and a level of motion blur of a depth image; and based on at least one of the level of the noise and the level of the motion blur, A depth image processing apparatus including a processing unit for determining an accumulation time in the generation of an image can be provided.

상기 처리부는 상기 깊이 영상의 상기 노이즈의 수준이 상기 이전의 깊이 영상의 노이즈의 수준보다 더 크면 상기 누적 시간을 증가시킬 수 있고, 상기 깊이 영상의 상기 모션 블러의 수준이 상기 깊이 영상의 이전의 깊이 영상의 모션 블러의 수준보다 더 크면 상기 누적 시간을 감소시킬 수 있다.Wherein the processing unit can increase the cumulative time if the level of the noise of the depth image is greater than the level of noise of the previous depth image and the level of the motion blur of the depth image is less than the previous depth of the depth image If the level of the motion blur of the image is larger than the level of the motion blur, the cumulative time can be reduced.

도 1은 일 실시예에 따른 깊이 영상 처리 장치의 블록도이다.
도 2는 일 실시예에 따른 깊이 영상 처리 방법의 블록도이다.
도 3은 일 예에 따른 시공간적 이웃 픽셀을 결정하는 방법의 흐름도이다.
도 4는 일 예에 따른 IR 강도 영상에 기반하여 입력 깊이 영상들 간의 대응 관계를 추정하는 방법의 흐름도이다.
도 5는 일 예에 따른 IR 강도 영상에 기반하여 입력 깊이 영상의 픽셀 별로 픽셀의 노이즈 수준을 판별하는 방법을 설명한다.
도 6은 일 예에 따른 시공간 패턴 분석에 기반하여 입력 깊이 영상의 픽셀의 모션 블러 수준을 판별하는 방법을 설명한다.
도 7은 일 예에 따른 페이즈 정보 간의 규칙성을 설명한다.
도 8은 일 예에 따른 페이즈 정보에 기반하여 입력 깊이 영상의 픽셀의 모션 블러 수준을 판별하는 방법을 설명한다.
도 9는 일 예에 따른 시공간적 이웃 픽셀 각각의 가중치를 계산하는 방법의 흐름도이다.
도 10은 일 실시예에 따른 깊이 영상의 누적 시간을 조절하는 깊이 영상 처리 방법의 흐름도이다.
1 is a block diagram of a depth image processing apparatus according to an exemplary embodiment of the present invention.
2 is a block diagram of a depth image processing method according to an exemplary embodiment.
3 is a flow chart of a method for determining a spatio-temporal neighbor pixel according to an example.
4 is a flowchart of a method for estimating a correspondence relationship between input depth images based on an IR intensity image according to an example.
FIG. 5 illustrates a method of determining a noise level of a pixel for each pixel of an input depth image based on an IR intensity image according to an exemplary embodiment.
FIG. 6 illustrates a method of determining a motion blur level of a pixel of an input depth image based on a spatio-temporal pattern analysis according to an exemplary embodiment.
FIG. 7 illustrates the regularity between phase information according to an example.
FIG. 8 illustrates a method of determining a motion blur level of a pixel of an input depth image based on phase information according to an example.
9 is a flowchart of a method of calculating the weights of each of the temporal and spatial neighboring pixels according to an example.
10 is a flowchart of a depth image processing method for adjusting an accumulation time of a depth image according to an exemplary embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
In the following, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 깊이 영상 처리 장치의 블록도이다.1 is a block diagram of a depth image processing apparatus according to an exemplary embodiment of the present invention.

깊이 영상 처리 장치(100)는 카메라(110), 수신부(120) 및 처리부(130)를 포함할 수 있다.The depth image processing apparatus 100 may include a camera 110, a receiving unit 120, and a processing unit 130.

카메라(110)는 깊이 카메라일 수 있다. 카메라(110)는 ToF 깊이 카메라일 수 있다. 카메라(110)는 씬(scene)을 촬영함으로써 입력 깊이 영상을 생성할 수 있다. 카메라(110)는 시간의 흐름에 따라 연속적으로 입력 깊이 영상들을 생성할 수 있다.The camera 110 may be a depth camera. The camera 110 may be a ToF depth camera. The camera 110 can generate an input depth image by photographing a scene. The camera 110 can continuously generate input depth images with the passage of time.

수신부(120)는 카메라(110)로부터 입력 깊이 영상을 수신할 수 있다.The receiving unit 120 may receive the input depth image from the camera 110.

처리부(130)는 입력 깊이 영상에 기반하여 출력 깊이 영상을 생성할 수 있다.
The processing unit 130 may generate an output depth image based on the input depth image.

도 2는 일 실시예에 따른 깊이 영상 처리 방법의 블록도이다.2 is a block diagram of a depth image processing method according to an exemplary embodiment.

단계(210)에서, 카메라(110)는 씬을 촬영함으로써 복수 개의 입력 깊이 영상들을 생성할 수 있다. 카메라(110)는 씬을 연속적으로 촬영함으로써 복수 개의 입력 깊이 영상들을 생성할 수 있다.In step 210, the camera 110 may generate a plurality of input depth images by photographing the scene. The camera 110 may generate a plurality of input depth images by successively photographing the scene.

복수 개의 입력 깊이 영상들의 누적 시간은 서로 상이할 수 있다. 예컨대, 카메라(110)는 복수 개의 입력 깊이 영상들을 촬영함에 있어서, 각 입력 깊이 영상을 서로 상이한 누적 시간동안 촬영할 수 있다.The cumulative time of a plurality of input depth images may be different from each other. For example, when photographing a plurality of input depth images, the camera 110 may photograph the input depth images for different cumulative times.

상대적으로 더 짧은 누적 시간 동안 촬영된 입력 깊이 영상은, 상대적으로 더 긴 누적 시간 동안 촬영된 입력 깊이 영상에 비해, 더 많은 노이즈를 가질 수 있고 더 적은 모션 블러(motion blur)를 가질 수 있다. 즉, 입력 깊이 영상을 촬영하기 위해 사용된 누적 시간에 따라, 촬영된 입력 깊이 영상의 특성이 변경될 수 있다. 입력 깊이 영상을 촬영하기 위해 사용된 누적 시간은 입력 깊이 영상의 누적 시간으로 약술될 수 있다. 모션 블러는 카메라(110) 및 카메라(110)에 의해 촬영되는 물체 간의 상대적인 움직임에 따라 발생할 수 있다.An input depth image taken during a relatively shorter cumulative time may have more noise and have less motion blur than an input depth image taken during a relatively longer cumulative time. That is, the characteristics of the captured input depth image may be changed according to the cumulative time used to capture the input depth image. The cumulative time used to capture the input depth image can be approximated by the cumulative time of the input depth image. The motion blur may occur according to the relative movement between the object captured by the camera 110 and the camera 110.

단계(220)에서, 수신부(120)는 카메라(110)로부터 복수 개의 입력 깊이 영상들을 수신할 수 있다.In step 220, the receiving unit 120 may receive a plurality of input depth images from the camera 110. [

단계(230)에서, 처리부(130)는 입력 깊이 영상의 픽셀들 각각의 적어도 하나의 시공간적(spatio-temporal) 이웃 픽셀을 결정할 수 있다. 여기서, 입력 깊이 영상은 복수 개의 입력 깊이 영상들 중 후술될 출력 깊이 영상에 대응하는 하나의 입력 깊이 영상일 수 있다. 입력 깊이 영상은 중간 입력 깊이 영상일 수 있다.At step 230, the processing unit 130 may determine at least one spatio-temporal neighboring pixel of each of the pixels of the input depth image. Here, the input depth image may be one input depth image corresponding to the output depth image, which will be described later, among the plurality of input depth images. The input depth image may be an intermediate input depth image.

복수 개의 입력 깊이 영상들은 선행 입력 깊이 영상, 중간 입력 깊이 영상 및 후행 입력 깊이 영상을 포함할 수 있다. 중간 입력 깊이 영상은 처리부(130)에 의해 생성될 출력 깊이 영상에 대응하는 입력 깊이 영상일 수 있다. 선행 입력 깊이 영상은 복수 개의 입력 깊이 영상들 중 중간 입력 깊이 영상에 시간적으로 선행하는 적어도 하나의 입력 깊이 영상일 수 있다. 후행 입력 깊이 영상은 복수 개의 입력 깊이 영상들 중 중간 입력 깊이 영상에 시간적으로 후행하는 적어도 하나의 입력 깊이 영상일 수 있다.The plurality of input depth images may include a preceding input depth image, an intermediate input depth image, and a posterior input depth image. The intermediate input depth image may be an input depth image corresponding to the output depth image to be generated by the processing unit 130. The preceding input depth image may be at least one input depth image temporally preceding the intermediate input depth image among the plurality of input depth images. The trailing input depth image may be at least one input depth image that temporally traces the intermediate input depth image among the plurality of input depth images.

선행 입력 깊이 영상 및 후행 입력 깊이 영상은 단(short) 누적 시간 입력 깊이 영상일 수 있다. 중간 입력 깊이 영상은 장(long) 누적 시간 입력 깊이 영상일 수 있다. 즉, 선행 입력 깊이 영상의 누적 시간 및 후행 입력 깊이 영상의 누적 시간은 중간 입력 깊이 영상의 누적 시간에 비해 더 짧을 수 있다. 선행 입력 깊이 영상의 누적 시간 및 후행 입력 깊이 영상의 누적 시간은 서로 동일할 수 있다. 누적 시간의 차이로 인해, 선행 입력 깊이 영상 및 후행 입력 깊이 영상은 각각 중간 입력 깊이 영상에 비해 더 많은 노이즈를 가지며 더 적은 모션 블러를 갖는 깊이 영상일 수 있다.The leading input depth image and the trailing input depth image may be short cumulative time input depth images. The intermediate input depth image may be a long cumulative time input depth image. That is, the cumulative time of the preceding input depth image and the cumulative time of the subsequent input depth image may be shorter than the cumulative time of the intermediate input depth image. The cumulative time of the preceding input depth image and the cumulative time of the subsequent input depth image may be the same. Because of the cumulative time difference, the preceding input depth image and the posterior input depth image may each be a depth image with more noise and less motion blur than the intermediate input depth image.

예컨대, 처리부(130)에 의해 생성되는 출력 깊이 영상이 시각 t에서의 입력 깊이 영상에 대응하는 깊이 영상이라면, 중간 입력 깊이 영상은 시각 t에서의 입력 깊이 영상일 수 있다. 선행 입력 깊이 영상은 시각 t-1에서의 입력 깊이 영상일 수 있다. 후행 입력 깊이 영상은 시각 t+1에서의 입력 깊이 영상일 수 있다. 선행 입력 깊이 영상 및 후행 입력 깊이 영상은 각각 복수 개의 입력 깊이 영상들일 수 있다.For example, if the depth of the output image generated by the processor 130, the depth image corresponding to the input depth image at time t, the intermediate input depth image may be the input depth image at time t. The preceding input depth image may be an input depth image at time t- 1. The trailing input depth image may be an input depth image at time t + 1. The preceding input depth image and the subsequent input depth image may each be a plurality of input depth images.

중간 입력 깊이 영상의 픽셀들 중 처리의 대상이 되는 픽셀을 대상 픽셀로 명명할 수 있다. 대상 픽셀의 공간적 이웃 픽셀들은 중간 입력 깊이 영상의 상기의 대상 픽셀과 이웃한 픽셀들을 의미할 수 있다. 대상 픽셀의 시간적 이웃 픽셀들은, 선행 입력 깊이 영상 또는 후행 입력 깊이 영상 내의, 대상 픽셀에 대응하는 픽셀들을 의미할 수 있다. 대상 픽셀의 시공간적 이웃 픽셀들은 대상 픽셀에 공간적 및/또는 시간적으로 이웃하는 픽셀들을 의미할 수 있다.A pixel to be processed among the pixels of the intermediate input depth image may be named a target pixel. Spatially neighboring pixels of the target pixel may refer to pixels neighboring the target pixel of the intermediate input depth image. The temporally neighboring pixels of the target pixel may refer to pixels corresponding to the target pixel in the preceding input depth image or the following input depth image. Spatiotemporal neighboring pixels of a target pixel may refer to pixels spatially and / or temporally neighboring the target pixel.

단계(240)에서, 처리부(130)는 중간 입력 깊이 영상의 픽셀들 각각에 대해, 적어도 하나의 시공간적 이웃 픽셀 각각의 가중치를 계산할 수 있다.At step 240, the processing unit 130 may calculate a weight for each of the at least one spatiotemporal neighboring pixel, for each of the pixels of the intermediate input depth image.

단계(250)에서, 처리부(130)는 적어도 하나의 시공간적 이웃 픽셀들 각각의 깊이 값 및 가중치에 기반하여 중간 입력 깊이 영상에 대응하는 출력 깊이 영상을 생성할 수 있다. 처리부(130)는 적어도 하나의 시공간적 이웃 픽셀들 각각의 깊이 값 및 가중치에 기반하여 중간 입력 깊이 영상의 픽셀들 각각의 깊이 값을 갱신함으로써 출력 깊이 영상을 생성할 수 있다.
In step 250, the processing unit 130 may generate an output depth image corresponding to the intermediate input depth image based on the depth values and weights of each of the at least one temporal neighbor pixels. The processing unit 130 may generate the output depth image by updating the depth value of each of the pixels of the intermediate input depth image based on the depth value and the weight of each of the at least one spatiotemporal neighboring pixels.

도 3은 일 예에 따른 시공간적 이웃 픽셀을 결정하는 방법의 흐름도이다.3 is a flow chart of a method for determining a spatio-temporal neighbor pixel according to an example.

도 2를 참조하여 전술된 단계(230)는 단계들(310, 320, 330 및 340)을 포함할 수 있다.Step 230 described above with reference to FIG. 2 may include steps 310, 320, 330, and 340.

처리부(130)는 움직임 추정(motion estimation)에 기반하여 중간 입력 깊이 영상들 각각의 적어도 하나의 시공간적 이웃 픽셀을 결정할 수 있다. 움직임 추정은 두 개의 깊이 영상들 간의 대응 관계를 식별하는 과정으로 볼 수 있다. 두 개의 깊이 영상들 간의 대응 관계는 상기의 두 개의 깊이 영상들의 픽셀들 간의 대응 관계를 의미할 수 있다. 즉, 대응 관계는 첫 번째 깊이 영상의 한 픽셀 및 두 번째 깊이 영상의 한 픽셀 간의 매칭(matching)에 대한 정보를 포함할 수 있다.The processing unit 130 may determine at least one spatially neighboring pixel of each of the intermediate input depth images based on motion estimation. Motion estimation can be seen as a process of identifying the correspondence between two depth images. The correspondence between the two depth images may mean a correspondence between the pixels of the two depth images. That is, the correspondence relationship may include information on matching between one pixel of the first depth image and one pixel of the second depth image.

두 개의 입력 깊이 영상들은, 1) 선행 입력 깊이 영상 및 후행 입력 깊이 영상일 수 있고, 2) 선행 입력 깊이 영상 및 중간 입력 깊이 영상일 수 있고, 또는 3) 중간 입력 깊이 영상 및 후행 깊이 영상일 수 있다. 하기에서, 선행 입력 깊이 영상 및 후행 입력 깊이 간의 움직임 추정에 기반하여 중간 입력 깊이 영상들 각각의 적어도 하나의 시공간적 이웃 픽셀을 결정하는 방법이 예시적으로 설명된다.The two input depth images may be 1) a preceding input depth image and a following input depth image, 2) a preceding input depth image and an intermediate input depth image, or 3) a middle input depth image and a following depth image have. In the following, a method for determining at least one spatially neighboring pixel of each of intermediate input depth images based on motion estimation between a preceding input depth image and a subsequent input depth is illustrated illustratively.

단계(310)에서, 처리부(130)는 선행 입력 깊이 영상 및 후행 입력 깊이 영상 간의 대응 관계를 식별할 수 있다. 여기서, 선행 입력 깊이 영상 및 후행 입력 깊이 영상 간의 대응 관계를 제1 대응 관계로 명명할 수 있다.In step 310, the processing unit 130 may identify the correspondence between the leading input depth image and the trailing input depth image. Here, the corresponding relationship between the leading input depth image and the trailing input depth image may be named as the first corresponding relationship.

단계(320)에서, 처리부(130)는 식별된 제1 대응 관계에 기반하여 움직임 벡터(motion vector)를 검출할 수 있다. 여기서, 움직임 벡터는 선행 입력 깊이 영상 내의 제1 픽셀로부터 상기의 제1 픽셀에 대응하는 후행 입력 깊이 영상 내의 제2 픽셀으로의 움직임을 나타내는 벡터일 수 있다.In step 320, the processing unit 130 may detect a motion vector based on the identified first correspondence. Here, the motion vector may be a vector representing a motion from a first pixel in a preceding input depth image to a second pixel in a subsequent input depth image corresponding to the first pixel.

단계(330)에서, 처리부(130)는 검출된 움직임 벡터에 기반하여 선행 입력 깊이 영상 또는 후행 입력 깊이 영상 중 하나의 깊이 영상과 중간 입력 깊이 영상 간의 대응 관계를 추정할 수 있다. 여기서, 선행 입력 깊이 영상 또는 후행 입력 깊이 영상 중 하나의 깊이 영상과 중간 입력 깊이 영상 간의 대응 관계를 제2 대응 관계로 명명할 수 있다.In step 330, the processing unit 130 may estimate the correspondence between the depth image of one of the preceding input depth image and the subsequent input depth image and the intermediate input depth image, based on the detected motion vector. Here, the corresponding relationship between the depth image of one of the preceding input depth image and the subsequent input depth image and the intermediate input depth image may be named as the second corresponding relationship.

예컨대, 처리부(130)는 단계(320)에서 검출된 움직임 벡터의 크기를 1/2로 줄임으로써, 선행 입력 깊이 영상 및 중간 깊이 영상 간의 대응 관계 또는 중간 깊이 영상 및 후행 깊이 영상 간의 대응 관계를 유추할 수 있다.For example, the processing unit 130 may reduce the size of the motion vector detected in step 320 to ½ so that the corresponding relationship between the preceding input depth image and the intermediate depth image, or the correspondence between the intermediate depth image and the trailing depth image, can do.

처리부(130)는 유추된 대응 관계에 기반하여 중간 깊이 영상의 한 픽셀의 적어도 하나의 시공간적 이웃 픽셀 각각의 위치를 결정할 수 있다.The processing unit 130 may determine the location of each of the at least one temporal and spatial neighboring pixel of a pixel of the medium depth image based on the inferred correspondence.

단계(340)에서, 처리부(130) 추정된 제2 대응 관계에 기반하여 중간 입력 깊이 영상의 픽셀들 각각의 적어도 하나의 시공간적 이웃 픽셀을 결정할 수 있다.
At step 340, the processing unit 130 may determine at least one spatially neighboring pixel of each of the pixels of the intermediate input depth image based on the estimated second correspondence.

도 4는 일 예에 따른 IR 강도 영상에 기반하여 입력 깊이 영상들 간의 대응 관계를 추정하는 방법의 흐름도이다.4 is a flowchart of a method for estimating a correspondence relationship between input depth images based on an IR intensity image according to an example.

도 3을 참조하여 전술된 단계(310)는 단계들(410, 420 및 430)을 포함할 수 있다.Step 310 described above with reference to FIG. 3 may include steps 410, 420, and 430.

처리부(130)는 IR 강도(intensity) 영상들에 기반하여 제1 대응 관계를 추정할 수 있다.The processing unit 130 may estimate the first correspondence based on the IR intensity images.

IR 강도 영상은 물체에 의해 반사되어 돌아온 IR 광을 페이즈를 구분하지 않고 모두 누적하여 합함으로써 생성된 영상일 수 있다.IR 강도 영상들 각각은 복수 개의 입력 깊이 영상 중 하나의 입력 깊이 영상에 대응할 수 있다. 여기서, IR 강도 영상 및 입력 깊이 영상이 서로 대응한다는 것은 IR 강도 영상 및 입력 깊이 영상이 동일한 시각에 촬영되었음을 의미할 수 있다.The IR intensity image may be an image generated by accumulating IR light reflected back from the object and accumulating all the IR images without discriminating the phases. Each of the IR intensity images may correspond to one input depth image of a plurality of input depth images have. Here, the IR intensity image and the input depth image correspond to each other, which means that the IR intensity image and the input depth image are captured at the same time.

IR 강도 영상은 카메라(110) 또는 깊이 영상 처리 장치(100)가 포함하는 다른 센서(sensor)에 의해 대응하는 입력 깊이 영상과 함께 촬영될 수 있다. 서로 대응하는 IR 강도 영상 및 입력 깊이 영상은 동일한 시점(viewpoint) 및/또는 해상도(resolution)를 가질 수 있다.The IR intensity image may be photographed with the corresponding input depth image by the camera 110 or another sensor included in the depth image processing apparatus 100. The IR intensity image and the input depth image corresponding to each other may have the same viewpoint and / or resolution.

선행 IR 강도 영상은 선행 입력 깊이 영상에 대응하는 IR 강도 영상일 수 있다. 후행 IR 강도 영상은 후행 입력 깊이 영상에 대응하는 IR 강도 영상일 수 있다. 하나의 픽셀에 대한 정보는 입력 깊이 영상 및 IR 강도 영상 내에 존재할 수 있다. 예컨대, 특정한 좌표의 픽셀의 깊이 값에 대한 정보는 입력 깊이 영상 내에 존재할 수 있고, IR 강도에 대한 정보는 IR 강도 내에 존재할 수 있다. 또한, 동일한 위치를 갖는 입력 깊이 영상 내의 픽셀 및 IR 강도 영상 내의 픽셀은 동일한 픽셀로 간주될 수 있다.The preceding IR intensity image may be an IR intensity image corresponding to the preceding input depth image. The trailing IR intensity image may be an IR intensity image corresponding to the trailing input depth image. The information for one pixel may be in the input depth image and the IR intensity image. For example, information about the depth value of a pixel at a particular coordinate may be in the input depth image, and information about the IR intensity may be within the IR intensity. Furthermore, the pixels in the input depth image having the same position and the pixels in the IR intensity image can be regarded as the same pixel.

단계(410)에서, 처리부(130)는 선행 IR 강도 영상 및 후행 IR 강도 영상 각각에 쌍방 필터(bilater filter)를 적용함으로써 선행 IR 강도 영상 및 후행 IR 강도 영상 각각의 노이즈를 감소시킬 수 있다.In step 410, the processing unit 130 may reduce the noise of each of the leading IR intensity image and the trailing IR intensity image by applying a bilater filter to each of the leading IR intensity image and the trailing IR intensity image.

단계(420)에서, 처리부(130)는 선행 IR 강도 영상 및 후행 IR 강도 영상 간의 광학적 흐름(optical flow)을 계산할 수 있다. 단계(410)에서의 쌍방 필터의 적용에 의해, 광학적 흐름이 더 정확하게 추정될 수 있다.In step 420, the processing unit 130 may calculate an optical flow between the leading IR intensity image and the trailing IR intensity image. By applying the bilateral filter in step 410, the optical flow can be estimated more accurately.

단계(430)에서, 처리부(130)는 계산된 광학적 흐름에 기반하여 전술된 선행 입력 깊이 영상 및 후행 입력 깊이 영상 간의 제1 대응 관계를 식별할 수 있다. 계산된 광학적 흐름에 의해, 하나의 깊이 영상의 한 픽셀이 다른 깊이 영상의 어떤 픽셀로 이동하였는지에 대한 정보가 벡터의 형태로 표현될 수 있다. 따라서, 픽셀 간의 이동 정보에 의해 2 개의 입력 영상들 간의 대응 관계가 추정될 수 있다.
At step 430, the processing unit 130 may identify a first correspondence between the preceding input depth image and the following input depth image based on the computed optical flow. By the calculated optical flow, information on which pixel of one depth image has moved to another pixel of another depth image can be expressed in the form of a vector. Therefore, the correspondence between the two input images can be estimated by the movement information between pixels.

도 5는 일 예에 따른 IR 강도 영상에 기반하여 입력 깊이 영상의 픽셀 별로 픽셀의 노이즈 수준을 판별하는 방법을 설명한다.FIG. 5 illustrates a method of determining a noise level of a pixel for each pixel of an input depth image based on an IR intensity image according to an exemplary embodiment.

도 2를 참조하여 전술된 단계(240)에서 계산되는 가중치는, 적어도 하나의 이웃 픽셀 각각의 노이즈의 수준에 기반하여 결정될 수 있다. 처리부(130)는 IR 강도 영상으로부터 픽셀의 노이즈의 수준을 추정할 수 있으며, 시공간에 대한 불록(spatio-temporal block) 내에서의 픽셀들의 깊이 값의 변화에 기반하여 픽셀의 노이즈의 수준을 추정할 수 있다. 여기서, 노이즈의 수준은 노이즈의 정도를 나타내는 값일 수 있다.The weights calculated in step 240 described above with reference to FIG. 2 may be determined based on the level of noise of each of the at least one neighboring pixel. The processing unit 130 can estimate the level of noise of the pixel from the IR intensity image and estimate the level of noise of the pixel based on the change of the depth value of the pixels within the spatio-temporal block . Here, the level of noise may be a value indicating the degree of noise.

도 4의 그래프는 IR 반사도 및 깊이 노이즈 간의 상관 관계를 나타낼 수 있다. 도 4의 그래프에서 x 축은 IR 반사도를 나타낼 수 있고, y 축은 깊이 노이즈를 나타낼 수 있다. x 축 상의 위치는 카메라(110)의 센서에 의해 측정된 디지털 영상의 밝기 값을 나타낼 수 있다. y 축의 단위는 mm일 수 있다.The graph of FIG. 4 can show the correlation between IR reflectivity and depth noise. In the graph of Fig. 4, the x- axis can indicate the IR reflectivity and the y- axis can show the depth noise. The position on the x- axis can indicate the brightness value of the digital image measured by the camera 110 sensor. The unit of the y- axis may be mm.

IR 반사도는 IR 강도 영상에서의 픽셀의 강도를 나타낼 수 있다. 깊이 노이즈는 상기의 픽셀에 대응하는 입력 깊이 영상의 픽셀의 노이즈의 수준을 나타낼 수 있다. 입력 깊이 영상은 전술된 중간 입력 깊이 영상, 선행 입력 깊이 영상 및 후행 입력 깊이 영상 중 적어도 하나의 입력 깊이 영상일 수 있다.The IR reflectivity can indicate the intensity of the pixel in the IR intensity image. The depth noise may indicate the level of noise of the pixel of the input depth image corresponding to the pixel. The input depth image may be an input depth image of at least one of the intermediate input depth image, the preceding input depth image, and the following input depth image.

즉, 도 4의 그래프에서, 점(point)은 하나의 픽셀을 나타낼 수 있다. 즉, 그래프의 점은 하나의 픽셀에 대한 실측 데이터를 나타낼 수 있다. 상기의 픽셀은 IR 강도 영상 내의 픽셀 및/또는 상기의 픽셀에 대응하는 입력 깊이 영상 내의 픽셀을 나타낼 수 있다. 픽셀의 x 좌표는 픽셀의 IR 반사도를 나타낼 수 있고, y 좌표는 픽셀의 깊이 노이즈를 나타낼 수 있다.That is, in the graph of FIG. 4, a point may represent one pixel. That is, the points of the graph can represent actual data for one pixel. The pixel may represent a pixel in the IR intensity image and / or a pixel in the input depth image corresponding to the pixel. The x- coordinate of the pixel can indicate the IR reflectivity of the pixel, and the y- coordinate can indicate the depth noise of the pixel.

또한, 도 4의 그래프에서, 선(line)은 픽셀들의 분포에 따른 IR 반사도 및 깊이 노이즈 간의 상관 관계를 나타낼 수 있다. 상관 관계는 실측 데이터에 기반하여 획득된 회귀 곡선일 수 있다.Also, in the graph of FIG. 4, a line may represent a correlation between IR reflectivity and depth noise according to the distribution of pixels. The correlation may be a regression curve obtained based on the measured data.

입력 깊이 영상의 픽셀의 노이즈는 반사된 IR 광에 의해 센서에서 발생한 전자들의 개수에 따라 결정될 수 있다. 발생한 전자들이 많을수록 픽셀의 노이즈는 감소할 수 있다. 발생한 전자들이 적을수록 픽셀의 노이즈는 증가할 수 있다. 여기서, 반사된 IR 광에 의해 센서에서 발생한 전자들은 센서가 반사된 IR 광을 감지할 때 픽셀에 대해 센서에서 발생한 전자들의 개수를 의미할 수 있다. 일반적으로, 노이즈 및 전자들의 개수 간의 상관 관계는 포아송(Poisson) 분포로서 모델링될 수 있다.The noise of the pixels of the input depth image can be determined by the number of electrons generated in the sensor by the reflected IR light. The more electrons generated, the less the noise of a pixel can be. The smaller the number of generated electrons, the more the noise of a pixel can increase. Here, the electrons generated in the sensor by the reflected IR light may mean the number of electrons generated in the sensor with respect to the pixel when the sensor senses the reflected IR light. In general, the correlation between noise and the number of electrons can be modeled as a Poisson distribution.

노이즈 및 전자들의 개수 간의 상관 관계에 포아송 분포에 따른 모델링이 적용된 경우, 처리부(130)는 하기의 수학식 1에 기반하여 입력 깊이 영상의 픽셀의 노이즈를 계산할 수 있다.When the modeling according to the Poisson distribution is applied to the correlation between the number of noise and the number of electrons, the processing unit 130 can calculate the noise of the pixel of the input depth image based on Equation (1) below.

Figure 112012068615812-pat00001
Figure 112012068615812-pat00001

여기서, E N 1은 입력 깊이 영상의 픽셀의 노이즈에 따른 에너지(energy)를 나타낼 수 있다. k는 상수일 수 있다. N electron 은 픽셀에 발생한 전자들의 개수를 나타낼 수 있다. 수학식 1에서 나타난 것처럼, 입력 깊이 영상의 픽셀들 각각의 노이즈의 수준들은 서로 상이할 수 있다.Here, E N 1 can represent the energy according to the noise of the pixel of the input depth image. k may be a constant. N electron can represent the number of electrons generated in a pixel. As shown in Equation (1), the levels of noise of each of the pixels of the input depth image may be different from each other.

픽셀의 노이즈는 시간에 의존하여 변할 수 있다. 복수 개의 입력 깊이 영상들에서의 대응하는 일련의 픽셀들의 노이즈는 시간에 따라 변할 수 있다. 처리부(130)는 시공간에 대한 블록(spatio-temporal block) 내의 픽셀들의 깊이 값의 변화를 측정함으로써 픽셀의 노이즈를 계산할 수 있다. 여기서, 시공간에 대한 블록은 윈도우(window)를 의미할 수 있다.The noise of a pixel can vary depending on time. The noise of the corresponding series of pixels in a plurality of input depth images may vary over time. The processing unit 130 may calculate the noise of the pixel by measuring a change in the depth value of pixels in a spatio-temporal block with respect to time and space. Here, the block for time and space may mean a window.

처리부(130)는 하기의 수학식 2에 기반하여 입력 깊이 영상의 픽셀의 노이즈를 계산할 수 있다.The processing unit 130 may calculate the noise of a pixel of the input depth image based on Equation (2).

Figure 112012068615812-pat00002
Figure 112012068615812-pat00002

여기서, E N2 은 입력 깊이 영상의 픽셀의 노이즈에 따른 에너지를 나타낼 수 있다.Here, E N2 can represent the energy according to the noise of the pixel of the input depth image.

D는 픽셀의 깊이 값을 나타낼 수 있다. D(a, b, c)는 인덱스가 a인 입력 깊이 영상의 bj 열의 픽셀의 깊이 값을 나타낼 수 있다. 여기서, 인덱스는 입력 깊이 영상이 생성된 시각을 나타낼 수 있다. 인덱스가 a인 입력 깊이 영상은 시각 a에 생성된 입력 깊이 영상을 의미할 수 있다. D can represent the depth value of the pixel. D ( a , b , c ) can represent the depth value of a pixel in row b and row j of an input depth image with index a . Here, the index can represent the time at which the input depth image is generated. An input depth image having index a may mean an input depth image generated at time a .

HeightWidth는 각각 시공간에 대한 블록의 높이 및 폭을 나타낼 수 있다. ij는 시공간에 대한 블록 내에 포함되는 픽셀들 중 하나의 픽셀의 수직 위치 및 수평 위치를 나타낼 수 있다. Height and Width can represent the height and width of the block over time and space, respectively. i and j may represent the vertical and horizontal positions of one of the pixels included in the block for the space-time.

k는 중간 입력 깊이 영상의 인덱스를 나타낼 수 있다. k-1은 선행 입력 깊이 영상의 인덱스를 나타낼 수 있다. k+1은 후행 입력 깊이 영상의 인덱스를 나타낼 수 있다. 중간 입력 깊이 영상, 선행 입력 깊이 영상 및 후행 입력 깊이 영상의 누적 시간들은 모두 동일할 수 있다.
k can represent the index of the intermediate input depth image. k- 1 may represent the index of the preceding input depth image. k +1 can represent the index of the posterior input depth image. The cumulative times of the intermediate input depth image, the preceding input depth image, and the posterior input depth image may all be the same.

도 6은 일 예에 따른 시공간 패턴 분석에 기반하여 입력 깊이 영상의 픽셀의 모션 블러 수준을 판별하는 방법을 설명한다.FIG. 6 illustrates a method of determining a motion blur level of a pixel of an input depth image based on a spatio-temporal pattern analysis according to an exemplary embodiment.

입력 깊이 영상 중 모션 블러가 발생한 위치에서는 도 6에서 도시된 것과 같은 특유의 패턴이 나타날 수 있다.A specific pattern as shown in FIG. 6 may appear at the position where the motion blur occurs in the input depth image.

도 6에서, 시각 k-1에서의 입력 깊이 영상에서 발생한 제1 패턴(610), 시각 k에서의 입력 깊이 영상에서 발생한 제2 패턴(620) 및 시각 k+1에서의 입력 깊이 영상에서 발생한 제3 패턴(630)이 각각 도시되었다. 여기서, 제1 패턴(610), 제2 패턴(620) 및 제3 패턴(630)은 각각 모션 블러로 추정되는 패턴일 수 있다. 시각 k-1에서의 입력 깊이 영상, 시각 k에서의 입력 깊이 영상 및 시각 k+1에서의 입력 깊이 영상은 각각 선행 입력 깊이 영상, 중간 입력 깊이 영상 및 후행 입력 깊이 영상일 수 있다.In Figure 6, generated in the input depth image at time k first pattern generated in the input depth image from -1 610, time k the second pattern 620 and the time k +1 generated in the input depth image in the Three patterns 630 are shown respectively. Here, the first pattern 610, the second pattern 620, and the third pattern 630 may each be a pattern estimated by motion blur. The input depth image at time k -1, the input depth image at time k , and the input depth image at time k +1 may be the preceding input depth image, the intermediate input depth image, and the posterior input depth image, respectively.

P(k-1), P(k) 및 P(k+1)는 각각 모션 블러로 추정되는 패턴이 이동하는 경로를 나타내는 백터일 수 있다. Vd(k-1), Vd(k) 및 Vd(k+1)는 각각 제1 패턴(610), 제2 패턴(620) 및 제3 패턴(630)의 방향을 나타낼 수 있다. 또한, 제1 패턴(610)로부터 제3 패턴(630)으로의 벡터(640)가 도시되었다. P ( k- 1), P ( k ) and P ( k + 1) may be vectors representing a path through which a pattern estimated by motion blur moves. Vd ( k -1), Vd ( k ), and Vd ( k +1) may indicate the directions of the first pattern 610, the second pattern 620, and the third pattern 630, respectively. In addition, a vector 640 from the first pattern 610 to the third pattern 630 is shown.

복수 개의 입력 깊이 영상들에서 발생한 패턴들은 방향성을 가질 수 있다. 처리부(130)는 시간의 흐름에 따라 생성된 복수 개의 입력 깊이 영상들 내에서 발생한 모션 블러로 추정되는 패턴들이 모션 블러의 패턴의 이동 방향과 일치하는 방향으로 이동하는지 여부를 검증함으로써 상기의 모션 블러로 추정되는 패턴들이 실제로 모션 블러를 나타내는 패턴인지 여부를 판단할 수 있다.Patterns generated in a plurality of input depth images may have directionality. The processing unit 130 verifies whether or not the patterns estimated as motion blur generated in the plurality of input depth images generated according to the time move in the direction coinciding with the moving direction of the pattern of the motion blur, It can be determined whether or not the patterns estimated to be motion blur are actually patterns representing motion blur.

모션 블러로 추정되는 패턴은 인접한 백색 면 및 흑색 면을 갖는 패턴일 수 있다. 일반적으로, 모션 블러의 패턴은 이동 방향을 기준으로 백색 면이 전면, 흑색 면이 후면이 된다. 따라서, 모션 블러로 추정된 패턴들이, 상기의 모션 블러로 추정되는 패턴들의 시간에 따른 이동 방향을 기준으로, 전면이 백색이고 후면이 흑색이면 처리부(130)는 모션 블러로 추정된 패턴들이 실제로 모션 블러를 나타내는 것으로 판단할 수 있다.The pattern estimated as motion blur may be a pattern having adjacent white and black surfaces. Generally, a pattern of a motion blur is a white surface on the front side and a black side on the rear side with respect to the moving direction. Accordingly, if the patterns estimated by the motion blur are white on the front and black on the basis of the moving direction of the patterns estimated by the motion blur over time, the processing unit 130 determines that the patterns estimated by the motion blur are actually motion It can be judged that it represents blur.

처리부(130)는 하기의 수학식 3에 기반하여 모션 블러에 따른 에너지를 계산할 수 있고, 상기의 모션 블러에 따른 에너지의 값이 기준치 이하이면 모션 블러로 추정되는 패턴들이 실제로 모션 블러를 나타내는 모션 블러 패턴들인 것으로 판단할 수 있다.The processing unit 130 can calculate the energy according to the motion blur based on Equation (3) below. If the energy value according to the motion blur is below the reference value, the patterns estimated as motion blur are actually motion blur Patterns. ≪ / RTI >

Figure 112012068615812-pat00003
Figure 112012068615812-pat00003

여기서, E MB 는 모션 블러에 따른 에너지를 나타낼 수 있다. E MB Vp(k)의 각도 및 Vd(k)의 각도가 서로 상이할수록 더 큰 값을 가질 수 있다. 즉, Vp(k)의 각도 및 Vd(k)의 각도가 유사할수록, 모션 블러로 추정되는 벡터들이 실제로 모션 블러 벡터들일 확률이 증가할 수 있다.Here, E MB can represent energy according to motion blur. E MB can have a larger value as the angle of Vp ( k ) and the angle of Vd ( k ) are different from each other. That is, the more similar the angle of Vp ( k ) and the angle of Vd ( k ), the greater the probability that the vectors estimated by motion blur are actually motion blur vectors.

처리부(130)는, 모션 블러로 추정되는 패턴들이 실제로 모션 블러 패턴들인 것으로 판단한 경우, 모션 블러 패턴들의 너비 및 강도를 측정함으로써 입력 깊이 영상의 모션 블러의 수준을 계산할 수 있다. 여기서, 입력 깊이 영상의 모션 블러의 수준은 입력 깊이 영상 내의 픽셀들 각각에 대한 모션 블러의 수준을 의미할 수 있다. 모션 블러의 수준은 모션 블러가 발생한 정도를 나타내는 값일 수 있다.
The processing unit 130 may calculate the level of motion blur of the input depth image by measuring the width and intensity of the motion blur patterns when it is determined that the patterns estimated by the motion blur are actually motion blur patterns. Here, the level of the motion blur of the input depth image may indicate the level of the motion blur for each of the pixels in the input depth image. The level of motion blur may be a value indicating the degree of motion blur.

도 7은 일 예에 따른 페이즈 정보 간의 규칙성을 설명한다.FIG. 7 illustrates the regularity between phase information according to an example.

입력 깊이 영상을 생성하기 위해, 카메라(110)는 4 개의 페이즈 정보를 측정할 수 있다. 여기서, 페이즈 정보는 Q1, Q2, Q3 및 Q4로 표현될 수 있다.To generate an input depth image, the camera 110 may measure four phase information. Here, the phase information may be represented by Q1, Q2, Q3, and Q4.

Q1, Q2, Q3 및 Q4는 각각 0°의 페이즈 Q0의 정보, 180°의 페이즈 Q180의 정보, 90°의 페이즈 Q90의 정보 및 270°의 페이즈 Q270의 정보일 수 있다. 예컨대, Q1은 조사된 IR 광 및 반사되어 돌아온 IR 광 간의 위상차가 0°일 때의 페이즈 정보일 수 있다. Q3은 조사된 IR 광 및 반사되어 돌아온 IR 광 간의 위상차가 180°일 때의 페이즈 정보일 수 있다. 페이즈 정보는 반사되어 돌아온 IR 광의 세기를 나타낼 수 있다.Q1, Q2, Q3 and Q4 may be, each information of the 0 ° phase of the Q 0 of information, 180 ° phase Q 180 of information, 90 ° of the phase information and the Q 90 Q 270 270 ° phase of the. For example, Q1 may be phase information when the phase difference between the irradiated IR light and the returned IR light is 0 DEG. Q3 may be phase information when the phase difference between the irradiated IR light and the returned IR light is 180 DEG. The phase information may reflect the intensity of the IR light that is reflected back.

Q1, Q2, Q3 및 Q4는, 페이즈 정보의 측정 원리 상, 서로 간의 규칙성을 가질 수 있다.Q1, Q2, Q3 and Q4 can have regularity with each other on the principle of measurement of phase information.

도 7의 그래프는 깊이 영상의 픽셀의 Q1-Q2 및 Q3-Q4 간의 관계를 나타낼 수 있다. 그래프의 x 축은 Q1의 값에서 Q2의 값을 뺀 차를 나타낼 수 있다. 그래프의 y 축은 Q3의 값에서 Q4의 값을 뺀 차를 나타낼 수 있다. Q1-Q2 및 Q3-Q4는 각각 2 개의 페이즈 영상들의 밝기 값들 간의 차이를 나타낼 수 있다.The graph of Fig. 7 can show the relationship between Q1-Q2 and Q3-Q4 of the pixels of the depth image. The x-axis of the graph can represent the difference between the value of Q1 minus the value of Q2. The y-axis of the graph can represent the difference between the value of Q3 minus the value of Q4. Q1-Q2 and Q3-Q4 may represent the difference between the brightness values of the two phase images, respectively.

페이즈 영상은 2D 영상일 수 있다. 따라서, 페이즈 영상들의 밝기 값들 간의 차이는 2D의 값들을 가질 수 있다. 여기서, 2D의 값들은 각각 픽셀에 대응할 수 있다. 또한, Q1-Q2 및 Q3-Q4는 각각 페이즈 영상 중 하나의 픽셀에 대한 밝기 값을 의미할 수 있다.The phase image may be a 2D image. Thus, the difference between the brightness values of the phase images may have 2D values. Here, the values of 2D may correspond to pixels, respectively. Also, Q1-Q2 and Q3-Q4 may mean brightness values for one pixel in the phase image, respectively.

그래프 내의 각 점들은 입력 깊이 영상 내의 픽셀에 대응할 수 있다. 즉, 입력 깊이 영상 내의 픽셀은 도 7의 그래프의 점들의 위치들의 분포가 나타내는 규칙성을 가질 수 있다. 규칙성은 하기의 수학식 4에 의해 표현될 수 있다.Each point in the graph may correspond to a pixel in the input depth image. That is, the pixels in the input depth image may have the regularity indicated by the distribution of the positions of the points in the graph of FIG. The regularity can be expressed by the following equation (4).

Figure 112012068615812-pat00004
Figure 112012068615812-pat00004

여기서, k는 상수일 수 있다.Here, k may be a constant.

즉, 중간 입력 깊이 영상 등과 같은 입력 깊이 영상 내의 픽셀에 대해서, 규칙성은 픽셀의 Q1 및 Q2 간의 차의 절대 값 및 Q3 및 Q4 간의 차의 절대 값의 합이 일정한 값을 갖는 것을 의미할 수 있다.That is, for a pixel in an input depth image such as an intermediate depth-depth image, regularity may mean that the sum of the absolute value of the difference between Q1 and Q2 and the absolute value of the difference between Q3 and Q4 of the pixel has a constant value.

중간 입력 깊이 영상의 특정한 픽셀이, 도 7의 그래프 내의 점들로 표현되는 마름모꼴에 가까울수록 상기의 특정한 픽셀의 페이즈 정보가 정확하게 측정된 것으로 간주될 수 있다. 반면, 상기의 특정한 픽셀이 상기의 마름모꼴로부터 멀수록 상기의 특정한 픽셀의 페이즈 정보는 부정확하게 측정된 것으로 간주될 수 있다.The closer the particular pixel of the intermediate input depth image is to the diamond shape represented by the points in the graph of FIG. 7, the more the phase information of that particular pixel can be regarded as being accurately measured. On the other hand, the farther the specific pixel is from the diamond, the phase information of the particular pixel may be regarded as being incorrectly measured.

전술된 규칙성은 입력 깊이 영상의 픽셀에서 모션 블러가 발생하지 않은 경우에 유지될 수 있다. 즉, 전술된 규칙성이 적용되지 않은 픽셀은 모션 블러가 발생한 픽셀로 간주될 수 있다.
The above-described regularity can be maintained when no motion blur occurs in the pixels of the input depth image. That is, a pixel to which the above-described regularity is not applied can be regarded as a pixel where motion blur occurs.

도 8은 일 예에 따른 페이즈 정보에 기반하여 입력 깊이 영상의 픽셀의 모션 블러 수준을 판별하는 방법을 설명한다.FIG. 8 illustrates a method of determining a motion blur level of a pixel of an input depth image based on phase information according to an example.

도 8의 그래프는 Q1-Q2 및 Q3-Q4 간의 관계를 나타낼 수 있다. 그래프의 x 축은 Q1의 값에서 Q2의 값을 뺀 차를 나타낼 수 있다. 그래프의 y 축은 Q3의 값에서 Q4의 값을 뺀 차를 나타낼 수 있다.The graph of FIG. 8 can show the relationship between Q1-Q2 and Q3-Q4. The x-axis of the graph can represent the difference between the value of Q1 minus the value of Q2. The y-axis of the graph can represent the difference between the value of Q3 minus the value of Q4.

도 7에서, 규칙성이 적용되지 않는 특정한 픽셀들의 Q1-Q2 및 Q3-Q4 간의 관계가 기호 '×'로 표시되었다.In Fig. 7, the relationship between Q1-Q2 and Q3-Q4 of specific pixels to which the regularity is not applied is indicated by the symbol 'X'.

기호 '×'는 점들로 이루어진 마름모꼴로부터 멀리 떨어져 있다. 따라서, 처리부(130)는 기호 '×'에 대응한 픽셀에 대해서는 페이즈 정보 간의 규칙성이 유지되지 않은 것으로 판단할 수 있다. 또한, 처리부(130)는 기호 '×'에 대응한 픽셀에서는 모션 블러가 발생한 것으로 판단할 수 있다.The symbol 'x' is far from the rhombus consisting of dots. Therefore, the processing unit 130 can determine that the regularity between the phase information is not maintained for pixels corresponding to the symbol 'X'. Also, the processing unit 130 can determine that a motion blur has occurred in the pixel corresponding to the symbol 'X'.

처리부(130)는 입력 깊이 영상 내의 픽셀에 대해서, 픽셀의 Q1 및 Q2 간의 차의 절대 값 및 Q3 및 Q4 간의 차의 절대 값의 합을 계산하고, 계산된 합에 기반하여 픽셀의 모션 블러 수준을 결정할 수 있다. 처리부(130)는 상기의 계산된 합 및 페이즈 정보 간의 규칙성을 나타내는 상수 k 간의 차의 절대 값이 더 클수록 픽셀의 모션 블러 수준이 더 높은 것으로 결정할 수 있다.
For the pixels in the input depth image, the processing unit 130 calculates the sum of the absolute value of the difference between Q1 and Q2 of the pixel and the absolute value of the difference between Q3 and Q4, and calculates the motion blur level of the pixel based on the calculated sum You can decide. The processing unit 130 can determine that the higher the absolute value of the difference between the constants k indicating the regularity between the calculated sum and phase information, the higher the motion blur level of the pixel.

도 9는 일 예에 따른 시공간적 이웃 픽셀 각각의 가중치를 계산하는 방법의 흐름도이다.9 is a flowchart of a method of calculating the weights of each of the temporal and spatial neighboring pixels according to an example.

도 2를 참조하여 전술된 단계(240)는 단계들(910, 920, 930, 940 및 950)을 포함할 수 있다.Step 240 described above with reference to FIG. 2 may include steps 910, 920, 930, 940, and 950.

단계(910)에서, 처리부(130)는 적어도 하나의 이웃 픽셀 각각의 노이즈의 수준을 계산할 수 있다. 노이즈의 수준을 계산하는 방법이 도 5를 참조하여 상세히 전술되었다.In step 910, the processing unit 130 may calculate the level of noise of each of the at least one neighboring pixel. A method of calculating the level of noise has been described above in detail with reference to FIG.

단계(920)에서, 처리부(130)는 적어도 하나의 이웃 픽셀 각각의 모션 블러의 수준을 계산할 수 있다. 모션 블러의 수준을 계산하는 방법이 도 6 내지 도 8을 참조하여 상세히 전술되었다.In step 920, the processing unit 130 may calculate the level of motion blur for each of at least one neighboring pixel. A method of calculating the level of motion blur has been described in detail above with reference to Figs.

단계(930)에서, 처리부(130)는 입력 깊이 영상의 픽셀 및 상기 픽셀의 적어도 하나의 시공간적 이웃 픽셀 간의 깊이의 유사도를 계산할 수 있다. 여기서, 깊이의 유사도는 입력 깊이 영상의 픽셀의 깊이 값 및 상기의 픽셀의 적어도 하나의 시공간적 이웃 픽셀의 깊이 값이 서로 가까울수록 더 클 수 있다. 즉, 깊이의 유사도는 입력 깊이 영상의 픽셀의 깊이 값 및 상기의 픽셀의 적어도 하나의 시공간적 이웃 픽셀의 깊이 값 간의 차의 절대값에 반비례할 수 있다.In step 930, the processing unit 130 may compute the degree of similarity of the depth between the pixels of the input depth image and the at least one temporal / spatial neighboring pixel of the pixel. Here, the degree of similarity of depth may be larger as the depth value of the pixel of the input depth image and the depth value of at least one space-time neighboring pixel of the pixel are closer to each other. That is, the similarity of the depth may be inversely proportional to the absolute value of the difference between the depth value of the pixel of the input depth image and the depth value of the at least one space-time neighboring pixel of the pixel.

단계(940)에서, 처리부(130)는 IR 강도 영상의 픽셀 및 상기 픽셀의 적어도 하나의 시공간적 이웃 픽셀 간의 강도의 유사도를 계산할 수 있다. 여기서, 강도의 유사도는 IR 강도 영상의 픽셀의 강도 값 및 상기의 픽셀의 적어도 하나의 시공간적 이웃 픽셀의 강도 값이 서로 가까울수록 더 클 수 있다. 즉, 강도의 유사도는 IR 강도 영상의 픽셀의 강도 값 및 상기의 픽셀의 적어도 하나의 시공간적 이웃 픽셀의 강도 값 간의 차의 절대값에 반비례할 수 있다. 단계(930)의 입력 깊이 영상의 및 단계(940)의 IR 강도 영상은 서로 대응하는 영상들일 수 있다. 또한, 단계(930)의 입력 깊이 영상의 픽셀 및 단계(940)의 IR 강도 영상의 픽셀은 서로 대응하는 픽셀들일 수 있으며, 동일한 픽셀의 서로 다른 정보를 나타내는 것으로 간주될 수 있다.At step 940, the processing unit 130 may compute the degree of similarity between the intensity of the IR intensity image and the at least one spatiotemporal neighboring pixel of the pixel. Here, the degree of similarity of the intensity may be larger as the intensity value of the pixel of the IR intensity image and the intensity value of the at least one space-time neighboring pixel of the pixel are closer to each other. That is, the similarity of the intensity may be inversely proportional to the absolute value of the difference between the intensity value of the pixel of the IR intensity image and the intensity value of the at least one spatio-temporal neighboring pixel of the pixel. The IR intensity images of step 930 and the input depth image of step 930 may be images corresponding to each other. In addition, the pixels of the input depth image of step 930 and the pixels of the IR intensity image of step 940 may correspond to each other and may be considered to represent different information of the same pixel.

픽셀 i는 중간 입력 깊이 영상과 같은 입력 깊이 영상의 픽셀 또는 IR 강도 영상의 픽셀일 수 있다. 픽셀 j는 픽셀 i의 적어도 하나의 시공간적 이웃 픽셀 중 하나의 이웃 픽셀일 수 있다.The pixel i may be a pixel of an input depth image such as an intermediate input depth image or a pixel of an IR intensity image. Pixel j may be a neighbor pixel of one of the at least one spatio temporal neighbor pixel of pixel i .

단계(950)에서, 처리부(130)는 1) 이웃 픽셀의 노이즈의 수준, 2) 이웃 픽셀의 모션 블러의 수준, 3) 입력 깊이 영상의 픽셀 및 이웃 픽셀 간의 깊이의 유사도 및 4) IR 강도 영상의 픽셀 및 이웃 픽셀 간의 유사도 중 하나 이상에 기반하여 이웃 픽셀의 가중치를 계산할 수 있다.In step 950, the processing unit 130 determines the following: 1) the level of noise of neighboring pixels, 2) the level of motion blur of neighboring pixels, 3) the similarity of the depths of pixels of the input depth image and neighboring pixels, and 4) The weight of the neighboring pixels may be calculated based on at least one of the pixel of the neighboring pixels and the similarity between neighboring pixels.

예컨대, 처리부(130)는 적어도 하나의 이웃 픽셀 각각의 노이즈가 작을수록 적어도 하나의 이웃 픽셀 각각의 가중치를 증가시킬 수 있다. 처리부(130)는 적어도 하나의 이웃 픽셀 각각에서 발생한 모션 블러가 작을수록 적어도 하나의 이웃 픽셀 각각의 가중치를 증가시킬 수 있다. 처리부(130)는 적어도 하나의 이웃 픽셀 각각 및 입력 깊이 영상의 픽셀 간의 깊이 유사도가 낮을수록 적어도 하나의 이웃 픽셀 각각의 가중치를 증가시킬 수 있다. 처리부(130)는 적어도 하나의 이웃 픽셀 각각 및 IR 강도 영상의 픽셀 간의 강도 유사도가 낮을수록 적어도 하나의 이웃 픽셀 각각의 가중치를 증가시킬 수 있다.For example, the processing unit 130 may increase the weight of each of the at least one neighboring pixel as the noise of each of the at least one neighboring pixel becomes smaller. The processing unit 130 may increase the weight of each of the at least one neighboring pixel as the motion blur generated in each of the at least one neighboring pixel becomes smaller. The processing unit 130 may increase the weight of each of the at least one neighboring pixel as the depth similarity between at least one of the neighboring pixels and the pixels of the input depth image is lower. The processing unit 130 may increase the weight of each of the at least one neighboring pixel as the intensity similarity degree between each of the at least one neighboring pixel and the pixel of the IR intensity image is lower.

처리부(130)는 하기의 수학식 5에 기반하여 가중치를 계산할 수 있다.The processing unit 130 may calculate a weight based on Equation (5) below.

Figure 112012068615812-pat00005
Figure 112012068615812-pat00005

여기서, i는 입력 깊이 영상의 픽셀 및 상기의 입력 깊이 영상의 픽셀에 대응하는 IR 강도 영상의 픽셀을 나타낼 수 있다. j는 픽셀 i의 적어도 하나의 이웃 픽셀 중 하나의 이웃 픽셀을 나타낼 수 있다. kN 개의 입력 깊이 영상들 중 k 번째 입력 깊이 영상을 나타낼 수 있다. k 번째 입력 깊이 영상은 픽셀 i의 입력 깊이 영상일 수 있다. 즉, k는 픽셀 i를 포함하는 입력 깊이 영상의 인덱스를 나타낼 수 있다.Here, i may represent a pixel of the input depth image and a pixel of the IR intensity image corresponding to the pixel of the input depth image. j may represent a neighboring pixel of one of at least one neighboring pixel of pixel i . k can represent a k- th input depth image among N input depth images. The kth input depth image may be an input depth image of pixel i . That is, k may represent an index of an input depth image including a pixel i .

W 1(k, i, m, j)는 k 번째 입력 깊이 영상의 픽셀 i를 필터링하기 위해 이용되는, 1) m 번째 입력 깊이 영상의, 2) 픽셀 i의 시공간적 이웃 픽셀 j의 가중치일 수 있다. 여기서, k 번째 입력 깊이 영상은 중간 입력 깊이 영상일 수 있다. m 번째 입력 깊이 영상은 선행 입력 깊이 영상, 중간 입력 깊이 영상 및 후행 입력 깊이 영상 중 하나의 입력 깊이 영상일 수 있다. W 1 (k, i, m, j) may be a k-th input depth of a pixel i of an image to be used for filtering, 1) m of the second input depth image, and 2) the weight of the pixel i spatial and temporal neighboring pixels j of . Here, the k- th input depth image may be an intermediate input depth image. The m- th input depth image may be an input depth image of one of the preceding input depth image, the intermediate input depth image, and the posterior input depth image.

σ는 가우시안 분포(Gaussian Distribution)의 상수일 수 있다.? can be a constant of the Gaussian distribution.

E N 은 픽셀 j의 노이즈에 따른 에너지일 수 있다. E N 은 전술된 수학식 1의 E N 1일 수 있다. E N 은 전술된 수학식 2의 E N 2일 수 있다. 처리부(130)는 E N 1E N 2 중 하나 이상에 기반하여 E N 을 계산할 수 있다. E N may be the energy according to the noise of pixel j . E N may be E N 1 of the above-mentioned equation (1). E N may be E N 2 in the above-described equation (2). The processing unit 130 may calculate E N based on one or more of E N 1 and E N 2 .

E M 은 픽셀 j의 모션 블러에 따른 에너지일 수 있다. E M 은 전술된 수학식 3의 E MB 일 수 있다. 처리부(130)는 E MB 에 기반하여 E M 을 계산할 수 있다. E M can be the energy according to the motion blur of pixel j . E M can be E MB in Equation (3). Processor 130 may on the basis of the calculated E MB E M.

E S 1는 픽셀 i 및 픽셀 j 간의 깊이 유사도에 따른 에너지일 수 있다. E S 1 may be energy according to the depth similarity between pixel i and pixel j .

E S 2는 픽셀 i 및 픽셀 j 간의 강도 유사도에 따른 에너지일 수 있다. E S 2 may be an energy according to intensity similarity between pixel i and pixel j .

C 1, C 2, C 3C 3은 각각 E N , E M , E S 1E S 2의 가중치일 수 있으며, 0 이상의 값을 가질 수 있다.
C 1 , C 2 , C 3 and C 3 may be weights of E N , E M , E S 1 and E S 2 , respectively, and may have a value of zero or more.

입력 깊이 영상의 픽셀들 각각의 적어도 하나의 이웃 픽셀의 가중치가 계산된 후, 단계(250)에서 처리부는 출력 깊이 영상을 생성할 수 있다.After the weights of at least one neighboring pixel of each of the pixels of the input depth image are computed, the processing unit may generate an output depth image at step 250.

출력 깊이 영상의 픽셀들 각각의 깊이 값은, 출력 깊이 영상의 픽셀의 적어도 하나의 이웃 픽셀의 가중치 및 깊이 값의 곱의 합(sum of product)일 수 있다. 처리부(130)는 입력 깊이 영상의 픽셀에 대해, 상기의 픽셀의 적어도 하나의 이웃 픽셀의 가중치 및 깊이 값의 곱의 합을 상기의 입력 깊이 영상의 픽셀에 대응하는 출력 깊이 영상의 픽셀의 깊이 값으로서 결정할 수 있다.The depth value of each of the pixels of the output depth image may be a sum of products of the weight and depth values of at least one neighbor pixel of the pixels of the output depth image. The processing unit 130 may multiply the sum of the products of the weights and depth values of at least one neighboring pixel of the pixel with respect to the pixels of the input depth image by a depth value of the pixel of the output depth image corresponding to the pixel of the input depth image As shown in FIG.

처리부(130)는 하기의 수학식 6에 기반하여 출력 깊이 영상의 픽셀들 각각의 깊이 값을 계산할 수 있다.The processing unit 130 may calculate the depth value of each of the pixels of the output depth image based on Equation (6).

Figure 112012068615812-pat00006
Figure 112012068615812-pat00006

여기서, D raw (m, j)는 m 번째 입력 깊이 영상의 픽셀 j의 깊이 값일 수 있다.Here, D raw ( m , j ) may be the depth value of the pixel j of the m- th input depth image.

N(k, j)는 k 번째 입력 깊이 영상의 픽셀 j의 적어도 하나의 이웃 픽셀의 집합일 수 있다. N ( k , j ) may be a set of at least one neighboring pixel of pixel j of the k- th input depth image.

D filtered(k, i)는 k 번째 출력 깊이 영상의 픽셀 i의 깊이 값일 수 있다. k 번째 출력 깊이 영상은 k 번째 입력 깊이 영상에 대응하는 출력 깊이 영상일 수 있다. D filtered ( k , i ) may be the depth value of pixel i of the kth output depth image. The kth output depth image may be an output depth image corresponding to the kth input depth image.

입력 깊이 영상에 비해 출력 깊이 영상은 적어도 하나의 이웃 픽셀의 가중치 및 깊이 값에 의해 필터된(filtered) 깊이 영상일 수 있다. 따라서, 출력 깊이 영상은 필터된 깊이 영상으로 명명될 수 있다.
The output depth image relative to the input depth image may be a filtered depth image by the weight and depth values of at least one neighboring pixel. Thus, the output depth image can be named a filtered depth image.

도 10은 일 실시예에 따른 깊이 영상의 누적 시간을 조절하는 깊이 영상 처리 방법의 흐름도이다.10 is a flowchart of a depth image processing method for adjusting an accumulation time of a depth image according to an exemplary embodiment.

단계(1010)에서, 카메라(110)는 씬을 촬영함으로써 복수 개의 입력 깊이 영상들을 생성할 수 있다. 카메라(110)는 씬을 연속적으로 촬영함으로써 복수 개의 입력 깊이 영상들을 생성할 수 있다.In step 1010, the camera 110 may generate a plurality of input depth images by photographing the scene. The camera 110 may generate a plurality of input depth images by successively photographing the scene.

복수 개의 입력 깊이 영상들의 누적 시간은 서로 상이할 수 있다. 즉, 카메라(110)는 복수 개의 입력 깊이 영상들을 촬영함에 있어서, 각 입력 깊이 영상을 서로 상이한 누적 시간동안 촬영할 수 있다.The cumulative time of a plurality of input depth images may be different from each other. That is, the camera 110 may photograph the input depth images for different cumulative times when photographing a plurality of input depth images.

단계(1020)에서, 수신부(120)는 카메라(110)로부터 복수 개의 입력 깊이 영상들을 수신할 수 있다.In step 1020, the receiving unit 120 may receive a plurality of input depth images from the camera 110.

단계(1030)에서, 처리부(130)는 입력 깊이 영상의 노이즈의 수준을 계산할 수 있다. 입력 깊이 영상은 복수 개의 입력 깊이 영상들 중 현재의 입력 깊이 영상일 수 있다. 노이즈의 수준을 계산하는 방법이 도 5를 참조하여 상세히 전술되었다. 여기서, 입력 깊이 영상의 노이즈의 수준은 입력 깊이 영상의 픽셀들 각각의 노이즈들의 수준들 또는 상기의 노이즈들의 평균적인 수준을 의미할 수 있다.In step 1030, the processing unit 130 may calculate the level of noise in the input depth image. The input depth image may be the current input depth image among the plurality of input depth images. A method of calculating the level of noise has been described above in detail with reference to FIG. Here, the level of noise of the input depth image may mean the level of noise of each of the pixels of the input depth image or the average level of the noise.

단계(1040)에서, 처리부(130)는 입력 깊이 영상의 모션 블러의 수준을 계산할 수 있다. 모션 블러의 수준을 계산하는 방법이 도 6 내지 도 8을 참조하여 상세히 전술되었다. 여기서, 입력 깊이 영상의 모션 블러의 수준은 입력 깊이 영상의 픽셀들 각각의 모션 블러들의 수준들 또는 상기의 모션 블러들의 평균적인 수준을 의미할 수 있다.In step 1040, the processing unit 130 may calculate the level of motion blur of the input depth image. A method of calculating the level of motion blur has been described in detail above with reference to Figs. Here, the level of the motion blur of the input depth image may mean the levels of the motion blur of each of the pixels of the input depth image or the average level of the motion blur.

따라서, 단계(1030) 및 단계(1040) 중 하나 이상을 수행함으로써, 처리부(130)는 노이즈의 수준 및 모션 블러의 수준 중 하나 이상을 계산할 수 있다.Thus, by performing one or more of steps 1030 and 1040, the processing unit 130 may calculate one or more of the level of noise and the level of motion blur.

단계(1050)에서, 처리부(130)는 계산된 노이즈의 수준 및 계산된 모션 블러의 수준 중 하나 이상에 기반하여 깊이 영상의 생성에 있어서의 누적 시간을 결정할 수 있다.At step 1050, the processing unit 130 may determine the cumulative time in the generation of the depth image based on at least one of the level of the calculated noise and the level of the calculated motion blur.

처리부(130)는 하기의 수학식 7에 기반하여 깊이 영상의 생성에 있어서의 누적 시간을 결정할 수 있다.The processing unit 130 may determine the cumulative time in the generation of the depth image based on Equation (7).

Figure 112012068615812-pat00007
Figure 112012068615812-pat00007

T(k)는 k 번째 입력 깊이 영상에 대한 누적 시간일 수 있다. T(k+1)은 k+1 번째 입력 깊이 영상, 예컨대 다음에 촬영될 입력 깊이 영상에 대한 누적 시간일 수 있다. Δ는 k 번째 입력 깊이 영상의 노이즈의 수준 및 모션 블러의 수준 중 하나 이상의 수준에 기반하여 결정된 누적 시간의 변화량일 수 있다. α는 누적 시간의 변화의 정도를 조정하는 상수 값일 수 있다. T ( k ) may be the cumulative time for the k-th input depth image. T (k +1) may be a cumulative time for the k th +1 input depth image, for example, the input depth image is taken next. A may be a variation of the cumulative time determined based on one or more levels of the level of noise of the k-th input depth image and the level of motion blur. alpha may be a constant value that adjusts the degree of change of the cumulative time.

k, i, j, σ, E N E M 은 각각 전술된 수학식 6에서와 동일한 의미를 가질 수 있다. C 5C 6은 각각 E N E M 의 가중치일 수 있으며, 0 이상의 값을 가질 수 있다. k , i , j , sigma , E N and E M may have the same meanings as in Equation (6). C 5 and C 6 may be weights of E N and E M , respectively, and may have a value of zero or more.

예컨대, 처리부(130)는 입력 깊이 영상의 노이즈의 수준이 이전의 깊이 영상의 노이즈의 수준보다 더 크면 누적 시간을 증가시킬 수 있다. 처리부(130)는 입력 깊이 영상의 모션 블러의 수준이 입력 깊이 영상의 이전의 깊이 영상의 모션 블러의 수준보다 더 크면 누적 시간을 감소시킬 수 있다. 증가 또는 감소된 누적 시간은 입력 깊이 영상의 이후의 깊이 영상의 생성에 적용될 수 있다. 즉, 처리부(130)는 시간의 흐름에 따라 카메라(110)에 의해 생성되는 입력 깊이 영상들 내에서 노이즈가 증가하면, 입력 깊이 영상을 생성하기 위해 사용되는 누적 시간을 증가시킬 수 있다. 또한, 처리부(130)는 시간의 흐름에 따라 카메라(110)에 의해 생성되는 입력 깊이 영상들 내에서 모션 블러가 증가하면, 입력 깊이 영상을 생성하기 위해 사용되는 누적 시간을 감소시킬 수 있다.For example, the processing unit 130 may increase the cumulative time if the level of the noise of the input depth image is larger than the level of the noise of the previous depth image. The processing unit 130 may reduce the cumulative time if the level of the motion blur of the input depth image is larger than the level of the motion blur of the previous depth image of the input depth image. The increased or decreased cumulative time may be applied to the generation of a subsequent depth image of the input depth image. That is, the processing unit 130 may increase the cumulative time used to generate the input depth image if the noise increases in the input depth images generated by the camera 110 over time. Also, the processing unit 130 may reduce the cumulative time used to generate the input depth image, if the motion blur increases within the input depth images generated by the camera 110 over time.

누적 시간이 지나치게 짧을 경우, 입력 깊이 영상의 거리 정보에 비해 노이즈의 크기가 커지게된다. 노이즈의 크기가 커지면, 입력 깊이 영상의 품질이 떨어지며, 가까운 물체에 비해 상대적으로 부족한 광량이 부여되는 먼 물체에 대해서는 깊이 측정이 어렵게 될 수 있다. 전술된 누적 시간의 조정은 입력 영상 내에서 발생하는 노이즈 및 모션 블러를 최소화할 수 있다.If the cumulative time is too short, the noise size becomes larger than the distance information of the input depth image. When the size of the noise increases, the quality of the input depth image deteriorates, and it may become difficult to measure the depth of a distant object to which a relatively insufficient amount of light is given as compared with a nearby object. Adjustment of the cumulative time described above can minimize the noise and motion blur that occur in the input image.

앞서 도 1 내지 도 9를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있다. 단계(1010), 단계(1020), 단계(1030) 및 단계(1040)는 각각 단계(210), 단계(220), 단계(910) 및 단계(920)에 대응할 수 있다. 보다 상세한 설명은 이하 생략한다.
The technical contents described above with reference to Figs. 1 to 9 can be directly applied. Steps 1010, 1020, 1030 and 1040 may correspond to steps 210, 220, 910 and 920, respectively. A more detailed description will be omitted below.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

100: 깊이 영상 처리 장치
110: 카메라
120: 수신부
130: 처리부
100: Depth image processing device
110: camera
120: Receiver
130:

Claims (19)

입력 깊이 영상의 픽셀들 각각의 적어도 하나의 시공간적 이웃 픽셀을, 선행 입력 깊이 영상, 상기 입력 깊이 영상에 대응하는 중간 입력 깊이 영상, 및 후행 입력 깊이 영상에 기초하여, 결정하는 단계;
상기 적어도 하나의 시공간적 이웃 픽셀 각각의 가중치를 계산하는 단계; 및
상기 적어도 하나의 시공간적 이웃 픽셀들 각각의 깊이 값 및 상기 가중치에 기반하여 상기 픽셀들 각각의 깊이 값을 갱신함으로써 출력 깊이 영상을 생성하는 단계
를 포함하고,
상기 선행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 선행하는 입력 깊이 영상이며, 상기 후행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 후행하는 입력 깊이 영상이고,
상기 선행 입력 깊이 영상의 누적 시간 및 상기 후행 입력 깊이 영상의 누적 시간은 상기 중간 입력 깊이 영상의 누적 시간에 비해 더 짧은
깊이 영상 처리 방법.
Determining at least one temporal and spatial neighboring pixel of each of the pixels of the input depth image based on a preceding input depth image, an intermediate input depth image corresponding to the input depth image, and a following input depth image;
Calculating a weight of each of said at least one spatially neighboring pixel; And
Generating an output depth image by updating a depth value of each of the pixels based on the depth value and the weight of each of the at least one spatiotemporal neighboring pixels
Lt; / RTI >
Wherein the preceding input depth image is an input depth image temporally preceding the intermediate input depth image, the trailing input depth image is an input depth image traced temporally to the intermediate input depth image,
The cumulative time of the preceding input depth image and the cumulative time of the following input depth image are shorter than the cumulative time of the intermediate input depth image
Depth image processing method.
제1항에 있어서,
상기 결정하는 단계는,
상기 선행 입력 깊이 영상 및 상기 후행 입력 깊이 영상 간의 제1 대응 관계를 식별하는 단계;
상기 식별된 제1 대응 관계에 기반하여 움직임 벡터를 검출하는 단계;
상기 검출된 움직임 벡터에 기반하여 상기 선행 입력 깊이 영상 또는 상기 후행 입력 깊이 영상 중 하나의 깊이 영상과 상기 중간 입력 깊이 영상 간의 제2 대응 관계를 추정하는 단계; 및
상기 추정된 제2 대응 관계에 기반하여 상기 중간 입력 깊이 영상의 픽셀들 각각의 상기 적어도 하나의 시공간적 이웃 픽셀을 결정하는 단계
를 포함하는 깊이 영상 처리 방법.
The method according to claim 1,
Wherein the determining comprises:
Identifying a first corresponding relationship between the preceding input depth image and the subsequent input depth image;
Detecting a motion vector based on the identified first correspondence;
Estimating a second corresponding relationship between the depth image of one of the preceding input depth image or the trailing depth image and the intermediate depth image based on the detected motion vector; And
Determining the at least one spatiotemporal neighbor pixel of each of the pixels of the intermediate input depth image based on the estimated second correspondence
/ RTI >
삭제delete 제2항에 있어서,
상기 식별하는 단계는,
선행 적외선 강도 영상 및 후행 적외선 강도 영상 간의 광학적 흐름(optical flow)을 계산하는 단계; 및
상기 광학적 흐름에 기반하여 상기 제1 대응 관계를 식별하는 단계
를 포함하고,
상기 선행 적외선 강도 영상은 상기 선행 입력 깊이 영상에 대응하고, 상기 후행 적외선 강도 영상은 상기 후행 입력 깊이 영상에 대응하는 깊이 영상 처리 방법.
3. The method of claim 2,
Wherein the identifying comprises:
Calculating an optical flow between a leading infrared intensity image and a trailing infrared intensity image; And
Identifying the first correspondence based on the optical flow
Lt; / RTI >
Wherein the preceding infrared intensity image corresponds to the preceding input depth image and the trailing infrared intensity image corresponds to the trailing input depth image.
제4항에 있어서,
상기 식별하는 단계는,
상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각에 쌍방 필터(bilateral filter)를 적용함으로써 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각의 노이즈를 감소시키는 단계
를 더 포함하는 깊이 영상 처리 방법.
5. The method of claim 4,
Wherein the identifying comprises:
A step of reducing the noise of each of the preceding infrared intensity image and the following infrared intensity image by applying a bilateral filter to each of the preceding infrared intensity image and the following infrared intensity image,
The depth image processing method further comprising:
제1항에 있어서,
상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치는 상기 적어도 하나의 이웃 픽셀 각각의 노이즈가 작을수록 증가하는 깊이 영상 처리 방법.
The method according to claim 1,
Wherein the weight of each of the at least one neighboring pixel is increased as the noise of each of the at least one neighboring pixels is smaller.
제1항에 있어서,
상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치는 상기 적어도 하나의 이웃 픽셀 각각에서 발생한 모션 블러(motion blur)가 작을수록 증가하는 깊이 영상 처리 방법.
The method according to claim 1,
Wherein the weight of each of the at least one neighboring pixel is increased as the motion blur generated in each of the at least one neighboring pixels is smaller.
입력 깊이 영상의 노이즈의 수준 및 모션 블러의 수준 중 하나 이상을 계산하는 단계; 및
상기 노이즈의 수준 및 상기 모션 블러의 수준 중 하나 이상에 기반하여 상기 입력 깊이 영상의 생성에 있어서의 누적 시간을 결정하는 단계
를 포함하고,
상기 입력 깊이 영상은 중간 입력 깊이 영상이고, 선행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 선행하는 입력 깊이 영상이며, 후행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 후행하는 입력 깊이 영상이고,
상기 선행 입력 깊이 영상의 누적 시간 및 상기 후행 입력 깊이 영상의 누적 시간은 상기 중간 입력 깊이 영상의 누적 시간에 비해 더 짧은,
깊이 영상 처리 방법.
Calculating at least one of a level of noise of the input depth image and a level of motion blur; And
Determining an accumulated time in generation of the input depth image based on at least one of the level of the noise and the level of the motion blur
Lt; / RTI >
Wherein the input depth image is an intermediate input depth image, the preceding input depth image is an input depth image temporally preceding the intermediate input depth image, the posterior input depth image is an input depth image traced temporally to the intermediate input depth image, ,
Wherein the accumulation time of the preceding input depth image and the accumulation time of the subsequent input depth image are shorter than the accumulation time of the intermediate input depth image,
Depth image processing method.
제8항에 있어서,
상기 결정하는 단계에서, 상기 입력 깊이 영상의 상기 노이즈의 수준이 상기 선행 입력 깊이 영상의 노이즈의 수준보다 더 크면 상기 누적 시간은 증가하고, 상기 입력 깊이 영상의 상기 모션 블러의 수준이 상기 선행 입력 깊이 영상의 모션 블러의 수준보다 더 크면 상기 누적 시간은 감소하는 깊이 영상 처리 방법.
9. The method of claim 8,
Wherein the cumulative time is increased if the level of the noise of the input depth image is greater than the level of noise of the preceding input depth image and the level of the motion blur of the input depth image is greater than the level of the preceding input depth Wherein the cumulative time is reduced if the level of motion blur is greater than the level of motion blur of the image.
제1항, 제2항, 및 제4항 내지 제9항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium embodying a program for performing the method of any one of claims 1, 2, and 4 to 9. 입력 깊이 영상을 수신하는 수신부; 및
상기 입력 깊이 영상의 픽셀들 각각의 적어도 하나의 시공간적 이웃 픽셀을 선행 입력 깊이 영상, 상기 입력 깊이 영상에 대응하는 중간 입력 깊이 영상, 및 후행 입력 깊이 영상에 기초하여 결정하고, 상기 적어도 하나의 시공간적 이웃 픽셀 각각의 가중치를 계산하고, 상기 적어도 하나의 시공간적 이웃 픽셀들 각각의 깊이 값 및 상기 가중치에 기반하여 상기 픽셀들 각각의 깊이 값을 갱신함으로써 출력 깊이 영상을 생성하는 처리부
를 포함하고,
상기 선행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 선행하는 입력 깊이 영상이며, 상기 후행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 후행하는 입력 깊이 영상이고,
상기 선행 입력 깊이 영상의 누적 시간 및 상기 후행 입력 깊이 영상의 누적 시간은 상기 중간 입력 깊이 영상의 누적 시간에 비해 더 짧은,
깊이 영상 처리 장치.
A receiving unit for receiving an input depth image; And
Determining at least one temporal and spatial neighboring pixel of each of the pixels of the input depth image based on a preceding input depth image, an intermediate input depth image corresponding to the input depth image, and a following input depth image, A processor for generating an output depth image by calculating a weight of each pixel and updating the depth value of each of the pixels based on the depth value of each of the at least one temporal and spatial neighboring pixels and the weight,
Lt; / RTI >
Wherein the preceding input depth image is an input depth image temporally preceding the intermediate input depth image, the trailing input depth image is an input depth image traced temporally to the intermediate input depth image,
Wherein the accumulation time of the preceding input depth image and the accumulation time of the subsequent input depth image are shorter than the accumulation time of the intermediate input depth image,
Depth image processing device.
제11항에 있어서,
상기 처리부는 상기 선행 입력 깊이 영상 및 상기 후행 입력 깊이 영상 간의 제1 대응 관계를 식별하고, 상기 식별된 제1 대응 관계에 기반하여 움직임 벡터를 검출하고, 상기 검출된 움직임 벡터에 기반하여 상기 선행 입력 깊이 영상 또는 상기 후행 입력 깊이 영상 중 하나의 깊이 영상과 상기 중간 입력 깊이 영상 간의 제2 대응 관계를 추정하고, 상기 추정된 제2 대응 관계에 기반하여 상기 중간 입력 깊이 영상의 픽셀들 각각의 상기 적어도 하나의 시공간적 이웃 픽셀을 결정하고,
깊이 영상 처리 장치.
12. The method of claim 11,
Wherein the processing unit identifies a first corresponding relationship between the preceding input depth image and the trailing input depth image, detects a motion vector based on the identified first correspondence relationship, and based on the detected motion vector, Estimating a second corresponding relationship between a depth image of one of the depth input image and the trailing input depth image and the intermediate input depth image, and based on the estimated second correspondence, Determining one spatio-temporal neighbor pixel,
Depth image processing device.
삭제delete 제12항에 있어서,
상기 처리부는 선행 적외선 강도 영상 및 후행 적외선 강도 영상 간의 광학적 흐름(optical flow)을 계산하고, 상기 광학적 흐름에 기반하여 상기 제1 대응 관계를 식별하고,
상기 선행 적외선 강도 영상은 상기 선행 입력 깊이 영상에 대응하고, 상기 후행 적외선 강도 영상은 상기 후행 입력 깊이 영상에 대응하는 깊이 영상 처리 장치.
13. The method of claim 12,
Wherein the processor is configured to calculate an optical flow between a leading infrared intensity image and a trailing infrared intensity image, identify the first correspondence based on the optical flow,
Wherein the preceding infrared intensity image corresponds to the preceding input depth image and the trailing infrared intensity image corresponds to the trailing input depth image.
제14항에 있어서,
상기 처리부는 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각에 쌍방 필터(bilateral filter)를 적용함으로써 상기 선행 적외선 강도 영상 및 후행 적외선 강도 영상 각각의 노이즈를 감소시키는 깊이 영상 처리 장치.
15. The method of claim 14,
Wherein the processing unit reduces a noise of each of the preceding infrared intensity image and the following infrared intensity image by applying a bilateral filter to each of the preceding infrared intensity image and the following infrared intensity image.
제11항에 있어서,
상기 처리부는 상기 적어도 하나의 이웃 픽셀 각각의 노이즈가 작을수록 상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치를 증가시키는 깊이 영상 처리 장치.
12. The method of claim 11,
Wherein the processing unit increases the weight of each of the at least one neighboring pixel as the noise of each of the at least one neighboring pixels is smaller.
제11항에 있어서,
상기 처리부는 상기 적어도 하나의 이웃 픽셀 각각에서 발생한 모션 블러가 작을수록 상기 적어도 하나의 이웃 픽셀 각각의 상기 가중치를 증가시키는 깊이 영상 처리 장치.
12. The method of claim 11,
Wherein the processing unit increases the weight of each of the at least one neighboring pixel as the motion blur generated in each of the at least one neighboring pixels is smaller.
입력 깊이 영상을 수신하는 수신부; 및
상기 입력 깊이 영상의 노이즈의 수준 및 모션 블러의 수준 중 하나 이상을 계산하고, 상기 노이즈의 수준 및 상기 모션 블러의 수준 중 하나 이상에 기반하여 상기 입력 깊이 영상의 생성에 있어서의 누적 시간을 결정하는 처리부
를 포함하고,
상기 입력 깊이 영상은 중간 입력 깊이 영상이고, 선행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 선행하는 입력 깊이 영상이며, 후행 입력 깊이 영상은 상기 중간 입력 깊이 영상에 시간적으로 후행하는 입력 깊이 영상이고,
상기 선행 입력 깊이 영상의 누적 시간 및 상기 후행 입력 깊이 영상의 누적 시간은 상기 중간 입력 깊이 영상의 누적 시간에 비해 더 짧은,
깊이 영상 처리 장치.
A receiving unit for receiving an input depth image; And
Calculating at least one of a level of noise of the input depth image and a level of motion blur and determining an accumulation time in generation of the input depth image based on at least one of the level of the noise and the level of the motion blur Processing unit
Lt; / RTI >
Wherein the input depth image is an intermediate input depth image, the preceding input depth image is an input depth image temporally preceding the intermediate input depth image, the posterior input depth image is an input depth image traced temporally to the intermediate input depth image, ,
Wherein the accumulation time of the preceding input depth image and the accumulation time of the subsequent input depth image are shorter than the accumulation time of the intermediate input depth image,
Depth image processing device.
제18항에 있어서,
상기 처리부는 상기 입력 깊이 영상의 상기 노이즈의 수준이 상기 선행 입력 깊이 영상의 노이즈의 수준보다 더 크면 상기 누적 시간을 증가시키고, 상기 입력 깊이 영상의 상기 모션 블러의 수준이 상기 선행 입력 깊이 영상의 모션 블러의 수준보다 더 크면 상기 누적 시간을 감소시키는 깊이 영상 처리 장치.
19. The method of claim 18,
Wherein the processing unit increases the accumulation time if the level of the noise of the input depth image is greater than the level of noise of the preceding input depth image, and the level of the motion blur of the input depth image is higher than the level of the motion of the preceding input depth image And the cumulative time is decreased if the level of blur is greater than the level of blur.
KR1020120093529A 2012-01-10 2012-08-27 Method and apparatus for processing depth image KR101896307B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/737,332 US9213883B2 (en) 2012-01-10 2013-01-09 Method and apparatus for processing depth image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261584930P 2012-01-10 2012-01-10
US61/584,930 2012-01-10

Publications (2)

Publication Number Publication Date
KR20130082053A KR20130082053A (en) 2013-07-18
KR101896307B1 true KR101896307B1 (en) 2018-09-10

Family

ID=48993524

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120093529A KR101896307B1 (en) 2012-01-10 2012-08-27 Method and apparatus for processing depth image

Country Status (1)

Country Link
KR (1) KR101896307B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10338221B2 (en) 2014-01-29 2019-07-02 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
KR101632514B1 (en) * 2014-12-30 2016-06-21 한국과학기술원 Method and apparatus for upsampling depth image
KR102238794B1 (en) * 2015-03-25 2021-04-09 한국전자통신연구원 Method for increasing film speed of video camera
KR102240054B1 (en) * 2019-08-30 2021-04-14 (주)미래컴퍼니 Image processing apparatus
KR102251115B1 (en) * 2020-04-23 2021-05-13 엘지이노텍 주식회사 Apparatus and method for detecting depth map

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040237103A1 (en) * 2001-12-27 2004-11-25 Tetsujiro Kondo Data processing apparatus, data processing method, and data processing system
JP2006527443A (en) * 2003-06-12 2006-11-30 本田技研工業株式会社 Target orientation estimation using depth detection
JP2010176239A (en) * 2009-01-28 2010-08-12 Hitachi Ltd Image processor, image processing method, image encoding method, image decoding method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100036601A (en) * 2008-09-30 2010-04-08 엘지전자 주식회사 Apparatus and method for removing noise-image
BRPI1007451A2 (en) * 2009-01-30 2016-09-13 Thomson Licensing depth map coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040237103A1 (en) * 2001-12-27 2004-11-25 Tetsujiro Kondo Data processing apparatus, data processing method, and data processing system
JP2006527443A (en) * 2003-06-12 2006-11-30 本田技研工業株式会社 Target orientation estimation using depth detection
JP2010176239A (en) * 2009-01-28 2010-08-12 Hitachi Ltd Image processor, image processing method, image encoding method, image decoding method

Also Published As

Publication number Publication date
KR20130082053A (en) 2013-07-18

Similar Documents

Publication Publication Date Title
US9213883B2 (en) Method and apparatus for processing depth image
TWI536318B (en) Depth measurement quality enhancement
EP2858008B1 (en) Target detecting method and system
US9741130B2 (en) Method and apparatus for detecting object
KR101776620B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
US9165211B2 (en) Image processing apparatus and method
KR101896307B1 (en) Method and apparatus for processing depth image
WO2013132947A1 (en) Distance calculation device and distance calculation method
KR20140000195A (en) Autofocus for stereoscopic camera
KR102455632B1 (en) Mehtod and apparatus for stereo matching
US20110038510A1 (en) Image processing apparatus, image processing method, and program
US9747690B2 (en) Image processing device, image processing method, and program
EP3593322B1 (en) Method of detecting moving objects from a temporal sequence of images
WO2014051801A1 (en) Video-assisted target location
JP6396499B2 (en) Scale measurement of 3D information
EP4066162A1 (en) System and method for correspondence map determination
KR101853215B1 (en) Coding Device and Method and Depth Information Compensation by Plane Modeling
Srikakulapu et al. Depth estimation from single image using defocus and texture cues
JP6577595B2 (en) Vehicle external recognition device
JP2014238409A (en) Distance calculation device and distance calculation method
US20130142388A1 (en) Arrival time estimation device, arrival time estimation method, arrival time estimation program, and information providing apparatus
Sincan et al. Moving object detection by a mounted moving camera
KR101828710B1 (en) Apparatus and method for object occlusion detection
KR20100041170A (en) Method for tracking a movement of a moving target of image tracking apparatus
KR101866107B1 (en) Coding Device, Device and Method and Depth Information Compensation by Plane Modeling

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant