KR20210008087A - 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구 - Google Patents

지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구 Download PDF

Info

Publication number
KR20210008087A
KR20210008087A KR1020207035735A KR20207035735A KR20210008087A KR 20210008087 A KR20210008087 A KR 20210008087A KR 1020207035735 A KR1020207035735 A KR 1020207035735A KR 20207035735 A KR20207035735 A KR 20207035735A KR 20210008087 A KR20210008087 A KR 20210008087A
Authority
KR
South Korea
Prior art keywords
color image
image frame
input color
scene
control circuit
Prior art date
Application number
KR1020207035735A
Other languages
English (en)
Other versions
KR102598459B1 (ko
Inventor
모하매드 가라비-알칸사리
히로유키 다케다
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20210008087A publication Critical patent/KR20210008087A/ko
Application granted granted Critical
Publication of KR102598459B1 publication Critical patent/KR102598459B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

제1 타입의 센서, 제2 타입의 센서 및 제어 회로를 포함하는 객체 분할 시스템이 제공된다. 제1 타입의 센서는 장면의 컬러 이미지 프레임들의 시퀀스를 캡처한다. 제2 타입의 센서는 컬러 이미지 프레임들의 시퀀스의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지를 캡처한다. 제어 회로는 입력 컬러 이미지 프레임에 대한 포인트 클라우드를 생성한다. 제어 회로는 입력 컬러 이미지 프레임의 배경으로부터 전경 사람 객체를 분할한다. 제어 회로는 입력 컬러 이미지 프레임에서 캡처된 장면에 대한 지평면을 검출한다. 제어 회로는 검출된 지평면의 레벨로부터 정의된 영역에서 발 영역을 복구한다. 제어 회로는 지평면의 검출에 기초하여, 입력 컬러 이미지 프레임의 배경으로부터 복구된 발 영역을 갖는 전경 사람 객체를 추출한다.

Description

지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구
관련 출원에 대한 상호 참조/참조에 의한 포함
없음
본 개시의 다양한 실시예들은 이미지 시퀀스로부터의 객체 추출 기술들(object extraction technologies)에 관한 것이다. 보다 구체적으로, 본 개시의 다양한 실시예들은 지평면 검출(ground plane detection)에 기초한 이미지 시퀀스로부터의 사람 객체의 정확한 손실 발 복구(missing feet recovery)를 위한 객체 분할(object segmentation) 장치 및 방법에 관한 것이다.
이미지 처리 분야에서의 최근의 개발들은 다양한 이미지 분할 기술들에서의 진보들로 이어졌다. 그러한 기술들은 상이한 통계적 및/또는 확률적 이미지 특징 기반 방법들에 기초하여 특정 이미지로부터의 (사람 신체와 같은) 관심 객체(object-of-interest)의 분할을 용이하게 한다. 그러한 객체 분할 기술들의 예들은 압축 기반(compression-based) 객체 분할 기술, 컬러 기반(color-based) 분할 기술, 심도 기반(depth-based) 객체 분할 기술, 및 히스토그램 기반(histogram-based) 객체 분할 기술을 포함할 수 있다.
현재, 특징적 컬러 기반 분할 접근법(distinctive color-based segmentation approach)에서, 관심 객체는 캡처된 이미지로부터의 미리 결정된 정적 배경 이미지의 감산에 기초하여 분할될 수 있다. 그러나, 미리 결정된 정적 배경 이미지를 생성하기 위해, 종래의 객체 분할 장치는 관심 객체가 장면에 존재하지 않을 때 장면의 이미지들의 시퀀스를 캡처하도록 요구되는데, 이는 바람직하지 않을 수 있다. 장면의 미리 결정된 정적 배경 이미지는 캡처된 이미지들의 시퀀스로부터 생성될 수 있다. 배경 이미지 감산 접근법(background image subtraction approach)은 정적 카메라로 장면으로부터 이미지들의 시퀀스를 캡처하도록 더 요구할 수 있다. 다른 심도 기반 접근법에서, 종래의 장치는 심도 센서(depth sensor)에 의해 캡처될 수 있는 심도 이미지를 이용함으로써 관심 객체를 분할할 수 있다. 심도 센서가 무효(invalid) 심도 값들을 포함하는 잡음 있는 심도 이미지를 캡처하는 경우들에서, 종래의 객체 분할 장치는 캡처된 이미지로부터 관심 객체를 잘못되고 부정확하게 분할할 수 있다. 이러한 접근법들에 기초하여 분할된 사람 객체와 같은 관심 객체는, 발 영역이 분할이 부정확할 수 있는 지평면에 가까울 때, 발 영역이 없을 수 있다. 또한, 사람 객체의 발 영역 주위의 영역은 사람 객체의 그림자(shadow)에 의해 변경될 수도 있다. 따라서, 분할된 사람 객체는 바람직하지 않을 수 있는 손실 발 영역을 가질 수 있다.
통상적인 및 전통적인 접근법들의 추가적인 제한들 및 단점들은, 도면들을 참조하여 본 출원의 나머지 부분에 개시된 바와 같이, 본 개시의 일부 양태들과 설명된 시스템들의 비교를 통해, 본 기술분야의 통상의 기술자에게 명백해질 것이다.
지평면 검출에 기초하여 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 객체 분할 장치 및 방법은, 청구항들에서 보다 완전히 개시된 바와 같이, 도면들 중 적어도 하나에 도시되고/되거나 이와 관련하여 설명된 바와 같이 실질적으로 제공된다.
본 개시의 이들 및 다른 특징들 및 이점들은, 그 전체에 걸쳐 유사한 참조 번호들이 유사한 부분들을 지칭하는 첨부 도면들과 함께, 본 개시의 다음의 상세한 설명을 검토함으로써 이해될 수 있다.
도 1은 본 개시의 실시예에 따른, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 예시적인 네트워크 환경을 도시하는 블록도이다.
도 2는 본 개시의 실시예에 따른, 예시적인 객체 분할 장치를 도시하는 블록도이다.
도 3a, 도 3b, 도 3c, 도 3d, 도 3e, 도 3f, 도 3g 및 도 3h는 본 개시의 실시예에 따른, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 예시적인 동작들을 집합적으로 도시한다.
도 4a, 도 4b 및 도 4c는 본 개시의 실시예에 따른, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 예시적인 동작들을 도시하는 흐름도를 집합적으로 도시한다.
아래에 설명된 구현들은 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 개시된 장치 및 방법에서 발견될 수 있다. 본 개시의 예시적인 양태들은 제1 타입의 센서 및 제2 타입의 센서를 포함하는 객체 분할 시스템을 포함할 수 있다. 제1 타입의 센서는 장면의 컬러 이미지 프레임들의 시퀀스를 캡처하도록 구성될 수 있다. 제2 타입의 센서는 컬러 이미지 프레임들의 시퀀스의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지를 캡처하도록 구성될 수 있다. 객체 분할 시스템은 제1 타입의 센서로부터 수신된 컬러 이미지 프레임들의 시퀀스의 입력 컬러 이미지 프레임에 대한 포인트 클라우드(point cloud)를 생성하도록 구성된 제어 회로를 더 포함할 수 있다. 입력 컬러 이미지 프레임에 대한 포인트 클라우드는 제2 타입의 센서로부터 수신된 입력 컬러 이미지 프레임에 대한 대응하는 입력 심도 이미지에 기초하여 생성될 수 있다.
실시예에 따르면, 객체 분할 장치는 이미지 파라미터들의 제1 세트에 기초하여 입력 컬러 이미지 프레임의 배경으로부터 전경(foreground) 사람 객체를 분할하도록 구성될 수 있다. 분할된 전경 사람 객체는 전경 사람 객체의 발 영역의 적어도 일부가 없을 수 있다. 객체 분할 장치는 생성된 포인트 클라우드에서의 각각의 포인트로부터 투영된 각각의 벡터와 연관된 배향 정보(orientation information)에 기초하여, 입력 컬러 이미지 프레임에서 캡처된 장면에 대한 지평면을 검출하도록 더 구성될 수 있다. 실시예에 따르면, 지평면은 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들을 벡터 클러스터들(vector clusters)의 세트로 클러스터화하는 것에 의해 검출될 수 있다. 장면에 대한 지평면은 생성된 포인트 클라우드에서의 벡터 클러스터들의 세트 중의 하나의 벡터 클러스터와 연관된 배향 정보에 기초하여 검출될 수 있다. 객체 분할 장치는 이미지 파라미터들의 제2 세트에 기초하여, 입력 컬러 이미지 프레임에서의 검출된 지평면의 레벨로부터 정의된 영역에서 발 영역을 복구할 수 있다. 이미지 파라미터들의 제2 세트는 이미지 파라미터들의 제1 세트와 상이할 수 있다. 객체 분할 장치는 컬러 이미지 프레임들의 시퀀스의 입력 컬러 이미지 프레임의 배경으로부터 복구된 발 영역을 갖는 전경 사람 객체를 추출하도록 더 구성될 수 있다. 복구된 발 영역을 갖는 전경 사람 객체는 지평면의 검출 및 검출된 지평면의 레벨로부터 정의된 영역에서의 결정된 복수의 전경 픽셀들에 기초하여 추출될 수 있다.
실시예에 따르면, 객체 분할 장치는 심도 값들이 없는 입력 심도 이미지에서의 복수의 영역들을 검출할 수 있다. 객체 분할 장치는 복수의 영역들에서 심도 값들을 채우고 입력 심도 이미지에서의 잡음을 감소시키기 위해 중앙값 필터(median filter) 및 균일 필터(uniform filter)에 의해 입력 심도 이미지를 평활화(smoothen)하도록 구성될 수 있다. 객체 분할 장치는 입력 심도 이미지에 기초하여, 생성된 포인트 클라우드에서의 복수의 포인트들의 각각의 포인트의 3차원(3D) 좌표를 결정하도록 더 구성될 수 있다. 객체 분할 장치는 입력 컬러 이미지 프레임에서 캡처된 장면에 대해 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들을 계산할 수 있다. 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들은 생성된 포인트 클라우드의 복수의 포인트들에서의 관심 포인트의 3차원 좌표들 및 관심 포인트의 2개의 이웃 포인트들에 기초하여 계산될 수 있다.
실시예에 따르면, 객체 분할 장치는 생성된 포인트 클라우드에서의 복수의 포인트들과 연관된 계산된 복수의 벡터들을 벡터 클러스터들의 세트로 클러스터화하도록 구성될 수 있다. 계산된 복수의 벡터들은 생성된 포인트 클라우드에서의 복수의 포인트들과 연관된 계산된 복수의 벡터들 각각과 연관된 배향 정보에 기초하여 클러스터화될 수 있다. 객체 분할 장치는, 입력 컬러 이미지 프레임에서 캡처된 장면과 연관된 벡터 클러스터들의 세트에 기초하여, 입력 컬러 이미지 프레임에서 캡처된 장면에 대한 복수의 평면들을 검출하도록 구성될 수 있다.
실시예에 따르면, 객체 분할 장치는 입력 컬러 이미지 프레임에서 캡처된 장면과 연관된 벡터 클러스터들의 세트에 기초하여 평면 맵(plane map)을 생성할 수 있다. 추가적으로, 평면 맵은 검출된 복수의 평면들을 입력 컬러 이미지 프레임의 이미지 도메인에 맵핑함으로써 생성될 수 있다. 평면 맵은 평면 맵에서의 검출된 복수의 평면들의 상이한 평면들에서 그룹화된 픽셀들을 포함할 수 있다. 픽셀들은 장면의 입력 컬러 이미지 프레임의 이미지 도메인에서의 평면 맵에서의 픽셀들의 공간적 위치에 관계없이 평면 맵에서의 각각의 픽셀과 연관된 동일한 배향 정보에 기초하여 그룹화될 수 있다. 객체 분할 장치는 평면 맵에서의 검출된 복수의 평면들에서 복수의 격리된 영역들을 검출하도록 더 구성될 수 있다. 복수의 격리된 영역들은 이미지 도메인에서의 픽셀들의 제1 임계 수보다 작은 평면 맵에서의 복수의 격리된 영역들의 영역 크기(area size)에 기초하여 검출될 수 있다. 객체 분할 장치는 평면 맵에서의 검출된 복수의 격리된 영역들을 제거할 수 있다. 객체 분할 장치는 중앙값 필터에 의해 이미지 도메인에서의 픽셀들의 제2 임계 수보다 작은 검출된 복수의 격리된 영역들을 더 평활화할 수 있다.
실시예에 따르면, 객체 분할 장치는 장면에 대한 기준 높이(reference height)로부터 평면 맵에서의 검출된 복수의 평면들에서의 최저 평면을 선택할 수 있다. 기준 높이는 장면의 컬러 이미지 프레임들의 시퀀스를 캡처하는 제1 타입의 센서의 높이에 대응할 수 있다. 평면 맵에서의 검출된 복수의 평면들에서의 선택된 최저 평면은 입력 컬러 이미지 프레임에서 캡처된 장면에 대한 지평면일 수 있다. 객체 분할 장치는 평면 맵에서의 픽셀들의 높이 기반 분포(height-based distribution)에 기초하여 평면 맵에서의 상이한 수평 평면들에서의 픽셀들을 분리하도록 구성될 수 있다. 객체 분할 장치는 평면 맵에서의 픽셀들의 높이 기반 분포에 기초하여 상이한 수평 평면들에서의 다른 픽셀들과 비교하여 최저 수평 평면에 존재하는 픽셀들을 지평면의 픽셀들로서 분류하도록 더 구성될 수 있다.
실시예에 따르면, 객체 분할 장치는 입력 심도 이미지 및 이미지 파라미터들의 제1 세트를 이용하여 장면의 입력 컬러 이미지 프레임에서의 전경 사람 객체의 전경 마스크를 추정하도록 구성될 수 있다. 장면의 입력 컬러 이미지 프레임에서의 전경 사람 객체의 전경 마스크는 입력 컬러 이미지 프레임과 입력 컬러 이미지 프레임의 배경 이미지 사이의 차이를 이진화(binarizing)함으로써 추정될 수 있다. 전경 사람 객체는 추정된 전경 마스크에 기초하여 입력 컬러 이미지 프레임의 배경으로부터 분할될 수 있다. 객체 분할 장치는 입력 컬러 이미지 프레임에서의 검출된 지평면의 레벨로부터 정의된 영역에 픽셀들의 세트를 포함하도록 추정된 전경 마스크를 업데이트하도록 더 구성될 수 있다. 픽셀들의 세트는 이미지 파라미터들의 제2 세트에 기초하여 복구되는 발 영역의 픽셀들에 대응할 수 있다.
도 1은 본 개시의 실시예에 따른, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 예시적인 네트워크 환경을 도시하는 블록도이다. 도 1을 참조하면, 네트워크 환경(100)이 도시되어 있다. 네트워크 환경(100)은 객체 분할 장치(102), 서버(104), 통신 네트워크(106), 및 이미지 캡처 디바이스(108)를 포함할 수 있다. 객체 분할 장치(102)는 이미지 캡처 디바이스(108)에 통신가능하게 결합될 수 있다. 이미지 캡처 디바이스(108)는 제1 타입의 센서(108A) 및 제2 타입의 센서(108B)를 포함할 수 있다. 실시예에 따르면, 제1 타입의 센서(108A)는 이미지 센서일 수 있고, 제2 타입의 센서(108B)는 심도 센서일 수 있다. 제1 타입의 센서(108A)는 이미지 캡처 디바이스(108)의 시야(field-of-view)로부터 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)를 캡처하도록 구성될 수 있다. 제2 타입의 센서(108B)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)와 동일한 시야를 포함하는 심도 이미지들의 시퀀스(114)를 캡처하도록 구성될 수 있다. 컬러 이미지 프레임들의 시퀀스(112)는 입력 컬러 이미지 프레임(116)을 포함할 수 있다. 심도 이미지들의 시퀀스(114)는 입력 컬러 이미지 프레임(116)에 대응하는 입력 심도 이미지(118)를 포함할 수 있다. 장면(110)은 (사람 객체와 같은) 관심 객체를 포함할 수 있다. 장면(110)은 테이블, 문, 의자, 컴퓨터 등과 같은 복수의 다른 객체들을 더 포함할 수 있다. 객체 분할 장치(102)는 통신 네트워크(106)를 통해 서버(104)에 통신가능하게 결합될 수 있다.
객체 분할 장치(102)는 이미지 캡처 디바이스(108)의 제1 타입의 센서(108A)에 의해 캡처된 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)를 수신하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 객체 분할 장치(102)는 이미지 캡처 디바이스(108)의 제2 타입의 센서(108B)에 의해 캡처되는 컬러 이미지 프레임들의 시퀀스(112)에 대응하는 심도 이미지들의 시퀀스(114)를 더 수신할 수 있다. 객체 분할 장치(102)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)의 배경으로부터 전경 사람 객체를 분할하도록 구성될 수 있다. 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 지평면을 검출하도록 구성될 수 있다. 객체 분할 장치(102)는 검출된 지평면에 기초하여, 장면(110)의 입력 컬러 이미지 프레임(116)으로부터 분할된 전경 사람 객체로부터의 손실 발 영역을 복구하도록 더 구성될 수 있다. 객체 분할 장치(102)의 기능들은 고속 컴퓨팅 디바이스와 같은 로컬 디바이스들, 또는 애플리케이션 서버 또는 그래픽 이미지 처리 서버와 같은 원격 디바이스들에서 구현될 수 있다. 객체 분할 장치(102)의 예들은, 제한적인 것은 아니지만, 디지털 카메라, 디지털 캠코더, 카메라 폰, 스마트 폰, 휴대용 음악 플레이어, 게임 콘솔, 태블릿 컴퓨터, 모바일 디바이스, 비디오 플레이어, 비디오 디스크 기록기/플레이어를 포함할 수 있다. 객체 분할 장치(102)의 다른 예들은, 제한적인 것은 아니지만, 텔레비전, 홈 엔터테인먼트 시스템, 증강 현실 디바이스, 가상 현실 디바이스, 스마트 워치 또는 임의의 다른 적절한 컴퓨팅 디바이스 등을 포함할 수 있다.
서버(104)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112) 및 장면(110)의 심도 이미지들의 시퀀스(114)를 저장하도록 구성될 수 있는 적절한 회로 및 인터페이스들을 포함할 수 있다. 서버(104)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)의 배경으로부터 분할된 사람 객체 및 분할된 사람 객체의 복구된 손실 발을 저장하도록 더 구성될 수 있다. 일부 실시예들에서, 서버(104)는 클라우드 서버로서 구현될 수 있으며, 이는 웹 애플리케이션들, 클라우드 애플리케이션들, HTTP 요청들, 데이터베이스 동작들, 파일 전송, 게임 동작들 등을 통해 서버(104)의 전술한 동작들을 실행하는데 이용될 수 있다.
통신 네트워크(106)는 객체 분할 장치(102)가 서버(104)에 통신가능하게 결합될 수 있게 하는 통신 매체를 포함할 수 있다. 통신 네트워크(106)의 예들은, 제한적인 것은 아니지만, 인터넷, 클라우드 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, PAN(Personal Area Network), LAN(Local Area Network), 또는 MAN(Metropolitan Area Network)를 포함할 수 있다. 네트워크 환경(100)에서의 다양한 디바이스들은 다양한 유선 및 무선 통신 프로토콜들에 따라 통신 네트워크(106)에 접속하도록 구성될 수 있다. 그러한 유선 및 무선 통신 프로토콜들의 예들은, 제한적인 것은 아니지만, TCP/IP(Transmission Control Protocol and Internet Protocol), UDP(User Datagram Protocol), HTTP(Hypertext Transfer Protocol), FTP(File Transfer Protocol), Zig Bee, EDGE, IEEE 802.11, Li-Fi(light fidelity), 802.16, IEEE 802.11s, IEEE 802.11g, 멀티-홉 통신, 무선 액세스 포인트(AP), 디바이스 대 디바이스 통신, 셀룰러 통신 프로토콜들, 및 블루투스(BT) 통신 프로토콜들 중 적어도 하나를 포함할 수도 있다.
이미지 캡처 디바이스(108)는 장면(110)의 복수의 컬러 이미지 및 복수의 심도 이미지를 캡처하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 이미지 캡처 디바이스(108)는 (제1 타입의 센서(108A) 및 제2 타입의 센서(108B)와 같은) 복수의 센서들을 포함할 수 있다. 캡처된 복수의 컬러 이미지들 및 복수의 심도 이미지들은 서버(104)에 저장될 수 있다. 일부 실시예들에서, 제1 타입의 센서(108A) 및 제2 타입의 센서(108B)를 포함하는 이미지 캡처 디바이스(108)는 객체 분할 장치(102)에 존재할 수 있다. 이미지 캡처 디바이스(108)의 예들은, 제한적인 것은 아니지만, 카메라, 이미지 센서, (RGB(red-green-blue) 센서와 같은) 컬러 센서, 심도 센서 등을 포함할 수 있다.
(이미지 센서와 같은) 제1 타입의 센서(108A)는 장면(110)의 복수의 컬러 이미지들을 캡처하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스들 및/또는 코드를 포함할 수 있다. 제1 타입의 센서(108A)는 장면(110) 및/또는 장면(110)에서의 특정 관심 객체를 제1 타입의 센서(108A) 상에 포커싱할 수 있는 포커싱 렌즈(focusing lens)들과 같은 적절한 광학 기기들(optical instruments)을 가질 수 있다. 제1 타입의 센서(108A)의 구현의 예들은, 제한적인 것은 아니지만, RGB 센서, 반도체 CCD(charged coupled device) 기반 이미지 센서, CMOS(complementary metal-oxide-semiconductor) 기반 이미지 센서, N-타입 금속 산화물 반도체 기반 이미지 센서, 평판 검출기(flat panel detector), 또는 다른 이미지 센서들을 포함할 수 있다.
(심도 센서와 같은) 제2 타입의 센서(108B)는 장면(110)으로부터 복수의 심도 이미지들을 캡처하도록 구성될 수 있는 적절한 로직, 회로, 인터페이스들, 및/또는 코드를 포함할 수 있다. 복수의 심도 이미지들 각각은 개개의 심도 이미지가 제2 타입의 센서(108B)에 의해 캡처될 수 있는 다양한 시간 순간들에서 장면(110)에서의 다양한 객체들과 연관된 심도 정보를 포함할 수 있다. 제2 타입의 센서(108B)의 구현의 예들은, 제한적인 것은 아니지만, 심도 센서, 스테레오 삼각측량 기반 심도 센서(stereo triangulation based depth sensor), 구조화된 광 3D 스캐너 기반 심도 센서, 또는 코딩된 애퍼처 기반 심도 센서(coded aperture based depth sensor)를 포함할 수 있다.
동작시에, 이미지 캡처 디바이스(108)의 제1 타입의 센서(108A)는 이미지 캡처 디바이스(108)의 시야로부터 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)를 캡처하도록 구성될 수 있다. 컬러 이미지 프레임들의 시퀀스(112)는 플래시 비디오, AVI(audio video interleaved) 비디오, 및 MPEG(moving pictures expert group) 비디오와 같은 비디오일 수 있다. 캡처된 컬러 이미지 프레임들의 시퀀스(112)는 장면(110)의 복수의 객체들을 포함할 수 있다. 캡처된 컬러 이미지 프레임들의 시퀀스(112)는 사람 객체를 더 포함할 수 있다. 컬러 이미지 프레임들의 시퀀스(112)의 각각의 컬러 이미지 프레임은 복수의 픽셀들을 포함할 수 있다. 컬러 이미지 프레임의 복수의 픽셀들 각각은 컬러 성분을 포함하고, 컬러 이미지 프레임에서의 공간적 위치를 가질 수 있다. 제1 타입의 센서(108A)는 컬러 이미지 프레임들의 시퀀스(112)를 객체 분할 장치(102)에 송신하도록 구성될 수 있다. 컬러 이미지 프레임들의 시퀀스(112)는 입력 컬러 이미지 프레임(116)을 포함할 수 있다.
이미지 캡처 디바이스(108)의 제2 타입의 센서(108B)는 컬러 이미지 프레임들의 시퀀스(112)의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지를 캡처하도록 구성될 수 있다. 제2 타입의 센서(108B)는 제1 타입의 센서(108A)에 의한 컬러 이미지 프레임들의 시퀀스(112)의 캡처와 동시에, 컬러 이미지 프레임들의 시퀀스(112)의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지를 캡처할 수 있다. 달리 말하면, 제2 타입의 센서(108B)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)에 대응하는 심도 이미지들의 시퀀스(114)를 캡처하도록 구성될 수 있다. 심도 이미지들의 시퀀스(114)의 각각은 컬러 이미지 프레임들의 시퀀스(112)의 상이한 컬러 이미지 프레임에 대응할 수 있다. 컬러 이미지 프레임들의 시퀀스(112)의 각각의 컬러 이미지 프레임의 심도 이미지는 개개의 컬러 이미지 프레임이 캡처될 수 있는 대응하는 시간 순간에 장면(110)과 연관된 심도 정보를 포함할 수 있다. 심도 이미지들의 시퀀스(114)의 각각은 복수의 픽셀들을 포함할 수 있다. 심도 이미지의 복수의 픽셀들 각각은 심도 값을 포함할 수 있고, 심도 이미지에서의 공간적 위치를 가질 수 있다. 제2 타입의 센서(108B)는 심도 이미지들의 시퀀스(114)를 객체 분할 장치(102)에 송신하도록 구성될 수 있다. 심도 이미지들의 시퀀스(114)는 입력 컬러 이미지 프레임(116)의 입력 심도 이미지(118)를 포함할 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 이미지 캡처 디바이스(108)로부터 컬러 이미지 프레임들의 시퀀스(112) 및 대응하는 심도 이미지들의 시퀀스(114)를 수신하도록 구성될 수 있다. 달리 말하면, 객체 분할 장치(102)는 장면(110)의 입력 컬러 이미지 프레임(116) 및 대응하는 입력 심도 이미지(118)를 수신하도록 구성될 수 있다. 객체 분할 장치(102)는 심도 값들이 없는 입력 심도 이미지(118)에서의 복수의 영역들을 검출하도록 구성될 수 있다. 객체 분할 장치(102)는 심도 값들이 없는 복수의 영역들에서 심도 값들을 채우고 입력 심도 이미지(118)에서의 잡음을 감소시키기 위해 입력 심도 이미지(118)를 평활화할 수 있다. 입력 심도 이미지(118)는 3x3 중앙값 필터에 기초하여 평활화될 수 있다. 3x3 중앙값 필터는 비선형 필터링 기법을 이용하여 입력 심도 이미지(118)에서 심도 값들이 없는 복수의 영역들에서 심도 값들을 채우는 비선형 필터일 수 있다. 3x3 중앙값 필터는 또한 입력 심도 이미지(118)로부터 "솔트 앤드 페퍼(salt and pepper)" 타입 잡음을 제거하는데 이용될 수 있다. "솔트 앤드 페퍼" 타입 잡음은, 이미지 신호에서의 급격하고 갑작스런 외란들(disturbances)에 의해 야기되는 임펄스 잡음(impulse noise)이라고 알려질 수도 있다. 일부 실시예들에서, 객체 분할 장치(102)는 또한 7x7 필터를 이용하여 입력 심도 이미지(118)로부터 "가우시안-타입(Gaussian-type)" 잡음을 제거할 수 있다. 7x7 균일 필터는 선형 필터링 기술을 이용하여, 불량한 조명 또는 고온으로 인해 입력 심도 이미지(118)의 획득 동안에 또는 그것의 캡처시에 발생하는 "가우시안-타입" 잡음을 제거할 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 평활화된 입력 심도 이미지(118)에 기초하여 입력 컬러 이미지 프레임(116)의 포인트 클라우드를 생성하도록 구성될 수 있다. 포인트 클라우드는 3차원 좌표계에서 입력 컬러 이미지 프레임(116)에서의 캡처된 장면을 표현하는 포인트들의 집합(collection)이다. 입력 컬러 이미지 프레임(116)의 포인트 클라우드의 포인트들은 3차원 좌표계에서 "X", "Y" 및 "Z" 좌표들에 의해 정의된다. 장면(110)의 입력 컬러 이미지 프레임(116)의 포인트 클라우드는 입력 심도 이미지(118)에 기초하여 생성될 수 있다. 생성된 포인트 클라우드의 각각의 포인트의 3차원 좌표들은 입력 심도 이미지(118)의 심도 값들에 기초하여 결정될 수 있다. 3차원 좌표계에서의 "X,Y,Z" 좌표들에 대한 좌표들 "0,0,0"은 3차원 좌표계에서의 이미지 캡처 디바이스(108)의 위치를 표현할 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 이미지 파라미터들의 제1 세트에 기초하여 입력 컬러 이미지 프레임(116)의 배경으로부터 전경 사람 객체를 분할하도록 구성될 수 있다. 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)으로부터 배경 이미지를 분리하도록 구성될 수 있다. 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에 대응하는 입력 심도 이미지(118)를 이용하여 초기 전경 마스크를 추정하도록 더 구성될 수 있다. 초기 전경 마스크는 입력 컬러 이미지 프레임(116)과 입력 컬러 이미지 프레임(116)의 배경 이미지 사이의 차이를 이진화함으로써 더 추정될 수 있다. 객체 분할 장치(102)는 추정된 초기 전경 마스크의 경계 영역에서 제1 마스크 값을 갖는 제1 세트의 픽셀들을 식별하도록 구성될 수 있다. 제1 마스크 값을 갖는 제1 세트의 픽셀들은, 컬러 성분들, 심도 성분, 및 경계 영역과 연관된 각각의 픽셀의 공간적 위치일 수 있는 이미지 파라미터들의 제1 세트에 기초하여 제2 마스크 값으로 업데이트될 수 있다.
객체 분할 장치(102)는 초기 전경 마스크의 업데이트된 제2 마스크 값에 기초하여 전경 사람 객체의 전경 마스크를 추정하도록 구성될 수 있다. 객체 분할 장치(102)는 분할된 전경 사람 객체를 생성할 수 있다. 특정 시나리오들에서, 분할된 전경 사람 객체는 전경 사람 객체의 발 영역의 일부가 없을 수 있다. 분할된 전경 사람 객체는 입력 컬러 이미지 프레임(116)의 지평면에 가까운 전경 사람 객체의 발 영역의 존재로 인해 발 영역이 없을 수 있다. 입력 컬러 이미지 프레임(116)의 지평면에 대한 발 영역의 그러한 근접성은 분할된 전경 사람 객체로부터 발 영역을 가릴(occlude) 수 있다. 달리 말하면, 분할된 전경 사람 객체는 입력 컬러 이미지 프레임(116)과 입력 컬러 이미지 프레임(116)의 배경 이미지 사이의 차이가 발 영역에 대해 최소일 수 있기 때문에 발 영역이 없을 수 있다. 추가적으로, 분할된 전경 사람 객체에서의 발 영역의 가림(occlusion)은 사람 객체의 발 영역 상으로의 사람 객체의 그림자들에 의해 야기될 수 있다. 그러한 시나리오들에서, 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 생성된 포인트 클라우드의 복수의 포인트로부터 투영된 복수의 벡터들을 계산하도록 구성될 수 있다. 계산된 복수의 벡터들의 각각의 벡터는 생성된 포인트 클라우드의 복수의 포인트들 중의 소정의 포인트에 수직일 수 있는 표면 법선 벡터(surface normal vector)일 수 있다. 생성된 포인트 클라우드의 복수의 포인트들로부터의 관심 포인트에 대한 벡터는 생성된 포인트 클라우드의 관심 포인트의 3차원 좌표들 및 관심 포인트의 2개의 이웃 포인트들에 기초하여 계산될 수 있다. 2개의 이웃 포인트들은 관심 포인트의 바로 우측에 위치된 포인트 및 관심 포인트의 바로 하부에 위치된 포인트를 포함할 수 있다. 벡터는 그것이 생성된 포인트 클라우드에서 2개의 이웃 포인트들을 갖는 경우에만 관심 포인트에 대해 계산될 수 있다.
객체 분할 장치(102)는 생성된 포인트 클라우드에서의 복수의 포인트들과 연관된 계산된 복수의 벡터들을 벡터 클러스터들의 세트로 클러스터화하도록 구성될 수 있다. 복수의 벡터들은 계산된 복수의 벡터들 각각과 연관된 배향 정보에 기초하여 벡터 클러스터들의 세트로 클러스터화될 수 있다. 예를 들어, K-평균 클러스터화(K-means clustering)는 계산된 복수의 벡터들을 벡터 클러스터들의 세트로 클러스터화하는데 이용될 수 있다. 계산된 복수의 벡터들을 벡터 클러스터들의 세트로 클러스터화하는 것은 배향 공간에서 실행될 수 있다. 벡터 클러스터들의 세트는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에서의 하나 이상의 평면에 대응할 수 있다. 객체 분할 장치(102)는 벡터 클러스터들의 세트에서의 계산된 복수의 벡터들의 분포를 분석하기 위해 단위 구면(unit sphere) 상에 계산된 복수의 벡터들을 표시(plot)하도록 더 구성될 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 장면(110)과 연관된 벡터 클러스터들의 세트에 기초하여, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 복수의 평면들을 검출하도록 구성될 수 있다. 벡터 클러스터들의 세트의 각각의 벡터 클러스터는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 평면에 대응할 수 있다. 벡터 클러스터들의 세트의 벡터 클러스터의 모든 벡터들은 그 벡터 클러스터에 대응하는 평면의 배향 정보일 수 있는 동일한 배향 정보와 연관될 수 있다. 복수의 평면들 각각은 캡처된 장면(110)에서 개별적인 분리된 표면으로서 검출될 수 있다. 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)과 연관된 벡터 클러스터들의 세트에 기초하여 평면 맵을 생성하도록 더 구성될 수 있다. 평면 맵은 검출된 복수의 평면들을 입력 컬러 이미지 프레임의 이미지 도메인에 맵핑함으로써 생성될 수 있다. 생성된 평면 맵은 평면 맵에서의 검출된 복수의 평면들의 상이한 평면들에서 그룹화된 픽셀들을 포함할 수 있다. 픽셀들은 평면 맵에서의 픽셀들의 공간적 위치에 관계없이 평면 맵에서의 각각의 픽셀과 연관된 동일한 배향 정보에 기초하여 그룹화될 수 있다. 달리 말하면, 동일한 배향 정보를 갖는 픽셀들은 입력 컬러 이미지 프레임(116)의 이미지 도메인에서의 평면 맵에서 하나의 그룹으로서 그룹화될 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 평면 맵에서의 검출된 복수의 평면들에서 복수의 격리된 영역들을 검출하도록 구성될 수 있다. 격리된 영역들은 이미지 도메인에서의 평면 맵에서의 픽셀들의 제1 임계 수보다 작은 복수의 격리된 영역들의 영역 크기에 기초하여 검출될 수 있다. 달리 말하면, 격리된 영역들은 평면 맵에서의 작은 영역들일 수 있고, 평면 맵에서의 복수의 격리된 영역들 각각의 영역 크기는 이미지 도메인에서의 평면 맵에서의 픽셀들의 제1 임계 수, 예를 들어, "100" 픽셀들보다 작을 수 있다. 객체 분할 장치(102)는 평면 맵에서의 검출된 복수의 격리된 영역들을 제거하도록 구성될 수 있다. 객체 분할 장치(102)는 중앙값 필터의 타입에 의해 이미지 도메인에서의 픽셀들의 제2 임계 수보다 작은 검출된 복수의 격리된 영역들을 평활화하도록 더 구성될 수 있다. 픽셀들의 제2 임계 수보다 작은 검출된 복수의 격리된 영역들은 3x3 중앙값 필터에 기초하여 평활화될 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 기준 높이로부터 평면 맵에서의 검출된 복수의 평면들에서의 최저 평면을 선택하도록 구성될 수 있다. 기준 높이는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)를 캡처하는 이미지 캡처 디바이스(108)의 높이에 대응할 수 있다. 일부 실시예에서, 평면 맵에서의 검출된 복수의 평면들에서의 선택된 최저 평면은 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 지평면에 대응할 수 있다. 최저 수평 평면의 표면 법선 벡터들의 배향은 위쪽으로(즉, 최하부로부터 최상부로) 향하는 방향에 있을 수 있다. 추가적으로, 객체 분할 장치(102)는 평면 맵에서의 픽셀들의 높이 기반 분포에 기초하여 평면 맵에서의 지평면의 배향 정보와 동일한 배향 정보를 갖는 상이한 수평 평면들에서의 픽셀들을 분리하도록 구성될 수 있다. 상이한 수평 평면들의 표면 법선 벡터들의 배향은 위쪽으로(즉, 최하부로부터 최상부로) 향하는 방향에 있을 수 있다. 객체 분할 장치(102)는 평면 맵의 상이한 수평 평면들에서의 다른 픽셀들과 비교하여 최저 수평 평면에 존재하는 픽셀들을 분류하도록 더 구성될 수 있다. 달리 말하면, 객체 분할 장치(102)는 평면 맵의 높이 기반 분포에 기초한 최대 수의 픽셀들을 포함하는, 상이한 수평 평면들로부터의 최저 수평 평면을 지평면으로서 선택할 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 검출된 지평면의 레벨로부터 정의된 영역에, 예를 들어, 검출된 지평면의 레벨로부터 20㎜ 내지 150㎜에 위치된 복수의 전경 픽셀들을 검출하도록 구성될 수 있다. 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 검출된 지평면 상에 존재하는 사람 객체의 발 영역을 복구하도록 더 구성될 수 있다. 사람 객체의 발 영역은 이미지 파라미터들의 제1 세트와 상이할 수 있는 이미지 파라미터들의 제2 세트에 기초하여 복구될 수 있다. 복구된 발 영역은 지평면의 레벨로부터 정의된 영역에 존재하는 전경 픽셀들의 세트를 포함할 수 있다. 예를 들어, 시나리오에서, 평균 시프트 필터(Mean-shift filter)를 이용하여, 입력 컬러 이미지 프레임(116)의 배경으로부터 전경 사람 객체를 분할할 수 있다. 평균 시프트 필터는 관심 위치 근처의 픽셀들의 확률 밀도 함수(probability density function)(PDF)를 이용하여 전경 마스크에서의 특정 에러들을 한 번에 한 픽셀씩 정정하는데 이용될 수 있다. 확률 밀도 함수는 가우시안 커널(Gaussian kernel)에 기초한 커널 밀도 함수를 이용하여 추정될 수 있다. 이미지 파라미터들의 제1 세트 및 이미지 파라미터들의 제2 세트는 관심 영역의 확률 밀도 함수를 추정하는데 이용된 가우시안 커널의 대역폭들일 수 있다. 이미지 파라미터들의 제1 세트와 연관된 가우시안 커널의 대역폭은 이미지 파라미터들의 제2 세트와 연관된 가우시안 커널의 대역폭보다 높을 수 있다. 전경 사람 객체는 이미지 파라미터들의 제2 세트와 비교하여 가우시안 커널의 더 높은 대역폭과 연관될 수 있는 이미지 파라미터들의 제1 세트에 기초하여 입력 컬러 이미지 프레임(116)의 배경으로부터 분할될 수 있다. 추가적으로, 이미지 파라미터들의 제1 세트보다 가우시안 커널의 더 낮은 대역폭과 연관되는 이미지 파라미터들의 제2 세트는, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 검출된 지평면 상에 존재하는 사람 객체의 발 영역을 복구하기 위해 이용될 수 있다.
실시예에 따르면, 객체 분할 장치(102)는 사람 객체의 복구된 발 영역의 픽셀들의 세트를 포함하도록 사람 객체의 추정된 전경 마스크를 업데이트할 수 있다. 추정된 전경 마스크는 이미지 파라미터들의 제2 세트에 기초하여 업데이트될 수 있다. 추가적으로, 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 검출된 지평면에 가깝게 존재하는 사람 객체의 복구된 발 영역을 갖는 전경 사람 객체를 추출할 수 있다. 추출된 전경 사람 객체는 지평면에 가까운 발 영역의 존재로 인해 분할된 사람 객체에 없을 수 있는 사람 객체의 복구된 발 영역을 포함할 수 있다. 객체 분할 장치(102)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 지평면에 가깝게 놓인 사람 객체의 발 영역 상에 사람 객체의 그림자들이 존재하더라도 사람 객체의 발 영역을 분할하는 것을 가능하게 할 수 있다. 객체 분할 장치(102)는 사람 객체의 복구된 발 영역을 갖는 분할된 사람 객체를 생성하도록 더 구성될 수 있다. 실시예에 따르면, 객체 분할 장치(102)는 복구된 발 영역을 갖는 분할된 사람 객체를 디스플레이 스크린 상에 디스플레이할 수 있다.
도 2는 본 개시의 실시예에 따른, 예시적인 객체 분할 장치를 도시하는 블록도이다. 도 2는 도 1의 요소들과 관련하여 설명된다. 도 2를 참조하면, 객체 분할 장치(102)가 도시되어 있다. 객체 분할 장치(102)는 제어 회로(202), 복구 회로(202A), 메모리(204), 입력/출력(I/O) 디바이스(206) 및 네트워크 인터페이스(208)를 포함할 수 있다. 복구 회로(202A)는 제어 회로(202)의 일부일 수 있다. I/O 디바이스(206)는 애플리케이션 인터페이스(210)를 렌더링하는데 이용될 수 있는 디스플레이 스크린(206A)을 포함할 수 있다. 제어 회로(202)는 메모리(204) 및 I/O 디바이스(206)에 통신가능하게 결합될 수 있다. 제어 회로(202)는 네트워크 인터페이스(208)의 이용에 의해, 서버(104) 및 이미지 캡처 디바이스(108)와 통신하도록 구성될 수 있다.
제어 회로(202)는 제2 타입의 센서(108B)로부터 수신된 입력 컬러 이미지 프레임(116)에 대한 대응하는 입력 심도 이미지(118)에 기초하여, 제1 타입의 센서(108A)로부터 수신된 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)에 대한 포인트 클라우드를 생성하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 제어 회로(202)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)의 배경으로부터 전경 사람 객체를 분할하도록 더 구성될 수 있다. 제어 회로(202)는 복수의 평면들로부터 지평면을 검출하도록 구성될 수 있다. 제어 회로(202)는 객체 분할 장치(102)에서의 별개의 프로세서 또는 회로로서 구현될 수 있는 하나 이상의 전문화된 처리 유닛을 포함할 수 있다. 실시예에서, 하나 이상의 전문화된 처리 유닛 및 제어 회로(202)는, 하나 이상의 전문화된 처리 유닛 및 제어 회로(202)의 기능들을 집합적으로 수행하는 통합된 프로세서 또는 프로세서들의 클러스터로서 구현될 수 있다. 제어 회로(202)는 본 기술분야에 알려진 다수의 프로세서 기술들에 기초하여 구현될 수 있다. 제어 회로(202)의 구현들의 예들은, X86 기반 프로세서, GPU(Graphics Processing Unit), RISC(Reduced Instruction Set Computing) 프로세서, ASIC(Application-Specific Integrated Circuit) 프로세서, CISC(Complex Instruction Set Computing) 프로세서, 마이크로제어기, CPU(central processing unit), 및/또는 다른 제어 회로들일 수 있다.
복구 회로(202A)는 분할된 전경 사람 객체에 대한 검출된 지평면으로부터 발 영역을 복구하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 복구 회로(202A)의 구현들의 예들은, 전문화된 회로, GPU, RISC 프로세서, ASIC 프로세서, CISC 프로세서, 마이크로제어기, CPU, 및/또는 다른 제어 회로들일 수 있다.
메모리(204)는 제어 회로(202)에 의해 실행가능한 명령어들의 세트를 저장하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 메모리(204)는 운영 체제들 및 연관된 애플리케이션들의 데이터를 저장하도록 구성될 수 있다. 메모리(204)는 컬러 이미지 프레임들의 시퀀스(112) 및 대응하는 심도 이미지들의 시퀀스(114)를 저장하도록 더 구성될 수 있다. 메모리(204)의 구현의 예들은, 제한적인 것은 아니지만, RAM(Random Access Memory), ROM(Read Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), HDD(Hard Disk Drive), SSD(Solid-State Drive), CPU 캐시, 또는 SD(Secure Digital) 카드를 포함할 수 있다.
I/O 디바이스(206)는 사용자로부터 입력을 수신하고, 사용자로부터 수신된 입력에 기초하여 사용자에게 출력을 제공하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 예를 들어, I/O 디바이스(206)는 사용자로부터의 요청에 기초하여 장면(110)의 캡처된 컬러 이미지 프레임들의 시퀀스(112)의 배경으로부터 분할된 사람 객체의 손실 발을 복구하기 위한 동작을 초기화하기 위해 이용될 수 있다. I/O 디바이스(206)는 제어 회로(202)와 통신하도록 구성될 수 있는 다양한 입력 및 출력 디바이스들을 포함할 수 있다. I/O 디바이스(206)의 예들은, 제한적인 것은 아니지만, 터치 스크린, 키보드, 마우스, 조이스틱, 마이크로폰, 디스플레이 스크린(예를 들어, 디스플레이 스크린(206A)) 및 스피커를 포함할 수 있다.
디스플레이 스크린(206A)은 장면(110)의 캡처된 컬러 이미지 프레임들의 시퀀스(112)의 배경으로부터 분할된 사람 객체의 복구된 손실 발의 디스플레이를 위해 디스플레이 스크린(206A)에서 애플리케이션 인터페이스(210)를 렌더링하도록 구성될 수 있는 적절한 로직, 회로 및 인터페이스들을 포함할 수 있다. 실시예에 따르면, 디스플레이 스크린(206A)은 사용자로부터 입력을 수신하도록 구성될 수 있다. 그러한 시나리오에서, 디스플레이 스크린(206A)은 사용자가 입력을 제공할 수 있게 하는 터치 스크린일 수 있다. 터치 스크린은 저항성 터치 스크린, 용량성 터치 스크린, 또는 열 터치 스크린 중 적어도 하나일 수 있다. 실시예에 따르면, 디스플레이 스크린(206A)은 가상 키패드, 스타일러스, 제스처 기반 입력, 또는 터치 기반 입력을 통해 입력을 수신할 수 있다. 디스플레이 스크린(206A)은, 제한적인 것은 아니지만, LCD(Liquid Crystal Display) 디스플레이, LED(Light Emitting Diode) 디스플레이, 플라즈마 디스플레이, 또는 OLED(Organic LED) 디스플레이 기술, 또는 다른 디스플레이 디바이스들 중 적어도 하나와 같은 몇몇 알려진 기술들을 통해 실현될 수 있다. 실시예에 따르면, 디스플레이 스크린(206A)은 스마트 글래스 디바이스(smart-glass device)의 디스플레이 스크린, 시스루 디스플레이(see-through display), 투영 기반 디스플레이(projection-based display), 전기변색 디스플레이(electro-chromic display), 또는 투명 디스플레이(transparent display)를 지칭할 수 있다.
네트워크 인터페이스(208)는 통신 네트워크(106)를 통해 객체 분할 장치(102)와 서버(104) 사이의 통신을 용이하게 하도록 구성될 수 있는 적절한 로직, 회로, 및 인터페이스들을 포함할 수 있다. 네트워크 인터페이스(208)는 객체 분할 장치(102)의 통신 네트워크(106)와의 유선 또는 무선 통신을 지원하기 위한 다양한 알려진 기술들의 이용에 의해 구현될 수 있다. 네트워크 인터페이스(208)는, 제한적인 것은 아니지만, 안테나, RF(radio frequency) 송수신기, 하나 이상의 증폭기, 튜너(tuner), 하나 이상의 발진기, 디지털 신호 프로세서, CODEC(coder-decoder) 칩셋, SIM(subscriber identity module) 카드, 또는 로컬 버퍼 회로를 포함할 수 있다. 네트워크 인터페이스(208)는 인터넷, 인트라넷, 또는 셀룰러 전화 네트워크, 무선 LAN, 및 MAN과 같은 무선 네트워크와 같은 네트워크들과 무선 통신을 통해 통신할 수 있다. 무선 통신은 GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), W-CDMA(wideband code division multiple access), LTE(Long Term Evolution), CDMA(code division multiple access), TDMA(time division multiple access), 블루투스, Wi-Fi(예컨대, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 또는 IEEE 802.11n), VoIP(voice over Internet Protocol), Li-Fi, Wi-MAX(Worldwide Interoperability for Microwave Access), 이메일, 인스턴트 메시징, 및 SMS(Short Message Service)를 위한 프로토콜과 같은, 복수의 통신 표준들, 프로토콜들 및 기술들 중 임의의 것을 이용할 수 있다.
애플리케이션 인터페이스(210)는 디스플레이 스크린(206A)과 같은 디스플레이 스크린 상에 렌더링된 사용자 인터페이스(UI)에 대응할 수 있다. 애플리케이션 인터페이스(210)는 장면(110)의 캡처된 컬러 이미지 프레임들의 시퀀스(112)의 배경으로부터 분할된 사람 객체의 복구된 손실 발을 디스플레이할 수 있다. 애플리케이션 인터페이스(210)의 예는, 제한적인 것은 아니지만, GUI(graphical user interface)를 포함할 수 있다.
객체 분할 장치(102)에 의해 실행된 기능들 또는 동작들은, 도 1에서 설명된 바와 같이, 제어 회로(202) 및 복구 회로(202A)에 의해 수행될 수 있다. 제어 회로(202) 및 복구 회로(202A)에 의해 실행된 동작들은, 예를 들어, 도 3a 내지 도 3g, 도 4a, 및 도 4b에서 더 설명된다.
도 3a, 도 3b, 도 3c, 도 3d, 도 3e, 도 3f 및 도 3g는, 본 개시의 일 실시예에 따른, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 예시적인 동작들을 집합적으로 도시한다. 도 3a 내지 도 3g는 도 1 및 도 2의 요소들과 관련하여 설명된다.
도 3a는 본 개시의 실시예에 따른, 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)의 포인트 클라우드의 생성을 도시한다. 도 3a를 참조하면, 입력 컬러 이미지 프레임(116) 및 입력 컬러 이미지 프레임(116)의 포인트 클라우드(302)가 도시되어 있다. 실시예에 따르면, 제어 회로(202)는 제1 타입의 센서(108A)에 의해 캡처된 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)에 대한 포인트 클라우드(302)를 생성하도록 구성될 수 있다. 포인트 클라우드(302)는 입력 심도 이미지(118)에 대한 평활화 동작 후에, 제2 타입의 센서(108B)에 의해 캡처된 심도 이미지들의 시퀀스(114)의 입력 심도 이미지(118)(도 3a에 도시되지 않음)에 기초하여 생성될 수 있다. 포인트 클라우드(302)는 3차원 좌표계에서 입력 컬러 이미지 프레임(116)에서의 장면(110)의 상이한 외부 표면들을 표현할 수 있다. 포인트 클라우드(302)의 포인트들은 3차원 좌표계에서 "X", "Y" 및 "Z" 좌표들에 의해 정의될 수 있다. 입력 심도 이미지(118)에 의해 표현된 입력 컬러 이미지 프레임(116)의 심도 값들은 생성된 포인트 클라우드(302)의 각각의 포인트의 3차원 좌표들을 계산하는데 이용될 수 있다. 생성된 포인트 클라우드(302)의 3차원 좌표계에서의 "X,Y,Z" 좌표들에 대한 좌표들 "0,0,0"은 3차원 좌표계에서 이미지 캡처 디바이스(108)의 위치를 표현할 수 있다.
도 3b는 본 개시의 실시예에 따른, 생성된 포인트 클라우드의 복수의 포인트들로부터 투영된 복수의 벡터들의 계산을 도시한다. 도 3b를 참조하면, 포인트 클라우드(302), 관심 포인트(304)("i"라고도 표현됨), 제1 이웃 포인트(306A)("j"라고도 표현됨) 및 제2 이웃 포인트(306B)("k"라고도 표현됨), 및 단위 구면 상의 계산된 복수의 벡터들의 단위 구면 분포(308)가 도시되어 있다. 실시예에 따르면, 제어 회로(202)는 생성된 포인트 클라우드(302)의 복수의 포인트들로부터 투영된 복수의 벡터들을 계산하도록 구성될 수 있다. 제어 회로(202)는 관심 포인트(304) 및 관심 포인트(304)의 제1 이웃 포인트(306A)("j") 및 제2 이웃 포인트(306B)("k")와 같은 2개의 이웃 포인트들의 3차원 좌표에 기초하여 관심 포인트(304)("i"라고도 표현됨)와 같은 관심 포인트로부터 투영된 벡터 "n"을 계산하도록 구성될 수 있다. 계산된 벡터 "n"은 관심 포인트(304)("i"라고도 표현됨)에 수직인 표면 법선 벡터일 수 있다. 제1 이웃 포인트(306A)("j")는 관심 포인트(304)("i")의 바로 우측에 위치될 수 있다. 제2 이웃 포인트(306B)("k")는 관심 포인트(304)의 바로 하부에 위치될 수 있다. 벡터 "n"은, 관심 포인트(304)가 생성된 포인트 클라우드(302)에서 2개의 이웃 포인트들을 갖는 경우에만, 관심 포인트(304)에 대해 계산될 수 있다. 관심 포인트(304)로부터 제1 이웃 포인트(306A)까지의 벡터는 벡터 "b"로서 표현될 수 있고, 관심 포인트(304)로부터 제2 이웃 포인트(306B)까지의 벡터는 벡터 "a"로서 표현될 수 있다. 제어 회로(202)는 포인트 클라우드(302)의 복수의 포인트들로부터 투영된 계산된 복수의 벡터들의 단위 구면 분포(308)와 같은 단위 구면 상의 계산된 복수의 벡터들을 표시하도록 더 구성될 수 있다. 벡터 "n"은, 예를 들어, 아래에 주어진 수학식 1에 의해 계산될 수 있다.
Figure pct00001
여기서, "u", "v" 및 "w"는 단위 구면 상의 계산된 복수의 벡터들의 단위 구면 분포(308)의 축들을 나타내고;
a=k-i는 관심 포인트(304)("i")로부터 제2 이웃 포인트(306B)("k")까지의 벡터 "a"를 나타내고;
b=j-i는 관심 포인트(304)로부터 제1 이웃 포인트(306A)("j")까지의 벡터 "a"를 나타낸다.
도 3c는 본 개시의 실시예에 따른, 포인트 클라우드의 복수의 포인트들로부터 투영된 복수의 벡터들의 클러스터화를 도시한다. 도 3c를 참조하면, 단위 구면 상의 복수의 벡터들의 단위 구면 분포(308) 및 벡터 클러스터들의 세트(310)가 도시되어 있다. 실시예에 따르면, 제어 회로(202)는 복수의 벡터들 각각과 연관된 배향 정보에 기초하여 복수의 포인트들로부터 투영된 복수의 벡터들을 클러스터화하도록 구성될 수 있다. 동일한 배향 정보와 연관된 복수의 벡터들은 벡터 클러스터들의 세트(310)로서 함께 클러스터화될 수 있다. 복수의 벡터들은 K-평균 클러스터화에 기초하여 클러스터화될 수 있다. 벡터 클러스터들의 세트(310)는 동일한 배향 정보를 갖는 복수의 벡터들과 연관된 복수의 벡터 클러스터들을 포함할 수 있다. 벡터 클러스터들의 세트(310)에서의 벡터 클러스터들의 수는 K-평균 클러스터화에 기초하여 결정될 수 있다. 벡터 클러스터들의 세트(310)에서의 벡터 클러스터들의 수는 캡처된 장면(110)에서의 평면들의 수와 동일할 수 있다. 예를 들어, 벡터 클러스터들의 세트(310)의 제1 벡터 클러스터(310A)는, 벡터 클러스터들의 제1 세트에서의 모든 벡터들의 배향이 (화살표 마크들에 의해 표현된 바와 같이) 최하부로부터 최상부로의 방향에 있을 수 있는 것과 같이, 동일한 배향 정보와 연관된 복수의 벡터들을 포함할 수 있다. 유사하게, 벡터 클러스터들의 세트는, 도시된 바와 같이, 좌측으로부터 우측으로의 방향에 있는 동일한 배향 정보와 연관된 복수의 벡터들을 포함하는 제2 벡터 클러스터(310B)를 포함할 수 있다. 벡터 클러스터들의 세트는 310A, 310B, 310C, 310D 및 310E와 같은 복수의 벡터 클러스터들을 포함할 수 있다. 벡터 클러스터들의 세트(310)의 각각의 벡터 클러스터는 동일한 배향 정보와 연관된 복수의 벡터들을 포함할 수 있다. 제어 회로(202)는 장면(110)과 연관된 벡터 클러스터들의 세트(310)에 기초하여, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 복수의 평면들을 검출하도록 더 구성될 수 있다. 벡터 클러스터들의 세트(310)의 복수의 벡터 클러스터들(310A, 310B, 310C, 310D 및 310E)은 캡처된 장면(110)의 복수의 평면들에 대응할 수 있다.
도 3d는 본 개시의 실시예에 따른, 복수의 벡터들의 배향 정보와 연관된 벡터 클러스터들의 세트에 기초한 평면 맵의 생성을 도시한다. 도 3d를 참조하면, (도 3c의) 단위 구면 분포(308) 상의 벡터 클러스터들의 세트(310) 및 평면 맵(312)이 도시되어 있다. 실시예에 따르면, 제어 회로(202)는 검출된 복수의 평면들을 입력 컬러 이미지 프레임(116)의 이미지 도메인에 맵핑함으로써 평면 맵(312)을 생성하도록 구성될 수 있다. 생성된 평면 맵(312)은 평면 맵(312)에서의 검출된 복수의 평면들의 상이한 평면들에서 그룹화된 픽셀들을 포함할 수 있다. 픽셀들은 평면 맵(312)에서의 픽셀들의 공간적 위치에 관계없이 평면 맵(312)에서의 각각의 픽셀과 연관된 동일한 배향 정보에 기초하여 그룹화될 수 있다. 예를 들어, 캡처된 장면(110)은 6개의 표면 배향들을 갖는 6개의 측면들, 바닥 표면(floor surface)(312A), 4개의 벽들, 및 천장 표면(ceiling surface)(312D)을 갖는 입방체 구조로서의 또는 방(room)으로서의 실내 장면일 수 있다. 4개의 벽들 중에서, 3개의 벽들(312B, 312C 및 312E)의 표면들은 캡처된 장면(110)에서 볼 수 있는데, 이는 나머지 벽 표면이 컬러 이미지 프레임들의 시퀀스(112)의 캡처 동안 이미지 캡처 디바이스(108) 뒤에 놓일 수 있기 때문이다. 캡처된 장면(110)의 캡처시 이미지 캡처 디바이스(108)로부터의 뷰잉 방향(viewing direction)과 같은 카메라의 뷰잉 방향에서 또는 카메라의 뷰잉 방향 근처에서 표면 법선이 없기 때문에, 5개의 주요 배향 클러스터들이 5개의 측면들에 대해 벡터 클러스터들의 세트(310)로서 획득될 수 있다. 벡터 클러스터들의 세트(310)의 제1 벡터 클러스터(310A)는 평면 맵(312)에서의 바닥 표면(312A) 및 바닥 표면(312A)의 배향과 동일한 배향과 연관된 다른 표면들과 연관된 픽셀들에 맵핑될 수 있다. 유사하게, 벡터 클러스터들의 세트(310)의 벡터 클러스터(310B)는 장면(110)의 평면 맵(312)에서의 좌측 벽(312B) 및 좌측 벽(312B)의 배향과 동일한 배향과 연관된 다른 표면들과 연관된 픽셀들에 맵핑될 수 있다. 벡터 클러스터들의 세트(310)의 벡터 클러스터(310C)는 장면(110)의 평면 맵(312)에서의 우측 벽(312C) 및 우측 벽(312C)의 배향과 동일한 배향과 연관된 다른 표면들과 연관된 픽셀들에 맵핑될 수 있다. 벡터 클러스터들의 세트(310)의 벡터 클러스터(310D)는 장면(110)의 평면 맵(312)에서의 천장 표면(312D) 및 천장 표면(312D)의 배향과 동일한 배향과 연관된 다른 표면들과 연관된 픽셀들에 맵핑될 수 있다. 벡터 클러스터들의 세트(310)의 벡터 클러스터(310E)는 장면(110)의 평면 맵(312)에서의 정면 벽(312E) 및 정면 벽(312E)의 배향과 동일한 배향과 연관된 다른 표면들과 연관된 픽셀들에 맵핑될 수 있다.
도 3e는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 복수의 평면들로부터의 지평면의 검출을 도시한다. 도 3e를 참조하면, 평면 맵(312), 입력 컬러 이미지 프레임(116), 높이 기반 픽셀 분포(314), 기준 높이(314A) 및 지평면(316)이 도시되어 있다. 실시예에 따르면, 제어 회로(202)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 기준 높이(314A)로부터 평면 맵(312)에서의 검출된 복수의 평면들에서의 최저 평면을 선택하도록 구성될 수 있다. 기준 높이(314A)는 이미지 캡처 디바이스(108)의 높이일 수 있다. 또한, 제어 회로(202)는 평면 맵(312)에서의 픽셀들의 높이 기반 픽셀 분포(314)에 기초하여 선택된 최저 평면의 배향 정보와 동일한 배향 정보를 갖는 픽셀들을 분리하도록 구성될 수 있다. 평면 맵(312)에서의 픽셀들의 높이 기반 픽셀 분포(314)에 기초한, 제1 벡터 클러스터(310A)의 배향 정보와 연관된 픽셀들의 최대 수를 포함하는 최저 수평 평면이 지평면(316)으로서 선택될 수 있다. 따라서, 제어 회로(202)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 지평면(316)을 정확하게 검출하도록 구성될 수 있다.
도 3f는 본 개시의 실시예에 따른, 분할된 전경 사람 객체에 대한 검출된 지평면으로부터의 사람 객체의 손실 발 영역의 복구를 도시한다. 도 3f를 참조하면, 지평면(316), 발 영역(318) 및 지평면(316)의 레벨로부터 정의된 영역(320)이 도시되어 있다. 실시예에 따르면, 복구 회로(202A)는 검출된 지평면(316)의 레벨로부터 정의된 영역(320)에 위치된 복수의 전경 픽셀들을 검출하도록 구성될 수 있다. 예를 들어, 정의된 영역(320)은 검출된 지평면(316)의 레벨로부터 20mm 내지 150mm의 범위에 있을 수 있다. 복구 회로(202A)는 이미지 파라미터들의 제2 세트에 기초하여 검출된 지평면(316)의 레벨로부터 정의된 영역(320)에 위치되는 검출된 복수의 전경 픽셀들로부터 발 영역을 복구하도록 구성될 수 있다. 사람 객체의 발 영역(318)과 같은 손실 발 영역의 복구를 위한 이미지 파라미터들의 제2 세트는 이미지 파라미터들의 제1 세트와 상이할 수 있다. 이미지 파라미터들의 제2 세트는 입력 컬러 이미지 프레임(116)에서의 지평면(316) 상의 사람 객체의 그림자를 고려하고, 다른 영역들보다 발 영역(318)의 분리를 위해 상이한 파라미터들을 설정하고, 캡처된 장면의 지평면(316)으로부터 발 영역(318)을 복구할 수 있다. 복구 회로(202A)는 입력 컬러 이미지 프레임(116)의 배경으로부터의 발 영역의 분할에 기초하여, 입력 컬러 이미지 프레임(116)의 전경에서 발 영역(318)을 복구하도록 구성될 수 있다. 발 영역(318)은 사람 객체의 한쪽 발 또는 사람 객체의 양쪽 발을 포함할 수 있다. 발 영역은 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 검출된 지평면(316) 상에서 사람 객체에 의해 착용된 신발을 포함할 수 있다. 일부 실시예들에서, 복구 회로(202A)는 장면(110)과 같은 캡처된 장면의 전경 영역의 분할에서 가려질 수 있는 검출된 지평면(316) 상에 존재하는 임의의 손실 전경 객체 부분들 또는 영역들을 분할하기 위해 이용될 수 있다.
도 3g 및 도 3h는 본 개시의 실시예에 따른, 분할된 사람 객체가 사람 객체의 발 영역이 없는 제1 시나리오, 및 분할된 사람 객체가 지평면 검출에 기초한 복구된 발 영역을 갖는 제2 시나리오를 각각 도시한다. 도 3g 및 도 3h를 참조하면, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 존재하는 사람 객체(322), 검출된 지평면(316), 손실 발 영역을 갖는 제1 분할된 사람 객체(324), 및 발 영역(318)을 갖는 제2 분할된 사람 객체(326)가 도시되어 있다.
실시예에 따르면, 제1 시나리오는, 도 3g에 도시된 바와 같이, 지평면(316)과 같은 지평면의 검출 없이 캡처된 장면(110)의 전경에 존재하는 사람 객체(322)의 분할을 나타낸다. 객체 분할 장치(102)는 도 1에서 설명된 바와 같이, 지평면(316)의 검출 없이 사람 객체(322)를 분할하여, 제1 분할된 사람 객체(324)를 획득할 수 있다. 제1 분할된 사람 객체는 발 영역(318)과 같은 발 영역이 없을 수 있다. 제1 분할된 사람 객체(324)는 지평면(316)에 가까운 발 영역의 존재로 인해 발 영역(318)이 없을 수 있다. 발 영역(318)이 지평면(316)에 가깝게 존재하므로, 전경에 존재하는 발 영역(318)과 입력 컬러 이미지 프레임(116)의 배경 이미지 사이의 차이는 최소일 수 있고, 그 결과 제1 분할된 사람 객체(324)는 발 영역(318)이 없을 수 있다. 추가적으로, 사람 객체(322)의 발 영역(318)은 지평면(316)에 가까운 발 영역(318) 상의 사람 객체(322)의 그림자들의 존재로 인해 제1 분할된 사람 객체(324)에 존재하지 않을 수 있다.
실시예에 따르면, 제2 시나리오는, 도 3h에 도시된 바와 같이, 지평면(316)과 같은 지평면의 검출을 갖는 캡처된 장면(110)의 전경에 존재하는 사람 객체(322)의 분할을 나타낸다. 지평면(316)은, 도 1 및 도 3e에서 설명된 바와 같이, 생성된 포인트 클라우드(302)에서의 복수의 포인트들의 복수의 벡터들의 배향 정보에 기초하여 검출될 수 있다. 복구 회로(202A)는 (예를 들어, 도 3f에 도시된 바와 같이) 검출된 지평면(316)의 레벨로부터 정의된 영역(320)에 위치된 복수의 전경 픽셀들을 검출하도록 구성될 수 있다. 복구 회로(202A)는 이미지 파라미터들의 제2 세트에 기초하여, 지평면(316)의 레벨로부터 정의된 영역(320)에 존재하는 전경 픽셀들의 세트와 연관된, 발 영역(318)과 같은 손실 발 영역을 복구하도록 구성될 수 있다. 제어 회로(202)는 사람 객체(322)의 발 영역(318)의 검출된 전경 픽셀들의 세트를 포함하도록 사람 객체(322)의 추정된 전경 마스크를 업데이트하도록 더 구성될 수 있다. 제어 회로(202)는, 발 영역(318)을 포함하기 위한 사람 객체(322)의 업데이트된 전경 마스크에 기초하여, 발 영역(318)을 갖는 제2 분할된 사람 객체(326)를 생성할 수 있다. 제2 분할된 사람 객체(326)는 사람 객체(322)의 발 영역(318)을 포함할 수 있다. 발 영역(318)과 같은 복구된 발 영역을 갖는 제2 분할된 사람 객체(326)가 추출되고, 디스플레이 스크린(206A)과 같은 디스플레이 스크린 상에 디스플레이될 수 있다.
도 4a 및 도 4b는 본 개시의 실시예에 따른, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구의 예시적인 동작들을 집합적으로 도시하는 흐름도들이다. 도 4a 및 4b를 참조하면, 흐름도(400)가 도시되어 있다. 흐름도(400)는 도 1, 도 2, 및 도 3a 내지 도 3h와 관련하여 설명된다. 404 내지 444의 동작들은 객체 분할 장치(102)에서 구현될 수 있다. 흐름도(400)의 동작들은 402에서 시작하고 404로 진행할 수 있다.
404에서, 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)가 이미지 캡처 디바이스(108)의 제1 타입의 센서(108A)를 이용하여 캡처될 수 있다. 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)는 이미지 캡처 디바이스(108)의 시야로부터 캡처될 수 있다. 캡처된 컬러 이미지 프레임들의 시퀀스(112)는 장면(110)의 복수의 객체들을 포함할 수 있다. 컬러 이미지 프레임들의 시퀀스(112)는 입력 컬러 이미지 프레임(116)을 포함할 수 있다.
406에서, 컬러 이미지 프레임들의 시퀀스(112)의 각각의 컬러 이미지 프레임에 대한 심도 이미지가 이미지 캡처 디바이스(108)의 제2 타입의 센서(108B)를 이용하여 캡처될 수 있다. 제2 타입의 센서(108B)는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)에 대응하는 심도 이미지들의 시퀀스(114)를 캡처하도록 구성될 수 있다. 컬러 이미지 프레임들의 시퀀스(112)의 각각의 컬러 이미지 프레임의 심도 이미지는 개개의 컬러 이미지 프레임이 캡처될 수 있는 대응하는 시간 순간에서의 장면(110)과 연관된 심도 정보를 포함할 수 있다.
408에서, 컬러 이미지 프레임들의 시퀀스(112) 및 대응하는 심도 이미지들의 시퀀스(114)가 이미지 캡처 디바이스(108)로부터 수신될 수 있다. 객체 분할 장치(102)는 장면(110)의 입력 컬러 이미지 프레임(116) 및 대응하는 입력 심도 이미지(118)를 수신하도록 구성될 수 있다.
410에서, 입력 컬러 이미지 프레임(116)에 대응하는 심도 이미지들의 시퀀스(114)의 입력 심도 이미지(118)를 평활화하여, 입력 심도 이미지(118)에서 심도 값들이 없는 복수의 영역들에서 심도 값들을 채울 수 있다. 제어 회로(202)는 심도 값들이 없는 입력 심도 이미지(118)에서의 복수의 영역들을 검출하도록 구성될 수 있다. 제어 회로(202)는 입력 심도 이미지(118)의 평활화에 기초하여 입력 심도 이미지(118)에서의 잡음을 감소시킬 수 있다.
412에서, 평활화된 입력 심도 이미지(118)에 기초하여 입력 컬러 이미지 프레임(116)의 포인트 클라우드가 생성될 수 있다. 제어 회로(202)는 3차원 좌표계에서 입력 컬러 이미지 프레임(116)의 외부 표면을 표현하기 위해 도 3a에서의 포인트 클라우드(302)와 같은 포인트 클라우드를 생성하도록 구성될 수 있다. 생성된 포인트 클라우드의 각각의 포인트의 3차원 좌표들은 입력 심도 이미지(118)의 심도 값들에 기초하여 결정될 수 있다. 예를 들어, 도 3a에 도시된 바와 같이, 입력 컬러 이미지 프레임(116)의 포인트 클라우드(302)는 입력 심도 이미지(118)의 심도 값들에 기초하여 생성된다.
414에서, 입력 컬러 이미지 프레임(116)의 배경으로부터의 전경 사람 객체는 이미지 파라미터들의 제1 세트에 기초하여 분할될 수 있고, 분할된 전경 사람 객체는 전경 사람 객체의 발 영역의 적어도 일부가 없다. 제어 회로(202)는 입력 컬러 이미지 프레임(116)에 대응하는 입력 심도 이미지(118)를 이용하여 전경 사람 객체의 초기 전경 마스크를 추정하도록 구성될 수 있다. 제어 회로(202)는 이미지 파라미터들의 제1 세트에 기초하여, 전경 사람 객체의 초기 전경 마스크 값을 전경 사람 객체의 전경 마스크 값으로 업데이트하도록 더 구성될 수 있다. 제어 회로(202)는 전경 사람 객체의 발 영역의 일부가 없을 수 있는 분할된 전경 사람 객체를 생성할 수 있다. 분할된 전경 사람 객체는 입력 컬러 이미지 프레임(116)의 지평면에 가까운 전경 사람 객체의 발 영역의 존재로 인해 발 영역이 없을 수 있다. 추가적으로, 분할된 전경 사람 객체는 사람 객체의 발 영역 상으로의 사람 객체의 그림자들로 인해 발 영역이 없을 수 있다.
416에서, 생성된 포인트 클라우드의 복수의 포인트들로부터 투영된 복수의 벡터들이 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대해 계산될 수 있다. 제어 회로(202)는 생성된 포인트 클라우드(302)의 복수의 포인트들로부터 투영된 복수의 벡터들을 계산하도록 구성될 수 있다. 계산된 복수의 벡터들의 각각의 벡터는 생성된 포인트 클라우드(302)의 복수의 포인트들 중의 소정의 포인트에 수직일 수 있는 표면 법선 벡터일 수 있다. 생성된 포인트 클라우드(302)의 복수의 포인트들로부터 투영된 복수의 벡터들의 계산이, 예를 들어, 도 3b에 도시된다.
418에서, 생성된 포인트 클라우드에서의 복수의 포인트들과 연관된 계산된 복수의 벡터들은 벡터 클러스터들의 세트로 클러스터화될 수 있다. 제어 회로(202)는 복수의 벡터들 각각과 연관된 배향 정보에 기초하여 복수의 포인트들로부터 투영된 복수의 벡터들을 클러스터화하도록 구성될 수 있다. 동일한 배향 정보와 연관된 복수의 벡터들은, 예를 들어, 도 3c에 도시된 바와 같이, 벡터 클러스터들의 세트(310)로서 함께 클러스터화될 수 있다.
420에서, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 복수의 평면들이 벡터 클러스터들의 세트에 기초하여 검출될 수 있다. 제어 회로(202)는 장면(110)과 연관된 벡터 클러스터들의 세트에 기초하여, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 복수의 평면들을 검출하도록 구성될 수 있다. 벡터 클러스터들의 세트의 각각의 벡터 클러스터는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 평면에 대응할 수 있다.
422에서, 평면 맵이 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)과 연관된 벡터 클러스터들의 세트에 기초하여 생성될 수 있다. 제어 회로(202)는 검출된 복수의 평면들을 입력 컬러 이미지 프레임(116)의 이미지 도메인에 맵핑함으로써 평면 맵을 생성하도록 구성될 수 있다. 생성된 평면 맵은 평면 맵에서의 검출된 복수의 평면들의 상이한 평면들에서 그룹화된 픽셀들을 포함할 수 있다. 벡터 클러스터들의 세트(310)에 기초한, 평면 맵(312)과 같은 평면 맵의 생성이, 예를 들어, 도 3d에 도시되어 있다.
424에서, 평면 맵(312)에서의 검출된 복수의 평면들에서의 복수의 격리된 영역들이 검출될 수 있다. 제어 회로(202)는 이미지 도메인에서의 평면 맵(312)에서의 픽셀들의 제1 임계 수보다 작은 복수의 격리된 영역들의 영역 크기에 기초하여 복수의 격리된 영역들을 검출하도록 구성될 수 있다. 예를 들어, 평면 맵(312)에서의 복수의 격리된 영역들 각각의 영역 크기는 이미지 도메인에서의 평면 맵(312)에서의 픽셀들의 제1 임계 수, 즉 "100" 픽셀들보다 작을 수 있다.
426에서, 평면 맵(312)에서의 검출된 복수의 격리된 영역들이 제거될 수 있다. 제어 회로(202)는 평면 맵에서의 검출된 복수의 격리된 영역들을 제거하도록 구성될 수 있다.
428에서, 이미지 도메인에서의 픽셀들의 제2 임계 수보다 작은 검출된 복수의 격리된 영역들은 중앙값 필터에 의해 평활화될 수 있다. 제어 회로(202)는 3x3 중앙값 필터에 기초하여 평면 맵(312)에서의 픽셀들의 제2 임계 수보다 작은 검출된 복수의 격리된 영역들을 평활화하도록 구성될 수 있다.
430에서, 평면 맵에서의 검출된 복수의 평면들에서의 최저 평면은 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 기준 높이로부터 선택될 수 있다. 제어 회로(202)는 기준 높이에 기초하여 평면 맵(312)에서의 검출된 복수의 평면들로부터 최저 평면을 선택하도록 구성될 수 있다. 기준 높이는 장면(110)의 컬러 이미지 프레임들의 시퀀스(112)를 캡처하는 이미지 캡처 디바이스(108)의 높이일 수 있다. 선택된 최저 평면의 배향은 캡처된 장면(110)의 지평면의 배향과 동일할 수 있다.
432에서, 평면 맵에서의 지평면의 배향 정보와 동일한 배향 정보를 갖는 상이한 수평 평면들에서의 픽셀들은 평면 맵에서의 픽셀들의 높이 기반 분포에 기초하여 분리될 수 있다. 제어 회로(202)는 픽셀들의 높이 기반 분포에 기초하여 평면 맵(312)에서의 지평면의 배향 정보와 동일한 배향 정보를 갖는 상이한 수평 평면들에서의 픽셀들을 분리하도록 구성될 수 있다. 상이한 수평 평면들의 표면 법선 벡터들의 배향은 위쪽으로 (즉, 최하부로부터 최상부로) 향하는 방향에 있을 수 있다. 평면 맵(312)에서의 픽셀들의 높이 기반 분포에 기초한 상이한 수평 평면들에서의 픽셀들의 분리가, 예를 들어, 도 3e에 도시되어 있다.
434에서, 평면 맵의 상이한 수평 평면들에서의 다른 픽셀들과 비교하여 최저 수평 평면에 존재하는 픽셀들이 분류될 수 있다. 제어 회로(202)는 평면 맵의 높이 기반 분포에 기초하여 평면 맵(312)의 상이한 수평 평면들에서의 다른 픽셀들과 비교하여 최저 수평 평면에 존재하는 픽셀들을 분류하도록 구성될 수 있다. 평면 맵의 상이한 수평 평면들에서의 다른 픽셀들에 비교하여 최저 수평 평면에 존재하는 픽셀들의 분류가, 예를 들어, 도 3e에 도시되어 있다.
436에서, 평면 맵의 높이 기반 분포에 기초한 최대 수의 픽셀들을 포함하는, 상이한 수평 평면들로부터의 최저 수평 평면은 캡처된 장면(110)의 지평면(316)으로서 선택될 수 있다. 제어 회로(202)는 평면 맵의 높이 기반 분포에 기초한 최대 수의 픽셀들을 포함하는, 상이한 수평 평면들로부터의 최저 수평 평면을 지평면(316)으로서 선택할 수 있다. 픽셀들의 분류에 기초한 평면 맵(312)으로부터의 지평면(316)의 검출이, 예를 들어, 도 3e에 도시되어 있다.
438에서, 검출된 지평면(316)의 레벨로부터 정의된 영역에 위치된 복수의 전경 픽셀들이 검출될 수 있다. 복구 회로(202A)는 검출된 지평면(316)의 레벨로부터 정의된 영역, 예를 들어, 20㎜ 내지 150㎜에 위치된 복수의 전경 픽셀들을 검출하도록 구성될 수 있다. 예를 들어, 도 3f에 도시된 바와 같이, 복수의 전경 픽셀들은 정의된 영역(320)에 위치될 수 있다.
440에서, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 검출된 지평면(316) 상에 존재하는 사람 객체의 발 영역이 복구될 수 있다. 복구 회로(202A)는 이미지 파라미터들의 제2 세트에 기초하여 검출된 지평면(316) 상에 존재하는 사람 객체의 발 영역을 복구하도록 구성될 수 있다. 검출된 지평면(316) 상에 존재하는 사람 객체의 발 영역(318)의 복구가, 예를 들어, 도 3f에 도시되어 있다.
442에서, 사람 객체의 추정된 전경 마스크는 사람 객체의 복구된 발 영역(318)의 픽셀들의 세트를 포함하도록 업데이트될 수 있다. 제어 회로(202)는 사람 객체의 복구된 발 영역의 픽셀들의 세트를 포함하도록 사람 객체의 추정된 전경 마스크를 업데이트하도록 구성될 수 있다.
444에서, 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)의 검출된 지평면(316)에 가깝게 존재하는 사람 객체의 복구된 발 영역(318)을 갖는 전경 사람 객체가 추출될 수 있다. 제어 회로(202)는 복구된 발 영역(318)을 갖는 전경 사람 객체를 추출하고, 사람 객체의 복구된 발 영역을 갖는 분할된 사람 객체를 생성하도록 구성될 수 있다. 예를 들어, 도 3h에 도시된 바와 같이, 발 영역(318)을 갖는 제2 분할된 사람 객체(324)가 제어 회로(202)에 의해 생성된다. 제어는 종료로 전달될 수 있다.
종래의 시스템들에서, 사람 객체는 객체 분할 기술들에 기초하여 컬러 이미지 프레임들의 시퀀스의 캡처된 입력 컬러 이미지 프레임으로부터 분할될 수 있다. 그러한 종래의 시스템들에 기초하여 분할된 사람 객체는 사람 객체의 발 영역이 없을 수 있다. 본 개시는 분할된 사람 객체의 손실 발 영역을 복구하고, 사람 객체의 복구된 발 영역을 갖는 전경 사람 객체를 생성 및 추출할 수 있다. 사람 객체의 발 영역은 입력 컬러 이미지 프레임에서 캡처된 장면의 지평면 검출에 기초하여 복구될 수 있다. 개시된 객체 분할 장치는 컬러 이미지 프레임들의 시퀀스의 각각의 컬러 이미지 프레임에 대한 심도 이미지를 캡처할 수 있다. 입력 컬러 이미지 프레임에 대응하는 입력 심도 이미지는 3차원 좌표 공간에서 입력 컬러 이미지 프레임의 포인트 클라우드를 생성하는데 이용될 수 있다. 장면의 지평면은 입력 컬러 이미지 프레임의 생성된 포인트 클라우드의 복수의 포인트들 각각으로부터 투영된 복수의 표면 법선 벡터들에 기초하여 검출될 수 있다. 개시된 객체 분할 장치는 검출된 지평면의 레벨로부터 정의된 영역에 존재하는 사람 객체의 발 영역의 복수의 전경 픽셀들을 검출하기 위해 이미지 파라미터들의 제2 세트를 더 이용한다. 따라서, 개시된 객체 분할 장치(102)는 지평면 상의 발 영역의 존재하는 사람 객체의 그림자들을 고려하고, 사람 객체의 발 영역의 복수의 전경 픽셀들을 검출한다. 전경 발 영역의 심도 값들과 입력 컬러 이미지 프레임의 배경의 심도 값들 사이의 차이가 최소이기 때문에, 개시된 객체 분할 장치는 이미지 파라미터들의 제2 세트에 기초하여 검출된 지평면의 레벨로부터 발 영역의 복수의 전경 픽셀들을 정확하게 검출한다. 따라서, 개시된 객체 분할 장치는 이미지 파라미터들의 제2 세트에 기초하여 검출된 지평면에 가까운 발 영역을 분할함으로써 (그렇지 않으면 검출 및 분할하기가 매우 어려운) 발 영역을 복구할 수 있다. 또한, 객체 분할 장치는 사람 객체의 복구된 발 영역을 포함하도록 분할된 전경 사람 객체를 업데이트한다.
본 개시의 실시예에 따르면, 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구를 위한 객체 분할 장치가 개시된다. 객체 분할 장치(102)(도 1)와 같은 객체 분할 장치는 (이미지 캡처 디바이스(108)와 같은) 이미지 캡처 디바이스에 결합된 (제어 회로(202) 및 복구 회로(202A)(도 2)와 같은) 하나 이상의 회로 및 (메모리(204)와 같은) 메모리를 포함할 수 있다. 이미지 캡처 디바이스(108)는 (제1 타입의 센서(108A) 및 제2 타입의 센서(108B)(도 1)와 같은) 하나 이상의 센서를 포함할 수 있다. 이미지 캡처 디바이스(108)는 (장면(110)(도 1)과 같은) 장면의 (컬러 이미지 프레임들의 시퀀스(112)와 같은) 컬러 이미지 프레임들의 시퀀스 및 (심도 이미지들의 시퀀스(114)와 같은) 심도 이미지들의 시퀀스를 캡처할 수 있다. 제어 회로(202)는 (도 1에서의 입력 컬러 이미지 프레임(116)과 같은) 입력 컬러 이미지 프레임 및 (도 1에서의 입력 심도 이미지(118)와 같은) 대응하는 입력 심도 이미지를 수신하도록 구성될 수 있다. 제어 회로(202)는 대응하는 입력 심도 이미지(118)에 기초하여 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)에 대한 (도 3b에서의 포인트 클라우드(302)와 같은) 포인트 클라우드를 생성하도록 더 구성될 수 있다. 제어 회로(202)는 이미지 파라미터들의 제1 세트에 기초하여 입력 컬러 이미지 프레임(116)의 배경으로부터 전경 사람 객체를 분할할 수 있다. 분할된 전경 사람 객체는 전경 사람 객체의 발 영역의 적어도 일부가 없을 수 있다. 제어 회로(202)는 입력 컬러 이미지 프레임(116)에서 캡처된 장면(110)에 대한 (도 3e에서의 지평면(316)과 같은) 지평면을 검출하도록 구성될 수 있다. 지평면(316)은 생성된 포인트 클라우드(302)에서의 (도 3b에서의 관심 포인트 "i"(304)와 같은) 각각의 포인트로부터 투영된 각각의 벡터와 연관된 배향 정보에 기초하여 검출될 수 있다. 복구 회로(202A)는 입력 컬러 이미지 프레임(116)에서의 검출된 지평면(316)의 레벨로부터 (도 3f에서의 정의된 영역(320)과 같은) 정의된 영역에서 (도 3f에서의 발 영역(318)과 같은) 발 영역을 복구하도록 구성될 수 있다. 발 영역(318)은 이미지 파라미터들의 제1 세트와 상이한 이미지 파라미터들의 제2 세트에 기초하여 복구될 수 있다. 제어 회로는 컬러 이미지 프레임들의 시퀀스(112)의 입력 컬러 이미지 프레임(116)의 배경으로부터 (도 3h에서의 제2 분할된 사람 객체(326)와 같은) 복구된 발 영역을 갖는 전경 사람 객체를 추출하도록 더 구성될 수 있다. (도 3h에서의 제2 분할된 사람 객체(326)와 같은) 복구된 발 영역을 갖는 전경 사람 객체는 지평면(316)의 검출 및 검출된 지평면(316)의 레벨로부터 정의된 영역(320)에서의 결정된 복수의 전경 픽셀들에 기초하여 추출될 수 있다.
본 개시의 다양한 실시예들은 이미지 캡처 디바이스에 통신가능하게 결합된 하나 이상의 회로를 포함하는 머신 및/또는 컴퓨터에 의해 실행가능한 명령어들의 세트를 저장하는 비일시적 컴퓨터 판독가능 매체 및/또는 저장 매체, 및/또는 비일시적 머신 판독가능 매체 및/또는 저장 매체를 제공할 수 있다. 명령어들의 세트는 머신 및/또는 컴퓨터에 의해 실행되어, 장면의 컬러 이미지 프레임들의 시퀀스 및 컬러 이미지 프레임들의 시퀀스의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지의 캡처를 포함하는 단계들을 수행할 수 있다. 수신된 컬러 이미지 프레임들의 시퀀스의 입력 컬러 이미지 프레임에 대해 포인트 클라우드가 생성될 수 있다. 포인트 클라우드는 수신된 입력 컬러 이미지 프레임에 대한 대응하는 입력 심도 이미지에 기초하여 생성될 수 있다. 전경 사람 객체는 이미지 파라미터들의 제1 세트에 기초하여 입력 컬러 이미지 프레임의 배경으로부터 분할될 수 있다. 분할된 전경 사람 객체는 전경 사람 객체의 발 영역의 적어도 일부가 없을 수 있다. 생성된 포인트 클라우드에서의 각각의 포인트로부터 투영된 각각의 벡터와 연관된 배향 정보에 기초하여, 입력 컬러 이미지 프레임에서 캡처된 장면에 대해 지평면이 검출될 수 있다. 발 영역은 이미지 파라미터들의 제1 세트와 상이할 수 있는 이미지 파라미터들의 제2 세트에 기초하여, 입력 컬러 이미지 프레임에서의 검출된 지평면의 레벨로부터 정의된 영역에서 복구될 수 있다. 전경 사람 객체는 컬러 이미지 프레임들의 시퀀스의 입력 컬러 이미지 프레임의 배경으로부터 복구된 발 영역과 함께 추출될 수 있다. 전경 사람 객체는 지평면의 검출 및 검출된 지평면의 레벨로부터 정의된 영역에서의 결정된 복수의 전경 픽셀에 기초하여 추출될 수 있다.
본 개시는 하드웨어, 또는 하드웨어와 소프트웨어의 조합으로 실현될 수 있다. 본 개시는 적어도 하나의 컴퓨터 시스템에서 집중화된 방식으로, 또는 상이한 요소들이 수개의 상호접속된 컴퓨터 시스템들을 통해 확산될 수 있는 분산된 방식으로 실현될 수 있다. 본 명세서에 설명된 방법들을 수행하도록 적응된 컴퓨터 시스템 또는 다른 장치가 적합할 수 있다. 하드웨어와 소프트웨어의 조합은 컴퓨터 프로그램을 갖는 범용 컴퓨터 시스템일 수 있고, 컴퓨터 프로그램은 로딩되어 실행될 때, 본 명세서에서 설명된 방법들을 수행하도록 컴퓨터 시스템을 제어할 수 있다. 본 개시는 다른 기능들을 또한 수행하는 집적 회로의 일부를 포함하는 하드웨어로 실현될 수 있다.
본 개시는 또한 컴퓨터 프로그램 제품에 내장될 수 있고, 컴퓨터 프로그램 제품은 본 명세서에 설명된 방법들의 구현을 가능하게 하는 모든 특징들을 포함하며, 컴퓨터 시스템에 로딩될 때, 이러한 방법들을 수행할 수 있다. 본 맥락에서, 컴퓨터 프로그램은 정보 처리 능력을 갖는 시스템으로 하여금 특정 기능을, 직접 수행하게 하거나, 또는 a) 다른 언어, 코드 또는 표기로의 변환; b) 상이한 자료 형태로의 재생성 중 어느 하나 또는 둘다의 이후에 수행하게 하도록 의도된 명령어들의 세트의 임의의 언어, 코드 또는 표기로의 임의의 표현을 의미한다.
본 개시는 특정 실시예들을 참조하여 설명되지만, 본 기술분야의 통상의 기술자라면 본 개시의 범위를 벗어나지 않고서 다양한 변경들이 이루어질 수 있고, 균등물들로 치환될 수 있다는 것을 이해할 것이다. 또한, 본 개시의 범위를 벗어나지 않고서 특정 상황 또는 자료를 본 개시의 교시에 적응시키기 위해 많은 변형들이 이루어질 수 있다. 따라서, 본 개시는 개시된 특정 실시예로 한정되지 않으며, 본 개시는 첨부된 청구항들의 범위 내에 속하는 모든 실시예들을 포함하는 것으로 의도된다.

Claims (20)

  1. 객체 분할 시스템으로서,
    장면의 컬러 이미지 프레임들의 시퀀스를 캡처하도록 구성된 제1 타입의 센서;
    상기 컬러 이미지 프레임들의 시퀀스의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지를 캡처하도록 구성된 제2 타입의 센서; 및
    제어 회로를 포함하고, 상기 제어 회로는,
    상기 제1 타입의 센서로부터 수신된 상기 컬러 이미지 프레임들의 시퀀스의 입력 컬러 이미지 프레임에 대한 포인트 클라우드를, 상기 제2 타입의 센서로부터 수신된 상기 입력 컬러 이미지 프레임에 대한 대응하는 입력 심도 이미지에 기초하여, 생성하고;
    이미지 파라미터들의 제1 세트에 기초하여 상기 입력 컬러 이미지 프레임의 배경으로부터 전경 사람 객체를 분할―상기 분할된 전경 사람 객체는 상기 전경 사람 객체의 발 영역의 적어도 일부가 없음―하고;
    상기 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들을 벡터 클러스터들의 세트로 클러스터화하는 것에 의해 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 지평면을 검출―상기 장면에 대한 상기 지평면은 상기 생성된 포인트 클라우드에서의 상기 벡터 클러스터들의 세트 중의 하나의 벡터 클러스터와 연관된 배향 정보에 기초하여 검출됨―하고;
    상기 이미지 파라미터들의 제1 세트와 상이한 이미지 파라미터들의 제2 세트에 기초하여, 상기 입력 컬러 이미지 프레임에서의 상기 검출된 지평면의 레벨로부터 정의된 영역에서 발 영역을 복구하고;
    상기 지평면의 검출 및 상기 검출된 지평면의 레벨로부터 상기 정의된 영역에서의 복수의 전경 픽셀들에 기초하여, 상기 컬러 이미지 프레임들의 시퀀스의 상기 입력 컬러 이미지 프레임의 상기 배경으로부터 상기 복구된 발 영역을 포함하는 상기 전경 사람 객체를 추출하도록 구성되는, 객체 분할 시스템.
  2. 제1항에 있어서,
    상기 제어 회로는,
    심도 값들이 없는 상기 입력 심도 이미지에서의 복수의 영역들을 검출하고;
    상기 복수의 영역들에서 심도 값들을 채우고 상기 입력 심도 이미지에서의 잡음을 감소시키기 위해 중앙값 필터 및 균일 필터에 의해 상기 입력 심도 이미지를 평활화하도록 더 구성되는, 객체 분할 시스템.
  3. 제1항에 있어서,
    상기 제어 회로는 상기 입력 심도 이미지에 기초하여, 상기 생성된 포인트 클라우드에서의 각각의 포인트의 3차원(3D) 좌표를 결정하도록 더 구성되는, 객체 분할 시스템.
  4. 제3항에 있어서,
    상기 제어 회로는 상기 생성된 포인트 클라우드의 상기 복수의 포인트들에서의 관심 포인트의 3차원(3D) 좌표들 및 상기 관심 포인트의 2개의 이웃 포인트들에 기초하여, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 상기 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들을 계산하도록 더 구성되고, 상기 생성된 포인트 클라우드에서의 상기 복수의 포인트들과 연관된 상기 계산된 복수의 벡터들은 상기 계산된 복수의 벡터들 각각과 연관된 배향 정보에 기초하여, 상기 벡터 클러스터들의 세트로 클러스터화되는, 객체 분할 시스템.
  5. 제4항에 있어서,
    상기 제어 회로는 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면과 연관된 상기 벡터 클러스터들의 세트에 기초하여, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 복수의 평면들을 검출하도록 더 구성되는, 객체 분할 시스템.
  6. 제5항에 있어서,
    상기 제어 회로는 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면과 연관된 상기 벡터 클러스터들의 세트에 기초하여 평면 맵을 생성하도록 더 구성되고, 상기 입력 컬러 이미지 프레임의 이미지 도메인에서의 상기 검출된 복수의 평면들은 상기 평면 맵을 생성하도록 맵핑되는, 객체 분할 시스템.
  7. 제6항에 있어서,
    상기 평면 맵은, 상기 장면의 상기 입력 컬러 이미지 프레임의 상기 이미지 도메인에서의 상기 평면 맵에서의 상기 픽셀들의 공간적 위치에 관계없이 상기 평면 맵에서의 각각의 픽셀과 연관된 동일한 배향 정보에 기초하여, 상기 평면 맵에서의 상기 검출된 복수의 평면들의 상이한 평면들에서 그룹화된 픽셀들을 포함하는, 객체 분할 시스템.
  8. 제7항에 있어서,
    상기 제어 회로는 상기 이미지 도메인에서의 픽셀들의 제1 임계 수보다 작은 상기 평면 맵에서의 복수의 격리된 영역들의 영역 크기에 기초하여, 상기 평면 맵에서의 상기 검출된 복수의 평면들에서의 복수의 격리된 영역들을 검출하도록 더 구성되는, 객체 분할 시스템.
  9. 제8항에 있어서,
    상기 제어 회로는 상기 평면 맵에서의 상기 검출된 복수의 격리된 영역들을 제거하고, 이어서 중앙값 필터에 의한 평활화 동작을 하여 상기 이미지 도메인에서의 픽셀들의 제2 임계 수보다 작은 상기 검출된 복수의 격리된 영역들을 평활화하도록 더 구성되는, 객체 분할 시스템.
  10. 제7항에 있어서,
    상기 제어 회로는 상기 장면에 대한 기준 높이로부터 상기 평면 맵에서의 상기 검출된 복수의 평면들에서의 최저 평면을 선택하도록 더 구성되고, 상기 기준 높이는 상기 장면의 상기 컬러 이미지 프레임들의 시퀀스를 캡처하는 상기 제1 타입의 센서의 높이에 대응하고, 상기 평면 맵에서의 상기 검출된 복수의 평면들에서의 상기 선택된 최저 평면은 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 상기 지평면인, 객체 분할 시스템.
  11. 제7항에 있어서,
    상기 제어 회로는,
    상기 평면 맵에서의 상기 픽셀들의 높이 기반 분포에 기초하여 상기 평면 맵에서의 상이한 수평 평면들에서의 픽셀들을 분리하고;
    상기 평면 맵에서의 상기 픽셀들의 상기 높이 기반 분포에 기초하여 상기 상이한 수평 평면들에서의 다른 픽셀들과 비교하여 최저 수평 평면에 존재하는 픽셀들을 상기 지평면의 상기 픽셀들로서 분류하도록 더 구성되는, 객체 분할 시스템.
  12. 제1항에 있어서,
    상기 제어 회로는, 상기 장면의 입력 컬러 이미지 프레임에서의 상기 전경 사람 객체의 전경 마스크를, 상기 입력 심도 이미지 및 상기 이미지 파라미터들의 제1 세트를 이용하여, 상기 입력 컬러 이미지 프레임과 상기 입력 컬러 이미지 프레임의 배경 이미지 사이의 차이의 이진화에 의해 추정하도록 더 구성되고, 상기 전경 사람 객체는 상기 추정된 전경 마스크에 기초하여 상기 입력 컬러 이미지 프레임의 배경으로부터 분할되는, 객체 분할 시스템.
  13. 제12항에 있어서,
    상기 제어 회로는 상기 입력 컬러 이미지 프레임에서의 상기 검출된 지평면의 상기 레벨로부터 상기 정의된 영역에서 픽셀들의 세트를 포함하도록 상기 추정된 전경 마스크를 업데이트하도록 더 구성되고, 상기 픽셀들의 세트는 상기 이미지 파라미터들의 제2 세트에 기초하여 복구되는 상기 발 영역의 픽셀들에 대응하는, 객체 분할 시스템.
  14. 방법으로서,
    제1 타입의 센서, 제2 타입의 센서 및 제어 회로를 포함하는 객체 분할 시스템에서,
    상기 제1 타입의 센서에 의해, 장면의 컬러 이미지 프레임들의 시퀀스를 캡처하는 단계;
    상기 제2 타입의 센서에 의해, 상기 컬러 이미지 프레임들의 시퀀스의 각각의 대응하는 컬러 이미지 프레임에 대한 심도 이미지를 캡처하는 단계;
    상기 제어 회로에 의해, 상기 제1 타입의 센서로부터 수신된 상기 컬러 이미지 프레임들의 시퀀스의 입력 컬러 이미지 프레임에 대한 포인트 클라우드를, 상기 제2 타입의 센서로부터 수신된 상기 입력 컬러 이미지 프레임에 대한 대응하는 입력 심도 이미지에 기초하여, 생성하는 단계;
    상기 제어 회로에 의해, 이미지 파라미터들의 제1 세트에 기초하여 상기 입력 컬러 이미지 프레임의 배경으로부터 전경 사람 객체를 분할하는 단계―상기 분할된 전경 사람 객체는 상기 전경 사람 객체의 발 영역의 적어도 일부가 없음―;
    상기 제어 회로에 의해, 상기 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들을 벡터 클러스터들의 세트로 클러스터화하는 것에 의해, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 지평면을 검출하는 단계―상기 장면에 대한 상기 지평면은 상기 생성된 포인트 클라우드에서의 상기 벡터 클러스터들의 세트 중의 하나의 벡터 클러스터와 연관된 배향 정보에 기초하여 검출됨―;
    상기 제어 회로에 의해, 상기 이미지 파라미터들의 제1 세트와 상이한 이미지 파라미터들의 제2 세트에 기초하여, 상기 입력 컬러 이미지 프레임에서의 상기 검출된 지평면의 레벨로부터 정의된 영역에서 발 영역을 복구하는 단계; 및
    상기 제어 회로에 의해, 상기 지평면의 검출 및 상기 검출된 지평면의 레벨로부터 상기 정의된 영역에서의 복수의 전경 픽셀들에 기초하여, 상기 컬러 이미지 프레임들의 시퀀스의 상기 입력 컬러 이미지 프레임의 상기 배경으로부터 상기 복구된 발 영역을 포함하는 상기 전경 사람 객체를 추출하는 단계를 포함하는, 방법.
  15. 제14항에 있어서,
    상기 제어 회로에 의해, 심도 값들이 없는 상기 입력 심도 이미지에서의 복수의 영역들을 검출하는 단계; 및
    상기 제어 회로에 의해, 상기 복수의 영역들에서 심도 값들을 채우고 상기 입력 심도 이미지에서의 잡음을 감소시키기 위해 중앙값 필터 및 균일 필터에 의해 상기 입력 심도 이미지를 평활화하는 단계를 더 포함하는, 방법.
  16. 제14항에 있어서,
    상기 제어 회로에 의해, 상기 입력 심도 이미지에 기초하여, 상기 생성된 포인트 클라우드에서의 각각의 포인트의 3차원(3D) 좌표를 결정하는 단계를 더 포함하는, 방법.
  17. 제16항에 있어서,
    상기 제어 회로에 의해, 상기 생성된 포인트 클라우드의 상기 복수의 포인트들에서의 관심 포인트의 3차원(3D) 좌표들 및 상기 관심 포인트의 2개의 이웃 포인트들에 기초하여, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 상기 생성된 포인트 클라우드에서의 복수의 포인트들로부터 투영된 복수의 벡터들을 계산하는 단계를 더 포함하는, 방법.
  18. 제17항에 있어서,
    상기 제어 회로에 의해, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면과 연관된 상기 벡터 클러스터들의 세트에 기초하여, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면에 대한 복수의 평면들을 검출하는 단계를 더 포함하는, 방법.
  19. 제18항에 있어서,
    상기 제어 회로에 의해, 상기 입력 컬러 이미지 프레임에서 캡처된 상기 장면과 연관된 상기 벡터 클러스터들의 세트에 기초하여 평면 맵을 생성하는 단계―상기 평면 맵은 상기 검출된 복수의 평면들을 상기 입력 컬러 이미지 프레임의 이미지 도메인에 맵핑함으로써 생성됨―를 더 포함하는, 방법.
  20. 제19항에 있어서,
    상기 평면 맵은, 상기 장면의 상기 입력 컬러 이미지 프레임의 상기 이미지 도메인에서의 상기 평면 맵에서의 상기 픽셀들의 공간적 위치에 관계없이 상기 평면 맵에서의 각각의 픽셀과 연관된 동일한 배향 정보에 기초하여, 상기 평면 맵에서의 상기 검출된 복수의 평면들의 상이한 평면들에서 그룹화된 픽셀들을 포함하는, 방법.
KR1020207035735A 2018-05-22 2019-05-21 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구 KR102598459B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/986,355 2018-05-22
US15/986,355 US10621730B2 (en) 2018-05-22 2018-05-22 Missing feet recovery of a human object from an image sequence based on ground plane detection
PCT/US2019/033348 WO2019226673A1 (en) 2018-05-22 2019-05-21 Missing feet recovery of a human object from an image sequence based on ground plane detection

Publications (2)

Publication Number Publication Date
KR20210008087A true KR20210008087A (ko) 2021-01-20
KR102598459B1 KR102598459B1 (ko) 2023-11-07

Family

ID=68613748

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207035735A KR102598459B1 (ko) 2018-05-22 2019-05-21 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구

Country Status (6)

Country Link
US (1) US10621730B2 (ko)
EP (1) EP3782076A4 (ko)
JP (1) JP7152705B2 (ko)
KR (1) KR102598459B1 (ko)
CN (1) CN112313704A (ko)
WO (1) WO2019226673A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220116730A (ko) * 2021-02-15 2022-08-23 엔에이치엔클라우드 주식회사 이미지 복원 기반 상품검색 방법 및 시스템

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11244500B2 (en) 2019-12-31 2022-02-08 Woven Planet North America, Inc. Map feature extraction using overhead view images
US11288522B2 (en) 2019-12-31 2022-03-29 Woven Planet North America, Inc. Generating training data from overhead view images
US11037328B1 (en) * 2019-12-31 2021-06-15 Lyft, Inc. Overhead view image generation
US11741620B1 (en) * 2020-01-24 2023-08-29 Apple Inc. Plane detection using depth sensor and semantic information
CN116524441B (zh) * 2023-07-03 2023-09-01 四川顶圣工程项目管理有限公司 一种用于工程项目管理的施工现场监督方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965865B1 (en) * 2017-03-29 2018-05-08 Amazon Technologies, Inc. Image data segmentation using depth data

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907793B1 (en) * 2001-05-04 2011-03-15 Legend Films Inc. Image sequence depth enhancement system and method
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US7043474B2 (en) * 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
DE10323944A1 (de) * 2003-05-27 2004-12-16 Maerz Ofenbau Ag Prozessbehälter mit Kühlelementen
US8139142B2 (en) * 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
JP4971768B2 (ja) * 2006-12-07 2012-07-11 キヤノン株式会社 編集装置、編集方法、およびプログラム
US9165199B2 (en) 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
CA2734143C (en) 2008-08-15 2021-08-31 Brown University Method and apparatus for estimating body shape
US8678006B2 (en) * 2008-10-10 2014-03-25 Winston Allen Porter, III Patient support system and method
US8682072B2 (en) 2008-12-30 2014-03-25 Yahoo! Inc. Image segmentation
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
US8477149B2 (en) 2009-04-01 2013-07-02 University Of Central Florida Research Foundation, Inc. Real-time chromakey matting using image statistics
KR101669820B1 (ko) * 2010-07-02 2016-10-27 삼성전자주식회사 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
US9275472B2 (en) 2011-11-18 2016-03-01 Disney Enterprises, Inc. Real-time player detection from a single calibrated camera
JP5868426B2 (ja) 2011-12-13 2016-02-24 株式会社日立製作所 停立人物の向き推定方法
US9684928B2 (en) 2014-01-15 2017-06-20 Holition Limited Foot tracking
EP2927878A1 (en) 2014-04-04 2015-10-07 Brainstorm Multimedia, S.L. Computer implemented method to obtain a virtual shadow of a person within a virtual scene
CN104061907B (zh) * 2014-07-16 2016-08-24 中南大学 基于步态三维轮廓匹配合成的视角大幅可变步态识别方法
US10424075B2 (en) * 2015-05-06 2019-09-24 Peking University Shenzhen Graduate School Depth/disparity map post-processing method and device
CN106296721B (zh) * 2015-05-14 2019-01-25 株式会社理光 基于立体视觉的对象聚集检测方法和装置
CN104966099B (zh) 2015-06-15 2018-03-20 北京航空航天大学 一种基于人脚图像的脚型分类方法
KR101940718B1 (ko) * 2015-09-04 2019-01-22 한국전자통신연구원 Rgb-d 영상 기반 사람 영역 추출 장치 및 그 방법
KR102535617B1 (ko) 2016-01-04 2023-05-24 한국전자통신연구원 깊이 영상에서의 객체 검출 시스템 및 방법
JP6555755B2 (ja) 2016-02-29 2019-08-07 Kddi株式会社 画像処理装置、画像処理方法および画像処理プログラム
US10380756B2 (en) * 2016-09-08 2019-08-13 Sony Corporation Video processing system and method for object detection in a sequence of image frames
CN108038905B (zh) * 2017-12-25 2018-12-07 北京航空航天大学 一种基于超像素的目标重建方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965865B1 (en) * 2017-03-29 2018-05-08 Amazon Technologies, Inc. Image data segmentation using depth data

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Armando Pesenti Gritti, "Kinect-based People Detection and Tracking from Small-Footprint Ground Robots", 2014 IEEE/RSJ International Conference on Intelligent Robots and Systems (2014.09.14-18.)* *
Kazuki Matsumoto, "REAL-TIME ENHANCEMENT OF RGB-D POINT CLOUDSUSING PIECEWISE PLANE FITTING", 2014 5th European workshop on visual information processing (2014.12.10-12.)* *
Mohammad Awrangjeb, "Rule-based segmentation of LIDAR point cloud for automatic extraction of building roof planes", ISPRS Ann. Photogramm (2013.11.12-13.)* *
Wei Song, "Intuitive Terrain Reconstruction Using Height Observation-Based Ground Segmentation and 3D Object Boundary Estimation", Sensors 2012 (2012.12.12)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220116730A (ko) * 2021-02-15 2022-08-23 엔에이치엔클라우드 주식회사 이미지 복원 기반 상품검색 방법 및 시스템

Also Published As

Publication number Publication date
EP3782076A1 (en) 2021-02-24
CN112313704A (zh) 2021-02-02
KR102598459B1 (ko) 2023-11-07
US20190362500A1 (en) 2019-11-28
EP3782076A4 (en) 2022-01-19
JP7152705B2 (ja) 2022-10-13
JP2021526254A (ja) 2021-09-30
US10621730B2 (en) 2020-04-14
WO2019226673A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
KR102598459B1 (ko) 지평면 검출에 기초한 이미지 시퀀스로부터의 사람 객체의 손실 발 복구
JP6889417B2 (ja) 一連の画像の画像内のオブジェクト境界安定化のための画像処理装置及び方法
JP6501092B2 (ja) オブジェクトセグメンテーションのための前景マスク補正のための画像処理装置及び方法
US10380756B2 (en) Video processing system and method for object detection in a sequence of image frames
KR101802146B1 (ko) 화상처리장치 및 화상처리방법
EP3762898B1 (en) Object segmentation in a sequence of color image frames by background image and background depth correction
US9390511B2 (en) Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data
CN106469443B (zh) 机器视觉特征跟踪系统
CN107771391B (zh) 用于确定图像帧的曝光时间的方法和装置
JP7015017B2 (ja) 適応的前景マスクアップサンプリングに基づく一連のカラー画像フレームのオブジェクトセグメンテーション
WO2014189484A1 (en) Technologies for increasing the accuracy of depth camera images
CN107209556B (zh) 用于对捕获对象相对于交互平面的交互的深度图像进行处理的系统及方法
KR20160145465A (ko) 피사체 분할 동안 깊이 이미지의 잡음 감소를 위한 장치 및 방법
JP2012104053A (ja) 背景差分処理装置、背景差分処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant