KR20100073081A - 전경/배경 분리 장치 및 방법 - Google Patents
전경/배경 분리 장치 및 방법 Download PDFInfo
- Publication number
- KR20100073081A KR20100073081A KR1020080131666A KR20080131666A KR20100073081A KR 20100073081 A KR20100073081 A KR 20100073081A KR 1020080131666 A KR1020080131666 A KR 1020080131666A KR 20080131666 A KR20080131666 A KR 20080131666A KR 20100073081 A KR20100073081 A KR 20100073081A
- Authority
- KR
- South Korea
- Prior art keywords
- foreground
- codeword
- background
- background separation
- codebook
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000926 separation method Methods 0.000 claims abstract description 45
- 238000009826 distribution Methods 0.000 claims description 27
- 238000012790 confirmation Methods 0.000 claims description 4
- 238000012805 post-processing Methods 0.000 abstract description 10
- 230000008707 rearrangement Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000003628 erosive effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 전경/배경 분리 장치 및 방법에 관한 것으로서, 상세하게는 복수개의 코드워드로 구성된 코드북을 생성함으로써 전경과 배경을 분리하는 장치 및 방법에 관한 것이다.
본 발명은 지식 경제부 및 정보통신진흥원의 IT 원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호:2008-F-030-01, 과제명: 방통융합형 Full 3D 복원 기술 개발(표준화연계].
종래에 전경/배경 분리 기술은 화소의 밝기 값으로 배경을 모델링하여 전경과 배경을 분리하였다. 그러나, 복잡한 배경에서는 배경을 모델링하기 쉽지 않으므로 MOG(Mixture of Gaussian) 방법을 통해 배경을 모델링하였다. 그러나 MOG 방법은 배경의 빠른 변화를 적은 수의 Gaussian으로는 모델링하기 어렵다는 단점이 있었다. 그래서 Gaussian의 수를 늘이고 학습 비율을 빠른 변화에 맞추면 천천히 변하는 배경에 대해서는 전경으로 인식하는 문제점이 발생하였다.
또한, 실제 적용 기술은 속도에 중점을 두고 있어서, 조건을 만족하는지 여부에 따라 배경 모델을 생성한다. 이와 같은 경우, 배경 모델을 만들 때 정교한 모델이 만들어 지지 않을뿐더러 필요이상의 수의 모델이 생성될 수 있기 때문에 많은 모델을 검색하지 않을 수 없게되어 시간적인 손해가 발생한다.
상기 문제점을 해결하기 위하여 본 발명은, 적정한 코드 워드를 생성함으로써 전경/배경 분리에 있어서 불필요한 시간을 줄일 수 있고, 코드 워드 모델링을 정교하게 함으로써 전경/배경 분리 성능을 높여주는 전경/배경 분리 장치 및 방법을 제공한다.
상기 목적을 달성하기 위하여 본 발명의 일 측면은, 전경/배경 분리를 위해 복수 개의 코드워드로 구성된 코드북을 생성하는 배경모델 생성부와 생성된 코드북을 이용하여 전경/배경을 분리하는 전경/배경 분리실행부를 포함한다.
또한, 배경모델 생성부는 상기 생성된 코드북을 상기 코드워드에 속한 샘플 데이터 수를 기준으로 재정렬한다.
또한, 코드워드는 비슷한 색상을 기준으로 묶인 샘플 데이터의 집합인 것을 특징으로 한다.
또한, 샘플 데이터는 K평균 군집 방법을 이용하여 군집하는 것을 특징으로 한다.
또한, 코드북은 배경 영상의 화소 위치 단위로 생성되는 것을 특징으로 한다.
또한, 배경모델 생성부는 상기 샘플 데이터의 산재된 값을 판단하여 적정한 코드워드 개수를 선택하고, 각 코드워드의 대표값과 대표값과의 거리 및 상기 코드워드 내 샘플 데이터의 밝기 정보를 계산한다.
또한, 각 코드워드의 대표값과 대표값 간의 거리는 유클리디안 거리인 것을 특징으로 한다.
또한, 전경/배경 분리 실행부는 임의의 샘플에 대한 색상과 밝기를 확인하여 상기 샘플이 상기 코드워드 내에 있는지 여부를 판단한다.
또한, 색상의 확인은 상기 임의의 샘플과 상기 코드워드 중심점과의 거리로 판단하는 것을 특징으로 한다.
또한, 밝기의 확인은 밝기 차이가 정규 분포의 특정 확률값보다 큰 경우 배경 화소로 결정하고, 상기 밝기 차이가 정규 분포의 특정 확률값보다 작은 경우 전경 화소로 결정하는 것을 특징으로 한다.
상기 목적을 달성하기 위하여 본 발명의 다른 측면은, 전경/배경 분리를 위해 N개의 코드워드로 구성된 코드북을 생성하는 단계와 생성된 코드북을 상기 코드워드에 속한 샘플 데이터 수를 기준으로 재정렬하는 단계와 코드북을 이용하여 전경/배경을 분리하는 단계를 포함한다.
또한, 코드워드는 비슷한 색상을 기준으로 묶인 샘플 데이터의 집합인 것을 특징으로 한다.
또한, 샘플 데이터는 K평균 군집 방법을 이용하여 군집하는 것을 특징으로 한다.
또한, 코드북은 배경 영상의 화소 위치 단위로 생성되는 것을 특징으로 한다.
또한, 코드북을 생성하는 단계는 상기 샘플 데이터의 산재된 값을 판단하여 적정한 코드워드 개수를 선택하고, 각 코드워드의 대표값과 대표값과의 거리 및 상기 코드워드 내 샘플 데이터의 밝기 정보를 계산한다.
또한, 각 코드워드의 대표값과 대표값 간의 거리는 유클리디안 거리인 것을 특징으로 한다.
또한, 전경/배경을 분리하는 단계는 임의의 샘플에 대한 색상과 밝기를 확인하여 상기 샘플이 상기 코드워드 내에 있는지 여부를 판단하는 것을 특징으로 한다.
또한, 색상의 확인은 상기 임의의 샘플과 상기 코드워드 중심점과의 거리로 판단하는 것을 특징으로 한다.
또한, 밝기의 확인은 밝기 차이가 정규 분포의 특정 확률값보다 큰 경우 배경 화소로 결정하고, 상기 밝기 차이가 정규 분포의 특정 확률값보다 작은 경우 전경 화소로 결정하는 것을 특징으로 한다.
본 발명에 의하면, 적정한 코드 워드를 생성함으로써 전경/배경 분리에 있어서 불필요한 시간을 줄일 수 있으며, 코드 워드 모델링을 정교하게 함으로써 전경/배경 분리 성능을 높여주는 효과가 있다.
이하 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 하기에서 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명에 의한 코드북을 만드는 과정에서 코드워드를 생성하는 과정을 도시한 도면이다. 도 2는 본 발명에 의한 특정 코드워드에서 코드워드에 포함될 샘플과 코드워드에 포함되지 않을 샘플의 거리 분포를 나타낸 도면이다. 도 3은 본 발명에 의한 전경/배경 분리 장치를 도시한 도면이다. 도 1 내지 도 3을 참조하면, 본 발명에 의한 전경/배경 분리 장치는 배경모델 생성부(300)와 전경/배경 분리실행부(350)를 포함한다.
배경모델 생성부(300)는 전경/배경 분리를 위해 복수 개의 코드워드로 구성된 코드북을 생성한다. 배경모델 생성부(300)는 코드워드 생성블록(301)과 코드워드 재정렬블록(302)을 포함할 수 있다.
배경모델 생성부(300)는 입력되는 영상에서 각 화소의 위치 단위로 코드북을 생성한다. 도 1을 참조하면, 코드북(100)은 복수개의 코드워드(101, 102, 103)으로 구성 되고, 코드워드(101, 102, 103)는 비슷한 색상을 기준으로 묶인 샘플의 집합을 나타낸다. 코드워드 생성블록(301)은 군집 알고리즘인 K 평균 군집 방법을 이용하여 군집을 나눈다. 복수개의 군집이 생성되면 이것이 코드워드(101, 102, 103)가 된다. 코드워드(101, 102, 103)는 중심점을 가지고 중심점과 코드워드 내부의 샘플과의 거리를 측정하고, 다른 코드워드 샘플과의 거리를 측정하여 2가지 분포를 만든다. 도 2는 이와 같은 2가지 분포를 도시한 것이다. 이때 코드워드 내부 거리를 측정한 분포와 코드워드 바깥 샘플과의 거리를 측정한 분포 즉, 2가지 분포에서 해당 코드워드에 속할 확률의 임계치(200) 및 보수적으로 정한 임계치(210)를 결정한다. 만약, 코드워드가 1개만 생성된다면, 코드워드의 분포를 이용하여 특정 확률 값을 기준으로 임계값을 설정하게 된다. 또한, 코드워드 내부에 분포한 샘플의 밝기 정보의 평균값, 최대값, 최소값을 측정한다. 임계치 설정 방법은 영상의 상태에 따라 달라질 수 있는데, 얼마 만큼의 오류를 허용할 것인지에 따라서 달라진다. 만약 오류 허용을 최소화 하는데, 목적을 두면 보수적 임계치(210)를 사용하게 된다. 임계치의 설정 방법은 전경/배경 분리 실행부(350)에서 후처리를 어떻게 진행할 것인지와 연관되어 결정될 수 있다. 도 2를 참조하면, 후처리 알고리즘을 여러 번 사용하는 경우, 도 2의 오른쪽 그래프의 임계치 왼쪽 부분을 많이 채택할 수 있고, 반대로 후처리를 최소화하는 경우에는 왼쪽 그래프의 임계치 오른쪽 부분과 오른쪽 그래프의 임계치 왼쪽 부분을 잘 안배하여 적정한 부분에 임계치를 결정하게 된다.
코드워드 재정렬블록(302)은 생성된 코드북(103)을 코드워드(100, 101, 102) 에 속한 샘플 데이터 수를 기준으로 재정렬한다. 이와 같이 재정렬 작업을 거치는 것은 많은 샘플로 구성된 것은 배경으로 나타날 확률이 높다고 가정되므로, 검색의 효율성을 높이기 위함이다.
전경/배경 분리실행부(350)는 생성된 코드북(100)을 이용하여 전경/배경을 분리한다. 전경/배경 분리실행부(350)는 전경/배경 결정부(351)와 후처리 블록(352)를 포함할 수 있다. 전경/배경 결정부(351)는 코드북(100)과 전경/배경 분리를 위한 영상을 입력으로 한다. 전경/배경 결정부(351)는 각 화소 단위의 코드워드 값을 코드북(100)에서 읽어들여, 해당 코드워드 값과 현재 입력된 화소값과의 RGB 공간 거리인 유클리디안 거리를 측정한다. 측정한 거리는 모든 코드워드의 분포에 대해서 적용한다. 전경/배경 결정부(351)가 가까운 코드워드 내부 점으로 판단하면, 밝기를 측정하여 해당 코드워드 밝기 분포와 비교하여 최종적으로 해당 코드워드에 속하는 샘플인지 여부를 판단한다. 입력 화소의 밝기를 비교하여 해당 코드워드에 속할 확률이 낮다고 판단되는 경우, 두번째로 가까운 코드워드 분포에 대해 밝기 비교를 통하여 해당 코드워드에 속하는지 판단한다. 마지막 코드워드, 즉 해당 샘플과 가장 거리가 먼 코드워드와의 거리 분포가 코드워드의 외부로 결정될 경우 전경으로 판정된다.
전경/배경 결정부(351)의 결정에 오류가 포함될 수 있으므로, 후 처리 블록(352)은 오류 제거를 위하여 모폴로지 기반의 후처리 작업(침식, 팽창연산)을 적용하여 전경과 배경을 분리한 마스크 영상을 출력한다. 영상의 환경에 따라서 후처리 작용이 달라지므로, 침식 팽창 연산의 순서와 횟수를 환경에 따라 다르게 변화 시킨다. 앞서 설명한 바와 같이 배경모델 생성부(300)의 코드워드의 중심점과 내부거리의 임계치 및 코드워드 중심점과 외부거리의 임계치를 상기 후 처리 블록(352)의 후처리 성능에 따라 다르게 설정할 수 있다.
도 4는 본 발명에 의한 전경/배경 분리 방법에 따른 코드북 생성 방법을 도시한 것이다. 도 3 및 도 4를 참조하면, 코드워드 생성 블록(301)은 같은 좌표의 화소 RGB 값을 추출한다(400 단계). 또한, 추출한 RGB 값을 이용하여 K평균 군집화 알고리즘을 이용하여 군집화하고(410 단계), 군집화한 결과의 RGB 값을 이용한 코드워드 대표값을 생성한다(420 단계). 코드워드 대표값, 즉 중심점을 결정하였으면, 이를 중심으로 코드워드 내부 거리분포를 측정하여 분포도를 작성한다(430단계). 또한 코드워드 중심점과 코드워드 외부 샘플과의 거리 분포를 측정하여 분포도를 작성한다(440단계). 또한, 코드워드 내부의 밝기 정보를 측정한다(450단계). 이와 같이 생성된 코드워드 및 코드워드 내부 거리분포, 외부 거리분포, 밝기 정보를 이용하여 입력된 화소가 특정 코드워드에 속하는 지를 판단하게 된다.
도 5는 본 발명에 의한 전경/배경 분리 실행 절차를 도시한 도면이다. 도 5를 참조하면, 도 4단계에서 생성된 코드워드와 전경/배경 분리를 위한 검증용 영상을 입력받고(500단계), 입력받은 검증용 영상의 해당 좌표에 대한 화소 RGB 값을 추출한다(510 단계). 이와 같이 추출된 입력화소와 코드워드 간의 거리를 측정한다(520단계). 여기서 거리는 유클리디안 거리를 의미한다. 이때, 거리값이 작은 코드워드의 거리분포를 먼저 측정한다(550 단계). 측정 결과 코드워드의 내부에 위치하는지 검사하여(560 단계), 내부에 위치하는 경우 코드워드의 밝기 분포를 측정한 다(570 단계). 코드워드의 중심점과의 밝기를 비교한 결과(580단계), 코드워드의 내부에 위치하는 경우 배경으로 결정한다(590단계). 만약 560단계 또는 580 단계에서 코드워드의 내부에 위치하는 것이 아니라고 판단된 경우, 측정할 코드워드가 더 존재하는지 판단한다(530 단계). 더 존재하는 경우 550단계부터 590단계의 절차를 반복한다.
530단계에서 측정할 코드워드가 더 이상 남아있지 않은 경우, 존재하는 모든 코드워드에 대하여 내부에 존재하지 않는 데이터이므로, 전경이라고 판단된다(540단계).
본 실시형태의 모듈, 기능 블록들 또는 수단들은 전자 회로, 집적 회로, ASIC (Application Specific Integrated Circuit) 등 공지된 다양한 소자들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수 있다.
이상과 같이 본 발명의 이해를 위하여 그 실시예를 기술하였으나, 당업자라면 알 수 있듯이, 본 발명은 본 명세서에서 기술된 특정 실시예에 한정되는 것이 아니라, 본 발명의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 변경 및 대체될 수 있다. 예를 들어, 문자 대신 기타 LCD 등 디스플레이에 의해 표시될 수 있는 그림, 영상 등에도 본 발명의 기술이 적용될 수 있다. 따라서, 본 발명의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 특허청구범위에 의하여 모두 포괄하고자 한다.
도 1은 본 발명에 의한 코드북을 만드는 과정에서 코드워드를 생성하는 과정을 도시한 도면이다.
도 2는 본 발명에 의한 특정 코드워드에서 코드워드에 포함될 샘플과 코드워드에 포함되지 않을 샘플의 거리 분포를 나타낸 도면이다.
도 3은 본 발명에 의한 전경/배경 분리 장치를 도시한 도면이다.
도 4는 본 발명에 의한 전경/배경 분리 방법에 따른 코드북 생성 방법을 도시한 것이다.
도 5는 본 발명에 의한 전경/배경 분리 실행 절차를 도시한 도면이다.
Claims (19)
- 전경/배경 분리를 위해 복수 개의 코드워드로 구성된 코드북을 생성하는 배경모델 생성부; 및상기 생성된 코드북을 이용하여 전경/배경을 분리하는 전경/배경 분리실행부를 포함하는 전경/배경 분리장치.
- 제 1 항에 있어서,상기 배경모델 생성부는 상기 생성된 코드북을 상기 코드워드에 속한 샘플 데이터 수를 기준으로 재정렬하는 전경/배경 분리장치.
- 제 1 항에 있어서,상기 코드워드는 비슷한 색상을 기준으로 묶인 샘플 데이터의 집합인 것을 특징으로 하는 전경/배경 분리장치.
- 제 3 항에 있어서,상기 샘플 데이터는 K평균 군집 방법을 이용하여 군집하는 것을 특징으로 하는 전경/배경 분리 장치.
- 제 1 항에 있어서,상기 코드북은 배경 영상의 화소 위치 단위로 생성되는 것을 특징으로 하는 전경/배경 분리장치.
- 제 1 항에 있어서,상기 배경모델 생성부는 상기 샘플 데이터의 산재된 값을 판단하여 적정한 코드워드 개수를 선택하고, 각 코드워드의 대표값과 대표값과의 거리 및 상기 코드워드 내 샘플 데이터의 밝기 정보를 계산하는 전경/배경 분리 장치.
- 제 6 항에 있어서,상기 각 코드워드의 대표값과 대표값 간의 거리는 유클리디안 거리인 것을 특징으로 하는 전경/배경 분리 장치.
- 제 1 항에 있어서,상기 전경/배경 분리 실행부는 임의의 샘플에 대한 색상과 밝기를 확인하여 상기 샘플이 상기 코드워드 내에 있는지 여부를 판단하는 전경/배경 분리 장치.
- 제 8항에 있어서,상기 색상의 확인은 상기 임의의 샘플과 상기 코드워드 중심점과의 거리로 판단하는 것을 특징으로 하는 전경/배경 분리 장치.
- 제 8 항에 있어서,상기 밝기의 확인은 밝기 차이가 정규 분포의 특정 확률값보다 큰 경우 배경 화소로 결정하고, 상기 밝기 차이가 정규 분포의 특정 확률값보다 작은 경우 전경 화소로 결정하는 것을 특징으로 하는 전경/배경 분리 장치.
- 전경/배경 분리를 위해 복수 개의 코드워드로 구성된 코드북을 생성하는 단계;상기 생성된 코드북을 상기 코드워드에 속한 샘플 데이터 수를 기준으로 재정렬하는 단계; 및상기 코드북을 이용하여 전경/배경을 분리하는 단계를 포함하는 전경/배경 분리 방법.
- 제 11 항에 있어서,상기 코드워드는 비슷한 색상을 기준으로 묶인 샘플 데이터의 집합인 것을 특징으로 하는 전경/배경 분리방법.
- 제 12 항에 있어서,상기 샘플 데이터는 K평균 군집 방법을 이용하여 군집하는 것을 특징으로 하는 전경/배경 분리 방법.
- 제 11 항에 있어서,상기 코드북은 배경 영상의 화소 위치 단위로 생성되는 것을 특징으로 하는 전경/배경 분리방법.
- 제 11 항에 있어서,상기 코드북을 생성하는 단계는 상기 샘플 데이터의 산재된 값을 판단하여 적정한 코드워드 개수를 선택하고, 각 코드워드의 대표값과 대표값과의 거리 및 상기 코드워드 내 샘플 데이터의 밝기 정보를 계산하는 전경/배경 분리 방법.
- 제 15 항에 있어서,상기 각 코드워드의 대표값과 대표값 간의 거리는 유클리디안 거리인 것을 특징으로 하는 전경/배경 분리 방법.
- 제 11 항에 있어서,상기 전경/배경을 분리하는 단계는 임의의 샘플에 대한 색상과 밝기를 확인하여 상기 샘플이 상기 코드워드 내에 있는지 여부를 판단하는 것을 특징으로 하는 전경/배경 분리 방법.
- 제 17항에 있어서,상기 색상의 확인은 상기 임의의 샘플과 상기 코드워드 중심점과의 거리로 판단하는 것을 특징으로 하는 전경/배경 분리 방법.
- 제 17 항에 있어서,상기 밝기의 확인은 밝기 차이가 정규 분포의 특정 확률값보다 큰 경우 배경 화소로 결정하고, 상기 밝기 차이가 정규 분포의 특정 확률값보다 작은 경우 전경 화소로 결정하는 것을 특징으로 하는 전경/배경 분리 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080131666A KR101215987B1 (ko) | 2008-12-22 | 2008-12-22 | 전경/배경 분리 장치 및 방법 |
US12/535,877 US8417034B2 (en) | 2008-12-22 | 2009-08-05 | Apparatus and method for separating foreground and background |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080131666A KR101215987B1 (ko) | 2008-12-22 | 2008-12-22 | 전경/배경 분리 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100073081A true KR20100073081A (ko) | 2010-07-01 |
KR101215987B1 KR101215987B1 (ko) | 2012-12-28 |
Family
ID=42266201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080131666A KR101215987B1 (ko) | 2008-12-22 | 2008-12-22 | 전경/배경 분리 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8417034B2 (ko) |
KR (1) | KR101215987B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101282196B1 (ko) * | 2009-12-11 | 2013-07-04 | 한국전자통신연구원 | 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8737703B2 (en) * | 2008-01-16 | 2014-05-27 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for detecting retinal abnormalities |
US8718363B2 (en) * | 2008-01-16 | 2014-05-06 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for analyzing image data using adaptive neighborhooding |
US20110123069A1 (en) * | 2009-11-20 | 2011-05-26 | Pavel Kisilev | Mapping Property Values Onto Target Pixels Of An Image |
KR20120052767A (ko) * | 2010-11-16 | 2012-05-24 | 한국전자통신연구원 | 영상 분리 장치 및 방법 |
CN102568206B (zh) * | 2012-01-13 | 2014-09-10 | 大连民族学院 | 一种基于视频监控的违章停车检测方法 |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US20150253428A1 (en) | 2013-03-15 | 2015-09-10 | Leap Motion, Inc. | Determining positional information for an object in space |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10241639B2 (en) | 2013-01-15 | 2019-03-26 | Leap Motion, Inc. | Dynamic user interactions for display control and manipulation of display objects |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US10168873B1 (en) | 2013-10-29 | 2019-01-01 | Leap Motion, Inc. | Virtual interactions for machine control |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
WO2016033463A1 (en) * | 2014-08-29 | 2016-03-03 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for compressing video images |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
CN105208398B (zh) * | 2015-09-22 | 2018-06-19 | 西南交通大学 | 一种获取道路实时背景图的方法 |
CN105488814A (zh) * | 2015-11-25 | 2016-04-13 | 华南理工大学 | 一种检测视频中摇动背景的方法 |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
KR102546070B1 (ko) | 2021-06-03 | 2023-06-20 | 순천대학교 산학협력단 | 타임 랩스 영상의 노이즈 제거 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5748780A (en) * | 1994-04-07 | 1998-05-05 | Stolfo; Salvatore J. | Method and apparatus for imaging, image processing and data compression |
JP2002185782A (ja) * | 2000-12-14 | 2002-06-28 | Pfu Ltd | 文字抽出装置、文字抽出方法および記録媒体 |
KR20030002919A (ko) | 2001-07-02 | 2003-01-09 | 에이알비전 (주) | 방송 영상에서의 실시간 이미지 삽입 시스템 |
KR100387901B1 (ko) | 2001-07-03 | 2003-06-18 | 에이알비전 (주) | 카메라 센서를 이용한 이미지 추적 및 삽입 시스템 |
JP3823767B2 (ja) | 2001-07-18 | 2006-09-20 | 日本電信電話株式会社 | 動画像の前景背景領域分離方法、及びその方法を用いた条件付画素補填による動画像符号化方法 |
KR100537827B1 (ko) | 2003-04-24 | 2005-12-19 | 주식회사신도리코 | 경계선 분포를 이용한 스캔 영상의 상역 분리 방법 |
JP4777433B2 (ja) | 2005-10-27 | 2011-09-21 | エヌイーシー ラボラトリーズ アメリカ インク | ビデオ前景の分割方法 |
US7885463B2 (en) | 2006-03-30 | 2011-02-08 | Microsoft Corp. | Image segmentation using spatial-color Gaussian mixture models |
KR100845969B1 (ko) | 2006-12-29 | 2008-07-11 | 아주대학교산학협력단 | 동적객체 영역 추출방법 및 장치 |
KR101282196B1 (ko) * | 2009-12-11 | 2013-07-04 | 한국전자통신연구원 | 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법 |
-
2008
- 2008-12-22 KR KR1020080131666A patent/KR101215987B1/ko active IP Right Grant
-
2009
- 2009-08-05 US US12/535,877 patent/US8417034B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101282196B1 (ko) * | 2009-12-11 | 2013-07-04 | 한국전자통신연구원 | 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법 |
US8538150B2 (en) | 2009-12-11 | 2013-09-17 | Electronics And Telecommunications Research Institute | Method and apparatus for segmenting multi-view images into foreground and background based on codebook |
Also Published As
Publication number | Publication date |
---|---|
KR101215987B1 (ko) | 2012-12-28 |
US8417034B2 (en) | 2013-04-09 |
US20100158372A1 (en) | 2010-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101215987B1 (ko) | 전경/배경 분리 장치 및 방법 | |
KR101282196B1 (ko) | 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법 | |
CN110689599B (zh) | 基于非局部增强的生成对抗网络的3d视觉显著性预测方法 | |
WO2017092431A1 (zh) | 基于肤色的人手检测方法及装置 | |
CN110751678A (zh) | 运动目标的检测方法、装置和电子设备 | |
US11080553B2 (en) | Image search method and apparatus | |
US20090254537A1 (en) | Image search apparatus and image search method | |
KR102094506B1 (ko) | 피사체 추적 기법을 이용한 카메라와 피사체 사이의 거리 변화 측정방법 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 거리 변화 측정 장치. | |
CN109977952B (zh) | 基于局部最大值的候选目标检测方法 | |
KR102657335B1 (ko) | 자율 주행에서의 시맨틱 적대적 생성 기반 기능 테스트 방법 | |
US20140012532A1 (en) | System, method, and computer program product for simultaneously determining settings for a plurality of parameter variations | |
US20150063697A1 (en) | Method and apparatus for segmenting object in image | |
CN103679195A (zh) | 基于局部边缘模式的纹理图像分类方法及系统 | |
CN111783812A (zh) | 违禁图像识别方法、装置和计算机可读存储介质 | |
KR101833943B1 (ko) | 동영상의 주요 장면을 추출 및 탐색하는 방법 및 시스템 | |
TWI769603B (zh) | 影像處理方法及存儲介質 | |
CN108830184A (zh) | 黑眼圈识别方法及装置 | |
CN108520532B (zh) | 识别视频中物体运动方向的方法及装置 | |
US11244443B2 (en) | Examination apparatus, examination method, recording medium storing an examination program, learning apparatus, learning method, and recording medium storing a learning program | |
JP6561605B2 (ja) | 目標分析方法及び目標分析システム | |
KR102437193B1 (ko) | 복수의 배율에 따라 크기 변환된 영상으로 학습된 병렬 심층 신경망 장치 및 방법 | |
CN110955603B (zh) | 自动化测试方法、装置、电子设备及计算机可读存储介质 | |
MX2012001664A (es) | Identificacion de objetos. | |
CN105354833A (zh) | 一种阴影检测的方法和装置 | |
JP5347793B2 (ja) | 文字認識装置、文字認識プログラムおよび文字認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151127 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20161121 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20181025 Year of fee payment: 7 |