KR101662738B1 - 영상 처리 방법 및 그 장치 - Google Patents

영상 처리 방법 및 그 장치 Download PDF

Info

Publication number
KR101662738B1
KR101662738B1 KR1020100011197A KR20100011197A KR101662738B1 KR 101662738 B1 KR101662738 B1 KR 101662738B1 KR 1020100011197 A KR1020100011197 A KR 1020100011197A KR 20100011197 A KR20100011197 A KR 20100011197A KR 101662738 B1 KR101662738 B1 KR 101662738B1
Authority
KR
South Korea
Prior art keywords
segment
predetermined
value
image
center point
Prior art date
Application number
KR1020100011197A
Other languages
English (en)
Other versions
KR20110091385A (ko
Inventor
정문식
막심 세브첸코
세르게이 크라프첸코
홍승환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100011197A priority Critical patent/KR101662738B1/ko
Priority to US13/022,027 priority patent/US9002056B2/en
Publication of KR20110091385A publication Critical patent/KR20110091385A/ko
Application granted granted Critical
Publication of KR101662738B1 publication Critical patent/KR101662738B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

획득된 일련의 영상을 세그먼테이션하고, 세그먼테이션된 각각의 세그먼트의 중심점을 계산하여, 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 영상 처리 방법이 개시되어 있다.

Description

영상 처리 방법 및 그 장치{Method and apparatus of processing image}
본 발명의 일 실시예는 영상 처리 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 영상 세그먼테이션을 통한 오브젝트 인식을 위한 영상 처리 방법 및 그 장치에 관한 것이다.
오늘날 디지털 카메라의 보급으로 디지털 사진이나 동영상이 우리들의 일상에 대량으로 존재하며 이러한 디지털 영상에는 여러 가지 장면이나 물체가 촬영되어 있다. 이처럼 실제 장면을 제약이 없는 상태에서 촬영한 화상 중에서 어떤 물체가 화상 내에 존재하는지, 그리고 어떤 장면인지를 일반적인 명칭에서 컴퓨터가 인식하는 것을 일반 물체인식이라 부른다. 현재 디지털 텔레비전(DTV)나 모바일 장치에 카메라가 장착되어 동작 인식 또는 물체 인식을 통한 기기의 작동이 가능하게 되는 제품들이 출시되고 있다. 물체 인식을 위해서는 영상 세그먼테이션(image segmentation)이 선행되어야 한다. 영상 세그먼테이션을 위해서는 에지 기반 세그먼테이션이 많이 이용되었다. 그러나, 정확도 측면, 복잡성 측면에 문제가 있어 대체 방안에 대한 연구가 진행 중에 있다.
본 발명이 해결하고자 하는 기술적 과제는 시스템에 임베디드할 수 있는 최적화된 세그먼테이션을 통하여 객체 또는 제스쳐를 인식할 수 있는 영상 처리 방법 및 그 장치를 제공하는데 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따라, 영상 처리 방법은 획득된 일련의 영상을 세그먼테이션하는 단계; 상기 세그먼테이션된 각각의 세그먼트의 중심점을 계산하는 단계; 및 상기 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 상기 세그먼테이션된 영상에서 타겟 오브젝트(target object)를 획득하는 단계를 포함한다.
상기 세그먼테이션하는 단계는 상기 일련의 영상을 그래프 기반 세그먼테이션(graph based segmentation)하는 단계를 포함할 수 있다.
상기 타겟 오브젝트를 획득하는 단계는 상기 일련의 영상에서 현재 영상의 세그먼트와 이전 영상의 대응되는 세그먼트의 중심점의 변화량을 계산하는 단계; 및 상기 변화량에 기초하여 상기 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 단계를 포함할 수 있다.
상기 타겟 오브젝트를 획득하는 단계는 상기 변화량의 정도에 따라 소정의 값을 부여하는 단계; 및 상기 소정의 값의 합이 소정의 제 1 임계치를 초과하는 경우, 상기 세그먼트를 타겟 오브젝트로 결정하는 단계를 포함할 수 있다.
상기 소정의 값을 부여하는 단계는 상기 변화량의 정도가 소정의 제 2 임계치 미만인 경우에는 양의 값을 부여하고, 이상인 경우에는 영(zero) 또는 음(minus)의 값을 부여하는 단계를 포함할 수 있다.
상기 타겟 오브젝트를 획득하는 단계는 상기 변화량의 정도에 따라 소정의 값을 부여하는 단계; 및 상기 소정의 값의 합이 소정의 제 1 임계치보다 낮은 경우, 상기 세그먼트를 타겟 오브젝트로 결정할 수 있다.
상기 소정의 값을 부여하는 단계는 상기 변화량의 정도가 소정의 제 2 임계치 이상인 경우에는 양의 값을 부여하고, 미만인 경우에는 영(zero) 또는 음(minus)의 값을 부여할 수 있다.
상기 영상 처리 방법은 상기 변화량의 정도가 소정의 제 3 임계치 이상인 경우에는, 현재 영상에서 해당 세그먼트에 소정의 값을 부여하지 않는 단계; 및 다음 영상부터 상기 세그먼트 대하여 소정의 값을 새로이 부여하는 단계를 더 포함할 수 있다.
상기 영상 처리 방법은 상기 일련의 영상에서 계산된 중심점을 제 1 데이터베이스에 저장하는 단계를 더 포함할 수 있다.
상기 영상 처리 방법은 상기 세그먼트에서 상기 중심점을 기준으로 상기 세그먼트의 면적과 동일한 가상의 원의 반지름을 계산하는 단계; 및 인접한 두 세그먼트들의 중심점의 간격이 상기 두 세그먼트의 반지름의 합보다 적은 경우, 상기 인접한 두 세그먼트를 별개의 하나의 세그먼트로 설정하는 단계를 더 포함할 수 있다.
상기 영상 처리 방법은 상기 세그먼테이션된 세그먼트의 크기가 제 4 임계치 이상인 경우에는 상기 세그먼트를 삭제하는 단계를 더 포함할 수 있다.
상기 영상 처리 방법은 상기 세그먼테이션된 세그먼트가 상기 영상의 경계선을 포함하는 경우에는 상기 세그먼트를 삭제하는 단계를 더 포함할 수 있다.
상기 영상 처리 방법은 제 2 데이터베이스가 포함하고 있는 물체에 관한 소정의 정보와 상기 타겟 오브젝트를 비교하는 단계; 및 상기 비교 결과에 따라 상기 타겟 오브젝트를 특정 물체로 인식하는 단계를 더 포함할 수 있다.
상기 소정의 정보는 에지 정보를 가지는 HOG(Histograms of Oriented Gradients) 정보와 컬러 정보를 가지는 HSV(Hue Saturation Value) 정보를 포함할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따라, 획득된 일련의 영상을 세그먼테이션하는 세그먼테이션부; 상기 세그먼테이션된 각각의 세그먼트의 중심점을 계산하는 연산부; 및 상기 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 상기 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 제어부를 포함한다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 나타내는 블록다이어그램이다.
도 2a 및 도 2b는 소정의 영상을 그래프 기반 세그먼테이션한 예를 나타내는 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 하나의 영상에서 세그먼테이션된 세그먼트의 예를 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른, 세그먼테이션된 세그먼트가 도시된 일련의 영상의 예를 나타내는 도면이다.
도 6은 도 5에 도시된 세그먼트를 각각 나타내는 도면이다.
도 7은 도 5에 도시된 세그먼트의 중심점의 변화량에 대한 알고리즘의 적용 예를 나타내는 도면이다.
도 8은 본 발명의 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 나타내는 블록다이어그램이다.
도 1을 참조하면, 영상 처리 장치(100)는 타겟 오브젝트 결정부(110), 제 1 저장부(120), 물체 인식부(130), 제 2 저장부(140), 제스쳐 인식부(150) 및 제 3 저장부(160)를 포함하고, 타겟 오브젝트 결정부(110)는 세그먼테이션부(112), 연산부(114) 및 제어부(116)를 포함한다.
세그먼테이션부(112)는 영상 획득 장치(미도시)로부터 캡쳐된 일련의 영상을 수신한다. 획득된 영상은 다양한 형태의 빛-감지 카메라들 외에도 구역(range) 센서, x선 단층 획득(tomography) 장치들, 레이더, 초음파(ultra-sonic) 카메라들을 포함하는 하나 또는 다수의 영상 센서들에 의하여 생성된다. 센서의 형태에 따라서 획득되는 영상은 일반적인 2차원 영상, 3차원 영상의 영상 시퀀스일 수 있다. 여기에서 사용되는 영상(또는 영상 데이터)은 당업자에게 알려진 어떠한 형태의 가시적인(visual) 영상 또는 어떠한 형태의 비가시적인(non-visual) 영상을 포함하는 것으로 정의된다. 영상 획득 장치는 예를 들면 컴퓨터 분야에서 잘 알려진 것으로써의 “웹켐”, 또는 더 복잡하고 기술적으로 진보한 카메라들과 같은 다양한 복잡도의 카메라들을 포함할 수 있다. 세그먼테이션부(112)는 수신한 각각의 영상을 세그먼테이션한다. 본 발명의 일 실시예에서는, 세그먼테이션부(112)는 수신한 각각의 영상을 그래프 기반 세그먼테이션(graph based segmentation)한다. 그래프 기반 세그먼테이션은 영상을 그래프로 변환한 후, 그래프를 이용하여 영상을 세그먼테이션한다. 그래프 기반 세그먼테이션은 컬러에 따라 영상을 세그먼테이션한다.
도 2a 및 도 2b는 소정의 영상을 그래프 기반 세그먼테이션한 예를 나타내는 도면이다. 도 2a는 영상 획득 장치로부터 수신한 영상(raw image)을 나타내고 있고, 도 2b는 수신한 영상에 대하여 영상의 Hue 값이 0도에서 30도인 경우에는 0도로 설정하고, 30도에서 60도인 경우에는 30도로 설정하여 세그먼테이션한 예를 나타내는 도면이다.
연산부(114)는 세그먼테이션된 각각의 세그먼트의 중심점을 계산한다. 연산부(114)는 하나의 영상에 대하여 각각의 세그먼트의 중심점을 제 1 저장부에 저장한다. 중심점은 도형의 중심, 즉, 도심(center of figure)을 의미한다. 세그먼테이션의 밀도가 균일하다면 무게중심일 수도 있다. 중심점은 영상 내의 이차원적 좌표로서 저장된다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 하나의 영상에서 세그먼테이션된 세그먼트의 예를 나타내는 도면이다.
도 3을 참조하면, 하나의 영상(300)에서 세그먼테이션된 네 개의 세그먼트(310, 320, 330, 340)가 도시되어 있다. 또한, 각각의 세그먼트의 중심점(311, 321, 331, 341)이 도시되어 있다.
연산부(114)는 세그먼트에서 상기 중심점을 기준으로 상기 세그먼트의 면적과 동일한 가상의 원의 반지름을 계산한다. 또한, 연산부(114)는 인접한 두 세그먼트들의 중심점 간의 거리를 계산한다.
도 4를 참조하면, 세그먼트 A(410)의 중심점(411)을 기준으로 세그먼트 A(410)의 면적과 동일한 면적을 가지는 가상의 원(412)의 반지름 rA(413)가 도시되어 있고, 세그먼트 B(420)의 중심점(421)을 기준으로 세그먼트 B(420)의 면적과 동일한 가상의 원(422)의 반지름 rB(423)이 도시되어 있다. 또한, 세그먼트 A(410)의 중심점(411)과 세그먼트 B(420)의 중심점(421)과의 간격 d(430)가 도시되어 있다.
제어부(116)는 세그먼테이션된 세그먼트의 크기가 제 4 임계치 이상인 경우에는 세그먼트를 삭제한다. 즉, 제어부(116)는 연산부(114)가 그 세그먼트의 반지름을 계산하는 것을 고려하지 않도록 제어한다. 예를 들어, 제어부(116)는 세그먼테이션된 세그먼트가 영상의 경계선을 포함하는 경우에는 그 세그먼트를 삭제한다. 도 3을 참조하면, 제어부(116)는 연산부(114)가 경계선을 포함하는 세그먼트(310, 320)의 중심점을 계산하지 않도록 제어한다. 또한, 제어부(116)는 인접한 두 세그먼트들의 중심점의 간격이 두 세그먼트의 반지름의 합보다 적은 경우, 인접한 두 세그먼트를 별개의 하나의 세그먼트로 설정한다. 도 4를 참조하면, 제어부(116)는 간격 d(430)가 세그먼트 A(410)의 면적과 동일한 가상의 원(412)의 반지름 rA(413)와 세그먼트 B(420)의 면적과 동일한 가상의 원(422)의 반지름 rB(423)의 합보다 적은 경우, 즉, d<rA+rB인 경우, 제어부(116)는 세그먼트 A(410)와 세그먼트 B(420)를 합친 새로운 세그먼트를 설정한다.
제어부(116)는 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 세그먼테이션된 영상에서 타겟 오브젝트를 획득한다. 구체적으로, 제어부(116)는 이전 영상과 현재 영상에서의 대응되는 세그먼트의 중심점의 변화량의 정도에 따라 소정의 값을 부여하고, 소정의 개수의 영상에서 이 값의 합이 제 1 임계치를 초과하는 경우 그 세그먼트를 타겟 오브젝트로 결정한다. 예를 들어, 제어부(116)는 중심점의 변화량이 제 2 임계치 미만인 경우에는 양의 값을 부여하고, 이상인 경우에는 영 또는 음의 값을 부여할 수 있다. 또한, 제어부(116)는 상기 변화량의 정도가 매우 큰 경우, 예를 들어 제 3 임계치(제 3 임계치>제 2 임계치)에는, 현재 영상에서 해당 세그먼트에 소정의 값을 부여하지 않고, 다음 영상부터 해당 세그먼트를 새로이 설정된 세그먼트로 가정하여 소정의 값을 새로이 부여할 수도 있다. 제 1 임계치를 결정하는 기준은 제조자에 의하여 설정될 수 있으므로, 위와 반대의 경우로, 예를 들어, 제어부(116)가 중심점의 변화량이 소정의 임계치 미만인 경우에는 영 또는 음의 값을 부여하고, 이상인 경우에는 양의 값을 부여할 수도 있다. 이 경우에는 제어부(116)는 소정의 개수의 영상에서 이 값의 합이 소정의 임계치 이하인 경우 그 세그먼트를 타겟 오브젝트로 결정할 수도 있다.
이에 대한 설명을 도 5 내지 도 7을 예로 들어 설명하기로 한다.
도 5는 본 발명의 일 실시예에 따른, 세그먼테이션된 세그먼트가 도시된 일련의 영상의 예를 나타내는 도면이다.
도 5를 참조하면, 영상 1(510)에는 세그먼트 A의 중심점(511), 세그먼트 B의 중심점(512) 및 세그먼트 A 및 세그먼트 B가 합쳐진 세그먼트 C의 중심점(513)이 도시되어 있고, 영상 1(510)의 다음 영상인 영상 2(520)에는 세그먼트 A로부터 새로이 설정된 세그먼트 D의 중심점(521), 세그먼트 B의 중심점(522) 및 세그먼트 C의 중심점(523)이 도시되어 있고, 영상 2(520)의 다음 영상인 영상 3(530)에는 세그먼트 D의 중심점(531), 세그먼트 B의 중심점(532) 및 세그먼트 C의 중심점(533)이 도시되어 있다.
도 6은 도 5에 도시된 세그먼트를 각각 나타내는 도면이다.
도 6은 도 5에 도시된 일련의 영상에서의 세그먼트 A, 세그먼트 B, 세그먼트 C 및 세그먼트 D를 각각 나타내는 도면이다. 좌측 열의 세그먼트(610a, 610b, 610c)는 첫 번째 영상에서의 세그먼트들이고, 중간 열의 세그먼트(620a, 620b, 620c)는 두 번째 영상에서의 세그먼트들이고, 우측 열의 세그먼트(630a, 630b, 630c)는 첫 번째 영상에서의 세그먼트들이다. 각각의 세그먼트에는 중심점(611~633)이 도시되어 있다. 현재 영상의 다음 영상에서 대응되는 세그먼트를 찾기 위해서는, 현재 영상에서의 하나의 세그먼트의 중심점과 다음 영상에서의 모든 세그먼트의 중심점과의 거리를 비교하여, 가장 가까운 거리를 갖는 세그먼트를 다음 영상에서의 대응되는 세그먼트로 인식한다. 예를 들어, 영상 1에서의 세그먼트 A에 대응되는 영상 2에서의 세그먼트 A를 검출하기 위해서는, 영상 1에서의 세그먼트 A의 중심점(611)과 영상 2에서의 각각의 세그먼트의 중심점(621, 622, 623)과의 거리를 계산한 후, 가장 가까운 거리에 해당하는 세그먼트를 영상 2에서의 세그먼트 A로 인식한다. 도 6에서는 영상 2에서의 세그먼트 A(610b)가 영상 1에서의 세그먼트 A(610a)에 가장 가깝기 때문에, 영상 1에서의 세그먼트 A(610a)에 대응되는 세그먼트가 된다.
도 7은 도 5 또는 도 6에 도시된 세그먼트의 중심점의 변화량에 대한 알고리즘의 적용 예를 나타내는 도면이다. 도 7은 세그먼트 중심점의 변화량에 따라 부여된 값의 합이 제 1 임계치를 초과하는 경우, 타겟 오브젝트를 결정하는 실시예에 대한 도면이다.
도 7은 도 6을 참조하여 설명하기로 한다. 도 7을 참조하면, 세그먼트 항목(710)은 각각의 세그먼트를 나타내고 있으며, 영상 1, 영상 2 및 영상 3의 항목(720, 730, 740)은 각각의 세그먼트의 중심점의 변화량에 대하여 부여된 소정의 값을 나타내고 있으며, 합산 항목(750)은 각각의 세그먼트에 대하여 부여된 소정의 값의 합을 나타내고 있다. 제일 처음의 영상(영상 1)의 모든 세그먼트에 대해서는 변화량이 없으므로, 일정한 값을 부여한다. 도 6에서의 각각의 영상에 대한 세그먼트 A(610a, 620a, 630a)에서의 중심점의 변화량에 따른 부여된 값을 보면, 영상 1에서의 부여된 값은 +5와 -4(721, 722)이다. 제일 처음의 영상이므로 일정한 값이 부여된 것이다. -4의 경우는 합산 값이 너무 크질 경우를 대비하여, 일방적으로 부여된 값으로, 없는 경우도 상관이 없다. 영상 2에서의 세그먼트 A의 중심점은 이전 영상인 영상 1에서의 중심점과 차이가 크므로 0과 -4(731, 732)를 부여하고, 다음 영상에서부터 세그먼트 A에 대응되는 세그먼트에 대해서는 값을 부여하지 않고, 세그먼트 A를 새로운 세그먼트 D로 설정하여 값을 부여한다. 영상 2의 세그먼트 D는 제일 처음의 영상으로 설정되므로, 일정한 값 +5와 -4(731, 732)가 부여된 것이다. 영상 3에서의 세그먼트 D의 중심점은 영상 2에서의 세그먼트 D의 중심점과 비교할 때, 차이가 적으므로 +5와 -4(741, 742)가 부여된다. 도 6에서의 각각의 영상에 대한 세그먼트 B(610b, 620b, 630b)에서의 중심점의 변화량에 따른 부여된 값을 보면, 영상 1은 제일 처음 영상이므로, 부여된 값은 +5와 -4(721, 722)이다. 영상 2에서의 세그먼트 B의 중심점은 이전 영상인 영상 1에서의 중심점과 차이가 적으므로 +5와 -4(731, 732)를 부여하고, 영상 3에서의 세그먼트 B의 중심점은 이전 영상인 영상 2에서의 중심점과 차이가 크므로 0과 -4(741, 742)가 부여된다. 도 6에서의 각각의 영상에 대한 세그먼트 C(610c, 620c, 630c)에서의 중심점의 변화량에 따른 부여된 값을 보면, 모든 영상에서 세그먼트 C의 중심점의 변화가 적으므로, 각각의 영상에서 세그먼트 C에 대해서는 +5와 -4(721, 722, 731, 732, 741, 742)가 부여된다. 부여되는 값은 영상 처리 장치의 제조자에 의하여 미리 정하여 질 수 있다. 합산된 값(750)은 세그먼트 A는 -3, 세그먼트 B는 -2, 세그먼트 C는 +3, 세그먼트 D는 +2이다. 만약, 임계치가 2.5인 경우, 세그먼트 C가 타겟 오브젝트가 된다. 임계치는 인식해야 하는 물체가 작은 경우에는 임계치를 낮게 정하고, 물체가 큰 경우에는 임계치를 높게 정할 수 있다. 또한, 짧은 시간에 영상을 세그먼테이션해야 하는 경우에는 임계치를 높게 정할 수 있다. 임계치는 실험적으로 정해지며, 주변 환경에 따라 적응적으로 정해질 수 있다.
제 2 저장부(140)는 어떤 물체에 관한 에지 정보를 가지는 HOG(Histograms of Oriented Gradients) 정보와 컬러 정보를 가지는 HSV(Hue Saturation Value) 정보를 포함한다. HOG는 국소 영역에서 휘도의 기울기 방향을 히스토그램화한 특징량을 의미한다. HSV는 색상(Hue), 채도(Saturation), 명도(Brightness 또는 Value)의 좌표를 써서 특정한 색을 지정한 것을 의미한다.
물체 인식부(130)는 타겟 오브젝트 결정부(110)로부터 수신한 타겟 오브젝트를 제 2 저장부(140)에서의 물체에 관한 HOG 및 HSV 정보를 비교하여, 특정 물체로 인식한다.
제스쳐 인식부(150)는 인식된 물체에 관한 정보를 물체 인식부(130)로부터 수신하여 소정의 제스쳐 정보를 포함하고 있는 제 3 저장부(160)를 통하여 특정 제스쳐를 인식한다. 인식된 제스쳐를 수신 신호로 하여, 디지털 텔레비전 또는 카메라 등이 작동될 수 있다.
인터페이스 장치(200)의 제어부(210)는 물체 인식부(130)에서 인식된 물체에 대한 소정의 정보를 디스플레이부(230)에 표시할 수 있다. 소정의 정보는 인터페이스 장치(200)의 저장부(220)에 저장되어 있을 수도 있고, 소정의 유선 또는 무선 통신망을 통하여 서버(미도시)로부터 수신할 수도 있다. 예를 들어 소정의 정보를 인터넷을 통하여 수신할 수도 있다. 소정의 정보는 인식된 물체에 관한 것이라면 어떠한 정보라도 상관이 없다. 예를 들어, 인식된 물체가 특정 사람인 경우, 인터페이스 장치(200)의 제어부(210)는 저장부(220)에 저장되어 있는 그 특정 사람에 관한 전화번호 등 소정의 정보를 디스플레이부(230)에 표시할 수도 있다. 또한, 예를 들어, 서적 등의 그림이 물체로 인식된 경우, 인터페이스 장치(200)의 제어부(210)는 저장부(220)에 저장되어 있는 그 그림에 관한 정보를 디스플레이부(230)에 표시할 수도 있다. 이와 같은 개념을 교육 컨텐츠에 적용할 수 있다. 또한, 인식된 물체가 상품이라면, 인터페이스 장치(200)의 제어부(210)는 저장부(220)에 저장되어 있는 상품에 관한 소정의 정보를 디스플레이부(230)에 표시할 수도 있으며, 인터넷을 통하여 상품에 관한 정보를 디스플레이부(230)에 표시할 수도 있다. 예를 들어, 인터넷을 통하여 가격 정보, 쇼핑몰 정보 등을 다운받아 사용자는 인터넷 쇼핑을 할 수도 있다.
도 8은 본 발명의 일 실시예에 따른 영상 처리 방법을 나타내는 흐름도이다.
도 8을 참조하면, 단계 801에서, 카메라는 영상을 캡쳐한다. 예를 들어, 텔레비전이나 모바일 장치에 임베디드된 카메라는 모니터링하는 일련의 영상을 캡쳐한다.
단계 802에서, 영상 처리 장치는 캡쳐된 영상을 세그먼테이션한다. 바람직하게는 영상 처리 장치는 캡쳐된 각각의 영상을 그래프 기반 세그먼테이션(graph based segmentation)한다. 그래프 기반 세그먼테이션은 컬러에 따라 영상을 세그먼테이션한다.
단계 803에서, 영상 처리 장치는 세그먼테이션된 세그먼트의 크기가 제 4 임계치 이상인지 판단한다. 세그먼트의 크기가 제 4 임계치 이상인 경우에는 단계 804로 이동하고, 그렇지 않은 경우에는 단계 805로 이동한다.
단계 804에서, 세그먼트의 크기가 소정의 임계치 이상인 경우에는 세그먼트를 삭제한다. 예를 들어, 영상 처리 장치는 세그먼테이션된 세그먼트가 영상의 경계선을 포함하는 경우에는 그 세그먼트를 삭제한다.
단계 805에서, 영상 처리 장치는 세그먼테이션된 각각의 세그먼트의 중심점을 계산하고, 세그먼트에서 중심점을 기준으로 상기 세그먼트의 면적과 동일한 가상의 원의 반지름을 계산한다. 중심점은 도형의 중심, 즉, 도심(center of figure)을 의미한다. 세그먼테이션의 밀도가 균일하다면 무게중심일 수도 있다. 중심점은 영상 내의 이차원적 좌표로서 저장된다.
단계 806에서, 영상 처리 장치는 인접한 두 세그먼트들의 중심점의 간격이 두 세그먼트의 반지름의 합보다 적은 경우, 인접한 두 세그먼트를 별개의 하나의 세그먼트로 설정한다.
단계 807에서, 영상 처리 장치는 하나의 영상에 대하여 각각의 세그먼트의 중심점을 제 1 저장부에 저장한다.
단계 808에서, 영상 처리 장치는 이전 영상과 현재 영상에서의 대응되는 세그먼트의 중심점의 변화량의 정도에 따라 소정의 값을 부여한다. 예를 들어, 영상 처리 장치는 중심점의 변화량이 소정의 임계치 미만인 경우에는 양의 값을 부여하고, 이상인 경우에는 영 또는 음의 값을 부여할 수 있다. 또한, 영상 처리 장치는 변화량의 정도가 매우 큰 경우, 예를 들어 제 3 임계치(제 3 임계치>제 2 임계치)에는, 현재 영상에서 해당 세그먼트에 소정의 값을 부여하지 않고, 다음 영상부터 해당 세그먼트를 새로이 설정된 세그먼트로 가정하여 소정의 값을 새로이 부여할 수도 있다.
단계 809에서, 영상 처리 장치는 소정의 개수의 영상에서 이 값의 합이 소정의 제 1 임계치를 초과하는지 판단한다. 제 1 임계치는 인식해야 하는 물체가 작은 경우에는 임계치를 낮게 정하고, 물체가 큰 경우에는 임계치를 높게 정할 수 있다. 또한, 짧은 시간에 영상을 세그먼테이션해야 하는 경우에는 임계치를 높게 정할 수 있다. 임계치는 실험적으로 정해지며, 주변 환경에 따라 적응적으로 정해질 수 있다.
단계 810에서, 영상 처리 장치는 제 1 임계치를 초과하는 세그먼트를 타겟 오브젝트로 결정한다. 제 1 임계치를 결정하는 기준은 제조자에 의하여 설정될 수 있으므로, 위와 반대의 경우로, 예를 들어, 단계 808에서, 영상 처리 장치가 중심점의 변화량이 소정의 임계치 미만인 경우에는 영 또는 음의 값을 부여하고, 이상인 경우에는 양의 값을 부여할 수도 있다. 이 경우에는 단계 810에서, 영상 처리 장치는 소정의 개수의 영상에서 이 값의 합이 소정의 임계치 이하인 경우 그 세그먼트를 타겟 오브젝트로 결정할 수도 있다.
단계 811에서, 영상 처리 장치는 어떤 물체에 관한 에지 정보를 가지는 HOG(Histograms of Oriented Gradients) 정보와 컬러 정보를 가지는 HSV(Hue Saturation Value) 정보를 포함하는 저장부로부터 물체에 관한 HOG 및 HSV 정보를 수신하여 타겟 오브젝트를 제 2 저장부(140)에서의 물체에 관한 HOG 및 HSV 정보를 비교하여, 특정 물체로 인식한다. HOG는 국소 영역에서 휘도의 기울기 방향을 히스토그램화한 특징량을 의미한다. HSV는 색상(Hue), 채도(Saturation), 명도(Brightness 또는 Value)의 좌표를 써서 특정한 색을 지정한 것을 의미한다.
또한, 영상 처리 장치는 인식된 물체에 관한 정보를 수신하여 소정의 제스쳐 정보를 포함하고 있는 저장부를 통하여 특정 제스쳐를 인식한다. 그 후, 인식된 제스쳐를 수신 신호로 하여, 디지털 텔레비전 또는 카메라 등이 작동될 수 있다.
영상 처리 장치에서 인식된 물체에 관한 정보를 수신하여, 인터페이스 장치는 다양한 인터페이스를 제공할 수도 있다. 인터페이스 장치는 영상 처리 장치에서 인식된 물체에 대한 소정의 정보를 표시할 수 있다. 소정의 정보는 인터페이스 장치에 저장되어 있을 수도 있고, 소정의 유선 또는 무선 통신망을 통하여 서버(미도시)로부터 수신할 수도 있다. 예를 들어 소정의 정보를 인터넷을 통하여 수신할 수도 있다. 소정의 정보는 인식된 물체에 관한 것이라면 어떠한 정보라도 상관이 없다. 예를 들어, 인식된 물체가 특정 사람인 경우, 인터페이스 장치는 저장되어 있는 그 특정 사람에 관한 전화번호 등 소정의 정보를 표시할 수도 있다. 또한, 예를 들어, 서적 등의 그림이 물체로 인식된 경우, 인터페이스 장치는 저장되어 있는 그 그림에 관한 정보를 표시할 수도 있다. 이와 같은 개념을 교육 컨텐츠에 적용할 수 있다. 또한, 인식된 물체가 상품이라면, 인터페이스 장치는 저장되어 있는 상품에 관한 소정의 정보를 표시할 수도 있으며, 인터넷을 통하여 상품에 관한 정보를 표시할 수도 있다. 예를 들어, 인터넷을 통하여 가격 정보, 쇼핑몰 정보 등을 다운받아 사용자는 인터넷 쇼핑을 할 수도 있다.
본 발명의 일 실시예에 따르면, TV 플랫폼, 모바일 장치 및 카메라와 같은 높은 컴퓨팅 능력(high computing power)을 이용하기 힘든 CE 장치에서 간단하고 낮은 컴퓨팅 능력의 오브젝트 세그먼테이션을 구현하여, 이를 제스쳐 인식 또는 물체 인식에 따른 사용자 인터페이스를 제공하여, CE 기기의 기능, 제어, 컨텐츠 제어 등에 응용될 수 있다. 또한, 카메라가 임베디드된 CE 기기의 제어 및 CE 기기에서의 미디어 컨텐츠를 제어하는데 있어서, 논-터치 인터랙션(Non-Touch Interaction)을 낮은 컴퓨팅 파워로 구현할 수도 있다. 또한, 물체 인식을 통하여 비디오 시퀀스에서 원하는 영상의 검색에 이용될 수도 있다.
이상 설명한 바와 같은 영상 처리 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 매체를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 디스크 관리 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (27)

  1. 획득된 일련의 영상을 세그먼테이션하는 단계;
    상기 세그먼테이션된 각각의 세그먼트의 중심점을 계산하는 단계; 및
    상기 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 상기 세그먼테이션된 영상에서 타겟 오브젝트(target object)를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  2. 제 1 항에 있어서,
    상기 타겟 오브젝트를 획득하는 단계는,
    상기 일련의 영상에서 현재 영상의 세그먼트와 이전 영상의 대응되는 세그먼트의 중심점의 변화량을 계산하는 단계; 및
    상기 변화량에 기초하여 상기 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  3. 제 2 항에 있어서,
    상기 타겟 오브젝트를 획득하는 단계는,
    상기 변화량의 정도에 따라 소정의 값을 부여하는 단계; 및
    상기 소정의 값의 합이 소정의 제 1 임계치를 초과하는 경우, 상기 세그먼트를 타겟 오브젝트로 결정하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  4. 제 3 항에 있어서,
    상기 소정의 값을 부여하는 단계는,
    상기 변화량의 정도가 소정의 제 2 임계치 미만인 경우에는 양의 값을 부여하고, 이상인 경우에는 영(zero) 또는 음(minus)의 값을 부여하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  5. 제 2 항에 있어서,
    상기 타겟 오브젝트를 획득하는 단계는,
    상기 변화량의 정도에 따라 소정의 값을 부여하는 단계; 및
    상기 소정의 값의 합이 소정의 제 1 임계치보다 낮은 경우, 상기 세그먼트를 타겟 오브젝트로 결정하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  6. 제 5 항에 있어서,
    상기 소정의 값을 부여하는 단계는,
    상기 변화량의 정도가 소정의 제 2 임계치 이상인 경우에는 양의 값을 부여하고, 미만인 경우에는 영(zero) 또는 음(minus)의 값을 부여하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법.
  7. 제 2 항에 있어서,
    상기 변화량의 정도가 소정의 제 3 임계치 이상인 경우에는, 현재 영상에서 해당 세그먼트에 소정의 값을 부여하지 않는 단계; 및
    다음 영상부터 상기 세그먼트에 대하여 소정의 값을 새로이 부여하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  8. 제 1 항에 있어서,
    상기 일련의 영상에서 계산된 중심점을 제 1 저장부에 저장하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  9. 제 1 항에 있어서,
    상기 세그먼트에서 상기 중심점을 기준으로 상기 세그먼트의 면적과 동일한 가상의 원의 반지름을 계산하는 단계; 및
    인접한 두 세그먼트들의 중심점의 간격이 상기 두 세그먼트의 반지름의 합보다 적은 경우, 상기 인접한 두 세그먼트를 별개의 하나의 세그먼트로 설정하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  10. 제 1 항에 있어서,
    상기 세그먼테이션된 세그먼트의 크기가 제 4 임계치 이상인 경우에는 상기 세그먼트를 삭제하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  11. 제 1 항에 있어서,
    상기 세그먼테이션된 세그먼트가 상기 영상의 경계선을 포함하는 경우에는 상기 세그먼트를 삭제하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  12. 제 1 항에 있어서,
    제 2 저장부가 포함하고 있는 물체에 관한 소정의 정보와 상기 타겟 오브젝트를 비교하는 단계; 및
    상기 비교 결과에 따라 상기 타겟 오브젝트를 특정 물체로 인식하는 단계를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  13. 제 12 항에 있어서,
    상기 소정의 정보는 상기 물체의 에지에 관한 HOG(Histograms of Oriented Gradients) 정보와 상기 물체의 컬러에 관한 HSV(Hue Saturation Value) 정보를 포함하는 것을 특징으로 하는 영상 처리 방법.
  14. 획득된 일련의 영상을 세그먼테이션하는 세그먼테이션부;
    상기 세그먼테이션된 각각의 세그먼트의 중심점을 계산하는 연산부; 및
    상기 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 상기 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 제어부를 포함하는 것을 특징으로 하는 영상 처리 장치.
  15. 제 14 항에 있어서,
    상기 연산부는 상기 일련의 영상에서 현재 영상의 세그먼트와 이전 영상의 대응되는 세그먼트의 중심점의 변화량을 계산하고,
    상기 제어부는 상기 변화량에 기초하여 상기 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 것을 특징으로 하는 영상 처리 장치.
  16. 제 15 항에 있어서,
    상기 제어부는 상기 변화량의 정도에 따라 소정의 값을 부여하고, 상기 소정의 값의 합이 소정의 제 1 임계치를 초과하는 경우, 상기 세그먼트를 타겟 오브젝트로 결정하는 것을 특징으로 하는 영상 처리 장치.
  17. 제 16 항에 있어서,
    상기 제어부는 상기 변화량의 정도가 소정의 제 2 임계치 미만인 경우에는 양의 값을 부여하고, 이상인 경우에는 영(zero) 또는 음(minus)의 값을 부여하는 것을 특징으로 하는 영상 처리 장치.
  18. 제 15 항에 있어서,
    상기 제어부는 상기 변화량의 정도에 따라 소정의 값을 부여하고, 상기 소정의 값의 합이 소정의 제 1 임계치보다 낮은 경우, 상기 세그먼트를 타겟 오브젝트로 결정하는 것을 특징으로 하는 영상 처리 장치.
  19. 제 18 항에 있어서,
    상기 제어부는 상기 변화량의 정도가 소정의 제 2 임계치 이상인 경우에는 양의 값을 부여하고, 미만인 경우에는 영(zero) 또는 음(minus)의 값을 부여하는 것을 특징으로 하는 영상 처리 장치.
  20. 제 15 항에 있어서,
    상기 제어부는 상기 변화량의 정도가 소정의 제 3 임계치 이상인 경우에는, 현재 영상에서 해당 세그먼트에 소정의 값을 부여하지 않고, 다음 영상부터 상기 세그먼트에 대하여 소정의 값을 새로이 부여하는 것을 특징으로 하는 영상 처리 장치.
  21. 제 14 항에 있어서,
    상기 연산부는 상기 일련의 영상에서 계산된 중심점을 제 1 저장부에 저장하는 것을 특징으로 하는 영상 처리 장치.
  22. 제 14 항에 있어서,
    상기 연산부는 상기 세그먼트에서 상기 중심점을 기준으로 상기 세그먼트의 면적과 동일한 가상의 원의 반지름을 계산하고,
    상기 제어부는 인접한 두 세그먼트들의 중심점의 간격이 상기 두 세그먼트의 반지름의 합보다 적은 경우, 상기 인접한 두 세그먼트를 별개의 하나의 세그먼트로 설정하는 것을 특징으로 하는 영상 처리 장치.
  23. 제 14 항에 있어서,
    상기 제어부는 상기 세그먼테이션된 세그먼트의 크기가 제 4 임계치 이상인 경우에는 상기 세그먼트를 삭제하는 것을 특징으로 하는 영상 처리 장치.
  24. 제 14 항에 있어서,
    상기 제어부는 상기 세그먼테이션된 세그먼트가 상기 영상의 경계선을 포함하는 경우에는 상기 세그먼트를 삭제하는 것을 특징으로 하는 영상 처리 장치.
  25. 제 14 항에 있어서,
    물체에 관한 소정의 정보를 포함하고 있는 제 2 저장부; 및
    상기 제 2 저장부의 소정의 정보와 상기 타겟 오브젝트를 비교하여, 상기 비교 결과에 따라 상기 타겟 오브젝트를 특정 물체로 인식하는 물체 인식부를 더 포함하는 것을 특징으로 하는 영상 처리 장치.
  26. 제 25 항에 있어서,
    상기 소정의 정보는 에지 정보를 가지는 HOG(Histograms of Oriented Gradients) 정보와 컬러 정보를 가지는 HSV(Hue Saturation Value) 정보를 포함하는 것을 특징으로 하는 영상 처리 장치.
  27. 영상 처리 방법을 구현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 있어서,
    획득된 일련의 영상을 세그먼테이션하는 단계;
    상기 세그먼테이션된 각각의 세그먼트의 중심점을 계산하는 단계; 및
    상기 일련의 영상에서 세그먼트의 중심점의 변화량에 기초하여, 상기 세그먼테이션된 영상에서 타겟 오브젝트를 획득하는 단계를 포함하는 것을 특징으로 하는 영상 처리 방법을 구현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020100011197A 2010-02-05 2010-02-05 영상 처리 방법 및 그 장치 KR101662738B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100011197A KR101662738B1 (ko) 2010-02-05 2010-02-05 영상 처리 방법 및 그 장치
US13/022,027 US9002056B2 (en) 2010-02-05 2011-02-07 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100011197A KR101662738B1 (ko) 2010-02-05 2010-02-05 영상 처리 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20110091385A KR20110091385A (ko) 2011-08-11
KR101662738B1 true KR101662738B1 (ko) 2016-10-05

Family

ID=44353776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100011197A KR101662738B1 (ko) 2010-02-05 2010-02-05 영상 처리 방법 및 그 장치

Country Status (2)

Country Link
US (1) US9002056B2 (ko)
KR (1) KR101662738B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992467B2 (en) * 2016-06-30 2018-06-05 Apple Inc. Parallel computer vision and image scaling architecture
KR101899241B1 (ko) * 2017-03-27 2018-09-14 고려대학교 세종산학협력단 근접 돼지의 분리를 위한 외곽선 분할 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
EP0878965A3 (en) * 1997-05-14 2000-01-12 Hitachi Denshi Kabushiki Kaisha Method for tracking entering object and apparatus for tracking and monitoring entering object
JP3549725B2 (ja) * 1998-04-13 2004-08-04 シャープ株式会社 画像処理装置
US6643387B1 (en) * 1999-01-28 2003-11-04 Sarnoff Corporation Apparatus and method for context-based indexing and retrieval of image sequences
KR100338975B1 (ko) * 1999-09-14 2002-05-31 최은백, 이찬경 턱뼈의 치조신경 검출방법
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
JP4507129B2 (ja) * 2008-06-06 2010-07-21 ソニー株式会社 追尾点検出装置および方法、プログラム、並びに記録媒体
US8483432B2 (en) * 2009-12-23 2013-07-09 General Electric Company Methods for automatic segmentation and temporal tracking

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kim, Jong Bae, and Hang Joon Kim. "Efficient region-based motion segmentation for a video monitoring system." Pattern Recognition Letters 24.1 (2003): 113-128.
Pallavi, V., et al. "Graph-based multiplayer detection and tracking in broadcast soccer videos." Multimedia, IEEE Transactions on 10.5 (2008): 794-805.

Also Published As

Publication number Publication date
US9002056B2 (en) 2015-04-07
US20110194769A1 (en) 2011-08-11
KR20110091385A (ko) 2011-08-11

Similar Documents

Publication Publication Date Title
US10217195B1 (en) Generation of semantic depth of field effect
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP5422018B2 (ja) 画像処理方法および画像処理装置
US9201958B2 (en) Video object retrieval system and method
EP3104332B1 (en) Digital image manipulation
JP4840426B2 (ja) 電子機器、ぼけ画像選別方法及びプログラム
CN109087376B (zh) 图像处理方法、装置、存储介质及电子设备
US20120218427A1 (en) Method for providing a stabilized video sequence
WO2013102026A2 (en) Method and system for video composition
US10181075B2 (en) Image analyzing apparatus,image analyzing, and storage medium
CN104969240B (zh) 用于图像处理的方法和系统
JP7085812B2 (ja) 画像処理装置およびその制御方法
EP2555163A1 (en) Image processing apparatus, image processing method, and program
EP3213504B1 (en) Image data segmentation
EP3454254B1 (en) Image processing apparatus, image providing apparatus, control methods thereof, and program
US8218823B2 (en) Determining main objects using range information
CN109981989B (zh) 渲染图像的方法、装置、电子设备和计算机可读存储介质
KR101662738B1 (ko) 영상 처리 방법 및 그 장치
US20170200062A1 (en) Method of determination of stable zones within an image stream, and portable device for implementing the method
CN117459662A (zh) 一种视频播放方法、识别方法、装置、设备及存储介质
JP2018097490A (ja) 情報処理装置、方法およびプログラム
US20220283698A1 (en) Method for operating an electronic device in order to browse through photos
CN113805824B (zh) 电子装置以及在显示设备上显示图像的方法
CN113515978B (zh) 数据处理方法、设备及存储介质
JP7099809B2 (ja) 画像監視システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190829

Year of fee payment: 4