KR20150100113A - 영상 처리 장치 및 이의 영상 처리 방법 - Google Patents

영상 처리 장치 및 이의 영상 처리 방법 Download PDF

Info

Publication number
KR20150100113A
KR20150100113A KR1020140021485A KR20140021485A KR20150100113A KR 20150100113 A KR20150100113 A KR 20150100113A KR 1020140021485 A KR1020140021485 A KR 1020140021485A KR 20140021485 A KR20140021485 A KR 20140021485A KR 20150100113 A KR20150100113 A KR 20150100113A
Authority
KR
South Korea
Prior art keywords
texture
type
image
area
database
Prior art date
Application number
KR1020140021485A
Other languages
English (en)
Inventor
손영욱
김혜문
최재혁
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140021485A priority Critical patent/KR20150100113A/ko
Priority to US14/529,294 priority patent/US9678991B2/en
Publication of KR20150100113A publication Critical patent/KR20150100113A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5862Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/282Hierarchical databases, e.g. IMS, LDAP data stores or Lotus Notes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/54Extraction of image or video features relating to texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

영상 처리 장치 및 이의 영상 처리 방법이 제공된다. 본 영상 처리 장치의 영상 처리 방법은 오브젝트의 텍스쳐(texture) 특성에 따라 입력된 영상으로부터 적어도 하나의 텍스쳐 영역을 추출하고, 적어도 하나의 텍스쳐 영역 각각을 상기 텍스쳐 영역에 대응되는 영상 설정값으로 처리하며, 영상 설정값으로 처리된 텍스쳐 영역을 병합하여 하나의 영상으로 출력한다.

Description

영상 처리 장치 및 이의 영상 처리 방법{Apparatus and Method for processing image thereof}
본 발명은 영상 처리 장치 및 이의 영상 처리 방법에 관한 것으로 더욱 상세하게는 오브젝트의 텍스쳐 특성에 따라 영상을 처리하는 영상 처리 장치 및 이의 영상 처리 방법에 관한 것이다.
영상의 텍스쳐(texture) 특성에 대한 표현을 강화하기 위해, 기존에는 다양한 방법을 이용하여 영상을 처리하였다. 예를 들어, 기존의 영상 처리 장치는 세부 향상(Detail enhancement) 기법, 초해상도(super resolution) 기법을 이용하여 영상 처리를 수행함으로써, 영상의 텍스쳐 특성에 대한 표현을 강화하였다.
그러나, 이러한 방법들은 영상 내에서 고주파 특성 등 일반적인 항목만을 고려하기 때문에 시청자가 원하는 수준의 질감을 표현하는데 한계가 존재하였다. 구체적으로, 기존의 방법들은 화면 전체에 동일한 세팅을 적용하므로, 일부 영역에서는 효과가 나타나나 다른 영역에서는 특성에 맞지 않는 설정값이 적용되어 화질 개선 효과가 반감될 수 있다.
따라서, 이러한 문제점을 해결하기 위해, 근래에는 영상을 분할하여, 분할된 영역 중 일부 영역에만 화질 개선을 위한 영상 설정값을 적용하여 처리하는 방법이 적용되고 있다. 그러나, 이러한 방법 역시 화질 개선을 위한 영상 설정값을 적용하는 일부 영역에만 화질 개선 효과가 나타나며, 다른 영역에는 화질 개선 효과가 반감되는 문제점이 발생하였다. 또한, 이러한 방법은 오브젝트별로 상이한 영상 처리가 필요한 경우(예를 들어, 잔디밭, 초록색 옷)에도 동일한 영상 설정값을 적용함으로써 부자연스러운 영상이 출력되는 문제점이 발생하였다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 텍스쳐 특성에 따라 상이한 영상 설정값을 적용하여 영상을 처리함으로써, 사용자에게 더욱 선명한 화질을 제공할 수 있는 영상 처리 장치 및 이의 영상 처리 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 영상 처리 장치의 영상 처리 방법은, 오브젝트의 텍스쳐(texture) 특성에 따라 입력된 영상으로부터 적어도 하나의 텍스쳐 영역을 추출하는 단계; 상기 적어도 하나의 텍스쳐 영역 각각을 상기 텍스쳐 영역에 대응되는 영상 설정값으로 처리하는 단계; 및 상기 영상 설정값으로 처리된 텍스쳐 영역을 병합하여 출력하는 단계;를 포함한다.
그리고, 상기 추출하는 단계는, 입력된 영상으로부터 적어도 하나의 오브젝트를 추출하는 단계; 상기 추출된 적어도 하나의 오브젝트 각각을 적어도 하나의 텍스쳐(texture) 영역으로 분리하는 단계;를 포함할 수 있다.
또한, 상기 추출하는 단계는, 상기 적어도 하나의 텍스쳐 영역의 오브젝트 유형에 대한 정보 및 텍스쳐 유형에 대한 정보를 함께 추출할 수 있다.
그리고, 상기 영상 설정값은 오브젝트 유형 및 텍스쳐 유형에 따라 데이터베이스에 기 저장되며, 상기 처리하는 단계는, 상기 추출된 텍스쳐 영역 각각에 대한 오브젝트 유형 정보 및 텍스쳐 유형 정보를 바탕으로 상기 데이터베이스를 이용하여 상기 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색하는 단계; 및 상기 검색된 영상 설정값을 이용하여 상기 적어도 하나의 텍스쳐 영역 각각을 처리하는 단계;를 포함할 수 있다.
또한, 상기 데이터베이스는, 오브젝트 유형을 상위 레벨로 분류하고, 텍스쳐 유형을 상기 오브젝트 유형의 하위 레벨로 분류하는 계층적인 구조를 이룰 수 있다.
그리고, 상기 데이터베이스는, 동일한 텍스쳐 유형이라도 오브젝트 유형에 따라 상이한 영상 설정값을 저장할 수 있다.
또한, 상기 데이터베이스에 저장된 동일한 오브젝트에 포함된 복수의 텍스쳐 유형에 대한 영상 설정값은 기설정된 범위 이내의 값을 가질 수 있다.
그리고, 상기 처리하는 단계는, 상기 검색 결과 상기 추출된 적어도 하나의 텍스쳐 영역 중 특정 텍스쳐 영역이 상기 데이터베이스에 저장된 오브젝트 유형 및 텍스쳐 유형에 해당하지 않는 것으로 검색된 경우, 기설정된 영상 처리값을 이용하여 상기 특정 텍스쳐 영역을 처리할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 영상 처리 장치는, 오브젝트의 텍스쳐(texture) 특성에 따라 입력된 영상으로부터 적어도 하나의 텍스쳐 영역을 추출하는 텍스쳐 영역 추출부; 상기 적어도 하나의 텍스쳐 영역 각각을 상기 텍스쳐 영역에 대응되는 영상 설정값으로 처리하고, 상기 영상 설정값으로 처리된 텍스쳐 영역을 병합하는 영상 처리부; 및 상기 병합된 영상을 출력하는 출력부;;를 포함한다.
그리고, 상기 텍스쳐 영역 추출부는, 입력된 영상으로부터 적어도 하나의 오브젝트를 추출하는 오브젝트 추출부; 및 상기 추출된 적어도 하나의 오브젝트 각각을 적어도 하나의 텍스쳐(texture) 영역으로 분리하는 텍스쳐 영역 분리부;를 포함할 수 있다.
또한, 상기 텍스쳐 영역 추출부는, 상기 적어도 하나의 텍스쳐 영역의 오브젝트 유형에 대한 정보 및 텍스쳐 유형에 대한 정보를 함께 추출할 수 있다.
그리고, 오브젝트 유형 및 텍스쳐 유형에 따라 영상 설정값을 저장하는 데이터베이스;를 더 포함하며, 상기 영상 처리부는, 상기 추출된 텍스쳐 영역 각각에 대한 오브젝트 유형 정보 및 텍스쳐 유형 정보를 바탕으로 상기 데이터베이스를 이용하여 상기 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색하는 영상 설정값 검색부; 및 상기 검색된 영상 설정값을 상기 적어도 하나의 텍스쳐 영역 각각을 적용하여 상기 적어도 하나의 텍스쳐 영역을 처리하는 영상 설정값 적용부;를 포함할 수 있다.
또한, 상기 데이터베이스는, 오브젝트 유형을 상위 레벨로 분류하고, 텍스쳐 유형을 상기 오브젝트 유형의 하위 레벨로 분류하는 계층적인 구조를 이룰 수 있다.
그리고, 상기 데이터베이스는, 동일한 텍스쳐 유형이라도 오브젝트 유형에 따라 상이한 영상 설정값을 저장할 수 있다.
또한, 상기 데이터베이스에 저장된 동일한 오브젝트에 포함된 복수의 텍스쳐 유형에 대한 영상 설정값은 기설정된 범위 이내의 값을 가질 수 있다.
그리고, 상기 영상 설정값 적용부는, 상기 검색 결과 상기 추출된 적어도 하나의 텍스쳐 영역 중 특정 텍스쳐 영역이 상기 데이터베이스에 저장된 오브젝트 유형 및 텍스쳐 유형에 해당하지 않는 것으로 검색된 경우, 기설정된 영상 처리값을 이용하여 상기 특정 텍스쳐 영역에 적용하여 상기 특정 텍스쳐 영역을 처리할 수 있다.
상술한 바와 같은 본 발명의 다양한 실시예에 의해, 영상 처리 장치가 오브젝트 및 텍스쳐 특성에 따라 영상을 처리함으로써, 사용자에게 더욱 선명한 화질을 제공할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른, 영상 처리 장치의 구성을 나타내는 블럭도를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 영상 처리 장치의 구성을 상세히 나타내는 블럭도를 도시한 도면,
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른, 텍스쳐 영역을 추출하는 방법을 설명하기 위한 도면,
도 4는 본 발명의 일 실시예에 따른, 영상 설정값을 저장하는 데이터베이스를 도시한 도면,
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른, 동일한 유형의 오브젝트가 복수개 존재하는 경우 텍스쳐 영역을 추출하는 방법을 설명하기 위한 도면,
도 6은 본 발명의 다른 실시예에 따른, 동일한 유형의 오브젝트가 복수개 존재하는 경우, 영상 설정값을 저장하는 데이터베이스를 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 영상 처리 방법을 설명하기 위한 흐름도이다.
본 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시예에 있어서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의‘모듈’ 혹은 복수의‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하, 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른, 영상 처리 장치(100)의 구성을 나타내는 블럭도이다. 도 1에 도시된 바와 같이, 영상 처리 장치(100)는 텍스쳐 영역 추출부(110), 영상 처리부(120) 및 출력부(130)를 포함한다. 한편, 본 발명의 일 실시예에 따른 영상 처리 장치(100)는 스마트 TV로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 데스크탑 PC, 노트북 PC, 태블릿 PC, 셋탑 박스 등과 같은 다양한 영상 처리 장치로 구현될 수 있다.
텍스쳐 영역 추출부(110)는 오브젝트의 텍스쳐 특성에 따라 입력 영상으로부터 적어도 하나의 텍스쳐 영역을 추출할 수 있다. 이때, 텍스쳐 특성이라 함은, 오브젝트 표면의 질감에 대한 특징을 의미한다. 예를 들어, 오브젝트가 사람인 경우, 사람은 얼굴과 옷이라는 상이한 텍스쳐 특성을 가질 수 있다.
특히, 텍스쳐 영역 추출부(110)는 입력된 영상으로부터 적어도 하나의 오브젝트를 추출하고, 추출된 적어도 오브젝트 각각을 적어도 하나의 텍스쳐 영역으로 분리하여 적어도 하나의 텍스쳐 영역을 추출할 수 있다. 즉, 하나의 오브젝트에도 복수의 텍스쳐 영역이 추출될 수 있다. 예를 들어, 오브젝트가 사람인 경우, 텍스쳐 영역 추출부(110)는 얼굴에 대한 텍스쳐 영역 및 옷에 대한 텍스쳐 영역으로 분리하여 추출할 수 있다. 이때, 텍스쳐 영역 추출부(110)는 오브젝트 유형에 대한 정보 및 텍스쳐 유형에 대한 정보를 함께 추출할 수 있다.
그리고, 영상 처리부(120)는 적어도 하나의 텍스쳐 영역 각각에 대응되는 영상 설정값으로 적용하여 적어도 하나의 텍스쳐 영역을 처리할 수 있다. 구체적으로, 영상 처리부(120)는 추출된 텍스쳐 영역의 오브젝트 유형 및 텍스쳐 유형을 판단하고, 기 저장된 복수의 영상 설정값 중 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색할 수 있다. 그리고, 영상 처리부(120)는 검색된 영상 설정값을 각각의 텍스쳐 영역에 적용하여 텍스쳐 영역을 처리할 수 있다. 그리고, 영상 처리부(120)는 대응되는 영상 설정값을 적용하여 처리된 텍스쳐 영역을 병합하여 하나의 영상을 생성할 수 있다.
출력부(130)는 영상 처리부(120)에 의해 영상 처리된 영상을 출력한다. 이때, 출력부(130)는 디스플레이로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 외부의 디스플레이 장치로 영상 데이터를 출력하는 영상 출력 단자로 구현될 수 있다.
상술한 바와 같이, 텍스쳐 특성을 기반으로 영상을 분할하고, 분할된 영상에 텍스쳐 특성에 대응되는 영상 처리를 수행함으로써, 사용자는 더욱 선명한 화질을 제공받을 수 있게 된다.
이하에서는 도 2 내지 도 6을 참조하여 영상 처리 장치에 대해 더욱 상세히 설명하도록 한다. 도 2는 본 발명의 일 실시예에 따른, 영상 처리 장치(100)의 구성을 상세히 나타내는 블럭도이다. 도 2에 도시된 바와 같이, 영상 처리 장치(100)는 텍스쳐 영역 추출부(110), 영상 처리부(120), 출력부(130) 및 데이터베이스(140)를 포함한다.
텍스쳐 영역 추출부(110)는 오브젝트의 텍스쳐 특성에 따라 입력 영상으로부터 적어도 하나의 텍스쳐 영역을 추출한다. 특히, 텍스쳐 영역 추출부(110)는 도 2에 도시된 바와 같이, 오브젝트 추출부(111) 및 텍스쳐 영역 분리부(113)를 포함할 수 있다.
오브젝트 추출부(111)는 입력 영상으로부터 오브젝트를 추출한다. 본 발명의 일 실시예로, 오브젝트 추출부(111)는 입력된 영상의 픽셀 중 주변의 픽셀과 기설정된 값 이상 차이가 존재하는 픽셀을 검출하여 오브젝트의 외곽선을 판단할 수 있다. 그리고, 오브젝트 추출부(111)는 판단된 오브젝트의 형상 및 색상을 검출하여 오브젝트의 유형을 판단할 수 있다. 예를 들어, 도 3a에 도시된 바와 같은 영상이 입력된 경우, 오브젝트 추출부(110)는 픽셀 값의 변화를 이용하여 오브젝트의 외곽선을 판단할 수 있다. 그리고, 오브젝트 추출부(110)는 오브젝트의 형상 및 색상을 이용하여 도 3b에 도시된 바와 같이, 하늘 배경 오브젝트(310), 잔디 배경 오브젝트(320) 및 사람 오브젝트(330)를 추출할 수 있다.
그러나, 상술한 바와 같이, 오브젝트를 추출하여 오브젝트의 유형을 판단하는 것은 일 실시예에 불과할 뿐, 다른 방법을 이용하여 오브젝트를 추출하여 오브젝트의 유형을 판단할 수 있다. 예를 들어, 오브젝트 추출부(111)는 종래의 얼굴 인식 방법 등을 이용하여 오브젝트를 추출하여 오브젝트의 유형을 판단할 수 있다.
텍스쳐 영역 분리부(113)는 추출된 오브젝트를 적어도 하나의 텍스쳐 영역으로 분리한다. 구체적으로, 텍스쳐 영역 분리부(113)는 동일한 오브젝트 내에서 상이한 텍스쳐 특성을 가지는 텍스쳐 영역을 분리할 수 있다. 그리고, 텍스쳐 영역 분리부(113)는 분리된 텍스쳐 영역의 형상, 색상, 특징점 등을 이용하여 텍스쳐 영역의 유형을 판단할 수 있다. 예를 들어, 도 3b에 도시된 바와 같이, 3개의 오브젝트가 분리된 후, 텍스쳐 영역 분리부(113)는 오브젝트의 색상 및 형상을 이용하여 사람 오브젝트(330)를 얼굴에 대응되는 제3 텍스쳐 영역(331) 및 옷에 대응되는 제4 텍스쳐 영역(333)으로 분리할 수 있다.
영상 처리부(120)는 추출된 적어도 하나의 텍스쳐 영역 각각에 대응되는 영상 설정값을 적용하여 추출된 적어도 하나의 텍스쳐 영역에 대한 영상 처리를 수행한다. 여기서, 영상 설정값은 DE(Detail Enhancement) 설정값, SR(Super Resolution) 설정값, 밝기값 등과 같은 다양한 영상 설정값 일 수 있으나, 이는 일 실시예에 불과할 뿐, 명암비, 선명도 등과 같은 다양한 영상 설정값이 적용될 수 있다.
특히, 영상 처리부(120)는 도 2에 도시된 바와 같이, 영상 설정값 검색부(121) 및 영상 설정값 적용부(123)를 포함할 수 있다. 영상 설정값 검색부(121)는 오브젝트 유형 및 텍스쳐 유형에 따라 영상 설정값이 저장된 데이터베이스(140)를 이용하여 적어도 하나의 텍스쳐 영역 각각에 대한 영상 설정값을 검색한다.
이때, 데이터베이스(140)는 오브젝트 유형을 상위 레벨로 분류하고, 텍스쳐 유형을 오브젝트 유형의 하위 레벨로 분류하는 계층적인 구조를 이룰 수 있다. 예를 들어, 데이터베이스(140)는 도 4에 도시된 바와 같이, 오브젝트 유형을 사람, 텍스트, 자연 등으로 구분할 수 있다. 또한, 데이터베이스(140)는 오브젝트 유형이 사람인 텍스쳐 유형을 얼굴 텍스쳐 유형 및 옷 텍스쳐 유형으로 구분할 수 있다. 또한, 데이터베이스(140)는 오브젝트 유형이 텍스트인 텍스쳐 유형을 자막 유형, 로고 유형 등으로 구분할 수 있다. 또한, 데이터베이스(140)는 오브젝트 유형이 자연인 텍스쳐 유형을 하늘 유형, 잔디 유형 등으로 구분할 수 있다.
또한, 데이터베이스(140)에 저장된 동일한 오브젝트에 포함된 복수의 텍스쳐 유형에 대한 영상 설정값은 기설정된 범위 이내의 값을 가질 수 있다. 구체적으로, 도 4의 사람 오브젝트 유형에 포함된 얼굴 텍스쳐 유형 및 옷 텍스쳐 유형에 대한 복수의 영상 설정값은 기설정된 범위 이내의 값을 가질 수 있다. 예를 들어, 사람 오브젝트 유형 중 얼굴 텍스쳐 유형의 DE(Detail Enhancemnet) 설정값인 DE1과 옷 텍스쳐 유형의 DE2는 기설정된 범위 이내의 값을 가질 수 있다.
상술한 바와 같이, 동일한 오브젝트에 포함된 복수의 텍스쳐 유형에 대한 영상 설정값이 기설정된 범위 이내를 가짐으로써, 동일한 오브젝트에 대해 유사한 영상 설정값을 적용할 수 있으므로, 부자연스러운 영상 처리를 방지할 수 있게 된다.
영상 설정값 검색부(121)는 텍스쳐 영역 추출부(110)에서 추출된 텍스쳐 영역 각각에 대한 오브젝트 유형 정보 및 텍스쳐 유형 정보를 바탕으로 데이터베이스(140)를 이용하여 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색할 수 있다.
예를 들어, 제1 텍스쳐 영역(310)의 오브젝트 유형이 자연이고, 텍스쳐 유형이 잔디인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제1 텍스쳐 영역(310)의 영상 설정값 중 DE 설정값을 DE6, SR 설정값을 SR6, 밝기 설정값을 B6로 검색할 수 있다. 또한, 제2 텍스쳐 영역(320)의 오브젝트 유형이 자연이고, 텍스쳐 유형이 하늘인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제2 텍스쳐 영역(320)의 영상 설정값 중 DE 설정값을 DE5, SR 설정값을 SR5, 밝기 설정값을 B5로 검색할 수 있다. 또한, 제3 텍스쳐 영역(331)의 오브젝트 유형이 사람이고, 텍스쳐 유형이 얼굴인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제3 텍스쳐 영역(331)의 영상 설정값 중 DE 설정값을 DE1, SR 설정값을 SR1, 밝기 설정값을 B1로 검색할 수 있다. 또한, 제4 텍스쳐 영역(333)의 오브젝트 유형이 사람이고, 텍스쳐 유형이 옷인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제4 텍스쳐 영역(333)의 영상 설정값 중 DE 설정값을 DE2, SR 설정값을 SR2, 밝기 설정값을 B2로 검색할 수 있다.
영상 설정값 적용부(123)는 영상 설정값 검색부(121)에서 검색된 영상 설정값을 텍스쳐 영역에 적용하여 영상 처리를 수행할 수 있다. 예를 들어, 영상 설정값 적용부(123)는 제1 텍스쳐 영역(310)에 DE 설정값 DE6, SR 설정값 SR6, 밝기 설정값 B6를 적용하여 영상 처리를 수행할 수 있다. 또한, 영상 설정값 적용부(123)는 제2 텍스쳐 영역(320)에 DE 설정값 DE5, SR 설정값 SR5, 밝기 설정값 B5를 적용하여 영상 처리를 수행할 수 있다. 또한, 영상 설정값 적용부(123)는 제3 텍스쳐 영역(331)에 DE 설정값 DE1, SR 설정값 SR1, 밝기 설정값 B1를 적용하여 영상 처리를 수행할 수 있다. 또한, 영상 설정값 적용부(123)는 제4 텍스쳐 영역(333)에 DE 설정값 DE2, SR 설정값 SR2, 밝기 설정값 B2를 적용하여 영상 처리를 수행할 수 있다.
그리고, 영상 처리부(120)는 영상 설정값이 적용된 각각의 텍스쳐 영역을 병합하여 하나의 영상 데이터를 생성한다.
출력부(130)는 영상 처리가 수행된 텍스쳐 영역을 병합하여 생성된 영상 데이터를 출력한다. 이때, 출력부(130)는 디스플레이를 통해 영상 데이터를 디스플레이할 수 있으며, 영상 출력 단자를 통해 외부의 디스플레이 장치로 영상 데이터를 출력할 수 있다.
상술한 바와 같이, 영상 처리 장치(100)가 오브젝트 유형 및 텍스쳐 유형에 따라 영상을 처리함으로써, 사용자는 더욱 선명한 화질의 영상을 제공받을 수 있게 된다.
한편, 영상에 포함된 적어도 하나의 오브젝트 중 동일한 유형의 오브젝트가 복수 개 존재하는 경우, 영상 처리 장치(100)는 동일한 유형의 오브젝트라고 하더라도 오브젝트마다 상이한 영상 설정값을 적용할 수 있다.
구체적으로, 도 5a에 도시된 바와 같은 영상이 입력된 경우, 오브젝트 추출부(110)는 픽셀 값의 변화를 이용하여 오브젝트의 외곽선을 판단할 수 있다. 그리고, 오브젝트 추출부(110)는 오브젝트의 형상 및 색상을 이용하여 도 5b에 도시된 바와 같이, 하늘 배경 오브젝트(510), 잔디 배경 오브젝트(520), 제1 사람 오브젝트(530) 및 제2 사람 오브젝트(540)를 추출할 수 있다. 이때, 오브젝트 추출부(110)는 오브젝트의 유형과 함께 제1 사람 오브젝트(530)가 제2 사람 오브젝트보다 앞에 위치하는 것으로 판단할 수 있다.
그리고, 텍스쳐 영역 분리부(113)는 오브젝트의 색상 및 형상을 이용하여 제1 사람 오브젝트(530)를 얼굴에 대응되는 제3 텍스쳐 영역(531) 및 옷에 대응되는 제4 텍스쳐 영역(533)으로 분리할 수 있으며, 제2 사람 오브젝트(540)를 얼굴에 대응되는 제5 텍스쳐 영역(541) 및 옷에 대응되는 제6 텍스쳐 영역(543)으로 분리할 수 있다.
영상 처리부(120)는 데이터베이스(140)를 이용하여 추출된 적어도 하나의 텍스쳐 영역 각각에 대응되는 영상 설정값을 검색하고, 검색된 영상 설정값을 추출된 복수의 텍스쳐 영역에 적용할 수 있다.
이때, 데이터베이스(140)는 동일한 오브젝트 유형이더라도 오브젝트의 위치나 크기에 따라 상이한 영상 설정값을 저장할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 데이터베이스(140)는 동일한 사람 오브젝트 유형이더라도 위치나 크기에 따라 "사람 1" 오브젝트 유형 및 "사람 2" 오브젝트 유형으로 구분할 수 있다. 이때, "사람 1" 오브젝트 유형에 대응되는 사람은 "사람 2" 오브젝트 유형에 대응되는 사람보다 앞서 위치하거나 큰 사람일 수 있다. 즉, 데이터베이스(140)는 동일한 유형을 가지는 적어도 하나의 오브젝트를 위치 및 크기에 따라 상이한 유형의 오브젝트로 저장할 수 있다. 따라서, 데이터베이스(140)는 동일한 텍스쳐 유형이라도 오브젝트 유형에 따라 상이한 영상 설정값을 저장할 수 있다. 예를 들어, 데이터베이스(140)는 얼굴 텍스쳐 유형이더라도 "사람 1" 오브젝트 유형의 얼굴 텍스쳐 유형은 DE 설정값을 DE1, SR 설정값을 SR1, 밝기 설정값을 B1로 저장할 수 있으며, "사람 2" 오브젝트 유형의 얼굴 텍스쳐 유형은 DE 설정값을 DE3, SR 설정값을 SR3, 밝기 설정값을 B3로 저장할 수 있다.
그리고, 영상 설정값 검색부(121)는 텍스쳐 영역 추출부(110)에서 추출된 텍스쳐 영역 각각에 대한 오브젝트 유형 정보 및 텍스쳐 유형 정보를 바탕으로 데이터베이스(140)를 이용하여 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색할 수 있다.
예를 들어, 제1 텍스쳐 영역(510)의 오브젝트 유형이 자연이고, 텍스쳐 유형이 잔디인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제1 텍스쳐 영역(510)의 영상 설정값 중 DE 설정값을 DE6, SR 설정값을 SR6, 밝기 설정값을 B6로 검색할 수 있다. 또한, 제2 텍스쳐 영역(520)의 오브젝트 유형이 자연이고, 텍스쳐 유형이 하늘인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제2 텍스쳐 영역(520)의 영상 설정값 중 DE 설정값을 DE5, SR 설정값을 SR5, 밝기 설정값을 B5로 검색할 수 있다. 또한, 제3 텍스쳐 영역(531)의 오브젝트 유형이 "사람 1"이고, 텍스쳐 유형이 얼굴인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제3 텍스쳐 영역(531)의 영상 설정값 중 DE 설정값을 DE1, SR 설정값을 SR1, 밝기 설정값을 B1로 검색할 수 있다. 또한, 제4 텍스쳐 영역(533)의 오브젝트 유형이 "사람 1"이고, 텍스쳐 유형이 옷인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제4 텍스쳐 영역(533)의 영상 설정값 중 DE 설정값을 DE2, SR 설정값을 SR2, 밝기 설정값을 B2로 검색할 수 있다. 또한, 제5 텍스쳐 영역(541)의 오브젝트 유형이 "사람 2"이고, 텍스쳐 유형이 얼굴인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제5 텍스쳐 영역(541)의 영상 설정값 중 DE 설정값을 DE3, SR 설정값을 SR3, 밝기 설정값을 B3로 검색할 수 있다. 또한, 제6 텍스쳐 영역(543)의 오브젝트 유형이 "사람 2"이고, 텍스쳐 유형이 옷인 경우, 영상 설정값 검색부(121)는 데이터베이스(140)를 이용하여 제6 텍스쳐 영역(543)의 영상 설정값 중 DE 설정값을 DE4, SR 설정값을 SR4, 밝기 설정값을 B4로 검색할 수 있다.
그리고, 영상 설정값 적용부(123)는 영상 설정값 검색부(121)에서 검색된 영상 설정값을 텍스쳐 영역에 적용하여 영상 처리를 수행할 수 있다.
상술한 바와 같이, 동일한 유형의 오브젝트라도 위치 및 크기에 따라 상이한 영상 설정값을 적용하여 영상을 처리함으로써, 사용자는 더욱 자연스럽고 선명한 화질의 영상을 시청할 수 있게 된다.
이하에서는 도 7을 참조하여 영상 처리 방법에 대해 더욱 상세히 설명하도록 한다.
우선, 영상 처리 장치(100)는 영상을 입력받는다(S710). 이때, 영상에는 적어도 하나의 오브젝트를 포함할 수 있다.
영상 처리 장치(100)는 오브젝트의 텍스쳐 특성에 따라 입력된 영상으로부터 적어도 하나의 텍스쳐 영역을 추출한다(S720). 구체적으로, 영상 처리 장치(100)는 입력된 영상으로부터 적어도 하나의 오브젝트를 추출하고, 추출된 적어도 오브젝트 각각을 적어도 하나의 텍스쳐 영역으로 분리하여 적어도 하나의 텍스쳐 영역을 추출할 수 있다. 이때, 영상 처리 장치(100)는 오브젝트 유형에 대한 정보 및 텍스쳐 유형에 대한 정보를 함께 추출할 수 있다.
그리고, 영상 처리 장치(100)는 적어도 하나의 텍스쳐 영역 각각에 대응되는 영상 설정값으로 적용하여 적어도 하나의 텍스쳐 영역을 처리한다(S730). 구체적으로, 영상 처리 장치(100)는 추출된 텍스쳐 영역의 오브젝트 유형 및 텍스쳐 유형을 판단하고, 데이터베이스(140)에 저장된 복수의 영상 설정값 중 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색할 수 있다. 그리고, 영상 처리 장치(100)는 검색된 영상 설정값을 각각의 텍스쳐 영역에 적용하여 텍스쳐 영역을 처리할 수 있다.
그리고, 영상 처리 장치(100)는 대응되는 영상 설정값을 적용하여 처리된 텍스쳐 영역을 병합한다(S740).
그리고, 영상 처리 장치(100)는 영상을 출력한다(S750). 이때, 영상 처리 장치(100)는 디스플레이를 통해 영상을 디스플레이할 수 있으며, 영상 출력 단자를 통해 영상을 외부의 디스플레이 장치로 전송할 수 있다.
출력부(130)는 영상 처리부(120)에 의해 영상 처리된 영상을 출력한다. 이때, 출력부(130)는 디스플레이로 구현될 수 있으나, 이는 일 실시예에 불과할 뿐, 외부의 디스플레이 장치로 영상 데이터를 출력하는 영상 출력 단자로 구현될 수 있다.
본 실시예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
110: 텍스쳐 영역 추출부 120: 영상 처리부
130: 출력부 140: 데이터베이스

Claims (16)

  1. 영상 처리 장치의 영상 처리 방법에 있어서,
    오브젝트의 텍스쳐(texture) 특성에 따라 입력된 영상으로부터 적어도 하나의 텍스쳐 영역을 추출하는 단계;
    상기 적어도 하나의 텍스쳐 영역 각각을 상기 텍스쳐 영역에 대응되는 영상 설정값으로 처리하는 단계; 및
    상기 영상 설정값으로 처리된 텍스쳐 영역을 병합하여 출력하는 단계;를 포함하는 영상 처리 방법.
  2. 제1항에 있어서,
    상기 추출하는 단계는,
    입력된 영상으로부터 적어도 하나의 오브젝트를 추출하는 단계;
    상기 추출된 적어도 하나의 오브젝트 각각을 적어도 하나의 텍스쳐(texture) 영역으로 분리하는 단계;를 포함하는 영상 처리 방법.
  3. 제1항에 있어서,
    상기 추출하는 단계는,
    상기 적어도 하나의 텍스쳐 영역의 오브젝트 유형에 대한 정보 및 텍스쳐 유형에 대한 정보를 함께 추출하는 것을 특징으로 하는 영상 처리 방법.
  4. 제3항에 있어서,
    상기 영상 설정값은 오브젝트 유형 및 텍스쳐 유형에 따라 데이터베이스에 기 저장되며,
    상기 처리하는 단계는,
    상기 추출된 텍스쳐 영역 각각에 대한 오브젝트 유형 정보 및 텍스쳐 유형 정보를 바탕으로 상기 데이터베이스를 이용하여 상기 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색하는 단계; 및
    상기 검색된 영상 설정값을 이용하여 상기 적어도 하나의 텍스쳐 영역 각각을 처리하는 단계;를 포함하는 영상 처리 방법.
  5. 제4항에 있어서,
    상기 데이터베이스는,
    오브젝트 유형을 상위 레벨로 분류하고, 텍스쳐 유형을 상기 오브젝트 유형의 하위 레벨로 분류하는 계층적인 구조를 이루는 것을 특징으로 하는 영상 처리 방법.
  6. 제5항에 있어서,
    상기 데이터베이스는,
    동일한 텍스쳐 유형이라도 오브젝트 유형에 따라 상이한 영상 설정값을 저장하는 것을 특징으로 하는 영상 처리 방법.
  7. 제5항에 있어서,
    상기 데이터베이스에 저장된 동일한 오브젝트에 포함된 복수의 텍스쳐 유형에 대한 영상 설정값은 기설정된 범위 이내의 값을 가지는 것을 특징으로 하는 영상 처리 방법.
  8. 제4항에 있어서,
    상기 처리하는 단계는,
    상기 검색 결과 상기 추출된 적어도 하나의 텍스쳐 영역 중 특정 텍스쳐 영역이 상기 데이터베이스에 저장된 오브젝트 유형 및 텍스쳐 유형에 해당하지 않는 것으로 검색된 경우, 기설정된 영상 처리값을 이용하여 상기 특정 텍스쳐 영역을 처리하는 것을 특징으로 하는 영상 처리 방법.
  9. 영상 처리 장치에 있어서,
    오브젝트의 텍스쳐(texture) 특성에 따라 입력된 영상으로부터 적어도 하나의 텍스쳐 영역을 추출하는 텍스쳐 영역 추출부;
    상기 적어도 하나의 텍스쳐 영역 각각을 상기 텍스쳐 영역에 대응되는 영상 설정값으로 처리하고, 상기 영상 설정값으로 처리된 텍스쳐 영역을 병합하는 영상 처리부; 및
    상기 병합된 영상을 출력하는 출력부;를 포함하는 영상 처리 장치.
  10. 제9항에 있어서,
    상기 텍스쳐 영역 추출부는,
    입력된 영상으로부터 적어도 하나의 오브젝트를 추출하는 오브젝트 추출부; 및
    상기 추출된 적어도 하나의 오브젝트 각각을 적어도 하나의 텍스쳐(texture) 영역으로 분리하는 텍스쳐 영역 분리부;를 포함하는 영상 처리 장치.
  11. 제10항에 있어서,
    상기 텍스쳐 영역 추출부는,
    상기 적어도 하나의 텍스쳐 영역의 오브젝트 유형에 대한 정보 및 텍스쳐 유형에 대한 정보를 함께 추출하는 것을 특징으로 하는 영상 처리 장치.
  12. 제11항에 있어서,
    오브젝트 유형 및 텍스쳐 유형에 따라 영상 설정값을 저장하는 데이터베이스;를 더 포함하며,
    상기 영상 처리부는,
    상기 추출된 텍스쳐 영역 각각에 대한 오브젝트 유형 정보 및 텍스쳐 유형 정보를 바탕으로 상기 데이터베이스를 이용하여 상기 판단된 오브젝트 유형 및 텍스쳐 유형에 대응되는 영상 설정값을 검색하는 영상 설정값 검색부; 및
    상기 검색된 영상 설정값을 상기 적어도 하나의 텍스쳐 영역 각각을 적용하여 상기 적어도 하나의 텍스쳐 영역을 처리하는 영상 설정값 적용부;를 포함하는 영상 처리 장치.
  13. 제12항에 있어서,
    상기 데이터베이스는,
    오브젝트 유형을 상위 레벨로 분류하고, 텍스쳐 유형을 상기 오브젝트 유형의 하위 레벨로 분류하는 계층적인 구조를 이루는 것을 특징으로 하는 영상 처리 장치.
  14. 제13항에 있어서,
    상기 데이터베이스는,
    동일한 텍스쳐 유형이라도 오브젝트 유형에 따라 상이한 영상 설정값을 저장하는 것을 특징으로 하는 영상 처리 장치.
  15. 제13항에 있어서,
    상기 데이터베이스에 저장된 동일한 오브젝트에 포함된 복수의 텍스쳐 유형에 대한 영상 설정값은 기설정된 범위 이내의 값을 가지는 것을 특징으로 하는 영상 처리 장치.
  16. 제12항에 있어서,
    상기 영상 설정값 적용부는,
    상기 검색 결과 상기 추출된 적어도 하나의 텍스쳐 영역 중 특정 텍스쳐 영역이 상기 데이터베이스에 저장된 오브젝트 유형 및 텍스쳐 유형에 해당하지 않는 것으로 검색된 경우, 기설정된 영상 처리값을 이용하여 상기 특정 텍스쳐 영역에 적용하여 상기 특정 텍스쳐 영역을 처리하는 것을 특징으로 하는 영상 처리 장치.
KR1020140021485A 2014-02-24 2014-02-24 영상 처리 장치 및 이의 영상 처리 방법 KR20150100113A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140021485A KR20150100113A (ko) 2014-02-24 2014-02-24 영상 처리 장치 및 이의 영상 처리 방법
US14/529,294 US9678991B2 (en) 2014-02-24 2014-10-31 Apparatus and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140021485A KR20150100113A (ko) 2014-02-24 2014-02-24 영상 처리 장치 및 이의 영상 처리 방법

Publications (1)

Publication Number Publication Date
KR20150100113A true KR20150100113A (ko) 2015-09-02

Family

ID=53882407

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140021485A KR20150100113A (ko) 2014-02-24 2014-02-24 영상 처리 장치 및 이의 영상 처리 방법

Country Status (2)

Country Link
US (1) US9678991B2 (ko)
KR (1) KR20150100113A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565743B1 (en) * 2017-11-21 2020-02-18 Snap Inc. Synthesizing cloud stickers
CN110717005B (zh) * 2019-10-10 2022-06-24 支付宝(杭州)信息技术有限公司 一种热力图纹理的生成方法、装置及设备
US11872832B2 (en) * 2021-12-22 2024-01-16 Idemia Identity & Security France Texture-based authentication of digital identity documents

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
US6731823B1 (en) * 1999-12-22 2004-05-04 Eastman Kodak Company Method for enhancing the edge contrast of a digital image independently from the texture
JP2001266158A (ja) * 2000-01-11 2001-09-28 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体
JP3656012B2 (ja) 2000-02-17 2005-06-02 株式会社ナムコ ゲームシステム及び情報記憶媒体
US6785421B1 (en) * 2000-05-22 2004-08-31 Eastman Kodak Company Analyzing images to determine if one or more sets of materials correspond to the analyzed images
KR100378351B1 (ko) * 2000-11-13 2003-03-29 삼성전자주식회사 색-텍스추어 거리 측정 방법 및 장치와 이를 이용한영상의 영역 구분 방법 및 장치
KR100374791B1 (ko) * 2000-11-22 2003-03-04 삼성전자주식회사 영상의 영역 구분 방법 및 장치
KR100788643B1 (ko) * 2001-01-09 2007-12-26 삼성전자주식회사 색과 질감의 조합을 기반으로 하는 영상 검색 방법
US6903782B2 (en) * 2001-03-28 2005-06-07 Koninklijke Philips Electronics N.V. System and method for performing segmentation-based enhancements of a video image
US6832000B2 (en) * 2001-03-28 2004-12-14 Koninklijke Philips Electronics N.V. Automatic segmentation-based grass detection for real-time video
JP4177598B2 (ja) * 2001-05-25 2008-11-05 株式会社東芝 顔画像記録装置、情報管理システム、顔画像記録方法、及び情報管理方法
JP2003248825A (ja) 2002-02-22 2003-09-05 Fuji Xerox Co Ltd 画像処理装置及び画像処理方法、画像処理プログラム、記憶媒体
US20030185432A1 (en) * 2002-03-29 2003-10-02 Hong Dezhong Method and system for image registration based on hierarchical object modeling
JP2004172856A (ja) * 2002-11-19 2004-06-17 Fuji Photo Film Co Ltd 画像データ作成方法および装置
EP1998289A1 (en) * 2006-03-20 2008-12-03 Olympus Corporation Information terminal device
KR101381600B1 (ko) * 2006-12-20 2014-04-04 삼성전자주식회사 텍스처 합성을 이용한 영상의 부호화, 복호화 방법 및 장치
EP2174266A2 (en) * 2007-08-03 2010-04-14 STI Medical Systems, LLC Computerized image analysis for a acetic acid induced cervical intraepithelial neoplasia
TW200926011A (en) * 2007-09-04 2009-06-16 Objectvideo Inc Background modeling with feature blocks
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
JP4942623B2 (ja) 2007-11-29 2012-05-30 大日本スクリーン製造株式会社 彩色処理装置、彩色処理方法およびプログラム
US8442267B2 (en) * 2008-12-24 2013-05-14 Electronics And Telecommunications Research Institute Apparatus and method for detecting upper body posture and hand posture
US8515171B2 (en) * 2009-01-09 2013-08-20 Rochester Institute Of Technology Methods for adaptive and progressive gradient-based multi-resolution color image segmentation and systems thereof
US8290208B2 (en) * 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
US9098926B2 (en) * 2009-02-06 2015-08-04 The Hong Kong University Of Science And Technology Generating three-dimensional façade models from images
US8498480B2 (en) * 2009-02-25 2013-07-30 The United States Of America, As Represented By The Secretary Of The Navy Computationally efficient method for image segmentation with intensity and texture discrimination
JP5573316B2 (ja) * 2009-05-13 2014-08-20 セイコーエプソン株式会社 画像処理方法および画像処理装置
KR101605314B1 (ko) * 2009-07-06 2016-03-22 삼성전자 주식회사 영상처리장치 및 영상처리방법
KR101669119B1 (ko) * 2010-12-14 2016-10-25 삼성전자주식회사 다층 증강 현실 시스템 및 방법
KR20120090565A (ko) * 2011-02-08 2012-08-17 삼성전자주식회사 영상 데이터의 실감 효과 처리장치 및 방법
US8620082B1 (en) * 2011-04-01 2013-12-31 The United States Of America As Represented By The Secretary Of The Navy Sonar image texture segmentation
JP5848336B2 (ja) * 2011-04-25 2016-01-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像処理装置
TWI469087B (zh) * 2011-04-26 2015-01-11 Univ Nat Cheng Kung 深度圖產生方法
KR20130001869A (ko) * 2011-06-28 2013-01-07 삼성전자주식회사 영상처리장치 및 영상처리방법
KR101191319B1 (ko) 2011-07-11 2012-10-16 중앙대학교 산학협력단 객체의 움직임 정보에 기반한 회화적 렌더링 장치 및 방법
TWI466063B (zh) * 2011-09-29 2014-12-21 Altek Corp 影像內插的處理方法
EP2786342B1 (en) * 2011-11-29 2017-09-13 Thomson Licensing Texture masking for video quality measurement
CN103207879B (zh) * 2012-01-17 2016-03-30 阿里巴巴集团控股有限公司 图像索引的生成方法及设备
CN103218798A (zh) * 2012-01-19 2013-07-24 索尼公司 图像处理设备和方法
JP5966543B2 (ja) * 2012-04-10 2016-08-10 株式会社リコー 印刷制御装置、画像形成システムおよびプログラム
JP2014102642A (ja) * 2012-11-19 2014-06-05 Samsung Display Co Ltd 画像処理回路、画像処理方法及びそれを用いた表示装置
JP2015056687A (ja) * 2013-09-10 2015-03-23 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101846256B1 (ko) * 2014-05-09 2018-05-18 삼성전자주식회사 필기감을 제공하는 촉각 피드백 장치 및 방법
US9177225B1 (en) * 2014-07-03 2015-11-03 Oim Squared Inc. Interactive content generation
GB2528044B (en) * 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs

Also Published As

Publication number Publication date
US9678991B2 (en) 2017-06-13
US20150242442A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
US10049308B1 (en) Synthesizing training data
US9491366B2 (en) Electronic device and image composition method thereof
CN108460389B (zh) 一种识别图像中对象的类型预测方法、装置及电子设备
TWI712316B (zh) 視訊摘要的生成方法及裝置
CN107958453B (zh) 乳腺图像病变区域的检测方法、装置及计算机存储介质
US20170017844A1 (en) Image content providing apparatus and image content providing method
EP3224809A1 (en) Fast object tracking framework for sports video recognition
US10242287B2 (en) Image processing apparatus, image processing method, and recording medium
US10134149B2 (en) Image processing
CN104978565B (zh) 一种普适性的图像文字提取方法
US20170039683A1 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
KR20140096595A (ko) 이미지 분류 방법
US20110064319A1 (en) Electronic apparatus, image display method, and content reproduction program
KR20150100113A (ko) 영상 처리 장치 및 이의 영상 처리 방법
Zangana et al. A new algorithm for human face detection using skin color tone
JP2010152800A (ja) 画像処理装置、画像処理方法およびプログラム
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10509986B2 (en) Image similarity determination apparatus and image similarity determination method
US11144763B2 (en) Information processing apparatus, image display method, and non-transitory computer-readable storage medium for display control
WO2017101380A1 (zh) 手识别方法、系统及装置
KR20140121711A (ko) 색 추출 기반의 영상 처리 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 영상 장치
Yang et al. Caption detection and text recognition in news video
JP2015099534A (ja) 検索装置、検索方法、及びプログラム
JP7264171B2 (ja) 画像検索システム、画像検索方法、およびプログラム
US20110064311A1 (en) Electronic apparatus and image search method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application