KR20140031613A - 영상 처리 장치 및 방법 - Google Patents

영상 처리 장치 및 방법 Download PDF

Info

Publication number
KR20140031613A
KR20140031613A KR1020120098136A KR20120098136A KR20140031613A KR 20140031613 A KR20140031613 A KR 20140031613A KR 1020120098136 A KR1020120098136 A KR 1020120098136A KR 20120098136 A KR20120098136 A KR 20120098136A KR 20140031613 A KR20140031613 A KR 20140031613A
Authority
KR
South Korea
Prior art keywords
local area
object contour
weight
image
local
Prior art date
Application number
KR1020120098136A
Other languages
English (en)
Inventor
김창원
안원석
정진우
한승훈
한영석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120098136A priority Critical patent/KR20140031613A/ko
Priority to EP13181905.4A priority patent/EP2706502A1/en
Priority to US14/015,054 priority patent/US9299005B2/en
Priority to CN201310394982.2A priority patent/CN103686272B/zh
Publication of KR20140031613A publication Critical patent/KR20140031613A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest

Abstract

영상 처리 장치 및 방법이 개시된다. 본 발명에 따른 영상 처리 장치는 영상을 수신하는 수신부, 수신된 영상을 디스플레이하는 디스플레이부, 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어(contour)를 추출하고, 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출하는 추출부, 디스플레이된 영상을 분석하는 영상 분석부 및 영상 분석부에 의해 분석된 결과에 기초하여 제1 및 제2 오브젝트 컨투어에 대한 가중치를 결정하고, 결정된 가중치가 적용된 제1 및 제2 오브젝트 컨투어에 기초하여 오브젝트 컨투어를 추출하는 제어부를 포함한다. 이에 따라, 영상 처리 장치는 노이즈가 심한 영상에서도 사용자가 의도한 오브젝트를 추출할 수 있다.

Description

영상 처리 장치 및 방법{Apparatus and method for processing image}
본 발명은 영상 처리 장치 및 방법에 관한 것으로서, 보다 상세하게는 사용자에 의도에 가장 근접한 영상의 오브젝트를 추출하기 위한 영상 처리 장치 및 방법에 관한 것이다.
기존의 영상 처리 장치는 화면상에 디스플레이된 영상 중 사용자에 의해 정의된 영역에 대한 오브젝트를 자동으로 추출하기 위해서 다양한 알고리즘이 적용된다. 예를 들어, 에지(Edge) 또는 경계치(Boundary Value)를 추출하는 알고리즘으로 "Sobel Edge Detector", "액티브 컨투어(Active Contour)" 등이 대표적인 예가 될 수 있다.
그러나, 이 같은 알고리즘을 통해 화면상에 디스플레이된 영상 중 사용자에 의해 정의된 영역에 대한 오브젝트를 자동으로 추출하거나 혹은 오브젝트와 배경이 뚜렷하지 않을 경우(노이즈, 저조도, 복잡한 전/배경), 사용자가 의도한 오브젝트 영역과 다른 오브젝트 영역을 추출하는 문제가 있다.
따라서, 오브젝트와 배경이 뚜렷하지 않을 경우에도 종래의 알고리즘을 통해 사용자가 의도한 오브젝트 영역과 가장 근접한 오브젝트 영역을 추출할 수 있는 방안이 모색될 필요가 있다.
본 발명은 상술한 필요성에 따라 안출된 것으로써, 본 발명의 목적은 디스플레이된 영상으로부터 사용자에 의도에 가장 근접한 오브제트 컨투어를 추출하기 위함을 목적으로 한다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 영상 처리 장치는 영상을 수신하는 수신부, 상기 수신된 영상을 디스플레이하는 디스플레이부, 상기 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어(contour)를 추출하고, 상기 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출하는 추출부, 상기 디스플레이된 영상을 분석하는 영상 분석부 및 상기 영상 분석부에 의해 분석된 결과에 기초하여 상기 제1 및 제2 오브젝트 컨투어에 대한 가중치를 결정하고, 상기 결정된 가중치가 적용된 상기 제1 및 제2 오브젝트 컨투어에 기초하여 오브젝트 컨투어를 추출하는 제어부를 포함한다.
그리고, 상기 제어부는, 상기 영상 분석부에 의해 분석된 결과에 기초하여 상기 제1 오브젝트 컨투어의 신뢰도를 산출하고, 상기 산출된 신뢰도에 기초하여 상기 제1 오브젝트 컨투어에 부여할 제1 가중치 및 상기 제2 오브젝트 컨투어에 부여할 제2 가중치를 결정할 수 있다.
또한, 상기 제어부는, 상기 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰도를 산출하고, 상기 산출된 각 로컬 영역별 신뢰도에 비례하도록 상기 각 로컬 영역에 부여할 제1 가중치를 결정하며, 상기 로컬 영역에 대해 산출된 신뢰도가 기설정된 임계값 이상이면 해당 로컬 영역에 대한 제1 가중치를 맥스(max)값으로 설정할 수있다.
그리고, 상기 제어부는, 상기 각 로컬 영역에 부여할 제1 가중치에 기초하여 상기 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치를 결정하며, 상기 제2 오브젝트 컨투어의 각 로컬 영역별 제2 가중치는, 상기 제1 오브젝트 컨투어의 각 로컬 영역별 제1 가중치에 반비례할 수 있다.
또한, 상기 영상 분석부는, 상기 디스플레이된 영상 및 상기 제1 오브젝트 컨투어 중 적어도 하나를 구성하는 각 로컬 영역 별로 색상, 밝기, 에지 및 분산 정보 중 적어도 하나를 검출하고, 상기 제어부는, 상기 검출 결과에 기초하여 상기 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 신뢰도를 산출할 수 있다.
그리고, 사용자 명령을 수신하는 사용자 인터페이스부를 더 포함하며, 상기 제어부는, 상기 사용자 인터페이스부를 통해 수신된 상기 사용자 명령에 따라 상기 영역을 지정할 수 있다.
또한, 상기 제어부는, 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값 및 위치 중 적어도 하나에 기초하여 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정할 수 있다.
그리고, 상기 제어부는, 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역이 결정되면, 아래 수식을 이용하여 상기 오브젝트 컨투어를 추출할 수 있다. 수식은 (x,y)OC = (x,y)1 OCW(x,y)1 OC + (x,y)2OCW(x,y)2OC이며, 여기서, (x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역이고, W(x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역에 부여된 제1 가중치이며, (x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역이고, W(x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역에 부여된 제2 가중치일 수 있다.
한편, 본 발명의 일 실시 예에 따른 영상 처리 장치에서 수신된 영상을 처리하는 영상 처리 방법에 있어서, 상기 수신된 영상을 디스플레이하는 단계, 상기 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어를 추출하고, 상기 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출하는 단계, 상기 디스플레이된 영상의 분석 결과에 기초하여 상기 제1 및 제2 오브젝트 컨투어에 대한 가중치를 결정하는 단계 및 상기 결정된 가중치가 적용된 상기 제1 및 제2 오브젝트 컨투어에 기초하여 오브젝트 컨투어를 추출하는 단계를 포함한다.
그리고, 상기 결정하는 단계는, 상기 분석 결과에 기초하여 상기 제1 오브젝트 컨투어의 신뢰도를 산출하고, 상기 산출된 신뢰도에 기초하여 상기 제1 오브젝트 컨투어에 부여할 제1 가중치 및 상기 제2 오브젝트 컨투어에 부여할 제2 가중치를 결정할 수 있다.
또한, 상기 결정하는 단계는, 상기 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰도를 산출하고, 상기 산출된 각 로컬 영역별 신뢰도에 비례하도록 상기 각 로컬 영역에 부여할 제1 가중치를 결정하며, 상기 로컬 영역에 대해 산출된 신뢰도가 기설정된 임계값 이상이면 해당 로컬 영역에 대한 제1 가중치를 맥스(max)값으로 설정할 수 있다.
그리고, 상기 결정하는 단계는, 상기 각 로컬 영역에 부여할 제1 가중치에 기초하여 상기 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치를 결정하며, 상기 제2 오브젝트 컨투어의 각 로컬 영역별 제2 가중치는, 상기 제1 오브젝트 컨투어의 각 로컬 영역별 제1 가중치에 반비례할 수 있다.
또한, 상기 결정하는 단계는, 상기 디스플레이된 영상 및 상기 제1 오브젝트 컨투어 중 적어도 하나를 구성하는 각 로컬 영역 별로 색상, 밝기, 에지 및 분산 정보 중 적어도 하나를 검출하고, 상기 검출 결과에 기초하여 상기 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 신뢰도를 산출할 수 있다.
그리고, 사용자 명령을 수신하는 단계 및 상기 수신된 사용자 명령에 따라 상기 영역을 지정하는 단계를 더 포함할 수 있다.
또한, 상기 추출하는 단계는, 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값 및 위치 중 적어도 하나에 기초하여 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정할 수 있다.
그리고, 상기 추출하는 단계는, 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역이 결정되면, 아래 수식을 이용하여 상기 오브젝트 컨투어를 추출할 수 있다. 수식은 (x,y)OC = (x,y)1 OCW(x,y)1 OC + (x,y)2OCW(x,y)2OC이며, 여기서, (x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역이고, W(x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역에 부여된 제1 가중치이며, (x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역이고, W(x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역에 부여된 제2 가중치일 수 있다.
이상과 같이, 본 발명의 다양한 실시예에 따르면, 영상 처리 장치는 노이즈가 심한 영상에서도 사용자가 의도한 오브젝트를 추출할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치의 블록도,
도 2는 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값에 기초하여 서로 대응되는 로컬 영역을 결정하는 예시도,
도 3은 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 위치에 기초하여 서로 대응되는 로컬 영역을 결정하는 예시도,
도 4는 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 추출하는 예시도,
도 5는 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어에 기초하여 새로운 오브젝트 컨투어를 추출하는 예시도,
도 6은 본 발명의 일 실시예에 따른 영상 처리 장치에서 수신된 영상에 대한 영상 처리를 수행하는 방법의 흐름도,
도 7은 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역별 가중치를 결정하는 흐름도,
도 8은 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어에 기초하여 새로운 오브젝트 컨투어를 추출하는 흐름도이다.
이하에서는 첨부된 도면을 참조하며 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 영상 처리 장치의 블록도이다.
도 1에 도시된 바와 같이, 영상 처리 장치는 수신부(110), 디스플레이부(120), 사용자 인터페이스부(130), 추출부(140), 영상 분석부(150) 및 제어부(160)를 포함한다.
수신부(110)는 외부로부터 영상을 수신하며, 디스플레이부(120)는 수신부(110)로부터 수신한 영상을 디스플레이한다. 구체적으로, 수신부(110)는 외부 서버로부터 영상 데이터를 수신할 수 있다. 외부 서버로부터 영상 데이터를 수신할 경우, 수신부(110)는 튜너, 복조기, 등화기, 디코더 등과 같은 구성을 포함하는 형태로 구현될 수 있다. 이 같은 수신부(110)에 포함되는 각각의 구성들은 공지된 기술이기에 본 발명에서는 각 구성들에 대한 동작 설명을 생략하도록 한다. 또한, 수신부(110)는 SCART, AV, HDMI, COMPONENT, USB 인터페이스 중 적어도 하나의 인터페이스를 통해 웹 서버와 같은 소스 장치 혹은 DVD 장치와 같은 재생 장치를 통해 영상 데이터를 수신할 수 있다. 이 같이, 수신부(110)를 통해 영상 데이터가 수신되면, 디스플레이부(120)는 신호 처리부(미도시)를 통해 신호 처리된 영상을 디스플레이할 수 있다.
사용자 인터페이스부(130)는 사용자로부터 사용자 명령을 수신하는 것으로써, 여기서 사용자 명령은 디스플레이부(120)를 통해 디스플레이된 영상 중 특정 영역을 지정하기 위한 명령이 될 수 있다. 이 같은 사용자 인터페이스부(130)는 디스플레이부(120) 상에 구현되는 터치 스크린, 영상 처리 장치의 본체에 구비된 각종 입력 버튼, 영상 처리 장치에 연결된 키보드, 마우스 등과 같은 외부 입력 수단으로부터 각종 입력 신호를 입력받는 I/O(Input/Output Interface) 등과 같이 다양한 형태로 구현될 수 있다. 이 같은 사용자 인터페이스부(130)를 통해 사용자 명령이 수신되면, 후술할 제어부(160)는 디스플레이부(120)를 통해 디스플레이된 영상으로부터 수신된 사용자 명령에 대응되는 영역을 지정할 수 있다.
추출부(140)는 디스플레이부(120)를 통해 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어(contour)를 추출하고, 사용자에 의해 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출한다. 여기서, 사용자에 의해 지정된 영역에 대한 제1 오브젝트 컨투어를 추출하기 위해 적용되는 알고리즘은 공지된 알고리즘이 될 수 있다. 한편, 사용자에 의해 지정된 영역에 기초하여 추출되는 제2 오브젝트 컨투어는 사용자에 의해 지정된 영역에 대응되는 영역이 될 수 있다. 즉, 제2 오브젝트 컨투어는 디스플레이부(120)를 통해 디스플레이되는 영상 중 사용자에 의해 그려진 영역이 될 수 있다. 따라서, 추출부(140)는 기설정된 알고리즘을 이용하여 사용자에 의해 지정된 영역과 관련된 제1 오브젝트 컨투어를 자동으로 추출하고, 또한, 사용자에 의해 지정된 영역에 대응되는 제2 오브젝트 컨투어를 수동으로 추출할 수 있다.
영상 분석부(150)는 디스플레이부(120)를 통해 디스플레이된 영상을 분석한다. 실시예에 따라, 영상 분석부(150)는 디스플레이부(120)를 통해 디스플레이된 영상 중 사용자에 의해 지정된 영역에 해당하는 영상에 대한 분석을 수행할 수 있다. 그러나, 본 발명은 이에 한정되지 않으며, 영상 분석부(150)는 디스플레이부(120)를 통해 디스플레이된 영상 전체를 분석할 수 있다. 구체적으로, 영상 분석부(150)는 디스플레이부(120)를 통해 디스플레이된 영상 또는 디스플레이된 영상 중 사용자에 의해 지정된 영역에 해당하는 영상 및 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어 중 적어도 하나를 구성하는 각 로컬 영역 별로 색상, 밝기, 에지 및 분산 정보 중 적어도 하나를 검출할 수 있다.
제어부(160)는 영상 분석부(150)에 의해 분석된 결과에 기초하여 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어 및 수동 추출된 제2 오브젝트 컨투어에 대한 가중치를 결정한다. 이후, 제어부(160)는 제1 오브젝트 컨투어 및 제2 오브젝트 컨투어 각각에 결정된 가중치가 적용된 제1 오브젝트 컨투어 및 제2 오브젝트 컨투어에 기초하여 오브젝트 컨투어를 추출한다. 여기서, 가중치가 각각 적용된 제1 오브젝트 컨투어 및 제2 오브젝트 컨투어에 기초하여 추출되는 오브젝트 컨투어는 사용자의 의도가 고려된 새로운 오브젝트 컨투어인 것이 바람직하다.
구체적으로, 제어부(160)는 영상 분석부(150)에 의해 분석된 결과에 기초하여 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어의 신뢰도를 산출한다. 이후, 제어부(160)는 산출된 제1 오브젝트 컨투어의 신뢰도에 기초하여 제1 오브젝트 컨투어에 부여할 제1 가중치 및 수동 추출된 제2 오브젝트 컨투어에 부여할 제2 가중치를 결정한다. 보다 구체적으로, 제어부(160)는 영상 분석부(150)에 의해 분석된 결과에 기초하여 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰도를 산출한다. 이후, 제어부(160)는 제1 오브젝트 컨투어의 각 로컬 영역별로 산출된 신뢰도에 비례하도록 제1 오브젝트 컨투어의 각 로컬 영역별로 부여할 제1 가중치를 결정할 수 있다. 이때, 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별로 산출된 신뢰도 중 적어도 하나의 로컬 영역의 신뢰도가 기설정된 임계값 이상이면, 해당 로컬 영역에 대한 제1 가중치를 맥스(Max) 값으로 설정한다.
먼저, 제어부(160)는 아래 실시예를 통해 자동 추출된 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰도를 산출할 수 있다. 일 실시예에 따라, 제어부(160)는 영상 분석부(150)를 통해 검출된 영상을 구성하는 각 로컬 영역별 에지 정보와 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어의 각 로컬 영역별 픽셀 위치 정보 간의 거리 차에 따라 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 신뢰도를 산출할 수 있다. 예를 들어, 저장부(미도시)에는 기설정된 두 정보 간의 거리 차이에 따라 0에서 1까지의 신뢰도 레벨이 저장될 수 있다. 따라서, 제어부(160)는 저장부(미도시)에 저장된 신뢰도 레벨을 참조하여 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별로 산출된 거리 차에 대응하는 신뢰도를 산출할 수 있다. 즉, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 거리 차가 큰 로컬 영역의 신뢰도는 0에 근접하고, 거리 차가 작은 로컬 영역의 신뢰도는 1에 근접할 수 있다.
또다른 실시예에 따라, 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역의 색상 또는 밝기 정보와 주변의 색상 또는 밝기 정보를 비교하여 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 신뢰도를 산출할 수 있다. 예를 들어, 저장부(미도시)에는 기설정된 색상 또는 밝기 정도의 차이에 따라 0에서 1까지의 신뢰도 레벨이 저장될 수 있다. 따라서, 제어부(160)는 저장부(미도시)에 저장된 신뢰도 레벨을 참조하여 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 색상 또는 밝기와 주변의 색상 또는 밝기 차에 대응하는 신뢰도를 산출할 수 있다. 즉, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 색상 또는 밝기 차가 적은 로컬 영역의 신뢰도는 0에 근접하고, 색상 또는 밝기 차가 큰 로컬 영역의 신뢰도는 1에 근접할 수 있다.
이와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 신뢰도가 산출되면, 제어부(160)는 각 로컬 영역별로 산출된 신뢰도에 비례하도록 각 로컬 영역에 부여할 제1 가중치를 결정할 수 있다. 이 같은 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 산출된 신뢰도 중 적어도 하나의 신뢰도가 기설정된 임계값 이상이면 해당 로컬 영역에 대한 제1 가중치를 맥스 값으로 설정할 수 있다. 예를 들어, 전술한 바와 같이, 신뢰도 레벨은 0부터 1까지 설정될 수 있으며, 기설정된 임계값은 기설정된 신뢰도 레벨 내에서 설정될 수 있다. 그리고, 기설정된 임계값 이상이면, 제1 가중치의 맥스 값은 1로 설정될 수 있다. 만약, 신뢰도 레벨이 0.7이 기설정된 임계값으로 설정될 경우, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 0.7 이상의 신뢰도를 가지는 로컬 영역의 제1 가중치는 1이 될 수 있다.
이와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별로 부여할 제1 가중치가 설정되면, 제어부(160)는 기설정된 각 로컬 영역별 제1 가중치가 기초하여 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치를 결정할 수 있다. 여기서, 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치는 제1 오브젝트 컨투어의 각 로컬 영역별 제1 가중치에 반비례한 것이 바람직하다. 즉, 전술한 바와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 제1 가중치가 높은 로컬 영역은 신뢰도가 높은 영역으로써, 해당 로컬 영역에 대응하는 제2 오브젝트 컨컨투어의 로컬 영역에 높은 가중치를 부여할 필요가 없다. 한편, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 제1 가중치가 낮은 로컬 영역은 신뢰도가 낮은 영역으로써, 해당 로컬 영역에 대응하는 제2 오브젝트 컨투어의 로컬 영역에 가중치를 높게 부여한다. 예를 들어, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 하나의 로컬 영역에 부여된 제1 가중치가 0일 경우, 해당 로컬 영역과 대응하는 제2 오브젝트 컨투어의 로컬 영역의 제2 가중치는 1이 부여될 수 있다. 또다른 예를 들어, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 하나의 로컬 영역에 부여된 제1 가중치가 1일 경우, 해당 로컬 영역에 대응하는 제2 오브젝트 컨투어의 로컬 영역의 제2 가중치는 0이 부여될 수 있다.
이와 같이, 제1 및 제2 오브젝트 컨투어를 구성하는 각각의 로컬 영역별 제1 및 제2 가중치가 부여되면, 제어부(160)는 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치에 기초하여 새로운 오브젝트 컨투어를 추출할 수 있다. 구체적으로, 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정한다. 즉, 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값 및 위치 중 적어도 하나에 기초하여 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정할 수 있다.
제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값에 기초하여 서로 대응되는 로컬 영역을 결정할 경우, 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 특정 로컬 영역에 대한 임의의 특징점를 포함하는 마스크 영역 상의 제1 벨류(Value) 값을 획득한다. 이후, 제어부(160)는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 포함하는 마스크 영역 상의 제2 벨류 값을 획득한다. 이후, 제어부(160)는 제1 오브젝트 컨투어의 특정 로컬 영역에 대한 제1 벨류 값과 제2 오브젝트 컨투어의 각 로컬 영역에 대한 제2 벨류 값 간의 차이 값을 산출한다.
실시예에 따라, 제어부(160)는 SAD(Sum of the Absolute Difference) 알고리즘을 이용하여 제1 벨류 값과 제2 벨류 값 간의 차이 값을 산출할 수 있다. 이와 같이, 제1 벨류 값과 각각의 제2 벨류 값 간의 차이 값이 산출되면, 제어부(160)는 산출된 차이 값 중 가장 작은 차이 값을 가지는 제2 벨류 값을 획득한다. 이후, 제어부(160)는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 가장 작은 차이 값을 가지는 제2 벨류 값을 가지는 로컬 영역과 제1 오브젝트 컨투어 상에서 제1 벨류 값을 가지는 로컬 영역을 서로 대응되는 로컬 영역으로 결정할 수 있다.
한편, 본 발명은 이에 한정되지 않으며, 제어부(160)는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 특정 로컬 영역에 대한 임의의 특징점을 포함하는 마스크 영역 상의 값을 제1 벨류 값으로 결정하고, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 포함하는 마스크 영역 상의 값을 제2 벨류 값으로 결정할 수 있다.
이하에서는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값에 기초하여 서로 대응되는 로컬 영역을 결정하는 동작에 대해서 도 2를 통해 보다 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값에 기초하여 서로 대응되는 로컬 영역을 결정하는 예시도이다.
도 2의 (a)는 기설정된 알고리즘을 적용하여 추출된 제1 오브젝트 컨투어이며, (b)는 사용자에 의해 지정된 영역과 대응하는 제2 오브젝트 컨투어가 될 수 있다. 이와 같이, 제1 및 제2 오브젝트 컨투어가 추출되면, 제어부(160)는 추출된 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 특정 로컬 영역에 대한 임의의 특징점를 포함하는 마스크 영역(210) 상의 제1 벨류(Value) 값을 획득한다. 그리고, 제어부(160)는 추출된 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 포함하는 각각의 마스크 영역(220~260) 상의 제2 벨류 값을 획득한다. 이후, 제어부(160)는 마스트 영역(210) 상의 제1 벨류 값과 각각의 마스크 영역(220~260) 상의 제2 벨류 값 사이의 차이 값을 산출하고, 산출된 차이 값으로부터 가장 작은 차이 값을 가지는 제2 벨류 값을 획득할 수 있다. 즉, 제어부(160)는 마스크 영역(210)의 제1 벨류 값과 가작 작은 차이 값을 가지는 마스크 영역(220)을 획득할 수 있다. 따라서, 제어부(160)는 제1 오브젝트 컨투어의 마스크 영역(210)과 관련된 로컬 영역과 제2 오브젝트 컨투어의 마스크 영역(220)과 관련된 로컬 영역을 서로 대응되는 로컬 영역으로 결정할 수 있다.
한편, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 위치에 기초하여 서로 대응되는 로컬 영역을 결정할 경우, 제어부(160)는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 제2 오브젝트 컨투어를 구성하는 각 로컬 영역으로 이동시킨다. 이때, 제어부(160)는 임의의 특징점 각각을 수직 방향으로 이동시키는 것이 바람직하다. 이와 같이, 수직 방향으로 이동시킨 임의의 특징점 각각이 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 대응점에 도달하면, 제어부(160)는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 대응점에 도달한 각각의 임의의 특징점 중 가장 이동 거리가 짧은 특징점에 해당하는 로컬 영역과 해당 특징점과 만나는 대응점에 해당하는 로컬 영역을 서로 대응되는 로컬 영역으로 결정할 수 있다.
한편, 본 발명은 이에 한정되지 않으며, 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 제1 오브젝트 컨투어를 구성하는 각 로컬 영역으로 이동시킬 수 있다.
이하에서는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 위치에 기초하여 서로 대응되는 로컬 영역을 결정하는 동작에 대해서 도 3을 통해 보다 상세히 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 위치에 기초하여 서로 대응되는 로컬 영역을 결정하는 예시도이다.
도 3의 (a)는 기설정된 알고리즘을 적용하여 추출된 제1 오브젝트 컨투어이며, (b)는 사용자에 의해 지정된 영역과 대응하는 제2 오브젝트 컨투어가 될 수 있다. 이와 같이, 제1 및 제2 오브젝트 컨투어가 추출되면, 제어부(160)는 도 3의 (b)와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점(310,320,330)을 제2 오브젝트 컨투어를 구성하는 각 로컬 영역으로 이동시킨다. 이때, 제어부(160)는 임의의 특징점 각각을 수직 방향으로 이동시키는 것이 바람직하다. 이와 같이, 수직 방향으로 이동시킨 임의의 특징점 각각이 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 대응점(310',320',330')에 각각 도달하면, 제어부(160)는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 대응점(310',320',330')에 도달한 각각의 임의의 특징점(310,320,330) 중 가장 이동 거리가 짧은 특징점을 결정할 수 있다. 도시된 바와 같이, 특징점(310,320,330) 중 대응점(310')으로 이동한 특징점(310)의 이동 거리가 가장 짧을 경우, 제어부(160)는 특징점(310)과 관련된 로컬 영역과 대응점(310')과 관련된 로컬 영역을 서로 대응되는 로컬 영역으로 결정할 수 있다.
이와 같이, 화소값 및 위치 중 적어도 하나에 기초하여 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정되면, 제어부(160)는 결정된 로컬 영역을 중심으로 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치의 합을 통해 새로운 오브젝트 컨투어를 추출할 수 있다. 구체적으로, 제어부(160)는 아래 수학식1에 기초하여 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치의 합을 산출할 수 있다.
Figure pat00001
여기서, (x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역이고, W(x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역에 부여된 제1 가중치이며, (x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역이고, W(x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역에 부여된 제2 가중치가 될 수 있다.
따라서, 제어부(160)는 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정되면, 결정된 로컬 영역을 중심으로 서로 대응되는 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 가중치 합을 전술한 수학식 1을 통해 산출한다. 이후, 제어부(160)는 산출된 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 가중치 합에 기초하여 새로운 오브젝트 컨투어를 추출할 수 있다.
도 4는 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 추출하는 예시도이며, 도 5는 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어에 기초하여 새로운 오브젝트 컨투어를 추출하는 예시도이다.
도 4의 (a)에 도시된 바와 같이, 영상 처리 장치는 수신부(110)를 통해 수신된 영상(410)을 디스플레이부(120)를 통해 디스플레이할 수 있다. 이 같은 영상(410)이 디스플레이된 상태에서, 사용자는 터치 스크린을 통해 특정 영역을 지정할 수 있다. 사용자에 의해 특정 영역이 지정되면, 영상 처리 장치는 지정된 특정 영역에 기설정된 알고리즘을 적용하여 도 4의 (b)와 같은 제1 오브젝트 컨투어(420)를 추출할 수 있다. 또한, 영상 처리 장치는 사용자에 의해 지정된 특정 영역에 기초하여 도 4의 (c)와 같은 제2 오브젝트 컨투어(430)를 수동으로 추출할 수 있다. 여기서, 제2 오브젝트 컨투어(430)는 터치 스크린과 같은 사용자 인터페이스부(130)를 통해 사용자에 의해 그려진 영역이다.
이와 같이, 사용자에 의해 지정된 영역에 기초하여 제1 오브젝트 컨투어(420) 및 제2 오브젝트 컨투어(430)가 추출되면, 영상 처리 장치는 영상 분석부(150)를 통해 분석된 결과에 기초하여 제1 오브젝트 컨투어(420)의 신뢰도를 산출한다. 이후, 영상 처리 장치는 산출된 신뢰도에 따라 제1 오브젝트 컨투어(420)를 구성하는 각 로컬 영역에 대한 제1 가중치를 결정하고, 각 로컬 영역별로 결정된 제1 가중치에 기초하여 제2 오브젝트 컨투어(430)를 구성하는 각 로컬 영역에 대한 제2 가중치를 결정한다.
예를 들어, 도 4의 (b)에서 제1 오브젝트 컨투어(420)를 구성하는 각 로컬 영역 중 제1 로컬 영역(421)의 신뢰도는 매우 높을 수 있으며, 제2 로컬 영역(422)의 신뢰도는 매우 낮을 수 있다. 따라서, 신뢰도 높은 제1 로컬 영역(421)의 제1 가중치는 1이 될 수 있으며, 신뢰도가 낮은 제2 로컬 영역(422)의 제1 가중치는 0이될 수 있다. 한편, 도 4의 (c)에서 제2 오브젝트 컨투어(430)를 구성하는 각 로컬 영역별 제2 가중치는 제1 오브젝트 컨투어(430)를 구성하는 각 로컬 영역별 제1 가중치에 반비례한다. 따라서, 제2 오브젝트 컨투어(430)를 구성하는 각 로컬 영역 중 제1 오브젝트 컨투어(420)의 제1 로컬 영역(421)과 관련된 제1' 로컬 영역(431)의 제2 가중치는 0이 될 수 있으며, 제1 오브젝트 컨투어(420)의 제2 로컬 영역(422)과 관련된 제2' 로컬 영역(432)의 제2 가중치는 1이 될 수 있다.
이와 같이, 제1 및 제2 오브젝트 컨투어(420)를 구성하는 각각의 로컬 영역에 대한 제1 및 제2 가중치가 결정되면, 영상 처리 장치는 제1 및 제2 오브젝트 컨투어(420)를 구성하는 각각의 로컬 영역들 중 서로 대응되는 로컬 영역 간의 제1 및 제2 가중치의 합을 구한다. 예를 들어, 도 5의 (a)와 같이 제1 오브젝트 컨투어(420)의 제1 로컬 영역(421), 제2 로컬 영역(422) 및 제3 로컬 영역(423) 각각은 제2 오브젝트 컨투어(430)의 제1' 로컬 영역(431), 제2' 로컬 영역(432) 및 제3' 로컬 영역(433)과 서로 대응될 수 있다. 이 경우, 영상 처리 장치는 전술한 수학식 1을 통해 제1 및 제1' 로컬 영역(421,431) 간의 합, 제2 및 제2' 로컬 영역(422,432) 간의 합, 제3 및 제3' 로컬 영역(423,433) 간의 합을 산출할 수 있다. 이와 같이, 제1 및 제2 오브젝트 컨투어(420)를 구성하는 각각의 로컬 영역들 중 서로 대응되는 로컬 영역 간의 합이 산출되면, 영상 처리 장치는 산출된 각각의 합으로부터 새로운 오브젝트 컨투어(510)를 산출할 수 있다. 즉, 도 5의 (b)와 같이, 사용자가 원하는 영역과 가능 근접한 영역을 가지는 오브젝트 컨투어(510)를 산출할 수 있다.
지금까지, 본 발명의 일 실시예에 따른 영상 처리 장치의 각 구성을 통해 사용자의 의도와 가장 근접한 영역을 가지는 오브젝트 컨투어를 추출하는 동작에 대해서 상세히 설명하였다. 이하에서는 본 발명에 따른 영상 처리 장치에서 수신된 영상으로부터 사용자의 의도와 가장 근접한 영역을 가지는 오브젝트 컨투어를 추출하는 방법에 대해서 상세히 설명하도록 한다.
도 6은 본 발명의 일 실시예에 따른 영상 처리 장치에서 수신된 영상에 대한 영상 처리를 수행하는 방법의 흐름도이다.
도 6에 도시된 바와 같이, 영상 처리 장치는 외부 서버 또는 DVD 장치와 같은 재생 장치를 통해 수신된 영상을 디스플레이할 수 있다(S610). 이 같이, 화면상에 영상이 디스플레이된 상태에서, 영상 처리 장치는 사용자로부터 사용자 명령을 수신한다(S620). 여기서, 사용자 명령은 화면상에 디스플레이된 영상 중 특정영역을 지정하기 위한 명령이 될 수 있다. 이 같은 사용자 명령이 수신되면, 영상 처리 장치는 수신된 사용자 명령에 대응되는 영역을 지정할 수 있다(S630). 이후, 영상 처리 장치는 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어를 추출하고, 또한 사용자에 의해 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출한다(S640). 여기서, 사용자에 의해 지정된 영역에 대한 제1 오브젝트 컨투어를 추출하기 위해 적용되는 알고리즘을 공지된 알고리즘이 될 수 있다. 한편, 사용자에 의해 지정된 영역에 기초하여 추출되는 제2 오브젝트 컨투어는 사용자에 의해 지정된 영역에 대응되는 영역이 될 수 있다. 즉, 제2 오브젝트 컨투어는 화면상에 디스플레이되는 영상 중 사용자에 의해 그려진 영역이 될 수 있다.
이 같이, 사용자에 의해 지정된 영역에 따라 제1 및 제2 오브젝트 컨투어가 추출되면, 영상 처리 장치는 화면상에 디스플레이된 영상을 분석한다(S650). 구체적으로, 영상 처리 장치는 화면상에 디스플레이된 영상 또는 디스플레이된 영상 중 사용자에 의해 지정된 영역에 해당하는 영상 및 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어 중 적어도 하나를 구성하는 각 로컬 영역 별로 색상, 밝기, 에지 및 분산 정보 중 적어도 하나를 검출한다. 이후, 영상 처리 장치는 분석된 결과에 기초하여 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어 및 수동 추출된 제2 오브젝트 컨투어에 대한 가중치를 결정한다(S660). 이후, 영상 처리 장치는 제1 오브젝트 컨투어 및 제2 오브젝트 컨투어 각각에 결정된 가중치가 적용된 제1 오브젝트 컨투어 및 제2 오브젝트 컨투어에 기초하여 새로운 오브젝트 컨투어를 추출한다(S670).
이하에서는 전술한 영상 처리 장치에서 제1 오브젝트 컨투어 및 제2 오브젝트 컨투어를 구성하는 각각의 로컬 영역에 대한 가중치를 결정하는 방법에 대해서 상세히 설명하도록 한다.
도 7은 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역별 가중치를 결정하는 흐름도이다.
도 7에 도시된 바와 같이, 영상 처리 장치는 단계 S640을 통해 분석된 결과에 기초하여 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어의 신뢰도를 산출한다(710). 이후, 영상 처리 장치는 산출된 제1 오브젝트 컨투어의 신뢰도에 기초하여 제1 오브젝트 컨투어에 부여할 제1 가중치를 결정한다(S720)
구체적으로, 영상 처리 장치는 기설정된 알고리즘에 의해 자동 추출된 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰를 산출한다. 일 실시예에 따라, 영상 처리 장치는 디스플레이된 영상을 분석하여 영상을 구성하는 각 로컬 영역별 에지 정보와 알고리즘에 의해 추출된 제1 오브젝트 컨투어의 각 로컬 영역별 픽셀 위치 정보 간의 거리 차에 따라 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 신뢰도를 산출할 수 있다. 예를 들어, 영상 처리 장치는 기저장된 신뢰도 레벨을 참조하여 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별로 산출된 거리 차에 대응하는 신뢰도를 산출할 수 있다. 여기서, 신뢰도 레벨은 기설정된 두 정보 간의 거리 차이에 따라 설정된 레벨로써, 신뢰도 레벨이 0에 가까울수록 거리 차가 크며, 신뢰도 레벨이 1에 가까울수록 거리 차가 작을 수 있다. 따라서, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 거리 차가 큰 로컬 영역의 신뢰도는 0에 근접할 수 있으며, 거리 차가 작은 로컬 영역의 신뢰도는 1에 근접할 수 있다.
또다른 실시예에 따라, 영상 처리 장치는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역의 색상 또는 밝기 정보와 주변의 색상 또는 밝기 정보를 비교하여 제1 오브젝트 컨투어를구성하는 각 로컬 영역별 신뢰도를 산출할 수 있다. 예를 들어, 영상 처리 장치는 기설정된 색상 또는 밝기 정도의 차이에 따라 0에서 1까지의 신뢰도 레벨을 기저장할 수 있다. 따라서, 영상 처리 장치는 기저장된 신뢰도 레벨을 참조하여 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 색상 또는 밝기와 주변의 색상 또는 밝기 차에 대응하는 신뢰도를 산출할 수 있다. 즉, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 색상 또는 밝기 차가 작은 로컬 영역의 신뢰도는 0에 근접하고, 색상 또는 밝기 차가 큰 로컬 영역의 신뢰도는 1에 근접할 수 있다.
이와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 신뢰도가 산출되면, 영상 처리 장치는 각 로컬 영역별로 산출된 신뢰도에 비례하도록 각 로컬 영역에 부여할 제1 가중치를 결정할 수 있다. 이 같은 영상 처리 장치는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별 산출된 신뢰도 중 적어도 하나의 신뢰도가 기설정된 임계값 이상이면, 해당 로컬 영역에 대한 제1 가중치를 맥스 값으로 결정할 수 있다. 예를 들어, 전술한 바와 같이, 신뢰도 레벨은 0부터 1까지 설정될 수 있으며, 기설정된 임계값은 기설정된 신뢰도 레벨 내에서 설정될 수 있다. 그리고, 기설정된 임계값 이상이면, 제1 가중치의 맥스 값은 1로 설정될 수 있다. 만약, 신뢰도 레벨이 0.7이 기설정된 임계값으로 설정될 경우, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 0.7 이상의 신뢰도를 가지는 로컬 영역의 제1 가중치는 1이 될 수 있다.
이와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역별로 부여할 제1 가중치가 설정되면, 영상 처리 장치는 기설정된 각 로컬 영역별 제1 가중치가 기초하여 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치를 결정할 수 있다(S730). 여기서, 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치는 제1 오브젝트 컨투어의 각 로컬 영역별 제1 가중치에 반비례한 것이 바람직하다. 즉, 전술한 바와 같이, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 제1 가중치가 높은 로컬 영역은 신뢰도가 높은 영역으로써, 해당 로컬 영역에 대응하는 제2 오브젝트 컨컨투어의 로컬 영역에 높은 가중치를 부여할 필요가 없다.
다시 말해, 도 4의 (b)에서 제1 오브젝트 컨투어(420)를 구성하는 각 로컬 영역 중 제1 로컬 영역(421)의 신뢰도는 매우 높을 수 있으며, 제2 로컬 영역(422)의 신뢰도는 매우 낮을 수 있다. 따라서, 신뢰도 높은 제1 로컬 영역(421)의 제1 가중치는 1이 될 수 있으며, 신뢰도가 낮은 제2 로컬 영역(422)의 제1 가중치는 0이될 수 있다. 한편, 도 4의 (c)에서 제2 오브젝트 컨투어(430)를 구성하는 각 로컬 영역별 제2 가중치는 제1 오브젝트 컨투어(430)를 구성하는 각 로컬 영역별 제1 가중치에 반비례한다. 따라서, 제2 오브젝트 컨투어(430)를 구성하는 각 로컬 영역 중 제1 오브젝트 컨투어(420)의 제1 로컬 영역(421)과 관련된 제1' 로컬 영역(431)의 제2 가중치는 0이 될 수 있으며, 제1 오브젝트 컨투어(420)의 제2 로컬 영역(422)과 관련된 제2' 로컬 영역(432)의 제2 가중치는 1이 될 수 있다.
이와 같이, 제1 및 제2 오브젝트 컨투어를 구성하는 각각의 로컬 영역별 제1 및 제2 가중치가 부여되면, 영상 처리 장치는 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치에 기초하여 새로운 오브젝트 컨투어를 추출할 수 있다.
도 8은 본 발명의 일 실시예에 따른 영상 처리 장치에서 제1 및 제2 오브젝트 컨투어에 기초하여 새로운 오브젝트 컨투어를 추출하는 흐름도이다.
도 8에 도시된 바와 같이, 영상 처리 장치는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값 및 위치 중 적어도 하나에 기초하여 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정할 수 있다(S810).
일 실시예에 따라, 영상 처리 장치가 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값에 기초하여 서로 대응되는 로컬 영역을 결정할 경우에 대해서 설명하도록 한다. 영상 처리 장치는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역 중 특정 로컬 영역에 대한 임의의 특징점을 포함하는 마스크 영역 상의 제1 벨류 값을 획득한다. 이후, 영상 처리 장치는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 포함하는 마스트 영역 상의 제2 벨류 값을 획득한다. 이후, 영상 처리 장치는 제1 오브젝트 컨투어의 특정 로컬 영역에 대한 제1 벨류 값과 제2 오브젝트 컨투어의 각 로컬 영역에 대한 제2 벨류 값 간의 차이 값을 산출한다.
실시예에 따라, 영상 처리 장치는 SAD 알로리즘을 이용하여 제1 벨류 값과 제2 벨류 값 간의 차이 값을 산출할 수 있다. 이와 같이, 제1 및 제2 벨류 값 간의 차이 값이 산출되면, 영상 처리 장치는 산출된 차이 값 중 가장 작은 차이 값을 가지는 제2 벨류 값을 획득한다. 이후, 영상 처리 장치는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 가장 작은 차이 값을 가지는 제2 벨류 값을 가지는 로컬 여역과 제1 오브젝트 컨투어 상에서 제1 벨류 값을 가지는 로컬 영역을 서로 대응되는 로컬 영역으로 결정할 수 있다.
그러나, 본 발명은 이에 한정되지 않으며, 영상 처리 장치는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 특정 로컬 영역에 대한 임의의 특징점을 포함하는 마스크 영역 상의 값을 제1 벨류 값으로 결정하고, 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 포함하는 마스트 영상 상의 값을 제2 벨류 값으로 결정할 수 있다.
또다른 실시예에 따라, 영상 처리 장치가 제1 오브젝트 컨투어를 구성하는 각 로컬 영역과 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 위치에 기초하여 서로 대응되는 로컬 영역을 결정할 수 있다. 먼저, 영상 처리 장치는 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 제2 오브젝트 컨투어를 구성하는 각 로컬 영역으로 이동시킨다. 이때, 영상 처리 장치는 임의의 특징점 각각을 수직 방향으로 이동시키는 것이 바람직하다. 이와 같이, 수직 방향으로 이동시킨 임의의 특징점 각각이 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 대응점에 도달하면, 영상 처리 장치는 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 대응점에 도달한 각각의 임의의 특징점 중 가장 이동 거리가 짧은 특징점에 해당하는 로컬 영역과 해당 특징점과 만나는 대응점에 해당하는 로컬 영역을 서로 대응되는 로컬 영역으로 결정할 수 있다.
한편, 본 발명은 이에 한정되지 않으며, 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 임의의 특징점을 제1 오브젝트 컨투어를 구성하는 각 로컬 영역으로 이동시킬 수 있다.
이와 같이, 화소값 및 위치 중 적어도 하나에 기초하여 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역이 결정되면, 영상 처리 장치는 결정된 로컬 영역을 중심으로 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치의 합을 구한다. 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치의 합은 전술한 수학식 1을 통해 달성할 수 있다. 제1 및 제2 오브젝트 컨투어의 각 로컬 영역별로 부여된 제1 및 제2 가중치의 합이 산출되면, 영상 처리 장치는 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역의 가중치 합에 기초하여 새로운 오브젝트 컨투어를 추출할 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 수신부 120 : 디스플레이부
130 : 사용자 인터페이스부 140 : 추출부
150 : 영상 분석부 160 : 제어부

Claims (16)

  1. 영상을 수신하는 수신부;
    상기 수신된 영상을 디스플레이하는 디스플레이부;
    상기 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어(contour)를 추출하고, 상기 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출하는 추출부;
    상기 디스플레이된 영상을 분석하는 영상 분석부; 및
    상기 영상 분석부에 의해 분석된 결과에 기초하여 상기 제1 및 제2 오브젝트 컨투어에 대한 가중치를 결정하고, 상기 결정된 가중치가 적용된 상기 제1 및 제2 오브젝트 컨투어에 기초하여 오브젝트 컨투어를 추출하는 제어부;
    를 포함하는 영상 처리 장치.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 영상 분석부에 의해 분석된 결과에 기초하여 상기 제1 오브젝트 컨투어의 신뢰도를 산출하고, 상기 산출된 신뢰도에 기초하여 상기 제1 오브젝트 컨투어에 부여할 제1 가중치 및 상기 제2 오브젝트 컨투어에 부여할 제2 가중치를 결정하는 것을 특징으로 하는 영상 처리 장치.
  3. 제 2 항에 있어서,
    상기 제어부는,
    상기 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰도를 산출하고, 상기 산출된 각 로컬 영역별 신뢰도에 비례하도록 상기 각 로컬 영역에 부여할 제1 가중치를 결정하며, 상기 로컬 영역에 대해 산출된 신뢰도가 기설정된 임계값 이상이면 해당 로컬 영역에 대한 제1 가중치를 맥스(max)값으로 설정하는 것을 특징으로 하는 영상 처리 장치.
  4. 제 3 항에 있어서,
    상기 제어부는,
    상기 각 로컬 영역에 부여할 제1 가중치에 기초하여 상기 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치를 결정하며,
    상기 제2 오브젝트 컨투어의 각 로컬 영역별 제2 가중치는,
    상기 제1 오브젝트 컨투어의 각 로컬 영역별 제1 가중치에 반비례하는 것을 특징으로 하는 영상 처리 장치.
  5. 제 1 항에 있어서,
    상기 영상 분석부는,
    상기 디스플레이된 영상 및 상기 제1 오브젝트 컨투어 중 적어도 하나를 구성하는 각 로컬 영역 별로 색상, 밝기, 에지 및 분산 정보 중 적어도 하나를 검출하고,
    상기 제어부는,
    상기 검출 결과에 기초하여 상기 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 신뢰도를 산출하는 것을 특징으로 하는 영상 처리 장치.
  6. 제 1 항에 있어서,
    사용자 명령을 수신하는 사용자 인터페이스부;를 더 포함하며,
    상기 제어부는,
    상기 사용자 인터페이스부를 통해 수신된 상기 사용자 명령에 따라 상기 영역을 지정하는 것을 특징으로 하는 영상 처리 장치.
  7. 제 1 항에 있어서,
    상기 제어부는,
    상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값 및 위치 중 적어도 하나에 기초하여 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정하는 것을 특징으로 하는 영상 처리 장치.
  8. 제 7 항에 있어서,
    상기 제어부는,
    상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역이 결정되면, 아래 수식을 이용하여 상기 오브젝트 컨투어를 추출하는 것을 특징으로 하는 영상 처리 장치:
    (x,y)OC = (x,y)1 OCW(x,y)1 OC + (x,y)2 OCW(x,y)2 OC이며,
    여기서, (x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역이고, W(x,y)1 OC는 상기 제1 오브젝트 컨투어의 로컬 영역에 부여된 제1 가중치이며, (x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역이고, W(x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역에 부여된 제2 가중치인 것을 특징으로 하는 영상 처리 장치.
  9. 영상 처리 장치에서 수신된 영상을 처리하는 영상 처리 방법에 있어서,
    상기 수신된 영상을 디스플레이하는 단계;
    상기 디스플레이된 영상 중 사용자에 의해 지정된 영역에 기설정된 알고리즘을 적용하여 제1 오브젝트 컨투어를 추출하고, 상기 지정된 영역에 기초하여 제2 오브젝트 컨투어를 추출하는 단계;
    상기 디스플레이된 영상의 분석 결과에 기초하여 상기 제1 및 제2 오브젝트 컨투어에 대한 가중치를 결정하는 단계; 및
    상기 결정된 가중치가 적용된 상기 제1 및 제2 오브젝트 컨투어에 기초하여 오브젝트 컨투어를 추출하는 단계;
    를 포함하는 영상 처리 방법.
  10. 제 9 항에 있어서,
    상기 결정하는 단계는,
    상기 분석 결과에 기초하여 상기 제1 오브젝트 컨투어의 신뢰도를 산출하고, 상기 산출된 신뢰도에 기초하여 상기 제1 오브젝트 컨투어에 부여할 제1 가중치 및 상기 제2 오브젝트 컨투어에 부여할 제2 가중치를 결정하는 것을 특징으로 하는 영상 처리 방법.
  11. 제 10 항에 있어서,
    상기 결정하는 단계는,
    상기 제1 오브젝트 컨투어의 각 로컬 영역별 신뢰도를 산출하고, 상기 산출된 각 로컬 영역별 신뢰도에 비례하도록 상기 각 로컬 영역에 부여할 제1 가중치를 결정하며, 상기 로컬 영역에 대해 산출된 신뢰도가 기설정된 임계값 이상이면 해당 로컬 영역에 대한 제1 가중치를 맥스(max)값으로 설정하는 것을 특징으로 하는 영상 처리 방법.
  12. 제 11 항에 있어서,
    상기 결정하는 단계는,
    상기 각 로컬 영역에 부여할 제1 가중치에 기초하여 상기 제2 오브젝트 컨투어의 각 로컬 영역에 부여할 제2 가중치를 결정하며,
    상기 제2 오브젝트 컨투어의 각 로컬 영역별 제2 가중치는,
    상기 제1 오브젝트 컨투어의 각 로컬 영역별 제1 가중치에 반비례하는 것을 특징으로 하는 영상 처리 방법.
  13. 제 9 항에 있어서,
    상기 결정하는 단계는,
    상기 디스플레이된 영상 및 상기 제1 오브젝트 컨투어 중 적어도 하나를 구성하는 각 로컬 영역 별로 색상, 밝기, 에지 및 분산 정보 중 적어도 하나를 검출하고, 상기 검출 결과에 기초하여 상기 제1 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 신뢰도를 산출하는 것을 특징으로 하는 영상 처리 방법.
  14. 제 9 항에 있어서,
    사용자 명령을 수신하는 단계; 및
    상기 수신된 사용자 명령에 따라 상기 영역을 지정하는 단계;
    를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  15. 제 9 항에 있어서,
    상기 추출하는 단계는,
    상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역에 대한 화소값 및 위치 중 적어도 하나에 기초하여 상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역을 결정하는 것을 특징으로 하는 영상 처리 방법.
  16. 제 15 항에 있어서,
    상기 추출하는 단계는,
    상기 제1 및 제2 오브젝트 컨투어를 구성하는 각 로컬 영역 중 서로 대응되는 로컬 영역이 결정되면, 아래 수식을 이용하여 상기 오브젝트 컨투어를 추출하는 것을 특징으로 하는 영상 처리 방법:
    (x,y)OC = (x,y)1OCW(x,y)1OC + (x,y)2OCW(x,y)2OC이며,
    여기서, (x,y)1OC는 상기 제1 오브젝트 컨투어의 로컬 영역이고, W(x,y)1OC는 상기 제1 오브젝트 컨투어의 로컬 영역에 부여된 제1 가중치이며, (x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역이고, W(x,y)2 OC는 상기 제2 오브젝트 컨투어의 로컬 영역에 부여된 제2 가중치인 것을 특징으로 하는 영상 처리 방법.
KR1020120098136A 2012-09-05 2012-09-05 영상 처리 장치 및 방법 KR20140031613A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120098136A KR20140031613A (ko) 2012-09-05 2012-09-05 영상 처리 장치 및 방법
EP13181905.4A EP2706502A1 (en) 2012-09-05 2013-08-27 Image processing apparatus and method
US14/015,054 US9299005B2 (en) 2012-09-05 2013-08-30 Image processing apparatus and method
CN201310394982.2A CN103686272B (zh) 2012-09-05 2013-09-03 图像处理装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120098136A KR20140031613A (ko) 2012-09-05 2012-09-05 영상 처리 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20140031613A true KR20140031613A (ko) 2014-03-13

Family

ID=49054407

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120098136A KR20140031613A (ko) 2012-09-05 2012-09-05 영상 처리 장치 및 방법

Country Status (4)

Country Link
US (1) US9299005B2 (ko)
EP (1) EP2706502A1 (ko)
KR (1) KR20140031613A (ko)
CN (1) CN103686272B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115322B1 (ko) * 2018-11-28 2020-05-26 주식회사 휴먼아이씨티 스마트 영상분석 시스템

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947142B2 (en) * 2014-11-18 2018-04-17 St. Jude Medical, Cardiology Division, Inc. Methods and systems for generating a patch surface model of a geometric structure
KR102439769B1 (ko) * 2016-01-18 2022-09-05 삼성메디슨 주식회사 의료 영상 장치 및 그 동작방법
US10089721B2 (en) * 2016-09-08 2018-10-02 Sony Corporation Image processing system and method for object boundary smoothening for image segmentation
DE102016222194A1 (de) * 2016-11-11 2018-05-17 Henkel Ag & Co. Kgaa Verfahren und Vorrichtung zum Ermitteln eines Glättewerts einer Frisur
JP6958395B2 (ja) * 2018-01-31 2021-11-02 富士通株式会社 記憶制御プログラム、記憶制御方法および記憶制御装置
JP7446756B2 (ja) * 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN112831982A (zh) * 2019-11-22 2021-05-25 重庆海尔洗衣机有限公司 衣物颜色识别的处理方法、装置、设备及存储介质
CN116627372B (zh) * 2023-05-24 2024-03-12 上海感图网络科技有限公司 Pnl物料对齐预览显示方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09270015A (ja) * 1996-03-29 1997-10-14 Fujitsu Ltd 輪郭抽出方法及びシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69233722T2 (de) * 1991-09-12 2009-02-12 Fujifilm Corp. Verfahren zur Ermittlung von Objektbildern und Verfahren zur Bestimmung der Bewegung davon
US5396584A (en) 1992-05-29 1995-03-07 Destiny Technology Corporation Multi-bit image edge enhancement method and apparatus
US5680471A (en) * 1993-07-27 1997-10-21 Kabushiki Kaisha Toshiba Image processing apparatus and method
JP3405776B2 (ja) * 1993-09-22 2003-05-12 コニカ株式会社 切り抜き画像の輪郭線探索装置
JPH08206117A (ja) * 1994-05-27 1996-08-13 Fujitsu Ltd 超音波診断装置
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
US7003161B2 (en) * 2001-11-16 2006-02-21 Mitutoyo Corporation Systems and methods for boundary detection in images
US7834305B2 (en) * 2004-07-30 2010-11-16 Panasonic Electric Works Co., Ltd. Image processing device
JP2006260401A (ja) * 2005-03-18 2006-09-28 Toshiba Corp 画像処理装置、方法、およびプログラム
EP1748389A1 (en) 2005-07-28 2007-01-31 Microsoft Corporation Image blending
KR100836740B1 (ko) 2006-08-28 2008-06-10 계명대학교 산학협력단 영상 데이터 처리 방법 및 그에 따른 시스템
EP1916538A3 (en) * 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
JP4274233B2 (ja) * 2006-11-30 2009-06-03 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
KR100889936B1 (ko) 2007-06-18 2009-03-20 한국전자통신연구원 디지털 비디오 특징점 비교 방법 및 이를 이용한 디지털비디오 관리 시스템
US8200015B2 (en) 2007-06-22 2012-06-12 Siemens Aktiengesellschaft Method for interactively segmenting structures in image data records and image processing unit for carrying out the method
CN101394546B (zh) * 2007-09-17 2010-08-25 华为技术有限公司 视频目标轮廓跟踪方法及装置
WO2009062062A1 (en) * 2007-11-09 2009-05-14 Imacor, Llc Superimposed display of image contours
CN102254304B (zh) * 2011-06-17 2012-08-29 电子科技大学 一种目标物体轮廓检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09270015A (ja) * 1996-03-29 1997-10-14 Fujitsu Ltd 輪郭抽出方法及びシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115322B1 (ko) * 2018-11-28 2020-05-26 주식회사 휴먼아이씨티 스마트 영상분석 시스템

Also Published As

Publication number Publication date
EP2706502A1 (en) 2014-03-12
US9299005B2 (en) 2016-03-29
US20140064625A1 (en) 2014-03-06
CN103686272A (zh) 2014-03-26
CN103686272B (zh) 2018-07-13

Similar Documents

Publication Publication Date Title
KR20140031613A (ko) 영상 처리 장치 및 방법
US9865062B2 (en) Systems and methods for determining a region in an image
JP6225256B2 (ja) 画像処理システム及びコンピュータ読み取り可能な記録媒体
US9600898B2 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
KR20170050908A (ko) 음성 인식이 가능한 전자 장치 및 방법
CN109167893B (zh) 拍摄图像的处理方法、装置、存储介质及移动终端
US9430039B2 (en) Apparatus for controlling virtual mouse based on hand motion and method thereof
US20160048214A1 (en) Using distance between objects in touchless gestural interfaces
US9310908B2 (en) Color sampling method and touch control device thereof
JP7085812B2 (ja) 画像処理装置およびその制御方法
CN110007832B (zh) 信息终端装置、信息处理系统以及存储有显示控制程序的计算机可读非暂时性的存储介质
WO2016139868A1 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
EP2888716B1 (en) Target object angle determination using multiple cameras
KR20150078229A (ko) 디스플레이 장치 및 디스플레이 장치의 채널 맵 관리 방법
US20150086074A1 (en) Information processing device, information processing method, and program
US20150062355A1 (en) Information processing device, information processing method and program
KR20190005651A (ko) 장면전환 검출 장치 및 방법
KR20100081099A (ko) 아웃 포커싱 장치 및 방법
US11785342B2 (en) Method of activating an object-specific action
CN116977228B (zh) 图像降噪方法、电子设备及存储介质
EP3568993B1 (en) Display device for recognizing user interface and controlling method thereof
CN106650557B (zh) 影像分区门坎值决定方法及系统、手势判断方法及系统
KR20150129557A (ko) 디스플레이 장치 및 이의 제어 방법
RU2431939C1 (ru) Способ выявления двумерного экранного меню на стерео видеопоследовательности
KR20150001242A (ko) 손 제스처 인식용 초광각 스테레오 카메라 시스템 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right