KR100497492B1 - 동영상에서의 객체영상 제거장치 및 방법 - Google Patents

동영상에서의 객체영상 제거장치 및 방법 Download PDF

Info

Publication number
KR100497492B1
KR100497492B1 KR10-2002-0061288A KR20020061288A KR100497492B1 KR 100497492 B1 KR100497492 B1 KR 100497492B1 KR 20020061288 A KR20020061288 A KR 20020061288A KR 100497492 B1 KR100497492 B1 KR 100497492B1
Authority
KR
South Korea
Prior art keywords
area
texture model
object image
image
region
Prior art date
Application number
KR10-2002-0061288A
Other languages
English (en)
Other versions
KR20040031986A (ko
Inventor
이성환
박상철
권기운
Original Assignee
이성환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이성환 filed Critical 이성환
Priority to KR10-2002-0061288A priority Critical patent/KR100497492B1/ko
Publication of KR20040031986A publication Critical patent/KR20040031986A/ko
Application granted granted Critical
Publication of KR100497492B1 publication Critical patent/KR100497492B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45452Input to filtering algorithms, e.g. filtering a region of the image applied to an object-based stream, e.g. MPEG-4 streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes

Abstract

본 발명은 동영상에서의 객체영상 제거장치 및 방법에 관한 것으로, 동영상 입력부, 사용자 명령 입력부, 참조영상정보 등록부, 데이터베이스, 객체접경영역 설정부, 객체추출부, 객체추적부, 객체제거부, 동영상 출력부를 포함하고, 사용자의 지정에 따라 입력되는 동영상신호를 구성하는 단위영상들의 소정영역에 위치하는 객체영상에 대한 객체제거영역 및 표본텍스처모델을 설정하는 과정과, 해당 표본텍스처모델에 의거하여 객체제거영역 내의 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하고, 그 객체접경영역에서 실제객체영상영역을 도출하는 과정과, 실제객체영상영역정보와 객체접경영역정보에 의거하여 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적하는 과정과, 실제객체영상영역에 배치할 새로운 텍스처모델을 생성한 후, 실제객체영상의 추적에 따른 객체영상 추적정보 및 실제객체영상영역정보에 의거하여 연속된 단위영상들 내의 실제객체영상영역에 생성된 새로운 텍스처모델을 배치함으로써 실제객체영상을 제거하는 과정과, 실제객체영상이 제거된 동영상신호를 출력하는 과정을 수행함으로써 동영상 내의 객체영상 제거에 따른 동영상의 부자연스러움을 최소화할 수 있으며, 이로 인해, 시청자들의 동영상 시청에 따른 거부감을 최소화시킬 수 있는 장점이 있다.

Description

동영상에서의 객체영상 제거장치 및 방법{Apparatus and method for removing object image in video}
본 발명은 동영상에서의 객체영상 제거장치 및 방법에 관한 것으로, 보다 상세하게는 동영상 내의 상표나 로고와 같은 객체영상을 그 객체영상의 주변 텍스처와 유사한 텍스처로 대체함으로써 해당 객체영상이 자연스럽게 제거될 수 있도록 한 동영상에서의 객체영상 제거장치 및 방법에 관한 것이다.
디지털 방송 기술의 발달로 인해, 디지털 방송을 위한 동영상 편집이나, 획기적인 특수효과, 영상 합성 등의 동영상처리기술이 요구되고 있으며, 이러한 동영상처리기술이 점점 다양하게 발달하고 있는 추세이다.
기존의 동영상 편집이나, 영상합성 등의 동영상처리기술은 동영상에서 상표나 로고와 같은 객체영상을 모자이크 처리함으로써 그 객체영상을 제거하는 것이 일반적이다. 이를 위해, 동영상처리기술은 상표나 로고와 같은 객체영상을 모자이크 처리하기 위해 모자이크를 구현하는 별도의 하드웨어에 의존하여야 했다.
따라서, 상술한 동영상처리기술은 동영상에서 상표나 로고와 같은 객체영상을 제거하기 위해 하드웨어에 의존함으로써 보다 정확한 동영상 처리를 위해서는 고비용의 영상처리장치를 이용하여야 했다.
본 발명은 상기한 바와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 하드웨어적인 도움 없이 일반적인 동영상에서 상표나 로고와 같은 객체영상 제거시 해당 객체영상의 주변 텍스처와 유사한 텍스처를 생성하여 그 텍스처를 제거하고자 하는 객체영상의 영역에 배치함으로써 해당 객체영상이 자연스럽게 제거될 수 있도록 한 동영상에서의 객체영상 제거장치 및 방법을 제공하는데 그 목적이 있다.
상기 목적을 달성하기 위한 본 발명에 따른 동영상에서의 객체영상 제거장치는 연속적인 단위영상들의 스트림인 동영상신호를 입력하는 동영상 입력부; 사용자의 명령을 입력받기 위한 사용자 명령 입력부; 참조영상정보를 등록하는 데이터베이스; 사용자 명령 입력부로부터 사용자에 의한 객체영상 지정신호가 전송되면, 상기 동영상 입력부를 통해 입력되는 동영상신호를 구성하는 단위영상들의 소정영역에 위치한 객체영상에 대한 객체제거영역을 설정하고, 그 객체제거영역을 바탕으로 표본텍스처모델을 설정한 후, 상기 객체제거영역 및 표본텍스처모델에 대한 참조영상정보를 상기 데이터베이스에 등록하는 참조영상정보 등록부; 상기 참조영상정보 등록부로부터 참조영상정보를 전송받아 해당 참조영상정보에 포함된 표본텍스처모델정보를 바탕으로 객체제거영역 내의 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하는 객체접경영역 설정부; 상기 객체접경영역 설정부로부터 객체접경영역정보를 전송받고, 참조영상정보 등록부로부터 참조영상정보를 전송받아 해당 참조영상정보에 의거하여 객체접경영역 내의 실제객체영상에 대한 가상객체영상영역을 도출한 후, 그 가상객체영상영역으로부터 실제객체영상영역을 추출하는 객체추출부; 상기 객체추출부에서 추출된 실제객체영상영역정보와, 객체접경영역 설정부에서 설정된 객체접경영역정보를 바탕으로 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적하는 객체추적부; 참조영상정보 등록부으로부터 참조영상정보를 전송받고, 객체추출부로부터 실제객체영상영역정보를 전송받고, 객체추적부로부터 실제객체영상 추적에 따른 객체영상 추적정보를 전송받아 실제객체영상영역에 배치할 새로운 텍스처모델을 생성한 후, 그 텍스처모델을 연속된 단위영상들 내의 실제객체영상영역에 배치함으로써 해당 실제객체영상을 제거하는 객체제거부; 및 상기 객체제거부를 통해 실제객체영상이 제거된 동영상신호를 출력하는 동영상출력부를 포함하여 구성되는데 그 특징이 있다.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 동영상에서의 객체영상 제거방법은 (a) 연속적인 단위영상들의 스트림인 동영상신호를 입력받는 단계; (b) 사용자의 객체영상 지정에 따라 상기 동영상신호를 구성하는 단위영상들의 소정영역에 위치하는 객체영상에 대한 객체제거영역을 설정하고, 그 객체제거영역에 의거한 표본텍스처모델을 설정한 후, 상기 객체제거영역 및 표본텍스처모델에 대한 참조영상정보를 등록하는 단계; (c) 상기 참조영상정보를 바탕으로 객체제거영역의 텍스처모델에서 표본텍스처모델과 동일하지 않은 특정텍스처모델을 인지한 후, 그 특정텍스처모델의 분포경계를 검출하여 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하는 단계; (d) (b)단계에서 등록된 참조영상정보와, (c)단계에서 설정된 객체접경영역정보를 바탕으로 해당 객체접경영역 내의 실제객체영상에 대한 가상객체영상영역을 도출한 후, 그 가상객체영상영역으로부터 실제객체영상영역을 추출하는 단계; (e) (c)단계에서 설정된 객체접경영역정보와, (d)단계에서 추출된 실제객체영상영역정보를 바탕으로 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적하는 단계; 및 (f) (b)단계에서 등록된 참조영상정보와, (d)단계에서 추출된 실제객체영상영역정보와, (e)단계에서의 실제객체영상 추적에 따른 객체영상 추적정보에 의거하여 실제객체영상영역에 배치할 새로운 텍스처모델을 생성한 후, 그 텍스처모델을 연속된 단위영상들 내의 실제객체영상영역에 배치함으로써 실제객체영상을 제거하여 동영상신호를 출력하는 단계를 포함하여 이루어지는데 그 특징이 있다.
이하, 첨부한 도면에 의거하여, 본 발명에 따른 동영상에서의 객체영상 제거장치 및 방법에 대한 바람직한 실시예를 좀 더 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 동영상에서의 객체영상 제거장치에 대한 개략적인 블록도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 동영상에서의 객체영상 제거장치는 동영상 입력부(10), 사용자 명령 입력부(20), 참조영상정보 등록부(30), 데이터베이스(40), 객체접경영역 설정부(50), 객체추출부(60), 객체추적부(70), 객체제거부(80) 및 동영상 출력부(90)를 포함하여 구성된다.
동영상 입력부(10)는 연속적인 단위영상들의 스트림인 동영상신호를 입력한다.
사용자 명령 입력부(20)는 동영상신호를 구성하는 단위영상들의 소정영역에 위치한 객체영상을 제거하기 위한 사용자 조작신호(예컨대, 객체영상 지정신호)를 입력한다. 예컨대, 사용자가 화면상에 디스플레이 되는 동영상 내의 객체영상(예컨대, 상표, 로고 등)을 제거하고자 입력장치(예컨대, 마우스)(도시생략)를 이용하여 상기 객체영상을 포함하는 영역을 드래그(drag)하면, 사용자 명령 입력부(20)는 사용자의 소정 영역 지정에 따른 객체영상 지정신호를 입력한다.
참조영상정보 등록부(30)는 상기 사용자 명령 입력부(20)로부터 객체영상 지정신호가 전송되면, 동영상 입력부(10)를 통해 현재 입력되는 동영상신호를 구성하는 단위영상들의 소정영역에 위치한 객체영상에 대한 객체제거영역(A)을 설정한다. 즉, 도 2에 도시된 바와 같이, 참조영상정보 등록부(30)는 객체영상에 대한 객체제거영역(A)을 설정한다.
또한, 참조영상정보 등록부(30)는 상기 설정된 객체제거영역(A)을 바탕으로 표본텍스처모델('도 2'의 B)을 설정한다.
즉, 참조영상정보 등록부(30)는 상기 객체제거영역(A)내의 우측상단영역이나 또는 좌측하단영역에 해당되는 텍스처모델을 표본텍스처모델(B)로 자동 설정한다. 한편, 참조영상정보 등록부(30)는 사용자의 지정에 따라 상기 객체제거영역(A)외의 소정영역에 해당되는 텍스처모델을 표본텍스처모델로 설정할 수도 있다. 이하, 본 발명에 따른 동영상에서의 객체영상 제거장치는 객체제거영역(A)내의 좌측하단영역에 해당되는 텍스처모델을 표본텍스처모델(B)로 설정하는 것으로 가정한다.
여기서 텍스처란 규칙적인 무늬를 갖는 배경을 나타내는 것으로, 예를 들면, 벽돌이 쌓여 규칙적인 무늬를 형성한 벽면, 동일한 무늬(또는 색상)가 균일하게 배열된 콘크리트, 잔디, 종이 등을 텍스처라고 한다.
이후, 참조영상정보 등록부(30)는 상기 설정된 객체제거영역(A)정보를 데이터베이스(40)에 등록하고, 또한, 상기 설정된 표본텍스처모델(B)을 분석하여 그 표본텍스처모델(B)에 대한 복잡도정보 및 색상정보를 상기 데이터베이스(40)에 등록한다. 여기서 상기 객체제거영역(A)정보 및 표본텍스처모델(B)정보를 포함하여 참조영상정보라 한다.
객체접경영역 설정부(50)는 참조영상정보 등록부(30)로부터 참조영상정보를 전송받아 해당 참조영상정보에 포함된 객체제거영역(A)정보를 바탕으로 그 객체제거영역(A)의 크기를 'N' 분할함에 따른 크기를 갖는 검색커널(이하, 객체접경 검색커널이라 함)을 설정한다. 그리고 도 3에 도시된 바와 같이, 상기 객체제거영역(A)의 시작점(P)에 가장 근접한 실제객체영상의 근접점(M)을 검출하여 그 근접점(M)을 상기 객체접경 검색커널(D)의 중점으로 설정한다.
이후, 객체접경영역 설정부(50)는 객체접경 검색커널(D)을 근접점(M)을 중심으로 소정간격(예컨대, 픽셀 크기 간격)씩 이동함에 따른 객체접경 검색커널(D)의 각 영역에 해당하는 텍스처모델을 참조영상정보인 표본텍스처모델(B)정보를 바탕으로 분석한다. 상기 분석결과, 객체접경 검색커널(D) 영역의 텍스처모델에 표본텍스처모델(B)과 동일하지 않은 특정텍스처모델(엄밀히 말하면, 실제객체영상에 대한 텍스처모델을 의미함)이 인지되면, 객체접경 검색커널(D)의 영역 내에서 해당 특정텍스처모델의 분포에 따른 경계를 검출하여 객체영상에 대한 최외곽 접경 영역인 객체접경영역(C)을 설정한다.
객체추출부(60)는 참조영상정보 등록부(30)로부터 참조영상정보를 전송받고, 객체접경영역 설정부(50)로부터 객체접경영역(C)정보를 전송받아 상기 객체접경영역(C)내에서 실제객체영상영역('도 5'의 G)을 추출한다.
도 2는 본 발명의 실시예에 따른 객체추출부(60)에 대한 개략적인 블록도로서, 도 2를 참조하면, 상기 객체추출부(60)는 객체/배경 분리부(61), 노이즈 제거부(62), 칸투어정보 분석부(63) 및 텍스처정보 분석부(64)를 포함하여 구성된다.
객체/배경 분리부(61)는 객체접경영역 설정부(50)로부터 전송된 객체접경영역(C)정보에 의거하여 해당 객체접경영역(C)의 크기를 'N' 분할함에 따른 크기를 갖는 검색커널(이하, 객체검색커널이라 함)을 설정하고, 상기 객체접경영역(C)의 소정영역을 상기 객체검색커널의 이동 시작 위치로 설정한 후, 그 영역을 시작으로 상기 객체검색커널을 소정간격(예컨대, 픽셀 간격)씩 이동시킨다.
그리고 객체/배경 분리부(61)는 객체검색커널의 소정간격 이동에 따른 객체검색커널의 각 영역에 해당되는 텍스처모델을 참조영상정보인 표본텍스처모델(B)정보를 바탕으로 분석한다.
이때, 상기 분석결과, 객체검색커널의 소정영역에 해당되는 텍스처모델에 표본텍스처모델(B)과 동일하지 않은 특정텍스처모델이 인지되면, 상기 객체검색커널의 소정영역에 해당되는 특정텍스처모델의 존재비중을 판단하여 그 판단결과에 따라 상기 객체검색커널의 소정영역을 실제객체영상에 대한 가상객체영상영역으로 분리하거나 또는 배경영역으로 분리한다.
한편, 상기 분석결과, 객체검색커널의 소정영역에 해당되는 텍스처모델에 표본텍스처모델(B)과 동일하지 않은 특정텍스처모델이 인지되지 않으면, 그 영역의 텍스처모델은 표본텍스처모델과 동일한 것으로 판단하여 해당 영역을 배경영역으로 분리한다.
결국, 도 5에 도시된 바와 같이, 객체/배경 분리부(61)는 객체접경영역(C)을 바탕으로 가상객체영상영역(E)과 배경영역(F)을 분리한다.
노이즈 제거부(62)는 상기 객체/배경 분리부(61)로부터 분리된 가상객체영상영역(E) 내에 포함된 노이즈를 커넥티드 컴퍼넌트 요소 분석방법을 이용하여 제거한다. 여기서 커넥티드 컴퍼넌트 요소 분석방법을 이용한 노이즈 제거방법은 영상처리분야에 있어서, 이미 공지된 기술이므로 본 명세서에서는 구체적인 설명을 생략한다.
칸투어정보 분석부(63)는 상기 노이즈 제거부(62)를 통해 노이즈가 제거된 가상객체영상영역(E)을 바탕으로 실제객체영상에 대한 경계선의 점들을 분석하는 칸투어 작업을 수행하여 상기 가상객체영상영역(E)으로부터 실제객체영상영역(또는 칸투어 영역이라고도 함)(G)을 추출한다. 여기서 칸투어 작업은 영상처리분야에 있어서, 이미 공지된 기술이므로 본 명세서에서는 구체적인 설명을 생략한다.
텍스처정보 분석부(64)는 객체/배경 분리부(61)로부터 분리된 가상객체영상영역(E)정보를 전송받아 그 가상객체영상영역(E)내의 텍스처모델을 참조영상정보인 표본텍스처모델(B)정보를 바탕으로 분석한다. 즉, 상기 가상객체영상영역(E)내의 텍스처모델에서 표본텍스처모델(B)과 동일한 부분은 배경영역으로 분석하고, 상기 표본텍스처모델(B)과 동일하지 않은 부분은 실제객체영상영역(G)으로 분석함으로써 실제객체영상영역(G)을 추출한다.
여기서 객체추출부(60)는 객체/배경 분리부(61), 노이즈 제거부(62) 및 칸투어정보 분석부(63)를 통해 실제객체영상영역(G)을 추출하는 과정을 수행하거나 또는 객체/배경 분리부(61) 및 텍스처정보 분석부(64)를 통해 실제객체영상영역(G)을 추출하는 과정을 수행할 수 있고, 추출하고자 하는 실제객체영상의 텍스처모델과 그 실제객체영상의 배경영역에 대한 텍스처모델에 따라 상술한 과정 중 어느 하나를 선택적으로 수행한다.
객체추적부(70)는 객체접경영역 설정부(50)로부터 객체접경영역(C)정보를 전송받고, 객체추출부(60)로부터 실제객체영상영역(G)정보를 전송받아 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적한다.
여기서 실제객체영상을 추적하는 방법에는 객체추출부(60)에서 칸투어 작업을 통해 추출한 칸투어 영역[즉, 실제객체영상영역(G)]을 실제객체영상의 이동 위치를 추적하기 위한 움직임벡터로 사용하여 실제객체영상의 이동을 추적하는 방법이 적용 가능하다. 이때, 실제객체영상 이동을 추적하기 위해 칸투어 영역을 이용함으로써 실제객체영상의 타 객체영상과의 부분겹침 또는 완전겹침과, 실제객체영상의 어파인 변형, 원근 변형과 같은 모양변형에 대하여 실제객체영상을 안정적으로 추적하는 것이 가능하다.
한편, 객체추출부(60)에서 추출한 실제객체영상영역(G)을 바탕으로 실제객체영상의 특징점을 검출한 후, 그 특징점에 의거하여 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적하는 방법도 적용 가능하다.
이하, 칸투어 영역을 이용한 객체추적방법과, 객체영상의 특징점을 이용한 객체추적방법은 영상처리분야에 있어서, 이미 공지된 기술이므로 본 명세서에서는 구체적인 설명은 생략한다.
객체제거부(80)는 참조영상정보 등록부(30)로부터 참조영상정보를 전송받고, 객체추출부(60)로부터 실제객체영상영역(G)정보를 전송받고, 객체추적부(70)로부터 실제객체영상 추적에 따른 정보인 객체영상 추적정보를 전송받아 상기 참조영상정보인 표본텍스처모델(B)정보(즉, 복잡도정보, 색상정보)에 의거하여 실제객체영상을 대체할 새로운 텍스처모델을 생성한다.
이후, 객체제거부(80)는 실제객체영상영역(G)정보와 객체영상 추적정보에 의거하여 연속된 단위영상들 내에 위치한 실제객체영상의 영역에 상기 생성된 새로운 텍스처모델을 배치함으로써 실제객체영상을 제거한다.
여기서 새로운 텍스처모델을 생성하여 실제객체영상을 제거하는 방법에는 블록매칭모델을 이용한 텍스처모델 생성으로 객체영상을 제거하는 방법과, Non-Parametric Sampling을 이용한 텍스처모델 생성으로 객체영상을 제거하는 방법과, 임의로 샘플링하여 픽셀 단위로 합성함으로써 텍스처모델을 생성하여 객체영상을 제거하는 방법 등을 적용하는 것이 가능하다. 상술한 방법들은 영상처리분야에 있어서, 이미 공지된 기술이므로 구체적인 설명은 생략한다.
동영상 출력부(90)는 상기 객체제거부(80)를 통해 실제객체영상이 제거된 동영상신호를 출력한다.
도 6은 본 발명의 실시예에 따른 동영상에서의 객체영상 제거방법에 대한 처리 흐름도이다. 도 6을 참조하면, 본 발명의 실시예에 따른 동영상에서의 객체영상 제거방법은 먼저, 연속적인 단위영상들의 스트림인 동영상신호를 입력하고(s100), 상기 동영상에 대한 사용자의 객체영상 지정신호가 입력되면(s200), 현재 입력된 동영상을 구성하는 단위영상들의 소정영역에 위치한 실제객체영상에 대한 참조영상을 설정한 후, 그 참조영상에 대한 정보[즉, 참조영상정보(객체제거영역정보, 표본텍스처모델정보)]를 등록한다(s300).
그리고 상기s300단계에서 설정된 참조영상정보를 바탕으로 추출하고자 하는 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역('도 3'의 C)을 설정한다(s400).
또한, 상기s300단계에서 설정된 참조영상정보와, 상기s400단계에서 설정된 객체접경영역정보에 의거하여 가상객체영상영역('도 5'의 E)을 도출한 후, 그 가상객체영상영역에 대하여 칸투어 작업을 수행하거나 또는 텍스처모델 비교작업을 수행함으로써 실제객체영상영역('도 5'의 G)을 추출한다(s500).
이후, 상기s400단계에서 설정된 객체접경영역정보와, 상기s500단계에서 추출된 실제객체영상영역정보를 바탕으로 연속된 단위영상들 내에서의 실제객체영상에 대한 이동 위치를 추적한다(s600). 여기서 상기s600단계에 대한 보다 구체적인 설명은 도 1의 객체추적부(70)를 참조한 설명과 유사하므로 생략한다.
그리고 참조영상정보(s300)와, 실제객체영상영역정보(s500) 및 객체영상 추적에 따른 객체영상 추적정보(s600)에 의거하여 실제객체영상을 대체할 새로운 텍스처모델을 생성한 후, 그 새로운 텍스처모델을 연속된 단위영상들 내의 실제객체영상영역에 배치함으로써 실제객체영상을 제거한다(s700).
마지막으로 상기s700단계에서 실제객체영상이 제거된 연속된 단위영상들의 스트림인 동영상신호를 출력한다(s800).
도 7은 본 발명의 실시예에 따른 참조영상설정 및 그 참조영상정보 등록과정(s300)에 대한 처리 흐름도이다. 도 7을 참조하면, 사용자에 의한 객체영상 지정신호가 입력되면, 사용자의 조작에 따른 객체제거영역('도 2'의 A)을 설정하고(s310), 상기 객체제거영역('도 2'의 A)을 바탕으로 표본텍스처모델('도 2'의 B)을 설정한 후, 그 표본텍스처모델을 분석한다(s320).
이후, 상기s310단계에서 설정된 객체제거영역정보를 등록하고, 또한, 상기s320단계에서 설정된 표본텍스처모델을 분석함에 따른 표본텍스처모델의 복잡도정보 및 색상정보(즉, 표본텍스처모델정보라 함)를 등록한다(s330).
도 8은 본 발명의 실시예에 따른 객체접경영역 설정과정(s400)에 대한 처리 흐름도이다. 도 8을 참조하면, 먼저 s300단계에서 설정된 참조영상정보인 객체제거영역정보에 의거하여 해당 객체제거영역의 크기를 'N' 분할함에 따른 크기를 갖는 객체접경 검색커널('도 3'의 D)을 설정한다(s410).
그리고 객체제거영역의 시작점('도 3'의 P)에 가장 근접한 실제객체영상의 근접점('도 3'의 M)을 검출한 후, 그 근접점을 객체접경 검색커널의 중점으로 설정하고, 상기 근접점을 시작으로 하여 객체접경 검색커널을 소정 간격 이동시킨다(s420, s430, s440).
이때, 상기 객체접경 검색커널에 해당되는 영역(즉, 객체접경 검색커널 영역이라 함)의 텍스처모델에 참조영상정보인 표본텍스처모델과 동일하지 않은 특정텍스처모델(엄밀히 말하면, 실제객체영상에 대한 텍스처모델을 의미함)이 인지되면(s450), 그 객체접경 검색커널 영역 내에 분포한 특정텍스처모델의 경계를 검출한다(s460).
한편, 현재 객체접경 검색커널 영역의 텍스처모델에 표본텍스처모델과 동일하지 않은 특정텍스처모델이 인지되지 않으면(s450), 해당 객체접경 검색커널을 소정 간격 이동시키는 단계(s440)로 복귀하여 해당 단계들(s440, s450)을 반복 수행한다.
이어서 상기s460단계를 수행한 후, 객체접경 검색커널의 현재 위치가 객체제거영역의 마지막 영역에 해당되는지 여부를 판단한다(s470).
상기s470단계를 판단한 결과, 객체접경 검색커널의 현재 위치가 객체제거영역의 마지막 영역에 해당되지 않으면, 상기 객체접경 검색커널을 소정 간격 이동시키는 단계(s440)로 복귀하여 해당 단계들(s440, s450, s460, s470)을 반복 수행하고, 객체접경 검색커널의 현재 위치가 객체제거영역의 마지막 영역에 해당되면, 객체접경 검색커널을 소정 간격으로 이동함에 따라 검출된 특정텍스처모델의 경계를 바탕으로 실제객체영상에 대한 최외곽 접경 영역을 도출한다(s480).
도 9a는 본 발명의 실시예에 따른 칸투어 작업을 이용한 객체영상 추출과정(s500)에 대한 처리 흐름도이다.
도 9a를 참조하면, 도 6에 도시된 s300단계에서 설정된 참조영상정보(즉, 객체제거영역정보, 표본텍스처모델정보)와, s400단계에서 설정된 객체접경영역정보를 입력하고(s501), 소정 크기의 객체검색커널을 설정한다(s503).
그리고 객체접경영역 내의 소정영역을 상기 객체검색커널의 이동 시작 위치로 설정한 후, 그 영역을 시작으로 상기 객체검색커널을 소정 간격 이동시킨다(s505).
이때, 상기 객체검색커널에 해당되는 영역(즉, 객체검색커널 영역이라 함)의 텍스처모델에 참조영상정보인 표본텍스처모델과 동일하지 않은 특정텍스처 모델이 인지되면(s507), 상기 객체검색커널의 현재 영역 내에 분포하는 특정텍스처모델의 비중과 표본텍스처모델의 비중을 비교한다(s509). 한편, 객체검색커널의 영역에 해당되는 텍스처모델에 특정텍스처모델이 인지되지 않으면(s507), 객체검색커널을 소정 간격으로 이동시키는 단계(s505)로 복귀하여 각 단계들(s505, s507)을 반복 수행한다.
이어서 상기s509단계의 비교결과, 특정텍스처모델 비중이 표본텍스처모델 비중보다 큰 값이면, 상기 객체검색커널의 현재 영역을 가상객체영상영역으로 분리하고(s511), 한편, 특정텍스처모델 비중이 표본텍스처모델 비중보다 작은 값이면, 상기 객체검색커널의 현재 영역을 배경영역으로 분리한다(s513).
그리고 상기 객체검색커널의 현재 위치가 객체접경영역의 마지막 영역에 해당되지 않으면(s515), 객체검색커널을 소정 간격으로 이동시키는 단계(s505)로 복귀하여 각 단계들(s505, s507, s509, s511, s513)을 반복 동작하고, 객체검색커널의 현재 위치가 객체접경영역의 마지막 영역에 해당되면(s515), 상기 각 단계들(s505, s507, s509, s511, s513)을 반복 동작함에 따라 분리된 각 가상객체영상영역을 바탕으로 가상객체영상영역을 도출한다(s517).
이후, 상기 도출된 가상객체영상영역 내에 포함된 노이즈를 제거하고(s519), 노이즈가 제거된 가상객체영상영역을 바탕으로 칸투어 작업을 수행하여 실제객체영상영역을 도출한다(s521).
도 9b는 본 발명의 실시예에 따른 텍스처모델 비교작업을 이용한 객체영상 추출과정(s500)에 대한 처리 흐름도이다. 도 9b를 참조하면, s502단계 내지 s518단계 설명은 도 9a를 참조한 s501단계 내지 s517단계 설명과 유사하므로 생략한다.
상기s502단계 내지 s518단계를 동작한 결과, 가상객체영상영역이 도출되면, 상기 가상객체영상영역 내의 텍스처모델을 참조영상정보인 표본텍스처모델을 바탕으로 분석하여 그 분석결과에 따라 상기 가상객체영상영역으로부터 실제객체영상영역을 도출한다(s520, s522).
도 10은 본 발명의 실시예에 따른 객체영상 제거과정(s700)에 대한 처리 흐름도이다. 도 10을 참조하면, 먼저, s300단계에서 설정된 참조영상정보와, s500단계에서 도출된 실제객체영상영역정보와, s600에서 추출된 객체영상 추적정보를 입력하고(s710), 상기 참조영상정보인 표본텍스처모델정보에 의거하여 실제객체영상영역에 대체할 새로운 텍스처모델을 생성한다(s720).
이후, 상기 생성된 텍스처모델을 상기 실제객체영상영역정보와 객체영상 추적정보에 의거하여 연속된 단위영상들 내의 실제객체영상영역에 배치함으로써 실제객체영상을 제거한다(s730).
이제까지 본 발명에 대하여 그 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
이상에서 설명한 바와 같이 본 발명에 따른 동영상에서의 객체영상 제거장치 및 방법은 동영상 내의 상표나 로고와 같은 객체영상을 해당 객체영상의 배경 텍스처와 유사한 텍스처로 대체함으로써 객체영상 제거에 따른 동영상의 부자연스러움을 최소화할 수 있는 장점이 있다.
또한, 별도의 하드웨어 도움 없이 동영상 내의 객체영상 제거가 가능함으로써 객체영상 제거에 필요한 고비용의 장비구입에 따른 지출을 절감할 수 있는 장점이 있다.
또한, 퀴즈 프로그램과 같은 정보 전달 성향을 갖는 방송 프로그램에 종종 삽입되는 보조 설명문구와 같은 자막을 별도의 하드웨어(예컨대, 필터) 도움 없이 제거하는데 적용 가능함으로써 본 발명의 활용범위를 확대할 수 있다는 장점이 있다.
도 1은 본 발명의 실시예에 따른 동영상에서의 객체영상 제거장치에 대한 개략적인 블록도,
도 2는 본 발명의 실시예에 따른 참조영상정보 등록부에 대한 동작설명도,
도 3은 본 발명의 실시에에 따른 객체접경영역 설정부에 대한 동작설명도,
도 4는 본 발명의 실시예에 따른 객체추출부에 대한 개략적인 블록도,
도 5는 본 발명의 실시예에 따른 객체/배경 분리부에 대한 동작설명도,
도 6은 본 발명의 실시예에 따른 동영상에서의 객체영상 제거방법에 대한 처리 흐름도,
도 7은 본 발명의 실시예에 따른 참조영상설정 및 그 참조영상정보 등록과정에 대한 처리 흐름도,
도 8은 본 발명의 실시예에 따른 객체접경영역 설정과정에 대한 처리 흐름도,
도 9a는 본 발명의 실시예에 따른 칸투어 작업을 이용한 객체영상 추출과정에 대한 처리 흐름도,
도 9b는 본 발명의 실시예에 따른 텍스처모델 비교작업을 이용한 객체영상 추출과정에 대한 처리 흐름도,
도 10은 본 발명의 실시예에 따른 객체영상 제거과정에 대한 처리 흐름도이다.
*도면의 주요부분에 대한 부호의 설명*
10 : 동영상 입력부 20 : 사용자 명령 입력부
30 : 참조영상정보 등록부 40 : DB
50 : 객체접경영역 설정부 60 : 객체추출부
70 : 객체추적부 80 : 객체제거부
90 : 동영상 출력부

Claims (10)

  1. 연속적인 단위영상들의 스트림인 동영상신호를 입력하는 동영상 입력부;
    사용자의 명령을 입력받기 위한 사용자 명령 입력부;
    참조영상정보를 등록하는 데이터베이스;
    사용자 명령 입력부로부터 사용자에 의한 객체영상 지정신호가 전송되면, 상기 동영상 입력부를 통해 입력되는 동영상신호를 구성하는 단위영상들의 소정영역에 위치한 객체영상에 대한 객체제거영역을 설정하고, 그 객체제거영역을 바탕으로 표본텍스처모델을 설정한 후, 상기 객체제거영역 및 표본텍스처모델에 대한 참조영상정보를 상기 데이터베이스에 등록하는 참조영상정보 등록부;
    상기 참조영상정보 등록부로부터 참조영상정보를 전송받아 해당 참조영상정보에 포함된 표본텍스처모델정보를 바탕으로 객체제거영역 내의 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하는 객체접경영역 설정부;
    상기 객체접경영역 설정부로부터 객체접경영역정보를 전송받고, 참조영상정보 등록부로부터 참조영상정보를 전송받아 해당 참조영상정보에 의거하여 객체접경영역 내의 실제객체영상에 대한 가상객체영상영역을 도출한 후, 그 가상객체영상영역으로부터 실제객체영상영역을 추출하는 객체추출부;
    상기 객체추출부에서 추출된 실제객체영상영역정보와, 객체접경영역 설정부에서 설정된 객체접경영역정보를 바탕으로 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적하는 객체추적부;
    참조영상정보 등록부으로부터 참조영상정보를 전송받고, 객체추출부로부터 실제객체영상영역정보를 전송받고, 객체추적부로부터 실제객체영상 추적에 따른 객체영상 추적정보를 전송받아 실제객체영상영역에 배치할 새로운 텍스처모델을 생성한 후, 그 텍스처모델을 연속된 단위영상들 내의 실제객체영상영역에 배치함으로써 해당 실제객체영상을 제거하는 객체제거부; 및
    상기 객체제거부를 통해 실제객체영상이 제거된 동영상신호를 출력하는 동영상출력부를 포함하여 구성되는 것을 특징으로 하는 동영상에서의 객체영상 제거장치.
  2. 제1항에 있어서, 상기 참조영상정보 등록부는
    상기 설정된 객체제거영역 내의 소정영역에 해당하는 텍스처모델을 표본텍스처모델로 자동 설정하거나 또는 사용자의 지정에 따라 객체제거영역 외의 소정영역에 해당하는 텍스처모델을 표본텍스처모델로 설정하는 것을 특징으로 하는 동영상에서의 객체영상 제거장치.
  3. 제2항에 있어서, 상기 참조영상정보 등록부는
    상기 설정된 객체제거영역정보와,
    상기 설정된 표본텍스처모델을 분석하여 그 분석결과에 의거한 표본텍스처모델의 복잡도정보 및 색상정보를 포함하는 참조영상정보를 데이터베이스에 등록하는 것을 특징으로 하는 동영상에서의 객체영상 제거장치.
  4. 제1항에 있어서, 상기 객체접경영역 설정부는
    소정 크기의 객체접경 검색커널을 설정하고, 객체제거영역의 시작점에 근접한 실제객체영상의 근접점을 검출하여 그 근접점을 객체접경 검색커널의 중점으로 설정한 후, 그 객체접경 검색커널을 소정 간격으로 이동함에 따른 객체접경 검색커널의 각 영역에 표본텍스처모델 이외의 특정텍스처모델의 존재여부를 판단하고, 그 판단결과에 따라 각 영역의 특정텍스처모델에 대한 경계를 검출하여 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하는 것을 특징으로 하는 동영상에서의 객체영상 제거장치.
  5. 제1항에 있어서, 상기 객체추출부는
    소정 크기의 객체검색커널을 설정하고, 객체접경영역 내의 소정영역을 상기 객체검색커널의 이동 시작 위치로 설정한 후, 그 영역을 기준으로 객체검색커널을 소정 간격으로 이동함에 따른 객체검색커널의 각 영역에 해당하는 텍스처모델을 표본텍스처모델을 바탕으로 판단하고, 판단결과 표본텍스처모델과 동일하지 않은 특정텍스처모델이 인지되면, 그 특정텍스처모델의 존재비중에 따라 해당 객체검색커널의 영역을 가상객체영상영역 또는 배경영역으로 분리함으로써 가상객체영상영역을 도출하는 객체/배경 분리부와,
    상기 객체/배경 분리부로부터 도출된 가상객체영상영역 내에 포함된 노이즈를 제거하는 노이즈 제거부와,
    상기 노이즈 제거부를 통해 노이즈가 제거된 가상객체영상영역을 바탕으로 실제객체영상에 대한 경계선의 점들을 분석하는 칸투어 작업을 수행하여 가상객체영상영역으로부터 실제객체영상영역을 도출하는 칸투어정보 분석부로 구성되는 것을 특징으로 하는 동영상에서의 객체영상 제거장치.
  6. 제1항에 있어서, 상기 객체추출부는
    소정 크기의 객체검색커널을 설정하고, 객체접경영역 내의 소정영역을 상기 객체검색커널의 이동 시작 위치로 설정한 후, 그 영역을 기준으로 상기 객체검색커널을 소정 간격으로 이동함에 따른 객체검색커널의 각 영역에 해당하는 텍스처모델을 표본텍스처모델을 바탕으로 판단하고, 판단결과 표본텍스처모델과 동일하지 않은 특정텍스처모델이 인지되면, 그 특정텍스처모델의 존재비중에 따라 해당 객체검색커널의 영역을 가상객체영상영역 또는 배경영역으로 분리함으로써 가상객체영상영역을 도출하는 객체/배경 분리부와,
    상기 객체/배경 분리부에서 도출된 가상객체영상영역 내의 텍스처모델을 표본텍스처모델을 바탕으로 분석하여, 그 분석결과에 따라 실제객체영상영역을 도출하는 텍스처정보 분석부로 구성되는 것을 특징으로 하는 동영상에서의 객체영상 제거장치.
  7. (a) 연속적인 단위영상들의 스트림인 동영상신호를 입력받는 단계;
    (b) 사용자의 객체영상 지정에 따라 상기 동영상신호를 구성하는 단위영상들의 소정영역에 위치하는 객체영상에 대한 객체제거영역을 설정하고, 그 객체제거영역에 의거한 표본텍스처모델을 설정한 후, 상기 객체제거영역 및 표본텍스처모델에 대한 참조영상정보를 등록하는 단계;
    (c) 상기 참조영상정보를 바탕으로 객체제거영역의 텍스처모델에서 표본텍스처모델과 동일하지 않은 특정텍스처모델을 인지한 후, 그 특정텍스처모델의 분포경계를 검출하여 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하는 단계;
    (d) (b)단계에서 등록된 참조영상정보와, (c)단계에서 설정된 객체접경영역정보를 바탕으로 해당 객체접경영역 내의 실제객체영상에 대한 가상객체영상영역을 도출한 후, 그 가상객체영상영역으로부터 실제객체영상영역을 추출하는 단계;
    (e) (c)단계에서 설정된 객체접경영역정보와, (d)단계에서 추출된 실제객체영상영역정보를 바탕으로 연속된 단위영상들의 스트림에 의한 실제객체영상의 이동을 추적하는 단계; 및
    (f) (b)단계에서 등록된 참조영상정보와, (d)단계에서 추출된 실제객체영상영역정보와, (e)단계에서의 실제객체영상 추적에 따른 객체영상 추적정보에 의거하여 실제객체영상영역에 배치할 새로운 텍스처모델을 생성한 후, 그 텍스처모델을 연속된 단위영상들 내의 실제객체영상영역에 배치함으로써 실제객체영상을 제거하여 동영상신호를 출력하는 단계를 포함하여 이루어지는 것을 특징으로 하는 동영상에서의 객체영상 제거방법.
  8. 제7항에 있어서, 상기 (c)단계는
    소정 크기의 객체접경 검색커널을 설정하고, 객체제거영역의 시작점에 근접한 객체영상의 근접점을 검출하여 그 근접점을 상기 객체접경 검색커널의 중점으로 설정한 후, 해당 객체접경 검색커널을 소정 간격으로 이동함에 따른 객체접경 검색커널의 각 영역에 표본텍스처모델 이외의 특정텍스처모델의 존재여부를 판단하고, 그 판단결과에 따라 각 영역에 분포한 특정텍스처모델의 경계를 검출하여 실제객체영상에 대한 최외곽 접경 영역인 객체접경영역을 설정하는 것을 특징으로 하는 동영상에서의 객체영상 제거방법.
  9. 제7항에 있어서, 상기 (d)단계는
    (d1) 소정 크기의 객체검색커널을 설정하고, 해당 객체검색커널을 객체접경영역 내에서 소정 간격으로 이동함에 따른 객체검색커널의 각 영역에 해당하는 텍스처모델을 표본텍스처모델을 바탕으로 판단하는 단계와,
    (d2) (d1)단계에서 표본텍스처모델과 동일하지 않은 특정텍스처모델이 인지되면, 그 특정텍스처모델의 존재비중에 따라 객체검색커널의 해당 영역을 가상객체영상영역 또는 배경영역으로 분리함으로써 가상객체영상영역을 도출하는 단계와,
    (d3) 상기 도출된 가상객체영상영역 내에 포함된 노이즈를 제거한 후, 해당 가상객체영상영역을 바탕으로 실제객체영상에 대한 경계선의 점들을 분석하는 칸투어 작업을 수행하여 실제객체영상영역을 추출하는 단계로 이루어지는 것을 특징으로 하는 동영상에서의 객체영상 제거방법.
  10. 제7항에 있어서, 상기 (d)단계는
    (d1) 소정 크기의 객체검색커널을 설정하고, 해당 객체검색커널을 객체접경영역 내에서 소정 간격으로 이동함에 따른 객체검색커널의 각 영역에 해당하는 텍스처모델을 표본텍스처모델을 바탕으로 판단하는 단계와,
    (d2) (d1)단계에서 표본텍스처모델과 동일하지 않은 특정텍스처모델이 인지되면, 그 특정텍스처모델의 존재비중에 따라 객체검색커널의 해당 영역을 가상객체영상영역 또는 배경영역으로 분리함으로써 가상객체영상영역을 도출하는 단계와,
    (d3) (d2)단계에서 도출된 가상객체영상영역의 텍스처모델을 표본텍스처모델을 바탕으로 분석하여, 그 분석결과에 따라 상기 가상객체영상영역으로부터 실제객체영상영역을 추출하는 단계로 이루어지는 것을 특징으로 하는 동영상에서의 객체영상 제거방법.
KR10-2002-0061288A 2002-10-08 2002-10-08 동영상에서의 객체영상 제거장치 및 방법 KR100497492B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0061288A KR100497492B1 (ko) 2002-10-08 2002-10-08 동영상에서의 객체영상 제거장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0061288A KR100497492B1 (ko) 2002-10-08 2002-10-08 동영상에서의 객체영상 제거장치 및 방법

Publications (2)

Publication Number Publication Date
KR20040031986A KR20040031986A (ko) 2004-04-14
KR100497492B1 true KR100497492B1 (ko) 2005-07-01

Family

ID=37332013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0061288A KR100497492B1 (ko) 2002-10-08 2002-10-08 동영상에서의 객체영상 제거장치 및 방법

Country Status (1)

Country Link
KR (1) KR100497492B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57173263A (en) * 1981-04-20 1982-10-25 Canon Inc Picture synthesizer
JPH0865519A (ja) * 1994-08-19 1996-03-08 Toppan Printing Co Ltd 画像の欠陥修正方法及びその装置
JPH11261966A (ja) * 1998-03-12 1999-09-24 Toshiba Corp 映像符号化装置および映像符号化方法
JP2000078471A (ja) * 1998-07-28 2000-03-14 Sarnoff Corp 可処分フレ―ムのみを使用したロゴ挿入
KR20010098898A (ko) * 2000-04-26 2001-11-08 루센트 테크놀러지스 인크 디지털 영상 이미지를 동적으로 변경하는 장치 및 방법
JP2002238044A (ja) * 2001-02-07 2002-08-23 Canon Inc 情報再構築装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57173263A (en) * 1981-04-20 1982-10-25 Canon Inc Picture synthesizer
JPH0865519A (ja) * 1994-08-19 1996-03-08 Toppan Printing Co Ltd 画像の欠陥修正方法及びその装置
JPH11261966A (ja) * 1998-03-12 1999-09-24 Toshiba Corp 映像符号化装置および映像符号化方法
JP2000078471A (ja) * 1998-07-28 2000-03-14 Sarnoff Corp 可処分フレ―ムのみを使用したロゴ挿入
KR20010098898A (ko) * 2000-04-26 2001-11-08 루센트 테크놀러지스 인크 디지털 영상 이미지를 동적으로 변경하는 장치 및 방법
JP2002238044A (ja) * 2001-02-07 2002-08-23 Canon Inc 情報再構築装置

Also Published As

Publication number Publication date
KR20040031986A (ko) 2004-04-14

Similar Documents

Publication Publication Date Title
KR101940718B1 (ko) Rgb-d 영상 기반 사람 영역 추출 장치 및 그 방법
US7403656B2 (en) Method and apparatus for recognition of character string in scene image
EP3579563B1 (en) System and method for detecting advertisements on the basis of fingerprints
WO2017028502A1 (zh) 在视频流中叠加图像的方法和系统
US5892520A (en) Picture query system using abstract exemplary motions of a pointing device
KR20190069920A (ko) 동영상 콘텐츠 내의 인물을 인식하는 장치 및 방법
US20170140226A1 (en) Apparatus and method for identifying a still image contained in moving image contents
CN110881115B (zh) 会议视频的拆条方法及系统
KR102142567B1 (ko) 가상 크로마키 배경을 이용하여 영상을 합성하는 장치, 방법 및 컴퓨터 프로그램
CN113052169A (zh) 视频字幕识别方法、装置、介质及电子设备
JP2006065429A5 (ko)
CN106200942B (zh) 信息处理方法及电子设备
US8630532B2 (en) Video processing apparatus and video processing method
KR20110131949A (ko) 영상 처리 장치 및 방법
CN107529071A (zh) 一种视频数据处理方法以及装置
CA2420719A1 (en) Image processing apparatus and method, and image pickup apparatus
KR100497492B1 (ko) 동영상에서의 객체영상 제거장치 및 방법
EP2793190A1 (en) Method and device for detecting face, and non-transitory computer-readable recording medium for executing the method
JP2000357234A (ja) 画像処理装置およびその方法
CN115497017A (zh) 一种基于人工智能的广播电视新闻拆条方法及装置
JPH09322061A (ja) 画像合成装置
JP3197633B2 (ja) 移動体の自動追尾装置
JP3468404B2 (ja) 映像字幕挿入方法および装置並びに該映像字幕挿入方法を記録した記録媒体
JPH0991453A (ja) 画像処理方法およびその装置
US20230083896A1 (en) Precise object segmentation with multi- modal input for realtime video application

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130405

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140304

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee