KR20010025404A - System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis - Google Patents

System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis Download PDF

Info

Publication number
KR20010025404A
KR20010025404A KR1020000080965A KR20000080965A KR20010025404A KR 20010025404 A KR20010025404 A KR 20010025404A KR 1020000080965 A KR1020000080965 A KR 1020000080965A KR 20000080965 A KR20000080965 A KR 20000080965A KR 20010025404 A KR20010025404 A KR 20010025404A
Authority
KR
South Korea
Prior art keywords
advertisement
image
camera
input
virtual
Prior art date
Application number
KR1020000080965A
Other languages
Korean (ko)
Inventor
이성환
신수원
이형석
Original Assignee
유명현
주식회사 버추얼미디어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유명현, 주식회사 버추얼미디어 filed Critical 유명현
Priority to KR1020000080965A priority Critical patent/KR20010025404A/en
Publication of KR20010025404A publication Critical patent/KR20010025404A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

PURPOSE: An apparatus and a method for inserting a virtual advertisement using an analysis of a camera operation are provided to enhance effects of an advertisement by reading an image screen by a frame unit and securing an advertisement inserting position and inserting the advertisement into the position. CONSTITUTION: A moving picture shown in a sports ground(110) is photographed in real time and an image signal transmitted from a digital camera(10) is received and an area for advertising the image is searched(50). A movement of the camera(10) is chased(60). An inserting module(65) is divided into an object image transformation mode(70), an obstacle detecting module(90) and an inserting mode(80). If a video frame is inserted, the area for advertising the image is searched(50). If the area is selected, a movement of the camera is forecasted by comparing to the prior frame(60). The virtual advertisement image to be inserted is selected from the pre-set advertisement image database(100) and the image is transformed(70). An obstacle positioned at the inserted portion is detected and an object occlusion mask is prepared(90). The virtual advertisement is inserted in the selected position by using a mask as a key(80).

Description

카메라 동작 분석을 이용한 가상 광고 삽입 장치 및 방법{System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis}System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis}

본 발명은 방송 중계 영상 화면에 가상 광고를 삽입하는 장치 및 그 방법에 관한 것으로, 중계되는 방송의 비디오 영상 화면을 프레임 단위로 읽어들여 템플릿방식으로 광고의 삽입 위치를 확보한 다음 그 위치에 인위적으로 미리 설정된 광고를 삽입시키도록 하며, 광고의 삽입 위치가 처음에 찾아지면, 그 다음에 입력되는 프레임부터는 연속되는 비디오 프레임간의 카메라 동작을 분석하여 삽입 위치를 찾는다. 역동적으로 전개되는 비디오 영상 화면상에서 원하는 위치에 광고신호를 용이하게 삽입시킬 수 있으므로 그에 따라 광고 표시 특성을 상당히 향상시킬 수 있는 방송 중계 영상 화면에 광고를 삽입하는 장치 및 그 제어 방법에 관한 것이다.The present invention relates to an apparatus and a method for inserting a virtual advertisement into a broadcast relay video screen, and reads the video image screen of the broadcast broadcast in frame units to secure the insertion position of the advertisement by a template method and then artificially When the insertion position of the advertisement is first found, the insertion position of the advertisement is analyzed by analyzing camera motions between successive video frames from the next input frame. The present invention relates to an apparatus for inserting an advertisement in a broadcast relay video screen and a control method thereof, which can easily insert an advertisement signal at a desired position on a dynamically developed video image screen.

일반적으로 공중파로 전송되는 방송 매체 예컨대, 텔레비전과 같은 방송 수신매체는 실시간 정보를 방송 신호로서 시청자들에게 전달해 줌으로써 시청자들의 다양한 정보 충족 욕구를 해소시켜주고 있는데, 특히 이러한 방송매체는 현지에서 벌어지는 스포츠 경기와 같은 동영상을 실시간으로 시청자들에게 제공해 줌으로써 시청자들에게 생동감이 있는 스포츠 정보를 제공해준다.In general, a broadcast receiving medium such as a television, such as a television, receives a real-time information as a broadcast signal to the viewers to solve the needs of the viewers to meet a variety of information, in particular, such broadcast media By providing the same video to viewers in real time, they provide viewers with live sports information.

그런데 상기와 같은 스포츠 경기는 사람들의 관심이 많이 집중되므로 그러한 점을 상품의 광고로 활용하기 위해 경기장의 게시판이나 경기장 주변의 벽에 상품 광고판을 설치한다. 최근에는 경기장 주변에 직접 표시되어 있는 광고를 스포츠 방송 중계 시 그 부분을 조작하여 임의의 광고로 대체하는 시스템이 널리 사용되고 있다.By the way, the sporting events such as the above is focused on people, so in order to utilize such a product as an advertisement of the advertisement board is installed on the bulletin board of the stadium or the wall around the stadium. Recently, a system that replaces an advertisement displayed directly around a stadium with an arbitrary advertisement by manipulating a portion thereof during sports broadcasting is widely used.

여기서 상기와 같은 발명 중 하나가 미국 특허 제 5,892,554호(190)와 제 5,436,672호(260)에 개시되어 있으며, 각각은 광고 삽입과 광고 교체에 관한 것이다. 또한 국내 특허 제 2000-29844호에서는 템플릿 구조체를 이용하여 가상 광고의 삽입 위치를 자동으로 찾아서 삽입하는 방법이 개시되어 있다.One such invention is disclosed in US Pat. Nos. 5,892,554 (190) and 5,436,672 (260), each of which relates to advertisement insertion and advertisement replacement. In addition, Korean Patent No. 2000-29844 discloses a method of automatically finding and inserting an insertion position of a virtual advertisement using a template structure.

그러면 상기와 같은 종래 방송매체의 광고 삽입 및 교체 시스템을 도 2a와 도 2b를 참고로 살펴보기로 하겠다.Then, the advertisement insertion and replacement system of the conventional broadcast media will be described with reference to FIGS. 2A and 2B.

우선 기존의 광고 삽입 시스템(190)을 살펴보면, 경기장(110)에서 실시간으로 벌어지는 동화상을 찍어 디지털 신호로 전송한 카메라(10)의 영상신호를 입력받아 가우시안 필터(도시안됨)를 사용하여 블러(blur)시킨 다음, 그 영상신호를 작은 영상으로 나누어 광고 삽입 영역을 추적하는 필터/데시메이션 모듈부(130)와, 이 필터/데시메이션 모듈부(130)의 입력된 영상화면에서 랜드마크(landmark)라고 하는 광고를 삽입할 주변에 특징이 될 만한 점이나 선들을 찾아서 참조배열(reference array)를 만드는 탐색 모듈부(140)와, 이 탐색 모듈부(140)로부터 입력된 영상의 랜드마크의 참조배열과 참조영상(reference image)에 대한 참조 배열을 서로 비교하여 광고를 삽입할 부분을 찾는 랜드마크 추적 모듈부(150)와, 이 랜드마크 추적 모듈부(150)의 광고를 삽입할 부분에 예컨대 사람이나 공과 같은 장애물의 위치를 파악하는 겹침 판단 모듈부(160)와, 이 겹침 판단 모듈부(160)의 판단정보를 참고로 하여 광고 삽입 위치에 광고 영상을 삽입하는 삽입 모듈부(170)를 포함한다.First, referring to the existing advertisement insertion system 190, the video signal of the camera 10 transmitted as a digital signal by taking a moving picture in real time in the stadium 110 is input and blurred using a Gaussian filter (not shown). A filter / decimation module 130 for tracking the advertisement insertion area by dividing the video signal into small images, and a landmark on the input video screen of the filter / decimation module 130. A search module unit 140 for finding a reference array by finding points or lines that may be characterized around the insertion of an advertisement, and a reference array of landmarks of an image input from the search module unit 140. And the landmark tracking module unit 150 to find a portion to insert an advertisement by comparing the reference array with respect to the reference image, and a portion to insert the advertisement of the landmark tracking module unit 150, for example. The overlap determination module unit 160 which grasps the position of an obstacle such as a ball or a ball, and the insertion module unit 170 which inserts an advertisement image at an advertisement insertion position by referring to the determination information of the overlap determination module 160. Include.

한편, 상기와 같은 종래 방송 매체의 광고 삽입 시스템의 동작을 살펴보면, 먼저, 경기장(110)에 설치된 카메라(10)가 실시간의 동화상화면 예를 들면, 축구 중계화면을 찍어 디지털 신호로 변환한 다음 광고 삽입 시스템(190)의 필터/데시메이션 모듈부(130)로 입력시키게 되면, 이 필터/데시메이션 모듈부(130)는 입력된 디지털 영상을 가우시안 필터를 이용하여 블러(blur)시킨다. 그런다음 이 필터/데시메이션 모듈부(130)는 그 블러시킨 영상신호를 해상도가 1/2씩 작은 영상으로 4개 만든다. 이것은 해상도가 작은 영상에서 광고를 삽입할 영역을 찾는데 시간이 아주 적게 들도록 하기 위해서이다. 따라서, 이 필터/데시메이션 모듈부(130)는 해상도가 작은 영상에서 광고를 삽입할 영역을 찾은 후, 해상도가 가장 큰 원래 영상에서 삽입 할 영역을 더 자세히 찾은 다음 탐색 모듈부(140)가 입력된 영상에서 랜드마크(landmark)라고 하는 광고를 삽입할 주변에 특징이 될 만한 점이나 선들을 찾아서 참조 배열(reference array)를 만들며 이 참조 배열 또한 해상도에 따라서 4개가 생기게 된다. 그리고 상기 탐색 모듈부(140)에 의해 신호 처리된 영상신호는 입력된 영상의 랜드마크에 대해서 참조배열이 만들어지면, 랜드마크 추적 모듈부(150)가 참조 영상(reference image)에 대한 참조 배열과 비교를 하여 광고를 삽입할 부분을 찾게 된다. 이때, 겹침 판단 모듈부(160)는 광고를 삽입 할 부분에 사람이나 공과 같은 장애물이 있으면 광고 삽입 부분을 가리게 되므로 현재의 영상화면에 장애물의 위치를 파악하여 삽입 모듈부(170)로 입력시킨다. 그러면 이 삽입 모듈부(170)는 광고를 삽입할 부분을 찾은 다음 상기 겹침 판단 모듈부(170)로부터 입력된 그 삽입할 부분에 대한 장애물 정보를 참고로 하여 겹치는 장애물이 없을 경우 미리 설정된 광고 영상을 삽입한다.Meanwhile, referring to the operation of the conventional broadcast media advertisement insertion system as described above, first, the camera 10 installed in the stadium 110 converts a digital signal by taking a real-time moving picture, for example, a soccer relay screen, and then advertises. When inputted to the filter / decimation module unit 130 of the insertion system 190, the filter / decimation module unit 130 blurs the input digital image using a Gaussian filter. Then, the filter / decimation module unit 130 produces four blurred image signals as images each having 1/2 resolution. This is so that it takes very little time to find an area to insert the advertisement in the low resolution image. Therefore, the filter / decimation module unit 130 finds an area to insert an advertisement in the image having a small resolution, and then further finds an area to be inserted in the original image having the highest resolution, and then the search module unit 140 inputs the same. A reference array is created by finding points or lines that can be characterized around the insertion of advertisements called landmarks in the image, and four reference arrays are created according to the resolution. In addition, when the reference signal is generated for the landmark of the input image, the landmark tracking module unit 150 may generate a reference signal for the reference image. The comparison will find the part where the ad will be inserted. In this case, the overlap determination module 160 detects the position of the obstacle on the current video screen and inputs it to the insertion module unit 170 because the advertisement insertion part is covered if there is an obstacle such as a person or a ball in the portion to insert the advertisement. Then, the insertion module unit 170 finds a part to insert an advertisement, and then, if there are no overlapping obstacles by referring to the obstacle information on the part to be inserted, inputted from the overlap determination module unit 170, the preset advertisement image is displayed. Insert it.

따라서 상기와 같은 과정을 거처 카메라(10)를 통해 전송되어 온 동화상의 디지털 영상 화면에 광고를 삽입한 후 NTSC형식의 영상신호로 다시 변환(180)하여 방송국에 전송한다. 그러면 방송국은 이 새로운 삽입된 광고신호가 삽입된 동화상 정보 예컨대 축구경기화면을 각 텔레비전 시스템으로 전송한다.Therefore, after inserting an advertisement into the digital video screen of the moving image transmitted through the camera 10 through the above process, the image is converted back to the NTSC format video signal 180 and transmitted to the broadcasting station. The broadcasting station then transmits the moving picture information, for example, the soccer game screen, into which the new inserted advertising signal is inserted, to each television system.

광고 교체 시스템(260)은 4 개의 컴포넌트로 구성되어있는데, Finder(220), Global Motion Tracker(270), Updater(230), Replacer(280) 등이다. Finder 모듈(220)은 교체될 광고의 위치를 찾는 부분인데, 포인트 패턴 매칭을 이용한다. 광고를 교체하기 전에 교체될 광고 영상의 코너 포인트에 대해서 분석한 뒤, 이를 시스템에 저장해 놓고, 비디오 입력이 들어오면 코너 포인트를 찾아서 그 중에서 어파인(affine) 관계에 있는 부분을 찾는다. 이 방법은 광고의 일부가 보이지 않아도 찾을 수 있으며, 어떠한 각도로 기울어져 있어도 찾을 수 있지만, 계산 비용이 많이 들며, 코너 포인트에 의존한다는 단점이 있다. Global Motion Tracker 모듈(270)은 카메라의 움직임을 예측하는 부분이다. 교체될 광고 영상이 있으나 없으나 상관없이 매 프레임마다 예측을 한다. Updater 모듈(230)은 비디오 메모리끼리의 통신을 하는데, 장면 전환이나 광고 영상을 찾았을 때 앞에 지난 비디오 프레임에 그 위치정보를 알려준다. 교체될 광고 게시판이 화면의 가장자리에서 서서히 나타났을 때부터 교체해야하기 때문에 이런 정보를 서로 교환한다. 마지막으로 Replacer 모듈(280)은 광고를 교체하는 부분이다. 삽입 영역과 교체될 원영상간의 차영상을 이용하여 객체 겹침을 검출하여 교체한다.The advertisement replacement system 260 is composed of four components: a finder 220, a global motion tracker 270, an updater 230, a replacer 280, and the like. The finder module 220 finds a position of an advertisement to be replaced, and uses point pattern matching. Before replacing the advertisement, it analyzes the corner point of the advertisement image to be replaced, stores it in the system, and when the video input comes in, finds the corner point and finds the affine part among them. This method can be found even if a part of the advertisement is not visible and can be found at any angle, but it is expensive to calculate and relies on corner points. The Global Motion Tracker module 270 is a part that predicts the movement of the camera. There is an advertisement video to be replaced but no prediction is made every frame. The updater module 230 communicates video memories. When the scene change or advertisement image is found, the updater module 230 informs the position of the previous video frame. This information is exchanged because the billboard to be replaced must be replaced from when it slowly appears at the edge of the screen. Finally, the replacer module 280 replaces the advertisement. Object overlap is detected and replaced using the difference image between the insertion region and the original image to be replaced.

이렇게 상기 시스템(260)은 모듈화 되어있으며, 병렬 처리로 광고 영상을 교체한다. 그리고 온라인 모듈과 오프라인 모듈로 나뉘는데, 오프라인 모듈에서 교체할 광고 영상과 교체될 광고 영상의 정보에 대해서 미리 처리를 해야 하는데, 포인트 패턴에 대한 정보를 수집해야 하며, 아주 많은 시간이 소요된다.In this way, the system 260 is modular, and replaces the advertisement video in parallel processing. In addition, it is divided into an online module and an offline module. In the offline module, the information of the advertisement image to be replaced and the advertisement image to be replaced must be processed in advance, and information on the point pattern has to be collected, which takes a lot of time.

국내 특허 제 2000-29844호에서는 자동으로 가상 광고의 삽입 위치를 찾는 방법에 대하여 소개된 바 있는데, 템플릿 구조체를 이용하여 삽입 영역을 찾는다. 본 발명에서는 그 보다 좀 더 개선된 방법으로서, 여러 가지 경기장에서도 삽입 위치를 찾을 수 있는 개선된 방법을 발명하였다.In Korean Patent No. 2000-29844, a method of automatically finding an insertion position of a virtual advertisement has been introduced. The insertion region is found using a template structure. As a more improved method, the present invention has invented an improved method for finding insertion positions in various stadiums.

특히 본 발명에서는 메모리 헤드가 부착된 카메라, 즉 카메라로부터 직접 카메라의 움직임 정보를 입력받지 않고, 영상 내에서 카메라의 움직임 정보를 찾아내는데, 동영상 데이터에 포함된 카메라의 움직임을 분석하는 종래의 기술에는 입력 동영상 데이터로부터 시·공간 영상을 생성하여 분석하는 방법, 동영상의 인접한 영상으로부터 산출된 광류(optical flow)의 히스토그램을 이용하는 방법과 인접한 영상간의 대응관계(correspondence)를 산출하여 변형 모델(transformation model)에 대입하여 동영상에 포함된 카메라의 움직임을 분석하는 방법이 있다. 시·공간 영상을 이용하는 방법과 광류의 히스토그램을 이용하여 카메라의 움직임을 분석하는 방법은 카메라 움직임의 방향 정보만을 얻을 수 있으며, 움직임 방향으로 움직임 크기 정보는 알 수 없다. 인접한 영상간의 대응정보와 변형 모델을 이용하는 방법에서는 카메라 움직임의 방향 정보와 크기 정보를 얻을 수 있으나 입력 데이터에 포함된 소수의 노이즈에 직접적 영향을 받게된다. 이러한 노이즈로부터 받는 영향을 줄이기 위해 다수의 특징점을 이용하는 방법을 사용한다. 이러한 다수의 특징점을 이용하는 방법은 높은 계산 비용을 요구하는 문제점이 있다.In particular, the present invention finds the motion information of the camera in the image without receiving the camera's motion information directly from the camera with the memory head, that is, the conventional technology for analyzing the motion of the camera included in the video data. A method of generating and analyzing a spatiotemporal image from input video data, a method of using a histogram of optical flow calculated from adjacent images of a moving image, and a transformation model by calculating a correlation between adjacent images. There is a method of analyzing the movement of the camera included in the video by substituting for. The method of using the space-time image and the method of analyzing the camera movement using the histogram of the light flow can obtain only the direction information of the camera movement, and the motion size information cannot be known in the direction of the movement. In the method of using the correspondence information and the deformation model between adjacent images, the direction information and the size information of the camera movement can be obtained, but are directly affected by the few noises included in the input data. In order to reduce the influence of such noise, a method using a plurality of feature points is used. The method of using these multiple feature points has a problem of requiring high computational cost.

그러나 상기와 같은 종래 방송 매체의 광고 삽입 시스템(190) 및 광고 교체 시스템(260)은 카메라(10)를 통해 실시간으로 전송되는 영상화면이 역동적으로 전개되기 때문에 이 영상 화면상에서 원하는 위치에 원하는 광고 신호를 용이하게 삽입 시킬 수 없었다. 뿐만 아니라 상기와 같은 종래 광고 삽입 및 교체 시스템은 각 시스템의 모듈마다 하드웨어 보드를 가지고 있으므로 그에 따라 시스템이 매우 복잡하였으며, 또한 광고 삽입/교체를 위한 신호처리 동작이 여러 단계를 거처 실행시켜야 하므로 그만큼 실화면 처리가 용이하지 못하다는 문제점이 있었다. 또한 광고 삽입 시스템의 경우(190) 참조 영상과 랜드마크를 이용하였는데, 참조 영상의 이용 시 배경의 전체적인 명암이 바뀌게 되는 경우 객체 검출에 큰 어려움이 있다. 이를 해결하기 위하여 랜드마크를 이용하여 배경의 명암 값을 갱신하였는데, 이것 또한 일정 개수 이상의 랜드마크가 검출되지 않으면, 큰 효과를 볼 수 없다.However, since the advertisement insertion system 190 and the advertisement replacement system 260 of the conventional broadcast medium, such as the video screen transmitted in real time through the camera 10 is dynamically developed, the desired advertising signal at the desired position on the video screen Could not be easily inserted. In addition, the conventional advertisement insertion and replacement system as described above has a hardware board for each module of the system, so the system is very complicated accordingly, and the signal processing operation for advertisement insertion / replacement has to be executed through several steps. There was a problem that the screen processing is not easy. In addition, in the case of the advertisement insertion system 190, the reference image and the landmark are used, but when the overall contrast of the background is changed when the reference image is used, there is a great difficulty in detecting the object. In order to solve this problem, the contrast value of the background is updated by using a landmark, which also does not have a great effect unless a certain number of landmarks are detected.

이에 본 발명은 상기와 같은 제반 문제점을 해결하기 위해 발명된 것으로, 영상에서 객체 분리를 효과적으로 하는 방법과 메모리 헤드를 부착한 카메라를 사용하지 않고, 영상에서 카메라의 움직임을 정확히 추출하는 방법을 발명했다. 중계되는 방송의 영상화면을 프레임 단위로 읽어들여 템플릿 구조체를 이용하여 광고 삽입 위치를 확보한 다음 그 위치에 인위적으로 미리 설정된 광고를 삽입시키도록 함으로써, 영상 화면이 역동적으로 전개되는 영상 화면상에서 원하는 위치에 광고 신호를 용이하게 삽입시킬 수 있으므로 그에 따라 광고 표시 특성을 상당히 향상시킬 수 있는 방송 중계 영상 화면에 광고를 삽입하는 장치 및 방법을 제공함에 그 목적이 있다.Accordingly, the present invention has been invented to solve the above problems, and has invented a method of effectively separating objects from an image and a method of accurately extracting camera movement from an image without using a camera with a memory head. . By reading the video screen of the broadcast broadcast frame-by-frame, by using the template structure to secure the insertion position of the advertisement, and artificially inserting the preset advertisement in the position, the desired position on the video screen that the video screen is dynamically developed It is an object of the present invention to provide an apparatus and method for inserting an advertisement on a broadcast relay video screen which can easily insert an advertisement signal into the broadcast relay video screen.

본 발명의 또 다른 목적은 역동적인 영상 화면의 적절한 위치에 광고 신호가 삽입되어 시청자가 항상 그 광고를 주시하게 되므로 방송 매체를 통한 광고 효과를 극대화시킬 수 있는 방송 중계 영상 화면에 광고를 삽입하는 장치 및 방법을 제공하는 데 있다.Still another object of the present invention is to insert an advertisement into a broadcast video screen that can maximize the effect of advertising through the broadcast media because the advertising signal is inserted into the appropriate position of the dynamic video screen to always watch the advertisement. And a method.

상기와 같은 목적을 달성하기 위한 본 발명은 실시간으로 경기장으로부터 촬상하는 카메라로부터 입력된 영상 신호상에 템플릿 탐색창 구조기능을 이용하여 가상광고의 삽입 위치를 결정하는 부분(50)과, 이 탐색 모듈(50)에서 설정된 삽입 위치를 매 프레임마다 추적하는 부분(60)과 그 삽입 위치에 미리 선택된 가상 광고를 삽입하는 삽입 부분(65)을 포함하는 방송 중계 영상 화면에 광고를 삽입하는 장치를 제공한다.The present invention for achieving the above object is a portion 50 for determining the insertion position of the virtual advertisement using the template search window structure function on the video signal input from the camera photographing from the stadium in real time, and the search module ( An apparatus for inserting an advertisement on a broadcast relay video screen includes a portion 60 for tracking the insertion position set in each frame 50 and an insertion portion 65 for inserting a pre-selected virtual advertisement at the insertion position.

본 발명의 또 다른 특징은 삽입 영역에 있는 선수나 공과 같은 장애물을 피해서 배경에만 효과적으로 삽입하는 단계와 순차되는 두 영상 사이에서 카메라의 움직임을 판단하는 카메라 움직임 추적 단계를 포함하는 방송 중계 영상 화면에 광고를 삽입하는 장치의 제어 방법을 제공한다.Another feature of the present invention is to advertise on the broadcast relay video screen including the step of effectively inserting only in the background avoiding obstacles such as players or balls in the insertion area and the camera motion tracking step of determining the camera movement between two consecutive images It provides a control method of the device to insert.

도 1은 본 발명 시스템의 블록도.1 is a block diagram of a system of the present invention.

도 2a는 종래 광고 삽입 시스템을 설명하는 블록도.Figure 2a is a block diagram illustrating a conventional advertising insertion system.

도 2b는 종래 광고 교체 시스템을 설명하는 블록도.Figure 2b is a block diagram illustrating a conventional advertising replacement system.

도 3a는 축구장의 센터 서클 주변의 특징점 분포와 그에 사용되는 템플릿 구조체를 나타내는 도면.3A is a diagram showing a feature point distribution around a center circle of a soccer field and a template structure used therein;

도 3b는 테니스 코트 주변의 특징점 분포와 그에 사용되는 템플릿 구조체를 나타내는 도면.3B is a diagram showing a feature point distribution around a tennis court and a template structure used therein.

도 4는 축구장의 센터 서클를 찾는 방법을 설명한 플로우챠드.4 is a flowchart illustrating a method of finding a center circle of a soccer field.

도 5a는 영상의 원근 변형 매개 변수를 얻기 위한 방법을 설명한 것으로써, 삽입 위치가 화면의 중앙에 있을 때의 방법을 설명한 도면.5A illustrates a method for obtaining perspective deformation parameters of an image, and illustrates a method when the insertion position is in the center of the screen.

도 5b는 영상의 원근 변형 매개 변수를 얻기 위한 방법을 설명한 것으로써, 삽입 위치가 화면의 오른쪽에 있을 때의 방법을 설명한 도면.5B illustrates a method for obtaining perspective deformation parameters of an image, illustrating a method when the insertion position is on the right side of the screen.

도 5a는 영상의 원근 변형 매개 변수를 얻기 위한 방법을 설명한 것으로써, 삽입 위치가 화면의 왼쪽에 있을 때의 방법을 설명한 도면.5A illustrates a method for obtaining perspective deformation parameters of an image, and illustrates a method when the insertion position is on the left side of the screen.

도 6은 장애물을 검출하는 방법을 설명한 플로우챠드.6 is a flowchart illustrating a method of detecting an obstacle.

도 7은 본 발명에 의한 타원 객체 추적 과정을 설명하기 위한 블록도.7 is a block diagram illustrating an elliptic object tracking process according to the present invention.

도 8a는 타원 객체를 포함한 입력 영상을 나타내는 도면.8A illustrates an input image including an ellipse object.

도 8b는 타원 객체를 포함한 입력 영상에서 전처리 영역 선정을 나타내는 도면.8B illustrates preprocessing area selection in an input image including an ellipse object.

도 8c는 전처리된 영상으로부터 움직이는 객체 영역 검출 결과를 나타내는 도면.8C is a diagram illustrating a result of detecting a moving object region from a preprocessed image.

도 8d는 전처리된 영상에서 움직이는 객체 영역이 제거된 영상을 나타내는 도면.8D is a view illustrating an image in which a moving object region is removed from a preprocessed image.

도 9는 본 발명에 의한 비 타원 객체 추적 과정을 설명하기 위한 블록도.9 is a block diagram illustrating a non-elliptic object tracking process according to the present invention.

도 10은 광류 모델 데이터 베이스를 나타내는 도면.10 shows an optical flow model database.

도 11은 입력 영상으로부터 추출된 특징점 정보를 이용하여 생성된 광류 모델을 나타내는 도면.FIG. 11 illustrates an optical flow model generated using feature point information extracted from an input image. FIG.

도 12는 광류 모델을 이용한 입력 광류의 분해를 나타내는 도면.12 is a diagram illustrating decomposition of an input optical flow using an optical flow model.

도 13은 각 모델 생성 파라미터의 가중치 합으로 표현되는 입력 파라미터를 나타내는 도면.FIG. 13 is a diagram illustrating an input parameter expressed as a weighted sum of each model generation parameter. FIG.

이하 본 발명의 일실 예를 첨부된 예시도면에 의거 상세히 설명한다.Hereinafter, one example of the present invention will be described in detail with reference to the accompanying drawings.

본 발명 장치는 도 1에 도시된 바와 같이 경기장(110)에서 실시간으로 벌어지는 동화상을 찍어 디지털 신호로 전송한 카메라(10)의 영상 신호를 입력받아 가상 광고의 삽입 위치를 찾는 모듈(50)과 카메라의 움직임을 추적하는 모듈(60)과 삽입 모듈(65)로 나뉘는데 삽입 모듈(65)에서는 객체 영상 변형(70), 장애물 검출(90), 삽입(80)의 세 부분으로 세분화된다.As shown in FIG. 1, the apparatus of the present invention receives a video signal of a camera 10 which takes a moving picture taken in real time in a stadium 110 and transmits it as a digital signal, and finds an insertion position of a virtual advertisement. The module 60 is divided into a module 60 and an insertion module 65 for tracking movement of the object. The insertion module 65 is subdivided into three parts: an object image transformation 70, an obstacle detection 90, and an insertion 80.

상기 시스템의 흐름은 다음과 같다. 비디오 프레임이 입력되면, 첫 프레임에서 가상 광고를 삽입할 영역을 찾는다(50). 축구장이나 테니스 코트와 같이 규격화된 경기장에서는 자동으로 찾을 수 있지만, 골프장과 같이 경기장의 모양이 일정하지 않은 곳에서는 사용자가 직접 삽입 위치를 설정해 주어야 한다. 가상 광고가 삽입될 영역이 선택되면 다음 프레임부터는 전 프레임과 비교하여 카메라 움직임을 예측한다(60). 그리고 삽입될 영역에 알맞게 삽입할 가상 광고 영상을 미리 구축된 광고 영상 데이터베이스(100)에서 선택하여 변형시킨다(70). 그 다음 삽입할 영역에 장애물을 검출하여 객체 겹침 마스크(occlusion mask)를 만든 후(90), 마스크를 키(key)로 사용하여 삽입을 한다(80).The flow of the system is as follows. When the video frame is input, the area for inserting the virtual advertisement in the first frame is searched (50). It can be found automatically in standardized stadiums such as soccer fields and tennis courts, but in places where the shape of the stadium is not constant, such as golf courses, the user must manually set the insertion position. When the area in which the virtual advertisement is to be inserted is selected, the camera movement is predicted from the next frame from the next frame (60). The virtual advertisement image to be inserted in accordance with the region to be inserted is selected and modified from the pre-built advertisement image database 100 (70). Next, an obstacle is detected in the region to be inserted to form an object overlap mask (90), and then the insertion is performed using the mask as a key (80).

다음에는 상기와 같은 구성으로 된 본 발명 일실 예의 제어 방법을 설명한다.Next, a control method of an exemplary embodiment of the present invention having the above configuration will be described.

본 발명 일실 예는 실시간의 동화상 예컨대 스포츠 생방송의 영상신호 화면에 가상의 광고를 임의의 위치에 삽입하여, 텔레비전 시청자들이 삽입된 광고가 스포츠 경기장에서 실제로 존재하는 것처럼 느끼게 함으로써 거부감 없이 광고를 보면서 스포츠 경기를 시청하게 한다. 예를 들어, 미국이나 유럽에서 하는 스포츠를 한국에서 중계할 경우 한국의 광고를 삽입하거나, 반면에 한국에서 실시하는 스포츠 경기를 다른 나라로 중계 방송 할 때 그 지역의 광고를 삽입하는 것이다.One embodiment of the present invention is to insert a virtual advertisement in an arbitrary position on a real-time moving image such as a video signal screen of a live sports broadcast, so that television viewers feel that the inserted advertisement is actually present in the sports stadium, watching the advertisement without reluctance Have them watch. For example, if you are broadcasting sports in the United States or Europe in Korea, you will insert the advertisements in Korea, while inserting the advertisements in that region when you broadcast sports events in Korea to other countries.

본 발명은 크게 세 부분으로 나뉘는데 차례대로 살펴보도록 하겠다.The present invention is divided into three parts, which will be described in turn.

가. 삽입 영역 찾기end. Find insertion area

스포츠 경기장의 바닥에 광고와 같은 가상 객체의 삽입 위치는 다양하다. 축구장의 센터 서클이나 골라인 부근, 페널티 지역, 테니스 코트의 바닥, 야구장의 잔디 위, 골프장의 잔디 위, 농구장의 자유투 지역 등등에 삽입이 가능하며, 이러한 부분은 화면에 자주 나오는 부분이기 때문에 광고를 삽입하면 광고 효과가 크다. 그리고 축구장, 테니스 코트, 농구장, 야구장 등의 규격화된 경기장은 일반화된 특징점을 가지고 있기 때문에 각 영역의 특징점간의 관계를 이용하여 자동으로 그 위치를 찾을 수 있다. 그러나 골프장의 잔디와 같이 특징점이 거의 없거나 규격화된 경기장이 아닐 때에는 사용자가 직접 위치를 정해주어야 한다.The position of insertion of a virtual object, such as an advertisement, on the floor of a sports arena varies. It can be inserted near the center circle or goal line of a soccer field, penalty area, the floor of a tennis court, on the grass of a baseball field, on the grass of a golf course, a free throw area of a basketball court, etc. Advertising effect is great. Since standardized stadiums such as soccer fields, tennis courts, basketball courts, and baseball fields have generalized feature points, the locations can be automatically found by using the relationship between the feature points of each area. However, if there are few feature points such as golf turf, or it is not a standardized stadium, the user must set the position manually.

도 3a와 도 3b에 축구장의 센터 서클과 테니스 코트의 사각영역의 특징점 분포와 각각에 사용되는 템플릿들이 나와있다. 우선 도 3a의 축구경기장(300A)을 보면, 센터서클의 특징점은 네 가지가 있다(310A-D). '十' 모양의 상(310A), 하(310B) 두점과, '(,' ')'의 좌(310C), 우(310D) 두 점의 네 점이다. 그리고 템플릿들은 도 3a의 320과 같이 다이아몬드형으로 연결되어 있다. 그리고 도 3b의 테니스 코트 화면(300B)을 보면 테니스코트의 특징점이 나와있는데, 사각 영역의 꼭지점 부분이 특징점이 될 수 있다(310A-D). 따라서 그에 해당하는 템플릿들은 도 3b의 320과 같이 사다리꼴 형태로 연결이 되어있다.3A and 3B show the distribution of the feature points of the center circle of the soccer field and the rectangular area of the tennis court and the templates used for each. First, referring to the football stadium 300A of FIG. 3A, there are four characteristic points of the center circle (310A-D). Two points of the top (310A) and the bottom (310B) of the "cross" shape, and the left (310C) and the right (310D) of the two points (',' ')'. The templates are connected in a diamond shape as 320 of FIG. 3A. In addition, the tennis court screen 300B of FIG. 3B shows feature points of the tennis court, and a vertex portion of the rectangular area may be a feature point (310A-D). Therefore, corresponding templates are connected in a trapezoidal shape as shown in 320 of FIG. 3B.

여기서는 축구장(300A)의 센터서클(330A)과 같은 타원 모양의 삽입 위치를 찾는 알고리즘에 대해서 설명하겠다. 축구장의 센터서클은 도 3a와 같이 녹색의 잔디 위에 흰색의 타원과 직선으로 이루어져 있다. 센터서클에는 4개의 특징점 '상(310A),' '하(310B),' '좌(310C),' '우(310D)'가 있으며 '상'과 '하'의 특징점은 '十(310A-B)'자 모양이고, '좌'는 '((310C)', '우'는 ')(310D)' 모양이다. 따라서 이러한 특징점에 대한 템플릿(320)을 이용하여 템플릿 매칭을 시도할 수 있다.Here, an algorithm for finding an elliptic insertion position such as the center circle 330A of the soccer field 300A will be described. The center circle of the soccer field is composed of white ellipses and straight lines on the green grass as shown in FIG. The center circle has four feature points' top (310A) ',' bottom (310B) ',' left (310C) 'and' right (310D) ', and' top 'and' bottom 'feature points are' 十 (310A- B) 'shaped', 'left' is '((310C)', 'right' is ') (310D)' shape. Therefore, template matching may be attempted using the template 320 for such a feature point.

우선 '十'자 형의 템플릿(310A-B)을 이용하여 센터서클의 '상(310A),' '하(310B)'의 위치를 찾은 후, '상(310A),' '하(310B)' 특징점간의 거리를 이용하여 '좌(310C),' '우(310D)' 특징점이 있을 만한 위치에서 탐색창을 두어 각각 템플릿 매칭을 하여 '좌(310C),' '우(310D)' 점을 찾을 수 있다. 전체 알고리즘은 도 4와 같다.First, find the position of 'top 310A,' 'bottom 310B' of the center circle by using the 'double' template (310A-B), then 'top 310A,' 'bottom 310B'. 'Using the distance between the feature points, place the search window at the position where the' 310C, '' 310D 'feature points may be located, and then use the template matching to select' left 310C 'and' 310D 'points. You can find it. The entire algorithm is shown in FIG.

잔디 영역을 추출(400)하여 잔디 부분에 대해서 템플릿 매칭을 시도하면 불필요한 탐색 시간을 줄일 수 있다. 라플라시안 필터(Laplacian filter)(410)를 이용하여 영상의 경계(edge)를 구한 후, 경계의 픽셀 값이 일정 값 이상의 픽셀들(420)에 대해서 클로징(closing)(430)을 한 결과 영상에 대하여 템플릿 매칭(440)을 수행한다. 이 경우 선수가 센터서클의 '十' 특징점을 가리게 되면 특징점의 위치를 찾는데 실패하게 된다. 따라서 선수가 그 부분을 가리지 않았을 때 시도를 해야 한다. '상(310A),' '하(310B)'의 두 특징점을 찾은 후(450), 두 특징점 사이의 거리를 구한다. 센터서클은 원모양이지만, 카메라에 원근 변형된 타원의 형태로 잡히기 때문에 '상(310A),' '하(310B)'의 거리를 알면, '좌(310C),' '우(310D)' 특징점의 대략적인 위치를 알 수 있다(460). 대략적인 위치에 탐색창을 두어서 그 안에서 각각 템플릿 매칭을 수행한다(470). 이 경우도 물론 선수가 특징점을 가리면 찾을 수 없지만, '좌(310C),' '우(310D)' 특징점 중에 하나만 나타나도 다른 하나의 위치를 찾을 수 있다. 왜냐 하면 타원의 모양의 '상(310A),' '하(310B)'를 지나는 직선에 대칭이기 때문이다.Extracting the grass area 400 and attempting template matching on the grass part may reduce unnecessary search time. After obtaining an edge of an image using a Laplacian filter 410, the result of closing the image 430 of the pixels 420 whose pixel value is greater than or equal to a predetermined value Template matching 440 is performed. In this case, if the athlete covers the 'twice' feature of the center circle, it will fail to locate the feature. Therefore, attempts should be made when the competitor does not cover the part. After finding two feature points of 'upper 310A' and 'lower 310B' (450), the distance between the two feature points is obtained. The center circle is circular, but is captured in the form of an ellipse deformed to the camera, so if you know the distance between the upper (310A) and the lower (310B), the features of the left (310C) and the right (310D) An approximate location of the can be seen (460). The search window is placed at an approximate location, and template matching is performed therein (470). In this case, of course, if the player hides the feature point, it cannot be found, but even if only one of the left (310C) and 'right (310D)' feature points appears, the other position can be found. This is because it is symmetrical with a straight line passing through the upper (310A) and the lower (310B) of the shape of the ellipse.

이런 방법으로 테니스장(300B)의 삽입 영역(330B)도 찾을 수 있다. 테니스장도 축구장과 마찬가지로 단색의 바닥에 흰색의 선이 그어져 있기 때문에 특정 영역을 찾을 수 있다. 도 3b에서 테니스 코트 앞의 직사각형을 찾기 위해서 4 개의 특징점 템플릿이 필요한데, 각각 'ㅏ(310A),' 'ㅓ(310B),' 'ㅗ(310C-D)' 모양의 템플릿을 이용할 수 있다In this way, the insertion area 330B of the tennis court 300B can also be found. Like a soccer field, a tennis court has a white line on a solid floor, so you can find a specific area. In FIG. 3B, four feature point templates are needed to find a rectangle in front of the tennis court, and templates having the shapes 'ㅏ 310A', 'ㅓ' 310B, and 'ㅗ (310C-D)' may be used.

따라서 각 삽입 영역마다 다른 특징점을 가지고 있기 때문에, 삽입 영역마다 각각의 템플릿으로 그에 맞는 알고리즘을 적용시켜야 한다.Therefore, since each insertion region has a different feature point, a corresponding algorithm must be applied to each template for each insertion region.

나. 카메라 움직임 추적I. Camera movement tracking

도 7은 추적 대상 객체가 타원 객체인 경우의 본 발명에 의한 객체 추적 과정을 설명하기 위한 흐름도 이다. 입력 동영상 데이터로부터의 영상에서 추적 대상 객체 영역만을 선정하여 처리함으로써, 추적을 위한 연산을 효율적 처리 할 수 있는 전처리 영역 선정단계를 거치게 된다. 도 8b는 입력 영상(도 8a)에 대해 추적 대상 객체가 위치한 영역의 정보를 이용하여 전처리 영역을 설정하여 이진 영상으로 만드는 전처리를 수행한 것을 나타내는 도면이다. 정확한 타원 객체의 추적을 위해 타원 객체 이외의 움직이는 객체의 영역(721)은 제거되어야 한다. 전처리 된 입력 영상(도 8b)은 움직이는 객체 제거 단계(720)를 통해 타원 객체 이외의 객체 영역을 제거하여 타원 객체에서만 특징점이 추출되도록 한다. 도 8c는 전처리 된 입력 영상(도 8b)으로부터 움직이는 객체를 제거하기 위해 움직이는 객체가 갖는 특성인 세로 방향의 에지를 추출한 영상이며, 추출된 세로 방향의 에지 영역을 전처리 영상에서 제거한다. 움직이는 객체 영역이 제거된 영상(도 8d)에 포함된 노이즈를 제거하기 위해 영상에 대해 레이블링 방법을 통해 블럽(blob)(731)을 생성(730)한다. 블럽을 구성하는 화소의 수가 정해진 임계치 이하인 경우는 노이즈 블럽으로 간주하여 전처리된 영상으로부터 해당 블럽 영역을 제거한다(750). 전처리된 영상(도 8b)으로부터 움직이는 객체와 노이즈가 제거된 영상(도 8d)은 특징점 추출 단계(760)를 거치게 된다. 특징점 추출 단계의 입력 영상(도 8d)은 타원 객체 영역(761)만을 포함하고 있는 영상이므로 입력 영상에 존재하는 모든 화소는 타원 객체 추적을 위한 특징점이 된다. 추출된 특징점의 위치 정보는 타원 방정식 유도 단계(770)의 입력으로 전달되어진다. 타원 방정식 유도 단계에서는 추출된 특징점으로 이루어지는 타원 방정식을 유도한다. 유도된 타원 방정식은 파라미터 산출 단계(780)를 통해 타원 객체 추적을 위한 정보를 추출하게 된다. 파라미터 산출 단계에서는 유도된 타원 방정식을 통해 타원의 중심점 좌표와 장·단축의 크기 정보를 산출 할 수 있다. 산출된 타원의 중심 좌표와 장·단축의 크기 정보를 통해 동영상에 포함된 카메라의 움직임을 분석할 수 있다. 추출된 타원의 중심점 좌표의 변화 값을 통해 카메라의 이동 정보를 알 수 있으며, 타원의 장·단축의 크기 변화를 통해서 카메라의 확대/축소 정보를 추출할 수 있다.7 is a flowchart illustrating an object tracking process according to the present invention when the object to be tracked is an ellipse object. By selecting and processing only the tracking object region in the image from the input video data, the preprocessing region selection step is performed to efficiently process the tracking operation. FIG. 8B is a diagram illustrating preprocessing of a binary image by setting a preprocessing area using information of a region where a tracking object is located with respect to an input image (FIG. 8A). The area 721 of the moving object other than the ellipse object must be removed for accurate tracking of the ellipse object. The preprocessed input image (FIG. 8B) removes the object area other than the ellipse object through the moving object removal step 720 so that the feature point is extracted only from the ellipse object. FIG. 8C is an image obtained by extracting a vertical edge, which is a characteristic of a moving object, to remove a moving object from a preprocessed input image (FIG. 8B), and removes the extracted vertical edge region from the preprocessed image. In order to remove noise included in the image (FIG. 8D) from which the moving object region is removed, a blob 731 is generated 730 through a labeling method on the image. When the number of pixels constituting the blob is less than or equal to a predetermined threshold, the blob area is removed from the preprocessed image by considering it as a noise blob (750). The moving object and the image from which the noise is removed (FIG. 8D) from the preprocessed image (FIG. 8B) are subjected to the feature point extraction step 760. Since the input image (FIG. 8D) of the feature point extraction step includes only the elliptic object region 761, all pixels present in the input image become the feature points for elliptic object tracking. The location information of the extracted feature point is transmitted to the input of the elliptic equation derivation step 770. In the elliptic equation derivation step, an elliptic equation consisting of extracted feature points is derived. The derived elliptic equation extracts information for elliptic object tracking through the parameter calculation step 780. In the parameter calculation step, the derived elliptic equation can calculate the center point coordinates of the ellipse and the size information of the long and short axes. The motion of the camera included in the video can be analyzed using the calculated center coordinates of the ellipse and the size information of the long and short axes. The movement information of the camera can be known through the change value of the center point coordinates of the extracted ellipse, and the enlargement / reduction information of the camera can be extracted by changing the size of the long and short axes of the ellipse.

도 9는 추적 대상 객체가 비 타원 객체인 경우의 본 발명에 의한 객체 추적 과정을 설명하기 위한 흐름도 이다. 입력 동영상의 영상은 특징점을 추출하기 위한 교차점 찾기 단계(810)를 거치게 된다. 도 3b는 입력 영상으로부터 교차점에 해당하는 특성을 갖는 특징점만을 추출하기 위해 설정된 템플릿을 보여주는 도면이다. 특징점을 추출하기 위한 템플릿에는 'ㅜ'템플릿, '┗'템플릿과 '+'템플릿이 사용된다. 추출된 특징점의 위치 정보는 교차점에서의 광류 산출 단계(820)로 전달되어 추출된 특징점 위치에서의 광류를 산출하게 된다. 산출된 입력 동영상 데이터에 대한 광류를 분석하기 위해 광류 모델 생성 단계(830)를 수행하게 된다. 광류 모델 생성 단계에서는 입력 동영상 데이터의 영상으로부터 추출된 특징점의 위치와 동일한 위치에 해당하는 광류 성분만을 광류 모델 데이터베이스로부터 추출하여 광류 모델(도 11b)을 생성한다. 도 10은 광류 모델 데이터베이스를 나타내는 도면이다. 그림 11b는 광류 모델 데이터 베이스로부터 추출된 특징점 위치에 해당하는 광류 성분만을 추출하여 생성한 광류 모델을 나타내는 도면이다. 광류 모델을 이용한 입력 광류 분석 단계(840)에서는 광류 모델을 이용하여 산출된 입력 광류를 분해한다. 즉 입력 광류를 다수의 광류 모델로 표현하는 것이며, 이 분해 과정에서 각 모델은 입력 광류와의 유사도에 따라 각 모델의 가중치가 산출되어진다. 도 12는 입력 광류가 광류 모델의 가중치 합으로 분해되어 표현되는 것을 나타내는 도면이다. 광류 모델을 이용한 입력 광류 분석 단계에서 산출된 각 모델에 대한 가중치는 파라미터 산출 단계(850)에 전달되어 입력 동영상 데이터가 포함하고 있는 카메라 움직임을 분석하게된다. 파라미터 산출 단계에서는 각 모델에 대해 산출된 가중치를 각 모델 생성에 사용된 파라미터에 적용한 가중치 합으로 입력 파라미터를 산출하게 된다. 도 13은 각 모델 생성 파라미터에 각 모델의 가중치를 적용하여 조합함으로써 입력 파라미터가 산출되는 것을 나타내는 도면이다. 산출된 파라미터를 통해 입력 동영상 데이터가 포함하고 있는 카메라의 움직임을 분석할 수 있으며, 이를 통해 추적 대상 객체 영역을 추적할 수 있다.9 is a flowchart illustrating an object tracking process according to the present invention when the object to be tracked is a non-elliptic object. The image of the input video undergoes an intersection search step 810 for extracting feature points. 3B is a diagram illustrating a template set to extract only feature points having characteristics corresponding to intersection points from an input image. The templates for extracting the feature points are 'TT' templates, '┗' templates and '+' templates. The location information of the extracted feature point is transferred to the optical flow calculation step 820 at the intersection to calculate the light flow at the extracted feature point location. An optical flow model generation step 830 is performed to analyze the optical flow on the calculated input video data. In the optical flow model generation step, the optical flow model (FIG. 11B) is generated by extracting only the optical flow component corresponding to the same position as the position of the feature point extracted from the image of the input moving image data from the optical flow model database. 10 is a view showing a light flow model database. FIG. 11B is a diagram illustrating an optical flow model generated by extracting only an optical flow component corresponding to a feature point location extracted from the optical flow model database. In the input optical flow analysis step 840 using the optical flow model, the input optical flow calculated using the optical flow model is decomposed. That is, the input optical flow is represented by a plurality of optical flow models. In this decomposition process, the weight of each model is calculated according to the similarity with the input optical flow. 12 is a diagram illustrating that the input optical flow is decomposed into a sum of weights of the optical flow model. The weight for each model calculated in the input optical flow analysis step using the optical flow model is transmitted to the parameter calculation step 850 to analyze camera movements included in the input video data. In the parameter calculation step, the input parameter is calculated by using a weighted sum applied to the parameters used for generating each model by the weights calculated for each model. FIG. 13 is a diagram illustrating that input parameters are calculated by combining and applying weights of each model to each model generation parameter. Through the calculated parameters, the movement of the camera included in the input video data may be analyzed, and thus the tracking object region may be tracked.

다. 삽입All. insertion

삽입 모듈(65)은 크게 세 부분으로 나뉘는데, 삽입할 광고 영상을 변형하는 부분(70), 장애물을 검출하는 부분(90), 마지막으로 광고 영상을 삽입하는 부분(80)이 있다. 각각에 대하여 자세히 살펴보겠다.The insertion module 65 is roughly divided into three parts: a part 70 for deforming an advertisement image to be inserted, a part 90 for detecting an obstacle, and a part 80 for inserting an advertisement image. Let's take a closer look at each.

삽입할 영역의 위치가 설정되면, 그 위치에 가상의 객체를 삽입해야 하는데, 객체 영상을 자연스럽게 삽입하기 위해서는 삽입할 영역에 알맞게 변형이 되어야 한다. 카메라에 들어온 영상은 원근감이 있기 때문에 그 영상의 원근 정도와 같은 크기로 영상을 원근 변형시켜서 삽입을 해야 한다. 그러나 모든 입력 영상(비디오 프레임)에 대해서 원근 정도를 구할 수는 없다. 여기서 발명한 방법은 앞에서 찾은 삽입할 부분의 특징점의 좌표를 이용하는 것이다. 특징점의 좌표는 입력 영상 위에 있기 때문에 특징점의 위치 정보는 입력 영상의 원근 정보를 갖고 있다.When the position of the region to be inserted is set, a virtual object must be inserted at the position. In order to naturally insert the object image, it must be modified to fit the region to be inserted. Since the image entered into the camera has a sense of perspective, it must be inserted into the image by changing the perspective to the same size as the perspective of the image. However, perspective cannot be obtained for every input image (video frame). The method invented here is to use the coordinates of the feature points of the part to be inserted. Since the coordinates of the feature point are on the input image, the position information of the feature point has perspective information of the input image.

도 3b와 같은 테니스코트나 그 밖의 축구장의 페널티 지역과 같은 경우는 특징점의 위치를 그대로 사용하면 되지만, 도 3a와 같은 축구장의 센터서클이나 농구장의 자유투 지역과 같은 경우는 원근 정보를 특징점의 좌표에서 바로 구할 수가 없다. 따라서 센터서클과 같은 경우는 아래와 같은 방법으로 원근 변형 매개 변수를 생성할 수 있다.In the case of a tennis court as shown in FIG. 3B or a penalty area of another soccer field, the position of the feature point may be used as it is, but in the case of a center circle of a soccer field as shown in FIG. 3A or a free throw area of a basketball court as shown in FIG. You can't get it right away. Therefore, in the case of a center circle, the perspective deformation parameter can be generated by the following method.

우선 특징점의 가장 외곽 좌표를 이용하여 직사각형(510)을 만드는데, 가로 a(530), 세로 b(540) 크기의 직사각형(510)이 생성된다. 이 두 변의 길이(530,540)를 이용하여 원근 매개 변수를 구할 수 있는데, 세로의 길이(540)는 그대로이며, 가로의 길이(530)만 바꿔준다. 아래 부분에 있는 가로 선분의 길이(560)는 a+b×(1.0-c), 윗 부분에 있는 가로 선분의 길이(550)는 a-b×c로 한다(도 5에서 c는 영상의 수직 좌표 비율로 (범위는 0.0∼1.0)이고, d는 영상의 수평 좌표 비율(화면의 오른쪽일 경우 d>0, 왼쪽일 경우 d<0)이다). 이와 방법으로 자동으로 원근 변형을 할 수 있으나, 삽입 위치가 영상의 중앙에 있을 때만 가능하다. 또한때만 가능한데, 그렇지 않으면 윗 선분의 길이(550)는 a-(a-b)×c이며, 아랫 선분의 길이(560)는 a+(a-b)×(1.0-c)가 된다.First, a rectangle 510 is created using the outermost coordinates of a feature point. A rectangle 510 having a horizontal a (530) and a vertical b (540) size is generated. Perspective parameters can be obtained using the lengths 530 and 540 of the two sides. The vertical length 540 is the same, and only the horizontal length 530 is changed. The length 560 of the horizontal segment in the lower portion is a + b × (1.0-c), and the length 550 of the horizontal segment in the upper portion is a-b × c (in FIG. 5, c is the vertical of the image). In the coordinate ratio (range is 0.0 to 1.0), d is the horizontal coordinate ratio of the image (d> 0 for the right side of the screen, d <0 for the left side). In this way, perspective deformation can be done automatically, but only when the insertion position is in the center of the image. Also Only when this is possible, otherwise the length 550 of the upper segment is a- (a-b) × c, and the length 560 of the lower segment is a + (a-b) × (1.0-c).

삽입 위치가 화면의 중앙이 아닌 다른 위치, 예를 들어 화면의 오른쪽(500B)이나 왼쪽(500C)에 치우쳐져 있을 때에는 두 가로 선분의 길이는 그대로 유지한 채, 선분의 위치만 바꿔준다(520B-C). 도 5b는 삽입 위치(센터 서클의 위치)가 화면의 오른쪽에 있는 경우이고, 도 5c는 화면의 왼쪽에 있을 때이다. 두 가로 선분의 위치는 가로 선분이 화면의 중앙에서 얼마나 떨어져 있는가에 따라서 위치가 달라진다. 삽입 위치가 화면의 중앙에서 많이 떨어져 있으면 그 두 변의 움직인 위치 또한 크게 된다.When the insertion position is in a position other than the center of the screen, for example, the right side (500B) or the left side (500C) of the screen, only the positions of the line segments are changed while maintaining the length of the two horizontal segments (520B-). C). FIG. 5B is a case where the insertion position (the position of the center circle) is on the right side of the screen, and FIG. 5C is when the left side of the screen. The position of the two horizontal segments varies depending on how far the horizontal segments are from the center of the screen. If the insertion position is far away from the center of the screen, the moved position of the two sides will also be large.

삽입 영역에 사람이나 공과 같은 장애물이 있다면, 그 부분을 피해서 배경에 해당하는 경기장의 바닥에만 객체를 삽입해야 한다. 따라서 객체를 삽입하기에 앞서서 삽입 영역에 장애물이 있는지 항상 검사를 해야 한다. 장애물을 검출하는 방법은 다음과 같다.If there is an obstacle such as a person or a ball in the insertion area, the object should be inserted only on the floor of the playing field, avoiding the part. Therefore, before inserting an object, always check the insertion area for obstacles. The method for detecting an obstacle is as follows.

일반적으로 선수나 공과 같은 전경(foreground)과 운동장과 같은 배경(background)을 분리(segmentation)하는 문제는 많이 다루어져왔으며, 그 방법 또한 여러 가지이다. 보통 객체를 분리할 때에는 움직이는 물체를 객체로 여기고 인접한 프레임간의 차영상(difference image)을 이용하거나, 참조영상(reference image)과의 차영상을 이용한다. 이 방법은 쉽게 객체가 검출되는 반면에, 계산 비용이 많이 들어서 저해상도 영상을 이용한다. 그리고 배경의 색상이 바뀌면 객체를 검출하기 어려워 진다. 이 단점을 극복하고자 센서 포인트를 이용하기도 하였다. 이 방법은 실제 경기장 곳곳에 마커(센서 포인트)를 부착하여 카메라로 그 위치를 우선적으로 파악하여 삽입 위치를 찾으며, 전 프레임에서의 센서 포인트와의 색상을 비교하여, 달라진 배경의 색상을 갱신한다. 하지만 이 방법은 일정 개수 이상의 센서 포인트가 검출되지 않으면 객체 검출에 실패하는 단점이 있다. 그래서 본 발명에서는 색상을 이용하여 객체를 분리하려고 한다.In general, the problem of separating the foreground such as the player or the ball and the background such as the playground has been dealt with a lot, and there are various methods. Usually, when separating an object, a moving object is regarded as an object and a difference image between adjacent frames is used, or a difference image with a reference image is used. This method uses low resolution images because objects are easily detected, while computation is expensive. And when the background color changes, it becomes difficult to detect the object. To overcome this drawback, sensor points were used. This method attaches markers (sensor points) around the actual stadium, finds the insertion position by using the camera first, finds the insertion position, compares the color with the sensor points in the previous frame, and updates the changed background color. However, this method has a disadvantage in that object detection fails if a certain number of sensor points are not detected. Thus, the present invention attempts to separate objects using color.

스포츠 경기장은 대부분 단일한 색깔로 구성되어 있다. 예를 들면 축구장은 녹색의 잔디인데, 대개 한 가지 또는 두 가지의 색으로 구성되어 있으며, 테니스 코트 역시 한 가지의 색이고, 골프장이나 야구장 역시 한 가지 또는 두 가지 이다. 따라서 단일한 배경 색상을 이용하여 크로마키(chroma key)와 유사한 ultimatte를 이용하여 분리할 수 있다. 이 방법은 계산 비용도 많이 들지 않고 알고리즘이 간단하지만, 단순한 컬러 필터링(color filtering)(600)으로는 정확하게 장애물을 식별해 낼 수 없다. 예를 들면 축구 경기에서 한 선수의 유니폼 색이 운동장 색과 비슷한 녹색이라면 선수의 일부분을 배경으로 인식 할 수도 있으며, 따라서 선수 위에 가상 객체가 삽입되어 선수가 보이지 않게 된다. 그래서 이것을 보완하고자 경계 영상(edge image)를 이용한다.Most sports venues are of a single color. For example, a soccer field is green grass, usually composed of one or two colors, a tennis court is one color, and a golf or baseball field is one or two. Thus, a single background color can be used to separate using ultimattes, similar to chroma keys. This method does not require much computational cost and the algorithm is simple, but simple color filtering 600 does not accurately identify obstacles. For example, in a soccer game, if a player's uniform color is green, similar to the color of the playground, a part of the player may be recognized as the background, so that a virtual object is inserted above the player, making the player invisible. So we use edge image to compensate for this.

기존의 이진키(binary key)를 생성하지 않고, 회색 키(gray key)를 사용하는데, 아래와 같은 식으로 명도를 가진 장애물 검출 마스크(occlusion mask)(640)를 만든다.Instead of generating an existing binary key, a gray key is used. An occlusion mask 640 having a brightness is generated in the following manner.

앞의 식에서은 n번째 입력된 프레임,은 n번째 입력된 컬러 필터링 된 프레임,은 n번째 장애물 검출 마스크(occlusion mask), G는 가우시안 함수, θ는 라플라시안 함수, K는 클로징 커널이다.In the previous expression Is the nth input frame, Is the nth input color filtered frame, Where n is the n th occlusion mask, G is a Gaussian function, θ is a Laplacian function, and K is a closing kernel.

도 6에 객체 검출 알고리즘이 도식화되어 있다. 비디오 영상이 입력되면 컬러 필터링과 동시에 경계 영상을 구한다. 컬러 필터링은 HSV 색상 모델에서 V와 H×S를 이용하여 ultimatte 방법(선형 방법)을 이용하여 객체를 분리한다. 경계 영상은 가우시안 필터(Gaussian filter)(610)를 이용하여 영상을 블러(blur)시킨 후 라플라시안 필터(Laplacian filter)(620)로 경계 영상을 만든다. 블러한 후 경계(edge)를 구하는 이유는 배경의 노이즈를 없애기 위한 것이다. 따라서 선수나 공과 같은 검출하고자 하는 장애물에 해당하는 경계만 남게 된다. 그런데 이 경계는 전경과 배경의 색이 비슷할 경우 약하게 나오기 때문에 클로징(closing)(630)으로 보완해준다. 결과적으로 장애물이 있는 부분에는 비교적 큰 값이 나오고, 장애물이 없는 부분은 작은 값이 나오는 회색 영상(gray image)가 나온다. 따라서 컬러 필터링된 영상에 이 회색 영상의 웨이트(weight)(650)를 주면 명도를 가진 장애물 검출 마스크(occlusion mask)(640)가 생성된다. 따라서 이 마스크(640)를 이용하면 전경과 배경의 색이 비슷한 부분도 검출할 수 있다. 따라서 이 마스크(640)를 원영상과 삽입할 영상과의 알파블렌딩의 키(key)로 사용한다.The object detection algorithm is illustrated in FIG. When the video image is input, the boundary image is obtained simultaneously with the color filtering. Color filtering separates objects using the ultimatte method (linear method) using V and H × S in the HSV color model. The boundary image is blurred by using a Gaussian filter 610, and then a boundary image is generated by a Laplacian filter 620. The reason for finding the edge after blurring is to remove background noise. Therefore, only the boundary corresponding to the obstacle to be detected such as the player or the ball remains. However, this boundary is complemented by closing (630) because the foreground and the background color is weak when the color is similar. As a result, a gray image shows a relatively large value in the part with an obstacle and a small value in the part without an obstacle. Therefore, when the weight 650 of the gray image is given to the color filtered image, an obclusion mask 640 having a brightness is generated. Therefore, when the mask 640 is used, a portion where the color of the foreground and the background is similar can be detected. Therefore, the mask 640 is used as a key for alpha blending between the original image and the image to be inserted.

따라서 상기와 같은 본 발명의 방법에 의하면, 방송중계시 경기장(110)의 광고를 넣기 어려운 빈 공간에 자연스럽게 삽입하여 시청자들로 하여금 그 광고가 실제로 경기장에 놓여있는 듯이 느끼게 할 수 있어서, 효과적인 광고 효과를 얻을 수 있다.Therefore, according to the method of the present invention as described above, it is possible to naturally insert the advertisement of the stadium 110 in the broadcast relay to make viewers feel as if the advertisement is actually placed on the stadium, so that the effective advertising effect You can get it.

본 발명에 의하면, 스포츠 경기의 텔레비전 방송 시 광고를 직접 삽입하기 어려운 부분, 예를 들어 축구장의 센터 서클이나 그림 광고만을 삽입 할 수 있는 부분에 애니메이션 광고를 실시간으로 삽입하여 광고의 효과를 극대화 할 수 있다.According to the present invention, it is possible to maximize the effect of the advertisement by inserting the animated advertisement in real time in the difficult part, for example, the center circle of the soccer field or the part that can insert only the picture advertisement during the television broadcast of sports events. have.

이상 설명에서와 같이 본 발명은 중계되는 방송의 영상화면을 프레임단위로 읽어들여 템플릿방식으로 광고삽입 위치를 확보한 다음 그 위치에 인위적으로 미리 설정된 광고를 삽입시키도록 됨으로써, 영상화면이 역동적으로 전개되는 영상화면상에서 원하는 위치에 광고신호를 용이하게 삽입시킬 수 있으므로 광고 표시 특성을 상당히 향상시킬 수 있다.As described above, according to the present invention, the image screen is dynamically developed by reading an image of a broadcast broadcast on a frame-by-frame basis to secure an advertisement insertion position by a template method and then inserting an artificially preset advertisement at the position. Since the advertisement signal can be easily inserted at a desired position on the video screen, the advertisement display characteristics can be significantly improved.

본 발명에 따르면, 역동적인 영상화면의 적절한 위치에 광고신호가 삽입되어 시청자가 항상 그 광고를 주시하게 되므로 방송매체를 통한 광고효과를 극대화시킬 수 있는 효과가 있다.According to the present invention, since an advertisement signal is inserted at an appropriate position of a dynamic video screen, the viewer always watches the advertisement, thereby maximizing the advertisement effect through a broadcasting medium.

Claims (12)

실시간으로 중계되는 영상 신호상에 광고 삽입 기능을 실행시키는 광고 삽입 시스템에 있어서, 상기 카메라로부터 입력된 영상 신호상에 템플릿 구조체를 이용하여 가상 광고 삽입 위치를 결정하는 탐색 모듈과, 이 탐색모듈의 템플릿 구조체에 의해 설정된 가상 광고 삽입 위치에 광고를 삽입하는 삽입 모듈 및 카메라 움직임을 예측하는 추적 모듈을 포함하는 것을 특징으로 하는 방송 중계 영상 화면에 광고를 삽입하는 시스템.An advertisement insertion system that executes an advertisement insertion function on a video signal relayed in real time, comprising: a search module for determining a virtual advertisement insertion position using a template structure on a video signal input from the camera, and a template structure of the search module. And a tracking module for inserting an advertisement at a virtual advertisement insertion position set by the controller and a tracking module for predicting camera movement. 제 1항에 있어서, 메모리 헤드가 부착된 카메라를 이용하지 않고, 영상에서 카메라의 동작을 분석하여 카메라의 움직임을 분석하는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상 화면에 광고를 삽입하는 시스템.The system of claim 1, further comprising analyzing the movement of the camera by analyzing the motion of the camera in the image without using the camera to which the memory head is attached. 광고 삽입 시스템의 삽입 영역을 찾는 단계에서, 템플릿 구조체를 이용하여 가상 광고의 삽입 위치의 특징점에 대해서 템플릿 매칭을 수행하여 가상 광고의 삽입 위치를 찾는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상 화면에 광고를 삽입하는 시스템의 제어 방법.In the step of finding the insertion region of the advertisement insertion system, performing template matching on the feature points of the insertion position of the virtual advertisement using the template structure to find the insertion position of the virtual advertisement. Control method of the system to insert the advertisement. 제 3항에 있어서, 템플릿 구조체는 네 개의 템플릿으로 구성되어 있으며, 각 템플릿들은 원형으로 서로 연결되어 있어서, 템플릿간에 서로의 위치를 보완해주어서 효율적으로 삽입 위치를 찾는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상 화면에 광고를 삽입하는 시스템의 제어 방법.4. The template structure of claim 3, wherein the template structure is composed of four templates, and each template is connected to each other in a circle so as to complement each other's positions among the templates, thereby efficiently finding an insertion position. Control method of the system to insert the advertisement on the broadcast relay video screen. 광고 삽입 시스템의 가상 광고를 삽입하는 단계에서, 삽입할 객체 영상을 변형하는 단계와 삽입 영역에 나타난 장애물을 검출하는 단계와 변형된 가상 광고를 삽입하는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상 화면에 광고를 삽입하는 시스템의 제어 방법.In the step of inserting a virtual advertisement of the advertisement insertion system, the broadcast relay video screen comprising the step of modifying the object image to be inserted, detecting the obstacles appearing in the insertion region and inserting the modified virtual advertisement Control method of the system to insert the advertisement into. 제 5항에 있어서, 객체 영상을 변형하는 단계에서 가상 광고를 삽입할 위치의 좌표를 이용하여 영상 전체의 원근 변형도를 예측하는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.6. The method of claim 5, wherein the step of transforming the object image comprises the step of predicting the perspective deformation degree of the entire image using the coordinates of the position to insert the virtual advertisement. How to control the system. 제 5항에 있어서, 장애물을 검출하는 단계에서 HSV 색상 모델에서 V와 H×S을 이용하여 배경과 객체를 분리하며, 경계(edge) 영상과 전프레임에서 생성된 장애물 검출 마스크(occlusion mask)를 참조하여 정확하게 객체를 분리하는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.The method of claim 5, wherein in the detecting of the obstacle, the background and the object are separated using V and H × S in the HSV color model, and the occlusion mask generated in the edge image and the previous frame is detected. And separating the object accurately by referring to the control method of the system for inserting an advertisement on a broadcast video screen. 제 5항에 있어서, 장애물을 검출하는 단계에서 명도를 가진 마스크(gray valued mask)를 생성하는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.The method of claim 5, further comprising generating a gray valued mask in detecting the obstacle. 7. 제 5항에 있어서, 삽입하는 단계에서 명도를 가진 마스크를 이용하여 삽입할 때, 상기의 마스크를 키(key)로 사용하여 가상 광고 영상과 카메라로 입력된 영상을 합성하여 가상 광고를 삽입하는 단계를 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.The method of claim 5, wherein the step of inserting a virtual advertisement by synthesizing a virtual advertisement image and an image input by a camera using the mask as a key when inserting the mask using a brightness mask in the inserting step. Control method of a system for inserting an advertisement on a broadcast relay video screen comprising a. 타원 객체 추적을 위해 입력 영상으로부터 타원 객체 영역만을 추출하기 위한 움직이는 객체 영역 제거 단계 중에 움직이는 객체가 세로 에지 성분을 갖는 특성을 이용한 움직이는 객체 제거 방법을 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.During the moving object region removal step to extract only the elliptic object region from the input image for tracking the ellipse object, the moving object removal method using the characteristic of the moving object using the vertical edge component is included. Control method of inserting system. 타원 객체 추적을 위한 특징점 추출 단계 후에 추출된 특징점을 이용하여 타원 방적식 유도와 타원의 중심점 좌표와 타원의 장·단축 크기 정보를 이용하여 동영상에 포함된 카메라의 움직임 정보를 산출하여 산출된 카메라 움직임 정보를 이용한 타원 객체를 추적하는 방법을 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.Camera motion information calculated by calculating elliptical equations using the extracted feature points after elliptic object tracking and calculating the motion information of the camera included in the video using the coordinates of the ellipse's center point and the length of the ellipse. And a method for tracking an ellipse object using the control system. 비 타원 객체 추적 방법에 있어서, 입력 동영상에 포함된 카메라 움직임을 분석하기 위해 광류 모델을 이용한 입력 광류 분석 단계와, 산출된 각 모델에 대한 가중치를 각 모델 생성 파라미터에 적용하여 입력에 대한 카메라 움직임 파라미터를 산출하여 이 정보를 이용한 비 타원 객체 추적 방법을 포함하는 것을 특징으로 하는 방송 중계 영상화면에 광고를 삽입하는 시스템의 제어 방법.In the non-elliptic object tracking method, an input optical flow analysis step using an optical flow model to analyze camera movements included in an input video, and a camera motion parameter for an input by applying weights for each model to each model generation parameter And a method for tracking a non-elliptic object using the information by calculating a.
KR1020000080965A 2000-12-22 2000-12-22 System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis KR20010025404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000080965A KR20010025404A (en) 2000-12-22 2000-12-22 System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000080965A KR20010025404A (en) 2000-12-22 2000-12-22 System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis

Publications (1)

Publication Number Publication Date
KR20010025404A true KR20010025404A (en) 2001-04-06

Family

ID=19703508

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000080965A KR20010025404A (en) 2000-12-22 2000-12-22 System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis

Country Status (1)

Country Link
KR (1) KR20010025404A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030070446A (en) * 2002-02-25 2003-08-30 (주)버추얼미디어 Apparatus and method for compositing image in video sequence
KR20030090372A (en) * 2002-05-23 2003-11-28 주식회사 밀리오네어즈 Method for replacing advertisement in a digital broadcast and apparatus therefor
KR101020991B1 (en) * 2009-05-25 2011-03-09 송인걸 apparatus and method of advertisement interpolation in relay broadcasting system
KR20110079429A (en) * 2009-12-30 2011-07-07 주식회사 알티캐스트 Broadcasting system and method of providing a personalized broadcasting service in the same
KR101105467B1 (en) * 2011-03-30 2012-01-17 주식회사 엑스디웍스 A advertisement providing method using composite video
KR20150049066A (en) * 2013-10-29 2015-05-08 주식회사 애드라 Method for creating video file taken by camera module of mobile device
KR20170030420A (en) * 2015-09-09 2017-03-17 주식회사 아이티엑스엠투엠 Personalized shopping mall system using virtual camera
US9967446B2 (en) 2015-09-09 2018-05-08 Itx-M2M Co., Ltd. Personalized shopping mall system using virtual camera
CN111357295A (en) * 2017-06-27 2020-06-30 皮克索洛特公司 Method and system for fusing user-specific content into video production
CN111556338A (en) * 2020-05-25 2020-08-18 腾讯科技(深圳)有限公司 Method for detecting region in video, method and device for fusing information and storage medium
CN111556362A (en) * 2020-03-19 2020-08-18 上海万面智能科技有限公司 Vehicle body advertisement implanting method and device, electronic equipment and storage medium
WO2021194090A1 (en) * 2020-03-27 2021-09-30 주식회사 라온버드 System and method for analyzing advertisement in sports video using artificial intelligence

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030070446A (en) * 2002-02-25 2003-08-30 (주)버추얼미디어 Apparatus and method for compositing image in video sequence
KR20030090372A (en) * 2002-05-23 2003-11-28 주식회사 밀리오네어즈 Method for replacing advertisement in a digital broadcast and apparatus therefor
KR101020991B1 (en) * 2009-05-25 2011-03-09 송인걸 apparatus and method of advertisement interpolation in relay broadcasting system
KR20110079429A (en) * 2009-12-30 2011-07-07 주식회사 알티캐스트 Broadcasting system and method of providing a personalized broadcasting service in the same
KR101105467B1 (en) * 2011-03-30 2012-01-17 주식회사 엑스디웍스 A advertisement providing method using composite video
KR20150049066A (en) * 2013-10-29 2015-05-08 주식회사 애드라 Method for creating video file taken by camera module of mobile device
KR20170030419A (en) * 2015-09-09 2017-03-17 주식회사 아이티엑스엠투엠 Personalized shopping mall system using virtual camera
KR20170030422A (en) * 2015-09-09 2017-03-17 주식회사 아이티엑스엠투엠 Personalized shopping mall system using virtual camera
KR20170030420A (en) * 2015-09-09 2017-03-17 주식회사 아이티엑스엠투엠 Personalized shopping mall system using virtual camera
US9967446B2 (en) 2015-09-09 2018-05-08 Itx-M2M Co., Ltd. Personalized shopping mall system using virtual camera
CN111357295A (en) * 2017-06-27 2020-06-30 皮克索洛特公司 Method and system for fusing user-specific content into video production
CN111556362A (en) * 2020-03-19 2020-08-18 上海万面智能科技有限公司 Vehicle body advertisement implanting method and device, electronic equipment and storage medium
WO2021194090A1 (en) * 2020-03-27 2021-09-30 주식회사 라온버드 System and method for analyzing advertisement in sports video using artificial intelligence
US11962873B2 (en) 2020-03-27 2024-04-16 Laonbud Co., Ltd. Advertisement analysis system and method for sports broadcasting video using artificial intelligence
CN111556338A (en) * 2020-05-25 2020-08-18 腾讯科技(深圳)有限公司 Method for detecting region in video, method and device for fusing information and storage medium
CN111556338B (en) * 2020-05-25 2023-10-31 腾讯科技(深圳)有限公司 Method for detecting region in video, method for information fusion, device and storage medium

Similar Documents

Publication Publication Date Title
Figueroa et al. Tracking soccer players aiming their kinematical motion analysis
Pingali et al. Real time tracking for enhanced tennis broadcasts
US8805007B2 (en) Integrated background and foreground tracking
US9437012B2 (en) Multiple-object tracking and team identification for game strategy analysis
US6950123B2 (en) Method for simultaneous visual tracking of multiple bodies in a closed structured environment
US9094615B2 (en) Automatic event videoing, tracking and content generation
US20170001118A1 (en) System and method for optical player tracking in sports venues
US20120180084A1 (en) Method and Apparatus for Video Insertion
US20150297949A1 (en) Automatic sports broadcasting system
US8922718B2 (en) Key generation through spatial detection of dynamic objects
EP2380358B1 (en) Creation of depth maps from images
JP2004500756A (en) Coordination and composition of video sequences with space-time normalization
KR20030019559A (en) Method for multiple view synthesis
JP2009505553A (en) System and method for managing the insertion of visual effects into a video stream
KR20010025404A (en) System and Method for Virtual Advertisement Insertion Using Camera Motion Analysis
Liu et al. A novel approach for tracking high speed skaters in sports using a panning camera
KR20040041297A (en) Method for tracing and displaying multiple object movement using multiple camera videos
CA2231849A1 (en) Method and apparatus for implanting images into a video sequence
JP2003032544A (en) Scene contents information attachment device and scene contents information attaching method
KR20050008246A (en) An apparatus and method for inserting graphic images using camera motion parameters in sports video
KR20000054328A (en) method for changing an advertisement in the broadcast relay picture
KR20000054304A (en) system for inserting an advertisement in the broadcast relay picture and controlling method
Park et al. Extraction of visual information in basketball broadcasting video for event segmentation system
Lashkia et al. A team play analysis support system for soccer games
Xie et al. Object Tracking Method based on 3D Cartoon Animation in Broadcast Soccer Videos

Legal Events

Date Code Title Description
A201 Request for examination
G15R Request for early opening
E902 Notification of reason for refusal
E601 Decision to refuse application