KR101249447B1 - Real time reflex composition method using analyzing module of moving object and broadcasting method thereof - Google Patents

Real time reflex composition method using analyzing module of moving object and broadcasting method thereof Download PDF

Info

Publication number
KR101249447B1
KR101249447B1 KR1020110049662A KR20110049662A KR101249447B1 KR 101249447 B1 KR101249447 B1 KR 101249447B1 KR 1020110049662 A KR1020110049662 A KR 1020110049662A KR 20110049662 A KR20110049662 A KR 20110049662A KR 101249447 B1 KR101249447 B1 KR 101249447B1
Authority
KR
South Korea
Prior art keywords
image
module
moving object
real
analysis module
Prior art date
Application number
KR1020110049662A
Other languages
Korean (ko)
Other versions
KR20120131472A (en
Inventor
송영배
김병택
Original Assignee
주식회사 엠비씨씨앤아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엠비씨씨앤아이 filed Critical 주식회사 엠비씨씨앤아이
Priority to KR1020110049662A priority Critical patent/KR101249447B1/en
Publication of KR20120131472A publication Critical patent/KR20120131472A/en
Application granted granted Critical
Publication of KR101249447B1 publication Critical patent/KR101249447B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 이동물체의 객체분석 모듈을 이용하여 실사영상과 가상이미지영상을 실시간으로 합성하기 위한 시스템에 관한 것으로, 본 발명은 이동물체의 정보를 분석하는 객체분석모듈(200)과, 상기 객체분석모듈(200)로부터 전달받은 정보를 기초로 이동물체에 관한 정보를 포함하는 내용을 도시화한 가상이미지를 생성하는 CG생성모듈(400)과, 상기 CG생성모듈(400)과 연결되어 생성된 상기 가상이미지를 전달받고 영상촬영부(100)로부터 전달된 실사영상을 합성하는 영상합성모듈(600)과, 상기 CG생성모듈(400) 및 영상합성모듈(600) 사이에 위치하여 가상이미지의 인터페이스를 수행하는 공유메모리버퍼(500)를 포함하여 구성된다. The present invention relates to a system for synthesizing real-life and virtual image images in real time using an object analysis module of a moving object. The present invention provides an object analysis module 200 for analyzing information of a moving object, and the object analysis. CG generation module 400 for generating a virtual image showing the contents including the information on the moving object based on the information received from the module 200 and the virtual generated in connection with the CG generation module 400 The image synthesis module 600 receives the image and synthesizes the actual image transmitted from the image capturing unit 100, and is located between the CG generation module 400 and the image synthesis module 600 to perform a virtual image interface. It is configured to include a shared memory buffer 500.

Description

이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법{Real time reflex composition method using analyzing module of moving object and broadcasting method thereof} Real time reflex composition method using analyzing module of moving object and broadcasting method

본 발명은 구기운동과 같은 스포츠 경기에 있어 공의 이동궤적과 같은 위치정보를 분석하여 이를 컴퓨터 그래픽으로 구현하는 실시간 영상합성 시스템과 이를 이용하여 중계방송을 시행하는 방법에 관한 것이다. The present invention relates to a real-time video synthesis system that analyzes location information, such as ball movement trajectory, in a sports game such as ball game, and implements it in computer graphics, and a method for performing broadcast broadcasting using the same.

일반적으로 공중파, 케이블, 및 IP망으로 방송신호가 전송되는 방송매체 예컨대, 텔레비전과 같은 방송수신매체는 실시간으로 방송신호를 시청자들에게 전달하여 시청자들의 다양한 정보 충족 욕구를 해소시켜 주고 있다. In general, broadcast receiving media such as television, which transmits broadcast signals through airwaves, cables, and IP networks, deliver broadcast signals to viewers in real time, thereby resolving the viewers' desire to satisfy various information.

특히 중계 방송 시스템은 현지(경기장)에서 벌어지는 스포츠 경기의 영상을 촬영하면서 스포츠 경기의 중계 및 해설을 포함하는 동영상을 실시간으로 시청자들에게 제공하여, 시청자들이 스포츠 경기를 생동감 있게 시청할 수 있도록 한다.In particular, the broadcast system provides viewers with live video of a sports event in real time by recording a video of a sports event in the field (the stadium) and including a commentary and commentary of the sports game.

이러한 중계 방송 기술 중에서, 최근에는 컴퓨터 그래픽을 실제 영상에 추가하는 다양한 방법이 제시되고 있다. 예를 들어, 실제 경기 영상에 컴퓨터 그래픽으로 구현된 가상광고를 삽입한다든지, 구기 종목의 중계에 있어서는 공의 궤적과 스피드 등을 합성하는 기술, 그리고 기타 각종 데이터를 실사영상에 합성함으로써 광고효과를 높이고 시청자들로 하여금 경기 몰입도를 높이는 결과를 가져오고 있다. Recently, various methods for adding computer graphics to real images have been proposed. For example, inserting a virtual advertisement implemented in computer graphics into a real game video, or in synchronizing ball trajectories and speeds in ball games, and synthesizing various data into live-action video To increase viewer engagement.

이를 위해, 증강 현실(Augmented Reality) 기술이 사용되는데, 증강현실이란 일반적으로 가상 환경 및 가상 현실에서 파생한 용어로서, 현실 세계 위에 컴퓨터에 의해서 생성된 정보를 덧붙여 표현하는 것을 의미한다. 즉, 현실 세계 정보에는 사용자가 필요로 하지 않는 정보도 있고 때로는 사용자가 필요로 한 정보가 부족할 수도 있다. 그러나, 컴퓨터로 만든 가상환경을 이용하면 필요로 하지 않는 정보를 단순하게 하거나 보이지 않는 정보들을 만들어낼 수도 있다. To this end, Augmented Reality (Augmented Reality) technology is used, augmented reality is generally a term derived from the virtual environment and virtual reality, which means to express the information generated by the computer over the real world. In other words, real-world information may contain information that the user does not need, and sometimes the user may lack information. However, using a computer-generated virtual environment, you can simplify the information you don't need or create invisible information.

즉, 증강 현실 시스템은 현실 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호 작용이 이루어지도록 하는 것으로, 현재 뉴스나 엔터테인먼트분야 또는 스포츠 중계분야 등에서 널리 사용되고 있다. In other words, the augmented reality system is to allow the user to interact with the user in real time by combining the real world and the virtual world, and is widely used in news, entertainment, or sports relay.

참고로, 도 1 및 도 2에는 현재 사용되고 있는 중계화면으로, 실제 경기영상에 컴퓨터 그래픽으로 구현된 증강현실(AR,Augmented Reality)을 나타내고 있는데, 구체적으로는 도 1의 경우 선수의 국적을 나타내는 국기가 합성되어 표현되었고, 도 2의 경우에는 축구경기에서 오프사이드의 기준라인을 합성하여 표현하고 있다. For reference, FIGS. 1 and 2 are presently used relay screens, which show AR (Augmented Reality) implemented as computer graphics in actual game images. Specifically, in FIG. 1, a flag indicating a player's nationality 2 is expressed by synthesizing, and in the case of FIG.

이와 같이 스포츠 중계분야에서 컴퓨터 그래픽을 합성하기 위한 종래 기술로는 대한민국 등록특허 10-1025899호 및 10-0941749 등 다수의 기술이 개시되어 있다. As described above, as a conventional technique for synthesizing computer graphics in the field of sports relay, a number of techniques such as Korean Patent Nos. 10-1025899 and 10-0941749 have been disclosed.

하지만, 상기와 같은 종래기술에는 다음과 같은 문제점이 있다. However, the prior art as described above has the following problems.

종래에는 스포츠 방송중계의 합성, 그 중에서도 특히 구기운동에서 사용되는 공의 궤적을 컴퓨터 그래픽으로 구현하여 합성하는 경우에는 각 구기 종목별로 별도의 시스템을 이용하였다. 예를 들어, 골프공의 궤적을 합성하는 경우와, 야구공의 궤적을 합성하는 경우에는 각각 별개의 객체분석 모듈을 이용한 합성시스템을 통해 구현되는 것이다. 따라서, 각 종목별로 별개의 시스템을 구축해야하고, 이들 사이에 통일성이 없어 각각의 시스템에 숙련되기 위한 과정을 별도로 거쳐야 하므로 비효율적인 문제점이 있다. Conventionally, in the case of synthesizing sports broadcasting relay, especially the trajectory of the ball used in the ball game using computer graphics, a separate system is used for each ball game. For example, in the case of synthesizing the trajectory of a golf ball, and in synthesizing the trajectory of a baseball, each of them is implemented through a synthesis system using a separate object analysis module. Therefore, a separate system must be established for each item, and there is no uniformity among them, and thus, there is an inefficient problem because a separate process must be performed for each system.

또한, 실제 영상과 컴퓨터 그래픽으로 구현된 영상 사이의 동기화가 중요한데, 종래에는 이러한 동기화를 위하여 어느 하나의 영상을 지연시킨 후에 다른 하나를 조절하여야 하므로, 정확한 동기화가 어려운 면이 있었다.
In addition, synchronization between the actual image and the image implemented in computer graphics is important. In the related art, it is difficult to precisely synchronize one image after delaying one image for such synchronization.

본 발명은 상기한 바와 같은 종래기술의 문제점을 해결하기 위한 것으로, 본 발명은 방송중계의 피사체가 되는 이동물체의 이동궤적이나 광고를 위한 광고화면과 같은 정보를 가상이미지로 구현하고 이를 실제영상에 합성함에 있어서 다양한 종목에 적용될 수 있는 통일된 시스템을 제공하는 것이다. The present invention is to solve the problems of the prior art as described above, the present invention implements the information such as the moving trajectory of the moving object that is the subject of the broadcast relay or the advertisement screen for the advertisement as a virtual image and the actual image It is to provide a unified system that can be applied to various items in the synthesis.

본 발명의 다른 목적은 실제영상과 컴퓨터로 구현된 CG영상 사이에 동기화가 쉽게 이루어질 수 있도록 하는 것이다. Another object of the present invention is to facilitate synchronization between a real image and a computer-implemented CG image.

본 발명의 또 다른 목적은 컴퓨터로 구현된 CG영상을 합성함에 있어서 인터페이스가 원활하게 이루어지도록 하는 것이다.
Still another object of the present invention is to smoothly interface in synthesizing a computer-implemented CG image.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 이동물체의 객체분석 모듈을 이용하여 실사영상과 가상이미지영상을 실시간으로 합성하기 위한 시스템에 있어서, 이동물체의 정보를 분석하는 객체분석모듈과, 상기 객체분석모듈로부터 전달받은 정보를 기초로 이동물체에 관한 정보를 포함하는 내용을 도시화한 가상이미지를 생성하는 CG생성모듈과, 상기 CG생성모듈과 연결되어 생성된 상기 가상이미지를 전달받고 영상촬영부로부터 전달된 실사영상을 합성하는 영상합성모듈과, 상기 CG생성모듈 및 영상합성모듈 사이에 위치하여 가상이미지의 인터페이스를 수행하는 공유메모리버퍼를 포함하여 구성된다. According to a feature of the present invention for achieving the above object, the present invention is a system for synthesizing real-life image and virtual image image in real time using the object analysis module of the moving object, analyzing the information of the moving object A CG generation module for generating a virtual image showing a content including information about a moving object based on the information received from the object analysis module, the object analysis module, and the virtual generated in connection with the CG generation module An image synthesis module for receiving an image and synthesizing the actual image transmitted from the image photographing unit, and a shared memory buffer positioned between the CG generation module and the image synthesis module to perform the interface of the virtual image.

상기 객체분석모듈은 실사영상을 촬영하는 영상촬영부 또는 이동물체의 궤적을 포함하는 이동정보를 측정하는 궤적측정기와 연결되어, 영상촬영부로부터 전달되는 실사영상을 분석하거나 또는 궤적측정기로부터 전달되는 데이터를 기초로 하여 이동물체의 이동정보를 분석한다. The object analysis module is connected to a trajectory measuring unit for measuring moving information including a trajectory of a moving object or an image photographing unit for photographing a live-action image, and analyzes the actual image transmitted from the image capturing unit or data transmitted from the trajectory measuring unit. The moving information of the moving object is analyzed on the basis of.

상기 객체분석모듈에는 상기 영상촬영부에 의해 촬영되는 실사영상에 타임코드를 생성하는 타임스탬프가 구비되고, 상기 객체분석모듈에 구비된 화면분석부 또는 궤적분석부는 상기 타임스탬프를 이용하여 이동물체의 이동정보를 분석 및 전송한다. The object analysis module is provided with a time stamp for generating a time code on the live image captured by the image photographing unit, and the screen analysis unit or trajectory analyzing unit provided in the object analysis module uses the time stamp to determine the moving object. Analyze and transmit movement information.

상기 객체분석모듈에는 상기 이동물체의 이동정보를 송신하는 송신부가 구비되고, 상기 객체분석모듈에 연결된 CG생성모듈에는 이에 대응되는 수신부가 구비되며, 상기 송신부 및 수신부는 각각 이동물체의 이동정보를 유저인터페이스로 디스플레이한다. The object analysis module is provided with a transmission unit for transmitting the movement information of the moving object, the CG generation module connected to the object analysis module is provided with a corresponding reception unit, the transmitter and the receiving unit is to receive the movement information of the moving object, respectively Display on the interface.

상기 CG생성모듈 또는 영상합성모듈 중 적어도 어느 일측에는 가상이미지 또는 실사영상을 지연시키기 위한 딜레이부가 구비된다.  At least one side of the CG generation module or the image synthesis module is provided with a delay unit for delaying the virtual image or the real image.

상기 CG생성모듈에는 다수개의 서로 다른 중계종목에 따른 가상이미지화면을 제공하는 다수개의 개별씬이 구비되고, 상기 개별씬과 실사영상은 매칭프로세스에 의하여 대응하게 된다. The CG generation module is provided with a plurality of individual scenes for providing virtual image screens according to a plurality of different relay items, and the individual scenes and the live-action image correspond to each other by a matching process.

상기 CG생성모듈에 의해 생성되는 가상이미지는 이동물체의 속도, 궤적, 이동거리, 발사각, 회전속도, 이동물체를 타격하는 도구의 타격속도, 백스윙속도, 플레이어의 기록 중 적어도 어느 하나이다. The virtual image generated by the CG generating module is at least one of a speed, a trajectory, a moving distance, a launch angle, a rotational speed, a blow speed of a tool hitting the moving object, a back swing speed, and a record of a player.

본 발명의 다른 특징에 따르면, 본 발명은 이동물체의 객체분석 모듈을 이용하여 실사영상과 가상이미지를 실시간으로 합성하여 방송하는 방송중계방법에 있어서, 영상촬영부에 의해 실사영상을 촬영하는 촬영단계와, 객체분석모듈을 이용하여 상기 영상촬영부 또는 궤적측정기에 의해 측정된 이동물체의 이동정보를 분석하는 객체분석단계와, 상기 객체분석모듈로부터 전달된 이동정보를 기초로 CG생성모듈을 통하여 이동물체에 관한 정보를 도시화하는 가상이미지를 생성하는 CG생성단계와, 공유메모리버퍼를 통해 전달되는 가상이미지와 상기 영상촬영부로부터 전달된 실사영상을 영상합성모듈을 이용하여 합성하는 영상합성단계를 포함하여 구성된다. According to another feature of the present invention, the present invention is a broadcast relay method for synthesizing and broadcasting a real-time image and a virtual image in real time using the object analysis module of a moving object, the shooting step of taking a photo-realistic image by the image taking unit And an object analysis step of analyzing the movement information of the moving object measured by the image photographing unit or the trajectory measuring instrument using an object analysis module, and moving through the CG generation module based on the movement information transmitted from the object analysis module. CG generation step of generating a virtual image showing the information about the object, and a video synthesis step of synthesizing the virtual image transmitted through the shared memory buffer and the live image transmitted from the image taking unit using the image synthesis module It is configured by.

상기 객체분석단계는 영상촬영부의 촬영에 의한 화면을 분석하는 화면분석부를 통해 이루어지거나 또는 궤적측정기에 의하여 측정된 이동물체의 객체데이터를 분석하는 궤적분석부를 통해 이루어진다. The object analysis step is performed through a screen analysis unit for analyzing the screen by the image pickup unit or a trajectory analysis unit for analyzing the object data of the moving object measured by the trajectory measuring device.

상기 촬영단계에 이어 상기 촬영된 실사영상에 타임코드를 지정하는 단계가 더 포함된다. Following the photographing step, a step of assigning a time code to the photographed real picture is further included.

상기 CG생성모듈을 이용한 CG생성단계에서는 서로 다른 중계종목에 따른 가상이미지화면을 제공하는 다수개의 개별씬 중 어느 하나를 선택하는 씬선택단계와, 상기 선택된 개별씬과 상기 실사영상의 뷰포트(view port)를 매칭하는 매칭단계와, 상기 선택된 개별씬에 맞는 가상이미지를 생성하는 렌더링단계를 포함하여 구성된다. In the CG generation step using the CG generation module, a scene selection step of selecting any one of a plurality of individual scenes providing virtual image screens according to different relay events, and a view port of the selected individual scene and the actual image ) And a rendering step of generating a virtual image suitable for the selected individual scene.

상기 영상합성단계는 상기 CG생성단계에서 생성된 가상이미지와 촬영단계에서 촬영된 실제영상 중 적어도 어느 하나를 지연시키는 딜레이단계와, 상기 딜레이된 영상에 맞도록 나머지 하나의 영상의 재생시간을 조절하는 동기화단계를 포함하여 구성된다.
The image synthesizing step includes a delay step of delaying at least one of the virtual image generated in the CG generation step and the actual image photographed in the photographing step, and adjusting a play time of the other image to fit the delayed image. It comprises a synchronization step.

위에서 살핀 바와 같은 본 발명에 의한 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법에서는 다음과 같은 효과를 기대할 수 있다.As described above, in the real-time video synthesis system using the object analysis module of the moving object and the broadcast relay method using the same, the following effects can be expected.

본 발명에서는 가상이미지의 생성에 앞서 미리 설정된 개별씬을 선택할 수 있어, 방송중계의 피사체가 되는 이동물체의 이동궤적이나 광고를 위한 광고화면과 같은 정보를 가상이미지로 구현하고 이를 실제영상에 합성함에 있어서 다양한 종목에 적용될 수 있는 통일된 시스템을 제공할 수 있는 장점이 있다.  In the present invention, the individual scene can be selected in advance prior to the creation of the virtual image, to realize the information such as the moving trajectory of the moving object, which is the subject of the broadcast relay, or the advertisement screen for advertising into a virtual image and synthesize it into the actual image. There is an advantage to provide a unified system that can be applied to a variety of items.

그리고, 본 발명에서는 타임스탬프에 의해 할당되는 타임코드 및 영상합성모듈의 딜레이부에 의하여 실제영상과 컴퓨터로 구현된 CG영상 사이에 동기화가 쉽게 이루어질 수 있어 가상이미지의 합성 작업이 용이하고 정확하게 이루어질 수 있는 효과가 있다. In addition, in the present invention, synchronization between the real image and the computer-implemented CG image may be easily performed by the time code assigned by the time stamp and the delay unit of the image synthesis module, so that virtual image synthesis may be easily and accurately performed. It has an effect.

또한, 본 발명에서는 컴퓨터로 구현된 CG영상을 합성함에 있어서 영상합성모듈의 합성부와 CG생성모듈의 CG생성부에 각각 유저인터페이스가 구비되어 사용자에 의한 용이한 조작이 가능해지는 효과가 있다. In addition, in the present invention, in synthesizing a computer-implemented CG image, a user interface is provided for each of the synthesis unit of the image synthesis module and the CG generation unit of the CG generation module, thereby enabling easy operation by a user.

그리고, 본 발명에서는 공유메모리버퍼 및 이에 연결되는 영상합성모듈의 영상버퍼 등에 의하여 실사영상과 가상이미지 사이의 인터페이스가 원활하게 이루어져 보다 정확하고 신속한 영상합성이 가능해지는 효과도 있다.
In the present invention, the interface between the real image and the virtual image is smoothly performed by the shared memory buffer and the image buffer of the image synthesis module connected thereto, thereby enabling more accurate and faster image synthesis.

도 1은 종래기술에 의한 증강현실 기술을 이용한 스포츠 중계화면.
도 2는 종래기술에 의한 증강현실 기술을 이용한 스포츠 중계화면.
도 3은 본 발명에 의한 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템의 바람직한 실시예의 구성을 보인 구성도.
도 4는 본 발명 실시예를 구성하는 객체분석모듈의 구성을 보인 구성도.
도 5는 본 발명 실시예를 구성하는 CG생성모듈의 구성을 보인 구성도.
도 6은 본 발명 실시예를 구성하는 영상합성모듈의 구성을 보인 구성도.
도 7은 본 발명 실시예를 구성하는 송신부를 제어하기 위한 유저인터페이스화면을 보인 예시도.
도 8은 본 발명 실시예를 구성하는 수신부를 제어하기 위한 유저인터페이스화면을 보인 예시도.
도 9는 본 발명 실시예를 구성하는 CG생성모듈을 조작하기 위한 유저인터페이스화면을 보인 예시도.
도 10은 본 발명 실시예를 구성하는 영상합성모듈을 조작하기 위한 유저인터페이스화면을 보인 예시도.
도 11은 본 발명 실시예를 구성하는 영상촬영부에 의해 촬영된 실제경기영상을 보인 예시도.
도 12는 본 발명 실시예를 구성하는 CG생성모듈에 의해 생성된 가상이미지가미지를 보인 예시도.
도 13은 본 발명 실시예를 구성하는 영상합성모듈을 이용하여 실제경기영상과 가상이미지가미지를 합성한 모습을 보인 예시도.
도 14는 본 발명 실시예를 구성하는 영상합성모듈을 이용하여 실제경기영상과 가상이미지가미지를 합성한 모습을 보인 다른 예시도.
도 15는 본 발명에 의한 방송중계방법의 바람직한 실시예의 구성을 보인 순서도.
도 16은 본 발명 실시예를 구성하는 CG생성모듈에 의하여 가상이미지가 생성되는 과정을 보인 순서도.
1 is a sports relay screen using the augmented reality technology according to the prior art.
Figure 2 is a sports relay screen using the augmented reality technology according to the prior art.
Figure 3 is a block diagram showing the configuration of a preferred embodiment of a real-time image synthesis system using the object analysis module of a moving object according to the present invention.
Figure 4 is a block diagram showing the configuration of an object analysis module constituting an embodiment of the present invention.
Figure 5 is a block diagram showing the configuration of a CG generation module constituting an embodiment of the present invention.
6 is a block diagram showing the configuration of an image synthesis module constituting an embodiment of the present invention.
7 is an exemplary view showing a user interface screen for controlling a transmitting unit constituting an embodiment of the present invention.
8 is an exemplary view showing a user interface screen for controlling a receiving unit constituting an embodiment of the present invention.
9 is an exemplary view showing a user interface screen for operating the CG generation module constituting an embodiment of the present invention.
10 is an exemplary view showing a user interface screen for operating the image synthesis module constituting an embodiment of the present invention.
11 is an exemplary view showing an actual game image photographed by an image capturing unit constituting an embodiment of the present invention.
12 is an exemplary view showing a virtual image image generated by the CG generation module constituting an embodiment of the present invention.
FIG. 13 is an exemplary view showing how a real game image and a virtual image image are synthesized using an image synthesis module constituting an embodiment of the present invention. FIG.
14 is another exemplary view showing a composite of a real game image and a virtual image image using the image synthesis module constituting an embodiment of the present invention.
15 is a flowchart showing the configuration of a preferred embodiment of a broadcast relay method according to the present invention;
16 is a flowchart illustrating a process of generating a virtual image by the CG generation module constituting an embodiment of the present invention.

이하에서는 상기한 바와 같은 본 발명에 의한 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템 및 이를 이용한 방송중계방법의 구체적인 실시예를 첨부된 도면을 참고하여 상세하게 설명한다. 이하에서는 골프경기와 야구경기와 같은 구기종목에 가상이미지를 합성하는 것을 예로 들어 설명하기로 한다. Hereinafter, a detailed embodiment of a real-time video synthesis system using the object analysis module of a moving object according to the present invention and a broadcast relay method using the same will be described in detail with reference to the accompanying drawings. Hereinafter, a description will be given taking an example of synthesizing a virtual image into a ball game such as golf and baseball.

도 3에는 본 발명에 의한 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템의 바람직한 실시예의 구성이 구성도로 도시되어 있다. 3 is a configuration diagram of a preferred embodiment of a real-time image synthesis system using the object analysis module of a moving object according to the present invention.

이에 보듯이, 실제 경기 영상, 예를 들어 골프경기나 야구경기와 같은 스포츠 중계를 위한 실사영상은 영상촬영부(100)에 의해 촬영된다. 상기 영상촬영부(100)는 일반적인 비디오카메라와 같은 촬영장치로 구성되는데, 영상뿐 아니라 음성도 동시에 획득될 수 있다. As shown in the drawing, an actual game image, for example, a live action image for sports relaying such as a golf game or a baseball game, is captured by the image capturing unit 100. The image capturing unit 100 is composed of a recording apparatus such as a general video camera, it is possible to obtain not only an image but also an audio at the same time.

상기 영상촬영부(100)는 다수개의 촬영장치로 구성되는 것이 바람직하다. 이는 보다 다양한 각도에서 서로 다른 화면을 획득함으로써, 좀 더 현장감 있는 중계를 가능하도록 하기 위한 것이다. The image capturing unit 100 is preferably composed of a plurality of photographing apparatus. This is to enable a more realistic relay by acquiring different screens from various angles.

이때, 상기 영상촬영부(100) 중 적어도 어느 하나는 이동하는 객체 예를 들어, 구기운동에서 사용되는 공의 화상을 촬영하게 된다. 예를 들어, 상기 영상촬영부(100)는 골프경기의 골프공이나, 야구경기에서 사용되는 야구공의 궤적을 촬영하게 되는 것이다. 그리고, 이와 같이 촬영된 영상은 저장되거나 또는 후술할 영상합성모듈(600) 및 객체분석모듈(200) 또는 이들 모두에 즉시 전송된다. In this case, at least one of the image capturing unit 100 captures an image of a ball used in a moving object, for example, ball game. For example, the image photographing unit 100 is to shoot the trajectory of a golf ball or a baseball used in a baseball game. In addition, the captured image is stored or immediately transmitted to the image synthesis module 600 and the object analysis module 200 or both to be described later.

상기 영상촬영부(100)에는 객체분석모듈(200)이 연결된다. 상기 객체분석모듈(200)은 분석의 대상이 되는 객체의 정보를 분석하기 위한 것으로, 여기서 객체란 운동경기에서 사용되는 공(골프공, 야구공 등)이나 공을 타격하기 위한 수단(골프클럽 또는 야구배트)을 의미한다. An object analysis module 200 is connected to the image capturing unit 100. The object analysis module 200 is for analyzing the information of the object to be analyzed, wherein the object is a ball (golf ball, baseball ball, etc.) used in athletics or means for hitting the ball (golf club or Baseball bat).

보다 정확하게는 상기 객체분석모듈(200)은 공의 이동궤적, 공의 이동속도, 공의 초속과 종속, 이동거리, 발사각, 회전속도, 회전방향, 이동물체를 타격하는 도구의 타격속도, 백스윙속도 등을 분석하여 이를 수치화하게 된다. More precisely, the object analysis module 200 is a movement trajectory of the ball, the movement speed of the ball, the initial velocity and subordination of the ball, the movement distance, the launch angle, the rotational speed, the rotational direction, the blow speed of the tool hitting the moving object, the back swing speed And then quantify it.

이때, 상기 객체분석모듈(200)이 객체를 분석하기 위한 기초데이터(RAW DATA)를 상기 영상촬영부(100) 또는 아래에서 설명할 궤적측정기(300)로부터 얻을 수 있다. 즉, 상기 객체분석모듈(200)은 영상촬영부(100)로부터 전달된 영상화면을 통하여 객체의 궤적이나 이동속도 등을 분석하거나, 또는 별도의 궤적측정기(300)가 측정한 객체의 궤적이나 이동속도 등을 전달받아 이를 분석할 수 있는 것이다. In this case, the object analysis module 200 may obtain the basic data (RAW DATA) for analyzing the object from the image capturing unit 100 or the trajectory measuring unit 300 to be described below. That is, the object analysis module 200 analyzes the trajectory or the moving speed of the object through the image screen transmitted from the image capturing unit 100 or traces or moves the object measured by the separate trajectory measuring device 300. You can analyze the speed and receive it.

보다 구체적으로 살펴보면, 상기 객체분석모듈(200)은 영상촬영부(100)로부터 얻은 영상화면 상에서 이동하는 객체를 분석하게 되는데, 이때 이미지트래킹(image tracking)기술을 이용하여 영상화면으로 획득된 실제영상 배경의 실제크기 및 촬영된 실제시간 등을 분석하여 객체의 궤적이나 이동속도 등을 얻을 수 있게 된다. 야구경기의 예를 들면, 고정된 카메라로부터 투수가 공을 던진 순간부터 공의 궤적을 영상 비교 알고리즘을 통하여 추적한 결과로 공의 절대좌표를 얻을 수 있고, 이를 근거로 공의 궤적, 속도 등의 데이터를 얻을 수 있다. In more detail, the object analysis module 200 analyzes an object moving on an image screen obtained from the image capturing unit 100. In this case, an actual image obtained as an image screen using an image tracking technique. By analyzing the actual size of the background and the actual time taken, it is possible to obtain the trajectory or moving speed of the object. For example, in baseball games, the absolute coordinates of the ball can be obtained as a result of tracking the trajectory of the ball through the image comparison algorithm from the moment the pitcher throws the ball from the fixed camera. Data can be obtained.

그리고, 궤적측정기(300)로부터 데이터를 얻는 경우에는 궤적측정기(300)가 전송하는 데이터를 분석하여 객체의 여러 정보를 정리하게 된다. 이 경우에는 도플러레이더시스템을 이용하게 되는데, 도플러레이더시스템은 상기 궤적측정기(300)에 의해 하드웨어적으로 구현가능하다. 도플러레이더시스템은 전파가 목표물에 부딪혀서 반사하는 것을 특징을 이용하여 그 반사파를 포착하여 객체의 존재를 알아내는 것이다. When the data is obtained from the locus measuring device 300, the data transmitted by the locus measuring device 300 is analyzed to organize various information of the object. In this case, a Doppler radar system is used. The Doppler radar system may be implemented in hardware by the trajectory measuring device 300. The Doppler radar system uses the feature that radio waves hit and reflect on a target to capture the reflected wave to determine the existence of an object.

이를 위해 상기 객체분석모듈(200)에는 궤적측정기(300)가 연결된다. 상기 궤적측정기(300)는 도플러레이더시스템 등을 이용하여 객체의 궤적을 비롯한 이동속도 등의 데이터를 추출하는 것으로, 골프경기의 경우 티샷지점의 후방에 설치되어 골프공의 궤적을 측정하게 된다. 본 실시예에서 이러한 궤적측정기(300)는 상용화된 제품이 사용될 수도 있다. To this end, the trajectory measuring device 300 is connected to the object analysis module 200. The trajectory measuring unit 300 extracts data such as a moving speed including an object trajectory using a Doppler radar system and the like. In the case of a golf game, the trajectory measuring unit 300 is installed behind the tee shot point to measure the trajectory of the golf ball. In the present embodiment, the trajectory measuring device 300 may be a commercially available product.

이때, 상기 영상촬영부(100) 및 객체분석모듈(200), 그리고 궤적측정기(300) 및 객체분석모듈(200) 사이의 연결은 유선 또는 무선 모두 가능하다. 이들 사이가 무선으로 연결되는 경우는 TCP/IP 등을 통하여 연결될 수 있다. In this case, the connection between the image capturing unit 100 and the object analysis module 200 and the trajectory measuring unit 300 and the object analysis module 200 may be wired or wireless. If they are connected wirelessly, they may be connected via TCP / IP or the like.

도 4를 참조하여 객체분석모듈(200)에 대하여 보다 자세하게 살펴보면, 객체분석모듈(200)에는 화면분석부(210)와 궤적분석부(220)가 포함된다. 상기 화면분석부(210)는 상기한 바와 같이 영상촬영부(100)의 영상이미지로부터 이미지트래킹 기술을 이용하여 객체의 정보를 분석하는 것이고, 궤적분석부(220)는 궤적측정기(300)에 연결되어 궤적측정기(300)에 의해 측정된 데이터를 분석/정리하게 된다. Referring to FIG. 4, the object analysis module 200 will be described in more detail. The object analysis module 200 includes a screen analyzer 210 and a trajectory analyzer 220. As described above, the screen analyzer 210 analyzes information of an object from an image image of the image capturing unit 100 using an image tracking technique, and the trajectory analyzer 220 is connected to the trajectory measurer 300. The data measured by the trajectory measuring device 300 is analyzed / arranged.

한편, 상기 화면분석부(210) 및 궤적분석부(220)는 각각 타임스탬프(230)에 연결된다. 상기 타임스탬프(230)는 이동물체(객체)의 이동정보에 시간정보(타임코드)를 추가하기 위한 것으로, 본 실시예에서는 화면분석부(210) 및 궤적분석부(220)에 의해 얻어진 데이터에 시간을 입력하는 방식으로 구현되나, 이에 앞서 영상촬영부(100) 또는 궤적측정기(300)로부터 전달되는 데이터에 미리 시간정보를 입힐 수도 있다. The screen analyzer 210 and the trajectory analyzer 220 are connected to the time stamp 230, respectively. The time stamp 230 is for adding time information (time code) to movement information of a moving object (object). In the present embodiment, the time stamp 230 is applied to data obtained by the screen analyzer 210 and the trajectory analyzer 220. Although it is implemented by inputting a time, the time information may be previously applied to data transmitted from the image capturing unit 100 or the trajectory measuring device 300.

상기 객체분석모듈(200)에는 송신부(250)가 구비된다. 상기 송신부(250)는 상기 객체(이동물체 또는 타격주체)에 대해 분석된 정보를 아래에서 설명될 CG생성모듈(400)의 수신부(410)에 송신하기 위한 것이다. The object analysis module 200 is provided with a transmitter 250. The transmitter 250 is for transmitting the information analyzed for the object (animal or hitting subject) to the receiver 410 of the CG generation module 400 to be described below.

상기 송신부(250)는 유저인터페이스에 의하여 디스플레이될 수 있다. 이는 송신부(250)의 정보를 사용자가 확인하고 및 이를 제어하기 위한 것으로, 모니터 등을 통해 디스플레이될 수 있다. The transmitter 250 may be displayed by a user interface. This is for the user to check and control the information of the transmitter 250 and may be displayed through a monitor or the like.

도 7에는 상기 송신부(250)의 유저인터페이스가 도시되어 있다. 이는 실제 모니터를 통해 표시되는 화면으로 이를 통하여 사용자는 객체분석모듈(200)을 조작할 수 있게 된다. 유저인터페이스에는 이동물체 및 타격주체의 각종정보가 도시되고, 송신을 위한 포트의 선택, 포트 초기화 및 데이터 전송의 딜레이시간 등을 조작할 수 있도록 구현된다. 7 illustrates a user interface of the transmitter 250. This is a screen displayed through the actual monitor through which the user can operate the object analysis module 200. The user interface shows various kinds of information of the moving object and the hitting subject, and is implemented to manipulate the selection of a port for transmission, a port initialization, and a delay time of data transmission.

다음으로 CG생성모듈(400)에 대해 설명하면, CG생성모듈(400)은 가상이미지를 생성하기 위한 것으로, 여기서 가상이미지는 컴퓨터그래픽을 의미하고, 가상이미지는 객체(이동물체 또는 타격주체)의 정보나 가상광고를 표현하게 된다. 그리고 이러한 가상이미지는 영상을 표현하기 위한 단위프레임 하나하나를 구성하여 최종적으로는 가상영상이 된다. Next, the CG generation module 400 will be described. The CG generation module 400 is for generating a virtual image, where the virtual image refers to computer graphics, and the virtual image refers to an object (a animal or a hitting subject). Express information or virtual advertisements. The virtual image forms a unit frame for expressing an image and finally becomes a virtual image.

보다 정확하게는, 도 5에서 보듯이, 상기 CG생성모듈(400)은 수신부(410)와 데이터버퍼(420), 그리고 CG생성부(450)를 포함한다. 상기 수신부(410)는 앞서 설명한 송신부(250)와 대응되는 것으로, 이동물체의 이동정보를 수신하는 역할을 한다. 경우에 따라, 상기 수신부(410)는 이동물체의 이동정보를 유저인터페이스로 디스플레이할 수 있다.More precisely, as shown in FIG. 5, the CG generation module 400 includes a receiver 410, a data buffer 420, and a CG generator 450. The receiver 410 corresponds to the transmitter 250 described above, and serves to receive movement information of a moving object. In some cases, the receiver 410 may display the movement information of the moving object as a user interface.

참고로 도 8에는 수신부(410)를 조작하기 위한 유저인터페이스의 예가 도시되어 있다. 이에 보듯이, 수신부(410)의 유저인터페이스에는 다양한 데이터가 도시되는데, 본 실시예에서는 골프선수와, 각 골프선수가 스윙한 클럽헤드의 속도, 볼스피드, 발사각, 백스핀 등이 디스플레이된다. 사용자는 유저인터페이스를 통해 서버IP등을 변경하거나, 수신된 정보 중에 오류가 있는 경우 이를 수정할 수 있게 된다.For reference, FIG. 8 illustrates an example of a user interface for operating the receiver 410. As shown in the figure, various data are shown in the user interface of the receiver 410. In this embodiment, the speed, ball speed, shot angle, back spin, and the like of the golf player and the club head on which each golf player has swinged are displayed. The user can change the server IP or the like through the user interface, or correct any errors in the received information.

다음으로, 상기 수신부(410)에는 데이터버퍼(420)가 연결된다. 상기 데이터퍼버는 일종의 저장공간으로, 수신부(410)에 의해 수신된 이동정보를 저장하고, 후에 이를 CG생성부(450)에 전달하여 가상이미지가 만들어지기 위한 데이터를 제공하게 된다. Next, a data buffer 420 is connected to the receiver 410. The data buffer is a kind of storage space, which stores the movement information received by the receiver 410, and then transfers it to the CG generator 450 to provide data for creating a virtual image.

상기 데이터버퍼(420)에는 CG생성부(450)가 연결된다. 상기 CG생성부(450)는 실질적으로 가상이미지(컴퓨터그래픽)을 생성하는 역할을 하는 것으로, 내부적으로 그래픽생성 프로그램을 포함할 수 있고, OpenGL(Open Graphics Library) 또는 Direct3D 등을 이용하여 구현될 수 있다. The CG generation unit 450 is connected to the data buffer 420. The CG generation unit 450 substantially generates a virtual image (computer graphic), and may include a graphics generation program internally, and may be implemented using an Open Graphics Library (OpenGL) or Direct3D. have.

이때, 상가 CG생성부(450)에는 상기 수신부(410)로부터 전달된 타임코드를 이용하여 원하는 시간에 가상이미지를 생성할 수 있다. 즉, 상기 CG생성부(450)는 상기 이동정보에 포함되는 타임코드를 이용하여, 가상이미지가 만들어지는 시간을 지연시키거나 또는 만들어진 가상이미지를 공유메모리버퍼(500)에 전송하는 시간을 원하는 만큼 지연시킬 수 있는 것이다. In this case, the mall CG generator 450 may generate a virtual image at a desired time by using the time code transmitted from the receiver 410. That is, the CG generation unit 450 uses the time code included in the movement information to delay the time that the virtual image is made or to transfer the created virtual image to the shared memory buffer 500 as much as desired. It can be delayed.

도 9에는 CG생성모듈(400)을 조작하기 위한 유저인터페이스화면이 예시도로 도시되어 있다. 이에 보듯이, 바탕화면(①)에는 공의 궤적을 나타내는 가상이미지(②)가 생성되어 있는데, 이러한 가상이미지(②)는 앞서 살핀바와 같이 수신부(410)에 의해 수신된 데이터에 기초하여 생성될 수 있다. 뿐만 아니라, 도시된 바와 같이 글씨나 숫자 등도 함께 생성될 수 있다. 9 illustrates an example of a user interface screen for operating the CG generation module 400. As shown in the drawing, a virtual image (②) representing the trajectory of the ball is generated on the background screen (①), and this virtual image (②) is generated based on the data received by the receiving unit 410 as described above. Can be. In addition, letters or numbers may also be generated as shown.

구체적으로 살펴보면, 사용자의 조작에 따라 2차원 또는 3차원 영상으로 구현이 가능하고(③), 가상이미지의 구체적인 위치나 회전각도, 크기 등의 조절도 가능하다(④).Looking specifically, it is possible to implement a two-dimensional or three-dimensional image according to the user's operation (③), it is also possible to adjust the specific position, rotation angle, size, etc. of the virtual image (④).

이와 함께, 가상이미지에 함께 추가될 글씨나 숫자를 임의로 입력할 수 있고(⑤), 이와 같은 가상이미지를 바라보는 카메라의 시점 조절기능(⑥)과, 기타 궤적의 색상 등의 조절(⑦)도 조작을 통해 변경이 가능하다. Along with this, letters or numbers to be added to the virtual image can be arbitrarily inputted (⑤), and the camera's viewpoint adjustment function (⑥) looking at the virtual image and other color of the trajectory (⑦) are also controlled. Can be changed by operation.

이때, 상기 카메라의 시점조절(⑥)은 실사영상을 찍은 카메라의 위치와의 뷰포트(view port)를 맞추기 위한 것으로, 생성될 가상이미지의 시점과 실사영상을 찍은 카메라의 시점이 일치되도록 가상이미지를 바라보는 시점을 조절하는 기능을 수행한다. 이 기능은 아래에서 설명될 별개의 개별씬에 실사영상의 뷰포트를 매칭하는 경우에도 사용될 수 있다. At this time, the viewpoint adjustment (⑥) of the camera is for aligning the view port with the position of the camera where the real image is taken, and adjusts the virtual image so that the viewpoint of the virtual image to be generated coincides with the point of view of the camera where the real image is taken. Function to adjust the viewing point. This function can also be used to match the viewport of the live action image to a separate individual scene, described below.

이와 같은 가상이미지는 공유메모리버퍼(500)를 통하여 영상합성모듈(600)로 전달된다. 상기 공유메모리버퍼(500)는 CG생성모듈(400)과 영상합성모듈(600) 사이에 위치하여 가상이미지의 인터페이스를 수행하는 역할을 한다. The virtual image is transferred to the image synthesis module 600 through the shared memory buffer 500. The shared memory buffer 500 is located between the CG generation module 400 and the image synthesis module 600 to perform an interface of a virtual image.

상기 공유메모리버퍼(500)는 상기 CG생성모듈(400)과 영상합성모듈(600)이 공유하는 일종의 저장장치로, CG생성모듈(400)과 이를 합성하기 위한 영상합성모듈(600) 사이의 처리속도 차이를 완충하는 역할도 수행하게 된다. 물론, 앞서 CG생성부(450)에서 임의로 가상이미지가 만들어지는 시간을 지연 시킴으로써 공유메모리버퍼(500)의 역할을 동시에 수행할 수도 있다. The shared memory buffer 500 is a kind of storage device shared by the CG generating module 400 and the image synthesizing module 600, and is processed between the CG generating module 400 and the image synthesizing module 600 for synthesizing the same. It also serves to cushion the speed difference. Of course, the CG generation unit 450 may also simultaneously perform the role of the shared memory buffer 500 by delaying the time at which the virtual image is arbitrarily created.

상기 공유메모리버퍼(500)에는 영상합성모듈(600)이 연결된다. 상기 영상합성모듈(600)은 앞서 영상촬영부(100)에 의해 촬영된 실사영상과 상기 CG생성모듈(400)에 의해 생성된 가상이미지를 합성하여 최종 이미지를 만드는 역할을 한다.The image synthesis module 600 is connected to the shared memory buffer 500. The image synthesizing module 600 combines the real image captured by the image capturing unit 100 with the virtual image generated by the CG generating module 400 to create a final image.

도 6에 잘 도시된 바와 같이, 상기 영상합성모듈(600)은 딜레이부(610)와 영상버퍼(630) 그리고 합성부(650)를 포함하여 구성된다. 상기 딜레이부(610)는 상기 영상촬영부(100)와 연결되어, 촬영된 영상을 수신하고, 이를 선택적으로 딜레이시키는 역할을 한다. 즉, 상기 딜레이부(610)는 촬영된 실사영상과 앞서 설명한 생성된 가상이미지와의 합성에 앞서 이들 사이의 동기화를 위해 실사영상을 적절하게 딜레이시키기 위한 것이다. 이때, 상기 딜레이시간은 사용자가 조절할 수 있다. As shown in FIG. 6, the image synthesis module 600 includes a delay unit 610, an image buffer 630, and a synthesis unit 650. The delay unit 610 is connected to the image capturing unit 100 to receive a photographed image and to selectively delay the image. That is, the delay unit 610 appropriately delays the live image for synchronizing between the photographed real image and the generated virtual image described above. In this case, the delay time may be adjusted by the user.

상기 딜레이부(610)에는 영상버퍼(630)가 연결된다. 상기 영상버퍼(630)는 상기 실사영상과 가상이미지를 레이어(layer) 합성을 위해 실사영상과 공유메모리버퍼(500)로부터 전달된 가상이미지가 저장되는 공간으로, 이들 이미지는 프레임별로 각각 지정되어 저장될 수 있다. The image buffer 630 is connected to the delay unit 610. The image buffer 630 is a space for storing the virtual image transferred from the real image and the shared memory buffer 500 for layer synthesis of the real image and the virtual image, and these images are designated and stored for each frame. Can be.

그리고, 이와 같이 저장된 이미지는 최종적으로 합성부(650)에 의해 합성된다. 이때, 상기 실사영상에 할당된 타임코드와 가상이미지에 할당된 타임코드에 의해 동기화가 이루어질 수 있다. 이는 상기 타임스탬프(230)에 의해 전달되는 타임코드 정보를 받아 합성부(650)가 동기화하게 된다. Then, the image stored in this way is finally synthesized by the combining unit 650. At this time, synchronization may be performed by a time code assigned to the live image and a time code assigned to a virtual image. The synthesizing unit 650 synchronizes the time code information transmitted by the time stamp 230.

이와 함께 상기 합성부(650)에서는 크로마키(chromakey)를 비롯한 각종 효과의 추가가 선택적으로 이루어질 수 있다.  In addition, the synthesis unit 650 may selectively add various effects including chroma keys.

도 10에는 본 발명 실시예를 구성하는 영상합성모듈(600)을 조작하기 위한 유저인터페이스화면의 예시도가 도시되어 있다. 이에 보듯이, 송출채널의 조절 및 송출방식, 예를 들어 SD방식이나 HD방식의 설정이 가능하고(①), 앞서 설명한 딜레이부(610)에 의한 딜레이를 프레임별로 조절가능하며(②), 각종 효과를 선택적으로 삽입할 수 있다(③). 본 실시예에서는 크로마키기법과 멀티캠효과가 선택적으로 반영될 수 있도록 구성된다. 이때 이러한 효과의 세부적인 설정 역시 가능하다(④). 예를 들어, 크로마키기법이 적용되는 경우에는 수치를 이용한 직접적인 색상의 입력도 가능하나(⑥), 화면의 특정지점을 클릭하여 지정할 수도 있다(⑤).
FIG. 10 shows an example of a user interface screen for manipulating the image synthesis module 600 constituting the embodiment of the present invention. As can be seen, it is possible to control the transmission channel and set the transmission method, for example, the SD method or the HD method (①), and the delay by the delay unit 610 described above can be adjusted for each frame (②). Effects can be selectively inserted (③). In the present embodiment, the chroma key technique and the multi cam effect can be selectively reflected. At this time, detailed setting of these effects is also possible (④). For example, when chroma key technique is applied, direct color input using numerical values is possible (⑥), but it can also be specified by clicking a specific point on the screen (⑤).

한편, 상기 CG생성모듈(400)에는 다수개의 서로 다른 중계종목 또는 서로 다른 중계시점에 따른 가상이미지화면을 제공하는 다수개의 개별씬이 구비된다. 상기 개별씬은 방송하고자 하는 중계종목이나 시점에 따른 다양한 기본화면을 제공하기 위한 것으로, 각 종목별로 기본적으로 사용되는 기본화면과 기타 다양한 화면의 세팅이 영상버퍼(630) 또는 기타 다른 데이터베이스에 저장된 상태에서, 사용자가 개별씬을 선택하면 선택된 개별씬이 CG생성모듈(400)로 사용된다. On the other hand, the CG generation module 400 is provided with a plurality of individual scenes to provide a plurality of different relay events or a virtual image screen according to different relay time. The individual scene is to provide various basic screens according to relay events or viewpoints to be broadcasted, and the settings of the basic screen and various other screens basically used for each item are stored in the image buffer 630 or other database. In, when a user selects an individual scene, the selected individual scene is used as the CG generation module 400.

예를 들어, 본 실시예에서는 야구중계씬과 골프중계씬이 개별씬으로 선택될 수 있는데, 야구중계씬이 선택될 경우에는 기본적인 야구중계화면(예를 들어 외야수 시점에서 바라본 투수 및 타자의 모습)을 기준으로, 투수의 투구궤적을 가상이미지로 합성하기 위한 기본적인 세팅이 완료될 수 있다. For example, in the present embodiment, the baseball relay scene and the golf relay scene may be selected as individual scenes. When the baseball relay scene is selected, the basic baseball relay screen (for example, the pitcher and the batter viewed from the outfielder) On the basis of this, basic settings for synthesizing the pitching pitch of the pitcher into a virtual image may be completed.

즉, 사용자가 중계종목 또는 중계되는 카메라의 각도에 따라 개별적인 씬을 선택하고 이에 대응되는 가상이미지의 생성을 CG생성부(450)에서 준비하게 된다. 다시 말해, 미리 입력된 데이터를 근거로 하여 카메라의 위치, 센터포지션, 카메라각도 등에 매칭되도록 CG생성부(450)의 기본정보가 세팅되면, 객체분석모듈(200)로부터 전달되는 데이터를 근거로 이동물체의 궤적 등을 생성할 수 있는 것이다. 물론, 이 경우에도 유저인터페이스를 조작하여 추가적인 뷰포트 매칭을 수행할 수 있다.
That is, the user selects an individual scene according to the relay event or the angle of the relayed camera and prepares the generation of a virtual image corresponding thereto in the CG generation unit 450. In other words, when the basic information of the CG generation unit 450 is set to match the position, center position, camera angle, etc. of the camera based on the previously input data, the data is transferred based on the data transmitted from the object analysis module 200. The trajectory of the object can be created. Of course, in this case, additional viewport matching may be performed by manipulating the user interface.

이하에서는 본 발명에 의하여 영상을 합성 및 중계하는 과정을 상세하게 설명하기로 한다. Hereinafter, the process of synthesizing and relaying images according to the present invention will be described in detail.

도 15를 참조하면, 먼저 영상촬영부(100)에 의해 실사영상을 촬영하는 촬영단계가 이루어진다. 이는 실제 카메라에 의하여 경기화면 등이 촬영되는 것으로, 카메라의 대수와 시점은 다양하게 변형될 수 있다.(S100) 도 11에는 촬영된 실사영상이 예시로 도시되어 있다. Referring to FIG. 15, first, a photographing step of photographing a live-action image by the image capturing unit 100 is performed. This is a game screen shot by the actual camera, the number and the viewpoint of the camera can be variously modified. (S100) FIG. 11 is a photographed real picture taken as an example.

이와 동시에, 상기 촬영된 실사영상에 타임코드를 지정하는 단계가 더 포함될 수 있다. 타임코드는 상기 타임스탬프(230)에 의해 할당되는 것으로, 실사영상의 각 프레임마다 별도의 타임코드를 할당함으로써, 차후에 가상이미지와의 동기화를 가능하게 할 수 있다. At the same time, the step of assigning a time code to the photographed live image may be further included. The time code is allocated by the time stamp 230, and by assigning a separate time code to each frame of the live-action video, it is possible to synchronize with the virtual image later.

이어서, 상기 객체분석모듈(200)을 이용하여 상기 영상촬영부(100) 또는 궤적측정기(300)에 의해 측정된 이동물체의 이동정보가 분석된다.(S200) 이때, 이동정보의 분석은 영상촬영부(100)의 촬영에 의한 화면을 분석하는 화면분석부(210)를 통해 이루어지거나 또는 궤적측정기(300)에 의하여 측정된 이동물체의 객체데이터를 분석하는 궤적분석부(220)를 통해 이루어질 수 있다. Subsequently, the movement information of the moving object measured by the image capturing unit 100 or the trajectory measuring unit 300 is analyzed using the object analysis module 200 (S200). It may be made through the screen analysis unit 210 for analyzing the screen by the photographing of the unit 100 or through the trajectory analysis unit 220 for analyzing the object data of the moving object measured by the trajectory measuring unit 300. have.

이와 같은 이동정보는 상기 송신부(250)와 수신부(410)의 송수신에 의해 전달되고, 상기 객체분석모듈(200)로부터 전달된 이동정보를 기초로 CG생성모듈(400)을 통하여 이동물체에 관한 정보를 도시화하는 가상이미지를 생성하게 된다.(S300)Such movement information is transmitted by the transmission and reception of the transmitter 250 and the receiver 410, and information about the moving object through the CG generation module 400 based on the movement information transmitted from the object analysis module 200. Generate a virtual image to illustrate the (S300).

즉, 상기 CG생성모듈(400)은 이동정보를 기초로 하여 이동물체의 이동궤적, 공의 이동속도, 공의 초속과 종속, 이동거리, 발사각, 회전속도, 회전방향, 이동물체를 타격하는 도구의 타격속도, 백스윙속도 등이 도시화되는 가상이미지를 생성하게 되는 것이다. That is, the CG generation module 400 is a tool for hitting the moving trajectory of the moving object, the moving speed of the ball, the initial velocity and subordination of the ball, the moving distance, the firing angle, the rotating speed, the rotating direction, and the moving object based on the moving information. Hitting speed, backswing speed, etc. will create a virtual image is shown.

이와 같이 생성된 가상이미지는 공유메모리버퍼(500)를 통해 전달되고, 상기 영상촬영부(100)로부터 전달된 실사영상과 함께 영상합성모듈(600)에 의하여 합성된다.(S400) 즉, 실사영상과 생성된 가상이미지가 합성되는 것으로, 영상합성모듈(600)에 포함된 영상버퍼(630) 등을 통하여 레이어합성될 수 있다. The virtual image generated as described above is transferred through the shared memory buffer 500 and synthesized by the image synthesizing module 600 together with the actual image transmitted from the image capturing unit 100. (S400) That is, the actual image The synthesized virtual image is synthesized, and may be layer synthesized through the image buffer 630 included in the image synthesis module 600.

이때, 실사영상에는 타임코드가 할당되어 있고, 영상합성모듈(600)에는 딜레이부(610)가 구비되므로, 실사영상과 가상이미지는 동기화될 수 있다. 구체적으로는 실사영상을 구성하는 각 단위 화면(프레임)에 할당된 타임코드에 매칭되도록 각각의 단위 가상이미지(프레임)가 매칭되는 것이다. 이 경우 필요에 따라 유저인터페이스를 통하여 딜레이 시간 등이 조절될 수 있다. In this case, since the time code is assigned to the live image and the delay unit 610 is provided in the image synthesis module 600, the live image and the virtual image may be synchronized. Specifically, each unit virtual image (frame) is matched to match the time code allocated to each unit screen (frame) constituting the real picture. In this case, the delay time may be adjusted through the user interface as necessary.

이와 같이 합성된 최종영상은 송출부(700)를 거쳐 최종적으로 송출되어 방송이 이루어지게 된다. 도 13 및 도 14에는 공의 궤적이 가상이미지로 합성된 최종적인 방송송출화면이 도시되어 있다. The final image synthesized as described above is finally transmitted through the transmitting unit 700 to broadcast. 13 and 14 show a final broadcast transmission screen in which the trajectory of the ball is synthesized into a virtual image.

한편, 도 16에는 CG생성모듈(400)에 의하여 가상이미지가 생성되는 과정이 도시되어 있는데, 이에 보듯이 앞선 CG생성단계에 앞서 씬선택단계가 선행될 수 있다.(S310) 씬선택단계는 중계될 종목에 따라 또는 중계될 카메라의 시점 등에 따라 서로 다른 개별적인 씬이 선택되는 것이다. 이러한 개별씬에 대한 기본정보(카메라 시점, 위치 등)는 이미 저장된 상태이므로, 이를 선택하면 기본적인 정보가 불러와 지고, 이를 바탕으로 가상이미지를 생성하게 되는 것이다. Meanwhile, FIG. 16 illustrates a process of generating a virtual image by the CG generation module 400. As shown in FIG. 16, the scene selection step may be preceded by the previous CG generation step (S310). Different scenes are selected according to the event to be played or the viewpoint of the camera to be relayed. Since the basic information about the individual scenes (camera viewpoint, position, etc.) is already stored, when this is selected, the basic information is loaded and a virtual image is generated based on this.

이후에, 상기 선택된 개별씬과 상기 실사영상의 뷰포트(view port)를 매칭하는 매칭단계가 더 포함될 수 있다(S320). 즉, 선택된 개별씬의 화면과 실사영상의 뷰포트가 맞지 않을 경우 이를 추가적으로 매칭시킬 수 있는데, 이는 앞서 살핀바와 같이 CG생성모듈(400)의 합성부(650)에 의해 이루어지고, 사용자는 유저인터페이스를 통하여 육안으로 확인하면서 이를 조작하여 매칭할 수 있다. Thereafter, a matching step of matching the selected individual scene and the view port of the live image may be further included (S320). That is, if the viewport of the selected individual scene and the viewport of the live action image do not match, this can be additionally matched, which is made by the synthesis unit 650 of the CG generation module 400 as described above. Through visual confirmation, it can be manipulated and matched.

이어서, 상기 합성부(650)는 상기 선택된 개별씬에 맞는 가상이미지를 생성하는 렌더링단계를 거쳐 최종적으로 가상이미지를 생성하게 된다. Subsequently, the synthesis unit 650 finally generates a virtual image through a rendering step of generating a virtual image corresponding to the selected individual scene.

한편, 앞선 영상합성단계(S400)는 다시, 상기 CG생성단계에서 생성된 가상이미지와 촬영단계에서 촬영된 실제영상 중 적어도 어느 하나를 지연시키는 딜레이단계와, 상기 딜레이된 영상에 맞도록 나머지 하나의 영상의 재생시간을 조절하는 동기화단계로 나뉠 수 있다. On the other hand, the preceding image synthesis step (S400), the delay step of delaying at least one of the virtual image generated in the CG generation step and the actual image photographed in the photographing step, and the other one to fit the delayed image It can be divided into a synchronization step of adjusting the playing time of the video.

이는 실사영상과 이에 대응되는 가상이미지 시간을 동기화하기 위한 것으로, 예를 들어, 실제영상을 임의의 시간만큼 지연시키고 이에 대응되는 가상이미지를 동시화하여 합성할 수 있다. 이는 가상이미지의 생성시간이나 유/무선 전송환경 등을 고려하여, 실제영상을 미리 딜레이시켜 놓을 수 있는 등의 의미가 있다. This is for synchronizing the real image with the virtual image time corresponding thereto. For example, the actual image may be delayed by a predetermined time and the virtual image corresponding thereto may be simultaneously synthesized. This means that the actual image can be delayed in advance in consideration of the generation time of the virtual image or the wired / wireless transmission environment.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.The rights of the present invention are not limited to the embodiments described above, but are defined by the claims, and those skilled in the art can make various modifications and adaptations within the scope of the claims. It is self-evident.

100: 영상촬영부 200: 객체분석모듈
300: 궤적측정기 400: CG생성모듈
500: 공유메모리버퍼 600: 영상합성모듈
700: 송출부
100: the image capture unit 200: object analysis module
300: trajectory measuring instrument 400: CG generation module
500: shared memory buffer 600: video synthesis module
700: sending part

Claims (12)

이동물체의 객체분석 모듈을 이용하여 실사영상과 가상이미지영상을 실시간으로 합성하기 위한 시스템에 있어서,
이동물체의 정보를 분석하는 객체분석모듈과,
상기 객체분석모듈로부터 전달받은 정보를 기초로 이동물체에 관한 정보를 포함하는 내용을 도시화한 가상이미지를 생성하는 CG생성모듈과,
상기 CG생성모듈과 연결되어 생성된 상기 가상이미지를 전달받고 영상촬영부로부터 전달된 실사영상을 합성하는 영상합성모듈과,
상기 CG생성모듈 및 영상합성모듈 사이에 위치하여 가상이미지의 인터페이스를 수행하는 공유메모리버퍼를 포함하여 구성되고,
상기 CG생성모듈 또는 영상합성모듈 중 적어도 어느 일측에는 가상이미지 또는 실사영상을 지연시키기 위한 딜레이부가 구비됨을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템.
In the system for synthesizing real-time image and virtual image image in real time using the object analysis module of a moving object,
An object analysis module for analyzing the information of the moving object,
A CG generation module for generating a virtual image showing content including information on a moving object based on the information received from the object analysis module;
An image synthesizing module for receiving the virtual image generated in connection with the CG generating module and synthesizing the real image transmitted from the image photographing unit;
It is configured to include a shared memory buffer located between the CG generation module and the image synthesis module to perform the interface of the virtual image,
At least one side of the CG generation module or the image synthesis module is a real-time image synthesis system using an object analysis module of a moving object, characterized in that a delay unit for delaying a virtual image or a live image.
제 1 항에 있어서, 상기 객체분석모듈은 실사영상을 촬영하는 영상촬영부 또는 이동물체의 궤적을 포함하는 이동정보를 측정하는 궤적측정기와 연결되어, 영상촬영부로부터 전달되는 실사영상을 분석하거나 또는 궤적측정기로부터 전달되는 데이터를 기초로 하여 이동물체의 이동정보를 분석함을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템.
The apparatus of claim 1, wherein the object analysis module is connected to an image photographing unit for photographing a real image or a trajectory measuring unit for measuring movement information including a trajectory of a moving object, and analyzes the actual image transmitted from the image capturing unit; Real-time image synthesis system using the object analysis module of the moving object, characterized in that for analyzing the movement information of the moving object based on the data transmitted from the trajectory measuring device.
제 2 항에 있어서, 상기 객체분석모듈에는 상기 영상촬영부에 의해 촬영되는 실사영상에 타임코드를 생성하는 타임스탬프가 구비되고, 상기 객체분석모듈에 구비된 화면분석부 또는 궤적분석부는 상기 타임스탬프를 이용하여 이동물체의 이동정보를 분석 및 전송함을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템.
According to claim 2, wherein the object analysis module is provided with a time stamp for generating a time code on the live image captured by the image photographing unit, the screen analysis unit or trajectory analysis unit provided in the object analysis module is the time stamp Real-time image synthesis system using the object analysis module of the moving object, characterized in that for analyzing and transmitting the moving information of the moving object.
제 3 항에 있어서, 상기 객체분석모듈에는 상기 이동물체의 이동정보를 송신하는 송신부가 구비되고, 상기 객체분석모듈에 연결된 CG생성모듈에는 이에 대응되는 수신부가 구비되며, 상기 송신부 및 수신부는 각각 이동물체의 이동정보를 유저인터페이스로 디스플레이함을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템.
The method of claim 3, wherein the object analysis module is provided with a transmitter for transmitting the movement information of the moving object, the CG generation module connected to the object analysis module is provided with a corresponding receiver, the transmitter and the receiver are respectively moved Real-time image synthesis system using the object analysis module of the moving object, characterized in that to display the movement information of the object to the user interface.
삭제delete 제 1 항 내지 제 4 항 중 어느 한 항에 있어서, 상기 CG생성모듈에는 서로 다른 중계종목에 따른 가상이미지화면을 제공하는 별개의 개별씬이 구비되고, 상기 개별씬과 실사영상은 매칭프로세스에 의하여 대응하게 됨을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템.
The CG generation module according to any one of claims 1 to 4, wherein the CG generation module is provided with a separate individual scene for providing a virtual image screen according to different relay events, and the individual scene and the live-action image are determined by a matching process. Real-time image synthesis system using the object analysis module of the moving object, characterized in that corresponding.
제 6 항에 있어서, 상기 CG생성모듈에 의해 생성되는 가상이미지는 이동물체의 속도, 궤적, 이동거리, 발사각, 회전속도, 이동물체를 타격하는 도구의 타격속도, 백스윙속도, 플레이어의 기록 중 적어도 어느 하나임을 특징으로 하는 이동물체의 객체분석 모듈을 이용한 실시간 영상합성 시스템.
The method of claim 6, wherein the virtual image generated by the CG generating module is at least one of a speed, a trajectory, a moving distance, a launch angle, a rotational speed of the moving object, a blow speed of the tool hitting the moving object, a back swing speed, and a record of the player. Real-time image synthesis system using the object analysis module of the moving object, characterized in that one.
이동물체의 객체분석 모듈을 이용하여 실사영상과 가상이미지를 실시간으로 합성하여 방송하는 방송중계방법에 있어서,
영상촬영부에 의해 실사영상을 촬영하는 촬영단계와,
객체분석모듈을 이용하여 상기 영상촬영부 또는 궤적측정기에 의해 측정된 이동물체의 이동정보를 분석하는 객체분석단계와,
상기 객체분석모듈로부터 전달된 이동정보를 기초로 CG생성모듈을 통하여 이동물체에 관한 정보를 도시화하는 가상이미지를 생성하는 CG생성단계와,
공유메모리버퍼를 통해 전달되는 가상이미지와 상기 영상촬영부로부터 전달된 실사영상을 영상합성모듈을 이용하여 합성하는 영상합성단계를 포함하여 구성되고,
상기 영상합성단계는
상기 CG생성단계에서 생성된 가상이미지와 촬영단계에서 촬영된 실제영상 중 적어도 어느 하나를 지연시키는 딜레이단계와,
상기 딜레이된 영상에 매칭되도록 나머지 하나의 영상의 재생시간을 조절하는 동기화단계를 포함하여 구성됨을 특징으로 하는 방송중계방법.
In the broadcast relay method for synthesizing and broadcasting real-time video and virtual image in real time using the object analysis module of a moving object,
A shooting step of shooting a live-action image by an image photographing unit;
An object analysis step of analyzing movement information of a moving object measured by the image photographing unit or a trajectory measuring unit using an object analysis module;
A CG generation step of generating a virtual image showing information on a moving object through the CG generation module based on the movement information transmitted from the object analysis module;
And an image synthesizing step of synthesizing the virtual image transmitted through the shared memory buffer and the real image transmitted from the image capturing unit using an image synthesizing module.
The image synthesis step
A delay step of delaying at least one of the virtual image generated in the CG generation step and the actual image photographed in the shooting step;
And a synchronization step of adjusting a playback time of the other video to match the delayed video.
제 8 항에 있어서, 상기 객체분석단계는
영상촬영부의 촬영에 의한 화면을 분석하는 화면분석부를 통해 이루어지거나 또는 궤적측정기에 의하여 측정된 이동물체의 객체데이터를 분석하는 궤적분석부를 통해 이루어짐을 특징으로 하는 방송중계방법.
The method of claim 8, wherein the object analysis step
The broadcast relay method, characterized in that it is made through a screen analysis unit for analyzing the screen by the image pickup unit or the trajectory analysis unit for analyzing the object data of the moving object measured by the trajectory measuring device.
제 9 항에 있어서, 상기 촬영단계에 이어 상기 촬영된 실사영상에 타임코드를 지정하는 단계가 더 포함됨을 특징으로 하는 방송중계방법.
10. The broadcasting relay method of claim 9, further comprising a step of designating a time code in the photographed live image after the photographing step.
제 8 항 내지 제 10 항 중 어느 한 항에 있어서, 상기 CG생성모듈을 이용한 CG생성단계에서는
서로 다른 중계종목에 따른 가상이미지화면을 제공하는 개별씬 중 어느 하나를 선택하는 씬선택단계와,
상기 선택된 개별씬과 상기 실사영상의 뷰포트(view port)를 매칭하는 매칭단계와,
상기 가상이미지를 생성하는 렌더링단계를 포함하여 구성됨을 특징으로 하는 방송중계방법.



The method according to any one of claims 8 to 10, wherein the CG generation step using the CG generation module
A scene selection step of selecting any one of individual scenes providing virtual image screens according to different relay events;
A matching step of matching the selected individual scene with a view port of the real image;
And a rendering step of generating the virtual image.



삭제delete
KR1020110049662A 2011-05-25 2011-05-25 Real time reflex composition method using analyzing module of moving object and broadcasting method thereof KR101249447B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110049662A KR101249447B1 (en) 2011-05-25 2011-05-25 Real time reflex composition method using analyzing module of moving object and broadcasting method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110049662A KR101249447B1 (en) 2011-05-25 2011-05-25 Real time reflex composition method using analyzing module of moving object and broadcasting method thereof

Publications (2)

Publication Number Publication Date
KR20120131472A KR20120131472A (en) 2012-12-05
KR101249447B1 true KR101249447B1 (en) 2013-04-15

Family

ID=47515288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110049662A KR101249447B1 (en) 2011-05-25 2011-05-25 Real time reflex composition method using analyzing module of moving object and broadcasting method thereof

Country Status (1)

Country Link
KR (1) KR101249447B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101833942B1 (en) * 2017-01-05 2018-03-05 네이버 주식회사 Transcoder for real-time compositing
KR101865627B1 (en) * 2017-01-17 2018-06-08 네이버 주식회사 Method and system for providing remote operation tool for multimedia content
KR20180084691A (en) * 2018-05-31 2018-07-25 네이버 주식회사 Method and system for providing remote operation tool for multimedia content
KR20220043454A (en) 2020-09-29 2022-04-05 동신대학교산학협력단 Object matching system for real-time production and object matching method using the same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150083475A (en) * 2014-01-09 2015-07-20 이용수 Media editing method and device using the touch input
KR20190116681A (en) 2018-04-05 2019-10-15 주식회사 에스제이피랩 The controlling system of the broadcasting image equipment with objcct tracking algorithm
KR102474451B1 (en) * 2022-06-02 2022-12-06 주식회사 비브스튜디오스 Apparatus, method, system and program for recording data in virtual production

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010087902A (en) * 2008-09-30 2010-04-15 Casio Computer Co Ltd Imaging apparatus and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010087902A (en) * 2008-09-30 2010-04-15 Casio Computer Co Ltd Imaging apparatus and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101833942B1 (en) * 2017-01-05 2018-03-05 네이버 주식회사 Transcoder for real-time compositing
KR101865627B1 (en) * 2017-01-17 2018-06-08 네이버 주식회사 Method and system for providing remote operation tool for multimedia content
KR20180084691A (en) * 2018-05-31 2018-07-25 네이버 주식회사 Method and system for providing remote operation tool for multimedia content
KR101949494B1 (en) * 2018-05-31 2019-02-18 네이버 주식회사 Method and system for providing remote operation tool for multimedia content
KR20220043454A (en) 2020-09-29 2022-04-05 동신대학교산학협력단 Object matching system for real-time production and object matching method using the same

Also Published As

Publication number Publication date
KR20120131472A (en) 2012-12-05

Similar Documents

Publication Publication Date Title
KR101249447B1 (en) Real time reflex composition method using analyzing module of moving object and broadcasting method thereof
WO2021249414A1 (en) Data processing method and system, related device, and storage medium
US9751015B2 (en) Augmented reality videogame broadcast programming
US8665374B2 (en) Interactive video insertions, and applications thereof
JP6715441B2 (en) Augmented reality display system, terminal device and augmented reality display method
EP2413287B1 (en) Image processing method and device for instant replay
US8022965B2 (en) System and method for data assisted chroma-keying
JP5801812B2 (en) Virtual insert into 3D video
US20150009298A1 (en) Virtual Camera Control Using Motion Control Systems for Augmented Three Dimensional Reality
US7173672B2 (en) System and method for transitioning between real images and virtual images
CN110603573B (en) Virtual reality providing system, three-dimensional display data providing device, virtual space providing system, and program
KR20050099997A (en) Apparatus and methods for handling interactive applications in broadcast networks
US20110164030A1 (en) Virtual camera control using motion control systems for augmented reality
KR101291765B1 (en) Ball trace providing system for realtime broadcasting
CN110270078B (en) Football game special effect display system and method and computer device
US11328559B2 (en) System and method for enabling wagering event between sports activity players with stored event metrics
KR101025899B1 (en) The sending method of broadcast images composed virtual images using camera sensors
JPH06105231A (en) Picture synthesis device
US10786742B1 (en) Broadcast synchronized interactive system
CN114125301A (en) Virtual reality technology shooting delay processing method and device
KR102149005B1 (en) Method and apparatus for calculating and displaying a velocity of an object
US9479713B2 (en) Method of video enhancement
US20120194736A1 (en) Methods and Apparatus for Interactive Media
KR101911528B1 (en) Method and system for generating motion data of moving object in viedo
EP3028244A1 (en) Method of video enhancement

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170131

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180202

Year of fee payment: 6