KR20030003506A - image tracking and insertion system using camera sensors - Google Patents

image tracking and insertion system using camera sensors Download PDF

Info

Publication number
KR20030003506A
KR20030003506A KR1020010039393A KR20010039393A KR20030003506A KR 20030003506 A KR20030003506 A KR 20030003506A KR 1020010039393 A KR1020010039393 A KR 1020010039393A KR 20010039393 A KR20010039393 A KR 20010039393A KR 20030003506 A KR20030003506 A KR 20030003506A
Authority
KR
South Korea
Prior art keywords
camera
image
information
marker
region
Prior art date
Application number
KR1020010039393A
Other languages
Korean (ko)
Other versions
KR100387901B1 (en
Inventor
이영민
최인영
남창우
Original Assignee
에이알비전 (주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이알비전 (주) filed Critical 에이알비전 (주)
Priority to KR10-2001-0039393A priority Critical patent/KR100387901B1/en
Publication of KR20030003506A publication Critical patent/KR20030003506A/en
Application granted granted Critical
Publication of KR100387901B1 publication Critical patent/KR100387901B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: An image tracing and inserting system using a camera sensor is provided to trace a marker position and insert an image in a precise position by using the value of a camera sensor when inserting the image in broadcasting images. CONSTITUTION: An image tracing and inserting system using a camera sensor includes a camera(10), photographing broadcasting images; a frame grabber(30), transmitting the image of the camera to an image analysis module(40) as the unit of a frame; a camera sensor, abstracting a camera variable; a camera sensor module(20), receiving the value of the camera sensor and transmitting the camera variable value to the image analysis module; a user interface(50), transmitting a user's demand to the image analysis module; an image analysis module, receiving the image frame, the camera sensor, and the demand, searching a marker position, and tracking a position for inserting the image, an image insertion module(70), inserting the image in broadcasting images and then delivering, and data base(80), storing the information of the marker, the information of the image to be inserted, and information of the camera. Accordingly, inserting an image into a precise position is possible by using the camera sensor value.

Description

카메라 센서를 이용한 이미지 추적 및 삽입 시스템{image tracking and insertion system using camera sensors}Image tracking and insertion system using camera sensors}

본 발명은 카메라 센서를 이용한 이미지 추적 및 삽입 시스템에 관한 것으로, 카메라 센서를 이용하여 카메라 변수를 얻고 이를 이용하여 마커의 위치를 추적, 사용자가 원하는 위치에 이미지를 삽입하는 것에 관한 것이다.The present invention relates to an image tracking and insertion system using a camera sensor, and relates to obtaining a camera variable using a camera sensor and using the same to track the position of a marker and inserting an image at a desired position of a user.

종래의 방송 영상에서의 이미지 삽입 방법은 방송 영상에 대한 분석 없이, 화면상에 그대로 삽입했기 때문에 팬, 틸트, 줌 등과 같은 카메라의 움직임에 관계없이 화면의 일정한 영역에 고정되어 표현되었고, 전배경 분리 즉, 앞에 나온 물체에 의해서 가려지는 현상 등을 표현할 수 없었다.In the conventional broadcast image insertion method, the image is inserted into the screen without analyzing the broadcast image, and thus it is fixedly expressed in a certain area of the screen regardless of the movement of the camera such as pan, tilt and zoom. In other words, it could not express the phenomenon which is covered by the above object.

최근에는 이러한 한계를 넘어서 방송 영상의 변화에 따라서 삽입 이미지의 속성을 변화시키는 것과 관련된 발명들이 소개되었으며, 미국 특허 5,264,933호, 미국 특허 5,903,317호, 미국 특허 5,353,392호, 미국 특허 5,491,517호 등이 이와 관련된 것이다. 상기와 같은 특허들은 빠르게 움직이는 카메라를 통해 전송되는 화면에 대해서는 이미지 삽입이 용이하지 않다는 문제점을 갖고 있다. 즉, 야구 경기 중계 중 타구나 선수를 따라서 빠르게 움직이는 카메라 환경에서는 이미지를 삽입할 수 없는 문제점이 있다. 또한 전체적인 환경의 변화가 발생할 경우에 실시간 적응이 어렵다는 문제점이 있다. 예를 들어, 주간에서 야간 경기로 넘어가는 경우나, 갑자기 날씨가 흐려지는 경우 등이 이에 해당할 수 있다.Recently, inventions related to changing the attributes of an embedded image in response to changes in broadcast video have been introduced beyond these limitations, and US Patent 5,264,933, US Patent 5,903,317, US Patent 5,353,392, US Patent 5,491,517, and the like are related thereto. . Such patents have a problem in that it is not easy to insert an image for a screen transmitted through a fast moving camera. That is, there is a problem in that an image cannot be inserted in a camera environment that moves rapidly along a batter or player during a baseball game relay. In addition, there is a problem in that real-time adaptation is difficult when the overall environment changes. For example, this may be the case when the day shifts to a night game or when the weather suddenly becomes cloudy.

그러므로 본 발명이 이루고자 하는 기술적 과제는, 사용자가 원하는 이미지를 방송 영상에 삽입시키고자 하는데 있어서 카메라 센서 값을 활용하여 마커 위치를 추적하여 정밀한 위치에 이미지를 삽입하는데 있다.Therefore, a technical problem of the present invention is to insert an image at a precise position by tracking a marker position by using a camera sensor value in order to insert an image desired by a user in a broadcast image.

구체적으로, 카메라 센서로부터 얻어지는 팬, 틸트, 줌, 포커스, 위치, 회전 정보 등을 활용하여 카메라 변수를 얻고, 이를 기반으로 영상 정보를 분석하여 마커영역과 삽입영역의 위치를 신속하고 정확하게 탐색하고 이미지를 삽입함으로써, 카메라의 움직임에 제약을 받지 않는 이미지 삽입 시스템을 구성하는 데 있다. 또한, 인코더와 관성항법장치로 구성되는 카메라 센서를 구성하여 고정형 카메라뿐 만 아니라 핸드헬드 형태의 이동형 카메라 환경에서도 카메라 변수를 획득하고자 한다.In detail, camera variables are obtained by using pan, tilt, zoom, focus, position, and rotation information obtained from a camera sensor, and based on the analysis, image information is used to quickly and accurately search the position of the marker region and the insertion region, By inserting the, to configure an image insertion system that is not limited by the movement of the camera. In addition, by configuring a camera sensor consisting of an encoder and an inertial navigation device to obtain camera parameters not only fixed camera but also handheld mobile camera environment.

또한, 본 발명에서는 카메라 모션 정보와 현 프래임의 밝기 정보를 기반으로 템플리트 매칭을 적용하여 마커의 위치를 추적하여 밝기의 변화에 따르는 문제점을 해결하고자 한다.In addition, the present invention is to solve the problem caused by the change in brightness by tracking the position of the marker by applying a template matching based on the camera motion information and the brightness information of the current frame.

도 1은 카메라 센서를 이용한 이미지 추적 및 삽입 시스템 운영의 예를 나타낸 도이다.1 is a diagram illustrating an example of operating an image tracking and insertion system using a camera sensor.

도 2는 본 발명의 실시예에 따른 카메라 센서를 이용한 이미지 추적 및 삽입 시스템의 전체 구조도이다.2 is an overall structural diagram of an image tracking and insertion system using a camera sensor according to an embodiment of the present invention.

도 3은 본 발명에서 사용하는 카메라 변수를 나타낸 도이다.3 is a diagram showing camera parameters used in the present invention.

도 4는 도 2에 도시된 카메라 센서 모듈의 고정형 카메라에의 적용을 나타낸 구조도이다.4 is a structural diagram illustrating an application of the camera sensor module shown in FIG. 2 to a fixed camera.

도 5는 도 2에 도시된 카메라 센서 모듈의 이동형 카메라에의 적용을 나타낸 구조도이다.FIG. 5 is a structural diagram illustrating an application of the camera sensor module shown in FIG. 2 to a mobile camera.

도 6은 이미지 삽입 시스템 운영을 위한 수행전 작업의 구조도이다.6 is a structural diagram of a pre-performing operation for operating an image insertion system.

도 7은 본 발명의 실시예에 따른 마커영역과 삽입영역을 나타낸 도이다.7 is a diagram illustrating a marker region and an insertion region according to an embodiment of the present invention.

도 8은 본 발명의 실시예에 따른 카메라 센서를 이용한 이미지 추적 및 삽입 방법의 전체 흐름도이다.8 is a flowchart illustrating an image tracking and insertion method using a camera sensor according to an exemplary embodiment of the present invention.

도 9는 도 8에 도시된 마커영역 탐색 단계를 상술한 흐름도이다.FIG. 9 is a flowchart illustrating the searching of a marker region shown in FIG. 8.

도 10은 카메라 변수 정보를 이용하여 구한 마커의 위치와 이에 기반한 마커의 탐색영역 설정의 예를 나타낸 도이다.10 is a diagram illustrating an example of setting a location of a marker obtained using camera variable information and a search region setting of the marker based on the location of the marker.

도 11은 삽입될 이미지에 대한 처리를 나타낸 도이다.11 is a diagram showing processing for an image to be inserted.

도 12는 본 발명의 실시예에 따라 방송 영상에 이미지를 삽입한 예를 나타낸 도이다.12 illustrates an example of inserting an image into a broadcast video according to an embodiment of the present invention.

이러한 기술적 과제를 달성하기 위한 본 발명의 특징에 따른 카메라 센서를 이용한 이미지 추적 및 삽입 시스템은, 방송영상을 촬영하는 카메라, 카메라로부터의 영상을 영상 분석 모듈에 프레임 단위로 전달하는 프레임 그랩버, 카메라에 부착되어 카메라 변수를 추출하는 역할을 하는 카메라 센서, 카메라 센서 값을 입력으로 받아서 카메라 변수 값을 영상 분석 모듈에 전달하는 카메라 센서 모듈, 사용자의 요구를 영상 분석 모듈에 전달하는 사용자 인터페이스, 영상 프레임, 카메라 센서, 사용자 요구 등을 입력으로 받아서 마커의 위치를 탐색하고 이를 바탕으로 삽입될 이미지의 위치를 추적하는 영상 분석 모듈, 삽입될 이미지의 크기, 원근 조정, 전배경 분리 작업을 수행한 후 원 방송영상에 이미지를 삽입하여 송출하는 이미지 삽입 모듈, 마커의 정보, 삽입될 이미지의 정보, 카메라 정보 등을 저장 관리하는 데이터 베이스를 포함한다.An image tracking and insertion system using a camera sensor according to an aspect of the present invention for achieving the technical problem, a camera for photographing a broadcast image, a frame grabber for transferring the image from the camera to the image analysis module frame by frame, camera A camera sensor attached to the camera to extract camera variables, a camera sensor module that receives camera sensor values as inputs, and passes the camera variable values to the video analysis module, a user interface that delivers user requests to the video analysis module, and an image frame Image analysis module that searches the position of the marker based on the input, camera sensor, user's request, and tracks the position of the image to be inserted, adjusts the size of the image to be inserted, perspective, and separates the background. Image insertion module and marker to insert and send images in broadcast video Storing the management information, information of the image to be inserted, the camera information such as a data base.

여기서, 프레임 그랩버는 카메라로부터 촬영한 영상을 컴퓨터 시스템에서 처리하기 위해 프레임 단위로 컴퓨터에 전달해 주는 하드웨어 장치로써, 실시간 운영을 위해서 초당 30 프레임의 속도로 이미지를 획득, 전달하는 것을 보장해주어야 한다.Here, the frame grabber is a hardware device that delivers the image taken from the camera to the computer in frame units for processing in a computer system. The frame grabber should ensure that the image is acquired and delivered at a rate of 30 frames per second for real time operation.

카메라 센서는 관성 항법 장치와 인코더의 조합으로 구성되며, 카메라에 부착되어 실시간 방송 촬영 중에 카메라 변수와 관련된 정보를 생성한다. 카메라 센서 중 관성 항법 장치에서는 카메라의 롤(roll), 피치(pitch), 요(yaw), x축 이동, y축 이동, z축 이동 정보가 생성되고, 인코더 부분에서는 기계적인 회전 움직임으로 추적할 수 있는 요소인 팬(pan), 틸트(tilt), 줌(zoom), 포커스(focus)에 관한 정보가 생성된다.The camera sensor is composed of a combination of an inertial navigation device and an encoder, and is attached to a camera to generate information related to camera parameters during real-time broadcast shooting. Among the camera sensors, the inertial navigation device generates roll, pitch, yaw, x-axis movement, y-axis movement, and z-axis movement information of the camera, and the encoder part tracks them by mechanical rotational movement. Information about pan, tilt, zoom, and focus, which are possible elements, is generated.

카메라 센서 모듈에서는 카메라 센서에서 입력받은 값을 이미지 삽입 시스템에서 사용할 수 있는 실질적인 카메라 변수로 변환하여 전달한다. 실제 영상에 이미지를 삽입하기 위해 필요한 카메라 변수는 고정형 카메라와 이동형 카메라 여부에 따라서 다른 값의 조합을 필요로 한다. 삼발이에 고정되어 운영되는 고정형 카메라의 경우, 실시간 운영 중 이미지 추적 및 삽입을 위해 필요한 카메라 변수는 팬, 틸트, 줌, 포커스 이렇게 네 요소로 구성된다. 따라서, 인코더를 통해 입력되는 값만 해석하면 필요로 하는 카메라 변수를 얻을 수 있다. 하지만 삼발이에 의해서 고정되지 않고 위치 이동이 있다든지 카메라 촬영자에 의해서 이동과 회전이 발생하는 이동형 카메라의 경우에는 카메라 자체의 위치나 롤 등과 같이 인코더 적용만으로 획득하기 어려운 카메라 변수가 존재한다. 이러한 때에는 관성 항법 장치와 인코더를 동시에 사용하거나 또는 관성 항법 장치만을 사용하고, 카메라 센서 모듈에서는 이 값을 입력으로 받아서 카메라 변수를 생성한다.The camera sensor module converts the values received from the camera sensors into actual camera variables that can be used in the image insertion system. The camera parameters required to insert an image into the actual image require a combination of different values depending on whether the fixed camera or the mobile camera is used. In the case of a fixed camera operated with a tripod fixed, the camera parameters required for image tracking and insertion during real time operation consist of four elements: pan, tilt, zoom, and focus. Therefore, only the value input through the encoder can be interpreted to obtain the required camera variables. However, in the case of a mobile camera which is not fixed by the trivet and there is a positional movement or a movement and rotation by a camera photographer, there are camera variables that are difficult to obtain only by applying an encoder such as the position or roll of the camera itself. In this case, the inertial navigation device and the encoder are used simultaneously, or only the inertial navigation device is used, and the camera sensor module receives this value and generates a camera variable.

사용자 인터페이스에서는 이미지의 삽입 여부의 결정, 삽입될 이미지의 결정, 삽입될 위치의 결정과 같은 사용자의 요구를 실시간에 받아들여, 시스템에 전달해 주는 역할을 한다. 이를 통해서, 사용자는 어떤 위치에, 어떤 이미지를 삽입할 것인가를 실시간에 선택할 수 있게 된다.In the user interface, the user's request such as determining whether to insert an image, determining an image to be inserted, and determining a position to be inserted is received in real time and plays a role of delivering the information to the system. This allows the user to select in real time which location and which image to insert.

영상 분석 모듈에서는 카메라 변수 정보를 이용하여 현재 프레임에서 어느 정도 신뢰성있는 마커의 위치를 예측하고, 예측된 영역 내에서 마커영역을 템플리트 매칭 방법을 통해 재확인하여 정확성을 높인다. 영역 내에서 매칭이 이루어지지 않을 경우, 즉, 다른 물체에 의해서 마커가 가려져 있는 경우에는 매칭이 이루어진 마커의 위치, 예측된 마커의 위치, 각 마커들 사이의 위치의 상관 관계 등의 정보를 이용하여 위치를 확정짓는다. 각 마커들의 사이의 위치의 상관 관계 정보는 수행전 작업을 통해서 실시간 수행 이전에 획득하게 된다. 이러한 마커영역 탐색 결과 얻은 마커영역과 삽입영역 사이의 상관관계를 적용하여 삽입 영역을 결정한다. 이 과정에서 사용하는 마커영역과 삽입영역 사이의 상관관계 역시 수행전 작업을 통해서 실시간 수행 이전에 획득하게 된다. 이렇게 생성된 삽입영역은 카메라 변수를 통해 예측된 삽입영역과의 비교를 통해 그 정확성을 검증한다.The image analysis module predicts the position of a reliable marker to some extent in the current frame by using the camera variable information, and reconfirms the marker region within the predicted region through a template matching method to increase accuracy. When no matching is made in the area, that is, when the marker is covered by another object, information such as the position of the matching marker, the position of the predicted marker, and the correlation between the positions of the markers is used. Confirm the position. Correlation information of positions between the respective markers is obtained before performing real time through the pre-work. The insertion region is determined by applying a correlation between the marker region and the insertion region obtained from the marker region search. The correlation between the marker region and the insertion region used in this process is also obtained before the real-time execution through the pre-work. The generated insertion region is verified by comparing with the insertion region predicted by the camera variable.

이미지 삽입 모듈에서는 영상 분석 모듈에서 산출한 삽입 영역 내에 이미지가 존재하도록 크기, 원근의 조절 등의 작업을 수행하고, 데이터베이스의 배경정보를 바탕으로 삽입하고자하는 영상 내부의 전배경 분리를 실시한다. 그 결과에 따라 이미지를 삽입한 후 최종적으로 이미지가 삽입된 프레임을 방송 영상으로 송출한다.The image insertion module performs operations such as size and perspective adjustment so that the image exists in the insertion region calculated by the image analysis module, and separates the entire background inside the image to be inserted based on the background information of the database. As a result, after inserting the image, the frame in which the image is finally inserted is transmitted to the broadcast video.

실제 방송영상내의 움직임은 영상자체의 해상도에 비해 정밀한 단위에서 수행되기 때문에, 방송영상 내에 실제로 존재하는 것처럼 이미지를 삽입하기 위해서는 영상의 해상도보다 높은 정밀도에서 삽입될 이미지에 대한 위치연산과 삽입연산이 수행되어야 한다. 따라서, 본 발명의 영상 분석 모듈과 이미지 삽입 모듈에서는 실제 방송영상의 한 픽셀을 보다 작은 단위로 나누어 연산하는 서브픽셀(sub-pixel) 단위에서 모든 연산이 수행된다.Since the motion in the broadcast video is performed in precise units compared to the resolution of the video itself, in order to insert the image as if it is actually present in the broadcast video, position and insertion operations for the image to be inserted are performed at a higher precision than the resolution of the video. Should be. Therefore, in the image analysis module and the image insertion module of the present invention, all operations are performed in a sub-pixel unit in which one pixel of the actual broadcast image is divided into smaller units.

수행전 작업은 실시간 방송이전에 수행하는 작업을 의미하며, 마커영역 설정, 템플리트 정보 추출, 삽입영역 설정, 배경정보 추출, 대상영역 모델링, 카메라 모델링 작업을 포함한다.The pre-execution task refers to a task performed before the real-time broadcast, and includes marker region setting, template information extraction, insertion region setting, background information extraction, target region modeling, and camera modeling.

마커영역 설정은 영상 분석 모듈에서 추적하여야 할 마커를 방송대상영역에서 선택하고, 마커상호간의 관계를 설정하는 것이다. 마커영역은 템플리트 매칭을 통한 탐색에 용이한 성질을 가져야 하며, 이러한 성질은 원점을 중심으로 비대칭적인 구조를 갖고, 동일한 색으로 구성되지 않아야 한다는 것을 포함한다.The marker region setting is to select a marker to be tracked in the image analysis module in the broadcasting target region and to establish a relationship between markers. Marker areas should have properties that are easy to navigate through template matching, including those that have an asymmetric structure around the origin and should not consist of the same color.

마커영역이 설정되면 마커영역의 내부 이미지 정보를 기본 템플리트 정보로 추출하는 템플리트 정보 추출 과정을 수행한다. 템플리트는 수행전 작업을 통해서 설정되는 기본 템플리트와 실행 중에 매칭 과정에서 얻어지는 실행 템플리트로 구분한다. 기본 템플리트는 마커의 기본적인 이미지로 데이터베이스에 보관되며, 마커를 대표하는 이미지로의 역할을 수행한다. 실행 템플리트는 실제 매칭 과정에서 매칭이 이루어졌을 때의 마커영역의 이미지를 템플리트로 저장한 것으로 매칭이 발생할때마다 매칭된 마커영역의 이미지로 대치된다. 두 종류의 템플리트를 이용하여 실시간 운영 중에 카메라의 움직임이나 전체적인 환경의 변화에 의해 마커영역 자체가 변화하였을 경우, 능동적으로 적응하여 매칭의 정확도를 높인다.When the marker region is set, the template information extraction process of extracting the internal image information of the marker region as the basic template information is performed. Templates are divided into default templates that are set through pre-work and execution templates that are obtained during the matching process during execution. The base template is kept in the database as the base image of the marker and serves as an image representing the marker. The execution template stores the image of the marker region when the matching is performed in the actual matching process as a template. When the matching occurs, the execution template is replaced with the image of the matched marker region. Using two kinds of templates, if the marker area itself changes due to camera movement or overall environment change during real-time operation, it actively adapts to increase the accuracy of matching.

삽입영역 설정은 실제로 이미지가 삽입될 후보영역들을 선택하는 것으로, 이를 통해서 삽입될 영역의 위치 정보 뿐만 아니라 배경 정보도 얻게 된다. 방송 중에 이미지가 삽입될 곳은 이들 후보영역들 중에서 실시간에 사용자에 의해서 선택된다. 만약에 방송 중에 물체나 사람에 의해서 이미지가 삽입될 영역이 가려지게 되면, 가려진 영역에는 이미지가 삽입되어서는 안된다. 이를 위해서 배경정보를 사전에 갖고 있어야 한다. 배경 정보는 이미지가 삽입될 영역의 바탕 정보를 의미하며, 전배경 분리 작업에서 전경 영역을 추출하기 위한 정보로 사용된다.The insertion region setting actually selects candidate regions into which an image is to be inserted, thereby obtaining background information as well as position information of the region to be inserted. Where the image is inserted during the broadcast is selected by the user in real time among these candidate areas. If the area in which the image is to be inserted is obscured by an object or a person during broadcasting, the image should not be inserted in the hidden area. To do this, you must have background information in advance. Background information refers to background information of an area where an image is to be inserted, and is used as information for extracting a foreground area in an entire background separation operation.

이렇게 마커영역과 삽입영역이 설정되면 대상영역 모델링 작업에서는 이들 상호간의 위치관계에 대한 처리를 한 후 데이터베이스에 그 결과를 저장한다. 이 정보는 이미지 삽입 시스템에서 실시간 이미지 삽입을 위한 기본 정보로 활용된다.When the marker region and the insertion region are set in this way, the target region modeling process processes the positional relationship between them and stores the result in the database. This information is used as basic information for real-time image insertion in the image insertion system.

카메라 보정(calibration)은 설정된 마커 영역과 삽입영역을 기반으로 수행되며, 이를 통해서 카메라 특성에 관한 정보를 파악할 수 있다. 이렇게 생성된 정보를 바탕으로 카메라 모델링 작업을 수행한다. 즉, 카메라 센서로부터 입력된 정보와 실제 카메라 변수 사이의 상호 관계를 규정한다. 실시간 운영 시스템에서는 이 카메라 모델링 정보를 이용하여 카메라 센서로부터 입력된 값을 카메라 변수로 변환시킬 수 있고 마커와 삽입영역의 위치를 추출할 수 있다.Camera calibration is performed based on the set marker area and the insertion area, through which information on camera characteristics can be grasped. Camera modeling is performed based on the generated information. That is, it defines the correlation between the information input from the camera sensor and the actual camera variable. In the real-time operating system, the camera modeling information can be used to convert the value input from the camera sensor into a camera variable and extract the position of the marker and the insertion region.

본 발명의 특징에 따른 카메라 센서를 이용한 이미지 추적 및 삽입 방법은, 카메라 센서로부터 입력된 값을 카메라 변수로 변환하는 카메라변수 추출단계, 카메라 변수에 근거하여 삽입영역을 추출하는 단계, 그 영역이 프레임 내부에 존재하는 지 검사하는 단계, 카메라 변수를 바탕으로 입력된 영상을 탐색하여 마커의 위치를 찾아내는 마커영역 탐색단계, 찾아낸 마커영역을 바탕으로 마커영역과 삽입영역의 상관관계를 이용하여 삽입영역을 찾아내는 삽입영역 결정단계, 카메라 변수를 근거로 산출한 삽입영역과 삽입영역 결정단계에서 얻은 삽입영역이 일치하는 지 검사하는 삽입영역 검증단계, 삽입영역의 위치정보와 방송영상 정보를 이용하여 삽입될 이미지의 크기, 원근을 조정하는 단계, 삽입영역의 배경 정보와 방송영역의 이미지 비교를 통해서 삽입될 이미지 위에 다른 물체나 사람, 즉 전경요소가 있는지를 판별하는 단계, 그리고, 최종적으로 이미지를 합성하여 송출하는 단계를 포함한다.In accordance with an aspect of the present invention, an image tracking and insertion method using a camera sensor includes: extracting a camera variable converting a value input from a camera sensor into a camera variable, extracting an insertion region based on the camera variable, and the region is a frame Checking whether there is an inside, searching the input area based on the camera variable to find the location of the marker, searching the marker area, and using the correlation between the marker area and the insertion area based on the found marker area Insertion area determination step to find out, insertion area verification step of checking whether the insertion area calculated based on the camera variable and the insertion area determination step match, image to be inserted using the location information of the insertion area and broadcasting image information To adjust the size of the image, the perspective, and compare the background information of the insertion area with the image of the broadcasting area. And determining whether there is another object or person, that is, a foreground element, on the image to be inserted, and finally synthesizing and sending the image.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 가장 바람직한 실시예를 첨부된 도면을 참조로 하여 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 카메라 센서를 이용한 이미지 추적 및 삽입 시스템의 실제 동작의 예를 나타낸 도이다.1 is a view showing an example of the actual operation of the image tracking and insertion system using a camera sensor.

카메라 센서(100)가 부착된 카메라(10)로 야구 중계와 같은 현장을 촬영할 경우 원 방송 영상(2)과 카메라 센서(100)로부터 얻은 카메라 변수는 이미지 삽입 시스템(1)에 입력된다. 이미지 삽입 시스템(1)은 카메라 변수, 원 방송영상(2) 등의 입력 정보를 바탕으로 영상을 분석, 이미지를 삽입하여 이미지가 삽입된 방송영상(3)을 출력한다. 시청자는 이렇게 이미지가 삽입된 방송영상(3)을 시청하면서, 촬영 현장 자체에 이미지가 존재하는 것처럼 느끼게 된다.When shooting a scene such as baseball relay with the camera 10 with the camera sensor 100 attached, the original broadcast image 2 and the camera parameters obtained from the camera sensor 100 are input to the image insertion system 1. The image insertion system 1 analyzes an image based on input information such as a camera variable and an original broadcast image 2 and inserts an image to output the broadcast image 3 into which the image is inserted. The viewer, while watching the broadcast image 3 inserted with the image, feels as if the image exists in the shooting site itself.

도 2는 본 발명의 실시예에 따른 카메라 센서를 이용한 이미지 추적 및 삽입 시스템의 전체 구조도이다.2 is an overall structural diagram of an image tracking and insertion system using a camera sensor according to an embodiment of the present invention.

센서를 부착한 카메라(10)로부터 촬영되는 방송 화면은 프레임그랩버(30)에 의해 프레임 버퍼에 저장되며, 이는 이미지가 삽입되는 배경이 된다. 카메라(10)에 부착된 센서에 의해 생성되는 카메라 정보는 데이터베이스(80)에 저장된 카메라 모델링 정보를 바탕으로 카메라 센서 모듈(20)에서 카메라 변수로 변환되어 영상 분석 모듈(40)로 입력된다.The broadcast screen photographed from the camera 10 to which the sensor is attached is stored in the frame buffer by the frame grabber 30, which becomes a background into which an image is inserted. Camera information generated by the sensor attached to the camera 10 is converted into a camera variable in the camera sensor module 20 based on the camera modeling information stored in the database 80 and input to the image analysis module 40.

오퍼레이터(60)는 사용자 인터페이스(50)를 통해서 가상 이미지의 삽입 여부, 삽입 위치, 삽입될 이미지 등을 실시간에 제어할 수 있고, 이 정보 역시 영상 분석 모듈(40)의 입력으로 작용한다.The operator 60 may control whether a virtual image is inserted, an insertion position, an image to be inserted, etc. in real time through the user interface 50, and this information also serves as an input of the image analysis module 40.

영상 분석 모듈(40)에서는 프레임 그랩버(30)로부터 영상을 입력으로 받아서 마커영역의 탐색, 삽입영역의 결정, 삽입영역의 검증, 삽입 이미지의 크기, 원근요소의 적용 등의 역할을 수행한다. 이 과정에서 카메라 변수를 바탕으로 마커영역을 예측하고, 템플리트 매칭을 적용하여 신뢰성있는 마커영역을 얻어낸다. 그리고, 발견된 마커의 위치 관계를 이용해서 현재 프레임에서 삽입될 이미지의 위치를 결정한다. 마커영역과 삽입영역과의 위치관계는 실시간 수행이전에 대상 영역 모델링 단계에서 어파인(affine) 좌표 상에서의 수학적인 관계로 시스템에 의해 자동적으로 결정된다. 이렇게 결정된 삽입영역은 카메라 변수를 기반으로 산출한 삽입영역과 비교하여 오차가 허용된 범위를 넘지 않을 시에는 유효한 것으로 인정하는 검증과정을 거친다. 삽입영역의 결정과정에서 크기, 원근과 같은 요소를 같이 고려하여 삽입이미지를 변환한다.The image analysis module 40 receives an image from the frame grabber 30 and performs a role of searching for a marker region, determining an insertion region, verifying an insertion region, size of an insertion image, and applying perspective elements. In this process, the marker region is predicted based on camera variables, and template matching is applied to obtain a reliable marker region. Then, the position of the image to be inserted in the current frame is determined using the positional relationship of the found markers. The positional relationship between the marker region and the insertion region is automatically determined by the system as a mathematical relationship on affine coordinates in the target region modeling step before the real-time execution. The insertion region thus determined is compared with the insertion region calculated on the basis of the camera variable, and is validated when the error does not exceed the allowable range. In determining the insertion area, the insertion image is converted by considering factors such as size and perspective.

이미지 삽입 모듈(70)에서는 데이터베이스(80)에 저장된 배경정보를 바탕으로 삽입될 영역의 전경과 배경을 분리해 내는 겹침 판별 작업을 수행한 후, 그 결과를 반영하여 이미지를 삽입하고, 합성된 방송영상을 출력(90)한다. 전경과 배경의 분리를 위해서 일반적으로 칼라 키 기법을 사용한다. 배경이 한가지 영역의 색이 아닌 여러 가지 색으로 나타날 경우, 임의의 한도(보통 2가지 색) 내에서는 다중 칼라 키 기법을 이용하여 처리한다. 하지만, 그 이상의 색으로 구성되어 있다면, 크로마키 기법으로 처리하는 것은 한계가 있다. 이 경우에는 삽입될 이미지 내에서 패턴 인식 기법을 적용하여 전경과 배경 분리를 수행한다. 전경과 배경 분리 결과 배경 마스크를 생성하고, 이를 바탕으로 배경 영역에 이미지를 삽입한다.The image insertion module 70 performs an overlap determination operation for separating the foreground and the background of the region to be inserted based on the background information stored in the database 80, inserts the image based on the result, and synthesizes the broadcast. Output an image (90). The color keying technique is generally used to separate the foreground and background. If the background appears in several colors instead of one color, it is handled using a multi-color key technique within a certain limit (usually two colors). However, if it is composed of more colors, processing by chroma key technique is limited. In this case, the foreground and the background are separated by applying a pattern recognition technique in the image to be inserted. Create a background mask as a result of separating the foreground and background, and then insert the image into the background area.

도 3은 본 발명에서 사용하는 카메라 변수를 나타낸 도이다.3 is a diagram showing camera parameters used in the present invention.

카메라 변수는 팬(pan), 틸트(tilt),롤(roll), 줌(zoom), 포커스(focus), 위치정보(x,y,z), 세 축에 대한 회전 정보 등을 포함한다. 일반적인 이미지 삽입 시스템에서는 카메라 변수들 중에서 팬, 틸트, 줌, 포커스 만을 사용하여 왔다. 그리고, 이러한 정보만을 제공하는 하드웨어장치를 메모리헤드라 한다. 이는 고정형 카메라만을 고려한 것으로 카메라의 위치가 변화한다든지 운영자가 카메라를 들고 이동하는 핸드헬드 카메라의 경우, 이미지 삽입이 불가능하다는 문제점이 있다. 본 발명에서는 이러한 문제점을 해결하면서 움직이는 카메라 환경에서도 사용할 수 있도록 하기 위해서 인코더와 관성 항법장치를 결합한 형태의 카메라 센서를 개발하여 사용한다. 즉, 고정형 카메라와 이동형 카메라 모두에서 이미지 삽입 시스템이 동작하도록 하는 것이다.Camera variables include pan, tilt, roll, zoom, focus, position information (x, y, z), rotation information about three axes, and the like. Common image insertion systems use only pan, tilt, zoom, and focus among camera parameters. A hardware device that provides only this information is called a memory head. This is only considering a fixed camera, there is a problem that the image insertion is impossible in the case of a hand-held camera that the operator changes the camera position or the camera moves. The present invention develops and uses a camera sensor of a type in which an encoder and an inertial navigation device are combined to be used in a moving camera environment while solving this problem. That is, the image insertion system operates in both the stationary camera and the mobile camera.

삼발이에 고정된 고정형 카메라의 경우 도 3에서 각축(x,y,z)에 대한 직선이동은 발생하지 않으며, 좌우의 회전 정보인 팬(pan), 상하 회전 정보인 틸트(tilt)에 대한 움직임만이 발생한다. 그리고 카메라의 고유 특성인 줌(zoom), 포커스(focus) 등이 상황에 따라 변하는 값으로 시스템에서 인지해야할 카메라 변수에 포함된다.In the case of the fixed camera fixed to the tricycle, the linear movement of the angular axis (x, y, z) does not occur in FIG. 3, and only the movement of the pan, which is the left and right rotation information, and the tilt, which is the vertical rotation information. This happens. In addition, camera's unique characteristics such as zoom, focus, etc. are included in camera variables to be recognized by the system as values that change depending on the situation.

자유롭게 이동하며 촬영할 수 있는 이동형 카메라의 경우 고정형 카메라의 카메라 변수인 팬, 틸트, 줌, 포커스 외에 z축 회전 정보에 해당하는 롤(roll)에대한 움직임과 각축(x,y,z)에 대한 직선이동 값이 카메라 변수에 포함된다.In the case of a mobile camera that can move freely and shoot, the movement of a roll corresponding to the z-axis rotation information and the straight line on each axis (x, y, z) in addition to the camera parameters of the fixed camera, pan, tilt, zoom, and focus The shift value is included in the camera variable.

도 4는 고정형 카메라에서의 도 2에 도시된 카메라 센서 모듈(20)의 구조를 나타낸 도이다. 카메라(10)에는 카메라 센서로 인코더(110)만 있으면 고정형 카메라에서 필요로 하는 카메라 변수를 얻을 수 있다. 인코더(110)는 기계적인 회전수치를 산술적으로 표현하는 기기로, 고정형 카메라에서 필요로 하는 카메라 변수인 팬, 틸트, 줌, 포커스와 관련된 회전값을 수치로 표현하게 된다. 인코더 해석모듈(210)에서는 인코더(110)의 출력결과를 수치적으로 변환하여 카메라 변수 추출 모듈(230)에 전달하는 역할을 한다. 카메라 변수 추출 모듈(230)에서는 수행전 작업으로 데이터베이스(80)에 저장된 카메라 모델링 결과를 바탕으로 영상 분석모듈(40)에서 적용할 수 있는 카메라 변수(팬, 틸트, 줌, 포커스)를 산출한다.4 is a diagram illustrating the structure of the camera sensor module 20 shown in FIG. 2 in the fixed camera. The camera 10 requires only the encoder 110 as a camera sensor to obtain camera parameters required by the fixed camera. The encoder 110 is an arithmetic apparatus that expresses a mechanical rotation value, and expresses a rotation value related to a pan, tilt, zoom, and focus, which are camera variables required by a fixed camera. The encoder analysis module 210 converts the output result of the encoder 110 numerically and delivers it to the camera variable extraction module 230. The camera variable extraction module 230 calculates a camera variable (pan, tilt, zoom, focus) applicable to the image analysis module 40 based on the camera modeling result stored in the database 80 as a pre-work.

도 5는 이동형 카메라에서의 도 2에 도시된 카메라 센서 모듈(20)의 구조를 나타낸 도이다. 카메라(10)에는 카메라 센서로써, 인코더(110)뿐만 아니라 이동형 카메라의 정보 추출에 유리한 관성 항법 장치(120)를 사용한다. 인코더 해석 모듈(110)에서는 줌과 포커스에 관한 수치적인 변환을 수행하며, INS(관성 항법 장치) 해석 모듈(220)에서는 관성 항법 장치(120)에서 생성하는 축에 대한 가속도 정보와 각속도 정보를 변환하여 각 축에 대한 선형 이동 정보와 회전각 정보를 생성한 후 카메라 변수 추출 모듈(230)에 그 결과를 넘겨준다. 카메라 변수 추출 모듈(230)에서는 데이터베이스(80)에 저장된 카메라 모델링 결과를 바탕으로 영상 분석모듈(40)에서 필요로 하는 카메라 변수(팬, 틸트, 롤, 위치정보, 줌, 포커스)를 산출한다.5 is a diagram illustrating the structure of the camera sensor module 20 shown in FIG. 2 in the mobile camera. The camera 10 uses an inertial navigation device 120 that is advantageous for extracting information of the mobile camera as well as the encoder 110 as a camera sensor. The encoder analysis module 110 performs numerical transformation on zoom and focus, and the inertial navigation device (INS) analysis module 220 converts acceleration information and angular velocity information about an axis generated by the inertial navigation device 120. After generating the linear movement information and the rotation angle information for each axis and passes the result to the camera variable extraction module 230. The camera variable extraction module 230 calculates a camera variable (pan, tilt, roll, location information, zoom, focus) required by the image analysis module 40 based on the camera modeling result stored in the database 80.

실시간에 카메라 센서 정보를 이용하여 이미지를 추적, 삽입하기 위한 준비 단계로써, 실시간 수행이전에 마커영역 설정, 템플리트 정보 추출, 삽입영역 설정, 배경정보 추출, 대상영역모델링, 카메라모델링 작업 등을 수행하여야 한다. 도 6은 이러한 수행전 작업 내용을 도시하고 있다.As a preparatory step for tracking and inserting images using camera sensor information in real time, it is necessary to perform marker area setting, template information extraction, insertion area setting, background information extraction, target area modeling, and camera modeling before real-time execution. do. Fig. 6 shows the contents of such pre-work.

먼저 마커영역 설정(300) 과정을 수행한다. 마커영역은 실시간 시스템 운영 중에 삽입영역을 찾기 위해 필요한 것으로, 마커 중심에 대한 위치 정보로 표현된다. 마커영역 설정(300)에서 얻은 마커 위치 정보를 바탕으로 템플리트 정보 추출(310)을 통해서 마커 중심으로부터의 일정 영역 내의 이미지를 기본 템플리트 정보로 데이터베이스(80)에 저장한다. 기본 템플리트는 마커에 대한 이미지 정보로 패턴매칭 알고리즘에 의해서 선별가능한 특성을 지니고 있어야 한다.First, the process of setting the marker region 300 is performed. The marker area is required to find the insertion area during the real-time system operation and is represented by location information about the center of the marker. Based on the marker position information obtained in the marker region setting 300, the template information extraction 310 stores an image in a predetermined region from the center of the marker in the database 80 as basic template information. The basic template should have the characteristics that can be selected by the pattern matching algorithm as the image information for the marker.

다음으로 삽입영역 설정(320) 단계를 수행한다. 삽입영역은 실제적으로 이미지나 동영상이 삽입될 위치를 사각형 형태로 나타낸 것으로, 사각형의 각 꼭지점에 대한 위치정보로 표현된다. 배경 정보는 삽입영역 내부에 대한 이미지 정보로, 실시간에 전배경 분리 작업에 사용된다. 배경 정보는 배경 정보 추출(330) 단계를 거쳐 데이터베이스(80)에 저장된다.Next, the insertion area setting step 320 is performed. The insertion area is a rectangular shape of a position where an image or a video is to be inserted. The insertion area is expressed as position information of each vertex of the rectangle. Background information is image information of the inside of the insertion area, which is used for the entire background separation in real time. The background information is stored in the database 80 through the background information extraction step 330.

이렇게 마커영역과 삽입영역이 선택되면 다음 작업으로 대상영역 모델링(340)을 하게 된다. 마커영역 상호간의 관계, 마커와 삽입영역사이의 상호관계 등이 이 과정에서 정의된다. 삽입영역(321)은 어파인(affine) 좌표 상에서 마커영역(301)의 위치에 대한 상대적인 위치로 재정의되며, 그 결과는 데이터베이스(80)에 저장된다. 또한 삽입영역 자체에 대한 이미지 정보를 배경정보로 저장하여 겹침 문제 발생을 판단하기 위한 기반 정보로 사용한다.When the marker region and the insertion region are selected as described above, the target region modeling 340 is performed. The relationship between the marker regions and the relationship between the marker and the insertion region is defined in this process. The insertion region 321 is redefined as a position relative to the position of the marker region 301 on the affine coordinates, and the result is stored in the database 80. In addition, the image information about the insertion region itself is stored as the background information and used as the basis information for determining the occurrence of the overlap problem.

다음으로 마커영역 설정(300)과 삽입영역 설정(320)의 결과를 이용해서 카메라 모델링(350)을 수행한다. 이는 지정된 마커영역(301)과 삽입영역(321) 정보를 기반으로 카메라 센서(100)로부터 입력되는 카메라 원시 데이터를 카메라 변수로 변환하기 위한 정보를 생성하는 카메라 보정(calibration) 과정과 카메라 변수 정보와 마커의 위치사이의 상호 관계, 그리고 카메라 변수 정보와 삽입영역의 위치사이의 상호 관계를 테이블 형태로 생성하여 데이터베이스(80)에 저장하는 과정으로 구성된다.Next, the camera modeling 350 is performed using the results of the marker region setting 300 and the insertion region setting 320. The camera calibration process and the camera variable information which generate information for converting the camera raw data input from the camera sensor 100 into camera variables based on the designated marker region 301 and the insertion region 321 information The relationship between the positions of the markers and the relationship between the camera variable information and the position of the insertion region are generated in a table form and stored in the database 80.

도 8은 본 발명의 실시예에 따른 카메라 센서를 이용한 이미지 추적 및 삽입 방법의 전체 흐름도이다.8 is a flowchart illustrating an image tracking and insertion method using a camera sensor according to an exemplary embodiment of the present invention.

먼저 카메라 변수 추출(400)과정을 수행한다. 카메라 변수 추출(400) 과정에서는 카메라 센서로부터 입력된 정보들을 통합하여 카메라 변수를 산출해 내어 이미지 삽입 시스템에서 위치 정보를 산출하기 위한 기본 정보로 사용된다. 고정형 카메라인 경우 도 4에 도시된 방법에 의해서, 이동형 카메라인 경우에는 도 5에 도시된 방법에 의해서 카메라 변수를 추출한다.First, a process of extracting a camera variable 400 is performed. In the camera variable extraction process 400, the camera variables are calculated by integrating the information input from the camera sensor and used as basic information for calculating the position information in the image insertion system. In the case of the fixed camera, the camera variable is extracted by the method shown in FIG. 4 and the method shown in FIG. 5 in the case of the mobile camera.

카메라 변수 추출(400)과정에서 얻은 카메라 변수 값과 수행전 작업에서 산출한 카메라 모델링(340) 정보에 의해서 삽입영역 추출(410)을 수행한다. 삽입영역 추출 정보는 두가지 용도로 사용된다. 첫째, 삽입영역이 현재 프레임 내부인지를 판별(420)하는 과정에서 사용되어, 프레임 내부에 삽입영역이 존재하지 않음을 알게 되면 후의 과정은 생략하고 입력받은 현 프레임을 그대로 방송 영상으로 송출한다. 반대로, 프레임 내부에 삽입영역이 존재할 시에는 마커영역탐색(430)을 비롯한 후의 과정을 수행한다. 둘째, 추후에 삽입영역 검증(450) 단계에서 마커영역을 기반으로 결정된 삽입영역이 정확한 것인지 검증하는 용도로 사용된다.The insertion region extraction 410 is performed based on the camera variable value obtained in the camera variable extraction 400 and the camera modeling 340 information calculated in the pre-work. Insertion region extraction information is used for two purposes. First, it is used in the process of determining whether the insertion region is inside the current frame (420). If it is found that the insertion region does not exist in the frame, the following process is omitted and the current frame received is transmitted as it is. On the contrary, when the insertion region exists in the frame, the following process including the marker region search 430 is performed. Second, it is used to verify whether the insertion region determined based on the marker region in the insertion region verification step 450 is correct.

프레임 내부에 삽입영역이 존재하면, 다음으로 카메라 변수 값을 바탕으로 방송화면상에서 마커영역 탐색(430) 과정을 수행한다. 도 9는 마커영역 탐색(430)과정을 상술한 흐름도이다. 우선, 입력된 카메라 변수 값과 수행전 작업으로 구성한 카메라 모델링(340) 결과를 기반으로 현재 프레임에서의 마커영역을 예측(431)한다. 그리고, 탐색을 시작하는 준비 단계로써, 밝기조정(432)을 수행한다. 현 프레임에서의 밝기의 변화는 예측된 마커영역의 전체 밝기의 평균값과 기본 템플리트의 밝기의 평균값과의 비교를 통한 차이로 정의된다. 이 값을 바탕으로 실행 템플리트의 밝기를 조절하여, 밝기의 변화로 생기는 매칭 문제를 해결한다.If there is an insertion region in the frame, the marker region search 430 is performed on the broadcast screen based on the camera variable value. 9 is a flowchart illustrating a process of searching for a marker region 430. First, the marker region in the current frame is predicted 431 based on the input camera variable value and the result of the camera modeling 340 configured as the pre-work. Then, as a preparation step for starting the search, the brightness adjustment 432 is performed. The change in brightness in the current frame is defined as the difference by comparing the average value of the overall brightness of the predicted marker area with the average value of the brightness of the base template. Based on this value, the brightness of the execution template is adjusted to solve the matching problem caused by the change in brightness.

이렇게 마커영역을 예측(431)하고, 밝기 조정(432) 과정을 거친 후 정밀한 마커의 탐색은 템플리트 매칭 기법을 사용한다. 도 10에서 검은 점(302)는 카메라 변수를 기반으로 예측한 마커의 위치이며, 검은 점 주위의 원(303)은 실제적으로 마커영역 탐색(430) 과정에서 매칭 기법을 사용하게 될 마커의 탐색 영역이다. 즉, 카메라 변수 값은 마커를 탐색하기 위한 기본적인 영역을 파악하기 위해 사용되며, 정밀한 마커의 위치는 템플리트 매칭 기법을 통해서 얻게 된다. 템플리트 매칭은 다음과 같은 과정으로 진행된다. 우선, 탐색하지 않은 마커영역이 존재하는 지를 판단(433)하여 모든 마커에 대한 탐색이 끝났으면, 탐색결과 매칭된 마커의 수를 점검하여 4개 이상 매칭된 결과를 얻었다면, 다음 과정인 삽입영역 결정(440)으로이동하고, 그렇지 않을 경우에는 탐색된 마커위치, 예측된 마커위치를 기반으로 수행전 작업에서 얻은 마커사이의 상호관계를 이용하여 매칭되지 않은 마커의 위치를 획득하고 삽입영역 결정(440) 과정으로 이동한다. 즉, 삽입영역 결정(440)에서는 4개 이상의 마커의 위치에 대한 정보를 갖고 작업을 수행하게 된다. 탐색하지 않은 마커영역이 존재하는 지를 판단(433)하여 탐색하지 않은 마커가 존재하면, 먼저 실행 템플리트를 기반으로 현 프레임에서의 예상 마커의 영역에서 매칭(434)을 수행한다. 매칭이 이루어지면 실행 템플리트를 매칭이 이루어진 마커 영역의 이미지로 갱신(436)하는 과정을 거친후 탐색하지 않은 마커영역이 존재하는 지를 판단(433)하는 과정으로 이동한다. 만약에 매칭이 이루어지지 않았으면, 예상 마커의 영역을 기본 템플리트를 기반으로 매칭(435)을 수행한다. 매칭이 이루어지면 실행 템플리트를 매칭이 이루어진 마커 영역의 이미지로 갱신(436)하는 과정을 거친후 탐색하지 않은 마커영역이 존재하는 지를 판단(202)하는 과정으로 이동한다. 여기서도 매칭이 이루어지지 않으면 현 마커영역에 대한 실행 템플리트를 그대로 유지(437)하고, 매칭이 이루어지지 않은 것으로 결론 짓는다. 이러한 경우는 다른 물체나 사람에 의해서 마커 영역이 가려져서 전혀 다른 이미지가 마커영역에 존재할 때 발생한다.After predicting the marker region 431 and adjusting the brightness 432, the precise marker search is performed using a template matching technique. In FIG. 10, the black point 302 is the position of the marker predicted based on the camera variable, and the circle 303 around the black point is actually the search region of the marker that will use the matching technique in the process of searching the marker region 430. to be. That is, camera variable values are used to identify the basic area for searching for markers, and precise marker positions are obtained through a template matching technique. Template matching proceeds as follows. First, if the search for all markers is finished by determining whether there is a marker region that has not been searched (433), and if the number of matched markers is obtained by the search result, four or more matching results are obtained, Go to decision 440, otherwise use the correlation between markers found in the pre-work based on the searched marker position and the predicted marker position to obtain the position of the unmatched marker and determine the insertion region. Go to step 440). That is, in the insertion region determination 440, the operation is performed with information about the positions of four or more markers. If there is a marker that has not been searched by determining whether or not there is a marker area that has not been searched, first, a matching 434 is performed in the area of the expected marker in the current frame based on the execution template. If a match is made, the execution template is updated to an image of the matched marker region (436), and then the process moves to a process of determining (433) whether there is a marker region not searched. If no match is made, the matching marker area is performed based on the default template 435. If a match is made, the execution template is updated to an image of the matched marker region (436), and then the process proceeds to a process of determining (202) whether there is a marker region not searched for. If no match is found here, the execution template for the current marker region is maintained (437), and it is concluded that no match is made. This happens when the marker region is covered by another object or person, and a completely different image exists in the marker region.

마커영역의 탐색(430) 결과 마커의 위치를 얻게 되면, 이를 바탕으로 삽입영역 결정(440) 과정을 수행한다. 이 과정을 수행하기 위해서 수행전 작업을 통해 데이터 베이스(80)에 저장된 대상 영역 모델링(320) 결과를 활용한다. 즉, 수행 전에 정의된 마커의 위치와 삽입영역의 네 꼭지점 좌표사이의 어파인(affine) 좌표 상에서의 수학적 상관 관계를 활용하여 삽입영역의 위치를 결정한다.When the location of the marker is obtained as a result of the search (430) of the marker region, the process of determining the insertion region (440) is performed. In order to perform this process, the target region modeling 320 stored in the database 80 is used through a pre-work. That is, the position of the insertion region is determined by using a mathematical correlation on the affine coordinate between the position of the marker defined before the execution and the four vertex coordinates of the insertion region.

그리고 이렇게 얻은 삽입영역의 위치는 삽입영역 추출(410) 과정에서 얻은 삽입영역 예측 정보와 비교하여 정확성 여부를 검증(450)한다. 이렇게 삽입영역에 대한 검증(450) 과정을 거침으로 해서 보다 정확하고 확실한 이미지 삽입을 보장하고 에러의 발생을 막을 수 있다. 방송 영상용 이미지 삽입 시스템은 대부분 생방송에 실시간으로 운영되어야 하므로 이러한 검증과정의 수행은 시스템의 신뢰성을 높이는 데 중요한 역할을 한다.The position of the insertion region thus obtained is compared with the insertion region prediction information obtained in the insertion region extraction process 410 to verify the accuracy (450). By going through the verification process 450 for the insertion region, it is possible to ensure more accurate and reliable image insertion and to prevent the occurrence of errors. Since most image insertion systems for broadcast video must be operated in real time on a live broadcast, the performance of this verification process plays an important role in increasing the reliability of the system.

삽입영역의 위치가 확정되면 삽입 영역에 맞춰서 삽입할 이미지의 크기, 원근을 조정(460)하는 과정을 거친다. 삽입할 이미지의 원근을 삽입되어질 원 방송영상에서의 원근 속성과 일치시킴으로써 시청자는 시각적으로 자연스러운 영상을 제공받는다. 또한, 계속적으로 변화하는 방송영상 속에서 이에 맞게 위치와 크기가 변경됨으로써 시청자는 삽입된 이미지가 원래 방송영상의 화면 속에 있던 것처럼 느끼게 된다.When the position of the insertion region is determined, the size and perspective of the image to be inserted are adjusted according to the insertion region (460). By matching the perspective of the image to be inserted with the perspective attribute of the original broadcast image to be inserted, the viewer is visually provided with a natural image. In addition, by changing the position and size according to the ever-changing broadcast video, the viewer feels that the inserted image was in the screen of the original broadcast video.

삽입될 이미지의 속성에 대한 처리를 수행한 후, 데이터베이스(80)에 저장되어 있는 배경정보를 삽입될 영상의 이미지와 비교하는 겹침 판별 과정(470)을 통해서 배경 마스크를 생성하고 이를 바탕으로 전경과 배경을 분리하여 이미지를 삽입한다.After processing the attributes of the image to be inserted, a background mask is generated through the overlap determination process 470 comparing the background information stored in the database 80 with the image of the image to be inserted, and based on the background mask, Isolate the background and insert an image.

도 11a-c는 원근 조정, 전배경 분리 등 삽입될 이미지에 대한 처리를 도시하고 있다. 도 11a는 삽입될 이미지로 아무런 처리도 되지 않은 상태이며, 도 11b는 방송영상에서의 원근 속성에 맞도록 크기, 원근 조정(460) 과정을 통해서 이미지를변형시킨 것이고, 마지막으로 11c는 겹침 판별 과정(470)을 거쳐 전경과 배경을 분리하여 이미지를 삽입한 방송 영상이다.11A-C illustrate processing for an image to be inserted, such as perspective adjustment, foreground separation, and the like. 11A is an image to be inserted, and no processing is performed. FIG. 11B is an image modified through a process of adjusting size and perspective 460 to fit perspective properties in a broadcast image. Finally, 11c is an overlap determination process. The broadcast image is obtained by inserting an image by separating the foreground and the background through 470.

실제 방송영상내의 움직임은 영상자체의 해상도에 비해 정밀한 단위에서 수행되기 때문에, 방송영상 내에 실제로 존재하는 것처럼 이미지를 삽입하기 위해서는 해상도보다 높은 정밀도에서 영상 분석 및 삽입이 수행되어야 한다. 따라서, 본 발명에서는 실제 방송영상의 한 픽셀을 여러 작은 픽셀단위로 나누어 연산하는 서브픽셀(sub-pixel) 단위 분석 및 삽입을 수행한다.Since the movement in the actual broadcast image is performed in a precise unit compared to the resolution of the image itself, in order to insert the image as if it is actually present in the broadcast image, image analysis and insertion must be performed at a higher precision than the resolution. Therefore, in the present invention, the sub-pixel unit analysis and insertion for dividing one pixel of the actual broadcast image into several small pixel units is performed.

최종적으로 이미지 합성(480) 과정을 통해 이미지가 삽입된 방송 영상을 송출하며, 결과적으로 시청자는 실제 방송 화면속에 이미지가 실제 존재하는 것처럼 느끼면서 방송을 시청하게 된다.Finally, the broadcast image in which the image is inserted is transmitted through the image synthesizing process 480. As a result, the viewer views the broadcast while feeling as if the image is actually present in the actual broadcast screen.

도 12a-c는 본 발명의 실시예에 따라서 사거리 중심부에 동영상을 삽입한 예이다. 도 12a는 사거리를 중심부에 놓고 촬영한 영상에 이미지를 삽입한 것이고, 도 12b는 카메라를 오른쪽으로 팬(pan), 위쪽으로 틸트(tilt)동작을 취한 상태에서 이미지를 삽입한 것이다. 도 12c는 카메라 줌인(zoom-in)상태에서 이미지를 삽입한 것이다.12A-C illustrate an example of inserting a video into a center of a crossroad according to an exemplary embodiment of the present invention. FIG. 12A is an image inserted into an image taken with the center of gravity at the center, and FIG. 12B is an image inserted with the camera panned to the right and tilted upward. 12C shows an image inserted in a camera zoom-in state.

비록, 본 발명이 가장 실제적이며 바람직한 실시예를 참조하여 설명되었지만, 본 발명은 상기 개시된 실시예에 한정되지 않으며, 후술되는 특허청구범위 내에 속하는 다양한 변형 및 등가물들도 포함한다.Although the present invention has been described with reference to the most practical and preferred embodiments, the present invention is not limited to the above disclosed embodiments, but also includes various modifications and equivalents within the scope of the following claims.

이상에서 설명한 실시예에 따라, 실시간 방송 중계 화면에 사용자가 원하는이미지나 동영상 또는 삼차원 물체를 원하는 위치에 실제로 공간상에 존재하는 것처럼 삽입하여 방송 중계 화면을 변화시킬 수 있다.According to the exemplary embodiment described above, the broadcast relay screen may be changed by inserting an image, a video, or a 3D object desired by the user as if the user is actually present in the space at the desired position.

본 발명에 따르면 카메라 센서를 활용하여 자유롭오 빠른 카메라 움직임 하에서도 방송영상에 사용자가 원하는 위치에 이미지를 삽입할 수 있다. 영상 추적과 더불어 삽입과정에서 카메라 변수를 활용하여 검증과정을 거치기 때문에 정확하고 신뢰성있는 이미지 삽입과 방송영상 송출을 확보할 수 있다. 기존의 고정된 위치에의 이미지 삽입이 아니고 동적으로 변화하는 카메라와 이를 통해 촬영되는 공간의 탐색을 통한 삽입이기 때문에 시청자는 삽입된 이미지가 원래 영상화면 내에 존재하는 것처럼 느끼는 효과를 제공할 수 있다.According to the present invention, a camera sensor can be used to insert an image at a desired position in a broadcast image even under free and fast camera movement. In addition to image tracking, verification is performed by using camera variables in the insertion process, which ensures accurate and reliable image insertion and broadcast video transmission. The viewer can provide the effect of feeling that the inserted image is present in the original video screen because it is inserted through the exploration of a dynamically changing camera and the space photographed through the image rather than the existing insertion of the image at a fixed position.

본 발명은 방송 중계 화면상에 가상 광고 삽입 및 대체, 삼차원 가상 물체의 삽입, 삽입 이미지를 이용한 정보 제공 등과 같은 용도에 적용 가능하다.The present invention can be applied to applications such as inserting and replacing a virtual advertisement on a broadcast relay screen, inserting a 3D virtual object, and providing information using an inserted image.

Claims (9)

카메라 센서로부터 입력된 값을 카메라 변수로 변환하는 카메라변수 추출단계;A camera variable extraction step of converting a value input from a camera sensor into a camera variable; 카메라 변수에 근거하여 삽입영역을 추출하는 단계;Extracting an insertion region based on a camera parameter; 그 영역이 프레임 내부에 존재하는 지 검사하는 단계;Checking whether the area exists inside the frame; 카메라 변수를 바탕으로 입력된 영상을 탐색하여 마커의 위치를 찾아내는 마커영역 탐색단계;A marker region search step of finding a position of a marker by searching an input image based on a camera variable; 찾아낸 마커영역과 삽입영역의 상관관계를 이용하여 삽입영역을 찾아내는 삽입영역 결정단계;An insertion region determination step of finding an insertion region using a correlation between the found marker region and the insertion region; 카메라 변수를 근거로 추출한 삽입영역과 삽입영역 결정단계에서 얻은 삽입영역이 일치하는 지 검사하는 삽입영역 검증단계;An insertion region verification step of checking whether the insertion region extracted based on the camera variable matches the insertion region obtained in the insertion region determination step; 삽입영역의 위치정보와 영상 프레임 정보를 이용하여 삽입될 이미지의 크기, 원근을 조정하는 단계;Adjusting the size and perspective of an image to be inserted using location information of the insertion region and image frame information; 삽입영역의 배경 정보와 현재 영상 프레임의 이미지 비교를 통해서 삽입될 이미지 위에 다른 물체나 사람, 즉 전경요소가 있는지를 판별하는 전배경 분리단계;A background separation step of determining whether there is another object or person, that is, a foreground element, on the image to be inserted by comparing the background information of the insertion area with the image of the current image frame; 최종적으로 이미지를 합성하여 송출하는 단계Finally synthesizing and sending the image 를 포함하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.Image tracking and insertion system using a camera sensor comprising a. 제1항에 있어서,The method of claim 1, 카메라 변수 추출 단계에서,In the camera variable extraction step, 카메라 센서는 관성 항법 장치와 인코더의 조합으로 구성되며, 카메라에 부착되어 실시간 방송 촬영 중에 카메라 변수와 관련된 정보를 생성하는 것을 특징으로 하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.The camera sensor is composed of a combination of an inertial navigation device and an encoder, and attached to the camera to generate information related to camera parameters during real-time broadcast shooting. 제1항에 있어서,The method of claim 1, 카메라 변수 추출 단계는The camera variable extraction step 고정형 카메라의 경우에는 카메라 센서로 인코더만을 사용하며,인코더의 출력결과를 수치적으로 변환하는 인코더 해석모듈,데이터베이스에 저장된 카메라 모델링 결과를 바탕으로 카메라 변수인 줌(zoom), 포커스(focus), 팬(pan), 틸트(tilt)를 산출하는 카메라 변수 추출 모듈로 구성되며,In case of fixed camera, only encoder is used as camera sensor, encoder analysis module that converts the output result of encoder numerically, based on camera modeling result stored in database, zoom, focus, pan and a camera variable extraction module that calculates tilt. 이동형 카메라의 경우에는 카메라 센서로 관성 항법 장치와 인코더의 조합을 사용하며, 카메라 센서값을 수치적으로 변환하는 인코더 해석모듈과 관성 항법 장치 해석모듈,데이터 베이스에 저장된 카메라 모델링 결과를 바탕으로 카메라 변수인 줌(zoom), 포커스(focus), 팬(pan), 틸트(tilt), 롤(roll), 그리고, 각 축(x,y,z)에 대한 선형 이동 정보를 산출하는 카메라 변수 추출 모듈로 구성되는 것을 특징으로 하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.In the case of a mobile camera, a combination of an inertial navigation device and an encoder is used as a camera sensor, and a camera variable is based on an encoder analysis module, an inertial navigation device analysis module, and a camera modeling result stored in a database. Camera variable extraction module that calculates in-zoom, focus, pan, tilt, roll, and linear movement information for each axis (x, y, z) Image tracking and insertion system using a camera sensor, characterized in that the configuration. 제3항에 있어서,The method of claim 3, 관성항법 장치는 세 축에 대한 선형 가속도 정보와 회전 각속도정보를 산출하며,관성 항법 장치 해석모듈은 이를 변환하여 각 축에 대한 선형 이동 정보와 회전각 정보를 생성하는 것을 특징으로 하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.The inertial navigation device calculates linear acceleration information and rotational angular velocity information for three axes, and the inertial navigation device analysis module converts it to generate linear movement information and rotation angle information for each axis. Image tracking and insertion system. 제1항에 있어서,The method of claim 1, 삽입 여부, 삽입 이미지 선택, 삽입 위치 결정 등의 사용자의 요구를 반영할 수 있는 사용자 인터페이스를 더 포함하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.An image tracking and insertion system using a camera sensor further comprising a user interface capable of reflecting the user's needs, such as whether to insert, select an inserted image, and determine an insertion position. 제1항에 있어서,The method of claim 1, 마커의 정보, 마커사이의 상관관계, 기본템플리트정보, 실행템플리트정보, 삽입영역위치정보, 삽입영역배경정보, 마커와 삽입영역과의 상관관계, 카메라 모델링 정보 등을 저장 관리하는 데이터 베이스를 포함하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.Includes a database for storing and managing information of markers, correlations between markers, basic template information, execution template information, insertion region location information, insertion region background information, correlation between markers and insertion regions, camera modeling information, and the like. Image tracking and insertion system using camera sensor. 제1항에 있어서,The method of claim 1, 마커영역 탐색단계는,Marker area search step, 카메라 변수 정보를 활용하여 마커의 위치를 예측하고,Using the camera variable information to predict the position of the marker, 밝기가 변화하는 환경에서도 마커영역 탐색을 수행하기 위해서, 예측된 마커영역의 밝기 정보를 분석하고 그 결과에 따라 템플리트의 밝기를 보정하고,In order to search the marker region even in the environment where the brightness changes, the brightness information of the predicted marker region is analyzed and the brightness of the template is corrected according to the result. 수행전에 저장된 기본 템플리트와 매칭 결과를 저장한 실행 템플리트를 사용하여 매칭을 수행하며,Matching is performed using the default template stored before execution and the execution template, which stores the matching results. 카메라 변수에 의해 예측된 마커의 위치와 매칭에 의해 추출된 마커의 위치, 그리고, 데이터베이스에 저장된 마커사이의 상관관계에 의해서 미추적된 마커 위치를 획득하는 것을 특징으로 하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.Image tracking using a camera sensor, characterized in that the position of the marker predicted by the camera variable and the position of the marker extracted by matching, and the untraced marker position are obtained by the correlation between the markers stored in the database. Insertion system. 제1항에 있어서,The method of claim 1, 삽입영역 결정단계는,Insertion area determination step, 4개 이상의 추적된 마커를 기반으로, 어파인(affine) 좌표상에서 수행전에 데이터베이스에 저장된 마커와 삽입영역사이의 상관관계를 활용하여 삽입영역을 결정하는 것을 특징으로 하는 카메라 센서를 이용한 이미지 추적 및 삽입 시스템.Based on four or more tracked markers, image tracking and insertion using a camera sensor, characterized in that the insertion region is determined by using the correlation between the marker stored in the database and the insertion region before performing on affine coordinates. system. 추적의 대상이 되는 마커의 위치를 방송 영상 영역에서 선택하고, 마커 상호간의 관계를 설정하는 마커영역 설정단계;A marker region setting step of selecting a position of a marker to be tracked in a broadcast video region and setting a relationship between markers; 마커영역의 내부 이미지 정보로부터 기본 템플리트 정보를 추출하는 템플리트 정보 추출단계;A template information extraction step of extracting basic template information from internal image information of the marker region; 이미지가 삽입될 후보영역들을 선택하는 삽입영역 설정단계;An insertion region setting step of selecting candidate regions into which an image is to be inserted; 삽입이 이루어질 삽입영역내의 이미지 정보를 추출하는 배경정보 추출단계;A background information extraction step of extracting image information in an insertion area to be inserted; 마커의 위치와 삽입영역과의 상관관계를 설정하는 대상영역 모델링 단계;A target area modeling step of setting a correlation between the position of the marker and the insertion area; 설정된 마커 영역과 삽입영역을 기반으로 카메라 특성에 관한 정보를 파악하고, 카메라 센서로부터 입력된 정보와 실제 카메라 변수 사이의 상호 관계를 규정하는 카메라 모델링 단계를 포함하는 방송 영상에서의 실시간 이미지 삽입 시스템의 수행전 작업.A camera modeling step of identifying information on camera characteristics based on the set marker region and insertion region and defining a correlation between information input from a camera sensor and actual camera variables. Pre-Performance Task.
KR10-2001-0039393A 2001-07-03 2001-07-03 image tracking and insertion system using camera sensors KR100387901B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0039393A KR100387901B1 (en) 2001-07-03 2001-07-03 image tracking and insertion system using camera sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0039393A KR100387901B1 (en) 2001-07-03 2001-07-03 image tracking and insertion system using camera sensors

Publications (2)

Publication Number Publication Date
KR20030003506A true KR20030003506A (en) 2003-01-10
KR100387901B1 KR100387901B1 (en) 2003-06-18

Family

ID=27713112

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0039393A KR100387901B1 (en) 2001-07-03 2001-07-03 image tracking and insertion system using camera sensors

Country Status (1)

Country Link
KR (1) KR100387901B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030049642A (en) * 2001-12-17 2003-06-25 한국전자통신연구원 Camera information coding/decoding method for composition of stereoscopic real video and computer graphic
KR101025899B1 (en) * 2009-06-30 2011-03-30 에이알비전 (주) The sending method of broadcast images composed virtual images using camera sensors
US8417034B2 (en) 2008-12-22 2013-04-09 Electronics And Telecommunications Research Institute Apparatus and method for separating foreground and background
KR101253101B1 (en) * 2012-10-16 2013-04-10 엘아이지넥스원 주식회사 Method for measuring pressure based on vision
KR101274253B1 (en) * 2012-10-16 2013-06-17 엘아이지넥스원 주식회사 Pressure sensor based on vision and wearable robot having the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100964951B1 (en) 2008-10-29 2010-06-21 에이알비전 (주) Augmented reality apparatus for simulation discipline and virtual image composition method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8822062D0 (en) * 1988-09-20 1988-10-19 Quantel Ltd Video processing
GB2230399B (en) * 1989-04-07 1993-09-08 Sony Corp Controlling the combining of video signals
JP3037383B2 (en) * 1990-09-03 2000-04-24 キヤノン株式会社 Image processing system and method
ATE181631T1 (en) * 1991-07-19 1999-07-15 Princeton Video Image Inc TELEVISION ADS WITH SELECTED CHARACTERS DISPLAYED
IL108957A (en) * 1994-03-14 1998-09-24 Scidel Technologies Ltd System for implanting an image into a video stream
US5436672A (en) * 1994-05-27 1995-07-25 Symah Vision Video processing system for modifying a zone in successive images
JPH09121302A (en) * 1995-10-25 1997-05-06 Sony Corp Video system capable of integrating commercial advertisement and method for using the system
KR100321904B1 (en) * 2000-02-25 2002-01-26 한서원 An apparatus and method for extracting of camera motion in virtual studio
KR20000054304A (en) * 2000-06-01 2000-09-05 이성환 system for inserting an advertisement in the broadcast relay picture and controlling method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030049642A (en) * 2001-12-17 2003-06-25 한국전자통신연구원 Camera information coding/decoding method for composition of stereoscopic real video and computer graphic
US8417034B2 (en) 2008-12-22 2013-04-09 Electronics And Telecommunications Research Institute Apparatus and method for separating foreground and background
KR101025899B1 (en) * 2009-06-30 2011-03-30 에이알비전 (주) The sending method of broadcast images composed virtual images using camera sensors
KR101253101B1 (en) * 2012-10-16 2013-04-10 엘아이지넥스원 주식회사 Method for measuring pressure based on vision
KR101274253B1 (en) * 2012-10-16 2013-06-17 엘아이지넥스원 주식회사 Pressure sensor based on vision and wearable robot having the same

Also Published As

Publication number Publication date
KR100387901B1 (en) 2003-06-18

Similar Documents

Publication Publication Date Title
US20220076501A1 (en) A system for mixing or compositing in real-time, computer generated 3d objects and a video feed from a film camera
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
US20200162629A1 (en) Method and apparatus for scanning and printing a 3d object
EP2583449B1 (en) Mobile and server-side computational photography
US20130121531A1 (en) Systems and methods for augmenting a real scene
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP2002259976A (en) Method and device for detecting specific point
US20100134601A1 (en) Method and device for determining the pose of video capture means in the digitization frame of reference of at least one three-dimensional virtual object modelling at least one real object
US8614705B2 (en) Method and device for creating at least two key frames corresponding to a three-dimensional object
US20150172634A1 (en) Dynamic POV Composite 3D Video System
CN108629799B (en) Method and equipment for realizing augmented reality
US20010031067A1 (en) 2-D/3-D recognition and tracking algorithm for soccer application
CN111427452B (en) Tracking method of controller and VR system
KR20030002919A (en) realtime image implanting system for a live broadcast
KR20220140391A (en) Method and system for providing a content using a machine of virtual camera
KR100387901B1 (en) image tracking and insertion system using camera sensors
WO2021227082A1 (en) Method and device for positioning internet of things devices
JP7423251B2 (en) Information processing device, information processing method, and program
CN112991255A (en) Robot balance determination device and robot balance determination method
JP2005123823A (en) Distance information attaching apparatus, attached video image generating apparatus, attached video information generating method, and distance information attaching program
KR20210048928A (en) Method for determining location to implement virtual object and user equipment performing method
KR20210049527A (en) Method for receiving map information from map generating server and user equipment performing method
KR20210048798A (en) Method for determining pose of camera provided in user equipment and location calculation server performing method
CA3063007A1 (en) Human-aided geo-rectification of geospatial metadata in video using a graphical interface
KR20210051002A (en) Method and apparatus for estimating pose, computer-readable storage medium and computer program for controlling the holder device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee
R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20130325

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20140325

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee