KR101809613B1 - Method for modelling video of pitching-trace and server implementing the same - Google Patents

Method for modelling video of pitching-trace and server implementing the same Download PDF

Info

Publication number
KR101809613B1
KR101809613B1 KR1020160095236A KR20160095236A KR101809613B1 KR 101809613 B1 KR101809613 B1 KR 101809613B1 KR 1020160095236 A KR1020160095236 A KR 1020160095236A KR 20160095236 A KR20160095236 A KR 20160095236A KR 101809613 B1 KR101809613 B1 KR 101809613B1
Authority
KR
South Korea
Prior art keywords
image
locus
trajectory
helmet
server
Prior art date
Application number
KR1020160095236A
Other languages
Korean (ko)
Inventor
김회율
김중식
Original Assignee
주식회사 버추얼무브먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 버추얼무브먼트 filed Critical 주식회사 버추얼무브먼트
Priority to KR1020160095236A priority Critical patent/KR101809613B1/en
Application granted granted Critical
Publication of KR101809613B1 publication Critical patent/KR101809613B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/0002Training appliances or apparatus for special sports for baseball
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/0002Training appliances or apparatus for special sports for baseball
    • A63B2069/0004Training appliances or apparatus for special sports for baseball specially adapted for particular training aspects
    • A63B2069/0008Training appliances or apparatus for special sports for baseball specially adapted for particular training aspects for batting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

Disclosed are a method for modeling an image of a pitch trajectory based on a viewpoint of a hitter and a server implementing the same. A purpose of the present invention is to provide the method for modeling a 3D image which allows a user to watch the trajectory of a ball from the viewpoint of a hitter. According to various embodiments of the present invention, a server modeling the image of the pitch trajectory based on the viewpoint of the hitter comprises: a communication unit; a 3D pitch image generation unit receiving images, captured by a plurality of cameras in a field where the ball is thrown, through the communication unit and generating a 3D pitch image including a ball object and a background object based on the received images; a section setting unit classifying the 3D pitch image into a first trajectory image corresponding to a first section and a second trajectory image corresponding to a second section based on the viewpoint of the hitter in the field where the ball is thrown according to a time sequence; and a 3D pitch image processing unit processing the 3D pitching image so that the ball object and the background object of each trajectory image in the classified first and second trajectory images may be moved based on the viewpoint of the hitter.

Description

타자 시점의 투구궤적 영상을 모델링하는 방법 및 이를 운용하는 서버{METHOD FOR MODELLING VIDEO OF PITCHING-TRACE AND SERVER IMPLEMENTING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of modeling a pitching trajectory image of a batter's point of view,

본 발명의 다양한 실시예들은 타자 시점의 투구(pitching) 궤적 영상을 모델링하는 방법에 관한 것으로서, 보다 구체적으로 투구 연습 또는 투구 경기 과정에서 복수의 카메라 장치들을 이용하여 수집된 3차원 영상의 그래픽을 처리하는 방법에 관한 것이다.Various embodiments of the present invention are directed to a method of modeling a pitching trajectory image at the time of typing, and more particularly, to a method of modeling a pitching trajectory image at the time of a pitching exercise or a pitching process, .

투구 연습 또는 투구 경기(예: 야구)와 같은 경기를 중계하는 경우에, 중계방송 서버에서는 보통 먼저 실시간 경기영상을 중계하고, 차후 상기 중계된 실시간 경기영상을 가공한 다시보기 영상을 시청자에게 제공하고 있다. In the case of relaying a game such as a pitching practice or a pitching game (for example, baseball), the relay broadcasting server usually relays the real-time match image first, and then provides the replayed image to the viewer after processing the relay real- have.

이러한 다시보기 영상은 예컨대, 투수가 공을 던진 후 타자가 공을 치거나 포수가 공을 잡을 때까지의 구간에서 이루어지는 일련의 영상일 수 있으며, 카메라의 위치 또는 중계방송 기술 등에 따라 서로 다른 각도에서 슬로우 모션 등의 형태로 복수회로 재생되곤 한다.Such a replay image may be, for example, a series of images of a pitcher throwing a ball and then catching a ball or catching a ball, and may be a series of images from different angles depending on the position of the camera, Slow motion, or the like.

최근에는, 경기중에 이루어진 영상을 복수의 카메라를 이용하여 촬영한 후 3D 영상(예: 360도 영상)을 생성하여 시청자에게 제공하는 기술이 점차 도입되고 있는 실정이다. In recent years, techniques for creating 3D images (for example, 360-degree images) after taking images using a plurality of cameras and providing them to viewers are gradually being introduced.

한국 등록특허공보 제10-0969576호(2010.07.02)Korean Patent Registration No. 10-0969576 (July 2, 2010)

종래 투구 경기 등에서 제공되는 다시보기 영상이나 3D 영상에서는 단순히 빠르게 움직이는 오브젝트(예: 야구공 등)을 슬로우 모션 처리하거나, 오브젝트의 이동을 제한된 시점에서 제공하는 것에 그쳤는바, 시청자 입장에서는 현장의 긴장감과 생동감을 느끼기에 부족하다는 문제점이 있었다. BACKGROUND ART [0002] Conventionally, in a replay image or a 3D image provided in a conventional pitch game or the like, only a fast moving object (e.g., a baseball ball) is subjected to a slow motion process or the movement of an object is limited. There is a problem that it is insufficient to feel the vividness.

본 발명의 다양한 실시예는 전술한 문제점을 해결하기 위하여 안출된 것으로서, 타자의 시점에서 공의 궤적을 시청할 수 있도록 3D 영상을 모델링하는 방법을 제공함에 그 목적이 있다. It is an object of the present invention to provide a method of modeling a 3D image so as to view a trajectory of a ball at the time of a batter.

본 발명의 다양한 실시예에 따른 서버는 타자 시점의 투구궤적 영상을 모델링하는 서버로서, 통신부; 투구 현장에서 복수의 카메라 장치를 통해 촬영된 영상을 상기 통신부를 통해 수신하고, 수신된 영상을 기반으로 공 오브젝트와 배경 오브젝트를 포함하는 3D 투구영상을 생성하는 3D 투구영상 생성부; 상기 3D 투구영상을 상기 투구 현장의 타자가 바라보는 방향에서 시간 순서에 따라 제1 구간에 해당하는 제1 궤적 영상 및 제2 구간에 해당하는 제2 궤적 영상으로 분류하는 구간 설정부; 및 상기 분류된 제1 궤적 영상의 및 제2 궤적 영상내에서 각 궤적 영상의 공 오브젝트와 배경 오브젝트가 상기 타자의 시점을 기반으로 움직이도록 상기 3D 투구 영상을 가공하는 3D 투구영상 가공부를 포함할 수 있다.A server according to various embodiments of the present invention is a server for modeling a pitch trajectory image at the time of a batter, comprising: a communication unit; A 3D helper image generating unit receiving an image shot through a plurality of camera devices at a helmet field through the communication unit and generating a 3D helmet image including a ball object and a background object based on the received image; A segment setting unit for classifying the 3D helmet image into a first locus image corresponding to a first section and a second locus image corresponding to a second section in a time sequence in the direction in which the batter of the pitching site looks; And a 3D helmet image processing unit for processing the 3D helmet image so that a ball object and a background object of each trajectory image within the classified first and second trajectory images move based on the viewpoint of the batter have.

본 발명의 다양한 실시예에 따른 서버에서, 상기 3D 투구영상 가공부는 상기 제1 궤적 영상의 배경 오브젝트가 고정된 상태에서 상기 제1 궤적 영상의 공 오브젝트가 이동하도록 상기 제1 궤적 영상을 가공할 수 있다.In the server according to various embodiments of the present invention, the 3D helmet image processing unit may process the first locus image so that the blank object of the first locus image moves while the background object of the first locus image is fixed have.

본 발명의 다양한 실시예에 따른 서버에서, 상기 3D 투구영상 가공부는 상기 제1 궤적 영상의 배경 오브젝트의 특정 영역을 기준점으로 설정하고, 상기 제1 구간동안 상기 공 오브젝트가 상기 기준점에 대해 상기 제1 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제1 궤적 영상을 가공할 수 있다.In the server according to various embodiments of the present invention, the 3D helmet image processing unit sets a specific area of a background object of the first locus image as a reference point, and during the first interval, It is possible to process the first locus image so as to move in at least a part of the locus image.

본 발명의 다양한 실시예에 따른 서버에서, 상기 3D 투구영상 가공부는 상기 제2 궤적 영상의 공 오브젝트를 기준점으로 설정하고, 상기 기준점으로 설정된 공 오브젝트를 상기 제2 궤적 영상내의 소정 영역 내에 위치시키며, 상기 제2 궤적 영상의 배경 오브젝트가 상기 기준점으로 설정된 공 오브젝트에 대해 상기 제2 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제2 궤적 영상을 가공할 수 있다.In the server according to various embodiments of the present invention, the 3D helmet image processing unit sets a blank object of the second locus image as a reference point, locates a blank object set as the reference point within a predetermined region within the second locus image, The second locus image may be processed such that the background object of the second locus image moves in at least a part of the second locus image with respect to the blank object set as the reference point.

본 발명의 다양한 실시예에 따른 서버에서, 상기 서버는 영상 변형 처리부를 더 포함하고, 상기 영상 변형 처리부는, 상기 제2 궤적 영상이 슬로우 모션 구간으로 재생되도록 상기 제2 궤적 영상을 변형처리할 수 있다.In a server according to various embodiments of the present invention, the server may further include an image transformation processing unit, and the image transformation processing unit may transform the second locus image so that the second locus image is reproduced as a slow motion region have.

본 발명의 다양한 실시예에 따른 서버에서, 상기 영상 변형 처리부는, 상기 슬로우 모션 구간에서 상기 제2 궤적 영상의 공 오브젝트가 이동하는 가상의 궤적이 시각화되어 재생되도록 상기 제2 궤적 영상을 변형처리할 수 있다.In the server according to various embodiments of the present invention, the image transformation processing unit transforms the second locus image so that a virtual locus in which the blank object of the second locus image moves in the slow motion region is visualized and reproduced .

본 발명의 다양한 실시예에 따른 서버에서, 상기 3D 투구영상 가공부는, 상기 서버 또는 상기 서버와 통신 연결된 외부 장치를 통해 상기 타자와 관련된 신체 정보를 확인하고, 상기 확인된 신체 정보를 기반으로 상기 소정 영역을 결정할 수 있다.In the server according to various embodiments of the present invention, the 3D helmet image processing unit may check body information related to the other person through an external device communicatively connected to the server or the server, The area can be determined.

본 발명의 다양한 실시예에 따른 방법은 서버에서 타자 시점의 투구궤적 영상을 모델링하는 방법으로서, 투구 현장에서 복수의 카메라 장치를 통해 촬영된 영상을 기반으로 3D 투구영상을 생성하는 단계로서, 상기 3D 투구영상은 공 오브젝트 및 배경 오브젝트를 포함하는, 3D 투구영상을 생성하는 단계; 상기 3D 투구영상을 상기 투구 현장의 타자가 바라보는 방향에서 시간 순서에 따라 제1 구간에 해당하는 제1 궤적 영상 및 제2 구간에 해당하는 제2 궤적 영상으로 분류하는 단계; 및 상기 분류된 제1 궤적 영상 및 제2 궤적 영상내에서 각 궤적 영상의 공 오브젝트와 배경 오브젝트가 상기 타자의 시점을 기반으로 서로 다르게 움직이도록 상기 3D 투구 영상을 가공하는 단계를 포함할 수 있다.A method according to various embodiments of the present invention is a method of modeling a pitching trajectory image of a batter's viewpoint at a server, the method comprising: generating 3D pitching images based on an image photographed through a plurality of camera devices at a pitching field, Wherein the pitching image comprises a ball object and a background object; Classifying the 3D helmet image into a first locus image corresponding to a first section and a second locus image corresponding to a second section according to a time sequence in a direction in which the batter of the helmet field looks; And processing the 3D helmet image so that the ball object and the background object of each trajectory image in the classified first and second trajectory images move differently based on the viewpoint of the batter.

본 발명의 다양한 실시예에 따른 타자 시점의 투구궤적 영상을 모델링하는 방법에서, 상기 3D 투구 영상을 가공하는 단계는, 상기 제1 궤적 영상의 배경 오브젝트가 고정된 상태에서 상기 제1 궤적 영상의 공 오브젝트가 이동하도록 상기 제1 궤적 영상을 가공하는 단계를 포함할 수 있다.In the method of modeling a pitching trajectory image of a batter's viewpoint according to various embodiments of the present invention, the step of processing the 3D pitching image may include the step of, when the background object of the first trajectory image is fixed, And processing the first locus image so that the object moves.

본 발명의 다양한 실시예에 따른 타자 시점의 투구궤적 영상을 모델링하는 방법에서, 상기 3D 투구 영상을 가공하는 단계는, 상기 제2 궤적 영상의 공 오브젝트를 기준점으로 설정하는 단계; 상기 기준점으로 설정된 공 오브젝트를 상기 제2 궤적 영상의 소정 영역 내에 위치시키는 단계; 및 상기 제2 궤적 영상의 배경 오브젝트가 상기 기준점으로 설정된 공 오브젝트에 대해 상기 제2 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제2 궤적 영상을 가공하는 단계를 포함할 수 있다.In the method of modeling a pitching trajectory image of a batter's viewpoint according to various embodiments of the present invention, the step of processing the 3D pitching image may include: setting a ball object of the second trajectory image as a reference point; Positioning a ball object set as the reference point within a predetermined region of the second locus image; And processing the second locus image such that the background object of the second locus image moves in at least a part of the direction of the second locus image with respect to the blank object set as the reference point.

본 발명의 다양한 실시예에 따른 서버에서 3차원의 투구 영상을 복수의 구간으로 분류하고, 3D 투구 영상이 타자의 시점에서 재생되도록 각 구간에서의 영상 그래픽을 서로 다르게 처리함으로써, 긴장감있고 생생하게 공의 궤적을 시청하거나 다시보기 할 수 있다는 효과가 있다.In the server according to various embodiments of the present invention, the 3D pitch image is classified into a plurality of sections, and the 3D pitch image is reproduced at the view point of the batter, so that the image graphics in each section are processed differently, It is possible to view the trajectory or to view the trajectory again.

또한, 타자와 인접한 특정 구간에서 상기 투구 영상의 궤적을 특정 모션 처리하거나 시각화 처리를 함으로써, 시청자는 타자가 어떤 식으로 공을 주시하는가를 집중력 있게 시청할 수 있다는 효과가 있다.In addition, by performing a specific motion process or a visualization process on the trajectory of the pitching image in a specific section adjacent to the batter, the viewer has the effect of concentrating on how the batter watches the ball.

나아가, 타자의 사용자 정보(예: 선수의 키 또는 눈위치)를 고려하여 투구궤적 영상을 모델링함으로써, 보다 정확하게 타자 시점의 투구궤적 영상을 모델링할 수 있다는 효과가 있다. Furthermore, by modeling the pitching trajectory image in consideration of the user information of the batter (e.g., a player's key or eye position), it is possible to more accurately model the pitching trajectory image of the batter's point of view.

도 1은 본 발명의 다양한 실시예에 따른 투구궤적 영상 시스템의 개략도이다.
도 2는 본 발명의 다양한 실시예에 따른 서버의 구성도이다.
도 3은 본 발명의 다양한 실시예에 따른 서버에서 투구궤적 영상을 생성 및 가공하는 동작을 나타내는 순서도이다.
도 4 및 도 5는 투구궤적 영상을 가공하기 위해 투구 현장의 궤적을 2개의 구간으로 분류하는 동작을 나타내는 예시도이다.
도 6은 본 발명의 다양한 실시예에 따른 서버에서 제1 궤적 영상을 가공하는 동작을 나타내는 순서도이다.
도 7은 본 발명의 다양한 실시예에 따른 서버에서 제2 궤적 영상을 가공하는 동작을 나타내는 순서도이다.
도 8a 및 도 8b는 본 발명의 다양한 실시예에 따른 서버에서 타자의 시점에 따라 가공되는 3D 투구영상을 나타내는 예시도이다.
도 9는 본 발명의 다양한 실시예에 따른 서버에서 제2 궤적 영상을 변형처리하는 동작을 나타내는 순서도이다.
1 is a schematic diagram of a pitch trajectory imaging system in accordance with various embodiments of the present invention.
2 is a configuration diagram of a server according to various embodiments of the present invention.
3 is a flow diagram illustrating operations for generating and processing pitch trajectory images in a server in accordance with various embodiments of the present invention.
Figs. 4 and 5 are diagrams illustrating an operation of classifying the trajectory of the pitching site into two sections in order to process the pitching trajectory image.
6 is a flowchart illustrating an operation of processing a first locus image in a server according to various embodiments of the present invention.
7 is a flowchart illustrating an operation of processing a second locus image in a server according to various embodiments of the present invention.
FIGS. 8A and 8B are views illustrating an example of a 3D helmet image that is processed according to the viewpoint of a batter at a server according to various embodiments of the present invention. FIG.
9 is a flowchart showing an operation of transforming a second locus image in a server according to various embodiments of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described in detail below. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

이하, 첨부 도면을 참조하여 타자 시점의 투구궤적 영상을 모델링하는 방법 및 이를 운용하는 서버(200)에 대해 설명하도록 한다. Hereinafter, a method for modeling a pitch trajectory image at the time of a batter and a server 200 for operating the method will be described with reference to the accompanying drawings.

도 1은 본 발명의 다양한 실시예에 따른 투구궤적 영상 시스템(10)의 개략도이다.1 is a schematic diagram of a pitcher trajectory imaging system 10 in accordance with various embodiments of the present invention.

투구궤적 영상 시스템(10)은 적어도 하나의 카메라 장치(100_1 내지 100_N) 및 서버(200)를 포함할 수 있다. 도 1에서는 카메라 장치(100)와 서버(200)가 독립적 구성으로 도시되어 있으나 이에 한정하는 것은 아니다. 한정되지 않는 예로서, 투구궤적 영상 시스템(10)은 카메라 장치(100)와 서버(200)가 하나의 모듈 또는 시스템으로서 구성될 수 있다. 이 경우, 카메라 장치(100)와 서버(200)는 전기적으로 구성되는 내부적인 신호 전달 체계에 의해서 상호간 데이터를 송/수신할 수 있다.The pitcher trajectory image system 10 may include at least one camera apparatus 100_1 to 100_N and a server 200. [ 1, the camera device 100 and the server 200 are shown as independent components, but the present invention is not limited thereto. As a non-limiting example, the pitcher trajectory imaging system 10 may be configured as a module or system of the camera device 100 and the server 200. In this case, the camera device 100 and the server 200 can transmit / receive data mutually by an internal signal transmission system that is electrically configured.

카메라 장치(100)는 현실세계 3차원 공간의 오브젝트를 촬영 또는 촬상하여 2차원 평면에 투영(projection)하는 기능을 수행할 수 있다. 본 발명의 실시예에서 이러한 카메라 장치(100)로서 예컨대, 초고속 카메라가 사용될 수 있다. 다양한 실시예에 따르면, 카메라 장치(100)는 광학부, 이미지 센서 및 신호처리부를 포함할 수 있으나 이에 한정하는 것은 아니다.The camera apparatus 100 may perform a function of shooting or imaging an object in a real world three-dimensional space and projecting the object in a two-dimensional plane. As such a camera apparatus 100 in the embodiment of the present invention, for example, a high-speed camera may be used. According to various embodiments, the camera device 100 may include, but is not limited to, an optical portion, an image sensor, and a signal processing portion.

광학부는 mecha-shutter, 모터 및 액츄에이터에 의해 구동될 수 있으며, 상기 액츄에이터에 의해 주밍(zooming) 및 포커싱(focusing) 등의 동작을 수행할 수 있다. 이러한 광학부는 주변의 이미지를 촬상 또는 촬영할 수 있다.The optical unit may be driven by a mecha-shutter, a motor, and an actuator, and the actuator may perform operations such as zooming and focusing. Such an optical unit can capture or photograph an image of a surrounding area.

이미지 센서는 광학부에 의해 촬상 또는 촬영되는 이미지를 감지하여 전기적인 신호로 변환할 수 있다. 이러한 이미지 센서는 CMOS 또는 CCD 센서를 포함할 수 있다.The image sensor can detect an image captured or photographed by the optical unit and convert it into an electrical signal. Such an image sensor may include a CMOS or CCD sensor.

이미지 처리부는 카메라 장치에서 출력되는 프레임 이미지들을 버퍼링하며, 프리뷰 모드시에는 카메라 장치에서 출력되는 프레임 이미지를 표시이미지 크기로 스케일링처리할 수 있다. The image processing unit buffers the frame images output from the camera device, and scales the frame image output from the camera device to a display image size in the preview mode.

또한, 카메라 장치(100)는 수집된 영상 또는 이미지를 서버(200)로 전송할 수 있는 통신 모듈을 포함할 수 있다. 통신 모듈은 유선 통신(예: 단자 또는 커텍터 등) 또는 무선 통신(예: 블루투스, WIFI 등) 방식으로 구현될 수 있다. 뿐만 아니라, 카메라 장치(100)는 네트워크를 이용하여 서버(200)와 데이터 송수신할 수도 있다.In addition, the camera device 100 may include a communication module capable of transmitting the collected image or image to the server 200. [ The communication module may be implemented by a wired communication (e.g., a terminal or a connector) or a wireless communication (e.g., Bluetooth, WIFI, etc.). In addition, the camera device 100 may transmit and receive data to / from the server 200 using a network.

또한, 본 발명의 다양한 실시예에 따라 3차원 정보(예: 3차원 영상) 획득을 위해, 복수의 카메라 장치(100)들은 동일한 종류 및 스펙의 하드웨어/소프트웨어가 사용될 수 있으나 이에 한정하는 것은 아니다.Further, in order to acquire three-dimensional information (e.g., three-dimensional image) according to various embodiments of the present invention, the plurality of camera apparatuses 100 may use hardware / software of the same kind and specification, but is not limited thereto.

서버(200)는 적어도 하나의 카메라 장치(100)와 전기적으로 연결되거나 통신 연결되어 상기 카메라 장치(100)로부터 영상 또는 이미지를 수신하고, 수신된 정보를 기반으로 3D 투구영상 생성, 가공 및 변형처리 기능을 수행하고 처리하는 전자 장치 또는 프로그램이다. 이러한 서버(200)의 구체적인 구성은 이어지는 도 2를 통해 구체적으로 설명하도록 한다.The server 200 electrically connects or communicates with at least one camera device 100 to receive an image or an image from the camera device 100 and generate 3D pitch image based on the received information, An electronic device or a program that performs and processes functions. The specific configuration of the server 200 will be described later in detail with reference to FIG.

도 2는 본 발명의 다양한 실시예에 따른 서버(200)의 구성도이다. 2 is a block diagram of a server 200 according to various embodiments of the present invention.

다양한 실시예에 따르면, 서버(200)는 통신부(210), 제어부(220), 3D 투구영상 생성부(221), 구간 설정부(223), 3D 투구영상 가공부(225), 영상 변형 처리부(227) 및 저장부(230)를 포함할 수 있다. 한정되지 않는 실시예로서, 서버(200)는 도 2의 구성요소들 중 적어도 일부를 생략하거나 추가적인 구성요소를 더 구비할 수 있다.According to various embodiments, the server 200 includes a communication unit 210, a control unit 220, a 3D pitching image generating unit 221, a interval setting unit 223, a 3D pitching image processing unit 225, 227, and a storage unit 230. As a non-limiting embodiment, the server 200 may omit at least some of the components of FIG. 2 or may further comprise additional components.

통신부(210)는 카메라 장치(100)와 서버(200)간의 통신을 연결할 수 있다. 예를 들면, 상기 통신부(210)는 무선 통신 또는 유선 통신을 통해서 네트워크(300)에 연결되어 카메라 장치(100)로부터 동적 오브젝트(예: 투구 연습 또는 경기에서 사용되는 공 등)가 포함된 영상 정보를 수신할 수 있다. 한정되지 않는 예로서, 서버(200)와 카메라 장치(100)가 하나의 모듈로 구성되는 경우, 통신부(210)는 구성요소들 간의 통신을 전달하는 회로(예: 버스)로 구현될 수 있다.The communication unit 210 may connect the communication between the camera device 100 and the server 200. [ For example, the communication unit 210 may be connected to the network 300 through wireless communication or wired communication, and may receive image information including dynamic objects (e.g., pitching exercises or balls used in games) from the camera apparatus 100 Lt; / RTI > As a non-limiting example, when the server 200 and the camera apparatus 100 are configured as a single module, the communication unit 210 may be implemented with a circuit (e.g., a bus) that communicates communication among the components.

또한, 통신부(210)는 제어부(220)의 제어 하에 서버(200)에서 생성, 가공 및 변형처리된 3D 투구영상을 방송중계 서버와 같은 외부 장치로 전송할 수 있다.The communication unit 210 may transmit the 3D helmet image generated, processed and transformed by the server 200 to an external device such as a broadcast relay server under the control of the control unit 220. [

제어부(220)는 서버(200)의 전원공급 제어 등과 같은 전반적인 동작 및 서버(200)의 내부 구성 간의 신호 흐름을 제어하고 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 제어부(220)는 적어도 하나의 프로세서를 포함할 수 있고, 이러한 프로세서는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. The control unit 220 may perform a data processing function for controlling the signal flow between the overall operation such as the power supply control of the server 200 and the internal configuration of the server 200 and for processing the data. The control unit 220 may include at least one processor and may be a central processing unit (CPU), an application processor (AP), or a communication processor (CP) ≪ / RTI >

3D 투구영상 생성부(221)는 적어도 하나의 카메라 장치(100)로부터 투구 현장에서 촬영되는 영상 정보를 각각 수신할 수 있고, 수신된 영상 정보를 기반으로 3D 투구영상을 생성할 수 있다. The 3D helmet image generating unit 221 can receive the image information photographed at the helmet scene from at least one camera apparatus 100 and can generate the 3D helmet image based on the received image information.

여기서, 영상 정보는 카메라 장치(100)에서 촬상 또는 촬영된 정지 영상(예: 이미지) 또는 동영상일 수 있고, 이러한 영상 정보는 투구 연습과 같은 현장에서 투수에 의해 던져진 공의 움직임을 포함할 수 있다. Here, the image information may be a still image (for example, an image) or a moving image captured or photographed by the camera apparatus 100, and the image information may include movement of a ball thrown by a pitcher in a field such as a pitching practice .

또한, 3D 투구영상은 상기 영상 정보를 기반으로 3D 투구영상 생성부(221)에서 생성한 3차원의 영상 컨텐츠일 수 있다. 다양한 실시예에 따르면, 3D 투구영상은 공(ball) 오브젝트와 배경 오브젝트를 포함할 수 있다. 공 오브젝트는 예컨대, 3D 투구영상에 포함된 공(예: 야구공)의 영상 객체 또는 이미지일 수 있으며, 배경 오브젝트는 3D 투구영상에서 공 오브젝트를 제외한 영상 객체 또는 이미지일 수 있다.In addition, the 3D pitching image may be 3D image content generated by the 3D pitching image generating unit 221 based on the image information. According to various embodiments, the 3D helper image may include a ball object and a background object. The ball object may be, for example, a video object or an image of a ball (e.g., a baseball) included in the 3D helmet image, and the background object may be a video object or image except a blank object in the 3D helmet image.

3D 투구영상을 생성하는 과정에서, 투수에 의해 던져진 공은 동적 오브젝트로서 카메라 파라미터(예: 카메라간 거리 정보) 설정 시 이용될 수 있으나 이에 한정하는 것은 아니다. 3D 투구영상 생성부(221)는 각 카메라 장치(100)로부터 수신된 영상 정보, 투구 현장의 패턴 및 공지의 3차원 영상 변환식을 이용하여 3D 투구영상을 생성할 수도 있다.In the process of generating a 3D helmet image, a ball thrown by a pitcher may be used as a dynamic object in setting a camera parameter (e.g., distance information between cameras), but is not limited thereto. The 3D helmet image generating unit 221 may generate the 3D helper image using the image information received from each camera device 100, the pattern of the helmet field, and a known three-dimensional image conversion formula.

예를 들어, 야구장과 같은 투구 현장에서 복수의 카메라 장치(100)는 미리 설정된 촬영 각도를 가지고 상호간 소정 간격으로 이격되어 배치될 수 있다. 그리고, 카메라 장치(100)는 투수가 공을 던진 후 타자가 공을 치기까지 또는 포수가 공을 잡기까지의 투구 과정을 촬영하여 투구 영상을 생성할 수 있고, 생성된 투구 영상을 서버(200)로 전송할 수 있다. 그러면, 3D 투구영상 생성부(221)는 카메라 장치(100)에서 촬영된 영상을 2차원의 좌표로 투영시키고, 촬영된 각각의 2차원 이미지, 월드 좌표계(World coordinate system) 및 카메라 파라미터(예: 카메라 장치간의 거리)를 이용하여 3차원 영상인 3D 투구영상을 생성할 수 있다. For example, in a field of pitching such as a ballpark, a plurality of camera apparatuses 100 may be spaced apart from each other by a preset shooting angle. The camera device 100 can generate a pitching image by shooting a pitching process until the pitcher hits the ball and the batter hits the ball or until the catcher catches the ball and outputs the generated pitching image to the server 200. [ Lt; / RTI > Then, the 3D helmet image generating unit 221 projects the image photographed by the camera apparatus 100 in two-dimensional coordinates, and displays each two-dimensional image, a world coordinate system and camera parameters (for example, Distance between the camera devices) can be used to generate a 3D helmet image, which is a 3D image.

3D 투구영상 생성부(221)는 상기와 같이 생성된 3D 투구영상을 제어부(220), 구간 설정부(223), 3D 투구영상 가공부(225) 또는 저장부(230)로 전달할 수 있다.The 3D pitching image generating unit 221 may transmit the 3D pitching image generated as described above to the control unit 220, the interval setting unit 223, the 3D pitching image processing unit 225, or the storage unit 230.

다음으로, 구간 설정부(223)는 3D 투구영상을 시간 순서에 따라 복수의 구간으로 분류하거나 설정할 수 있다. 예를 들어, 구간 설정부(223)는 3D 투구영상을 시간 순서에 따라 제1 구간 및 제2 구간으로 설정할 수 있다. 이러한 제1 구간 및 제2 구간은 투구 영상을 시청자가 타자의 시점에서 바라보는 것과 같은 느낌으로 시청할 수 있도록 구분되는 구간일 수 있다. Next, the interval setting unit 223 can classify or set the 3D pitching images into a plurality of intervals according to the time sequence. For example, the interval setting unit 223 may set the 3D pitching image as a first interval and a second interval according to a time sequence. The first section and the second section may be sections that are divided so that the viewer can view the pitching image with the same feeling as the viewer sees from the viewpoint of the batter.

이러한 구간 설정의 예시를 위해 도 4 및 도 5를 참조하여 설명하도록 한다. 도 4 및 도 5는 투구궤적 영상을 가공하기 위해 투구 현장의 궤적을 2개의 구간으로 분류하는 동작을 나타내는 예시도이다. An example of such interval setting will be described with reference to FIGS. 4 and 5. FIG. Figs. 4 and 5 are diagrams illustrating an operation of classifying the trajectory of the pitching site into two sections in order to process the pitching trajectory image.

도 4 및 도 5를 참조하면, 투구 현장에서 투수가 공을 던지는 경우, 타자의 시점에서는 초반 소정 시간까지는 공의 변화가 미미하기 때문에 전체적인 공의 진행을 바라보게 된다. 이후, 공이 타자에 근접하게 되는 경우, 타자는 공을 타격해야 하기 때문에 시선이 공에 집중하게 되어 타자의 자세와 얼굴의 시선이 다소 크게 변화된다. 특히, 이러한 타자의 자세와 얼굴의 시선 변화는 커브볼과 같이 움직임의 변화가 큰 투구일 경우 보다 크게 변경될 수 있다.Referring to FIGS. 4 and 5, when a pitcher throws a pitch at a pitching position, the pitch of the pitcher is not changed until the predetermined time, so that the pitch of the pitcher is watched. Then, if the ball gets closer to the batter, the batter has to hit the ball, so the line of sight focuses on the ball, and the attitude of the batter and the line of sight of the face change somewhat. Particularly, the change of the attitude of the batter and the line of sight of the face can be largely changed as compared with the case of a change of movement such as a curveball.

따라서, 구간 설정부(223)는 상기와 같은 목적에 기반하여 소정의 조건을 기반으로 3D 투구영상을 적어도 2개의 구간으로 분류할 수 있다. 이러한 소정의 조건은 예컨대, 3D 투구영상에서 제1 구간과 제2 구간을 구분하는 분기점의 시간 정보 또는 재생 구간 정보일 수 있다. Accordingly, the interval setting unit 223 can classify the 3D helmet image into at least two intervals based on the predetermined condition based on the above-described object. This predetermined condition may be, for example, time information of a break point or play period information for distinguishing the first section and the second section in the 3D helmet image.

한정되지 않는 실시예에 따르면, 상기와 같은 분기점의 시간 정보 또는 재생 구간 정보는 누적된 통계 데이터, 미리 설정된 정책 또는 기계 학습에 의해 설정될 수 있으나 이에 한정하는 것은 아니다. According to a non-limiting embodiment, the time information or the playback period information of the above-mentioned turning point may be set by accumulated statistical data, a predetermined policy or machine learning, but is not limited thereto.

또한, 몇몇 실시예에 따르면, 구간 설정부(223)는 3D 투구영상 생성부(221)에서 생성된 3D 투구영상을 제1 구간에 해당하는 제1 궤적 영상과 제2 구간에 해당하는 제2 궤적 영상으로 분류할 수 있다. 이 경우, 구간 설정부는 3D 투구영상을 타자가 바라보는 방향으로 재생 또는 출력되도록 구성(예: 3D 투구영상의 회전 또는 구도 변화 등)할 수 있다.According to some embodiments, the interval setting unit 223 may set the 3D pitching image generated by the 3D pitching image generating unit 221 to a first locus image corresponding to the first region and a second locus image corresponding to the second region, It can be classified into images. In this case, the interval setting unit may be configured to reproduce or output the 3D helmet image in the direction in which the batter watches (e.g., rotate or change the composition of the 3D helmet image).

다시 도 2를 참조하면, 3D 투구영상 가공부(225)는 분류된 궤적 영상내에서 각 궤적 영상의 공 오브젝트와 배경 오브젝트가 타자의 시점을 기반으로 움직이도록 3D 투구 영상을 가공할 수 있다. 이러한 가공 동작의 구체적인 내용은 도 6 내지 도 9를 통해 후술하도록 한다. 3D 투구영상 가공부(225)는 가공된 3D 투구영상을 제어부(220), 영상 변형 처리부(227) 또는 저장부(230)로 전달할 수 있다.Referring again to FIG. 2, the 3D helmet image processing unit 225 may process the 3D helmet image so that the ball object and the background object of each trajectory image move in the classified trajectory image based on the viewpoint of the batter. Details of such a machining operation will be described later with reference to FIGS. 6 to 9. FIG. The 3D helmet image processing unit 225 can transmit the processed 3D helmet image to the control unit 220, the image transformation processing unit 227, or the storage unit 230.

다음으로, 영상 변형 처리부(227)는 가공된 3D 투구영상을 변형처리하는 기능을 수행할 수 있다. 다양한 실시예에 따르면, 영상 변형 처리부(227)는 제2 궤적 영상을 슬로우 모션 구간으로 처리할 수 있고, 해당 슬로우 모션 구간에서 공 오브젝트가 이동하는 가상의 궤적을 시각화 처리할 수 있다. 그리고, 영상 변형 처리부(227)는 변형처리된 3D 투구영상을 제어부(223) 또는 저장부(230)에 전달할 수 있다.Next, the image transformation processing unit 227 can perform transformation processing of the processed 3D pitch image. According to various embodiments, the image transformation processing unit 227 can process the second locus image as a slow motion region, and can visualize a virtual locus of the ball object moving in the slow motion region. The image transformation processing unit 227 can transmit the deformed 3D pitch image to the control unit 223 or the storage unit 230.

한편, 도시되어 있지 않지만, 서버(200)는 동기화부를 더 포함할 수 있다. 이러한 동기화부는 3D 투구영상을 생성하기 위해, 각 카메라 장치(100)로부터 수신된 투구 관련 영상 정보를 동기화할 수 있다. 다만, 본 발명의 다양한 실시예가 이미 동기화가 된 상태를 전제하는 경우에는 동기화부(223)는 비활성화되거나 도 4에서 생략될 수도 있다. On the other hand, although not shown, the server 200 may further include a synchronization unit. This synchronization unit can synchronize the pitching-related image information received from each camera apparatus 100 to generate a 3D pitching image. However, if various embodiments of the present invention assume a state in which synchronization is already performed, the synchronization unit 223 may be inactivated or omitted in FIG.

저장부(230)는 제어부(220), 서버(200) 또는 투구궤적 영상 시스템(10)의 다른 구성요소들로부터 수신되거나 생성된 데이터를 저장할 수 있다. 저장부(230)는 예를 들어, 메모리(memory), 캐시(cash), 버퍼(buffer) 등을 포함할 수 있으며, 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다. The storage unit 230 may store data received or generated from the control unit 220, the server 200, or other components of the pitch trajectory imaging system 10. The storage unit 230 may include, for example, a memory, a cache, a buffer, and the like, and may be composed of software, firmware, hardware, or a combination of at least two of them.

다양한 실시예에 따르면, 저장부(230)는 카메라 장치 DB(231), 영상 DB(233) 및 사용자 DB(235)를 포함할 수 있다. 이러한 카메라 장치 DB(231), 영상 DB(233) 및 파라미터 DB(235)는 저장부(230)상에서 구분되는 것으로 도시되어 있으나, 이에 한정하지 않으며, 하나의 모듈로서 구성될 수도 있다.According to various embodiments, the storage unit 230 may include a camera device DB 231, an image DB 233, and a user DB 235. The camera device DB 231, the image DB 233, and the parameter DB 235 are shown as being separated on the storage unit 230, but the present invention is not limited thereto and may be configured as one module.

카메라 장치 DB(231)는 카메라 장치(100)와 관련된 하드웨어 정보, 소프트웨어 정보 및 각 카메라 장치(100)의 식별 정보를 포함할 수 있다. 이러한 하드웨어 정보, 소프트웨어 정보 및 식별 정보는 3차원 정보 획득 시스템(10)의 구현 시 저장되거나 임의의 시점에서 카메라 장치(100)의 변경 또는 추가에 의해 업데이트될 수 있다. The camera device DB 231 may include hardware information related to the camera device 100, software information, and identification information of each camera device 100. Such hardware information, software information, and identification information may be stored in the implementation of the three-dimensional information obtaining system 10 or may be updated by changing or adding the camera device 100 at any time.

영상 DB(233)는 카메라 장치(100)로부터 수신된 영상 정보를 포함할 수 있다. 예를 들어, 영상 DB(233)에는 각 카메라 장치(100)로부터 수신된 영상 정보가 특정 시점 또는 투구 동작 별로 분류되거나 매핑되어 저장될 수 있으나 이에 한정하는 것은 아니다. The image DB 233 may include image information received from the camera device 100. [ For example, the image information received from each camera device 100 may be classified or mapped and stored in the image DB 233 according to a specific viewpoint or a pitching operation. However, the present invention is not limited thereto.

또한, 영상 DB(233)는 3D 투구영상 생성부(221), 구간 설정부(223), 3D 투구영상 가공부(225) 및 영상 변형 처리부(227)에서 생성/가공/변형처리된 3D 투구영상 및 이와 관련된 메타데이터(예: 로그정보)를 저장할 수 있다. The image DB 233 includes a 3D helper image generated by the 3D helper image generation unit 221, the section setting unit 223, the 3D helper image processing unit 225, and the image transformation processing unit 227, And associated metadata (e.g., log information).

사용자 DB(235)는 선수(예: 투수, 타자 등)들과 관련된 신체 정보를 저장할 수 있다. 신체 정보는 예컨대, 선수의 신장(키), 몸무게, 바닥면으로부터 눈까지의 거리 정보 등을 포함할 수 있으나 이에 한정하는 것은 아니다. The user DB 235 may store body information related to a player (e.g., pitcher, batter, etc.). The body information may include, but is not limited to, the height (height) of the athlete, the weight, distance information from the floor to the eyes, and the like.

다양한 실시예에 따르면, 사용자 DB(235)는 3D 투구영상 가공부(225)의 요청에 응답하여 선수들의 신체 정보를 3D 투구영상 가공부(225)에 제공할 수 있다.According to various embodiments, the user DB 235 may provide the body information of the athletes to the 3D pitching image processing unit 225 in response to a request from the 3D pitching image processing unit 225.

전술한 3D 투구영상 생성부(221), 구간 설정부(223), 3D 투구영상 가공부(225) 및 영상 변형 처리부(227)는 서버(200)의 제어부(220)의 각 기능을 논리적으로 또는 기능적으로 분류한 구성일 수 있다. 따라서, 3D 투구영상 생성부(221), 구간 설정부(223), 3D 투구영상 가공부(225) 및 영상 변형 처리부(227)와 제어부(220)는 하나의 모듈로서 구성될 수도 있다.The 3D pitch image generation unit 221, the interval setting unit 223, the 3D pitch image processing unit 225 and the image transformation processing unit 227 logically or functionally perform the respective functions of the control unit 220 of the server 200 It may be a functionally classified configuration. Accordingly, the 3D pitch image generation unit 221, the interval setting unit 223, the 3D pitch image processing unit 225, the image transformation processing unit 227, and the control unit 220 may be configured as one module.

또한, 3D 투구영상 생성부(221), 구간 설정부(223), 3D 투구영상 가공부(225), 영상 변형 처리부(227) 및 제어부(220)의 기능은 저장부(230, 예: 메모리)에 저장된 루틴, 명령어(instruction) 또는 프로그램의 형태로 구현될 수 있다. The functions of the 3D pitch image generation unit 221, the segment setting unit 223, the 3D pitch image processing unit 225, the image transformation processing unit 227, and the control unit 220 are stored in the storage unit 230 (e.g., memory) In the form of a routine, an instruction, or a program stored in memory.

또한, 이러한 루틴, 명령어 또는 프로그램은 컴퓨터로 읽을 수 있는 저장매체에도 저장될 수 있다. 이러한 저장매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 저장매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 플래쉬 메모리 장치 등이 포함될 수 있다. 또한, 이러한 저장매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. In addition, such routines, instructions or programs may also be stored on a computer readable storage medium. Such a storage medium includes all kinds of storage media in which programs and data are stored so that they can be read by a computer system. Examples include ROMs (Read Only Memory), Random Access Memory, CD (Compact Disk), DVD (Digital Video Disk) -ROM, magnetic tape, floppy disk, optical data storage device, . Such storage medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

도 3은 본 발명의 다양한 실시예에 따른 서버(200)에서 투구궤적 영상을 생성 및 가공하는 동작을 나타내는 순서도이다.FIG. 3 is a flowchart illustrating an operation of generating and processing a pitch image in the server 200 according to various embodiments of the present invention.

먼저, S310 단계에서, 서버(200)는 복수의 카메라 장치로부터 투구 현장의 촬영영상을 수신할 수 있다. 이를 위해, 야구장과 같은 투구 현장에 배치된 복수의 카메라 장치(100)는 소정의 속도로 이동하는 공을 실시간으로, 주기적으로 또는 미리 설정된 시간 동안 촬영할 수 있고, 촬영에 의해 생성된 영상 정보를 서버(200)로 전송할 수 있다.First, in step S310, the server 200 can receive photographed images of a pitching scene from a plurality of camera apparatuses. To this end, a plurality of camera apparatuses 100 arranged at a pitching site such as a ball park can shoot a ball moving at a predetermined speed in real time, periodically or for a predetermined time, (200).

다음으로, S330 단계에서, 서버(200)는 3D 투구영상을 생성할 수 있다. 이러한 투구영상은 공(ball) 오브젝트와 배경 오브젝트를 포함할 수 있다.Next, in step S330, the server 200 may generate a 3D pitching image. Such a pitching image may include a ball object and a background object.

다음으로, S350 단계에서, 서버(200)는 상기 투구 현장의 타자가 바라보는 방향에서 시간 순서에 따라 제1 구간에 해당하는 제1 궤적 영상 및 제2 구간에 해당하는 제2 궤적 영상으로 분류할 수 있다.Next, in step S350, the server 200 classifies the first trajectory image corresponding to the first section and the second trajectory image corresponding to the second section according to the time sequence in the direction in which the batter of the pitching site looks .

다음으로, S370 단계에서, 서버(200)는 타자의 시점 및 분류된 영상을 기반으로 3D 투구영상을 가공할 수 있다. 구체적으로, 서버(200)는 상기 분류된 제1 궤적 영상의 및 제2 궤적 영상내에서 각 궤적 영상의 공 오브젝트와 배경 오브젝트가 상기 타자의 시점을 기반으로 움직이도록 상기 3D 투구 영상을 가공할 수 있다.Next, in step S370, the server 200 may process the 3D helmet image based on the viewpoint of the batter and the classified image. Specifically, the server 200 can process the 3D helmet image so that the ball object and the background object of each trajectory image in the classified first trajectory image and the second trajectory image move based on the viewpoint of the batter have.

상기와 같이 3차원의 투구 영상을 복수의 구간으로 분류하고, 3D 투구 영상이 타자의 시점에서 재생되도록 각 구간에서의 영상 그래픽을 서로 다르게 처리함으로써, 긴장감있고 생생하게 공의 궤적을 시청하거나 다시보기 할 수 있다는 효과가 있다.As described above, the three-dimensional pitch image is classified into a plurality of sections, and the 3D image of the pitch is reproduced at the viewpoint of the batter, so that the image graphics in each section are processed differently, Can be effective.

도 6은 본 발명의 다양한 실시예에 따른 서버(200)에서 제1 궤적 영상을 가공하는 동작을 나타내는 순서도이다. 이러한 도 6의 각 단계들은 전술한 도 3의 S370 단계의 다양한 실시예일 수 있다. 또한, 제1 궤적 영상은 투수가 공을 던진 시점부터 제2 궤적 영상에 해당하는 구간 전까지의 투구영상에 해당할 수 있다.6 is a flowchart illustrating an operation of processing a first locus image in the server 200 according to various embodiments of the present invention. Each of the steps of FIG. 6 may be various embodiments of step S370 of FIG. 3 described above. In addition, the first locus image may correspond to the pitch image from the time when the pitcher throws the ball to the region corresponding to the second locus image.

먼저, S610 단계에서, 서버(200)는 제1 궤적 영상의 배경 오브젝트를 고정시킬 수 있다. 구체적으로, 서버(200)는 재생되거나 출력될 3D 투구 영상에서 배경 오브젝트가 움직이지 않는 것으로 출력되도록 제1 궤적 영상의 시점을 변경(예: 영상을 회전)시킬 수 있다. First, in step S610, the server 200 may fix a background object of the first locus image. Specifically, the server 200 may change the viewpoint of the first locus image (e.g., rotate the image) so that the background object does not move in the 3D helper image to be reproduced or output.

그리고, S630 단계에서, 서버(200)는 제1 궤적 영상의 배경 오브젝트를 기준점으로 설정할 수 있고, S650 단계에서 제1 궤적 영상의 공 오브젝트가 이동하도록 제1 궤적 영상을 가공할 수 있다. 즉, 서버(200)는 시청자와 타자의 시점을 동기화시킬 수 있는 구도로 제1 궤적 영상의 배경 오브젝트를 고정한 상태에서, 배경 오브젝트의 적어도 일부 영역(예: 특정 포인트)를 기준점으로 설정하고, 기준점에 대해 상대적으로 이동하는 공 오브젝트가 영상에서 출력되도록 제1 궤적 영상을 가공할 수 있다.In step S630, the server 200 may set the background object of the first locus image as a reference point. In step S650, the server 200 may process the first locus image so that the blank object of the first locus image moves. That is, the server 200 sets at least a part of the background object (for example, a specific point) as a reference point in a state in which the background object of the first locus image is fixed as a composition that can synchronize the viewers and the viewers' It is possible to process the first locus image so that a relatively moving ball object is output from the image.

이에 의해, 시청자 시점 및 타자 시점 기준으로 가공(예: 구도 변화)된 제1 궤적 영상에서는 배경 오브젝트가 고정되어 있는 상태에서, 마치 공만 다소 움직이는 것처럼 보이도록 가공될 수 있다. 이러한 가공 동작은 로우 데이터인 3D 투구영상의 실질적인 궤적의 내용을 변경하는 것은 아니며, 시청자와 타자의 시점이 일치하는 것과 같은 시각 효과를 보이도록 해당 구간에서 3D 투구영상의 위치 이동 또는 회전과 같은 구도 변경을 가하는 모델링 작업을 의미할 수 있다.Thus, in the first locus image processed (e.g., in a compositional change) based on the viewer's viewpoint and the batter's viewpoint, the background object can be processed so as to appear to move slightly in a state in which the background object is fixed. Such a machining operation does not change the content of the actual trajectory of the 3D helmet image which is the raw data, but it does not change the position of the 3D helmet image in the corresponding section so as to show the same visual effect as that of the viewers and the viewers, This can mean a modeling operation that makes changes.

상기와 같은 제1 궤적 영상의 가공 작업을 통해, 투수에 의해 던져진 초기의 공 궤적에서는 타자가 공을 기준으로 전방을 응시하기 보다는, 전체적인 배경에서 공의 진행 경로를 대략적으로 응시하는 실전 정보를 시청자가 공유할 수 있다는 효과가 도출될 수 있다. Through the processing of the first trajectory image as described above, rather than gazing forward with respect to the ball in the initial trajectory of the ball thrown by the pitcher, the actual information about the path of the ball roughly gazing at the overall background, Can be shared.

도 7은 본 발명의 다양한 실시예에 따른 서버(200)에서 제2 궤적 영상을 가공하는 동작을 나타내는 순서도이다. 이러한 도 7의 각 단계들은 전술한 도 3의 S370 단계의 다양한 실시예일 수 있다. 제2 궤적 영상은 제2 궤적 영상 이후부터 타자가 공을 타격하거나 포수가 공을 캐치하기까지의 구간에 해당하는 투구영상일 수 있다. 또한, 도 7의 설명의 편의를 위해, 도 8a와 도 8b의 내용을 참조하여 설명하도록 한다. 도 8a 및 도 8b는 본 발명의 다양한 실시예에 따른 서버(200)에서 타자의 시점에 따라 가공되는 3D 투구영상을 나타내는 예시도이다.7 is a flowchart illustrating an operation of processing a second locus image in the server 200 according to various embodiments of the present invention. Each of the steps of FIG. 7 may be various embodiments of step S370 of FIG. 3 described above. The second trajectory image may be a pitch image corresponding to a section from the second trajectory image until the batter hits the ball or the catcher catches the ball. For convenience of explanation in Fig. 7, description will be made with reference to the contents of Figs. 8A and 8B. FIGS. 8A and 8B are views illustrating an example of a 3D helmet image processed according to the viewpoint of the batter in the server 200 according to various embodiments of the present invention.

서버(200)는 S710 단계에서 제2 궤적 영상의 공 오브젝트를 기준점으로 설정할 수 있고, S730 단계에서 공 오브젝트를 제2 궤적 영상의 소정 영역 내에 배치할 수 있다. 그리고, S750 단계에서 서버(200)는 배경 오브젝트가 공 오브젝트를 기준으로 움직이도록 제2 궤적 영상을 가공할 수 있다.The server 200 can set the blank object of the second locus image as a reference point in step S710, and place the blank object within the predetermined area of the second locus image in step S730. In step S750, the server 200 may process the second locus image so that the background object moves on the basis of the blank object.

제2 구간에서 타자는 공을 타격하기 위해 제1 구간에 비해 시선을 상대적으로 많이 변경하므로, 제2 궤적 영상은 공 오브젝트와 배경 오브젝트가 모두 이동하는 형태의 시점으로 가공될 수 있다. 이 경우, 타자는 공을 타격하기 위해 상대적으로 배경보다는 공에 초점을 맞추게 된다. 이러한 타자 입장의 시점을 반영하기 위해, 서버(200)는 제2 궤적 영상의 소정 영역인 기준 영역을 설정할 수 있고, 설정된 기준 영역에 공 오브젝트를 배치할 수 있다. The second trajectory image can be processed as a time point in which both the ball object and the background object move because the batter changes the line of sight relatively more than the first section in order to strike the ball in the second section. In this case, the batter will focus on the ball rather than the background to hit the ball. In order to reflect the viewpoint of the batter position, the server 200 can set a reference area, which is a predetermined area of the second locus image, and can arrange the blank object in the set reference area.

여기서, 몇몇 실시예에 따르면 서버(200)는 타자와 관련된 신체 정보를 기반으로 기준 영역을 설정할 수 있다. 예를 들어, 서버(200)는 타자의 신장, 바닥으로부터 눈까지의 거리 정보 등을 내부 데이터베이스 또는 외부 정보를 참조하여 기준 영역을 설정할 수 있다. 이에 의해, 타자들이 서로 다른 체격 조건을 가짐에 따라 투구를 바라보는 시점이 적절하게 반영되도록 할 수 있다.Here, according to some embodiments, the server 200 may set the reference region based on the body information related to the batter. For example, the server 200 can set the reference area by referring to the internal database or external information, such as the height of the batter, distance information from the bottom to the eyes, and the like. As a result, it is possible to appropriately reflect the viewpoint of the pitcher as the batter has different physique conditions.

그리고, 서버(200)는 기준점으로 설정된 공 오브젝트에 대해 상기 제2 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제2 궤적 영상을 가공할 수 있다. 이 경우, 공 오브젝트 또한 소정 영역 내에서 이동될 수 있으며, 이러한 공 오브젝트와 배경 오브젝트의 움직임은 타격 이벤트에 근접한 타자의 시점을 반영한 움직임일 수 있다.The server 200 may process the second locus image so that the second locus image moves in at least a part of the second locus image with respect to the blank object set as the reference point. In this case, the ball object may also be moved within a predetermined area, and the motion of the ball object and the background object may be a motion reflecting the viewpoint of the batter close to the batting event.

구체적인 예로서, 제2 구간내의 궤적 영상들 즉, 제2 궤적 영상들의 내용들이 도 8a 및 도 8b에서 도시된다. As a specific example, the contents of the locus images in the second section, that is, the second locus images, are shown in Figs. 8A and 8B.

도 8a에서는 제2 구간에서 타자의 시점(802)과 공 오브젝트(801)와의 거리가 L1인 투구현장(803_A) 도시된다. 이 경우, 해당 투구현장(803_A)을 반영한 제2 궤적 영상의 화면(805_A)은 공 오브젝트(801_A), 배경 오브젝트(809_A) 및 기준 영역(807)을 포함할 수 있다.In FIG. 8A, the pitching scene 803_A in which the distance between the viewpoint 802 of the batter and the ball object 801 in the second section is L1 is shown. In this case, the screen 805_A of the second locus image reflecting the pitching scene 803_A may include a blank object 801_A, a background object 809_A, and a reference area 807. [

이어지는 도 8b는 마찬가지로 제2 구간에서 타자의 시점(802)과 공 오브젝트(801)와의 거리가 L2인 투구현장(803_B)가 도시된다. 도시되는 바와 같이, 도 8b에서 타자의 시점(802)과 공 오브젝트(801)와의 거리(L2)는 도 8a의 거리(L1)보다 더 가까운 것을 확인할 수 있으며, 공 오브젝트(801)의 위치 또한 타자에서 아래로 떨어진 상태를 확인할 수 있다. 8B shows a pitching scene 803_B in which the distance between the viewpoint 802 of the batter and the ball object 801 in the second section is L2. As shown in FIG. 8B, it can be seen that the distance L2 between the viewpoint 802 of the batter and the ball object 801 is closer to the distance L1 of FIG. 8A, and the position of the ball object 801, And it can be confirmed that it has fallen downward.

또한, 이러한 투구현장(803_B)을 반영한 제2 궤적 영상의 화면(805_B)은 동일한 기준 영역(807)내에서 크기 및 위치가 변경된 공 오브젝트(801_B) 및 위치가 변화된 배경 오브젝트(809_B)를 포함할 수 있다.The screen 805_B of the second trajectory image reflecting the pitching scene 803_B includes a blank object 801_B whose size and position have been changed and a background object 809_B whose position has been changed within the same reference area 807 .

도 8a의 제2 궤적 영상의 화면(805_A)과 도 8b의 제2 궤적 영상의 화면(805_B)을 비교하면, 타자는 공이 점점 다가오면서 아래로 떨어짐에 따라, 해당 공에 연속적으로 시점 포인트를 맞추게 된다. 그러면, 타자 입장의 시각화면에서는 이동하는 공이 주로 시야 중앙과 같은 특정공간에 위치할 수 있다. 그리고, 공이 더욱 가까워짐에 따라 상기 시각화면에서 공의 크기가 점점 커지며, 타자가 고개를 숙임에 따라 주변 배경은 상대적으로 위로 올라가게 된다.8A and the screen 805_B of the second locus image of FIG. 8B, the batter moves downward as the ball gradually approaches, and then the point of view is continuously adjusted to the ball do. Then, on the visual screen of the batter position, the moving ball may be located in a specific space such as the center of the field of view. As the ball gets closer, the size of the ball increases on the visual screen, and the surrounding background rises relatively as the batter hits the head.

따라서, 서버(200)는 제2 궤적 영상 화면들(805A_805B)을 통해 이러한 타자의 시점을 반영하도록 2 궤적 영상을 가공할 수 있다. 전술한 제1 궤적 영상의 경우와 마찬가지로, 이러한 제2 궤적 영상의 가공 동작 또한 로우 데이터인 3D 투구영상의 실질적인 궤적의 내용을 변경하는 것은 아니며, 시청자와 타자의 시점이 일치하는 것과 같은 시각 효과를 보이도록 해당 구간에서 3D 투구영상의 위치 이동 또는 회전과 같은 구도 변경을 가하는 모델링 작업을 의미할 수 있다. Therefore, the server 200 can process the 2-trajectory image to reflect the viewpoint of the batter through the second trajectory image screens 805A_805B. As in the case of the first locus image described above, the processing operation of the second locus image does not change the content of the actual locus of the 3D helmet image, which is the low data, and does not change the visual effect This means modeling work that changes the composition such as position movement or rotation of the 3D helmet image in the corresponding section to be seen.

상기와 같은 제2 궤적 영상의 가공 작업을 통해, 투수에 의해 던져진 공이 타자에 근접하는 경우, 타자가 주변 배경을 응시하기 보다는 가까워지는 공에 최대한 포커스를 맞추는 타격실전 정보를 시청자가 공유할 수 있다는 효과가 도출될 수 있다.Through the processing of the second trajectory image as described above, when the ball thrown by the pitcher is close to the batter, the batter can share the batting practice information that focuses the ball as close as possible to the ball rather than gazing at the surrounding background, An effect can be obtained.

도 9는 본 발명의 다양한 실시예에 따른 서버(200)에서 제2 궤적 영상을 변형처리하는 동작을 나타내는 순서도이다. 다양한 실시예에 따르면, 이러한 도 7의 각 단계들은 전술한 도 7의 S750 단계의 다양한 실시예일 수 있다.9 is a flowchart showing an operation of transforming a second locus image in the server 200 according to various embodiments of the present invention. According to various embodiments, each of these steps of FIG. 7 may be various embodiments of step S750 of FIG. 7 described above.

몇몇 실시예에 따르면, S910 단계에서, 서버(200)는 제2 궤적 영상을 슬로우 모션 구간으로 변형처리할 수 있다. 예를 들어, 서버(200)는 제1 궤적 영상까지는 원래의 투구 속도로 영상을 재생할 수 있고, 제2 궤적 영상부터는 상기 제1 궤적 영상의 투구 속도보다 더 낮은 속도(예: 슬로우 모션)로 공 오브젝트와 배경 오브젝트가 움직이도록 변형처리할 수 있다.According to some embodiments, in step S910, the server 200 may transform the second locus image into a slow motion region. For example, the server 200 can reproduce an image at the original pitching speed up to the first locus image, and at a lower speed (e.g., slow motion) than the pitching speed of the first locus image from the second locus image. The object and the background object can be deformed to move.

몇몇 실시예에 따르면, S930 단계에서, 서버(200)는 제2 궤적 영상의 공 오브젝트가 이동하는 가상의 궤적을 시각화 처리할 수 있다. 예를 들어, 서버(200)는 제2 궤적 영상 중 공 오브젝트가 움직인 가상의 궤적을 UI 라인을 이용하여 시각화할 수 있다.According to some embodiments, in step S930, the server 200 may visualize a virtual trajectory in which a blank object of the second locus image moves. For example, the server 200 can visualize a virtual trajectory of a second trajectory image of a ball object using a UI line.

상기와 같은 실시예들에 의해, 타자와 인접한 특정 구간에서 상기 투구 영상의 궤적을 특정 모션 처리하거나 시각화 처리를 함으로써, 시청자는 타자가 어떤 식으로 공을 주시하는가를 집중력 있게 시청할 수 있다는 효과가 있다. According to the embodiments described above, the motion of the trajectory of the pitching image in a specific section adjacent to the batter is subjected to specific motion processing or visualization processing, so that the viewer has the effect of concentrating on how the batter watches the ball .

본 발명의 다양한 실시예에 사용된 용어 “모듈”또는 “~부”는, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈” 또는 “~부”는 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈” 또는“~부”는 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있고, 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈” 또는“~부”는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예에 따른 “모듈” 또는“~부”는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다. The term " module " or " part " as used in various embodiments of the present invention may mean a unit comprising one or a combination of two or more of, for example, hardware, software or firmware . &Quot; Module " or " to " may be used interchangeably with terms such as, for example, unit, logic, logical block, component or circuit, . The term " module " or " part " may be a minimum unit or a part of an integrally constructed part, or may be a minimum unit or a part thereof performing one or more functions. &Quot; Modules " or " parts " may be implemented mechanically or electronically. For example, a " module " or " part " in accordance with various embodiments of the present invention may be implemented as an application-specific integrated circuit (ASIC) chip, FPGAs (field- ) Or a programmable-logic device.

본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Modules or programming modules according to various embodiments of the present invention may include at least one or more of the elements described above, some of which may be omitted, or may further include other additional elements. Operations performed by modules, programming modules, or other components in accordance with various embodiments of the invention may be performed in a sequential, parallel, iterative, or heuristic manner. Also, some operations may be performed in a different order, omitted, or other operations may be added.

10: 투구궤적 영상 시스템 100: 카메라 장치
200: 서버
10: pitching trajectory image system 100: camera apparatus
200: Server

Claims (10)

타자 시점의 투구궤적 영상을 모델링하는 서버로서,
통신부;
투구 현장에서 복수의 카메라 장치를 통해 촬영된 영상을 상기 통신부를 통해 수신하고, 수신된 영상을 기반으로 공 오브젝트와 배경 오브젝트를 포함하는 3D 투구영상을 생성하는 3D 투구영상 생성부;
상기 3D 투구영상을 상기 투구 현장의 타자가 바라보는 방향에서 시간 순서에 따라 제1 구간에 해당하는 제1 궤적 영상 및 제2 구간에 해당하는 제2 궤적 영상으로 분류하는 구간 설정부; 및
상기 분류된 제1 궤적 영상 및 제2 궤적 영상 내에서 각 궤적 영상의 공 오브젝트와 배경 오브젝트가 상기 타자의 시점을 기반으로 움직이도록 상기 3D 투구영상을 가공하는 3D 투구영상 가공부;를 포함하되,
상기 3D 투구영상 가공부는
상기 제1 궤적영상의 배경 오브젝트를 고정한 상태에서, 배경 오브젝트의 적어도 일부 영역을 기준점으로 설정하고, 상기 제1 구간동안 상기 공 오브젝트가 상기 기준점으로 설정된 배경 오브젝트의 상기 영역에 대해 상기 제1 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제1 궤적 영상을 가공하고,
상기 제2 궤적 영상의 공 오브젝트를 기준점으로 설정하고, 상기 기준점으로 설정된 공 오브젝트를 상기 제2 궤적 영상내의 소정 영역 내에 위치시키며, 상기 제2 구간동안 상기 배경 오브젝트가 상기 기준점으로 설정된 공 오브젝트에 대해 상기 제2 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제2 궤적 영상을 가공하는 것을 특징으로 하는 서버.
A server for modeling a pitching trajectory image at a batter point,
A communication unit;
A 3D helper image generating unit receiving an image shot through a plurality of camera devices at a helmet field through the communication unit and generating a 3D helmet image including a ball object and a background object based on the received image;
A segment setting unit for classifying the 3D helmet image into a first locus image corresponding to a first section and a second locus image corresponding to a second section in a time sequence in the direction in which the batter of the pitching site looks; And
And a 3D helmet image processing unit for processing the 3D helmet image so that a ball object and a background object of each trajectory image within the classified first trajectory image and the second trajectory image move based on the viewpoint of the batter,
The 3D pitching image processing unit
Setting at least a part of the background object as a reference point in a state in which the background object of the first locus image is fixed and setting the first locus image for the region of the background object in which the blank object is set as the reference point during the first period Processing the first locus image so as to move in at least part of the direction of the first locus image,
Setting a blank object of the second locus image as a reference point and locating a blank object set as the reference point in a predetermined region in the second locus image and setting the background object as a reference point for the second region And to process the second locus image so as to move in at least a part of the second locus image.
삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 서버는 영상 변형 처리부를 더 포함하고,
상기 영상 변형 처리부는, 상기 제2 궤적 영상이 슬로우 모션 구간으로 재생되도록 상기 제2 궤적 영상을 변형처리하는 것을 특징으로 하는 서버.
The method according to claim 1,
Wherein the server further comprises an image transformation processing unit,
Wherein the image transformation processing unit transforms the second locus image so that the second locus image is reproduced as a slow motion region.
제 5항에 있어서,
상기 영상 변형 처리부는,
상기 슬로우 모션 구간에서 상기 제2 궤적 영상의 공 오브젝트가 이동하는 가상의 궤적이 시각화되어 재생되도록 상기 제2 궤적 영상을 변형처리하는 것을 특징으로 하는 서버.
6. The method of claim 5,
Wherein the image transformation processing unit comprises:
And transforms the second locus image so that a virtual locus in which the blank object of the second locus image moves is visualized and reproduced in the slow motion region.
제 4항에 있어서,
상기 3D 투구영상 가공부는,
상기 서버 또는 상기 서버와 통신 연결된 외부 장치를 통해 상기 타자와 관련된 신체 정보를 확인하고, 상기 확인된 신체 정보를 기반으로 상기 소정 영역을 결정하는 것을 특징으로 하는 서버.
5. The method of claim 4,
Wherein the 3D pitching image processing unit comprises:
Wherein the server confirms the body information related to the batter through the server or an external device connected to the server, and determines the predetermined area based on the checked body information.
서버에서 타자 시점의 투구궤적 영상을 모델링하는 방법으로서,
투구 현장에서 복수의 카메라 장치를 통해 촬영된 영상을 기반으로 3D 투구영상을 생성하는 단계로서, 상기 3D 투구영상은 공 오브젝트 및 배경 오브젝트를 포함하는, 3D 투구영상을 생성하는 단계;
상기 3D 투구영상을 상기 투구 현장의 타자가 바라보는 방향에서 시간 순서에 따라 제1 구간에 해당하는 제1 궤적 영상 및 제2 구간에 해당하는 제2 궤적 영상으로 분류하는 단계; 및
상기 분류된 제1 궤적 영상 및 제2 궤적 영상 내에서 각 궤적 영상의 공 오브젝트와 배경 오브젝트가 상기 타자의 시점을 기반으로 서로 다르게 움직이도록 상기 3D 투구영상을 가공하는 단계;를 포함하되,
상기 3D 투구영상을 가공하는 단계는,
상기 제1 궤적영상의 배경 오브젝트를 고정한 상태에서, 배경 오브젝트의 적어도 일부 영역을 기준점으로 설정하고, 상기 제1 구간동안 상기 공 오브젝트가 상기 기준점으로 설정된 배경 오브젝트의 상기 영역에 대해 상기 제1 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제1 궤적 영상을 가공하고,
상기 제2 궤적 영상의 공 오브젝트를 기준점으로 설정하고, 상기 기준점으로 설정된 공 오브젝트를 상기 제2 궤적 영상내의 소정 영역 내에 위치시키며, 상기 제2 구간동안 상기 배경 오브젝트가 상기 기준점으로 설정된 공 오브젝트에 대해 상기 제2 궤적 영상 내의 적어도 일부 방향으로 움직이도록 상기 제2 궤적 영상을 가공하는, 타자 시점의 투구궤적 영상을 모델링하는 방법.
A method of modeling a pitching trajectory image at a batter's time at a server,
Generating a 3D helmet image based on an image shot through a plurality of camera devices at a helmet field, the 3D helmet image including a ball object and a background object; generating a 3D helmet image;
Classifying the 3D helmet image into a first locus image corresponding to a first section and a second locus image corresponding to a second section according to a time sequence in a direction in which the batter of the helmet field looks; And
And processing the 3D helmet image so that the ball objects and the background objects of the trajectory images in the classified first trajectory image and the second trajectory image move differently based on the viewpoint of the batter,
The step of processing the 3D helmet image includes:
Setting at least a part of the background object as a reference point in a state in which the background object of the first locus image is fixed and setting the first locus image for the region of the background object in which the blank object is set as the reference point during the first period Processing the first locus image so as to move in at least part of the direction of the first locus image,
Setting a blank object of the second locus image as a reference point and locating a blank object set as the reference point in a predetermined region in the second locus image and setting the background object as a reference point for the second region Wherein the second trajectory image is processed so as to move in at least a part of the direction of the second trajectory image.
삭제delete 삭제delete
KR1020160095236A 2016-07-27 2016-07-27 Method for modelling video of pitching-trace and server implementing the same KR101809613B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160095236A KR101809613B1 (en) 2016-07-27 2016-07-27 Method for modelling video of pitching-trace and server implementing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160095236A KR101809613B1 (en) 2016-07-27 2016-07-27 Method for modelling video of pitching-trace and server implementing the same

Publications (1)

Publication Number Publication Date
KR101809613B1 true KR101809613B1 (en) 2018-01-19

Family

ID=61025129

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160095236A KR101809613B1 (en) 2016-07-27 2016-07-27 Method for modelling video of pitching-trace and server implementing the same

Country Status (1)

Country Link
KR (1) KR101809613B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11223761B2 (en) 2018-09-04 2022-01-11 Samsung Electronics Co., Ltd. Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007330476A (en) * 2006-06-14 2007-12-27 Aruze Corp Game machine

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007330476A (en) * 2006-06-14 2007-12-27 Aruze Corp Game machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11223761B2 (en) 2018-09-04 2022-01-11 Samsung Electronics Co., Ltd. Electronic device for obtaining images by controlling frame rate for external moving object through point of interest, and operating method thereof

Similar Documents

Publication Publication Date Title
US10789764B2 (en) Systems and associated methods for creating a viewing experience
US20210233304A1 (en) Systems and associated methods for creating a viewing experience
US11017691B2 (en) Training using tracking of head mounted display
US10771760B2 (en) Information processing device, control method of information processing device, and storage medium
CN102959941B (en) Information processing system, information processor and information processing method
US20190156565A1 (en) Methods and Systems for Distinguishing Objects in a Natural Setting to Create an Individually-Manipulable Volumetric Model of an Object
CN107469343B (en) Virtual reality interaction method, device and system
EP3291549B1 (en) Display control apparatus, display control method, and program
JP4700476B2 (en) Multi-view video composition device and multi-view video composition system
CN110270078B (en) Football game special effect display system and method and computer device
WO2018094443A1 (en) Multiple video camera system
TWI623342B (en) Screen golf system, method for image realization for screen golf and recording medium readable by computing device for recording the method
CN108079547B (en) Image processing apparatus, analysis system, image processing method, and recording medium
CN109844600B (en) Information processing apparatus, information processing method, and program
KR101291765B1 (en) Ball trace providing system for realtime broadcasting
JP2017208676A (en) Method of providing virtual space, program, and recording medium
KR102475994B1 (en) Information processing apparatus, information processing method and storage medium
JPH06105231A (en) Picture synthesis device
US11831853B2 (en) Information processing apparatus, information processing method, and storage medium
KR101809613B1 (en) Method for modelling video of pitching-trace and server implementing the same
US20230353717A1 (en) Image processing system, image processing method, and storage medium
EP3805899A1 (en) Head mounted display system and scene scanning method thereof
JP2017208808A (en) Method of providing virtual space, program, and recording medium
CN113557465A (en) Apparatus, system, and method for wearable head-mounted display
US20200342833A1 (en) Head mounted display system and scene scanning method thereof

Legal Events

Date Code Title Description
GRNT Written decision to grant