KR101842384B1 - System providing games interlocked with on-to-off line - Google Patents

System providing games interlocked with on-to-off line Download PDF

Info

Publication number
KR101842384B1
KR101842384B1 KR1020170001142A KR20170001142A KR101842384B1 KR 101842384 B1 KR101842384 B1 KR 101842384B1 KR 1020170001142 A KR1020170001142 A KR 1020170001142A KR 20170001142 A KR20170001142 A KR 20170001142A KR 101842384 B1 KR101842384 B1 KR 101842384B1
Authority
KR
South Korea
Prior art keywords
item
game
robot
image
range
Prior art date
Application number
KR1020170001142A
Other languages
Korean (ko)
Inventor
한상균
Original Assignee
한상균
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한상균 filed Critical 한상균
Priority to KR1020170001142A priority Critical patent/KR101842384B1/en
Application granted granted Critical
Publication of KR101842384B1 publication Critical patent/KR101842384B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/833Hand-to-hand fighting, e.g. martial arts competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2483Other characteristics
    • A63F2009/2488Remotely playable
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/52Miscellaneous game characteristics with a remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An online-to-offline interworking robot game system according to the present invention includes: a user terminal including a display device and an input device; a wireless controlled robot whose driving is controlled by the input device; a game space in which the wireless controlled robot is driven; a robot game database for providing game background data and game item data; and a robot game server for synthesizing real-time photographing data of the wireless controlled robot with an item image included in the game background data and the game item data, converting the synthesized image into a visual game interface, and providing the visual game interface to the user terminal. Accordingly, a user located at a remote place can control an offline robot online.

Description

온오프라인 연동 로봇 게임 시스템{SYSTEM PROVIDING GAMES INTERLOCKED WITH ON-TO-OFF LINE}{SYSTEM PROVIDING GAMES INTERLOCKED WITH ON-TO-OFF LINE}

본 발명은 온오프라인 연동 로봇 게임 시스템에 관한 것으로서, 보다 상세히는 오프라인 상에 구비된 로봇을 온라인을 통해 원격의 사용자가 제어함으로써 원격으로 로봇을 활용한 게임을 수행할 수 있으며, 나아가 온라인컨텐츠와 연동하여 온라인컨텐츠에 포함된 정보를 그대로 오프라인 로봇에 가상으로 연동 및 적용시켜 오프라인 게임을 진행할 수 있는 시스템에 관한 것이다.The present invention relates to an on-line and interlocked robot game system, and more particularly, to a robot game system that can remotely perform a game using a robot by controlling a robot provided on an offline line via a remote user, The present invention relates to a system capable of playing offline games by virtually linking and applying information contained in online contents to an offline robot.

일반적으로 오프라인 상에서 유/무선 조작기를 통해 조작이 가능한 로봇으로는 비행기, 자동차, 배 등 다양한 제품들이 시중에 알려져 있다. 여기서 시중에서 알려진 제품들을 통해 다수의 사람들이 같이 공유할 수 있는 게임의 경우, 과거에는 속도를 통해 상대방과 경쟁하는 경주 게임 정도에 불과하였으나, 최근 파손에 대한 룰을 정하여 정해진 부위가 파손되거나 조작이 불가능해 질 때 까지 로봇간의 결투를 벌이는 게임이 소개되면서, 대중들에게 열렬한 지지를 받고 있다.In general, a variety of products such as airplanes, automobiles, and boats are known to the public as off-line robots that can be operated through wired / wireless manipulators. In the case of a game that can be shared by a large number of people through products known in the market, in the past, it was only a game of racing to compete with the opponent through speed. However, recently, a rule for damage is determined, Until it becomes impossible, a game of dueling between robots is introduced, and it receives enthusiastic support from the public.

특히 무선 조정이 가능한 로봇을 활용하되, 로봇에 각종 방어수단이나 공격수단을 장착한 상태에서 적어도 두 대 이상의 로봇이 지정된 공간에 입장하여 각자의 방어수단과 공격수단을 통해 공격함으로써 승리조건을 만족할 때까지 겨루는 방식이 일반적인데, 이는 마치 과거의 검투사결투와 같은 흥미를 제공할 수 있으면서도, 로봇을 활용하므로 생명존중에 대한 논란 없이 즐길 수 있다는 점에서 해외에서 많은 지지를 받고 있는 것이다.In particular, when at least two or more robots enter a designated space and attack through their defense means and attack means by using various robots equipped with defense means or attack means, , Which is very popular in foreign countries because it can provide the same kind of glory as a gladiator duel in the past, but can be enjoyed without disputes about respect for life by utilizing robots.

다만, 이러한 로봇간의 결투를 진행하기 위해서는 로봇의 제작이 필요할뿐더러, 로봇을 제어하는 사용자의 안전을 보장하면서도 로봇간의 결투를 충분히 흥미롭게 진행하기 위한 충분한 공간이 필요하기 때문에, 대부분의 사람들이 직접 참여하지는 못하고 관람하는 데에 그쳐 흥미로운 컨텐츠였음에도 불구하고 제대로 확산되지 못한 채 유지되고 있었다.However, in order to perform duel between such robots, it is necessary to make robots, and it is necessary to provide sufficient space for sufficiently dueling robots between robots while ensuring the safety of users who control robots. It was interesting content, but it was not spreading properly.

따라서, 이러한 문제를 해결하기 위해 다양한 로봇을 활용한 게임 시스템이 개발된 바, 예를 들어 국내 공개특허 제 10-2015-0114058호는 증강현실이 적용된 온/오프라인 3D 프린팅 로봇 전투 게임 시스템 및 이를 이용한 로봇 전투 게임 방법에 대한 기술을 게시하고 있다.Accordingly, in order to solve such a problem, a game system utilizing various robots has been developed. For example, Korean Patent Laid-Open No. 10-2015-0114058 discloses an on / off-line 3D printing robot battle game system to which an augmented reality is applied, Robot has posted a technique on how to battle a game.

그런데 이 기술의 주된 핵심은 원격조종이 가능한 로봇을 활용하여 가상 배틀게임을 진행하는 것이나, 원격제어 시 필연적으로 발생하는 지연시간에 대한 고려가 되어있지 않은 것으로 미루어 볼 때, 여기서의 원격조종은 단순 근거리방식의 원격조종만을 의미하는 것으로 볼 수 있어 진정한 원격조종이라 할 수 있는 통신망을 활용한 원격 로봇 게임에 적용되는 데에는 부족하다는 한계를 가진다.However, the main point of this technology is that it does not consider the virtual battle game using remote controlable robot or the delay time that necessarily occurs in remote control. It can not be applied to a remote robot game utilizing a communication network which is a true remote control.

다음으로 국내 등록특허 제 10-1505411호는 무선 조종 비행체를 이용한 배틀 게임 중개 시스템에 대한 기술을 게시하고 있다.Next, Korean Patent No. 10-1505411 discloses a technology for a battle game mediation system using a radio-controlled air vehicle.

이 기술 또한 무선 조종 비행로봇의 구동을 인식하고 이에 배경을 합성하여 사용자에게 제공하는 것이나, 원본영상을 사용하지 않고, 모든 데이터를 좌표로 변환하여 이에 대응하는 새로운 게임용 영상을 사용자에게 제공하기 때문에, 추가적인 영상의 변환단계가 필수적으로 적용되어야 할뿐더러 이 또한 지연시간에 대한 고려가 되어있지 않아, 단순히 실시간으로만 표현하는 경우라면 상당히 비현실적인 정보만이 보여지게 된다는 단점이 있다.This technology also recognizes the operation of the radio-controlled flying robot and synthesizes the background and provides it to the user. However, since all the data are converted into coordinates without using the original image and a new game image corresponding to this is provided to the user, The additional image conversion step must be applied, and the delay time is not taken into consideration. Therefore, if the image is expressed only in real time, only unrealistic information is displayed.

따라서 이러한 문제점을 해결할 수 있도록 오프라인 상에 구비된 로봇을 온라인을 통해 원격의 사용자가 제어함으로써 원격으로 로봇을 활용한 게임을 수행할 수 있는 시스템의 개발이 필요한 실정이다.Therefore, in order to solve such a problem, it is necessary to develop a system capable of remotely performing a game using a robot by controlling a robot provided on the off-line through a remote online user.

본 발명은 상기 기술의 문제점을 극복하기 위해 안출된 것으로, 오프라인 상에 구비된 로봇을 온라인을 통해 원격의 사용자가 제어할 수 있는 게임 시스템을 제공하는 것을 주요 목적으로 한다.SUMMARY OF THE INVENTION It is a general object of the present invention to provide a game system in which a remote user can control a robot provided on the off-line through online.

본 발명의 다른 목적은 로봇을 촬영한 영상을 기반으로 하되, 이 영상에 다양한 배경 및 게임아이템을 합성할 수 있어 동일한 로봇을 매개로 사용자에게 다양한 게임방식을 제공하는 것이다.Another object of the present invention is to provide various game methods to the user through the same robot because the robot can synthesize various backgrounds and game items based on the images of the robot.

본 발명의 또 다른 목적은 로봇을 촬영한 영상에서 로봇의 각 부위에 다양한 이미지를 합성할 수 있어 동일한 로봇을 매개로 사용자맞춤형 커스텀형태를 제공할 수 있도록 하는 것이다.Another object of the present invention is to provide a user-customized custom form through the same robot since various images can be synthesized on each part of the robot in the image of the robot.

본 발명의 추가 목적은 사용자가 원격조종을 수행하여 다른 사용자와의 경쟁게임을 진행할 때, 통신과정에서 발생할 수 있는 지연시간을 보상하여 공정한 게임결과를 도출할 수 있는 방법을 추구하는 것이다.It is a further object of the present invention to seek a method of deriving a fair game result by compensating for a delay time that may occur during a communication process when a user performs a remote control and plays a competitive game with another user.

본 발명의 추가 목적은 다양한 온라인 매체로부터 캐릭터를 전달받아 로봇에 적용시킴으로서 가상의 대결게임을 제공할 수 있도록 하는 것이다.It is a further object of the present invention to provide a virtual confrontation game by receiving a character from various online media and applying it to a robot.

상기 목적을 달성하기 위하여, 본 발명에 따른 온오프라인 연동 로봇 게임 시스템은, 디스플레이장치 및 입력장치가 구비된 사용자단말; 상기 입력장치를 통해 구동이 제어되는 무선 조종 로봇; 상기 무선 조종 로봇이 구동되는 게임공간; 게임배경데이터 및 게임아이템데이터를 제공하는 로봇게임데이터베이스; 상기 무선 조종 로봇의 실시간 촬영데이터와, 상기 게임배경데이터 및 상기 게임아이템데이터에 포함된 아이템이미지를 합성하고 시각적 게임인터페이스로 변환하여 상기 사용자단말에 제공하는 로봇게임서버;를 포함하는 것을 특징으로 한다.In order to achieve the above object, an on-line and off-line linked robot game system according to the present invention includes: a user terminal having a display device and an input device; A radio-controlled robot in which driving is controlled through the input device; A game space in which the radio-controlled robot is driven; A robot game database for providing game background data and game item data; And a robot game server for synthesizing the real-time image data of the robot, the game background data, and the item images included in the game item data, converting them into a visual game interface, and providing the virtual game interface to the user terminal .

나아가, 상기 게임공간에는, 평면 또는 입체형의 기하학적 형태로 제작된 공간으로서, 상기 무선 조종 로봇을 촬영하여 촬영데이터를 생성하는 적어도 하나 이상의 촬영모듈과, 상기 게임공간 내부를 복수의 영역으로 나누어 상기 무선 조종 로봇이 위치한 로봇영역정보를 생성하는 적어도 하나 이상의 영역감지센서를 더 포함하는 것을 특징으로 한다.Further, the game space may include at least one photographing module for photographing the radio-controlled robot and generating photographing data, the space being manufactured in a planar or cubic geometric shape, and a plurality of photographing modules for dividing the inside of the game space into a plurality of regions, And at least one zone detection sensor for generating robot zone information where the control robot is located.

더하여, 상기 사용자단말은, 사용자로부터 입력된 이미지를 대체아이템이미지로서 저장하는 커스텀이미지저장모듈을 더 포함하고, 상기 로봇게임데이터베이스는, 상기 사용자단말로부터 수신된 대체아이템이미지를 원래 상기 게임아이템데이터가 보유한 상기 아이템이미지를 대체하여 사용할 수 있도록 변경하는 커스텀이미지적용모듈을 더 포함하는 것을 특징으로 한다.In addition, the user terminal may further include a custom image storage module for storing an image input from a user as an alternative item image, wherein the robot game database stores a substitute item image received from the user terminal, And a custom image application module for changing the item image to be used in place of the item image.

덧붙여, 상기 로봇게임서버는, 상기 촬영데이터에 상기 게임배경데이터를 합성하는 배경합성부와, 상기 촬영데이터에서 상기 무선 조종 로봇의 윤곽정보를 추출하는 윤곽추출부와, 상기 윤곽정보의 특정 위치에 상기 아이템이미지를 시각적으로 합성하여 표시하는 아이템합성부로 구성되는 영상합성모듈을 더 포함하는 것을 특징으로 한다.In addition, the robot game server may further include: a background synthesis section for synthesizing the game background data with the shot data; an outline extraction section for extracting outline information of the radio-controlled robot from the shot data; And an item combining unit configured to visually combine and display the item images.

또한, 상기 아이템합성부는, 상기 사용자로부터 상기 윤곽정보 중 상기 아이템이미지가 합성될 합성위치를 설정하는 합성위치설정파트와, 상기 합성위치에 상기 아이템이미지가 표시될 아이템영역을 설정하는 아이템영역설정파트와, 상기 아이템영역의 전체 면적에 상응하게 상기 아이템이미지를 리사이즈 처리하여 상기 아이템영역 내에 채우는 리사이징파트를 포함하는 것을 특징으로 한다.The item combining unit may include a combining position setting part for setting a combining position at which the item image is to be synthesized from the outline information from the user and an item area setting part for setting an item area for displaying the item image at the combining position, And a resizing part for resizing the item image corresponding to the entire area of the item area to fill the item area in the item area.

또한, 상기 로봇게임서버는, 상기 사용자단말로부터 상기 입력장치를 통해 전달된 입력신호의 발생여부에 따라 상기 아이템이미지의 주변영역에 기 지정된 아이템효과이미지를 합성하여 표시하는 보정합성모듈을 더 포함하는 것을 특징으로 한다.The robot game server may further include a correction synthesis module for synthesizing and displaying the pre-designated item effect image in a peripheral region of the item image according to whether an input signal transmitted through the input device from the user terminal is generated .

또한, 상기 로봇게임서버는, 상기 사용자단말의 원격연결에 따른 통신지연시간을 측정하는 지연시간측정모듈을 더 포함하고, 상기 보정합성모듈은, 상기 윤곽정보의 변동을 분석하여 기준시간동안의 평균변동량을 측정하는 윤곽변동량예측부와, 상기 평균변동량을 통해 상기 통신지연시간동안 상기 윤곽정보가 변동될 수 있는 범위인 윤곽변동범위를 판단하는 윤곽변동범위예측부와, 상기 윤곽변동범위에 기 지정된 윤곽효과이미지를 합성하는 변동범위합성부를 포함하는 것을 특징으로 한다.The robot game server may further include a delay time measurement module that measures a communication delay time according to a remote connection of the user terminal. The correction synthesis module analyzes the variation of the contour information, A contour variation range predicting unit for determining a contour variation range that is a range in which the contour information can be varied during the communication delay time through the average variation amount; And a variation range synthesizing section for synthesizing the effect image.

또한, 상기 윤곽변동범위예측부는, 다른 무선 조종 로봇의 윤곽변동범위를 수신하여 중복범위를 판단하는 중복범위판단파트와, 상기 중복범위에 기 지정된 색상을 합성하는 중복범위합성파트를 포함하는 것을 특징으로 한다.The contour fluctuation range predicting unit may further include a redundant range determining part for receiving the contour fluctuation range of the other radio controlled robot and determining a redundant range and a redundant range synthesizing part for synthesizing colors previously designated in the redundant range .

또한, 상기 윤곽변동범위예측부는, 상기 중복범위에 상기 아이템이미지를 더 합성한 아이템변동범위를 판단하는 아이템변동범위예측파트와, 다른 무선 조종 로봇의 아이템변동범위를 수신하여 상기 아이템변동범위가 다른 무선 조종 로봇의 윤곽변동범위와 중복되는 영역을 피격예상범위로 지정하는 피격예상범위판단파트와, 상기 피격예상범위에 피격효과이미지를 합성하는 피격예상합성파트를 포함하여 구성되는 것을 특징으로 한다.The contour fluctuation range predicting unit may further include an item variation range predicting part for determining an item variation range in which the item image is further synthesized in the overlapping range and an item variation range predicting part for determining whether the item variation range is different An expected range determining part for specifying a range overlapping with a contour fluctuation range of the radio-controlled robot as an expected range, and a predicted-to-expected synthesizing part for synthesizing a shot-effect image in the estimated expected range.

또한, 상기 윤곽변동범위예측부는, 다음의 수학식 1을 사용하여 윤곽변동범위를 판단하는 것을 특징으로 한다.The contour fluctuation range predicting unit may determine the contour fluctuation range using the following equation (1).

수학식 1,Equation 1,

Figure 112017000946551-pat00001
Figure 112017000946551-pat00001

(여기서, D는 윤곽변동범위이고, 는 윤곽정보의 초기 위치이며,

Figure 112017000946551-pat00003
는 윤곽정보의 현재 위치이고,
Figure 112017000946551-pat00004
는 최대 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을,
Figure 112017000946551-pat00005
은 현재 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을 나타낸다.)(Where D is the contour fluctuation range, Is the initial position of the outline information,
Figure 112017000946551-pat00003
Is the current position of the outline information,
Figure 112017000946551-pat00004
The contour variation range variation amount during the reference time at the maximum delay time,
Figure 112017000946551-pat00005
Represents the variation range of the contour fluctuation range during the reference time from the current delay time.)

또한, 상기 보정합성모듈은, 상기 촬영데이터를 복수개의 표시영역으로 분할하여 3차원 xyz좌표를 형성하는 3차원좌표형성부와, 상기 디스플레이장치의 정 중앙을 중앙점으로 설정하고, 현재 시간에 상기 중앙점을 중심으로 인식된 상기 윤곽정보와 특정 시간 이전에 인식된 상기 윤곽정보의 좌표를 비교하여 변경여부를 판단하는 윤곽이동감지부와, 상기 윤곽이동감지부에서 상기 윤곽정보의 이동을 감지하면, 상기 아이템이미지, 상기 아이템효과이미지, 상기 윤곽효과이미지 및 상기 피격효과이미지를 상기 윤곽정보가 이동된 좌표에 대응되는 이동좌표로 재배치하는 이동보정부를 더 포함하는 것을 특징으로 한다.The correction synthesis module may further include: a three-dimensional coordinate formation unit for dividing the image pickup data into a plurality of display areas to form three-dimensional xyz coordinates; and a display control unit for setting the center of the display device as a center point, An outline for comparing the outline information recognized centered on the center point with the coordinates of the outline information recognized before a specific time to determine whether the outline information is to be changed is detected by the motion detection section when the outline detects movement of the outline information at the motion detection section And a movement correcting unit for rearranging the item image, the item effect image, the contour effect image, and the shot effect image to a moving coordinate corresponding to a coordinate to which the contour information is moved.

마지막으로, 상기 이동보정부는, 상기 피격이미지의 좌표 재배치에 있어서 이동좌표를 예측하기 위하여 다음의 수학식 2를 이용하여 이동좌표를 산출하는 것을 특징으로 한다.Lastly, the movement compensator calculates the movement coordinates using the following equation (2) to predict the movement coordinates in the coordinate relocation of the shot image.

수학식 2,Equation (2)

Figure 112017000946551-pat00006
Figure 112017000946551-pat00006

(여기서, A(e)는 이동좌표,

Figure 112017000946551-pat00007
는 최초 윤곽정보의 위치,
Figure 112017000946551-pat00008
은 중앙점의 위치,
Figure 112017000946551-pat00009
는 현재 윤곽정보의 위치, e는 0부터 특정 시간까지의 값.)(Where A (e) is the moving coordinate,
Figure 112017000946551-pat00007
The position of the first outline information,
Figure 112017000946551-pat00008
The position of the central point,
Figure 112017000946551-pat00009
Is the position of the current contour information, and e is a value from 0 to a specific time.)

본 발명에 따른 온오프라인 연동 로봇 게임 시스템에 의하면,According to the on-off-line linked robot game system of the present invention,

1) 오프라인 상에 구비된 로봇을 온라인을 통해 원격의 사용자가 제어할 수 있는 게임 시스템을 제공할 수 있고,1) It is possible to provide a game system in which a remote user can control a robot provided on the off-line on-line,

2) 로봇을 촬영한 영상에 다양한 배경 및 게임아이템을 합성할 수 있어 동일한 로봇을 매개로 사용자에게 다양한 게임방식을 제공 가능하며,2) It is possible to combine various backgrounds and game items on the images of the robot, and it is possible to provide various game methods to the user through the same robot,

3) 사용자가 원하는 이미지를 로봇영상에 합성함으로써 로봇외형의 커스텀이 가능할 뿐 아니라,3) By combining the desired image with the robot image, it is possible to customize the appearance of the robot,

4) 사용자가 원격조종을 수행하여 다른 사용자와의 경쟁게임을 진행할 때, 통신과정에서 발생할 수 있는 지연시간을 보상하여 공정한 게임결과를 도출할 수 있도록 하며,4) When a user carries out a remote control and plays a competition game with another user, a fair game result can be derived by compensating a delay time that may occur in a communication process,

5) 다양한 온라인 매체로부터 캐릭터를 전달받아 로봇을 촬영한 영상에 합성함으로서, 가상의 대결게임을 가능케 한 효과가 있다.5) By receiving characters from various online media and synthesizing them with the captured images, it is possible to make a virtual confrontation game possible.

도 1은 본 발명의 게임 시스템을 예시적으로 도시한 개념도.
도 2는 본 발명에 따른 구성을 개략적으로 도시한 블록도.
도 3은 본 발명의 게임 시스템이 제공되는 구성의 예시를 도시한 개념도.
도 4는 본 발명의 로봇의 외형을 변경하는 방법에 대한 예시적 화면을 도시한 개념도.
도 5는 본 발명의 사용자가 지정한 이미지를 로봇의 외형에 적용하는 방법에 대한 예시적 화면을 도시한 개념도.
도 6은 본 발명의 다양한 효과 이미지 표시의 예시적 화면을 도시한 개념도.
도 7은 본 발명의 윤곽효과이미지가 적용된 예시적 화면을 도시한 개념도.
도 8은 본 발명의 다양한 효과 이미지를 중앙점을 기준으로 시점 변화시키는 것에 대한 예시적 화면을 도시한 개념도.
1 is a conceptual diagram illustrating an exemplary game system of the present invention.
2 is a block diagram schematically illustrating a configuration according to the present invention;
3 is a conceptual diagram showing an example of a configuration in which a game system of the present invention is provided;
4 is a conceptual diagram showing an exemplary screen for a method of changing the appearance of a robot according to the present invention.
FIG. 5 is a conceptual diagram illustrating an exemplary screen for a method of applying a user-specified image of the present invention to the external appearance of a robot. FIG.
6 is a conceptual diagram illustrating an exemplary screen of various effect image displays of the present invention.
7 is a conceptual diagram showing an exemplary screen to which the outline effect image of the present invention is applied.
8 is a conceptual diagram showing an exemplary screen for changing viewpoints of various effect images of the present invention based on a central point.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 첨부된 도면은 축척에 의하여 도시되지 않았으며, 각 도면의 동일한 참조 번호는 동일한 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The accompanying drawings are not drawn to scale and wherein like reference numerals in the various drawings refer to like elements.

도 1은 본 발명의 게임 시스템을 예시적으로 도시한 개념도이고, 도 2는 본 발명에 따른 구성을 개략적으로 도시한 블록도이며, 도 3은 본 발명의 게임 시스템이 제공되는 구성의 예시를 도시한 개념도이다.2 is a block diagram schematically showing a configuration according to the present invention. FIG. 3 shows an example of a configuration in which a game system of the present invention is provided. It is a conceptual diagram.

본 발명의 온오프라인 연동 로봇 게임 시스템(1)은, 입력장치를 구비한 사용자단말(100)과, 사용자단말(100)에 의해 조종이 가능한 무선 조종 로봇(200), 무선 조종 로봇(200)이 구동되는 게임공간(300), 게임과 관련된 정보가 저장되는 로봇게임인터페이스, 게임공간(300)으로부터 무선 조종 로봇(200)의 실시간 촬영데이터와 로봇게임인터페이스로부터 게임과 관련된 정보를 각각 수신하여 이를 합성하여 생성된 게임인터페이스를 사용자단말(100)로 제공함으로서 사용자단말(100)에 ?l마된 디스플레이장치를 통해 사용자(2)가 확인할 수 있도록 하는 로봇게임서버(500)로 구성된다.The on-off-line linked robot game system 1 of the present invention includes a user terminal 100 having an input device, a radio-controlled robot 200 capable of being controlled by the user terminal 100, A robot game interface in which information related to the game is stored, information on the game from the real time shooting data of the radio-controlled robot 200 and the robot game interface from the game space 300, And a robot game server 500 for providing the game interface generated by the user terminal 100 to the user terminal 100 so that the user 2 can confirm the user interface through the display device.

먼저, 사용자단말(100)은 휴대전화나 스마트폰, 노트북, pda, 태블릿, pc 등 디스플레이장치와 입력장치가 동시에 구비된 것으로서, 바람직하게는 유/무선 인터넷 통신망을 통해 원격접속이 가능한 단말을 의미한다. 이러한 사용자단말(100)은 기본적으로 무선 조종 로봇(200)을 조종하거나 로봇게임서버(500)로부터 게임인터페이스를 제공받아 표시할 수 있는 어플리케이션 등의 프로그램 혹은 이러한 프로그램이 동작하는 웹페이지를 활용할 수 있어야 한다.First, the user terminal 100 is provided with a display device such as a cellular phone, a smart phone, a notebook PC, a tablet, a PC, and an input device at the same time, and preferably refers to a terminal capable of remote access via a wired / wireless Internet communication network do. Such a user terminal 100 basically needs to be able to utilize a program such as an application capable of controlling the radio-controlled robot 200 or receiving a game interface from the robot game server 500 or a web page on which such a program operates do.

여기서 사용자단말(100)의 범위를 더 확장시킬 수도 있다. 즉, 사용자단말(100)의 입력장치는 사용자단말(100)에 물리적으로 연결되거나 혹은 무선으로 연결된 조이패드나 모션인식 장갑 등의 별도의 조작기기로서 대체될 수도 있음은 물론이며, 나아가 디스플레이장치 또한 별도의 모니터를 의미하거나 혹은 안경디스플레이, HMD 등이 적용될 수도 있음은 물론이다. Here, the range of the user terminal 100 may be further extended. That is, the input device of the user terminal 100 may be physically connected to the user terminal 100 or may be replaced with a separate operation device such as a joypad or a motion recognition glove connected wirelessly. Further, Or a glasses display, an HMD, or the like may be applied.

다음으로 무선 조종 로봇(200)은 시중에 판매중인 자동차, 배, 비행기 등의 무선조종을 통해 구동이 가능한 로봇 및 구동이 가능한 인형로봇과 유사한 구성을 가지되, 추가로 사용자단말(100)에 포함된 입력장치를 통해 구동이 제어될 수 있도록 구성된 것을 특징으로 한다.Next, the radio-controlled robot 200 has a configuration similar to a robot that can be driven through radio control of an automobile, a ship, an airplane or the like and a dolly robot that can be driven on the market, and is further included in the user terminal 100 So that the driving can be controlled through the input device.

게임공간(300)은 사각형, 오각형, 육각형, 팔각형, 원형, 타원형 등의 평면 또는 이러한 평면을 기반으로 하여 측벽을 더 형성하거나, 높이방향으로 연장시키는 방법 등이 적용된 입체형의 기하학적 형태로 제작된 공간으로서, 일종의 격투기의 경기장 또는 링과 같은 역할을 할 수 있도록 한 것이다. 게임공간(300)에는 무선 조종 로봇(200)을 하나 이상 위치시켜 이 게임공간(300)에서 게임을 진행할 수 있도록 한다. 이 게임공간(300)에는 촬영장치나 이미지센서 등이 포함될 수 있으며, 이를 통해 무선 조종 로봇(200)의 이동을 실시간으로 감지한 촬영데이터를 얻을 수 있다.The game space 300 may be a space formed in a three-dimensional geometric shape to which a sidewall is further formed or a method of extending the sidewall in a height direction based on a plane such as a square, a pentagon, a hexagon, an octagon, , So that it can act as a kind of martial arts venue or ring. In the game space 300, one or more radio-controlled robots 200 are positioned so that the game can be played in the game space 300. The game space 300 may include an image capturing device, an image sensor, and the like, and photographed data obtained by sensing the movement of the radiofacing robot 200 in real time can be obtained.

이 때, 게임공간(300)에서 진행될 수 있는 게임으로는 무선 조종 로봇(200) 혼자서 가능한 게임(예를 들면 청기백기나 가상의 목표물을 맞추는 게임, 퍼즐 등)이나 둘 이상의 무선 조종 로봇(200)이 필요한 게임(예를 들면 1대 1 대전격투게임이나 축구, 협력격투게임 등)을 그 예로 들 수 있으며, 로봇의 형상이나 배경을 자유롭게 변화시킬 수 있기 때문에 다양한 게임의 적용이 가능한 것이다.At this time, the game which can be proceeded in the game space 300 includes a game (for example, a game in which a robot or the like targets a virtual target, a puzzle or the like) capable of being soloed by the radio-controlled robot 200 or two or more radio- (For example, one-to-one fight games, soccer, cooperative fighting games, etc.), and various forms of game can be applied because the shape and background of the robot can be freely changed.

로봇게임데이터베이스(400)의 경우, 게임배경데이터와 게임아이템데이터를 제공하는 것으로서, 게임배경데이터와 게임아이템데이터의 경우 사용자(2)에게 다양한 사용자(2)경험을 제공하기 위해 우주, 중세, 사이버펑크 등 다양한 아이템이미지(610)를 포함함은 물론이며, 사용자(2)가 이전에 사용한 게임배경 및 게임아이템을 저장하는 기능을 갖출 수도 있음은 물론이다. 나아가 로봇게임데이터베이스(400)는 로봇게임을 진행함에 따라 도출된 승패결과나 이에 따른 점수나 포인트 등의 사용자(2)별 게임정보를 추가로 저장할 수 있음은 물론이다. 나아가 로봇게임데이터베이스(400)에는 외부로부터 다양한 캐릭터 데이터를 불러올 수 있는 수단이 더 포함될 수도 있으며, 이러한 구성을 통해 다른 게임이나 영화, 캐릭터 설정 등을 통해 내려받은 캐릭터 데이터를 로봇의 형상 등에 적용할 수 있음은 물론이다.In the case of the robot game database 400, the game background data and the game item data are provided. In the case of the game background data and the game item data, in order to provide various user 2 experiences to the user 2, A punk, and the like, and may have a function of storing a game background and a game item previously used by the user 2. Further, it is needless to say that the robot game database 400 may additionally store the game information for each user 2, such as the result of the win or loss resulting from the robotic game, or the score or point according to the result. Further, the robot game database 400 may further include means for loading various character data from the outside, and character data downloaded through another game, movie, character setting, etc., may be applied to the shape of the robot or the like Of course it is.

마지막으로 로봇게임서버(500)는 게임공간(300)으로부터 수신된 무선 조종 로봇(200)의 실시간 촬영데이터와 로봇게임데이터베이스(400)로부터 수신된 게임배경데이터 및 게임아이템데이터의 아이템이미지(610)를 합성함으로써 시각적 게임인터페이스를 생성한다. 즉, 무선 조종 로봇(200)의 실시간 촬영데이터에 게임배경데이터를 합성함으로써 다양한 배경에 무선 조종 로봇(200)을 위치시킨 듯한 착각을 불러일으킬 수 있으며, 나아가 무선 조종 로봇(200)에 게임아이템데이터를 더 합성하는 것으로 사용자(2) 개인별 다양한 커스텀이 가능하게 되는 것이다.Finally, the robot game server 500 receives the real-time shooting data of the radio-controlled robot 200 received from the game space 300, the item image 610 of the game background data and the game item data received from the robot game database 400, To create a visual game interface. That is, by combining the game background data with the real-time shot data of the radio-controlled robot 200, it is possible to cause an illusion that the radio-controlled robot 200 is positioned on various backgrounds, The user 2 can customize various customs.

즉, 이러한 로봇게임서버(500)는 앞서 설명한 바와 같이 로봇게임데이터베이스(400)에는 외부로부터 다양한 캐릭터 데이터, 아이템 데이터를 불러올 수 있는 수단이 적용되는 경우, 이를 활용하여 여러 가지 세계관에서 제공된 캐릭터를 무선 조종 로봇(200)에 적용시켜 이러한 데이터를 합성함으로써 사용자가 다양한 세계관의 캐릭터를 두고 겨룰 수 있는 게임을 제공할 수도 있게 된다. 예를 들면, DC 유니버스와 마블 유니버스의 캐릭터를 무선 조종 로봇(200)에 적용시켜 배틀게임을 진행한다거나 혹은 월드오브워크래프트의 게임캐릭터와 리니지의 게임캐릭터를 무선 조종 로봇(200)에 적용시켜 배틀게임을 진행시키는 경우, 더욱 나아가 다양한 스포츠 스타를 무선 조종 로봇(200)에 적용시켜 야구경기를 진행하게 하는 등 여러 가지 적용방법이 고려될 수 있음은 물론이다.That is, when the means for loading various character data and item data from the outside is applied to the robot game database 400 as described above, the robot game server 500 can use the robot game server 500 to wirelessly transmit characters provided in various worldviews It is possible to apply a game to the control robot 200 and synthesize such data to provide a game in which a user can compete with characters of various worldviews. For example, a DC universe and Marble Universe characters are applied to the radio-controlled robot 200 to conduct a battle game, or a game character of World of Warcraft and a game character of Lineage are applied to a radio-controlled robot 200, It is needless to say that various types of application methods may be considered, for example, a baseball game is advanced by applying various sports stars to the radio-controlled robot 200.

또한, 이렇게 무선 조종 로봇(200)에 캐릭터를 적용하여 게임을 진행한 이후 이 게임에 대한 결과 또한 원래의 캐릭터에 다시 역으로 저장할 수 있도록 하여 상호 연동성을 높일 수 있도록 구성할 수도 있다. 따라서, 다양한 외부 캐릭터와 실제 무선 조종 로봇(200)이 온오프라인으로 상호 연동되는 인터랙티브 시스템이 제공될 수 있는 것이다.In addition, after the game is executed by applying the character to the radio-controlled robot 200, the result of the game may be stored in the original character again to improve the interoperability. Accordingly, an interactive system in which various external characters and the actual radio-controlled robot 200 are interlinked on-off-line can be provided.

도 4는 본 발명의 로봇의 외형을 변경하는 방법에 대한 예시적 화면을 도시한 개념도이다.4 is a conceptual diagram showing an exemplary screen for a method for changing the appearance of the robot according to the present invention.

도 4에서 보여지는 바와 같이, 게임아이템의 경우, 무기나 방어구, 기어 등과 같이 게임성을 증대시킬 목적의 아이템으로부터 단순 꾸미기용 아이템까지도 포괄하는 개념이며, 따라서 게임아이템을 로봇의 각종 부위에 장착시켜 사용자(2)만의 커스텀된 로봇의 형상을 제작할 수 있음은 물론이다.As shown in FIG. 4, in the case of a game item, it is a concept that encompasses even items for simple decoration such as a weapon, an armor, gear, etc. for the purpose of increasing the game property, It is needless to say that the shape of the customized robot for the user 2 alone can be produced.

이렇게 합성된 시각적 게임인터페이스는 사용자단말(100)로 제공되어 사용자단말(100)의 디스플레이장치를 통해 출력되도록 한다. 따라서, 사용자(2)는 원래의 무선 조종 로봇(200)의 실시간 촬영데이터 뿐만 아니라, 원하는 대로 커스텀된 시각적 게임인터페이스를 확인할 수 있어 더욱 실감나는 로봇 게임을 진행할 수 있게 된다.The synthesized visual game interface is provided to the user terminal 100 to be output through the display device of the user terminal 100. Therefore, the user 2 can confirm not only the real-time shot data of the original robot-controlled robot 200 but also the customized visual game interface as desired, so that a more realistic robot game can be performed.

특히 게임공간(300)의 경우, 무선 조종 로봇(200)의 움직임을 인식하기 위해 촬영모듈(310)을 구비하되, 이 촬영모듈(310)을 통해 움직임을 더욱 상세하게 인식하기 위한 방법으로서, 게임공간(300) 내부를 복수의 영역으로 나누어 무선 조종 로봇(200)이 위치한 로봇영역정보를 생성하는 적어도 하나 이상의 영역감지센서(320)를 더 위치시키는 것이다. 따라서, 기존의 촬영모듈(310)을 통해서만 무선 조종 로봇(200)의 위치를 파악하는 것은 좌우전후로 움직인 대략적인 위치만을 파악하는 것에 불과했다면, 이렇게 가상의 복수의 영역을 설정하여 이 영역에 무선 조종 로봇(200)이 위치하는지 여부를 판단함으로써 무선 조종 로봇(200)의 이동을 더욱 세밀하고 정확하게 판단할 수 있게 된다.Particularly, in the case of the game space 300, a photographing module 310 is provided for recognizing the movement of the robot 200, and as a method for recognizing the movement in more detail through the photographing module 310, At least one zone detection sensor 320 for generating robot zone information in which the radio control robot 200 is located is further positioned by dividing the inside of the space 300 into a plurality of zones. Therefore, if only the approximate position moving in the left and right direction is grasped, the position of the radiofrequency controlling robot 200 can be grasped only through the conventional photographing module 310, It is possible to more precisely and accurately determine the movement of the robot 200 by judging whether or not the robot 200 is positioned.

도 5는 본 발명의 사용자(2)가 지정한 이미지를 로봇의 외형에 적용하는 방법에 대한 예시적 화면을 도시한 개념도이다.5 is a conceptual diagram showing an exemplary screen for a method of applying the image designated by the user 2 of the present invention to the external appearance of the robot.

본 로봇 게임 시스템(1)은 앞선 설명에서도 언급한 바와 같이 로봇게임데이터베이스(400)에 저장된 게임배경데이터와 게임아이템데이터를 활용하여 사용자(2)가 원하는 형태로 커스텀함으로써 다양한 로봇을 제작하여 즐길 수 있는 것이 특징이다. 이러한 커스텀의 범위를 넓히기 위한 방법으로서, 사용자단말(100)은 커스텀이미지저장모듈(110)을 더 포함할 수 있다. 이 커스텀이미지저장모듈(110)은 이미지의 저장을 수행하는 것을 의미하는데, 카메라를 통해 직접 촬영한 사진 또는 외부로부터 가져온 사진을 대체아이템이미지(610)로서 저장하는 역할을 한다.As described above, the robot game system 1 of the present invention utilizes game background data and game item data stored in the robot game database 400 to customize the user 2 in a desired form, . As a method for widening the range of such a custom, the user terminal 100 may further include a custom image storage module 110. [ The custom image storage module 110 stores images. The custom image storage module 110 stores photographs taken directly through a camera or photographs taken from the outside as alternative item images 610.

이에 따라 로봇게임데이터베이스(400)에는 사용자단말(100)로부터 이 대체아이템이미지(610)를 수신하여 원래 게임아이템데이터가 보유한 아이템이미지(610)를 대체하도록 하는 커스텀이미지적용모듈(410)을 더 포함하게 된다. 따라서, 저장된 아이템이미지(610) 뿐만 아니라 사용자(2)가 직접 촬영한 사진이나 그림, 또는 외부 웹 등에서 가져온 사진이나 그림을 활용하여 게임아이템데이터의 아이템이미지(610)로서 활용할 수 있도록 한 것이다. 이에 따라 사용자(2)는 자신이 원하는 이미지를 사용하여 아이템이미지(610)를 변경할 수 있으므로 게임 시스템을 더욱 흥미롭게 활용할 수 있도록 한다. 이러한 기능은 나아가 아이템이미지(610) 뿐만 아니라 배경이미지나 로봇의 전체 이미지 등에도 적용될 수도 있음은 물론이다.Accordingly, the robot game database 400 further includes a custom image application module 410 that receives the substitute item image 610 from the user terminal 100 and replaces the item image 610 held by the original game item data . Accordingly, not only the stored item images 610 but also pictures or pictures directly taken by the user 2 or pictures or pictures taken from an external web can be utilized as item images 610 of game item data. Accordingly, the user 2 can change the item image 610 using the image he / she desires, thereby making it possible to use the game system more interestingly. It goes without saying that such a function may be applied not only to the item image 610 but also to the background image or the entire image of the robot.

도 6은 본 발명의 다양한 효과 이미지 표시의 예시적 화면을 도시한 개념도이고, 도 7은 본 발명의 윤곽효과이미지(620)가 적용된 예시적 화면을 도시한 개념도이다.FIG. 6 is a conceptual diagram illustrating an exemplary screen of various effect image displays according to the present invention, and FIG. 7 is a conceptual diagram illustrating an exemplary screen to which a contour effect image 620 of the present invention is applied.

앞선 구성은 로봇 게임을 사용자(2)에게 제공할 때에 사용자단말(100)을 통해 사용자(2)가 원하는 형태를 갖는 원격 조종 로봇 및 게임의 배경을 설정하도록 하는 구성이었다. 이러한 구성의 경우, 사용자(2) 혼자 게임을 진행하거나, 둘 이상의 사용자(2)가 동시에 게임을 진행하더라도 각각의 사용자단말(100)이 게임공간(300)과 가까운 위치에서 통신의 시간적 오차 없이 게임을 진행한다면 원활한 게임의 진행이 가능함은 물론이다. 다만, 각각의 사용자(2)가 원거리에서 게임을 진행하는 경우, 통신망의 상태에 의해 필연적으로 지연시간이 발생하기 마련이다. 특히나 사용자(2)간의 경쟁을 목표로 하는 게임의 경우, 이러한 지연시간의 발생을 제대로 해결하지 못한다면 게임의 승패에 있어 사용자(2)의 실력보다 지연시간의 발생에 의한 요인이 더 커져 사용자(2)가 쉽게 흥미를 잃게 만들 수 있기 때문에, 이러한 지연시간을 자연스럽게 보정하는 방법이 필요하다.The foregoing configuration has a configuration in which the user 2 sets the background of the remote control robot and the game having the desired form via the user terminal 100 when providing the robot game to the user 2. [ In such a configuration, even if the user 2 alone plays a game or two or more users 2 simultaneously play a game, each user terminal 100 can play a game Of course, it is possible to proceed smoothly. However, when each user 2 proceeds a game at a long distance, a delay time necessarily occurs due to the state of the communication network. Particularly, in the case of a game aiming at competition between users 2, if the occurrence of such a delay time can not be solved properly, the factors caused by the occurrence of the delay time are larger than the skill of the user 2 in the win / ) Can easily make you lose interest, you need a way to naturally compensate for this delay.

따라서, 이러한 지연시간의 보정을 위해 본 발명에서는 쉬운 알고리즘을 통해 해결하는 방법을 사용하는 바, 기초적인 토대를 마련하기 위하여 로봇게임서버(500)에는 영상합성모듈(420)을 더 포함시켜 구성할 수 있다. 이 영상합성모듈(420)은 배경합성부(421)를 통해 무선 조종 로봇(200)을 촬영한 촬영데이터에 게임배경데이터를 합성하되, 윤곽추출부(422)를 통해 이 촬영데이터에서 무선 조종 로봇(200)의 윤곽정보를 추출하게 된다. 이렇게 추출된 윤곽정보는 곧 무선 조종 로봇(200)의 움직임을 쉽게 파악할 수 있는 기준이 될 수 있는 것이다. 여기에 추가적으로 윤곽정보의 특정 위치마다 아이템이미지(610)를 시각적으로 합성하는 아이템합성부(423)를 더 포함시킴으로서, 로봇의 형태인 윤곽정보에 아이템을 합성시켜 사용자(2)로 하여금 사용자(2)가 커스텀한 형태의 무선 조종 로봇(200)을 확인할 수 있도록 하는 것이다.Therefore, in order to correct such a delay time, the present invention uses a method that can be solved through an easy algorithm. In order to provide a basic foundation, the robot game server 500 may further include a video composition module 420 . The image synthesizing module 420 synthesizes the game background data with the photographing data photographed by the radio control robot 200 through the background synthesizing unit 421, The outline information of the image 200 is extracted. The extracted outline information can be a reference for easily grasping the movement of the robot 200. In addition, by further including an item composition unit 423 for visually synthesizing the item image 610 for each specific position of the outline information, the user combines the item with the outline information in the form of a robot, So that the user can confirm the customized type of the radio-controlled robot 200.

여기서 아이템을 합성하는 방법을 상세하게 살펴보면, 아이템합성부(423)에는 윤곽정보 중 아이템이미지(610)가 합성될 합성위치를 사용자(2)로부터 입력받는 합성위치설정파트(424)와 합성위치에 아이템이미지(610)가 표시될 수 있도록 아이템영역을 설정하는 아이템영역설정파트(425)를 포함한다. 즉, 예를 들어 사용자(2)가 멋진 투구를 무선 조종 로봇(200)에 씌우고 싶다고 가정할 때, 투구를 무선 조종 로봇(200)의 상부면에 얹기 위해, 상부면에 해당하는 위치에 아이템영역을 설정시키게 되는 것이다. 이러한 아이템영역은 사용자(2)가 임의로 크기를 조절하거나 위치를 조절할 수 있음은 물론이다.The item combining unit 423 includes a combining position setting part 424 for receiving a combining position at which the item image 610 of the outline information is to be synthesized from the user 2, And an item area setting part 425 for setting an item area so that the item image 610 can be displayed. That is, for example, suppose that the user 2 wants to put a nice helmet on the radio-controlled robot 200, in order to put the helmet on the upper surface of the radio-controlled robot 200, . ≪ / RTI > Of course, such an item area can arbitrarily adjust the size or position of the user 2.

아이템영역이 설정되면, 이 아이템영역의 전체 면적에 상응하도록 아이템이미지(610)를 리사이징하여 아이템영역에 합성하는 리사이징파트(426)가 더 포함된다. 따라서, 아이템이미지(610)가 아이템영역의 면적과 대응되지 못하더라도 축소 또는 확대시켜 아이템영역에 강제로 맞춤으로써 사용자(2)가 원하는 형태를 갖는 무선 조종 로봇(200)을 생성하는 것이다.When the item area is set, the resizing part 426 further resizes the item image 610 to correspond to the entire area of the item area and synthesizes the item image 610 to the item area. Therefore, even if the item image 610 does not correspond to the area of the item area, the user scrolls or enlarges the item image 610 to force it to the item area, thereby creating the radio-controlled robot 200 having the desired form by the user 2.

이 때, 로봇게임서버(500)에는 사용자단말(100)의 원격연결에 따른 통신지연시간을 측정하는 지연시간측정모듈(510)이 더 포함된다. 이 지연시간측정모듈(510)은 일반적으로 PC나 스마트폰 등에서 볼 수 있는 인터넷속도 측정프로그램과 유사한 것으로서, 통신망에서 데이터가 전송되는데 걸리는 지연시간을 측정하는 역할을 한다. 이 지연시간의 경우, wifi나 lte, wcdma등의 무선통신망에서 평균적으로 약 100ms 이내의 지연시간을 나타내게 되는데, 이러한 지연시간은 각 사용자단말(100)마다 다르게 나타나며 실시간으로 지연시간이 변화하기 때문에 사용자(2)와 사용자(2) 사이에서 지연시간을 컨트롤 할 수 있는 스트리밍 역할을 하는 무엇인가가 필수적으로 필요하다.At this time, the robot game server 500 further includes a delay time measurement module 510 for measuring a communication delay time according to the remote connection of the user terminal 100. The delay time measurement module 510 is similar to an Internet speed measurement program generally found in a PC or a smart phone, and measures a delay time required for data transmission in a communication network. In the case of this delay time, a delay time of about 100 ms is shown on the average in a wireless communication network such as wifi, lte, wcdma, etc. Such delay time differs for each user terminal 100, There is a need for something that acts as a streaming controllable delay time between the user 2 and the user 2.

이에 대한 대책으로서, 보정합성모듈(430)에는 윤곽정보의 변동을 분석하는 윤곽변동량예측부(431)를 더 포함한다. 즉, 도 7을 통해 더욱 상세하게 확인할 수 있는데, 특정시간(예를 들면 10초간)동안 윤곽정보가 변동하는 것을 분석하면 기준시간(예를 들면 1ms 정도의 아주 작은 시간)동안 윤곽정보가 얼마나 변할 수 있는가에 대한 값인 평균변동량을 예측할 수 있게 되는 것이다. 이렇게 평균변동량이 측정되면, 윤곽변동범위예측부(432)에서는 통신지연시간동안 윤곽정보가 변동될 수 있는 범위인 윤곽변동범위를 판단할 수 있다. 즉, 마지막으로 측정된 윤곽정보에서 모든 방향으로 평균변동량에 통신지연시간을 기준시간으로 나눈 값을 곱한만큼의 윤곽변동범위가 형성될 수 있는 것이다. 여기에서 좀 더 나아가면 최근까지 이동된 방향을 통해 모든 방향으로 윤곽변동범위를 형성하지 않고, 확률에 따라 윤곽변동범위를 더 제어할 수도 있음은 물론이다.As a countermeasure thereto, the correction synthesis module 430 further includes a contour variation amount predicting section 431 for analyzing the variation of the contour information. 7, if the analysis of the variation of the contour information during a specific time (for example, 10 seconds) shows how much the contour information changes during the reference time (e.g., a very small time of about 1 ms) It is possible to predict an average variation amount that is a value with respect to the possibility. When the average variation amount is measured in this manner, the contour variation range predicting unit 432 can determine the contour variation range, which is the range in which the contour information can be changed during the communication delay time. That is, a contour fluctuation range can be formed by multiplying the average fluctuation amount by the value obtained by dividing the communication delay time by the reference time in all directions from the last measured contour information. It is needless to say that the contour fluctuation range can be further controlled according to the probability without forming the contour fluctuation range in all directions through the moving direction up to now.

이렇게 윤곽변동범위가 도출되면, 변동범위합성부(438)에서 이 윤곽변동범위에 기 지정된 윤곽효과이미지(620)를 합성하게 된다. 윤곽효과이미지(620)의 경우, 단순하게는 블러 처리나 짙은 색상 혹은 연한 색상으로 변경하는 방법부터, 불꽃이미지나 번개 이미지 등 기 저장된 이미지를 합성하는 방법 등이 활용될 수 있다.When the outline variation range is derived as described above, the variation range synthesis section 438 synthesizes the outline effect image 620 previously designated in the outline variation range. In the case of the contour effect image 620, a method of simply changing the image to blur processing or a dark color or light color, a method of synthesizing a stored image such as a flame image or a lightning image, and the like can be utilized.

이 때, 둘 이상의 무선 조종 로봇(200)이 운용되는 경우라면 각 무선 조종 로봇(200)이 충분히 가까운 거리에 위치하였을 때, 윤곽효과이미지(620)가 겹치는 부분이 발생할 수 있다. 이러한 부분은 시간의 변화에 따라 무선 조종 로봇(200)이 서로 부딪히거나 무기와 같은 아이템을 장착한 경우라면 무기에 의한 공격으로 피격판정이 발생할 수도 있음은 물론이다. 다만, 통신지연시간에 의해 이 부딪힘 판정 또는 피격판정이 실시간으로 발생할 수는 없으므로, 통신지연시간동안 부딪히는 대상 또는 피격의 대상이 된 사용자(2)로부터 무선 조종 로봇(200)이 충분히 피할 수 있었는지에 대해 인식을 위해 두 사용자(2)의 통신지연시간 차이만큼의 딜레이를 두어 추가적인 입력의 발생여부를 기다린 후 판정이 이루어져야만 정당한 대결이라 할 수 있을 것이다.At this time, if two or more radio-controlled robots 200 are operated, overlapping portions of the contour effect images 620 may occur when each of the radio-controlled robots 200 is located at a sufficiently close distance. It goes without saying that such a portion may be determined by the attack by the weapon if the robot 200 collides with each other or attaches an item such as a weapon according to a change of time. However, since the collision determination or the skip determination can not occur in real time due to the communication delay time, it is possible to determine from the user (2) that the robot 2 is a target to be hit or struck during the communication delay time It is only necessary to wait until the delay of the communication delay time difference between the two users 2 to recognize that the additional input is generated and then to make a judgment.

따라서, 부딪힘판정 또는 피격판정을 위해 통신지연시간동안의 딜레이를 감출 수 있는 시각적 장치가 필요한 것이다. 이를 위해 윤곽변동범위예측부(432)에는 다음의 구성이 더 추가될 수 있다.Therefore, it is necessary to provide a visual device capable of hiding the delay during the communication delay time in order to determine the hit or hit. To this end, the outline variation range predicting unit 432 may be further configured as follows.

먼저, 중복범위판단파트(433)는 다른 무선 조종 로봇(200)의 윤곽변동범위를 수신하고, 해당 사용자(2)가 조종하는 무선 조종 로봇(200)의 윤곽변동범위와 중복되는 중복범위(630)를 판단한다. 이 때, 중복범위(630)가 발생하는 경우, 중복범위합성파트(434)에서 기 지정된 색상(앞서 설명한 윤곽효과이미지(620)와는 구분이 될 수 있도록 다른 색상이어야 할 것이다.)을 합성하는 것이다. 즉, 일단 통신지연시간의 차이만큼의 시간동안 피격이 예상되는 부분을 특정한 색상으로 변경시켰다가 이후 완벽한 판정이 이루어지면 회피 또는 피격여부를 판단할 수 있도록 중간과정을 형성한 것이다.First, the overlapping range determination part 433 receives the contour fluctuation range of the other radio controlling robot 200 and detects the overlapping range 630 ). At this time, when the overlapping range 630 is generated, the overlapping range composing part 434 synthesizes the pre-designated color (another color should be different from the above-described outline effect image 620) . That is, an intermediate process is formed so as to change the part where the shot is predicted for a time corresponding to the difference of the communication delay time to a specific color, and then determine avoidance or shot when a complete determination is made.

더 나아가 아이템변동범위예측파트(435)를 추가하는 경우, 중복범위(630)에 아이템이미지(610)를 더 합성함으로서 아이템이미지(610)까지 고려된 아이템변동범위를 판단할 수 있으며, 이에 따라 피격예상범위판단파트(436)가 추가되는 경우, 다른 무선 조종 로봇(200)의 아이템변동범위까지 고려하여 중복영역을 파악하고, 이를 피격예상범위로 지정할 수 있게 된다. 이 피격예상범위의 경우, 실제로 아이템을 통해 닿거나 겹쳐진 부분이기 때문에, 피격예상합성파트(437)를 통해 불꽃이 튀거나 전기가 튀는 등의 보다 격동적인 피격효과이미지(640)를 추가로 합성함으로서, 보다 확실한 피격이 일어날 수 있는 부분임을 알릴 수 있게 되는 것이다.Further, when adding the item variation range prediction part 435, it is possible to determine the item variation range considered up to the item image 610 by further synthesizing the item image 610 in the redundant range 630, When the predicted range determination part 436 is added, it is possible to determine the overlapped area by considering the range of item variation of the other radio controlled robot 200, and designate the overlapped area as the predicted range. In the case of the expected range of the shot, by actually synthesizing the more aggressive shot effect image 640 such as splashing fire or splashing electricity through the shot anticipation composing part 437, , It can be said that a more reliable shot can occur.

여기서, 윤곽변동범위예측부(432)는 다음 수학식을 사용하여 윤곽변동범위를 판단할 수 있다.Here, the contour variation range predicting unit 432 can determine the contour variation range using the following equation.

Figure 112017000946551-pat00010
Figure 112017000946551-pat00010

D는 윤곽변동범위이고,

Figure 112017000946551-pat00011
는 윤곽정보의 초기 위치이며,
Figure 112017000946551-pat00012
는 윤곽정보의 현재 위치이고,
Figure 112017000946551-pat00013
는 최대 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을,
Figure 112017000946551-pat00014
은 현재 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을 나타낸다.D is the contour variation range,
Figure 112017000946551-pat00011
Is the initial position of the outline information,
Figure 112017000946551-pat00012
Is the current position of the outline information,
Figure 112017000946551-pat00013
The contour variation range variation amount during the reference time at the maximum delay time,
Figure 112017000946551-pat00014
Represents the variation range of the contour fluctuation range during the reference time at the present delay time.

즉, 윤곽정보의 초기 위치에서 윤곽정보의 현재 위치를 감함으로서, 초기 위치로부터 현재 어느 정도 이격되었는지가 판단 가능하되, 여기에 추가로 가장 긴 지연시간에서의 위치와 현재 지연시간에서의 위치값의 차를 나눈 값을 더함으로서, 윤곽변동범위를 생성하게 된다.

Figure 112017000946551-pat00015
을 통해 현재 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을 더하되, 이 값의 보정을 위해 최대 지연시간에서의 기준 시간동안 윤곽변동범위와 현재 지연시간에서의 기준 시간동안 윤곽변동범위의 차와 비례한 값을 더하는 변수를 더 적용함으로서, 규칙적이지 않은 상황을 커버할 수 있도록 한다. 이에 따라, 지연시간이 발생하더라도 해당 지연시간동안 발생할 수 있는 경우의 수가 되는 부분을 미리 특수하게 효과 처리하여 사용자(2)에게 보인 후 두 사용자(2)간의 실제 지연시간의 차이가 지난 후, 양 측의 조작을 통해 변경된 정보로 정확한 연산이 끝나면 피격판정 시 추가 피격효과를 더 합성시키거나 혹은 회피판정 시 효과를 삭제하는 것으로 보정이 가능하게 되는 것이다.That is, by subtracting the current position of the outline information from the initial position of the outline information, it is possible to determine how far from the initial position the current position is, and furthermore, the position at the longest delay time and the position value at the current delay time By adding the value obtained by dividing the difference, a contour fluctuation range is generated.
Figure 112017000946551-pat00015
The difference between the contour fluctuation range during the reference time at the maximum delay time and the contour fluctuation range during the reference time at the current delay time for the correction of the value is added By applying a variable that adds a proportional value, it is possible to cover a non-regular situation. Accordingly, even if a delay time occurs, a part of the number of cases that can occur during the delay time is specifically processed and displayed to the user 2, and after the difference in actual delay time between the two users 2, When the correct operation is completed with the changed information through the operation of the side, it is possible to further correct the additional effect by combining the additional effect or eliminating the effect in the avoidance determination.

도 8은 본 발명의 다양한 효과 이미지를 중앙점(650)을 기준으로 시점 변화시키는 것에 대한 예시적 화면을 도시한 개념도이다.FIG. 8 is a conceptual diagram showing an exemplary screen for changing viewpoints of the various effect images of the present invention based on the central point 650. FIG.

나아가, 사용자단말(100)의 경우, 단순하게 한 방향으로만 촬영된 촬영데이터만을 제공하지 않고 자유롭게 3차원 회전으로 로봇 게임을 즐길 수 있는 구성을 갖출 수도 있다. 또한, 회전 뿐 아니라 전후좌우 등 다양한 방향으로 카메라 시점의 이동을 원하는 사용자(2)도 존재할 것이다. 이에 따라, 촬영데이터가 회전하게 되면 각 효과 또한 함께 회전 및 이동될 수 있는 기반이 필요하다.Furthermore, in the case of the user terminal 100, it is possible to provide a configuration in which the robot game can be freely enjoyed in three-dimensional rotation without providing shooting data shot only in one direction. There will also be a user 2 who wants to move the viewpoint of the camera in various directions such as forward, backward, left and right as well as rotation. Accordingly, when the photographed data is rotated, a foundation is required so that each effect can be rotated and moved together.

따라서, 보정합성모듈(430)에는 촬영데이터를 복수개의 표시영역으로 분할함으로써 xyz좌표인 3차원좌표를 형성하는 3차원좌표형성부(439)를 더 포함할 수 있다. 이렇게 xyz좌표가 지정되면, 윤곽정보나 각종 효과이미지의 3차원적인 좌표 설정이 가능하게 된다. 이 때, 윤곽이동감지부(440)에서 디스플레이장치에서 정 중앙을 중앙점(650)으로 설정하여 현재 시간에서 이 중앙점(650)을 기준으로 측정된 윤곽정보의 3차원좌표와 현재 시간으로부터 특정 시간 이전에(이 시간은 회전에 따라 효과가 함께 움직여야 하므로, 빠르면 빠를수록 좋지만, 너무 빠르게 연산하려면 보정합성모듈(430)의 연산속도가 뛰어나야 하므로, 최대한 보정합성모듈(430)의 연산속도에 맞추어 설정하는 것이 바람직하다.) 인식된 윤곽정보의 3차원좌표를 비교함으로서 3차원좌표가 어떻게 변화되었는지 판단할 수 있다.Accordingly, the correction combining module 430 may further include a three-dimensional coordinate forming unit 439 for forming three-dimensional coordinates which are xyz coordinates by dividing the photographic data into a plurality of display areas. When the xyz coordinates are designated in this manner, it is possible to set the three-dimensional coordinates of the outline information and various effect images. At this time, the outline is set to the center point 650 in the display device at the motion detection section 440, and the three-dimensional coordinates of the outline information measured based on the center point 650 at the present time and the three- (Since this time is required to move the effect along with the rotation, it is better to increase the speed as early as possible. However, since the operation speed of the correction combining module 430 must be excellent to perform the calculation too fast, It is possible to determine how the three-dimensional coordinates have changed by comparing the three-dimensional coordinates of the recognized outline information.

마지막으로 이동보정부(441)에서는 이러한 3차원좌표의 변화값에 대응하여 아이템이미지(610), 아이템효과이미지(611), 윤곽효과이미지(620)나 및 피격효과이미지(640)를 이동시킴으로서, 시점의 변화에 따라 복잡한 재계산 없이도 기존의 이미지를 그대로 이동시켜 표시할 수 있도록 함과 동시에, 다양한 가속으로 시점을 이동하더라도 이러한 이미지를 새로 계산하여 표현하는 것보다 빠르게 이미지의 이동효과를 갖게 되는 것이다.Finally, the movement correcting unit 441 moves the item image 610, the item effect image 611, the contour effect image 620, and the shot effect image 640 corresponding to the change values of the three-dimensional coordinates, According to the change of the viewpoint, the existing image can be displayed as it is without any complicated recalculation, and at the same time, even if the viewpoint is moved at various accelerations, the image is moved faster than the new image is calculated .

이 때, 이동정보부는

Figure 112017000946551-pat00016
의 수학식을 통해 이동좌표A(e)를 계산하게 된다. 즉,
Figure 112017000946551-pat00017
는 최초 윤곽정보의 위치,
Figure 112017000946551-pat00018
은 중앙점(650)의 위치,
Figure 112017000946551-pat00019
는 현재 윤곽정보의 위치, e는 0부터 특정 시간까지의 값이다. 따라서, 이러한 수학식을 적용하게 되면, 사용자(2)가 시점을 계속해서 다양한 속도로 변동하더라도, 각 이미지가 이에 대응되어 빠르게 이동될 수 있으며, 특히 중앙점(650)을 기준으로 연산하기 때문에 카메라의 시점을 계속해서 이동시키거나 회전하더라도 중앙점(650)만 정확히 존재하고 있다면 해당 이미지들이 별다른 문제없이 시점의 변화를 따라 움직일 수 있다는 장점 또한 갖출 수 있음은 물론이다.At this time,
Figure 112017000946551-pat00016
And calculates the moving coordinate A (e) through the following equation. In other words,
Figure 112017000946551-pat00017
The position of the first outline information,
Figure 112017000946551-pat00018
The position of the center point 650,
Figure 112017000946551-pat00019
Is the position of the current contour information, and e is a value from 0 to a specific time. Therefore, by applying the above equation, even if the user 2 continues to vary in speed at various speeds, each image can be quickly moved corresponding thereto. Especially, since the calculation is performed based on the center point 650, It is also possible to provide the advantage that the images can move along the change of the viewpoint without any problem if the center point 650 exists exactly even if the viewpoint of the viewpoint is continuously moved or rotated.

지금까지 설명한 바와 같이, 본 발명에 따른 온오프라인 연동 로봇 게임 시스템의 구성 및 작용을 상기 설명 및 도면에 표현하였지만 이는 예를 들어 설명한 것에 불과하여 본 발명의 사상이 상기 설명 및 도면에 한정되지 않으며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능함은 물론이다.As described above, the configuration and operation of the on-line and off-line linked robot game system according to the present invention are described in the above description and drawings, but the present invention is not limited to the above description and drawings, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit of the invention.

1: 로봇 게임 시스템 2: 사용자
100: 사용자단말 110: 커스텀이미지저장모듈
200: 무선 조종 로봇 300: 게임공간
310: 촬영모듈 320: 영역감지센서
400: 로봇게임데이터베이스 410: 커스텀이미지적용모듈
420: 영상합성모듈 421: 배경합성부
422: 윤곽추출부 423: 아이템합성부
424: 합성위치설정파트 425: 아이템영역설정파트
426: 리사이징파트 430: 보정합성모듈
431: 윤곽변동량예측부 432: 윤곽변동범위예측부
433: 중복범위판단파트 434: 중복범위합성파트
435: 아이템변동범위예측파트 436: 피격예상범위판단파트
437: 피격예상합성파트 438: 변동범위합성부
439: 3차원좌표형성부 440: 윤곽이동감지부
441: 이동보정부 500: 로봇게임서버
510: 지연시간측정모듈 610: 아이템이미지
611: 아이템효과이미지 620: 윤곽효과이미지
630: 중복범위 640: 피격효과이미지
650: 중앙점
1: Robot game system 2: User
100: user terminal 110: custom image storage module
200: Radio control robot 300: Game space
310: photographing module 320: area detection sensor
400: robot game database 410: custom image application module
420: image synthesis module 421: background synthesis section
422: contour extracting unit 423:
424: Composite position setting part 425: Item area setting part
426: Resizing part 430: Calibration synthesis module
431: contour fluctuation amount predicting unit 432: contour fluctuation range predicting unit
433: Determining Duplicate Scope Part 434: Duplicate Scope Composite Part
435: Prediction of item variation range part 436:
437: Scattered Expected Composite Part 438: Variable Range Composite Section
439: Three-dimensional coordinate forming unit 440:
441: Movement correction unit 500: Robot game server
510: Delay Time Measurement Module 610: Item Image
611: Item effect image 620: Outline effect image
630: Redundant range 640: Shoot effect image
650: center point

Claims (12)

온오프라인 연동 로봇 게임 시스템으로서,
디스플레이장치 및 입력장치가 구비된 사용자단말;
상기 입력장치를 통해 구동이 제어되는 무선 조종 로봇;
상기 무선 조종 로봇이 구동되는 게임공간;
게임배경데이터 및 게임아이템데이터를 제공하는 로봇게임데이터베이스;
상기 무선 조종 로봇의 실시간 촬영데이터와 상기 게임배경데이터 및 상기 게임아이템데이터에 포함된 아이템이미지를 합성하고 시각적 게임인터페이스로 변환하여 상기 사용자단말에 제공하는 로봇게임서버;를 포함하되,
상기 로봇게임서버는,
상기 촬영데이터에 상기 게임배경데이터를 합성하는 배경합성부와, 상기 촬영데이터에서 상기 무선 조종 로봇의 윤곽정보를 추출하는 윤곽추출부 및, 상기 윤곽정보의 특정 위치에 상기 아이템이미지를 시각적으로 합성하여 표시하는 아이템합성부로 구성되는 영상합성모듈과,
상기 사용자단말로부터 상기 입력장치를 통해 전달된 입력신호의 발생여부에 따라 상기 아이템이미지의 주변영역에 기 지정된 아이템효과이미지를 합성하여 표시하는 보정합성모듈 및,
상기 사용자단말의 원격연결에 따른 통신지연시간을 측정하는 지연시간측정모듈을 포함하고,
상기 보정합성모듈은,
상기 윤곽정보의 변동을 분석하여 기준시간동안의 평균변동량을 측정하는 윤곽변동량예측부와, 상기 평균변동량을 통해 상기 통신지연시간동안 상기 윤곽정보가 변동될 수 있는 범위인 윤곽변동범위를 판단하는 윤곽변동범위예측부 및, 상기 윤곽변동범위에 기 지정된 윤곽효과이미지를 합성하는 변동범위합성부를 포함하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
As an on-offline cooperative robot game system,
A user terminal having a display device and an input device;
A radio-controlled robot in which driving is controlled through the input device;
A game space in which the radio-controlled robot is driven;
A robot game database for providing game background data and game item data;
And a robot game server for synthesizing the real-time image data of the robot, the game background data, and the item images included in the game item data, converting the synthesized image into a visual game interface, and providing the virtual game interface to the user terminal,
The robot game server includes:
An outline extracting unit for extracting outline information of the robot from the image data; and an outline extracting unit for visually synthesizing the item image at a specific position of the outline information An image synthesizing module composed of an item synthesizing section for displaying an image,
A correction synthesis module for synthesizing and displaying a pre-specified item effect image in a peripheral area of the item image according to whether an input signal transmitted from the user terminal through the input device is generated,
And a delay time measurement module for measuring a communication delay time according to a remote connection of the user terminal,
Wherein the correction synthesis module comprises:
A contour fluctuation amount predicting unit for analyzing a variation of the contour information and measuring an average variation amount for a reference time; and a contour fluctuation determining unit for determining a contour fluctuation range that is a range in which the contour information can be varied during the communication delay time A range predicting unit, and a variation range synthesizing unit for synthesizing a contour effect image designated in advance in the contour fluctuation range.
제 1항에 있어서,
상기 게임공간에는,
평면 또는 입체형의 기하학적 형태로 제작된 공간으로서, 상기 무선 조종 로봇을 촬영하여 촬영데이터를 생성하는 적어도 하나 이상의 촬영모듈과, 상기 게임공간 내부를 복수의 영역으로 나누어 상기 무선 조종 로봇이 위치한 로봇영역정보를 생성하는 적어도 하나 이상의 영역감지센서를 더 포함하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
The method according to claim 1,
In the game space,
The robot control system according to claim 1, further comprising: at least one photographing module for photographing the radio-controlled robot and generating photographic data, the at least one space being a plane or a three-dimensional geometric shape; The at least one zone detection sensor generating at least one zone detection sensor.
제 1항에 있어서,
상기 사용자단말은,
사용자로부터 입력된 이미지를 대체아이템이미지로서 저장하는 커스텀이미지저장모듈을 더 포함하고,
상기 로봇게임데이터베이스는,
상기 사용자단말로부터 수신된 대체아이템이미지를 원래 상기 게임아이템데이터가 보유한 상기 아이템이미지를 대체하여 사용할 수 있도록 변경하는 커스텀이미지적용모듈을 더 포함하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
The method according to claim 1,
The user terminal comprises:
Further comprising a custom image storage module for storing the image input from the user as an alternative item image,
The robot game database includes:
Further comprising a custom image application module for changing the substitute item image received from the user terminal so that the substitute item image can be used in place of the item image originally held by the game item data.
삭제delete 제 1항에 있어서,
상기 아이템합성부는,
상기 사용자로부터 상기 윤곽정보 중 상기 아이템이미지가 합성될 합성위치를 설정하는 합성위치설정파트와,
상기 합성위치에 상기 아이템이미지가 표시될 아이템영역을 설정하는 아이템영역설정파트와,
상기 아이템영역의 전체 면적에 상응하게 상기 아이템이미지를 리사이즈 처리하여 상기 아이템영역 내에 채우는 리사이징파트를 포함하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
The method according to claim 1,
Wherein the item combining unit comprises:
A composite position setting part for setting a composite position at which the item image is to be synthesized among the outline information from the user,
An item area setting part for setting an item area in which the item image is displayed in the composite position,
And a resizing part for resizing the item image according to a total area of the item area and filling the item area within the item area.
삭제delete 삭제delete 제 1항에 있어서,
상기 윤곽변동범위예측부는,
다른 무선 조종 로봇의 윤곽변동범위를 수신하여 중복범위를 판단하는 중복범위판단파트와,
상기 중복범위에 기 지정된 색상을 합성하는 중복범위합성파트를 포함하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
The method according to claim 1,
The contour fluctuation range predicting unit predicts,
A redundant range judging part for receiving a contour fluctuation range of another radio controlled robot and judging a redundant range,
And a redundant range synthesizing part for synthesizing a color designated in advance in the overlapping range.
제 8항에 있어서,
상기 윤곽변동범위예측부는,
상기 중복범위에 상기 아이템이미지를 더 합성한 아이템변동범위를 판단하는 아이템변동범위예측파트와,
다른 무선 조종 로봇의 아이템변동범위를 수신하여 상기 아이템변동범위가 다른 무선 조종 로봇의 윤곽변동범위와 중복되는 영역을 피격예상범위로 지정하는 피격예상범위판단파트와,
상기 피격예상범위에 피격효과이미지를 합성하는 피격예상합성파트를 포함하여 구성되는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
9. The method of claim 8,
The contour fluctuation range predicting unit predicts,
An item variation range predicting part for determining an item variation range in which the item image is further synthesized in the overlapping range;
An expected range determining part for receiving an item variation range of another radio controlled robot and designating an area overlapping with the contour fluctuation range of the radio controlled robot having the item variation range as an expected range;
And an expected collision part for synthesizing the shot impact image in the expected shot range.
제 1항에 있어서,
상기 윤곽변동범위예측부는,
다음의 수학식 1을 사용하여 윤곽변동범위를 판단하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
수학식 1,
Figure 112017127197054-pat00020

(여기서, D는 윤곽변동범위이고,
Figure 112017127197054-pat00021
는 윤곽정보의 초기 위치이며,
Figure 112017127197054-pat00022
는 윤곽정보의 현재 위치이고,
Figure 112017127197054-pat00023
는 최대 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을,
Figure 112017127197054-pat00024
은 현재 지연시간에서 기준 시간동안의 윤곽변동범위 변동량을 나타낸다.)
The method according to claim 1,
The contour fluctuation range predicting unit predicts,
Wherein the outline variation range is determined using the following equation (1).
Equation 1,
Figure 112017127197054-pat00020

(Where D is the contour fluctuation range,
Figure 112017127197054-pat00021
Is the initial position of the outline information,
Figure 112017127197054-pat00022
Is the current position of the outline information,
Figure 112017127197054-pat00023
The contour variation range variation amount during the reference time at the maximum delay time,
Figure 112017127197054-pat00024
Represents the variation range of the contour fluctuation range during the reference time from the current delay time.)
제 9항에 있어서,
상기 보정합성모듈은,
상기 촬영데이터를 복수개의 표시영역으로 분할하여 3차원 xyz좌표를 형성하는 3차원좌표형성부와,
상기 디스플레이장치의 정 중앙을 중앙점으로 설정하고, 현재 시간에 상기 중앙점을 중심으로 인식된 상기 윤곽정보와 특정 시간 이전에 인식된 상기 윤곽정보의 좌표를 비교하여 변경여부를 판단하는 윤곽이동감지부와,
상기 윤곽이동감지부에서 상기 윤곽정보의 이동을 감지하면, 상기 아이템이미지, 상기 아이템효과이미지, 상기 윤곽효과이미지 및 상기 피격효과이미지를 상기 윤곽정보가 이동된 좌표에 대응되는 이동좌표로 재배치하는 이동보정부를 더 포함하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
10. The method of claim 9,
Wherein the correction synthesis module comprises:
A three-dimensional coordinate forming unit for dividing the image pickup data into a plurality of display areas to form three-dimensional xyz coordinates;
Wherein the center of the display device is set as a center point and the contour information for comparing the contour information recognized at the current time with the center point as the center of the contour information is compared with the coordinates of the contour information recognized before the specific time, The branch,
And moving the item image, the item effect image, the outline effect image, and the shot effect image to the movement coordinates corresponding to the coordinates to which the outline information is moved, when the outline detects the movement of the outline information at the motion detection section Further comprising a correcting unit for correcting the game result.
제 11항에 있어서,
상기 이동보정부는,
상기 피격효과이미지의 좌표 재배치에 있어서 이동좌표를 예측하기 위하여 다음의 수학식 2를 이용하여 이동좌표를 산출하는 것을 특징으로 하는, 온오프라인 연동 로봇 게임 시스템.
수학식 2,
Figure 112017127197054-pat00025

(여기서, A(e)는 이동좌표,
Figure 112017127197054-pat00026
는 최초 윤곽정보의 위치,
Figure 112017127197054-pat00027
은 중앙점의 위치,
Figure 112017127197054-pat00028
는 현재 윤곽정보의 위치, e는 0부터 특정 시간까지의 값.)
12. The method of claim 11,
The movement correcting unit may include:
Wherein the movement coordinates are calculated using the following equation (2) in order to predict the movement coordinates in the coordinate relocation of the shot effect image.
Equation (2)
Figure 112017127197054-pat00025

(Where A (e) is the moving coordinate,
Figure 112017127197054-pat00026
The position of the first outline information,
Figure 112017127197054-pat00027
The position of the central point,
Figure 112017127197054-pat00028
Is the position of the current contour information, and e is a value from 0 to a specific time.)
KR1020170001142A 2017-01-04 2017-01-04 System providing games interlocked with on-to-off line KR101842384B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170001142A KR101842384B1 (en) 2017-01-04 2017-01-04 System providing games interlocked with on-to-off line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170001142A KR101842384B1 (en) 2017-01-04 2017-01-04 System providing games interlocked with on-to-off line

Publications (1)

Publication Number Publication Date
KR101842384B1 true KR101842384B1 (en) 2018-03-26

Family

ID=61910790

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170001142A KR101842384B1 (en) 2017-01-04 2017-01-04 System providing games interlocked with on-to-off line

Country Status (1)

Country Link
KR (1) KR101842384B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100320703B1 (en) * 1998-10-08 2002-01-23 고즈키 가게마사 Method of displaying characters, recording medium, image display device and video game device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100320703B1 (en) * 1998-10-08 2002-01-23 고즈키 가게마사 Method of displaying characters, recording medium, image display device and video game device

Similar Documents

Publication Publication Date Title
JP5390115B2 (en) Program, game system
US8574071B2 (en) Information storage medium and image generation system
JP5300777B2 (en) Program and image generation system
US7722465B2 (en) Image generation device, image display method and program product
EP2371433B1 (en) Image generation device, program product, and image generation method
KR100276549B1 (en) Image generation apparatus, image generation method, game machine using the method
US7390254B2 (en) Soccer game method for use in game apparatus, involves recognizing areas pertaining to power of character group, based on calculated arrival times of characters up to sample points
US6972756B1 (en) Image generating device
US9345972B2 (en) Information storage medium, image generation system, and image generation method
US8884987B2 (en) Storage medium having stored thereon display control program, display control apparatus, display control system, and display control method for setting and controlling display of a virtual object using a real world image
JP2000350865A (en) Game device for composite real space, image processing method therefor and program storage medium
KR20000064948A (en) Image processing apparatus and image processing method
JP2011053838A (en) Program, information storage medium, and image generation device
JP7558985B2 (en) IMAGE PROCESSING SYSTEM, IMAGE PROCESSING PROGRAM, AND IMAGE PROCESSING METHOD
JP5443129B2 (en) Program and network system
JP2020204856A (en) Image generation system and program
US20130109475A1 (en) Game system, control method therefor, and a storage medium storing a computer program
JP3325075B2 (en) Multiplayer game device
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment
KR101842384B1 (en) System providing games interlocked with on-to-off line
JP2008067853A (en) Program, information storage medium and image generation system
JP2011096017A (en) Program, information storage medium and terminal
JP2011255114A (en) Program, information storage medium, and image generation system
JPH06277362A (en) Three-dimensional game device
JPH1170272A (en) Three-dimensional game device and image synthesizing method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant