WO2017135689A2 - 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법 - Google Patents

체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법 Download PDF

Info

Publication number
WO2017135689A2
WO2017135689A2 PCT/KR2017/001106 KR2017001106W WO2017135689A2 WO 2017135689 A2 WO2017135689 A2 WO 2017135689A2 KR 2017001106 W KR2017001106 W KR 2017001106W WO 2017135689 A2 WO2017135689 A2 WO 2017135689A2
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
ball
image
baseball game
user
Prior art date
Application number
PCT/KR2017/001106
Other languages
English (en)
French (fr)
Other versions
WO2017135689A3 (ko
Inventor
김세환
주상현
고봉경
Original Assignee
주식회사 골프존뉴딘
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 골프존뉴딘 filed Critical 주식회사 골프존뉴딘
Publication of WO2017135689A2 publication Critical patent/WO2017135689A2/ko
Publication of WO2017135689A3 publication Critical patent/WO2017135689A3/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball

Definitions

  • the present invention is a so-called screen baseball that the user pitches the ball toward the screen in the mound based on the virtual baseball image projected on the screen in the indoor space of a predetermined size and the sensing device senses this to implement a simulation image according to the sensing result
  • An experiential virtual baseball game device such as a system and a virtual baseball game control method therefor.
  • a screen baseball system provides a batting batter that can hit a ball thrown from a pitching machine by a batter in a room of a predetermined size, or a mound for pitching a ball as a pitcher.
  • a screen for displaying a baseball field of the ball and when the user hits the ball at the batter or pitches the ball toward the screen in the mound, the sensing device senses the motion of the hit ball or pitched ball Based on the result, a video game for the baseball game is implemented.
  • the baseball game is not only about pitching and hitting, but about the base runners, and the players who play baseball consider the base runners to be very important. Because we only perform hitting the ball by the user or only pitching the ball by the user, we only watch the base run depending on the AI in the game. There is a problem that the user who only throws or hits easily loses interest in the screen baseball game and cannot fully enjoy the variety of baseball games.
  • the present invention relates to an experiential virtual baseball game device that allows a user to play a baseball game with a virtual team on an image while directly experiencing the video based on the image projected on the screen. Allows users who play virtual teams and virtual baseball games to stop the base team's base run play, and use a sensing device based on an image sensing method for such a user's play. It is possible to obtain a speed, to provide a user-friendly virtual baseball game device and a virtual baseball game control method by which a user can fully enjoy the variety and reality of a baseball game.
  • the virtual baseball game control method by the experiential virtual baseball game apparatus based on the virtual baseball image projected on the screen so that the user can play baseball or baseball games with the virtual player on the image
  • a virtual baseball game control method using an experiential virtual baseball game device wherein a control device for implementing an image for the baseball practice or a baseball game, displays an image of a virtual team attacking a team defended by the user.
  • Implementing Displaying, by the controller, at least one throwing area for inducing ball throwing of the user on an image according to the attack of the virtual team;
  • the sensing device calculates exercise information about the ball being thrown and exercised by the user, and reaches the screen where the ball reaches the screen using the calculated exercise information of the ball. Calculating a position and transmitting the position to the controller; And determining, by the controller, whether the screen arrival position is within a throwing area displayed on the image and proceeding with a baseball practice or a baseball game according to the determination result.
  • the experience-based virtual baseball game device the experience-based virtual baseball that allows the user to practice baseball or baseball game with the virtual player on the image based on the virtual baseball image projected on the screen
  • a game device comprising: calculating movement information about a ball being thrown and exercising as the user throws the ball, and using the calculated movement information of the ball, a screen arrival position, which is a position at which the ball reaches the screen;
  • a sensing device for calculating; And implementing an image of the virtual team attacking the team defended by the user, and displaying at least one throwing area for inducing the ball throw of the user on the image according to the attack of the virtual team, And determining whether the screen arrival position is within the throwing region displayed on the image, and controlling the baseball practice or the baseball game according to the determination result.
  • Experience-based virtual baseball game apparatus and a virtual baseball game control method based on the image projected on the screen experience-based virtual baseball that allows the user to play a baseball game with a virtual team on the image while directly experiencing A game device, comprising: a play that enables a user playing a virtual baseball game with a virtual team to play on a base team's base running on an image and prevents the base team's base base play from being played by the user
  • a play that enables a user playing a virtual baseball game with a virtual team to play on a base team's base running on an image and prevents the base team's base base play from being played by the user
  • FIG. 1 shows an example in which a virtual baseball simulation system, that is, a so-called screen baseball system, is implemented as an experiential virtual baseball game apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the experience-type virtual baseball game device shown in FIG.
  • 3 and 4 are diagrams illustrating an experience-type virtual baseball game device according to another embodiment and another embodiment of the present invention, respectively.
  • FIG. 5 is a flowchart for explaining a baseball game control method of the experience-based virtual baseball game apparatus according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a process for calculating sensing information by the sensing device of the experience-type virtual baseball game device according to an embodiment of the present invention.
  • FIG. 7 and 8 are diagrams for explaining various throwing areas shown in a baseball game progression process performed by the experiential virtual baseball game device according to an embodiment of the present invention.
  • FIG. 9 is a view illustrating an image captured by one camera of a camera unit of a sensing device of an experience-type virtual baseball game device according to an embodiment of the present invention, and simultaneously shows a ball image appearing on an image of a plurality of frames. will be.
  • FIG. 1 is a block diagram illustrating an example of a so-called screen baseball system implemented as an experiential virtual baseball game device according to an embodiment of the present invention
  • FIG. 2 is a block illustrating the configuration of the experiential virtual baseball game device shown in FIG. It is also.
  • the experience-type virtual baseball game device includes a mound 30 and a screen 20 in a space formed by the side wall 11 and the rear wall 12, and the like.
  • the user may pitch the ball 1.
  • the space SP between the screen 20 and the rear wall 12 includes a baseball field image to be projected on the screen 20, an image about a virtual team attack, and a simulation image about a ball thrown or thrown by a user.
  • a control device 300 for processing information may be provided (the image processed by the control device 300 is projected onto the screen 20 through the image output unit 420).
  • the virtual batter VB is preparing to hit the ball pitched by the user P1 on the image IM projected on the screen 20, and the virtual runner VR performs base play.
  • SD shows the display of the throwing region Rt on the image IM that induces throwing for the user to take out the virtual runner VR leading.
  • Baseball practice apparatus can be configured as a system that enables the user to play a baseball game or a baseball game pitching the ball in the mound, as well as a baseball practice or baseball game that the user hits the ball. .
  • the mound 30 is a turn at bat when the user hits the ball.
  • a ball pitching device (not shown) is installed at the rear of the screen 20 and a pitching hole (not shown) is formed on the screen 20. It can be configured in such a way as to shoot the ball to the plate at the pitching device. An example of this will be described later with reference to FIG. 4.
  • the baseball practice apparatus according to an embodiment of the present invention, the control device 300 and the sensing device 200 as shown in Figs. It may be configured to include. If the user is a system that can not only ball pitching but also hitting the ball may also be included in the present invention.
  • the sensing device 200 analyzes the photographed image and senses the object on the image.
  • the sensing device 200 obtains and analyzes an image of a predetermined photographing range including the mound 30 and the user pitches the ball. Calculates ball movement information for the ball thrown into the throwing area and calculates information such as the time when the pitched ball or the thrown ball reaches the screen and the screen reaching position using the calculated ball movement information do.
  • the sensing device 200 may include a camera unit 210 and a sensing processing unit 220.
  • the camera unit 210 may include a mound 30. Acquiring an image for a predetermined shooting range continuously, the sensing processing unit 220 receives the image from the camera unit 210 and performs an image analysis according to a preset matter by using a baseball practice device or Calculate the information needed for a baseball game.
  • the camera unit 210 of the sensing device 200 photographs the same photographing range at different locations, respectively, to calculate three-dimensional position information of the object on the photographed image.
  • the sensing processing unit 220 By configuring the stereoscopic method including the camera 212, the sensing processing unit 220 to obtain the three-dimensional coordinate data for the ball through the analysis of the image taken by the camera unit 210 This is preferred.
  • the sensing processing unit 220 receives and collects images captured by each of the first and second cameras 211 and 212 of the camera unit 210, and analyzes each of the collected images. Find and extract three-dimensional coordinate data for each ball, and use the extracted three-dimensional coordinate data to determine the motion model of the ball being pitched and the ball moving or hitting the ball. Using this, a variety of information necessary for baseball practice or baseball game using the experiential virtual baseball game apparatus according to the present invention is calculated.
  • the motion model of the ball means that it is represented by a motion equation relating to the trajectory on the three-dimensional space of the ball being pitched or thrown and moving, and as shown in FIG. 1, an experiential virtual baseball game device according to the present invention.
  • the motion model of the ball can be determined according to the defined coordinate system.
  • the motion model of the ball may be defined as a motion equation in the x-axis direction, a motion equation in the y-axis direction, and a motion equation in the z-axis direction. More details on this will be described later.
  • the sensing device 200 calculates the ball motion information and transmits it to the control device 300, the control device 300 implements a simulation image for the ball motion based on the received ball motion information
  • the image output unit 420 may be projected onto the screen unit 20.
  • control device 300 may include a data storage 320, an image processor 330, and a controller 310 as shown in FIG. 2.
  • the data storage unit 320 is a portion for storing data for processing, such as a baseball simulation image made in the experience-type virtual baseball game device.
  • the data storage unit 320 may be configured to serve as a storage for temporarily storing data received from a server (not shown).
  • the image processing unit 330 may include a background image such as an image of a virtual baseball field, an image of a player, a referee, an audience, and the like, an image of a virtual catcher, a virtual batter, a virtual referee, and the like waiting for the ball to be pitched by the user;
  • a background image such as an image of a virtual baseball field, an image of a player, a referee, an audience, and the like, an image of a virtual catcher, a virtual batter, a virtual referee, and the like waiting for the ball to be pitched by the user
  • a background image such as an image of a virtual baseball field, an image of a player, a referee, an audience, and the like
  • an image of a virtual catcher, a virtual batter, a virtual referee, and the like waiting for the ball to be pitched by the user
  • processing according to a preset program for image data is performed.
  • the output unit 420 transmits the image output unit 420 to the
  • the controller 310 controls each component of the baseball practice apparatus according to the present invention and performs various operations for realizing a baseball simulation image, such as simulation of a ball trajectory, based on various information transmitted from the sensing apparatus 200. To perform.
  • the baseball practice apparatus when the throwing region (Rt) is displayed on the image in the course of the baseball game progress, as shown in Figure 1, the user (P1) the ball (1) the ball throwing area ( Rt), the virtual ball implemented based on the sensing information sensed and calculated by the sensing device 200 (see FIG. 2) goes to the virtual defender located in the base.
  • the virtual runner VR on the image IM may be returned to its original position or run to the next base, and the control unit may preset an image of such content for the virtual runner VR.
  • Artificial intelligence for a game character or allow another user to control an action on the virtual runner VR by manipulating the terminal.
  • FIG 3 illustrates a case in which another user manipulates a terminal and a virtual runner performs base running play according to the operation of the other user.
  • a user other than the user P1 pitching or throwing the ball may operate a terminal 500 provided to perform wired or wireless communication with the control device 300. And control the action of the virtual runner VR.
  • the terminal 500 includes a display unit 510 and an input unit 520, and the display unit 510 may be configured to be manipulated by an operation or a touch input of the input unit 520.
  • the display unit 510 of the terminal 500 displays a screen for manipulating a virtual batter VB on the image IM projected onto the screen 20 when the user pitches the ball on the mound 30. Providing the other user controls the virtual batter (VB) to take actions such as hitting, swinging, ball skipping, etc. In the situation that the virtual runner (VR) is on base as shown in FIG.
  • the display unit 510 may provide a screen for manipulating the stealing of the virtual runner VR to allow the other user to control the base run play of the virtual runner VR.
  • the user P1 enters the virtual batter VB.
  • the other user may operate the virtual runner VR to lead the screen on the screen provided by the display unit 510 of the terminal 500. Accordingly, one side of the image IM on the screen 20 may be provided.
  • the user P1 displays the throwing area Rt (that is, the fastener area) for inducing the virtual runner VR to throw the fastener so that the virtual runner VR can not steal, and the user P1 is connected to the fastener area Rt.
  • the throwing area Rt that is, the fastener area
  • the virtual ball is thrown to the first base on the image IM so that the virtual runner VR leading out can be made out.
  • the base running play proceeds through the sub display SD described above on the video. It is also possible to prepare the user to prepare for base play by implementing the image informing the user (the user of the defensive team) in advance to display the throwing area.
  • Experience-based virtual baseball game device can prevent the base run play of the virtual team that is the user and the opponent playing the baseball game in this manner, so that not only ball pitching but also base play in baseball There are features that enable a variety of experiences, such as jersey.
  • Figure 4 is a system that is implemented by connecting the virtual baseball game device and the other virtual baseball game device according to the present invention through a predetermined server in a network, the virtual baseball game device according to the present invention (for convenience 'first device In the context of "", the user (called 'first user' for convenience) pitches the ball, while in another virtual baseball game device (called 'second device' for convenience), the other user (called the second user for convenience) By hitting the ball can be configured to allow both users to attack and defend through different devices, respectively, wherein the ball pitching device at the second device is battered against the pitching of the first user ball in the first device When the second user hits the fired ball, the virtual batter VB on the image IM in the first device hits the virtual ball. To be a can to proceed.
  • the RM1 uses a first device to play a baseball game in such a manner that the first user P1 pitches the ball 1 against the virtual batter VB on the image IM in the mound 30.
  • RM2 refers to a play space for playing a baseball game in a manner in which the second user P2 strikes the ball 1a emitted from the ball pitching device 100 at the plate 30a using the second device. Refers to space.
  • the first device of the RM1 has the same configuration as the virtual baseball game device according to the embodiment of the present invention shown in FIG. 1, and the second device of the RM2 also includes the sensing device 200a and the control device 300a. And the second device is provided with a ball pitching device 100 on the back of the screen (20a), so that the ball (1a) from the ball pitching device 100 can be launched into the plate at 30a A pitching hole 22a is formed.
  • the ball pitching device and the pitching hole are not shown in the drawings, the first device may be provided in the same manner.
  • the first device of the RM1 and the second device of the RM2 may be devices having the same configuration, and may be configured to allow both attack and defense in one device.
  • control device 300 of the first device and the control device 300a of the second device are respectively connected to the server S to exchange data with each other through the server S. It is composed.
  • the sensing device 200 senses the calculated value and calculates the sensing information, and the control device 300 controls the server S to calculate the sensing information. To send.
  • the server S transmits the sensing information received from the control device of the first device to the control device 300a of the second device, and the control device 300a of the second device has a ball corresponding to the received sensing information. Controls the ball pitching device 100 so as to fire.
  • the ball pitching device 100 launches the ball 1a in accordance with the ball pitching of the first user P1 in the second device
  • the second user P2 may hit, miss, or filter the ball and senses it.
  • the device 200a transmits the sensing information generated by sensing the generated information to the control device 300a
  • the control device 300a transmits the sensing information to the server S.
  • the server S transmits the sensing information to the control device 300 of the first device, and the control device 300 of the first device uses the image IM based on the sensing information received from the server S.
  • the virtual batter (VB) of the image is implemented to perform an action such as hitting, swinging, and skipping the ball on the virtual ball.
  • the first user P1 playing in the RM1 and the second user P2 playing in the RM2 can enjoy the virtual baseball game as if they were playing an actual baseball game while attacking and defending each other.
  • the ball can be thrown to the throwing area displayed on the screen 20 so that play can be prevented by the user P2 playing in the RM2.
  • the second device detects an operation or action of a second user and transmits the detected information to the server, and the server transmits the information to the first device again. Based on the received information, base play can be performed on an image of the first device.
  • a 3D camera such as a depth camera
  • the user P1 playing in the RM1 may throw the ball to the throwing area displayed on the screen 20 to prevent the base team from playing the base run as described with reference to FIG. 3, which has already been described. The detailed description thereof will be omitted.
  • the difference between the embodiment shown in FIG. 3 and the embodiment shown in FIG. 4 in the base running play is that in the embodiment shown in FIG. In the embodiment shown in FIG. 1, the base play of the virtual team is performed by another user playing on another virtual baseball game device.
  • At least one throwing area for inducing a user's ball throwing is displayed on the image according to the virtual team attack (S110).
  • the throwing area may include a first base throwing area for inducing the user to throw the first base, a second base throwing area for inducing throwing for the second base, a third base throwing area for inducing throwing for the third base, and a home. Either one of these may be displayed for an attack situation or multiple of them may be displayed for an attack situation, including a home throw area that induces throws for and a containment area that induces a check for what the imaginary runner leads. have.
  • a first base throw area may be displayed on one side of the image to induce the user to throw the ball to the first base.
  • the user may display the fastener area on one side of the image to induce the user to throw the first ball.
  • FIG. 7 The case where the above-mentioned check-out area is displayed is shown in FIG. 7, but as shown in FIG. 7, the user P1 moves to the first base in the process of pitching the ball against the virtual batter VB on the image IM.
  • a virtual runner (not shown in the drawing but can be shown separately about the lead situation of the virtual runner through the sub-display), and the fastener area Rtp is displayed on one side of the screen.
  • the virtual runner is rendered out of the image, otherwise
  • the image to be safe may be implemented.
  • the virtual runner when the virtual batter hits the image that the user pitches to the ball, the virtual runner runs to the second base and the virtual batter While the image running to the first base is implemented, the first base throw area and the second base throw area are simultaneously displayed on the image to induce the user to throw the ball to any one of the first base and the second base.
  • the first base throw area, the second base throw area and the third base throw area may be simultaneously displayed on the screen after the virtual batter is hit.
  • the first base throw area, the second base throw area, the third base throw area and the home throw area may be simultaneously displayed on the screen after the virtual batter hits.
  • the control apparatus sets the display time for the throwing area in advance and displays the throwing area on the image
  • the throwing area is displayed during the preset display time and then the preset setting time.
  • the display time elapses, it can be extinguished.
  • the throwing area is displayed on the screen, the user must hit the throw while the throwing area is displayed, and if the ball hits the throwing area within the display time, the virtual batter or the virtual runner will be immediately processed out.
  • a simulation image in which the ball is thrown to the base is implemented on the image, and may be processed out or safe depending on the result of the implementation of the simulation image.
  • control device may set the time limit for the throwing of the user in the throwing area displayed on the image and display the progress of the time limit.
  • an image of a throwing region displayed on the screen and separately timed out may be implemented, or an image may be implemented such that the throwing region blinks during the limited time.
  • the virtual runner or the virtual batter is safe and if the user hits the throwing area before the time limit elapses, The virtual runner or the virtual batter may be treated to be immediately out, or may be processed to be safe or out depending on the result of the simulation image of the throw.
  • the controller calculates an effective time for the virtual runner or the virtual batter to be out by the throwing, and the throwing area lights up for the calculated valid time or during the valid time. It is also possible to make a predetermined display (eg, display a band around the throwing area in a color distinct from the throwing area) or to display the progress of the effective time numerically.
  • the virtual runner or the virtual batter may be processed out.
  • control apparatus stores in advance information on the main force (running ability) of the virtual runner or the virtual batter in the data storage, and stores the time limit for the throwing area in the data storage in the virtual runner.
  • the calculation may be determined based on the main batter's main information.
  • control device may be based on the main information of the virtual runner or the virtual batter stored in the data storage.
  • the information on the main power is stored as the ability value of the character for each character corresponding to the virtual runner or the virtual batter, and when the display of the throwing area as described above, the main information of the virtual runner or the virtual batter is extracted. Based on the main information, it is possible to calculate an effective time and to realize an image such as lighting a throwing area, displaying a preset display, or displaying the progress of the effective time numerically.
  • the throwing time indicating the throwing area itself is calculated based on the main information of the virtual runner or the virtual batter, and the throw is only for the time calculated when the virtual runner or batter can be out when the throwing hits. It is also possible to display the area.
  • the user may throw the ball to a specific throwing area, and the sensing device calculates ball movement information about the throwing of the ball by the user. From this, the time at which the ball reaches the screen (screen arrival time) and the position at which the ball reaches the screen (screen arrival position) are calculated, and these sensing information is transmitted to the control device, and the control device is configured to perform the above-mentioned operation.
  • Receive sensing information such as ball movement information, screen arrival time and screen arrival position (S120).
  • the control device implements an image in which the virtual ball is thrown to a position corresponding to the throwing area thrown by the user based on the received sensing information (S130).
  • control device determines whether the screen reach position is within the displayed throwing area (S140).
  • an image may be implemented in which a virtual defender in a corresponding base misses the throw as a bad throw.
  • FIG. 6 is a flowchart illustrating a process for calculating sensing information by a sensing device of a virtual baseball game device according to an embodiment of the present invention
  • FIG. 9 is an image captured by one camera of the camera unit of the sensing device.
  • FIG. 1 is a diagram illustrating a ball image (t1 to t11) appearing on an image of a plurality of frames at a time to explain a process of detecting a ball from an image and determining a ball motion model in a sensing device according to an embodiment of the present invention. will be.
  • the camera unit of the sensing device continuously acquires an image of the shooting range and stores it in a buffer before the user throws the ball (S10).
  • the sensing processing unit of the sensing device presets a trigger region on the image to be photographed, and sets a region of a preset size at a predetermined position on the image, extracts the trigger region for each image, and examines the extracted trigger region. (S12).
  • a trigger area TR having a preset size may be set as shown in FIG. 9 at a preset position on a path that is progressed as the user 10 throws a ball.
  • the sensing processing unit When the ball is detected in the trigger area TR (S12), the sensing processing unit continuously searches the trigger area to detect the direction in which the detected ball proceeds (S13).
  • the sensing processing unit may detect the moving direction of the ball by examining the trigger area TR.
  • the sensing processing unit examines a predetermined number of images after the point of view and views the ball from the image. The direction of travel may also be detected.
  • the trigger area may be set at any position between the ball pitching device and the turn at bat, but it may also occur if the ball thrown by the user falls, for example, as a bound ball, falls to the floor or reaches a wall or ceiling before reaching the screen, In such a case, if the trigger area is set at a position close to the mound, the ball may not be detected or correctly detected in the trigger area in the case of the bound ball.
  • the trigger region is preferably set in advance at a position close to the mound side on the image.
  • the sensing processing unit when the ball travel direction is detected as the ball travel direction toward the screen (S14), the sensing processing unit generates a trigger (S15).
  • the generation of the trigger through the extraction and analysis of the trigger region is preferably performed in conjunction with the display of the throwing region on the screen.
  • the determination process of trigger occurrence through extraction and analysis of the trigger region does not proceed, and the determination process of whether the trigger occurs above the moment when the throwing region is displayed on the screen is performed. It is desirable to proceed.
  • the sensing processing unit collects a predetermined number of images before, after, before, and after the trigger from the buffer (S20).
  • the sensing processing unit analyzes each of the collected images to detect a ball on each image (S21).
  • the detected ball may be a ball that is actually moving, but may be a ball lying on the floor of the play space or may include other noise.
  • step S21 what is detected in step S21 is a ball candidate.
  • Ball candidates on each of the images may be detected through several steps of the ball detection process.
  • the sensing processing unit stores an image previously photographed before the ball moves by the camera unit as a reference image.
  • a threshold value of a pixel value (brightness value) for pixels on the image is preset for the difference image, and the difference image is binarized based on the preset threshold value (a pixel value exceeding the threshold value). Pixels with white are binarized with pixels that are not).
  • the pixel value that is, the brightness value
  • the moving ball is mostly white and the remaining parts are black. It can be detected.
  • the sensing processing unit extracts a contour of a portion that appears in white from the binarized image, and for each extracted contour, a predetermined ratio such as aspect ratio, size of contour, brightness inside the contour, and the like is set.
  • the sensing processing unit presets the range of aspect ratio, size range, internal brightness range, etc.) for the ball, for example, when the extracted contour is long and the aspect ratio is out of the preset range. If the size of the extracted contour is out of the preset size range or is too small, the valid contours of the extracted contours are selected as the candidates for ball extraction. May contain balls or other noise lying on the floor).
  • the sensing processing unit is a time at which the ball starts to be thrown at the time of the ball number or the time stamp value when the ball candidate first appears on the image.
  • the value is detected as an initial time value (S22).
  • the sensing processing unit calculates the three-dimensional coordinates for each of the ball candidates detected on each image in the manner described above (S23).
  • the calculation of the three-dimensional coordinates can be performed by using coordinate information obtained from each of the acquired image of the first camera and the acquired image of the second camera for the same object.
  • the three-dimensional coordinate acquisition of the object using the stereo camera system has already been obtained. Since it is a known technology, description thereof will be omitted.
  • the sensing processing unit establishes an arbitrary ball motion model for arbitrary ball candidate coordinates using the three-dimensional coordinate data of the ball candidate calculated as described above (S24), and the initial detection detected in step S22.
  • the initial value of the ball is calculated by applying the time value to an arbitrary ball motion model (S25), and the ball candidate included in the corresponding ball motion model when the calculated initial coordinate value of the ball exceeds a preset range is removed. By removing the non-ball among the ball candidates in a manner to detect the coordinate data for the ball (S26).
  • the sensing processing unit determines a ball motion model for the ball being moved by the user using the detected ball coordinate data as described above (S27).
  • the ball motion model may be determined by obtaining a motion equation of each axis direction in the spatial coordinate system of the x-axis, y-axis and z-axis as illustrated in FIG. 1 using the three-dimensional coordinate data of the ball.
  • the virtual baseball game apparatus according to the embodiment of the present invention has a ball pitched by a user when the ball is made in a limited space (for example, a space formed by the side wall 11 and the rear wall 12, etc. as shown in FIG. 1). It is preferable to establish and determine the above-described ball motion model in consideration of the case of collision with a wall, ceiling, or the like.
  • the image captured and collected by the camera unit of the sensing device includes a user 10 pitching or throwing a ball at the mound 30 and a ball pitched or thrown to move toward the screen (t1 to t).
  • a user 10 pitching or throwing a ball at the mound 30 and a ball pitched or thrown to move toward the screen (t1 to t).
  • all parts (not shown) corresponding to the ball and other noise lying on the floor appear.
  • the sensing processing unit of the sensing device is defined in advance in the function of the x-axis direction, the function of the y-axis direction and the function of the z-axis direction for the ball motion in order to establish the motion model of the ball, shown in Figure 6
  • the equation of motion in each axial direction with respect to the ball motion can be determined to establish the ball motion model MD3.
  • each axial direction used in the modeling and determination of the motion model of the ball can be defined as follows, for example with some assumptions.
  • the y-axis motion with respect to the time of the moving ball can be assumed to be a constant velocity motion, it can be expressed as a first-order function of time as follows.
  • t denotes a time value
  • y denotes a y-direction coordinate value
  • a_y denotes an increase amount of the y-direction coordinates with respect to time (the slope of the function)
  • b_y denotes a y-direction coordinate value (intercept) when t is zero.
  • the x-axis motion with respect to the time of the moving ball can also be assumed to be a constant velocity motion, it can be expressed as a first-order function for the following time.
  • t is a time value
  • x is an x-direction coordinate value
  • a_x is an amount of increase of the x-direction coordinates (slope of the function) with respect to time
  • b_x means an x-direction coordinate value (intercept) when t is zero.
  • the z-axis motion along the time of the moving ball can be assumed to be an equivalent acceleration motion in which gravity always acts, it can be expressed as a quadratic function with respect to time as follows.
  • g gravity acceleration
  • t time value
  • z z-direction coordinate value
  • a_z z-direction velocity when t is 0
  • b_z z-direction coordinate value (intercept) when t is 0.
  • the time value can be known together with the three-dimensional coordinate data of each of the ball candidates (t1 to t11, etc.) (for example, when there is a ball candidate appearing in the image of the nth frame, the frame number or timestamp value of the ball candidate). Can be stored as the time value described above).
  • 'coordinate data included in the motion model' refers to coordinate data in which the coordinate value exists on the established motion model as well as the coordinate data that does not exist on the motion model but is close to a certain level. It will be defined to include all.
  • 'proximity to a certain level' refers to a case in which an error range is preset through a plurality of experiments and data exists within the preset error range.
  • the term 'coordinate data including the motion model' will be used to mean coordinate data within an error range preset for the motion model as described above.
  • the initial coordinate value of the ball according to the initial time value of the established motion model is checked to remove all the data included in the motion model that exceeds the preset range.
  • the valid ball coordinate data of the ball candidates may be obtained, and the final ball model may be determined by applying the valid ball coordinate data to the above function.
  • the sensing processing unit applies the coordinate information of the screen to the determined ball motion model, that is, the time at which the ball reaches the screen, that is, the screen.
  • the arrival time is calculated (S28).
  • the y-axis coordinates of the screen are always fixed values. Therefore, when the y-axis direction coordinate information of the screen is applied to the determined ball motion model, it is possible to calculate the time for the ball to reach the screen, that is, the screen arrival time.
  • the calculated screen arrival time can be applied to the determined ball motion model again to determine the remaining x-axis and z-axis coordinates (y-axis coordinates are already fixed).
  • the coordinate information in the x, y, z-axis directions determined as described above becomes position coordinates at which the ball reaches the screen, that is, coordinate information corresponding to the screen arrival position (S28).
  • the sensing processing unit calculates a motion parameter of the ball (eg, the speed, direction, height angle, etc. of the ball at the screen reach position) according to the ball model finally determined as described above, and the screen arrival time information as described above. And as the sensing information, together with the screen arrival position information.
  • a motion parameter of the ball eg, the speed, direction, height angle, etc. of the ball at the screen reach position
  • the screen reaching position is calculated to determine whether the position is within the displayed throwing area, and if the screen reaching position is within the throwing area ( In S140, the controller calculates a time Ta at which the virtual runner or the virtual batter reaches the base where the virtual batter runs.
  • the controller compares the screen arrival time Tr or the time Tb by adding the offset time to the time Ta at which the virtual runner or the virtual batter is bored (S160). .
  • the offset time is a time set in advance as the time taken for the action to tag the virtual runner from the moment the virtual defender receives the ball thrown by the user in the virtual space on the image.
  • the virtual runner When the screen arrival time (Tr) is compared with the Ta time, the virtual runner can be out by only hitting the ball without a tag, and the time when the screen arrival time plus the offset time (Tb) is compared with the Ta time. Is a case where the virtual runner can only be out through the tag.
  • the first base throw area is displayed when the virtual batter hits. If the user's throw hits the first base throw area, no tag is needed at this time. Is compared with Ta time.
  • the controller controls the virtual runner.
  • an image of the virtual batter being out is implemented (S180).
  • the control device is a virtual runner or An image of the virtual batter being safe is implemented (S190).
  • the time it takes to throw (screen arrival time) or the time it takes to reach the tag after throwing (screen arrival time plus the offset time) is longer than the time it takes for the virtual runner or virtual batter to reach the base.
  • the runner or the imaginary hitter is safe.
  • the control device implements an image for the case in which the throwing is wrong (S142), the virtual defender on the image by the wrong throwing the throwing Sometimes you can't catch a virtual ball and fall back.
  • the virtual runner or the virtual batter may continue to base and advance to the next base.
  • the process of displaying the throwing area is performed again from S110 (S144).
  • the experiential virtual baseball game apparatus and the virtual baseball game control method according to the present invention based on the image projected on the screen so that the user can directly experience the baseball game with the virtual team on the image
  • An experiential virtual baseball game device wherein a user playing a virtual baseball game with the virtual team with respect to the base play of the virtual team on the video is enabled to prevent play of the virtual team. And it is desirable to obtain a very high sensing accuracy and sensing speed by using an image sensing method for the user's play.
  • a virtual batter is implemented as an image through a screen installed in front of the user in a room of a predetermined size
  • a screen installed in front of the user in a room of a predetermined size

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 스크린에 투영되는 영상에 기반하여 사용자가 직접 체험하면서 영상 상의 가상의 팀과 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치에 관한 것으로서, 영상 상의 가상의 팀의 주루 플레이에 대해 상기 가상의 팀과 가상 야구 게임을 하는 사용자가 상기 가상의 팀의 주루 플레이를 저지할 수 있도록 하는 플레이가 가능하도록 하고 이러한 사용자의 플레이에 대해 이미지 센싱 방식의 센싱장치를 이용하여 상당히 높은 센싱 정확성과 센싱 속도를 얻을 수 있어, 사용자로 하여금 야구 게임의 다양성과 리얼리티를 충분히 즐길 수 있도록 하는 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법을 제공하기 위한 것이다.

Description

체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법
본 발명은 소정 크기의 실내 공간에서 스크린에 투영되는 가상 야구 영상을 기반으로 사용자가 마운드에서 상기 스크린을 향하여 볼을 피칭하고 이를 센싱장치가 센싱하여 그 센싱 결과에 따른 시뮬레이션 영상을 구현하는 소위 스크린 야구 시스템과 같은 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법에 관한 것이다.
최근 야구 인구가 증가하면서, 넓은 야구 경기장에서 실제 야구 플레이를 하기 어려운 한계를 극복하고 좁은 실내 공간에서도 야구 경기의 현장감을 느끼면서 가상으로 야구 플레이를 할 수 있도록 하는 소위 스크린 야구 시스템이 등장하게 되었다.
통상적으로 스크린 야구 시스템은 실내에 소정 크기의 공간에서 사용자가 타자가 되어 피칭머신에서 투구되는 볼을 타격할 수 있는 타석을 마련하거나 사용자가 투수가 되어 볼을 피칭할 수 있는 마운드를 마련하고, 가상의 야구장을 디스플레이할 수 있는 스크린을 설치하며, 상기 사용자가 타석에서 볼을 타격하거나 마운드에서 상기 스크린을 향하여 볼을 피칭하면, 센싱장치가 그 타격된 볼 또는 피칭된 볼의 움직임을 센싱하여 그 센싱 결과에 기초하여 야구 게임 진행을 위한 영상을 구현하는 방식이다.
한국특허출원 제10-2015-0041844호, 한국특허출원 제10-2015-0041861호, 한국특허출원 제10-2014-0054105호, 미국등록특허 제5443260호, 일본등록특허 제4743763호 등 다수의 선행기술문헌에서 상기한 바와 같은 스크린 야구 시스템에 대한 내용을 개시하고 있다.
그러나, 일반적으로 야구 경기에 있어서 투구와 타격만이 이루어지는 것이 아니라 주루에 관한 부분이 상당히 큰 비중을 차지하고 있고 야구를 즐기는 사람들이라면 주루에 관한 부분을 상당히 중요하게 생각함에도 불구하고, 종래의 스크린 야구 시스템에서는 사용자가 볼을 타격하는 것만 수행하거나 사용자가 볼을 피칭하는 것만 수행할 뿐, 주루에 관한 부분은 게임 상에서의 AI(게임 캐릭터의 인공지능)에 의존하여 실행되는 것을 지켜보기만 할 뿐이므로, 투구나 타격만을 하는 사용자가 쉽게 스크린 야구 게임에 대한 흥미를 잃게 되며 야구 게임의 다양성을 충분히 즐길 수가 없는 문제점이 있었다.
본 발명은 스크린에 투영되는 영상에 기반하여 사용자가 직접 체험하면서 영상 상의 가상의 팀과 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치에 관한 것으로서, 영상 상의 가상의 팀의 주루 플레이에 대해 상기 가상의 팀과 가상 야구 게임을 하는 사용자가 상기 가상의 팀의 주루 플레이를 저지할 수 있도록 하는 플레이가 가능하도록 하고 이러한 사용자의 플레이에 대해 이미지 센싱 방식의 센싱장치를 이용하여 상당히 높은 센싱 정확성과 센싱 속도를 얻을 수 있어, 사용자로 하여금 야구 게임의 다양성과 리얼리티를 충분히 즐길 수 있도록 하는 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법을 제공하기 위한 것이다.
본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법은, 스크린에 투영되는 가상 야구 영상을 기반으로 사용자가 영상 상의 가상의 선수와 야구 연습 또는 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법으로서, 상기 야구 연습 또는 야구 게임을 위한 영상을 구현하는 제어장치가, 상기 사용자가 수비하는 팀에 대해 가상의 팀이 공격하는 것에 대한 영상을 구현하는 단계; 상기 제어장치가, 상기 가상의 팀의 공격에 따라 영상 상에 상기 사용자의 볼 송구를 유도하는 적어도 하나의 송구 영역을 표시하는 단계; 상기 사용자가 볼을 송구함에 따라 센싱장치가 상기 사용자에 의해 송구되어 운동하는 볼에 대한 운동 정보를 산출하고, 상기 산출된 볼의 운동 정보를 이용하여 상기 볼이 상기 스크린에 도달하는 위치인 스크린 도달 위치를 산출하여 상기 제어장치로 전달하는 단계; 및 상기 제어장치가 상기 스크린 도달 위치가 상기 영상 상에 표시된 송구 영역 내에 위치하는지 여부를 판단하여 그 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계를 포함한다.
한편, 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치는, 스크린에 투영되는 가상 야구 영상을 기반으로 사용자가 영상 상의 가상의 선수와 야구 연습 또는 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치로서, 상기 사용자가 볼을 송구함에 따라 그 송구되어 운동하는 볼에 대한 운동 정보를 산출하고, 상기 산출된 볼의 운동 정보를 이용하여 상기 볼이 상기 스크린에 도달하는 위치인 스크린 도달 위치를 산출하는 센싱장치; 및 상기 사용자가 수비하는 팀에 대해 가상의 팀이 공격하는 것에 대한 영상을 구현하고, 상기 가상의 팀의 공격에 따라 영상 상에 상기 사용자의 볼 송구를 유도하는 적어도 하나의 송구 영역을 표시하며, 상기 스크린 도달 위치가 상기 영상 상에 표시된 송구 영역 내에 위치하는지 여부를 판단하여 그 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 제어장치를 포함한다.
본 발명에 따른 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법은, 스크린에 투영되는 영상에 기반하여 사용자가 직접 체험하면서 영상 상의 가상의 팀과 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치에 관한 것으로서, 영상 상의 가상의 팀의 주루 플레이에 대해 상기 가상의 팀과 가상 야구 게임을 하는 사용자가 상기 가상의 팀의 주루 플레이를 저지할 수 있도록 하는 플레이가 가능하도록 하고 이러한 사용자의 플레이에 대해 이미지 센싱 방식의 센싱장치를 이용하여 상당히 높은 센싱 정확성과 센싱 속도를 얻을 수 있어, 사용자로 하여금 야구 게임의 다양성과 리얼리티를 충분히 즐길 수 있도록 하는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치로서 가상 야구 시뮬레이션 시스템, 즉 소위 스크린 야구 시스템이 구현된 예를 나타낸 것이다.
도 2는 도 1에 도시된 체험형 가상 야구 게임 장치 의 구성에 관하여 나타낸 블록도이다.
도 3 및 도 4는 각각 본 발명의 다른 일 실시예 및 또 다른 일 실시예에 따른 체험형 가상 야구 게임 장치에 관하여 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치의 야구 게임 제어 방법에 관하여 설명하기 위한 플로우차트이다.
도 6은 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치의 센싱장치에 의한 센싱정보 산출을 위한 프로세스를 나타내는 플로우차트이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치에 의해 진행되는 야구 게임 진행 과정에서 나타나는 다양한 송구 영역에 대해 설명하기 위한 도면들이다.
도 9는 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치의 센싱장치의 카메라유닛 중 하나의 카메라에서 촬영하고 있는 영상을 가정하여 나타낸 도면으로서, 다수 프레임의 이미지 상에서 나타나는 볼 이미지를 한꺼번에 나타낸 것이다.
본 발명에 따른 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법에 관한 좀 더 구체적인 내용을 도면을 참조하여 설명하도록 한다.
먼저, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치에 관하여 설명한다. 도 1은 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치로서 소위 스크린 야구 시스템이 구현된 예를 나타낸 것이고, 도 2는 도 1에 도시된 체험형 가상 야구 게임 장치의 구성에 관하여 나타낸 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치는 측벽(11)과 후벽(12) 등에 의해 형성되는 공간에 마운드(30)와 스크린(20)을 마련하여, 상기 마운드(30)에서 사용자가 볼(1)을 피칭할 수 있도록 구현된다.
상기 스크린(20)과 후벽(12) 사이의 공간부(SP)에는 상기 스크린(20) 상에 투영될 야구장 영상, 가상의 팀의 공격 등에 관한 영상 및 사용자가 투구 또는 송구한 볼에 대한 시뮬레이션 영상 등에 관한 정보 처리를 위한 제어장치(300)가 구비될 수 있다(제어장치(300)에서 처리된 영상은 영상출력부(420)를 통해 스크린(20)에 투영된다).
도 1에서는 스크린(20)에 투영된 영상(IM) 상에서 가상의 타자(VB)가 사용자(P1)가 피칭하는 볼을 타격 준비하고 있고 가상의 주자(VR)가 주루 플레이를 하는 것을 서브디스플레이(SD)를 통해 나타내며, 사용자로 하여금 리드하고 있는 가상의 주자(VR)를 아웃시키기 위한 송구를 유도하는 송구 영역(Rt)을 영상(IM) 상에 표시한 것에 대해 나타내고 있다.
본 발명에 따른 야구 연습 장치는 사용자가 마운드에서 볼을 피칭하는 야구 연습 또는 야구 게임을 가능하게 하는 것은 물론, 사용자가 볼을 타격하는 야구 연습 또는 야구 게임을 가능하게 하는 시스템으로 구성하는 것도 가능하다. 이때에는 상기 마운드(30)가 사용자가 볼을 타격할 때에는 타석이 된다.
그리고, 사용자가 볼을 타격하는 야구 연습 또는 야구 게임을 하는 경우에는 스크린(20) 뒤쪽에 볼 피칭장치(미도시)를 설치하고 상기 스크린(20) 상에는 피칭홀(미도시)을 형성하여 상기 볼 피칭장치에서 타석으로 볼을 발사하는 방식으로 구성될 수 있다. 이에 관한 예는 뒤에 도 4에서 설명하도록 한다.
본 발명의 일 실시예에 따른 야구 연습 장치의 제어계통을 살펴보면, 본 발명의 일 실시예에 따른 야구 연습 장치는 도 1 및 도 2에 도시된 바와 같이 제어장치(300) 및 센싱장치(200)를 포함하여 구성될 수 있다. 만약 사용자가 볼 피칭은 물론 볼 타격까지 할 수 있는 시스템인 경우에는 볼 피칭장치도 본 발명에 포함될 수 있다.
상기 센싱장치(200)는 촬영한 이미지를 분석하여 이미지상의 객체에 대한 센싱을 하는 방식으로서, 마운드(30)를 포함하는 일정 촬영 범위에 대한 이미지를 취득하여 분석함으로써 사용자가 피칭하는 볼 및 사용자가 송구 영역으로 송구하는 볼에 대한 볼 운동 정보의 산출 및 그 산출된 볼 운동 정보를 이용하여 사용자가 피칭한 볼 또는 송구한 볼이 스크린에 도달하는 시간과 스크린 도달 위치 등의 정보를 산출하는 기능을 수행한다.
도 2에 도시된 바와 같이, 상기 센싱장치(200)는 카메라유닛(210)과, 센싱처리유닛(220)을 포함하여 구성될 수 있는데, 상기 카메라유닛(210)은 마운드(30)를 포함하는 일정 촬영 범위에 대한 이미지를 연속적으로 취득하며, 상기 센싱처리유닛(220)은 상기 카메라유닛(210)으로부터 이미지를 전달받아 미리 설정된 사항에 따른 이미지 분석을 수행하여 상기 야구 연습 장치를 이용한 야구 연습 또는 야구 게임에 필요한 정보를 산출한다.
상기 센싱장치(200)의 카메라유닛(210)은 서로 다른 위치에서 동일한 촬영 범위를 각각 촬영하여 촬영된 이미지 상의 객체에 대한 3차원 위치 정보를 산출해 낼 수 있도록 제1 카메라(211) 및 제2 카메라(212)를 포함하여 스테레오 방식(Stereoscopic)으로 구성함으로써, 상기 센싱처리유닛(220)이 상기 카메라유닛(210)이 촬영한 이미지의 분석을 통해 볼에 대한 3차원 좌표 데이터를 얻을 수 있도록 함이 바람직하다.
그리고, 상기 센싱처리유닛(220)은 상기 카메라유닛(210)의 제1 카메라(211) 및 제2 카메라(212) 각각으로부터 촬영된 이미지를 전달받아 수집하면서 그 수집된 이미지 각각을 분석하여 볼을 찾아 각 볼에 대한 3차원 좌표 데이터를 추출하고 그 추출된 3차원 좌표 데이터를 이용하여 피칭되어 운동하는 볼 또는 타격되어 운동하는 볼에 대한 볼의 운동 모델을 결정하며, 볼의 운동 모델이 결정되면 이를 이용하여 본 발명에 따른 체험형 가상 야구 게임 장치를 이용한 야구 연습 또는 야구 게임에 필요한 각종 정보를 산출한다.
여기서, 볼의 운동 모델은 피칭되어 또는 송구되어 운동하는 볼의 3차원 공간 상에서의 궤적에 관한 운동 방정식으로 표현되는 것을 의미하며, 도 1에 도시된 바와 같이 본 발명에 따른 체험형 가상 야구 게임 장치에 의한 야구 연습 또는 야구 게임이 이루어지는 공간에 대해 x축, y축 및 z축의 3차원 좌표계로 정의하여 그 정의된 좌표계에 따라 상기 볼의 운동 모델이 결정될 수 있다.
즉, 상기 볼의 운동 모델은 x축 방향의 운동 방정식, y축 방향의 운동 방정식 및 z축 방향의 운동 방정식으로 정의될 수 있다. 이에 대한 좀 더 구체적인 내용은 후술하도록 한다.
한편, 상기 센싱장치(200)가 상기한 볼 운동 정보를 산출하여 이를 제어장치(300)로 전송하고, 상기 제어장치(300)는 전송받은 볼 운동 정보에 기초하여 볼 운동에 대한 시뮬레이션 영상을 구현하여 영상출력부(420)를 통해 스크린부(20)에 투영되도록 할 수 있다.
한편, 상기 제어장치(300)는, 도 2에 도시된 바와 같이 데이터저장부(320), 영상처리부(330) 및 제어부(310)를 포함하여 구성될 수 있다.
상기 데이터저장부(320)는 체험형 가상 야구 게임 장치에서 이루어지는 야구 시뮬레이션 영상 등의 처리를 위한 데이터가 저장되는 부분이다. 상기 데이터저장부(320)는 서버(미도시)로부터 전송받은 데이터를 일시적으로 저장하는 저장소 역할을 하는 것으로 구성될 수도 있다.
상기 영상처리부(330)는 가상의 야구장에 관한 영상, 선수와 심판, 관객 등에 관한 영상 등의 백그라운드 영상과 가상의 포수, 가상의 타자, 가상의 심판 등이 상기 사용자가 피칭하는 볼을 기다리는 영상, 가상의 주자가 주루 플레이를 하는 영상, 사용자가 피칭한 볼의 궤적에 대한 시뮬레이션 영상 등 각종 야구 시뮬레이션 관련 영상을 생성하기 위하여 영상 데이터에 대한 미리 설정된 프로그램에 따른 처리를 수행하며, 처리된 영상은 영상출력부(420)로 전송하고 상기 영상출력부(420)는 전송받은 영상을 사용자가 볼 수 있도록 스크린(20)에 투영한다.
상기 제어부(310)는 본 발명에 따른 야구 연습 장치의 각 구성요소들을 제어하며 상기 센싱장치(200)로부터 전송되는 각종 정보에 기초하여 볼의 궤적에 대한 시뮬레이션 등 야구 시뮬레이션 영상 구현을 위한 각종 연산을 수행한다.
한편, 본 발명에 따른 야구 연습 장치는, 도 1에 도시된 바와 같이 야구 게임 진행 과정에서 영상 상에 송구 영역(Rt)이 표시되었을 때, 사용자(P1)가 볼(1)을 상기 송구 영역(Rt)으로 송구하면 이를 센싱장치(200, 도 2 참조)가 센싱하여 산출하는 센싱 정보에 기초하여 구현되는 가상의 볼이 해당 루에 위치하는 가상의 수비수에게 간다.
이때 영상(IM) 상의 가상의 주자(VR)는 원래 있던 위치로 되돌아가거나 다음 루로 달릴 수 있으며, 제어장치는 이와 같은 내용의 영상을 상기 가상의 주자(VR)에 대해 미리 설정된 AI(Artificial Intelligence: 게임 캐릭터에 대한 인공지능)에 따라 수행할 수도 있고, 다른 사용자가 단말기를 조작하여 상기 가상의 주자(VR)에 대한 액션을 제어하도록 할 수도 있다.
도 3은 다른 사용자가 단말기를 조작하여 가상의 주자가 상기 다른 사용자의 조작에 따른 주루 플레이를 수행하는 경우에 대해 나타내고 있다.
도 3에서 체험형 가상 야구 게임 장치에 관한 부분들은 모두 도 1에 도시된 체험형 가상 야구 게임 장치와 동일하므로 이에 대한 구체적인 설명은 생략하도록 한다.
도 3에 도시된 바와 같이, 본 실시예에서는 볼을 피칭 또는 송구하는 사용자(P1) 외 다른 사용자가 제어장치(300)와 유선 또는 무선 통신하도록 구비되는 단말기(500)를 조작하여 가상의 타자(VB)의 액션을 제어하기도 하고 가상의 주자(VR)의 주루 플레이를 제어하도록 구성된다.
상기 단말기(500)는 디스플레이부(510)와 입력부(520)를 구비하는데, 상기 디스플레이부(510)는 상기 입력부(520)의 조작이나 터치 입력 등에 의해 조작이 가능하도록 구성됨이 바람직하다.
상기 단말기(500)의 디스플레이부(510)에서는 상기 마운드(30)에서 사용자가 볼 피칭을 할 때에는 스크린(20)에 투영되는 영상(IM) 상의 가상의 타자(VB)를 조작할 수 있는 화면을 제공하여 상기 다른 사용자가 상기 가상의 타자(VB)가 타격, 헛스윙, 볼거르기 등의 액션을 취하도록 제어하며, 도 3에 도시된 바와 같이 가상의 주자(VR)가 출루해 있는 상황에서는 상기 디스플레이부(510)에서 상기 가상의 주자(VR)의 도루 등을 조작할 수 있는 화면을 제공하여 상기 다른 사용자가 상기 가상의 주자(VR)의 주루 플레이를 제어할 수 있도록 한다.
예컨대, 도 3에 도시된 바와 같이, 가상의 주자(VR)가 1루에 출루해 있는 상황에서 타석에 가상의 타자(VB)가 들어섰을 때, 사용자(P1)는 가상의 타자(VB)에 대해 볼을 피칭하면서 스크린(20) 상의 영상(IM)에서 서브디스플레이(SD)로 상기 1루에 있는 가상의 주자(VR)의 상태를 보여준다.
이때 다른 사용자는 단말기(500)의 디스플레이부(510)에서 제공하는 화면에서 상기 가상의 주자(VR)가 리드할 수 있도록 조작할 수 있고, 이에 따라 스크린(20) 상의 영상(IM)의 일측에는 사용자(P1)가 상기 가상의 주자(VR)가 도루하지 못하도록 견제구를 던질 수 있도록 유도하는 송구 영역(Rt)(즉, 견제구 영역)을 표시하고, 사용자(P1)가 해당 견제구 영역(Rt)에 볼(1)을 던져 상기 견제구 영역(Rt) 내에 정확하게 견제구를 송구한 경우, 영상(IM) 상에서 가상의 볼이 1루로 송구되어 상기 리드하고 있는 가상의 주자(VR)를 아웃시킬 수 있도록 할 수 있다.
그리고, 상기 다른 사용자가 단말기(500)를 통해 영상 상의 가상의 주자나 타자에 대한 주루 플레이(예컨대, 도루 등)를 조작함에 따라, 영상 상에서 상기한 서브디스플레이(SD) 등을 통해 주루 플레이가 진행되는 것을 사용자(수비팀의 사용자)에게 미리 알리는 영상을 구현하면서 상기한 송구 영역을 표시하도록 함으로써 상기 사용자가 주루 플레이에 대비할 수 있도록 하는 것도 가능하다.
본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치는 이와 같은 방식으로 사용자와 야구 게임을 펼치는 상대방인 가상의 팀의 주루 플레이를 저지할 수 있도록 할 수 있어 야구에 있어서 볼 피칭뿐만 아니라 주루 플레이의 저지와 같은 다양한 체험이 가능하도록 할 수 있는 특징이 있다.
한편, 도 4에서는 본 발명에 따른 가상 야구 게임 장치와 다른 가상 야구 게임 장치를 소정의 서버를 통해 서로 네트워크로 연결하여 구현되는 시스템에 있어서, 본 발명에 따른 가상 야구 게임 장치(편의상 ‘제1 장치’라 함)에서는 사용자(편의상 ‘제1 사용자’라 함)가 볼을 피칭하고, 다른 가상 야구 게임 장치(편의상 ‘제2 장치’라 함)에서는 다른 사용자(편의상 제2 사용자’라 함)가 볼을 타격하는 방식으로 양 사용자가 서로 다른 장치를 통해 각각 공격과 수비를 할 수 있도록 구성할 수 있으며, 이때 제1 장치에서 제1 사용자가 볼 피칭한 것에 대해 제2 장치에서 볼 피칭장치가 타석으로 볼을 발사하여 제2 사용자가 그 발사된 볼을 타격하면 이에 따라 상기 제1 장치에서 영상(IM) 상의 가상의 타자(VB)가 가상의 볼을 타격하게 되는 방식으로 야구 게임이 진행되도록 할 수 있다.
도 4에서, RM1은 제1 장치를 이용하여 제1 사용자(P1)가 마운드(30)에서 영상(IM) 상의 가상의 타자(VB)를 상대로 볼(1)을 피칭을 하는 방식으로 야구 게임을 하는 플레이 공간을 지칭하고, RM2는 제2 장치를 이용하여 제2 사용자(P2)가 타석(30a)에서 볼 피칭장치(100)로부터 발사되는 볼(1a)을 타격하는 방식으로 야구 게임을 하는 플레이 공간을 지칭한다.
RM1의 제1 장치는 도 1에 도시된 본 발명의 일 실시예에 따른 가상 야구 게임 장치와 동일한 구성이며, RM2의 제2 장치 역시 센싱장치(200a)와 제어장치(300a)를 상기 제1 장치와 동일하게 구비하고 있으며, 상기 제2 장치는 스크린(20a) 뒷면에 볼 피칭장치(100)를 구비하고 있으며 상기 볼 피칭장치(100)로부터 볼(1a)이 타석(30a)으로 발사될 수 있도록 피칭홀(22a)이 형성된다.
상기한 볼 피칭장치 및 피칭홀의 구성은, 도면상으로 명확하게 도시하지는 않았지만 상기 제1 장치도 동일하게 구비하고 있을 수 있다.
즉, RM1의 제1 장치와 RM2의 제2 장치는 서로 동일한 구성을 갖는 장치일 수 있으며, 하나의 장치에서 공격과 수비가 모두 가능하도록 구성될 수 있다.
도 4에 도시된 바와 같이, 제1 장치의 제어장치(300)와 제2 장치의 제어장치(300a)는 서버(S)에 각각 연결되어 상기 서버(S)를 통해 서로 데이터를 주고 받을 수 있도록 구성된다.
따라서, 제1 장치에서 제1 사용자(P1)가 볼(1)을 피칭하면 센싱장치(200)가 이를 센싱하여 센싱 정보를 산출하며 그 산출된 센싱 정보를 제어장치(300)가 서버(S)로 전송한다.
상기 서버(S)는 제1 장치의 제어장치로부터 전송받은 센싱 정보를 제2 장치의 제어장치(300a)로 전송하며, 제2 장치의 제어장치(300a)는 그 전송받은 센싱 정보에 대응하는 볼을 발사할 수 있도록 볼 피칭장치(100)를 제어한다.
상기 제2 장치에서 볼 피칭장치(100)가 제1 사용자(P1)의 볼 피칭에 맞게 볼(1a)을 발사하면 제2 사용자(P2)가 이를 타격하거나 헛스윙하거나 볼거르기 할 수 있고, 센싱장치(200a)는 이를 감지하여 생성한 센싱 정보를 제어장치(300a)로 전달하고, 제어장치(300a)는 그 센싱 정보를 서버(S)로 전송한다.
상기 서버(S)는 그 센싱 정보를 제1 장치의 제어장치(300)로 전송하며, 제1 장치의 제어장치(300)는 상기 서버(S)로부터 전송받은 센싱 정보에 기초하여 영상(IM) 상의 가상의 타자(VB)가 가상의 볼에 대해 타격, 헛스윙, 볼거르기 등의 액션을 수행하도록 영상 구현한다.
이와 같은 방식으로 RM1에서 플레이하는 제1 사용자(P1)와 RM2에서 플레이하는 제2 사용자(P2)가 서로 공격과 수비를 하면서 실제 야구 경기를 하는 것과 마찬가지로 체험형 가상 야구 경기를 즐길 수 있는 것이다.
도 4에 도시된 바와 같은 실시예에서도 가상의 주자가 출루해 있는 상황에서 도루를 하거나 가상의 타자(VB)가 타격을 함에 따라 가상의 주자가 다음 루로 이동하는 것에 대해 RM1에서 플레이하는 사용자(P1)가 스크린(20) 상에 표시되는 송구 영역에 볼을 송구하여 RM2에서 플레이하는 사용자(P2)에 의한 주루 플레이를 저지하도록 하는 플레이를 할 수 있다.
예컨대, 뎁스 카메라(Depth Camera)와 같은 3D 카메라를 이용하여 제2 장치에서 제2 사용자의 조작 행위나 액션을 감지하여 그 감지 정보를 서버로 전달하고 서버는 다시 제1 장치로 해당 정보를 전달하여 그 전달받은 정보에 기초하여 제1 장치의 영상 상에서 주루 플레이가 이루어지도록 할 수 있다.
RM1에서 플레이하는 사용자(P1)가 스크린(20) 상에 표시되는 송구 영역에 볼을 송구하여 상대팀의 주루 플레이를 저지하도록 하는 것에 대해서는 도 3에서 설명한 바와 동일하게 이루어질 수 있으며, 이에 대해서는 이미 설명한 바 있으므로 그 구체적인 설명은 생략하도록 한다.
주루 플레이에 있어서 도 3에 도시된 실시예와 도 4에 도시된 실시예의 차이점은, 도 3에 도시된 실시예에서는 가상의 팀의 주루 플레이를 다른 사용자가 단말기를 조작하여 수행하는 반면, 도 4에 도시된 실시예에서는 가상의 팀의 주루 플레이를 다른 사용자가 다른 가상 야구 게임 장치에서 플레이 함으로써 수행한다는 것이다.
한편, 도 5에 도시된 플로우차트를 참조하여 본 발명의 일 실시예에 따른 체험형 가상 야구 게임 장치의 야구 게임 제어 방법에 관하여 설명하도록 한다.
사용자가 수비팀을 맞고 이에 대해 가상의 팀이 공격을 하면서 가상 야구 게임이 시작되고, 상기 사용자가 수비하는 팀에 대해 상기 가상의 팀이 공격하는 것에 관한 영상이 구현된다(S100).
예컨대, 수비팀의 포수와 가상의 팀의 가상의 타자가 타석에 들어서서 타격 준비를 하는 것에 대한 영상이 구현된다.
그리고, 상기 가상의 팀의 공격에 따라 영상 상에 사용자의 볼 송구를 유도하는 적어도 하나의 송구 영역이 표시된다(S110).
상기한 송구 영역은, 상기 사용자로 하여금 1루에 대한 송구를 유도하는 1루 송구 영역, 2루에 대한 송구를 유도하는 2루 송구 영역, 3루에 대한 송구를 유도하는 3루 송구 영역, 홈에 대한 송구를 유도하는 홈 송구 영역 및 가상의 주자가 리드하는 것에 대해 견제구를 유도하는 견제구 영역을 포함하여, 이들 중 어느 하나가 공격 상황에 맞게 표시되거나 이들 중 복수개가 공격 상황에 맞게 표시될 수 있다.
예컨대, 가상의 주자가 없는 상황에서 사용자가 볼 피칭한 것을 가상의 타자가 영상 상에서 타격한 경우(그 타격의 결과가 땅볼인 경우), 상기 가상의 타자는 1루로 달려가는 영상이 구현되고 이와 동시에 1루 송구 영역이 영상의 일측에 표시되어 사용자로 하여금 1루로 볼을 송구하도록 유도할 수 있다.
1루에 가상의 주자가 출루해 있는 상황에서, 상기 가상의 주자가 2루 쪽으로 리드를 하는 경우, 영상의 일측에 견제구 영역을 표시하여 사용자로 하여금 1루로 견제구를 던지도록 유도할 수도 있다.
상기한 견제구 영역의 표시가 이루어지는 경우에 대해서는, 도 7에서 나타내고 있는데, 도 7에 나타낸 바와 같이 사용자(P1)가 영상(IM) 상의 가상의 타자(VB)를 상대로 볼 피칭하는 과정에서 1루에 있는 가상의 주자(도면 상에서는 도시되어 있지 않지만 서브디스플레이를 통해 가상의 주자의 리드 상황에 대해 별도로 나타낼 수 있다)가 리드를 하고 있고 이에 대해 화면의 일측에 견제구 영역(Rtp)이 표시된다.
사용자(P1)는 상기 견제구 영역(Rtp)에 볼을 던져 그 견제구 영역(Rtp) 내에 볼이 적중하면(그리고 견제구를 던진 타이밍도 적절하였다면), 가상의 주자는 아웃이 되는 영상이 구현되고 그렇지 않으면 세이프가 되는 영상이 구현될 수 있다.
한편, 또 다른 예를 들면, 1루에 가상의 주자가 출루해 있는 상황에서, 사용자가 볼 피칭한 것을 가상의 타자가 영상 상에서 타격한 경우, 상기 가상의 주자는 2루로 달려가고 상기 가상의 타자는 1루로 달려가는 영상이 구현되면서 영상 상에 1루 송구 영역과 2루 송구 영역이 동시에 표시되어 상기 사용자로 하여금 1루 및 2루 중 어느 한 곳으로 볼을 송구하도록 유도할 수 있다.
상기한 바와 같이 1루 송구 영역과 2루 송구 영역이 동시에 표시되는 경우에 대해서는 도 8에서 나타내고 있다.
사용자(P1)가 볼 피칭한 것을 가상의 타자가 타격한 경우, 1루에 있던 가상의 주자는 2루로 달려가고 가상의 타자는 1루로 달려가는데, 이때 도 8에 나타낸 바와 같이 1루 송구 영역(Rt1)과 2루 송구 영역(Rt2)이 동시에 영상(IM) 상에 표시되고, 사용자(P1)는 상기 1루 송구 영역(Rt1)과 2루 송구 영역(Rt2) 중 어느 한 곳에 볼을 송구할 수 있다.
만약, 가상의 주자가 1루 및 2루에 각각 있는 경우에는, 가상의 타자가 타격을 한 후에 1루 송구 영역, 2루 송구 영역 및 3루 송구 영역이 동시에 화면에 표시될 수 있으며, 가상의 주자가 1루 내지 3루에 모두 있는 경우에는, 가상의 타자가 타격을 한 후에 1루 송구 영역, 2루 송구 영역, 3루 송구 영역 및 홈 송구 영역이 모두 동시에 화면에 표시될 수도 있다.
상기한 바와 같은 송구 영역은, 제어장치가 상기 송구 영역에 대한 표시 시간을 미리 설정해 놓고 영상 상에 상기 송구 영역을 표시할 상황이 된 경우 상기 미리 설정된 표시 시간 동안 송구 영역을 표시하였다가 그 미리 설정된 표시 시간이 도과하면 소멸하도록 할 수 있다.
따라서, 사용자는 송구 영역이 화면에 표시된 경우 해당 송구 영역이 표시되어 있는 동안에 송구를 적중시켜야 하고, 해당 표시 시간 내에 송구 영역에 볼을 적중시킨 경우 가상의 타자 또는 가상의 주자가 곧바로 아웃 처리되도록 할 수도 있고, 해당 표시 시간 내에 송구 영역에 볼을 적중시키면 영상 상에서 해당 루로 볼이 송구되는 시뮬레이션 영상이 구현되고 그 시뮬레이션 영상의 구현 결과에 따라 아웃으로 처리되거나 세이프로 처리되도록 할 수도 있다.
한편, 상기한 송구 영역에 대해, 제어장치는 영상 상에 표시되는 송구 영역에 사용자의 송구에 대한 제한시간을 설정해 놓고 상기 제한시간의 진행을 함께 표시하도록 하는 것도 가능하다.
예컨대, 화면 상에 송구 영역이 표시되고 별도로 숫자로 제한시간이 진행하는 것에 대한 영상을 구현할 수도 있고, 상기 송구 영역이 상기 제한시간 동안 깜빡거리도록 영상 구현할 수도 있다.
상기 제한 시간이 경과한 후에 상기 송구 영역에 사용자가 송구를 적중시키는 경우에는 가상의 주자 또는 가상의 타자는 세이프 처리되고, 상기 제한 시간이 경과하기 전에 상기 송구 영역에 사용자가 송구를 적중시키는 경우에는 가상의 주자 또는 가상의 타자가 곧바로 아웃되도록 처리될 수도 있고 송구에 대한 시뮬레이션 영상의 결과에 따라 세이프나 아웃으로 처리되도록 하는 것도 가능하다.
또한, 상기한 송구 영역에 대해, 제어장치가 송구에 의해 상기 가상의 주자 또는 가상의 타자가 아웃 될 수 있는 유효 시간을 계산하고 상기한 송구 영역이 상기 계산된 유효 시간 동안 점등하거나 상기 유효 시간 동안 미리 설정된 표시(예컨대, 송구 영역과 구분되는 색상으로 송구 영역 주변에 띠를 표시하는 등)를 하거나 상기 유효 시간의 진행을 숫자로 표시하고 진행하도록 하는 것도 가능하다.
상기한 계산된 유효 시간 내에 상기 사용자가 송구한 볼이 상기 송구 영역 내에 적중하면 가상의 주자 또는 가상의 타자는 아웃 처리되도록 할 수 있다.
또한, 제어장치는 가상의 주자 또는 가상의 타자의 주력(달리기 능력)에 관한 정보를 데이터 저장부에 미리 저장해 놓고, 상기한 송구 영역에 대한 제한 시간을 상기 데이터 저장부에 저장해 놓은 상기 가상의 주자 또는 가상의 타자의 주력 정보를 기초로 하여 계산하여 결정할 수 있다.
물론, 상기한 유효 시간을 계산할 때에도 제어장치는 데이터 저장부에 저장된 가상의 주자 또는 가상의 타자의 주력 정보를 기초로 할 수 있다.
즉, 가상의 주자 또는 가상의 타자에 해당하는 캐릭터마다 해당 캐릭터의 능력치로 주력에 대한 정보가 저장되는데, 상기한 바와 같은 송구 영역을 표시할 때 가상의 주자 또는 가상의 타자의 주력 정보를 추출하여 그 주력 정보를 바탕으로 하여 유효 시간을 계산하고 그 유효 시간 동안 송구 영역을 점등 시키거나 미리 설정된 표시를 하거나 유효 시간의 진행을 숫자로 표시하는 등의 영상 구현이 가능하다.
상기한 송구 영역을 표시하는 시간 자체를 상기 가상의 주자 또는 가상의 타자의 주력 정보에 기초하여 계산하여 송구가 적중하였을 때 상기 가상의 주자나 타자가 아웃 될 수 있는 것으로 계산된 시간 동안만 상기 송구 영역을 표시하도록 하는 것도 가능하다.
다시 도 5로 돌아와서, 상기한 바와 같이 스크린 영상 상에 적어도 하나의 송구 영역이 표시된 후, 사용자가 볼을 특정 송구 영역으로 던질 수 있으며 이때 센싱장치는 사용자가 볼을 송구한 것에 대해 볼 운동 정보를 산출하고 그로부터 볼이 스크린에 도달하는 시간(스크린 도달 시간)과 볼이 스크린에 도달하는 위치(스크린 도달 위치)를 산출하여, 이들 센싱정보를 제어장치로 전달하고, 제어장치는 상기 센싱장치로부터 상기한 볼 운동 정보, 스크린 도달 시간 및 스크린 도달 위치 등의 센싱정보를 수신한다(S120).
제어장치는 상기 수신한 센싱정보에 기초하여 사용자가 송구한 송구 영역에 해당하는 위치로 가상의 볼이 송구되는 영상을 구현한다(S130).
이때 제어장치는 상기 스크린 도달 위치가 상기 표시된 송구 영역 내인지 여부를 판단한다(S140).
만약, 상기 스크린 도달 위치가 영상 상에 표시된 송구 영역 내인 경우에는 가상의 볼이 정확하게 송구되지만, 상기 스크린 도달 위치가 송구 영역 밖에 있는 경우에는 송구가 잘못된 경우에 대한 영상을 구현한다(S142).
예컨대, 악송구가 되어 해당 루에 있는 가상의 수비수가 해당 송구를 놓치는 영상이 구현될 수도 있다.
여기서, 상기 센싱장치에 의해 사용자가 송구한 볼에 대한 볼 운동 정보의 산출, 스크린 도달 시간 및 스크린 도달 위치의 산출을 하는 것에 대해 도 6 및 도 9를 참조하여 좀 더 구체적으로 설명하도록 한다.
도 6은 본 발명의 일 실시예에 따른 가상 야구 게임 장치의 센싱장치에 의한 센싱정보 산출을 위한 프로세스를 나타내는 플로우차트이고, 도 9는 센싱장치의 카메라유닛 중 하나의 카메라에서 촬영하고 있는 영상을 가정하여 나타낸 도면으로서, 다수 프레임의 이미지 상에서 나타나는 볼 이미지(t1 ~ t11)를 한꺼번에 나타내어 본 발명의 일 실시예에 따른 센싱장치에서 이미지로부터 볼을 검출하고 볼 운동 모델을 결정하는 프로세스를 설명하기 위한 것이다.
도 6에 도시된 바와 같이, 사용자가 볼을 송구하기 전부터 센싱장치의 카메라유닛은 그 촬영 범위의 이미지를 지속적으로 취득하고 이를 버퍼에 저장한다(S10).
센싱장치의 센싱처리유닛은 촬영되는 이미지 상에 트리거 영역을 미리 설정해 놓는데, 이미지 상의 미리 설정된 위치에 미리 설정된 크기의 영역을 정해놓고, 그 트리거 영역을 각 이미지마다 추출하여 그 추출된 트리거 영역을 조사한다(S12).
즉, 각 이미지로부터 추출되는 트리거 영역에서 어떤 객체, 즉 볼이 검출되는지 조사한다.
도 9를 참조하면, 사용자(10)가 볼을 송구함에 따라 진행하는 경로 상의 미리 설정된 위치에 미리 설정된 크기의 트리거 영역(TR)이 도 9에 도시된 바와 같이 설정될 수 있다.
트리거 영역(TR) 내에서 볼이 검출되면(S12), 센싱처리유닛은 상기 트리거 영역을 계속 조사하여 검출된 볼이 어느 방향으로 진행하는지 볼 진행 방향을 검출한다(S13). 상기 센싱처리유닛은 상기 트리거 영역(TR)을 조사하여 상기 볼 진행 방향을 검출할 수도 있고, 트리거 영역(TR)에서 볼이 검출되면 그 시점 이후의 미리 설정된 개수의 이미지를 조사하여 그 이미지로부터 볼 진행 방향을 검출할 수도 있다.
상기 트리거 영역은 볼 피칭장치로부터 타석 사이의 어느 위치이든 설정될 수 있지만, 사용자가 던진 볼이, 예컨대 바운드 볼이어서 스크린에 도달하기 전에 바닥에 떨어진다든지 벽이나 천정에 충돌하는 경우도 발생할 수 있으므로, 이와 같은 경우에 상기 트리거 영역이 마운드 쪽에 가까운 위치에 설정되어 있다면 상기한 바운드 볼 같은 경우 트리거 영역에서 볼이 검출되지 않거나 올바르게 검출되지 않을 수 있다.
따라서, 상기 트리거 영역은 이미지 상 마운드 쪽에 가까운 위치에 미리 설정하는 것이 바람직하다.
상기한 바와 같이 볼 진행 방향을 검출한 결과 상기 볼 진행 방향이 스크린 쪽을 향하는 방향인 경우(S14), 센싱처리유닛은 트리거를 발생시킨다(S15).
상기 트리거 영역의 추출 및 분석을 통한 트리거의 발생은 화면 상의 송구 영역의 표시와 연계하여 진행되는 것이 바람직하다.
즉, 화면 상에 송구 영역이 표시되기 전에는 트리거 영역의 추출 및 분석을 통한 트리거 발생 여부의 판단 프로세스가 진행되지 않다가, 화면 상에 송구 영역이 표시되는 순간부터 상기한 트리거 발생 여부의 판단 프로세스가 진행되도록 함이 바람직하다.
한편, 상기한 바와 같이 트리거가 발생하면, 센싱처리유닛은 트리거 발생시를 기준으로 그 이전 또는 그 이후 또는 그 이전 및 이후의 미리 설정된 개수의 이미지를 버퍼로부터 수집한다(S20).
센싱처리유닛은 미리 설정된 개수의 이미지가 수집되면 그 수집된 각각의 이미지를 분석하여 각 이미지 상에서 볼을 검출한다(S21). 여기서 검출된 볼은 실제로 운동하고 있는 볼일 수도 있지만 플레이 공간의 바닥에 놓여져 있는 볼일 수도 있고 기타 노이즈가 포함될 수도 있다.
따라서, 좀 더 정확하게 말하면 상기 S21 단계에서 검출되는 것은 볼 후보이다.
상기 각 이미지 상에서 볼 후보는 여러 단계의 볼 검출 프로세스를 통해 검출될 수 있다.
우선, 센싱처리유닛은 카메라유닛이 볼이 운동하기 전에 미리 촬영해 놓은 이미지를 레퍼런스 이미지로서 저장해 놓는다.
사용자의 볼 송구가 이루어지기 시작하면서 촬영되는 각각의 이미지에 대해서 상기 레퍼런스 이미지와의 차연산 기법(Image Differencing)에 의한 차영상을 구하면, 그 차영상에서는 운동하는 볼을 포함하는 움직이는 객체가 남아있게 된다.
그 차영상에 대해 영상상의 픽셀들에 대한 픽셀값(밝기값)의 문턱값(Threshold)을 미리 설정하고 그 미리 설정된 문턱값을 기준으로 상기 차영상을 이진화 처리한다(문턱값을 넘는 픽셀값을 갖는 픽셀들은 흰색, 그렇지 않은 픽셀들은 검은색으로 표현하여 이진화 한다).
실제 볼(야구공)의 경우 조명의 영향으로 이미지 상에서 픽셀값, 즉 밝기값이 크기 때문에 이진화를 수행하면 움직이는 볼은 대부분 흰색으로 나타나고 나머지 부분들은 검은색으로 나타나므로 이미지 상에서 움직이는 볼 부분을 용이하게 검출해 낼 수 있다.
센싱처리유닛은 상기한 이진화된 영상에서 흰색으로 나타나는 부분의 윤곽(Contour)을 추출하고 각각의 추출된 윤곽에 대해 가로세로비(Aspect Ratio), 윤곽의 크기, 윤곽 내부의 밝기 등 미리 설정된 조건에 대해 분석을 수행하는데(센싱처리유닛은 볼에 대한 가로세로비의 범위, 크기의 범위, 내부 밝기의 범위 등을 미리 설정하고 있다), 예컨대 추출된 윤곽이 길어서 가로세로비가 미리 설정된 범위를 벗어나는 경우, 추출된 윤곽의 크기가 미리 설정된 크기 범위를 벗어나거나 너무 작은 경우 등에는 해당 부분을 제거하는 방식으로 추출된 윤곽들 중에서 유효한 것을 볼 후보로서 선정한다(이와 같이 볼후보로 선정이 되어도 그 중에서는 바닥에 놓여 있는 볼이나 기타 노이즈가 포함되어 있을 수 있다).
상기한 바와 같이 이미지 상에서 볼후보를 추출하는 과정에서, 상기 센싱처리유닛은 이미지 상에 최초로 볼후보가 등장할 때의 프레임의 번호 또는 이때의 타임스탬프 값 등을 볼이 송구되기 시작하는 순간의 시간값, 즉 초기시간값으로서 검출한다(S22).
한편, 센싱처리유닛은 상기한 바와 같은 방식으로 각 이미지 상에서 검출된 볼후보 각각에 대한 3차원 좌표를 산출한다(S23).
상기한 3차원 좌표의 산출은 동일한 객체에 대한 제1 카메라의 취득 영상 및 제2 카메라의 취득 영상 각각으로부터 얻어지는 좌표 정보를 이용함으로써 가능한데, 스테레오 방식의 카메라 시스템을 이용한 객체의 3차원 좌표 취득은 이미 공지된 기술이므로 이에 대한 설명은 생략하도록 한다.
한편, 센싱처리유닛은 상기한 바와 같이 산출된 볼후보에 대한 3차원 좌표 데이터를 이용하여, 임의의 볼후보 좌표에 대해 임의의 볼 운동 모델을 수립하고(S24), 상기 S22 단계에서 검출된 초기시간값을 임의의 볼 운동 모델에 적용하여 볼의 초기좌표값을 산출하며(S25), 상기 산출된 볼의 초기좌표값이 미리 설정된 범위를 넘는 경우의 해당 볼 운동 모델에 포함되는 볼후보를 제거하는 방식으로 볼후보들 중 볼이 아닌 것을 제거하여 볼에 대한 좌표 데이터를 검출한다(S26).
센싱처리유닛은 상기한 바와 같이 검출된 볼 좌표 데이터를 이용하여 사용자에 의해 송구되어 이동하는 볼에 대한 볼 운동 모델을 결정한다(S27).
상기한 볼 운동 모델은 상기한 볼의 3차원 좌표 데이터를 이용하여 도 1에서 예시한 바와 같은 x축, y축 및 z축의 공간 좌표계에서 각 축 방향의 운동 방정식을 구함으로써 결정될 수 있는데, 본 발명의 일 실시예에 따른 가상 야구 게임 장치는 한정된 공간(예컨대, 도 1에 도시된 바와 같이 측벽(11)과 후벽(12) 등으로 형성되는 공간) 내에서 이루어지는 경우에 사용자에 의해 피칭된 볼이 벽, 천장 등에 충돌하는 경우를 고려하여 상기한 볼 운동 모델을 수립하여 결정하는 것이 바람직하다.
도 9에 도시된 바와 같이, 센싱장치의 카메라유닛에 의해 촬영되어 수집되는 이미지에는 마운드(30)에서 볼을 피칭 또는 송구하는 사용자(10)와, 피칭 또는 송구되어 스크린 쪽으로 이동하는 볼(t1 ~ t11)뿐만 아니라 바닥에 놓여 있는 볼 및 기타 노이즈에 해당하는 부분(미도시)도 모두 나타난다.
여기서, 센싱장치의 센싱처리유닛은 볼의 운동 모델을 수립하기 위하여 볼 운동에 대한 x축 방향의 함수, y축 방향의 함수 및 z축 방향의 함수를 각각 미리 정의하여 설정해 놓고, 도 6에 나타낸 바와 같은 볼(t1 ~ t11)의 3차원 좌표 데이터를 상기한 각 함수에 적용함으로써 볼 운동에 대한 각 축 방향의 운동 방정식을 결정하여 볼 운동 모델(MD3)을 수립할 수 있다.
볼의 운동 모델 수립 및 결정에서 이용되는 각 축 방향의 함수는, 예컨대 몇 가지 가정과 함께 아래와 같이 정의될 수 있다.
<y축 방향의 함수>
운동하는 볼의 시간에 대한 y축 방향 운동은 등속 운동으로 가정할 수 있으므로, 아래와 같은 시간에 대한 1차 함수로 표현할 수 있다.
y = a_y*t + b_y
여기서, t는 시간값, y는 y방향 좌표값, a_y는 시간에 대한 y방향 좌표의 증가량(함수의 기울기), b_y는 t가 0일 때의 y방향 좌표값(절편)을 의미한다.
<x축 방향의 함수>
운동하는 볼의 시간에 대한 x축 방향 운동도 등속 운동으로 가정할 수 있으므로, 아래와 같은 시간에 대한 1차 함수로 표현할 수 있다.
x = a_x*t + b_x
여기서, t는 시간값, x는 x방향 좌표값, a_x는 시간에 대한 x방향 좌표의 증가량(함수의 기울기), b_x는 t가 0일 때의 x방향 좌표값(절편)을 의미한다.
<z축 방향의 함수>
운동하는 볼의 시간에 따른 z축 방향 운동은 중력이 항상 작용하는 등가속도 운동으로 가정할 수 있으므로, 아래와 같은 시간에 대한 2차 함수로 표현할 수 있다.
z = a_z*t + b_z - 0.5*g*t2
여기서, g는 중력가속도, t는 시간값, z는 z방향 좌표값, a_z는 t가 0일 때의 z방향 속도, b_z는 t가 0일 때의 z방향 좌표값(절편)을 의미한다.
도 9에 도시된 바와 같이 분석하는 이미지 상에는 볼(t1 ~ t11) 뿐만 아니라 각종 노이즈가 포함될 수 있고, 이들이 모두 상기한 S21 단계에서 검출된 볼 후보들이라고 가정한다.
상기한 볼 후보들(t1 ~ t11 등) 각각의 3차원 좌표 데이터와 함께 시간값을 알 수 있다(예컨대, n번째 프레임의 이미지에 등장하는 볼 후보가 있을 때 해당 볼 후보의 프레임 번호 또는 타임스탬프 값을 상기한 시간값으로 하여 저장할 수 있다).
한편, 상기한 볼 후보들 중 유효한 볼의 좌표 데이터를 검출해 내기 위하여, 먼저 운동하는 볼이 벽이나 천장 등에 충돌하는 경우에 있어서 그 충돌 이후의 볼에 대한 좌표 데이터를 제거할 필요가 있고, 바닥에 놓은 볼 등 불필요한 노이즈 역시 제거할 필요가 있는데, 이는 상기 S26 단계와 같이 초기 시간값 및 초기좌표값을 이용하여 상기 초기좌표값이 미리 설정된 범위를 넘는지 조사하여 제거할 수 있다.
여기서, '운동 모델에 포함되는 좌표 데이터'라 함은 그 좌표값이 수립된 운동 모델 상에 존재하는 경우는 물론 좌표값이 운동 모델 상에 존재하는 것은 아니지만 그와 일정 수준으로 근접하고 있는 좌표 데이터를 모두 포함하는 것으로 정의하기로 한다. 여기서 '일정 수준으로 근접'한다는 것은 다수의 실험 등을 통해 오차 범위를 미리 설정하고 데이터가 그 미리 설정된 오차 범위 내에 존재하는 경우를 말한다.
이하에서 '운동 모델이 포함되는 좌표 데이터'라고 하는 것은 모두 상기한 바와 같이 그 운동 모델에 대해 미리 설정된 오차 범위 내의 좌표 데이터를 의미하는 것으로 하기로 한다.
임의로 좌표 데이터를 각 축 방향 함수에 적용하여 수립된 운동 모델의 초기 시간값에 따른 볼의 초기좌표값을 확인함으로써 상기 초기좌표값이 미리 설정된 범위를 넘는 운동 모델에 포함되는 데이터들을 모두 제거하는 방식으로 상기한 볼 후보들 중 유효한 볼의 좌표 데이터를 얻을 수 있으며, 유효한 볼의 좌표 데이터를 상기한 함수에 적용하여 최종적인 볼의 운동 모델을 결정할 수 있다.
상기한 바와 같이 사용자에 의해 송구되어 운동하는 볼에 대한 볼 운동 모델이 최종적으로 결정되면, 센싱처리유닛은 스크린의 좌표 정보를 상기 결정된 볼 운동 모델에 적용하여 볼이 스크린에 도달하는 시간, 즉 스크린 도달 시간을 산출한다(S28).
도 1을 참조하면, 스크린의 y축 방향 좌표는 항상 고정된 값이다. 따라서 스크린의 y축 방향 좌표 정보를 상기 결정된 볼 운동 모델에 적용하면 송구된 볼이 스크린에 도달하는 시간, 즉 스크린 도달 시간을 산출하는 것이 가능하다.
그리고, 상기한 바와 같이 스크린 도달 시간을 산출하면 그 산출된 스크린 도달 시간을 다시 상기 결정된 볼 운동 모델에 적용하여 나머지 x축 방향 좌표와 z축 방향 좌표를 결정할 수 있는데(y축 방향 좌표는 이미 고정된 값임), 이와 같이 결정된 x, y, z축 방향의 좌표 정보가 볼이 스크린에 도달하는 위치 좌표, 즉 스크린 도달 위치에 해당하는 좌표 정보가 되는 것이다(S28).
센싱처리유닛은 상기한 바와 같이 최종적으로 결정된 볼의 운동 모델에 따른 볼의 운동 파라미터(예컨대, 스크린 도달 위치에서의 볼의 속도, 방향, 높이각 등)를 산출하고, 이를 상기한 스크린 도달 시간 정보 및 스크린 도달 위치 정보와 함께 '센싱 정보'로서 제어장치로 전달할 수 있다.
다시 도 5로 돌아와서, 만약 사용자가 송구 영역에 볼을 송구하고 이에 따라 볼 운동 모델을 결정하여 스크린 도달 위치를 산출하여 그 위치가 표시된 송구 영역 내인지 판단한 결과, 스크린 도달 위치가 송구 영역 내인 경우(S140)에는, 제어장치는 가상의 주자 또는 가상의 타자가 주루하는 루에 도달하는 시간(Ta)을 산출한다(S150).
그리고, 제어장치는 상기한 스크린 도달 시간(Tr) 또는 이에 오프셋 시간을 더한 시간(Tb)을 상기한 가상의 주자 또는 가상의 타자가 주루하는 루에 도달하는 시간(Ta)과 비교한다(S160).
여기서, 상기 오프셋 시간은 영상 상에서 가상의 수비수가 사용자가 송구한 볼을 가상의 공간에서 전달받은 순간부터 가상의 주자에 대한 태그를 하는 액션에 걸리는 시간으로서 미리 설정한 시간이다.
스크린 도달 시간(Tr)을 Ta 시간과 비교하는 경우는 태그 없이 송구의 적중만으로 가상의 주자를 아웃 시킬 수 있는 경우이고, 스크린 도달 시간에 오프셋 시간을 더한 시간(Tb)을 Ta 시간과 비교하는 경우는 태그를 통해서만 가상의 주자를 아웃 시킬 수 있는 경우이다.
예컨대, 가상의 주자가 1루에 있는 상황에서 가상의 타자가 타격을 하면 2루 송구 영역이 표시되는데, 사용자의 송구가 상기 2루 송구 영역에 적중하였다면 이때에는 태그가 반드시 필요하므로, 상기 스크린 도달 시간에 오프셋 시간을 더한 시간(Tb)을 Ta 시간과 비교하는 경우이다.
만약 가상의 주자가 없는 상황이라면 가상의 타자가 타격을 하면 1루 송구 영역이 표시되는데, 사용자의 송구가 상기 1루 송구 영역에 적중하였다면 이때에는 태그가 필요하지 않으므로, 상기 스크린 도달 시간(Tr)을 Ta 시간과 비교하는 경우이다.
만약, 스크린 도달 시간(Tr) 또는 이에 오프셋 시간을 더한 시간(Tb)이 가상의 주자 또는 가상의 타자가 주루하는 루에 도달하는 시간(Ta)보다 짧다면(S170), 제어장치는 가상의 주자 또는 가상의 타자가 아웃 되는 영상을 구현한다(S180).
즉, 송구하는데 걸리는 시간(스크린 도달 시간) 또는 송구한 후 태그까지 하는데 걸리는 시간(스크린 도달 시간에 오프셋 시간을 더한 시간)이 가상의 주자 또는 가상의 타자가 루에 도달하는데 걸리는 시간보다 짧기 때문에 가상의 주자 또는 가상의 타자가 아웃 되는 것이다.
만약, 스크린 도달 시간(Tr) 또는 이에 오프셋 시간을 더한 시간(Tb)이 가상의 주자 또는 가상의 타자가 주루하는 루에 도달하는 시간(Ta)보다 길다면(S170), 제어장치는 가상의 주자 또는 가상의 타자가 세이프 되는 영상을 구현한다(S190).
즉, 송구하는데 걸리는 시간(스크린 도달 시간) 또는 송구한 후 태그까지 하는데 걸리는 시간(스크린 도달 시간에 오프셋 시간을 더한 시간)이 가상의 주자 또는 가상의 타자가 루에 도달하는데 걸리는 시간보다 길기 때문에 가상의 주자 또는 가상의 타자가 세이프 되는 것이다.
한편, 사용자의 송구에 대해, 스크린 도달 위치가 화면에 표시된 송구 영역 밖이라면 제어장치는 송구가 잘못된 경우에 대한 영상을 구현하는데(S142), 이때 잘못된 송구에 의해 영상 상에서 가상의 수비수가 그 송구된 가상의 볼을 캐치하지 못하고 뒤로 빠지는 경우가 있다.
이 경우 가상의 주자 또는 가상의 타자는 계속 주루를 하여 그 다음 루까지 진출할 수 있으며, 이와 같은 경우 상기 S110부터 다시 송구 영역의 표시 등의 프로세스가 다시 실행된다(S144).
만약, 잘못된 송구임에도 불구하고 볼이 뒤로 빠지지 않았거나 뒤로 빠진 볼이 다른 가상의 수비수에 의해 빠르게 캐치된 경우에는 가상의 주자 또는 가상의 타자가 계속 주루를 하지 않고, 세이프 되는 영상이 구현될 수 있다(S190).
이상 설명한 바와 같이, 본 발명에 따른 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법은, 스크린에 투영되는 영상에 기반하여 사용자가 직접 체험하면서 영상 상의 가상의 팀과 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치에 관한 것으로서, 영상 상의 가상의 팀의 주루 플레이에 대해 상기 가상의 팀과 가상 야구 게임을 하는 사용자가 상기 가상의 팀의 주루 플레이를 저지할 수 있도록 하는 플레이가 가능하도록 하고 이러한 사용자의 플레이에 대해 이미지 센싱 방식의 센싱장치를 이용하여 상당히 높은 센싱 정확성과 센싱 속도를 얻을 수 있어 바람직하다.
본 발명에 따른 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법은, 소정 크기의 실내 공간에서 사용자의 전방에 설치되는 스크린을 통해 영상으로 구현되는 가상의 타자에 대해 사용자가 볼을 피칭하고 이를 센싱장치가 센싱하여 상기 스크린 상에서 시뮬레이션 영상이 구현되도록 함으로써 사용자의 야구 연습 또는 가상의 야구 경기를 가능하게 하는 기술 분야에서 산업상 이용가능성을 갖는다.

Claims (18)

  1. 스크린에 투영되는 가상 야구 영상을 기반으로 사용자가 영상 상의 가상의 선수와 야구 연습 또는 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법으로서,
    상기 야구 연습 또는 야구 게임을 위한 영상을 구현하는 제어장치가, 상기 사용자가 수비하는 팀에 대해 가상의 팀이 공격하는 것에 대한 영상을 구현하는 단계;
    상기 제어장치가, 상기 가상의 팀의 공격에 따라 영상 상에 상기 사용자의 볼 송구를 유도하는 적어도 하나의 송구 영역을 표시하는 단계;
    상기 사용자가 볼을 송구함에 따라 센싱장치가 상기 사용자에 의해 송구되어 운동하는 볼에 대한 운동 정보를 산출하고, 상기 산출된 볼의 운동 정보를 이용하여 상기 볼이 상기 스크린에 도달하는 위치인 스크린 도달 위치를 산출하여 상기 제어장치로 전달하는 단계; 및
    상기 제어장치가 상기 스크린 도달 위치가 상기 영상 상에 표시된 송구 영역 내에 위치하는지 여부를 판단하여 그 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계;
    를 포함하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  2. 제1항에 있어서, 상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 가상의 팀의 공격 상황에 따라, 상기 사용자로 하여금 1루에 대한 송구를 유도하는 1루 송구 영역, 2루에 대한 송구를 유도하는 2루 송구 영역, 3루에 대한 송구를 유도하는 3루 송구 영역, 홈에 대한 송구를 유도하는 홈 송구 영역 및 가상의 주자가 리드하는 것에 대해 견제구를 유도하는 견제구 영역 중 적어도 하나를 표시하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  3. 제1항에 있어서,
    상기 가상의 팀이 공격하는 것에 대한 영상을 구현하는 단계는,
    적어도 하나의 가상의 주자가 출루한 상황에서 가상의 타자가 타석에서 타격 준비를 하는 것에 대한 영상을 구현하는 단계를 포함하고,
    상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 가상의 주자가 리드를 함에 따라 상기 사용자로 하여금 상기 리드를 한 가상의 주자에 대해 견제구를 유도하는 견제구 영역을 표시하는 단계를 포함하며,
    상기 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계는,
    상기 스크린 도달 위치가 상기 견제구 영역 내에 위치하는 것으로 판단하는 경우 상기 가상의 주자가 있는 루로 가상의 볼이 송구되도록 하거나 상기 가상의 주자가 아웃이 되도록 하는 영상을 구현함으로써 상기 야구 연습 또는 야구 게임을 진행하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  4. 제1항에 있어서,
    상기 가상의 팀이 공격하는 것에 대한 영상을 구현하는 단계는,
    가상의 타자가 타석에서 상기 사용자가 피칭한 볼에 대한 영상 상의 가상의볼을 타격하는 것에 대한 영상을 구현하는 단계를 포함하고,
    상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 가상의 타자가 타격 후 진루하는 루에 대해 상기 사용자로 하여금 송구를 유도하는 송구 영역을 표시하는 단계를 포함하며,
    상기 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계는,
    상기 스크린 도달 위치가 상기 송구 영역 내에 위치하는 것으로 판단하는 경우 상기 가상의 타자가 진루하는 루로 가상의 볼이 송구되도록 하거나 상기 가상의 타자가 아웃이 되도록 하는 영상을 구현함으로써 상기 야구 연습 또는 야구 게임을 진행하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  5. 제1항에 있어서,
    상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 가상의 팀의 공격 상황에 따라, 상기 사용자로 하여금 1루에 대한 송구를 유도하는 1루 송구 영역, 2루에 대한 송구를 유도하는 2루 송구 영역, 3루에 대한 송구를 유도하는 3루 송구 영역 및 홈에 대한 송구를 유도하는 홈 송구 영역 중 복수개의 송구 영역을 표시하는 단계를 포함하며,
    상기 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계는,
    상기 스크린 도달 위치가 상기 복수개의 송구 영역 중 어느 하나의 송구 영역 내에 위치하는지 판단하는 단계와,
    상기 스크린 도달 위치가 어느 하나의 송구 영역 내에 위치하는 경우, 해당 위치로 가상의 볼이 송구되도록 하거나 해당 위치에서 가상의 선수가 아웃이 되도록 하는 영상을 구현하는 단계와,
    상기 스크린 도달 위치가 상기 복수개의 송구 영역 중 어느 것에도 포함되지 않는 경우, 상기 가상의 볼이 잘못 송구되도록 하거나 해당 위치에서 가상의 선수가 세이프가 되도록 하는 영상을 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  6. 제2항에 있어서,
    상기 센싱장치는 상기 스크린 도달 위치와 함께, 상기 운동하는 볼에 대한 운동 정보를 이용하여 상기 사용자가 송구한 볼이 상기 스크린에 도달하는 시간인 스크린 도달 시간을 산출하여 상기 제어장치로 전달하며,
    상기 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계는,
    상기 스크린 도달 위치가 상기 특정 송구 영역 내에 포함되는 경우, 상기 제어장치가 가상의 주자 또는 가상의 타자가 주루하는 루에 도달하는 시간과 상기 스크린 도달 시간 또는 상기 스크린 도달 시간에 오프셋 시간을 더한 시간을 비교하여 상기 주루하는 가상의 주자 또는 가상의 타자가 아웃 또는 세이프 되도록 영상 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  7. 제1항에 있어서, 상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 영상 상에 표시되는 송구 영역에 상기 사용자의 송구에 대한 제한시간을 설정하고 상기 제한시간의 진행을 함께 표시하는 단계를 포함하며,
    상기 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계는,
    상기 제한시간이 경과한 후에 상기 송구 영역에 상기 사용자가 송구한 볼이 도달하는 경우, 가상의 주자 또는 가상의 타자가 세이프 되도록 영상 구현하는 단계와,
    상기 제한시간이 경과하기 전에 상기 송구 영역에 상기 사용자가 송구한 볼이 도달하는 경우, 상기 가상의 주자 또는 가상의 타자가 아웃 되도록 영상 구현하거나 상기 가상의 주자 또는 가상의 타자의 주루와 상기 사용자의 송구에 따른 시뮬레이션의 결과에 따라 상기 가상의 주자 또는 가상의 타자가 아웃 또는 세이프 되도록 영상 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  8. 제1항에 있어서, 상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 제어장치가 상기 송구 영역에 대한 표시 시간을 미리 설정하며, 상기 영상 상에 상기 송구 영역을 표시할 상황이 된 경우 상기 미리 설정된 표시 시간 동안 상기 송구 영역이 표시되었다가 소멸하도록 한 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  9. 제1항에 있어서, 상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 제어장치는 송구에 의해 상기 가상의 주자 또는 가상의 타자가 아웃 될 수 있는 유효 시간을 계산하는 단계와,
    상기 제어장치는 상기 표시된 송구 영역이 상기 계산된 유효 시간 동안 점등하도록 영상 구현하거나, 상기 표시된 송구 영역에 상기 계산된 유효 시간 동안 미리 설정된 표시 또는 상기 유효 시간의 진행을 표시하도록 영상 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  10. 제1항에 있어서,
    상기 제어장치는 상기 가상의 주자 또는 가상의 타자의 주력에 관한 정보를 미리 저장하며,
    상기 적어도 하나의 송구 영역을 표시하는 단계는,
    상기 제어장치가 상기 가상의 주자 또는 가상의 타자의 주력에 관한 정보에 기초하여 상기 영상 상에 표시되는 송구 영역에 상기 사용자의 송구에 대한 제한시간을 결정하여 설정하는 단계를 포함하며,
    상기 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 단계는,
    상기 제한시간이 경과한 후에 상기 송구 영역에 상기 사용자가 송구한 볼이 도달하는 경우, 가상의 주자 또는 가상의 타자가 세이프 되도록 영상 구현하는 단계와,
    상기 제한시간이 경과하기 전에 상기 송구 영역에 상기 사용자가 송구한 볼이 도달하는 경우, 상기 가상의 주자 또는 가상의 타자가 아웃 되도록 영상 구현하거나 상기 가상의 주자 또는 가상의 타자의 주루와 상기 사용자의 송구에 따른 시뮬레이션의 결과에 따라 상기 가상의 주자 또는 가상의 타자가 아웃 또는 세이프 되도록 영상 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  11. 제9항에 있어서,
    상기 제어장치는 상기 가상의 주자 또는 가상의 타자의 주력에 관한 정보를 미리 저장하고,
    상기 제어장치는 상기 저장된 가상의 주자 또는 가상의 타자의 주력에 관한 정보에 기초하여 상기 유효 시간을 계산함으로써 상기 가상의 주자 또는 가상의 타자 마다의 주력 정보에 따라 상기 유효 시간이 결정될 수 있도록 한 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  12. 제1항에 있어서, 상기 스크린 도달 위치를 산출하여 상기 제어장치로 전달하는 단계는,
    상기 사용자에 의해 송구되어 운동하는 볼에 대한 이미지를 촬영하는 단계와,
    상기 촬영되는 이미지 각각에 대해 상기 이미지상 미리 설정된 위치에 미리 설정된 크기의 트리거 영역을 추출하는 단계와,
    상기 추출된 트리거 영역 내에서 볼이 검출되는지 판단하는 단계와,
    상기 트리거 영역 내에서 볼이 검출된 경우, 상기 이미지 또는 상기 추출된 트리거 영역을 분석하여 볼 진행 방향이 상기 스크린 쪽을 향하는 방향인지 여부를 판단하는 단계와,
    상기 볼 진행 방향이 상기 스크린 쪽을 향하는 방향인 경우, 볼피칭 분석에 대한 트리거를 발생시키는 단계와,
    상기 트리거의 발생에 따라 상기 센싱장치에 의한 볼 운동 정보의 산출 및 상기 스크린 도달 위치의 산출을 위한 프로세스가 진행되는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  13. 제1항에 있어서, 상기 스크린 도달 위치를 산출하여 상기 제어장치로 전달하는 단계는,
    상기 사용자에 의해 송구되어 운동하는 볼에 대한 이미지를 촬영하는 단계와,
    상기 촬영되어 수집되는 이미지를 분석하여 운동하는 볼에 대한 각 이미지 상에서의 3차원 공간상의 좌표 데이터를 검출하는 단계와,
    상기 사용자가 플레이하는 3차원 공간상의 미리 정의된 각 좌표축 방향에서의 볼 운동에 대해 미리 정의된 함수에 상기 검출된 볼의 좌표 데이터를 적용함으로써 상기 사용자에 의해 피칭되어 운동하는 볼에 대한 볼 운동 모델을 산출하는 단계와,
    상기 스크린의 좌표 정보를 상기 산출된 볼 운동 모델에 적용하여 상기 운동하는 볼이 상기 스크린에 도달하는 시간인 스크린 도달 시간을 산출하는 단계와,
    상기 스크린 도달 시간을 상기 볼 운동 모델에 적용하여 상기 스크린 도달 위치를 산출하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  14. 제1항에 있어서,
    상기 체험형 가상 야구 게임 장치는 다른 사용자가 볼 피칭장치로부터 발사되는 볼을 타격하는 방식의 다른 체험형 가상 야구 게임 장치와 함께 네트워크로 서버에 연결되도록 구성되어, 상기 서버에 의해 양 게임 장치 사이에 데이터를 서로 주고 받을 수 있도록 하며,
    상기 가상의 팀이 공격하는 것에 대한 영상을 구현하는 단계는,
    상기 다른 체험형 가상 야구 게임 장치에서 상기 다른 사용자의 조작 또는 액션에 대한 센싱 정보가 상기 서버를 통해 상기 체험형 가상 야구 게임 장치의 상기 제어장치로 전송되는 단계와,
    상기 제어장치가 상기 서버로부터 전송받은 센싱 정보에 기초하여 상기 가상의 팀의 가상의 주자 또는 가상의 타자의 주루 플레이가 이루어지는 영상을 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  15. 제1항에 있어서,
    상기 체험형 가상 야구 게임 장치는 상기 사용자가 상기 가상의 선수와 야구 연습 또는 야구 게임을 진행할 때 다른 사용자가 상기 가상의 선수의 플레이를 조작할 수 있도록 하는 단말기와 유무선 통신 가능하도록 연결되어 구성되며,
    상기 가상의 팀이 공격하는 것에 대한 영상을 구현하는 단계는,
    상기 다른 사용자가 상기 단말기를 조작하여 상기 가상의 팀의 가상의 주자 또는 가상의 타자의 주루 플레이를 제어하는 단계와,
    상기 단말기의 조작에 따라 상기 영상 상에서 상기 가상의 팀의 가상의 주자 또는 가상의 타자의 주루 플레이가 이루어지는 영상을 구현하는 단계를 포함하는 것을 특징으로 하는 체험형 가상 야구 게임 장치에 의한 가상 야구 게임 제어방법.
  16. 스크린에 투영되는 가상 야구 영상을 기반으로 사용자가 영상 상의 가상의 선수와 야구 연습 또는 야구 게임을 할 수 있도록 하는 체험형 가상 야구 게임 장치로서,
    상기 사용자가 볼을 송구함에 따라 그 송구되어 운동하는 볼에 대한 운동 정보를 산출하고, 상기 산출된 볼의 운동 정보를 이용하여 상기 볼이 상기 스크린에 도달하는 위치인 스크린 도달 위치를 산출하는 센싱장치; 및
    상기 사용자가 수비하는 팀에 대해 가상의 팀이 공격하는 것에 대한 영상을 구현하고, 상기 가상의 팀의 공격에 따라 영상 상에 상기 사용자의 볼 송구를 유도하는 적어도 하나의 송구 영역을 표시하며, 상기 스크린 도달 위치가 상기 영상 상에 표시된 송구 영역 내에 위치하는지 여부를 판단하여 그 판단 결과에 따른 야구 연습 또는 야구 게임을 진행하는 제어장치;
    를 포함하는 체험형 가상 야구 게임 장치.
  17. 제16항에 있어서, 상기 제어장치는,
    상기 사용자로 하여금 1루에 대한 송구를 유도하는 1루 송구 영역, 2루에 대한 송구를 유도하는 2루 송구 영역, 3루에 대한 송구를 유도하는 3루 송구 영역, 홈에 대한 송구를 유도하는 홈 송구 영역 및 가상의 주자가 리드하는 것에 대해 견제구를 유도하는 견제구 영역 각각에 대해 미리 설정하도록 구성되며, 상기 가상의 팀의 공격 상황에 따라 상기 복수개의 영역 중 적어도 하나를 영상 상에 표시하도록 구성되는 것을 특징으로 하는 체험형 가상 야구 게임 장치.
  18. 제16항에 있어서,
    상기 센싱장치는,
    상기 스크린 도달 위치와 함께, 상기 운동하는 볼에 대한 운동 정보를 이용하여 상기 사용자가 송구한 볼이 상기 스크린에 도달하는 시간인 스크린 도달 시간을 산출하여 상기 제어장치로 전달하며,
    상기 제어장치는,
    상기 스크린 도달 위치가 상기 특정 송구 영역 내에 포함되는 경우, 상기 제어장치가 가상의 주자 또는 상기 가상의 타자가 주루하는 루에 도달하는 시간과 상기 스크린 도달 시간 또는 상기 스크린 도달 시간에 오프셋 시간을 더한 시간을 비교하여 상기 주루하는 가상의 주자 또는 가상의 타자가 아웃 또는 세이프 되도록 영상 구현하도록 구성되는 것을 특징으로 하는 체험형 가상 야구 게임 장치.
PCT/KR2017/001106 2016-02-04 2017-02-02 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법 WO2017135689A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0014345 2016-02-04
KR1020160014345A KR101865579B1 (ko) 2016-02-04 2016-02-04 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법

Publications (2)

Publication Number Publication Date
WO2017135689A2 true WO2017135689A2 (ko) 2017-08-10
WO2017135689A3 WO2017135689A3 (ko) 2017-10-05

Family

ID=59500227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/001106 WO2017135689A2 (ko) 2016-02-04 2017-02-02 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법

Country Status (3)

Country Link
KR (1) KR101865579B1 (ko)
TW (1) TW201728362A (ko)
WO (1) WO2017135689A2 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230045519A (ko) * 2021-09-28 2023-04-04 주식회사 피닉스다트 다트 게임 영상을 제공하기 위한 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101081161B1 (ko) * 2010-05-17 2011-11-07 태 원 이 야구게임 장치
KR101170147B1 (ko) * 2010-08-17 2012-07-31 박성우 가상 현실 스크린 야구 시스템
KR101230613B1 (ko) * 2011-03-09 2013-02-14 엔지비스 주식회사 Cmos센서를 기반으로 한 구형 물체의 비행정보 측정 시스템 및 방법
KR101394753B1 (ko) * 2012-12-28 2014-05-15 고선필 실내 스크린 야구 연습 시스템 및 그 구현 방법
KR101548511B1 (ko) * 2014-03-20 2015-09-01 조찬길 초고속 카메라와 적외선센서바를 이용한 스크린 야구게임 시스템
KR101494204B1 (ko) * 2014-05-15 2015-02-17 주식회사 트래킹 아이 스크린 야구 게임 시스템 및 그 시스템의 타자 모드, 투수 모드, 포수 모드, 야수 모드 구현 방법
KR101543371B1 (ko) * 2015-03-25 2015-08-21 주식회사 리얼야구존 스크린 야구 시스템 경기 방법

Also Published As

Publication number Publication date
TW201728362A (zh) 2017-08-16
WO2017135689A3 (ko) 2017-10-05
KR20170092979A (ko) 2017-08-14
KR101865579B1 (ko) 2018-06-08

Similar Documents

Publication Publication Date Title
WO2017123041A1 (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
WO2019177361A1 (ko) 가상 테니스 시뮬레이션 시스템, 이에 이용되는 센싱장치 및 센싱방법
WO2017135690A1 (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
WO2018030656A1 (ko) 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법
WO2017126850A1 (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
WO2012128574A2 (ko) 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법
WO2016080757A1 (ko) 다중 충격감지센서를 포함하는 탁구경기 진행시스템 및 이를 이용한 탁구 경기 점수표시방법
WO2012128568A2 (ko) 가상 골프 시뮬레이션 장치와, 이에 이용되는 센싱장치 및 센싱방법
WO2017105120A1 (ko) 야구 연습 장치, 이에 이용되는 센싱장치 및 센싱방법과, 볼 피칭 제어 방법
WO2012091514A2 (ko) 퍼팅 모드를 제공하는 가상 골프 시뮬레이션 장치 및 방법
WO2018074709A1 (ko) 실탄사격 시뮬레이션 게임 제공 방법 및 장치
WO2012002751A2 (en) Virtual golf simulation apparatus and method
WO2020213784A1 (ko) 운동 유도를 위한 스포츠 인터렉티브 컨텐츠 실행 시스템
WO2019039747A1 (ko) 가상 스포츠 시뮬레이션 장치
WO2013100239A1 (ko) 스테레오 비전 시스템의 영상처리방법 및 그 장치
WO2018038392A1 (ko) 스크린 야구 시스템 및 이를 이용한 좌완투수 및 우완투수의 구현방법
WO2017135689A2 (ko) 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법
WO2017160060A2 (ko) 가상 골프 시뮬레이션 장치, 가상 골프를 위한 영상 구현 방법 및 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록 매체
WO2016208976A1 (ko) 심판 기능이 포함된 스크린 야구 시뮬레이션 시스템 및 그 제공 방법
WO2012128566A2 (ko) 가상 골프 시뮬레이션 장치 및 그 방법과, 이에 이용되는 센싱장치 및 센싱방법
WO2015030534A1 (en) Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same
KR20170085460A (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
WO2020004885A1 (ko) 볼의 운동에 대한 센싱장치 및 그 센싱방법
WO2018097612A1 (ko) 사용자의 골프샷에 대한 정보를 산출하기 위한 센싱장치 및 이를 이용한 센싱방법
WO2012026681A2 (ko) 네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17747734

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17747734

Country of ref document: EP

Kind code of ref document: A2