KR101960454B1 - Virtual training system using bow - Google Patents

Virtual training system using bow Download PDF

Info

Publication number
KR101960454B1
KR101960454B1 KR1020170140741A KR20170140741A KR101960454B1 KR 101960454 B1 KR101960454 B1 KR 101960454B1 KR 1020170140741 A KR1020170140741 A KR 1020170140741A KR 20170140741 A KR20170140741 A KR 20170140741A KR 101960454 B1 KR101960454 B1 KR 101960454B1
Authority
KR
South Korea
Prior art keywords
training
bow
arrow
virtual
user
Prior art date
Application number
KR1020170140741A
Other languages
Korean (ko)
Inventor
정자현
Original Assignee
주식회사 제이콥시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이콥시스템 filed Critical 주식회사 제이콥시스템
Priority to KR1020170140741A priority Critical patent/KR101960454B1/en
Application granted granted Critical
Publication of KR101960454B1 publication Critical patent/KR101960454B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41BWEAPONS FOR PROJECTING MISSILES WITHOUT USE OF EXPLOSIVE OR COMBUSTIBLE PROPELLANT CHARGE; WEAPONS NOT OTHERWISE PROVIDED FOR
    • F41B5/00Bows; Crossbows
    • F41B5/14Details of bows; Accessories for arc shooting
    • F41B5/1442Accessories for arc or bow shooting
    • F41B5/1476Devices for archery training
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41BWEAPONS FOR PROJECTING MISSILES WITHOUT USE OF EXPLOSIVE OR COMBUSTIBLE PROPELLANT CHARGE; WEAPONS NOT OTHERWISE PROVIDED FOR
    • F41B5/00Bows; Crossbows
    • F41B5/14Details of bows; Accessories for arc shooting
    • F41B5/1484Bows with special adaptations or devices for special purposes
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying

Abstract

A virtual training system comprises: a training bow provided with a bow stick and a bow string, and generating force information by measuring tension applied on the bow string, and generating direction information of the bow stick; a signal processing device forming a virtual training field, calculating a trajectory of a virtual arrow based on the tension and the direction information, generating image data with respect to a virtual arrow shot from a reference point within the virtual training field based on the trajectory, and determining a partial area of the virtual training field included in the image data based on the force information; and a display apparatus displaying a training image based on the image data.

Description

활을 이용한 가상 훈련 시스템{VIRTUAL TRAINING SYSTEM USING BOW}{VIRTUAL TRAINING SYSTEM USING BOW}

본 발명은 가상 훈련용 시스템에 관한 것으로, 보다 상세하게는 활을 이용한 가상 훈련 시스템에 관한 것이다.The present invention relates to a virtual training system, and more particularly, to a virtual training system using an arch.

국궁, 양궁, 석궁 등의 활은 화살을 과녁에 쏘아 그 정확성을 겨루는 스포츠로 알려져 있다. 활을 이용한 스포츠는 국궁장에서 체험할 수 있다는 점에서, 시간적, 경제적으로 많은 제약이 있다.Archery such as archery, archery, and crossbow is known as a sport that shoots arrows to the target and raises its accuracy. Since sports using bow can be experienced in the National Palace, there are many restrictions on time and economy.

한국공개특허 제2011-0009865호는 가상 공간에서 활의 시뮬레이션을 수행할 수 있는 활의 슈팅 시뮬레이션 시스템에 관한 것으로, 활의 라이저(riser) 및 날개간의 밀착도를 조절하는 틸러의 변형량을 이용하여 활의 슈팅 파워를 산출한다.Korean Patent Laid-Open Publication No. 2011-0009865 relates to a bow shooting simulation system capable of performing a bow simulation in a virtual space, and utilizes a deformation amount of a tiller that adjusts the degree of tightness between the riser and the wing of the bow, The shooting power is calculated.

종래 기술은 활을 이용한 스포츠의 시간적, 경제적인 제약을 완하시킬 수 있다. 그러나, 종래 기술에서 이용하는 틸러의 변형량은 활의 몸체의 일부에 가해지는 힘으로, 활이 아니 화살에 가해지는 힘과는 차이를 가지며, 이에 따라 종래 기술은 실제 활쏘기 결과와는 다른 시뮬레이션 결과를 제공할 수 있다.The prior art can overcome the time and economic constraints of sports using bow. However, the amount of deformation of the tiller used in the prior art is a force applied to a part of the body of the bow, which differs from the force applied to the bow and not to the arrow. Accordingly, the prior art provides a simulation result different from the actual archery result can do.

한국등록특허 제1,314,179호(2013.09.26. 등록)Korean Registered Patent No. 1,314,179 (Registered on September 26, 2013)

본 발명의 일 목적은 실제 활쏘기와 같은 결과를 제공하는 가상 훈련 시스템을 제공하는 것이다.It is an object of the present invention to provide a virtual training system that provides results such as actual archery.

상기 일 목적을 달성하기 위한 본 발명의 실시예들에 따른 가상 훈련 시스템은, 활대 및 활시위를 구비하고, 상기 활시위에 걸리는 장력을 측정하여 힘 정보를 생성하며, 상기 활대의 방향 정보를 생성하는 훈련용 활; 가상 훈련장을 구성하고, 상기 장력 및 상기 방향 정보에 기초하여 가상 화살의 이동 궤적을 산출하며, 상기 이동 궤적에 기초하여 상기 가상 훈련장 내 기준 지점으로부터 발사되는 가상 화살에 대한 영상 데이터를 생성하되, 상기 힘 정보에 기초하여 영상 데이터에 포함되는 상기 가상 훈련장의 부분 영역을 결정하는 신호 처리 장치; 및 상기 영상 데이터에 기초하여 훈련 영상을 표시하는 표시 장치를 포함 할 수 있다.According to an embodiment of the present invention, there is provided a virtual training system comprising: a robot having a bow and a bow bolt, generating force information by measuring a tension applied to the bow bolt, Dragon bow; A virtual training area, and a moving trajectory of the virtual arrow is calculated based on the tension and the direction information, and image data of a virtual arrow shot from a reference point in the virtual training area is generated based on the moving trajectory, A signal processing device for determining a partial area of the virtual training field included in the video data based on the force information; And a display device for displaying a training image based on the image data.

일 실시예에 의하면, 상기 가상 훈련장의 상기 부분 영역은 상기 가상 훈련장에 위치하는 캐릭터의 시야 범위에 대응 할 수 있다. 이 경우, 상기 신호 처리 장치는, 상기 활대의 방향 정보에 기초하여 상기 시야 범위를 변화시키되, 상기 장력이 기준 장력 이상인 경우 상기 시야 범위의 변화 정도를 감소시킬 수 있다.According to one embodiment, the partial area of the virtual training field may correspond to a field of view of the character located in the virtual training field. In this case, the signal processing apparatus may change the visual field range based on the direction information of the rib, and reduce the degree of change of the visual field range when the tension is equal to or greater than the reference tension.

일 실시예에 의하면, 상기 훈련용 활은, 상기 활대의 길이 방향 중앙에 배치되는 손잡이; 상기 활대의 활고자에 인접하여 설치되고, 상기 장력을 측정하는 장력 센서; 내부에 빈 공간을 구비하는 원통 형상을 가지고, 상기 손잡이에 상기 활대의 전방으로 배치되며, 일단부가 폐쇄되어 상기 활시위에 의해 발사되는 화살을 정지시키고, 상기 일단부에 접촉하는 상기 화살을 감지하는 재장전 모듈; 및 상기 활대의 자세를 감지하여 상기 방향 정보를 생성하는 기울기 센서를 포함 할 수 있다.According to one embodiment, the training bow comprises: a handle disposed in the longitudinal center of the barb; A tension sensor installed adjacent to the ball guard and measuring the tension; And a guide member which has a cylindrical shape having an empty space therein and which is disposed in front of the barb on the handle and whose one end is closed to stop the arrow fired by the bowstring, Loading module; And a tilt sensor for sensing the posture of the barb to generate the direction information.

일 실시예에 의하면, 상기 화살의 오니는 상기 활시위에 연결되고, 상기 활을 이용하는 사용자의 접촉을 감지하여 턴온 신호를 생성하는 스위치를 포함 할 수 있다. 이 경우, 상기 신호 처리 장치는, 상기 턴온 신호에 기초하여 상기 화살의 발사 여부를 판단 할 수 있다.According to an embodiment, the sludge of the arrow may be connected to the bow, and may include a switch for detecting a contact of the user using the bow and generating a turn-on signal. In this case, the signal processing apparatus can determine whether or not the arrow is fired based on the turn-on signal.

일 실시예에 의하면, 상기 가상 훈련 시스템은, 무빙 플레이트를 더 포함하고, 상기 무빙 플레이트는, 평판 형상을 가지고, 사용자의 발을 지지하는 발판부; 지면을 기준으로 상기 발판부의 상부면의 경사각을 조절하는 구동부; 및 사용자의 움직임을 가이드하는 가이드부를 포함 할 수 있다. 여기서, 상기 발판부는 상기 사용자의 발과 접촉하는 제1 발판 및 상기 제1 발판의 하부에 배치되는 제2 발판을 포함하고, 상기 구동부는, 상기 제2 발판의 면적 중심에 배치되어 상기 제1 발판을 지지하는 지지축; 상기 지지축을 기준으로 상기 제2 발판 상에 상호 수직하는 각도를 가지고 배치되며, 상기 제1 발판을 지지하는 제1 및 제2 높이조절부재들; 및 상기 제1 및 제2 높이조절부재들 각각의 길이를 가변시키는 구동장치를 포함 할 수 있다.According to one embodiment, the virtual training system further includes a moving plate, the moving plate having a flat plate shape and supporting a foot of a user; A driving unit for adjusting the inclination angle of the upper surface of the footrest with respect to the ground; And a guide portion for guiding the movement of the user. Here, the footrest includes a first footrest contacting the foot of the user and a second footstrap disposed under the first footstool, and the driving unit is disposed at the center of the area of the second footstep, ; First and second height adjusting members disposed at an angle perpendicular to each other on the second foot plate with respect to the support shaft, the first and second height adjusting members supporting the first foot plate; And a driving device for varying a length of each of the first and second height adjusting members.

본 발명의 실시예들에 따르면, 가상 훈련 시스템은, 훈련용 활을 통해 화살에 직접적으로 가해지는 발사 힘을 산출하고, 감지 센서를 통해 사용자의 자세를 인식하며, 화살의 종류를 자동으로 인식함으로써, 화살의 발사 속도, 궤적 등을 보다 정확하게 산출할 수 있다. According to embodiments of the present invention, the virtual training system calculates the launching force directly applied to the arrow through the training bow, recognizes the user's posture through the sensor, and automatically recognizes the type of the arrow , The launching speed of the arrow, the locus, and the like can be more accurately calculated.

한편, 가상 훈련 시스템은 무빙 플레이트를 통해 사용자 바닥의 경사를 변화시킴으로써, 사용자에게 다양한 체험(예를 들어, 지형 변화에 체감)이 가능하게 하며, 가이드부를 통해 사용자의 안전을 보장할 뿐만 아니라, 사용자의 움직임에 기초한 입력 인터페이스를 제공함으로써, 사용자로 하여금 가상공간 내 가상 캐릭터를 용이하게/직관적으로 제어할 수 있도록 할 수 있다.On the other hand, the virtual training system allows the user to experience various experiences (for example, a change in the terrain change) by changing the inclination of the floor of the user through the moving plate, It is possible to easily and intuitively control the virtual character in the virtual space by providing the input interface based on the movement of the virtual character.

도 1a는 본 발명의 실시예들에 따른 가상 훈련 시스템을 나타내는 블록도이다.
도 1b는 도 1a의 가상 훈련 시스템의 일 예를 나타내는 블록도이다.
도 2a 및 도 2b는 도 1a의 가상 훈련 시스템에 포함된 훈련용 활의 일 예를 나타내는 도면이다.
도 3은 도 1a의 가상 훈련 시스템에 포함된 화살의 일 예를 나타내는 도면이다.
도 4a는 도 2a의 훈련용 활에 포함된 장력 센서의 일 예를 나타내는 도면이다.
도 4b는 도 2a의 훈련용 활에 포함된 재장전 모듈의 일 예를 나타내는 도면이다.
도 4c는 도 2a의 훈련용 활에 포함된 입력 모듈의 일 예를 나타내는 도면이다.
도 4d는 도 2a의 훈련용 활에 포함된 컨트롤 모듈의 일 예를 나타내는 도면이다.
도 4e는 도 4d의 컨트롤 모듈을 이용하여 화면을 제어하는 일 예를 나타내는 도면이다.
도 4f는 도 2a의 훈련용 활에 포함된 거치대의 일 예를 나타내는 도면이다.
도 4g은 도 2a의 훈련용 활에 포함된 근접 센서의 일 예를 나타내는 도면이다.
도 5a는 도 1a의 가상 훈련 시스템에 포함된 무빙 플레이트의 일 예를 나타내는 도면이다.
도 5b는 도 5a의 무빙 플레이트에 포함된 구동부의 일 예를 나타내는 도면이다.
도 5c는 도 5a의 무빙 플레이트의 일 예를 나타내는 블록도이다.
도 5d는 도 5a의 무빙 플레이트에 포함된 제어부의 동작을 설명하는 도면이다.
도 6a는 도 5a의 무빙 플레이트의 다른 일 예를 나타내는 도면이다.
도 6b는 도 5a의 무빙 플레이트의 또 다른 일 예를 나타내는 도면이다.
도 7은 도 1a의 가상 훈련 시스템에 포함된 신호 처리 장치의 일 예를 나타내는 도면이다.
도 8은 도 7의 신호 처리 장치에서 영상 변화를 제어하는 일 예를 나타내는 도면이다.
FIG. 1A is a block diagram illustrating a virtual training system in accordance with embodiments of the present invention. FIG.
1B is a block diagram illustrating an example of the virtual training system of FIG. 1A.
Figures 2a and 2b are views showing an example of a training bow included in the virtual training system of Figure 1a.
FIG. 3 is a diagram showing an example of an arrow included in the virtual training system of FIG. 1A.
FIG. 4A is a view showing an example of a tension sensor included in the training bow of FIG. 2A. FIG.
FIG. 4B is a diagram showing an example of a reloading module included in the training bow of FIG. 2A. FIG.
4C is a diagram showing an example of an input module included in the training bow of FIG. 2A.
FIG. 4D is a view showing an example of a control module included in the training bow of FIG. 2A.
FIG. 4E is a diagram showing an example of controlling a screen using the control module of FIG. 4D. FIG.
Fig. 4F is a view showing an example of a cradle included in the training bow shown in Fig. 2A.
FIG. 4G is a diagram showing an example of a proximity sensor included in the training bow of FIG. 2A.
5A is a view showing an example of a moving plate included in the virtual training system of FIG. 1A.
5B is a view showing an example of a driving part included in the moving plate of FIG. 5A.
5C is a block diagram showing an example of the moving plate of FIG. 5A.
5D is a view for explaining the operation of the control unit included in the moving plate of FIG. 5A.
6A is a view showing another example of the moving plate of FIG. 5A.
FIG. 6B is a view showing another example of the moving plate of FIG. 5A.
FIG. 7 is a diagram showing an example of a signal processing apparatus included in the virtual training system of FIG. 1A.
8 is a diagram showing an example of controlling an image change in the signal processing apparatus of FIG.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1a는 본 발명의 실시예들에 따른 가상 훈련 시스템을 나타내는 블록도이고, 도 1b는 도 1a의 가상 훈련 시스템의 일 예를 나타내는 블록도이다.FIG. 1A is a block diagram illustrating a virtual training system in accordance with embodiments of the present invention, and FIG. 1B is a block diagram illustrating an example of a virtual training system in FIG. 1A.

도 1a 및 도 1b를 참조하면, 가상 훈련 시스템(100)은 훈련용 활(110), 신호 처리 장치(120), 표시 장치(130) 및 무빙 플레이트(140)를 포함할 수 있다. 훈련용 활(110), 신호 처리 장치(120), 표시 장치(130) 및 무빙 플레이트(140)는 유무선 네트워크를 통해 연결될 수 있다. 여기서, 유무선 네트워크는 유선 인터넷, 무선 이동통신, WiFi, 지그비(Zigbee), 블루부트(Bluetooth) 등의 통신 방식을 이용하여 형성되는 네트워크일 수 있다.1A and 1B, a virtual training system 100 may include a training bow 110, a signal processing device 120, a display device 130, and a moving plate 140. The training bow 110, the signal processing device 120, the display device 130, and the moving plate 140 may be connected through a wired or wireless network. Here, the wired / wireless network may be a network formed using a communication method such as wired Internet, wireless mobile communication, WiFi, Zigbee, or Bluetooth.

훈련용 활(110)는 활시위에 걸리는 장력을 측정하여 힘 정보를 생성하며, 활대의 방향 정보(또는, 훈련용 활(110)의 자세 정보)를 생성할 수 있다. 여기서, 힘 정보는 활시위에 걸리는 장력이거나, 활시위에 걸려서 발사되는 화살에 직접적으로 가해지는 힘일 수 있다. 한편, 활대의 방향 정보는 훈련용 활(110)의 지시 방향(또는, 훈련용 활(110)의 활시위에 걸린 화살의 발사 방향)과, 지면을 기준으로 훈련용 활(110)이 전방으로 기울어진 각도와, 지면을 기준으로 훈련용 활(110)이 측방으로 기울어진 각도를 포함할 수 있다. 훈련용 활(110)의 구체적인 구성에 대해서는 도 2a 내지 도 4g를 참조하여 후술하기로 한다.The training bow 110 can measure the tension applied to the bow bolt to generate force information and generate direction information of the bow (or posture information of the training bow 110). Here, the force information may be a tension applied to a bowstring, or a force applied directly to an arrow fired by a bowstring. On the other hand, the direction information of the bow is generated by the training bow 110 tilting forward with respect to the instructing direction of the training bow 110 (or the shooting direction of the arrow caught by the bow of the training bow 110) A true angle, and an angle at which the training bow 110 is tilted sideways relative to the ground. The specific configuration of the training bow 110 will be described later with reference to Figs. 2A to 4G.

신호 처리 장치(120)는 가상 공간(또는, 훈련장)을 구성하고, 훈련용 활(110)(또는, 훈련용 활(110)을 소지한 사용자(USER))에 대응하여 가상 공간 내에 캐릭터를 생성하며, 캐릭터를 기준으로 가상 공간의 적어도 일부에 대한 영상 데이터를 생성할 있다. 또한, 신호 처리 장치(120)는 훈련용 활(110)에서 측정된 장력(또는, 힘 정보) 및 방향 정보에 기초하여 가상 화살의 이동 궤적을 산출할 수 있다. 여기서, 가상 화살은 실제 발사되는 화살에 대응하여 가상 공간 내 캐릭터(또는, 가상 활)로부터 발사되는 화살이며, 가상 화살의 이동 궤적은 가상 공간 내에서 가상 화살이 이동하는 경로일 수 있다. 한편, 신호 처리 장치(130)는 이동 궤적에 기초하여 가상 공간 내 기준 지점(즉, 캐릭터)로부터 발사되는 가상 화살에 대한 슈팅 영상 데이터(또는, 가상 화살의 영상을 포함하는 영상 데이터)를 생성할 수 있다.The signal processing apparatus 120 constitutes a virtual space (or a training field) and generates a character in the virtual space corresponding to the training bow 110 (or the user USER holding the training bow 110) And generates image data for at least a part of the virtual space on the basis of the character. Further, the signal processing device 120 can calculate the movement trajectory of the virtual arrow based on the tension (or force information) measured in the training bow 110 and the direction information. Here, the virtual arrow is an arrow fired from a character (or a virtual bow) in the virtual space corresponding to the actually fired arrow, and the movement trajectory of the virtual arrow may be a path through which the virtual arrow moves in the virtual space. On the other hand, the signal processing device 130 generates shooting image data (or image data including an image of a virtual arrow) for a virtual arrow projected from a reference point (i.e., character) in the virtual space based on the movement trajectory .

표시 장치(130)는 신호 처리 장치(120)에서 생성된 영상 데이터에 기초하여 훈련 영상을 표시할 수 있다.The display device 130 can display a training image based on the image data generated by the signal processing device 120. [

도 1b를 참조하면, 표시 장치(130)는 프로젝터(131)와 스크린(132)을 포함할 수 있다. 프로젝터(131)는 빛을 이용하여 영상을 스크린(132)에 비추는 장치이며, 스크린(132)의 전면(도는, 사용자(USER)와 스크린(132)) 사이에 배치될 수 있다. 이는 예시적인 것으로, 표시 장치(130)가 이에 한정되는 것은 아니며, 예를 들어, 표시 장치(130)는 CRT/LCD/LED 디스플레이 장치로 구현되어 스크린(132)과 일체로 배치되거나, 두부 장착 표시 장치(HMD)로 구현되어 사용자(USER)에게 착용 되거나, 휴대용 단말로 구현되어 훈련용 활(110)(예를 들어, 사용자(USER)의 시선에 대응하는 특정 지점)에 장착될 수 있다.Referring to FIG. 1B, the display device 130 may include a projector 131 and a screen 132. The projector 131 is a device for illuminating an image on the screen 132 using light and may be disposed between a front surface of the screen 132 (or a user USER and a screen 132). For example, the display device 130 may be implemented as a CRT / LCD / LED display device and may be disposed integrally with the screen 132, or may include a head mounted display (not shown) (HMD) to be worn on a user USER, or implemented in a portable terminal and mounted on a training bow 110 (for example, a specific point corresponding to a line of sight of a user USER).

무빙 플레이트(140)는 가상 훈련 시스템(100)(또는, 신호 처리 장치(120))에서 제공되는 경사 제어 신호에 기초하여 발판부의 경사(즉, 지면을 기준으로 발판부의 상부면이 이루는 경사)를 조절하며, 사용자의 몸에 착용되거나 사용자의 주변에 배치되는 가이드부(감지 센서를 포함함)를 통해 사용자로부터 입력된 입력 신호를 신호 처리 장치(120)에 제공할 수 있다. 무빙 플레이트(140)의 구체적인 구성에 대해서는 도 5a 내지 도 6b를 참조하여 후술하기로 한다.The moving plate 140 moves the inclination of the foot part (that is, the inclination formed by the upper face of the foot part with respect to the ground) based on the inclination control signal provided by the virtual training system 100 (or the signal processing device 120) And can provide the signal processing device 120 with an input signal input from a user through a guide portion (including a detection sensor) which is worn on the user's body or disposed around the user. The specific structure of the moving plate 140 will be described later with reference to Figs. 5A to 6B.

이하에서는, 훈련용 활(110), 무빙 플레이트(140) 및 신호 처리 장치(120)를 순차적으로 설명하기로 한다.Hereinafter, the training bow 110, the moving plate 140, and the signal processing device 120 will be sequentially described.

도 2a 및 도 2b는 도 1a의 가상 훈련 시스템에 포함된 훈련용 활의 일 예를 나타내는 도면이고, 도 3은 도 1a의 가상 훈련 시스템에 포함된 화살의 일 예를 나타내는 도면이다.FIGS. 2A and 2B are views showing an example of a training bow included in the virtual training system of FIG. 1A, and FIG. 3 is an illustration of an arrow included in the virtual training system of FIG. 1A.

도 2a 내지 도 3을 참조하면, 훈련용 활(110)은 활대(210)(또는, 몸체), 활시위(bowstring)(220), 손잡이(handle)(230), 장력 센서(240)(또는, 인장력 센서), 재장전 모듈(250), 입력 모듈(260), 컨트롤 모듈(270) 및 거치대(미도시)를 포함할 수 있다. 훈련용 활(110)은 양궁(re-curve bow), 국궁, 컴파운드(compound bow) 등이거나, 이들 중 하나와 동일한 형상, 크기를 가질 수 있다. 이하에서는, 훈련용 활(110)은 각궁인 것으로 가정하여 설명하기로 하며, 훈련용 활(110)이 각궁에 한정되는 것은 아니다.2A-3, the training bow 110 includes a bow 210 (or body), a bowstring 220, a handle 230, a tension sensor 240 (or, A reloading module 250, an input module 260, a control module 270, and a mount (not shown). The training bow 110 may be a re-curve bow, a bow, a compound bow, or the like, or may have the same shape and size as one of the bow. Hereinafter, it is assumed that the training bow 110 is an arch, and the training bow 110 is not limited to the arch.

활대(210)는 나무, 대나무, 쇠 등을 휘어서 반달 모양의 형상을 가지며, 활대(210)가 휘어질 때 위치 에너지를 비축할 수 있다. 활대(210)는 손잡이(230)를 기준으로 어퍼림(upper limb)과 로우림(lower limb)으로 구분될 수 있다.The bead 210 has a half-moon shape by bending a tree, a bamboo, a metal, etc., and reserves the potential energy when the bead 210 is bent. The barb 210 may be divided into an upper limb and a lower limb with respect to the handle 230.

활시위(220)는 섬유 재질로 구성된 줄이며, 활대(210)의 활고자(nock or tip)(211)에 연결되거나 걸리는 방식으로 고정될 수 있다. 여기서, 활고자(211)는 어퍼림의 끝과 로어림의 끝에 있는 홈으로, 활시위(220)의 매듭을 매는 부분일 수 있다.The bowstep 220 is made of a fiber material and can be fixed in such a manner that it is connected to or caught by a nock or tip 211 of the bar 210. Here, the docker 211 is a groove at the end of the upper rim and at the end of the lower rim, and may be a portion that binds the bowstring 220.

화살(300)이 활시위(220)에 장착되어(또는, 메워) 함께 당겼다 놓여지는 경우, 활대(210) 및/또는 활시위(220)의 탄력에 의해 화살(300)이 발사될 수 있다.The arrow 300 can be fired by the elasticity of the bow 210 and / or the bowstring 220 when the arrow 300 is mounted (or loaded) together with the bowstring 220.

손잡이(330)는 활대(230)의 길이 방향 중앙에 배치되고, 사용자가 훈련용 활(110)을 잡는데 사용될 수 있다.The handle 330 is disposed in the longitudinal center of the barb 230 and can be used by a user to hold the training bow 110.

장력 센서(240)는 활고자(211)에 배치되거나 활고자(211)와 인접하여 배치되고, 활시위(220)에 걸리는 장력(tension)(또는, 인장력)을 측정할 수 있다.The tension sensor 240 may be placed on the docker 211 or adjacent to the docker 211 and may measure the tension (or tension) on the bowstring 220.

재장전 모듈(250)은 내부에 빈 공간을 구비하는 원통 형상을 가지고, 활대(210)의 중앙(또는, 손잡이(230))에 전방으로 배치되며, 일단부가 폐쇄되어(closed) 활시위(220)로부터 발사되는 화살(300)을 정지시킬 수 있다. 화살(300)은 재장전 모듈(250)의 개방된 타단부(즉, 재장전 모듈(250)이 활대(220)에 연결되는 부분)를 통해 재장전 모듈(250)에 삽입되고, 사용자의 동작에 따라 활시위(220)와 함께 후방(즉, 사용자가 위치하는 방향)으로 당겨졌다가 발사되며, 재장전 모듈(250)의 빈공간을 따라 이동하다가 재장전 모듈(250)의 폐쇄된 일단부에 도달하여 멈출 수 있다. 훈련용 활(110)은 재장전 모듈(250)을 이용하여 화살(300)이 실제 원거리까지 이동하는 것을 제한함으로써, 가상 훈련 시스템(100)은 상대적으로 작은 공간에 구축될 수 있다.The recharging module 250 has a cylindrical shape having an empty space therein and is disposed forwardly at the center of the barb 210 (or the handle 230), and one end thereof is closed, The arrow 300 can be stopped. The arrow 300 is inserted into the reload module 250 via the other open end of the reload module 250 (i.e., the portion where the reload module 250 is connected to the runway 220) (I.e., the direction in which the user is positioned) along with the bowstep 220 and is moved along the empty space of the reloading module 250 and is then moved to the closed end of the reloading module 250 Can reach and stop. The training bow 110 may limit the movement of the arrow 300 to the actual distance using the reload module 250 so that the virtual training system 100 can be constructed in a relatively small space.

한편, 재장전 모듈(250)은 폐쇄된 일단부에 화살(300)이 접촉하는지 여부를 감지하거나, 압력 센서 등을 이용하여 일단부에 접촉하는 화살(300)의 슈팅 파워(shooting power)(또는, 타격력)를 측정할 수 있다. 화살(300)의 접촉 여부는 화살(300)의 발사 여부 또는 화살(300)의 발사 시점을 결정하는데 이용될 수 있고, 화살(300)의 슈팅 파워는 화살(300)의 이동 궤적을 산출하는데 이용될 수 있다. 재장전 모듈(250)의 구체적인 구성에 대해서는 도 5b를 참조하여 상세히 설명하기로 한다.The recharging module 250 senses whether the arrow 300 touches one end of the recharging module 250 or determines the shooting power of the arrow 300 contacting the one end of the recharging module 250 , Hitting force) can be measured. The contact power of the arrow 300 can be used to determine whether the arrow 300 is fired or when the arrow 300 is fired and the shooting power of the arrow 300 can be used to calculate the movement trajectory of the arrow 300 . The specific configuration of the reload module 250 will be described in detail with reference to FIG. 5B.

입력 모듈(260)은 사용자로부터 입력 신호를 수신할 수 있다. 입력 모듈(260)은 훈련용 활(110)에 별도로 형성되거나, 손잡이(230)와 일체로 구현될 수 있다. 여기서, 입력 신호는 신호 처리 장치(120)가 생성한 가상 공간 내 캐릭터를 제어하는데 이용될 수 있다. 예를 들어, 입력 모듈(260)은 조이스틱, 버튼 등으로 구현되거나, 이들을 포함할 수 있다. 입력 모듈(260)의 구체적인 구성에 대해서는 도 5c를 참조하여 후술하기로 한다.The input module 260 may receive an input signal from a user. The input module 260 may be separately formed in the training bow 110, or integrated with the knob 230. Here, the input signal can be used to control a character in the virtual space generated by the signal processing apparatus 120. [ For example, the input module 260 may be implemented as a joystick, button, or the like. The specific configuration of the input module 260 will be described later with reference to FIG. 5C.

컨트롤 모듈(270)은 훈련용 활(110)의 자세 또는 상태를 감지하고, 훈련용 활(110)에서 생성되는 신호들을 외부(예를 들어, 가상 훈련 장치)에 전송하며, 훈련용 활(110)에 구비된 구성요소들(예를 들어, 장력 센서) 등에 전력을 공급할 수 있다. 예를 들어, 컨트롤 모듈(270)은 9축 센서, 블루투스 모듈, 배터리 등을 포함할 수 있다. 컨트롤 모듈(270)의 구체적인 구성에 대해서는 도 5d를 참조하여 상세히 설명하기로 한다.The control module 270 senses the posture or condition of the training bow 110 and transmits signals generated at the training bow 110 to an external (e.g., a virtual training device) (E.g., a tension sensor) provided in the power supply unit (not shown). For example, the control module 270 may include a nine axis sensor, a Bluetooth module, a battery, and the like. The specific configuration of the control module 270 will be described in detail with reference to FIG. 5D.

한편, 화살(300)은 화살대(310), 화살촉(320), 화살깃(330) 및 오니(340)를 포함할 수 있다. 화살대(310), 화살깃(330) 및 오니(340)는 일반적인 화살대(310), 화살깃(330) 및 오니(340)와 실질적으로 동일하므로 이에 대한 설명은 생략한다.The arrow 300 may include a shaft 310, an arrowhead 320, an arrow collar 330, and a sludge 340. Arrows 310, arrows 330 and sludge 340 are substantially the same as common shafts 310, arrows 330, and sludge 340, and a description thereof will be omitted.

화살촉(320)은 탄성을 가진 재질로 구성될 수 있다. 화살(300)(또는, 화살촉(320))이 재장전 모듈(250)을 타격하는 경우, 화살(300)에 의한 재장전 모듈(250)에 대한 충격을 흡수함으로써, 화살(300)과 재장전 모듈(250)의 손상을 최소화 할 수 있다. 유사하게, 재장전 모듈(250)의 일단부가 탄성 재질로 구성됨으로써, 화살(300)에 의한 충격을 흡수할 수 있다.The arrowhead 320 may be made of a material having elasticity. When the arrow 300 (or the arrowhead 320) hits the reloading module 250, by absorbing the impact on the reloading module 250 by the arrow 300, the arrow 300 and reloading The damage of the module 250 can be minimized. Similarly, one end of the recharging module 250 is made of an elastic material, so that the shock caused by the arrow 300 can be absorbed.

실시예들에서, 화살(300)의 오니(340)는 활시위(220)에 연결되고, 활을 이용하는 사용자의 접촉을 감지하여 턴온 신호를 생성하는 스위치를 포함 할 수 있다. 이 경우, 신호 처리 장치(120)는, 턴온 신호에 기초하여 화살(300)의 발사 여부를 판단할 수 있다.In embodiments, the sludge 340 of the arrow 300 is connected to the bow bolt 220 and may include a switch that senses the touch of the user using the bow and generates a turn-on signal. In this case, the signal processing apparatus 120 can determine whether or not the arrow 300 is fired based on the turn-on signal.

일 실시예에서, 화살(300)의 오니(340)는 활시위(220)와 연결될 수 있다. 예를 들어, 오니(340)는 원통형 형상을 가지고, 수직방향으로 연통되어 활시위(220)가 통과하는 공간을 포함할 수 있다. 이 경우, 사용자는 화살(300)을 활시위(220)에 재장전 해야 하는 불편함 없이, 용이하게 가상 체험을 즐길 수 있다.In one embodiment, the sludge 340 of the arrow 300 may be connected to the bowstring 220. For example, the sludge 340 may have a cylindrical shape and may include a space communicated in a vertical direction through which the bow bolt 220 passes. In this case, the user can easily enjoy the virtual experience without the inconvenience of recharging the arrow 300 to the bowstring 220.

일 실시예에서, 화살(300)의 오니(340)는 사용자의 손가락에 의해 동작하는 스위치(341)를 더 포함할 수 있다. 스위치(341)는 활시위(220)를 당길 때 사용자의 손가락이 접촉되는 오니(340)의 전면(즉, 화살촉(320)으로 향하는 면)에 배치될 수 있다. 예를 들어, 스위치(341)는 압력 센서, 터치 센서, 버튼 등으로 구현될 수 있다. 스위치(341)는 사용자의 손가락의 접촉된 상태로부터 이탈된 상태로 변화하는 경우(또는, 이탈된 상태인 경우) 턴온 신호를 생성하고, 화살(300)의 내장된 별도의 송신 모듈을 통해 턴온 신호를 훈련용 활(110)과 연동되는 가상 훈련 장치에 송신할 수 있다. 이 경우, 가상 훈련 장치는 턴온 신호에 기초하여 화살(300)의 발사 여부를 인식하거나 결정할 수 있다. 예를 들어, 활(110)의 장력이 특정 값 이상이고 스위치(341)의 턴온 신호가 생성되는 경우, 가상 훈련 장치는 화살이 발사된 것으로 판단할 수 있다.In one embodiment, the sludge 340 of the arrow 300 may further include a switch 341 operated by a user's finger. The switch 341 may be disposed on the front surface of the sludge 340 to which the user's finger is touched (i.e., the surface facing the arrowhead 320) when pulling the barb 220. For example, the switch 341 may be implemented as a pressure sensor, a touch sensor, a button, or the like. The switch 341 generates a turn-on signal when the finger of the user changes from a touched state to a disengaged state (or in a separated state), and transmits a turn-on signal To a virtual training device that is interlocked with the training bow (110). In this case, the virtual training device can recognize or determine whether the arrow 300 is fired based on the turn-on signal. For example, if the tension of the bow 110 is greater than a certain value and a turn-on signal of the switch 341 is generated, the virtual training device may determine that the arrow has been fired.

일 실시예에서, 화살(300)은 화살의 종류를 나타내는 식별 장치(311)를 더 포함할 수 있다. 예를 들어, 식별 장치(311)는 해당 화살의 종류 정보(예를 들어, 칠전(117~123cm), 편전(37cm) 등과 같은 형상, 길이, 무게 등의 정보)를 저장한 RFID(radio frequency identification) 태그로 구현되고, 화살대(310)에 부착되거나 내장될 수 있다. 이 경우, 훈련용 활(110)은 식별 장치(311)(예를 들어, RFID 태그)에 대응하는 식별기(예를 들어, RFID 리더기)를 이용하여 화살(300)을 식별할 수 있다.In one embodiment, the arrow 300 may further include an identification device 311 that indicates the type of arrow. For example, the identification device 311 may be a radio frequency identification (RFID) device that stores information on the type of the corresponding arrow (for example, information such as shape, length, and weight such as 117 to 123 cm, Tag, and may be attached to or embedded in the shaft block 310. In this case, the training bow 110 may identify the arrow 300 using an identifier (e.g., an RFID reader) corresponding to the identification device 311 (e.g., an RFID tag).

화살(300)에 일정한 힘(또는, 발사 힘)이 가해지더라도, 화살(300)의 종류에 따라 화살(300)의 이동 궤적이 다르게 나타날 수 있으므로, 훈련용 활(110)과 연동되는 가상 훈련 장치는 화살(200)에 부착된 식별 장치(311)를 이용하여 화살(300)을 자동으로 식별하고, 화살(300)의 종류(또는, 특성)을 고려하여 화살(300)의 이동 궤적을 보다 정확하게 산출할 수 있다.The movement trajectory of the arrow 300 may be different depending on the type of the arrow 300 even if a constant force (or a firing force) is applied to the arrow 300. Therefore, The identification device 311 attached to the arrow 200 automatically identifies the arrow 300 and accurately determines the movement trajectory of the arrow 300 in consideration of the type (or characteristics) of the arrow 300 Can be calculated.

도 2b를 참조하면, 장력 센서(240)의 출력 신호, 재장전 모듈(250)의 출력 신호 및 입력 모듈(260)의 출력 신호는 컨트롤 모듈(270)에 제공될 수 있다. 여기서, 장력 센서(240)의 출력 신호는 활시위(220)에 가해지는 장력의 크기를 나타내는 장력 신호(S_TENSION)를 포함하고, 재장전 모듈(250)의 출력 신호는 화살(300)의 접촉 여부를 나타내는 접촉 신호(S_CONACT) 및/또는 화살(300)의 타격력의 크기를 나타내는 타격력 신호(S_POWER)를 포함하며, 입력 모듈(260)의 출력 신호는 사용자로부터 입력되는 입력 신호를 나타내는 이동 제어 신호(S_MOVE)를 포함할 수 있다.Referring to FIG. 2B, an output signal of the tension sensor 240, an output signal of the reloading module 250, and an output signal of the input module 260 may be provided to the control module 270. Here, the output signal of the tension sensor 240 includes a tension signal S_TENSION indicating the magnitude of the tension applied to the bow stop 220, and the output signal of the reloading module 250 indicates whether or not the arrow 300 touches And a striking force signal S_POWER indicating a magnitude of a striking force of the arrow 300 and the output signal of the input module 260 includes a movement control signal S_MOVE indicating an input signal input from a user ).

컨트롤 모듈(270)은 상기 신호들과, 컨트롤 모듈(270)에서 센싱하는 신호에 기초하여 데이터(예를 들어, 디지털 형식의 데이터 신호)를 생성하고, 데이터를 신호 처리 장치(120)에 제공할 수 있다. 여기서, 컨트롤 모듈(270)에서 센싱하는 신호는 훈련용 활(110)의 자세를 나타내는 자세 신호(S_ATTITUDE) 및/또는 화살(200)의 종류를 나타내는 식별 정보(S_TYPE)를 포함할 수 있다.The control module 270 generates data (for example, a digital data signal) based on the signals and a signal sensed by the control module 270 and provides the data to the signal processing device 120 . The signal sensed by the control module 270 may include an orientation signal S_ATTITUDE indicating the orientation of the training bow 110 and / or identification information S_TYPE indicating the type of the arrow 200.

이후, 신호 처리 장치(120)는 컨트롤 모듈(270)에서 제공되는 데이터에 기초하여 화살(300)의 발사 속도, 이동 궤적 등을 산출할 수 있다. 예를 들어, 신호 처리 장치(120)는 접촉 신호(S_CONTACT) 또는 장력의 변화에 기초하여 화살(300)의 발사 시점을 결정하고, 발사 시점(또는, 발사 시점을 포함하는 발사 구간)에서의 장력 신호(S_TENSION)(또는, 장력), 자세 신호(S_ATTITUDE)(또는, 훈련용 활(110)의 방향, 기울기와 같은 자세 정보) 및 식별 정보(S_TYPE)(또는, 화살의 종류)에 기초하여 훈련용 활(110)로부터 발사되는 화살(300)의 이동 궤적을 산출할 수 있다. Then, the signal processing unit 120 may calculate the firing speed, the movement locus, and the like of the arrow 300 based on the data provided by the control module 270. For example, the signal processing apparatus 120 may determine the firing point of the arrow 300 based on the contact signal S_CONTACT or a change in the tension, and may determine a tension at the firing point (or a firing interval including the firing point) Based on the signal S_TENSION (or tension), the attitude signal S_ATTITUDE (or attitude information such as the direction and inclination of the training bow 110), and the identification information S_TYPE (or the type of arrow) It is possible to calculate the movement locus of the arrow 300 emitted from the dragon 110.

도 2a 내지 도 3을 참조하여 설명한 바와 같이, 훈련용 활(110)은 화살(300)에 직접적을 힘을 가하는 활시위(220)의 장력을 측정하므로, 훈련용 활(110)과 연동되는 신호 처리 장치(120)는 장력에 기초하여 화살(300)의 이동 궤적을 보다 정확하게 산출할 수 있다. 또한, 훈련용 활(110)은 재장전 모듈(250)을 통해 화살(300)의 실질적인 발사를 제한하므로, 가상 훈련 시스템(100)은 비교적 작은 공간에 구현될 수 있다. 나아가, 훈련용 활(110)은 재장전 모듈(250)을 통해 화살(300)의 접촉 여부 및/또는 화살(300)의 슈팅 파워를 측정하므로, 신호 처리 장치(120)는 접촉 여부에 기초하여 화살(200)의 발사 시점을 보다 정확하게 결정하고 화살(300)의 슈팅 파워에 기초하여 이동 궤적을 보다 정확하게 산출할 수 있다.2A-3, the training bow 110 measures the tension of the bowstring 220 that directly urges the arrow 300, so that the signal processing (not shown) associated with the training bow 110 The apparatus 120 can more accurately calculate the movement trajectory of the arrow 300 based on the tension. In addition, because the training bow 110 limits the actual launch of the arrow 300 through the reload module 250, the virtual training system 100 can be implemented in a relatively small space. Further, the training bow 110 measures the contact of the arrow 300 and / or the shooting power of the arrow 300 through the reload module 250, so that the signal processing device 120 can determine It is possible to more precisely determine the launching point of the arrow 200 and calculate the movement locus more accurately based on the shooting power of the arrow 300. [

도 4a는 도 2a의 훈련용 활에 포함된 장력 센서의 일 예를 나타내는 도면이다.FIG. 4A is a view showing an example of a tension sensor included in the training bow of FIG. 2A. FIG.

도 4a를 참조하면, 장력 센서(240)는 로드셀(load cell)(411)(또는, 하중 감지기), 증폭기(412) 및 장력 조절기(413)를 포함할 수 있다.Referring to FIG. 4A, the tension sensor 240 may include a load cell 411 (or a load sensor), an amplifier 412, and a tension controller 413.

로드셀(411)은 활고자(211)에 장착되고, 활시위(220)에 의해 활고자(211)에 가해지는 힘(또는, 활시위(220)의 장력)을 측정할 수 있다. 예를 들어, 로드셀(411)은 빔 포인트형 수직 타입일 수 있다.The load cell 411 is mounted on the dynamo 211 and can measure the force (or the tension of the bow bolt 220) applied to the dynamo 211 by the bowstring 220. For example, the load cell 411 may be a beam point type vertical type.

증폭기(412)는 로드셀(411)에서 출력되는 측정 신호를 증폭하여 아날로그 신호로 출력할 수 있다. 예를 들어, 증폭기(412)는 0 내지 5 볼트(V)의 아날로그 신호를 출력할 수 있다. 아날로그 신호는 컨트롤 모듈(270)에 제공될 수 있다.The amplifier 412 amplifies the measurement signal output from the load cell 411 and outputs the amplified measurement signal as an analog signal. For example, the amplifier 412 may output an analog signal of 0 to 5 volts (V). An analog signal may be provided to the control module 270.

장력 조절기(413)는 활시위(220)에 의해 활대(210)에 걸리는 초기 장력을 조절할 수 있다. 도 4a에 도시된 바와 같이, 장력 조절기(413)는 장력 센서(240)의 몸체로부터 활대(210)의 일단부 방향으로 돌출된 연장편과, 활대(210)와 연장편 사이의 간격을 조절하는 지지부재를 포함할 수 있다. 예를 들어, 지지부재는 회전방식으로 연장편에 삽입되며, 연장편을 관통하여 활대(210)를 지지하고, 지지부재를 반시계 방향으로 회전시키는 경우 활대(210)와 연장편 사이의 간격이 감소될 수 있고, 최종적으로 활대(210)에 걸리는 초기 장력을 조절할 수 있다.The tension adjuster 413 can adjust the initial tension applied to the bar 210 by the barb 220. 4A, the tension adjuster 413 includes an extension extending from the body of the tension sensor 240 in the direction of one end of the barb 210, And may include a support member. For example, the support member may be inserted into the elongate piece in a rotational manner, through the elongate piece to support the bar 210, and when the support member is rotated counterclockwise, the distance between the bar 210 and the elongate piece And finally, the initial tension applied to the rib 210 can be adjusted.

한편, 신호 처리 장치(120)는 장력 센서(240)에서 측정된 장력의 변화에 기초하여 화살(300)의 발사 시점을 결정할 수 있다. 예를 들어, 신호 처리 장치(120)는 기준 시간(예를 들어, 0.5초) 단위로 장력을 모니터링하고, 현재 시점에서의 현재 장력이 이전 시점에서의 이전 장력보다 70% 이상 감소하는 경우 화살(300)이 발사된 것으로 판단하며, 이전 시점을 화살의 발사 시점으로 결정할 수 있다.On the other hand, the signal processing apparatus 120 can determine the firing point of the arrow 300 based on the change in the tension measured by the tension sensor 240. For example, the signal processing apparatus 120 monitors the tension in units of a reference time (for example, 0.5 second) and, when the current tension at the current point is decreased by 70% or more from the previous tension at the previous point, 300) is fired, and the previous point of time can be determined as the firing point of the arrow.

도 4b는 도 2a의 훈련용 활에 포함된 재장전 모듈의 일 예를 나타내는 도면이다.FIG. 4B is a diagram showing an example of a reloading module included in the training bow of FIG. 2A. FIG.

도 4b를 참조하면, 도 2를 참조하여 설명한 바와 같이 일단부가 폐쇄된 원통 형상을 가질 수 있다. 재장전 모듈(250)은 그 배치되는 위치와 형상에 따라, 화살의 무게 중심을 조절하는 스태빌라이저(stabilizer)(예를 들어, 양궁에 구비되는 스태빌라이저)로 기능할 수 있다.Referring to FIG. 4B, as described with reference to FIG. 2, one end may have a closed cylindrical shape. The reloading module 250 may function as a stabilizer (e.g., a stabilizer provided in the archery) that adjusts the center of gravity of the arrow depending on the position and shape of the reloading module 250.

재장전 모듈(250)은 접촉 센서(미도시)를 포함할 수 있다. 접촉 센서는 재장전 모듈(250)의 일단부(E1)에 배치되어 화살(300)을 감지하거나, 화살(300)의 접촉 여부를 감지 할 수 있다. 신호 처리 장치(120)는 접촉 센서의 감지 신호에 기초하여 화살(300)의 발사 여부를 판단할 수 있다.The reload module 250 may include a touch sensor (not shown). The contact sensor may be disposed at one end E1 of the recharging module 250 to sense the arrow 300 or sense whether the arrow 300 is touching. The signal processing apparatus 120 may determine whether or not the arrow 300 is fired based on the detection signal of the touch sensor.

일 실시예에서, 접촉 센서는 압력 센서로 구현되어 화살(300)의 슈팅 파워를 측정할 수 있다. 예를 들어, 접촉 센서는 화살(300)에 의해 발생하는 압력이 기준 압력 이상으로 상승하는 제1 시점부터 화살(300)에 의해 발생하는 압력이 기준 압력 이하로 하강하는 제2 시점까지의 압력에 기초하여 화살(300)의 슈팅 파워를 측정할 수 있다. 다른 예를 들어, 접촉 센서는 제1 시점 내지 제2 시점의 구간 동안 발생하는 최대 압력을 화살(300)의 슈팅 파워로 결정하거나, 제1 시점 내지 제2 시점의 구간 동안 발생하는 압력을 누적하여 화살(300)의 슈팅 파워를 산출할 수 있다.In one embodiment, the touch sensor may be implemented as a pressure sensor to measure the shooting power of the arrow 300. For example, the contact sensor may be configured so that the pressure from the first point of time when the pressure generated by the arrow 300 rises above the reference pressure to the second point of time when the pressure generated by the arrow 300 falls below the reference pressure The shooting power of the arrow 300 can be measured. For example, the contact sensor may determine the maximum pressure occurring during the first time point to the second time point as the shooting power of the arrow 300, or accumulate the pressure occurring during the first time point to the second time point The shooting power of the arrow 300 can be calculated.

한편, 신호 처리 장치(120)는 슈팅 파워에 기초하여 화살(300)의 발사 속도를 산출하고, 발사 속도 및 다른 정보(예를 들어, 훈련용 활(110)의 방향, 기울기, 화살(300)의 종류)에 기초하여 화살(300)의 궤적을 산출할 수 있다. 다만, 화살촉(320)과 접촉 센서의 재질(예를 들어, 탄성 재질)에 따라 화살(300)의 슈팅 파워가 일부 소멸될 수 있으므로, 신호 처리 장치(120)는 화살(300)의 슈팅 파워를 이용하여 기 산출된 이동 궤적(예를 들어, 장력 센서(240)의 장력에 기초하여 산출된 이동 궤적)을 보정할 수 있다.On the other hand, the signal processing apparatus 120 calculates the firing rate of the arrow 300 based on the shooting power and calculates the firing rate and other information (for example, the direction of the training bow 110, the tilt, The trajectory of the arrow 300 can be calculated. However, since the shooting power of the arrow 300 may partially disappear depending on the material of the arrow sensor 320 and the touch sensor (for example, elastic material), the signal processing apparatus 120 may reduce the shooting power of the arrow 300 (For example, the movement locus calculated on the basis of the tension of the tension sensor 240) can be corrected using the calculated locus.

도 4c는 도 2a의 훈련용 활에 포함된 입력 모듈의 일 예를 나타내는 도면이다.4C is a diagram showing an example of an input module included in the training bow of FIG. 2A.

도 4c를 참조하면, 입력 모듈(260)은 가상 훈련 장치가 구현하는 가상 공간(즉, 가상 훈련장) 내에서 사용자(USER)에 대응하는 캐릭터(또는, 훈련용 활(110))의 위치와 캐릭터의 시선 방향 중 적어도 하나를 제어할 수 있다. 입력 모듈(260)은 이동 스위치(431)와 보조 스위치(432)를 포함할 수 있다.4C, the input module 260 determines whether or not the position of the character (or the training bow 110) corresponding to the user USER (or the training bow 110) in the virtual space (i.e., virtual training field) The direction of the eyes of the user. The input module 260 may include a movement switch 431 and an auxiliary switch 432.

이동 스위치(431)는 가상 공간 내 캐릭터를 이동시키는 이동 신호를 생성할 수 있다. 즉, 가상 공간 내 캐릭터는 이동 스위치(431)의 동작에 따라 이동할 수 있다. 예를 들어, 이동 스위치(431)는 4방향 조그형 조이스틱으로 구현되고, 손잡이(230)의 내면 우측 상부(예를 들어, 사용자에게 보이는 손잡이(230)의 면의 우측 상부)에 부착될 수 있다. 이 경우, 사용자는 손잡이(230)를 잡은 왼손의 엄지 손가락을 이용하여 이동 스위치(431)를 조작할 수 있다. 일반적인 조이스틱과 유사하게, 이동 스위치(431)의 전/후/좌/우 방향으로의 이동에 따라 전/후/좌/우 방향으로의 이동 신호를 발생시킬 수 있다. 신호 처리 장치(120)는 유무선 통신 방식을 통해 이동 신호를 수신하고, 이동 신호에 응답하여 가상 공간 내 캐릭터를 이동시킬 수 있다.The movement switch 431 can generate a movement signal for moving the character in the virtual space. That is, the character in the virtual space can move according to the operation of the movement switch 431. For example, the movement switch 431 may be implemented as a four-way jog type joystick and attached to the upper right side of the inner side of the handle 230 (e.g., the upper right side of the side of the handle 230 visible to the user) . In this case, the user can operate the movement switch 431 by using the thumb of the left hand holding the knob 230. Movement signals in the forward / backward / left / right directions can be generated in accordance with the movement of the movement switch 431 in the forward / backward / left / right direction, similar to a general joystick. The signal processing device 120 may receive a moving signal through a wire / wireless communication method and move a character in a virtual space in response to a moving signal.

보조 스위치(432)는 가상 훈련 장치에서 제공하는 시뮬레이션에 대한 추가적인 입력을 제공할 수 있다. 예를 들어, 보조 스위치(432)는 가상 공간 내 캐릭터의 시선 방향을 제어할 수 있다. 예를 들어, 보조 스위치(432)는 버튼(button) 방식으로 동작하고, 손잡이(230)의 우측면에 배치될 수 있다. 이 경우, 사용자는 손잡이(230)를 잡은 왼손의 중지 손가락을 이용하여 보조 스위치(532)를 조작할 수 있다. 보조 스위치(432)는 2개 이상의 버튼을 포함할 수 있다.The auxiliary switch 432 may provide additional input for the simulation provided by the virtual training device. For example, the auxiliary switch 432 can control the visual direction of the character in the virtual space. For example, the auxiliary switch 432 operates in a button manner and may be disposed on the right side of the handle 230. In this case, the user can operate the auxiliary switch 532 by using the stop finger of the left hand holding the knob 230. The auxiliary switch 432 may include two or more buttons.

도 4d는 도 2a의 훈련용 활에 포함된 컨트롤 모듈의 일 예를 나타내는 도면이다.FIG. 4D is a view showing an example of a control module included in the training bow of FIG. 2A.

도 4d를 참조하면, 컨트롤 모듈(270)은 기울기 센서(441) 및 통신 모듈(442)을 포함할 수 있다. 또한, 컨트롤 모듈(270)은 장력 센서(240) 등에 전력을 공급하는 배터리를 더 포함할 수 있다.Referring to FIG. 4D, the control module 270 may include a tilt sensor 441 and a communication module 442. In addition, the control module 270 may further include a battery for supplying power to the tension sensor 240 and the like.

기울기 센서(441)는 훈련용 활(110)의 자세를 감지할 수 있다. 예를 들어, 기울기 센서(441)는 3축 가속도 센서, 3축 자이로 센서 및 3축 지자기 센서를 포함하는 다축 센서(또는, 9축 센서)로 구현되고, 훈련용 활(110)의 기울기, 회전각, 높이 등을 감지할 수 있다.The tilt sensor 441 can sense the posture of the training bow 110. For example, the tilt sensor 441 is implemented as a multi-axis sensor (or 9-axis sensor) including a 3-axis acceleration sensor, a 3-axis gyro sensor, and a 3-axis geomagnetic sensor, Angle, height, and so on.

기울기 센서(441)에서 측정된 훈련용 활(110)의 자세 정보(즉, 기울기, 위치, 예를 들어, 도 2b를 참조하여 설명한 자세 신호(S_ATTITUDE))는 화살(300)의 궤적을 산출하는데 이용되거나, 훈련용 활(110)과 연동되는 가상 훈련 장치에서 구현되는 가상 공간 내 캐릭터의 이동 또는 화면을 제어하는데 이용될 수 있다. 예를 들어, 신호 처리 장치(120)는 활(110)의 기울기에 기초하여 발사 방향(및 발사 각도)을 산출하고, 발사 방향 및 발사속도(예를 들어, 장력 센서에서 측정된 발사 힘 또는 재장전 모듈에서 측정된 슈팅 파워)에 기초하여 화살(300)의 궤적을 산출할 수 있다. 예를 들어, 신호 처리 장치(120)는 훈련용 활(110)의 활대(210)의 축 방향을 기준으로 훈련용 활(110)이 회전한 제1 각도의 변화량 또는 훈련용 활(110)의 활대(210)의 축 자체가 기울어진 제2 각도의 변화량에 기초하여, 캐릭터의 시선 방향 또는 사용자에게 제공하는 화면을 사용자를 기준으로 좌/우로 이동시킬 수 있다.The attitude information (i.e., the inclination, the position, the attitude signal S_ATTITUDE described with reference to FIG. 2B) of the training bow 110 measured by the inclination sensor 441, for example, calculates the trajectory of the arrow 300 Or may be used to control the movement or screen of the character in the virtual space implemented in the virtual training device that is interlocked with the training bow 110. [ For example, the signal processing apparatus 120 may calculate a shooting direction (and a shooting angle) based on the inclination of the bow 110, and calculate a shooting direction and a shooting speed (for example, The shooting power measured in the loading module). For example, the signal processing device 120 may be configured to determine a change in a first angle of rotation of the training bow 110 relative to an axial direction of a bow 210 of the training bow 110, It is possible to move the view direction of the character or the screen provided to the user to the left or the right based on the user based on the change amount of the second angle at which the axis of the bar 210 is inclined.

통신 모듈(442)은 장력 센서(240), 재장전 모듈(250) 및 입력 모듈(260), 기울기 센서(541)로부터 출력되는 신호들을 수신하고, 데이터 신호로 변환하여 신호 처리 장치(120)에 제공할 수 있다. 예를 들어, 통신 모듈(442)을 블루투스 기술 또는 저전력 블루투스 기술(BLE)과 같은 저전력 근거리 유/무선 통신 방식을 이용하여 상기 신호들을 데이터 신호로 변환할 수 있다. 통신 모듈(442)에서 사용하는 통신 프로토콜은 일반적인 통신 프로토콜을 이용하므로, 이에 대한 설명은 생략하기로 한다.The communication module 442 receives the signals output from the tension sensor 240, the recharging module 250 and the input module 260 and the tilt sensor 541 and converts the signals into data signals and outputs them to the signal processing device 120 . For example, the communication module 442 may convert the signals to a data signal using a low-power short-range wireless communication method such as Bluetooth technology or low-power Bluetooth technology (BLE). Since the communication protocol used by the communication module 442 uses a general communication protocol, a description thereof will be omitted.

일 실시예에서, 컨트롤 모듈(270)은 식별기(443)를 더 포함할 수 있다. 도 2a 및 도 3을 참조하여 설명한 바와 같이, 화살(300)은 해당 화살의 종류 정보를 저장한 식별 장치(예를 들어, RFID 태그)를 포함하고, 식별기(443)는 식별 장치(예를 들어, RFID 리더기)에 저장된 해당 화살의 종류 정보를 수신할 수 있다.In one embodiment, the control module 270 may further include an identifier 443. As described with reference to FIGS. 2A and 3, the arrow 300 includes an identification device (for example, an RFID tag) that stores the type information of the arrow, and the identifier 443 includes an identification device , An RFID reader).

일 실시예에서, 컨트롤 모듈(270)은 외부 장치와의 연동 장치(미도시)를 더 포함할 수 있다. 예를 들어, 훈련용 활(110)이 헤드 마운트 디스플레이(head mounted display, HMD)와 연동하기 위한 연동 장치를 포함할 수 있다.In one embodiment, the control module 270 may further include an interlock device (not shown) with an external device. For example, the training bow 110 may include an interlock device for interlocking with a head mounted display (HMD).

도 4e는 도 4d의 컨트롤 모듈을 이용하여 화면을 제어하는 일 예를 나타내는 도면이다.FIG. 4E is a diagram showing an example of controlling a screen using the control module of FIG. 4D. FIG.

도 1a, 도 4d 및 도 4e를 참조하면, 신호 처리 장치(120)는 컨트롤 모듈(270)의 기울기 센서(441)에서 측정된 방향 정보에 기초하여 가상 공간 내 캐릭터의 시선 방향을 이동시키거나, 표시 장치(130)를 통해 출력되는 영상을 이동 또는 전환시킬 수 있다. 여기서, 방향 정보는 훈련용 활(110)에서 의해 발사되는 화살(300)의 발사 방향 정보와, 활대(210)의 상하 기울기 정보와, 활대(210)의 좌우 기울기 정보를 포함할 수 있다.Referring to FIGS. 1A, 4D, and 4E, the signal processing apparatus 120 moves the visual line direction of the character in the virtual space based on the direction information measured by the tilt sensor 441 of the control module 270, The image output through the display device 130 can be moved or changed. Here, the direction information may include the direction information of the arrow 300 emitted by the training bow 110, the up / down tilt information of the bow 210, and the tilt information of the bow 210.

이 경우, 신호 처리 장치(120)는 활대(210)의 좌우 기울기 정보의 변화에 기초하여 가상 공간 내 캐릭터의 시선 방향을 이동시킬 수 있다. 예를 들어, 신호 처리 장치(120)는 단위 시간마다 방향 정보(예를 들어, 좌우 기울기 정보)의 변화량을 산출하고, 방향 정보(예를 들어, 좌우 기울기 정보)의 변화량이 기준 값보다 큰 경우 캐릭터의 시선 방향을 이동시키거나, 영상을 이동 또는 전환시킬 수 있다.In this case, the signal processing apparatus 120 can move the visual line direction of the character in the virtual space based on the change of the tilt information of the rib 210. For example, the signal processing apparatus 120 calculates the amount of change of the direction information (e.g., the left-right tilt information) every unit time, and when the amount of change in the direction information It is possible to move the direction of the line of sight of the character, or to move or change the image.

도 4e에 도시된 바와 같이, 사용자(USER)가 훈련용 활(110)을 좌측으로 기울인 경우, 즉, 훈련용 활(110)의 발사 방향을 스크린(132)으로 고정한 상태에서 사용자(USER)가 훈련용 활(110)을 좌측으로 30도 이상 기울인 경우, 신호 처리 장치(120)는 가상 공간 내 캐릭터의 시선 방향을 좌측으로 30도 만큼 이동시킬 수 있다. 유사하게, 사용자(USER)가 훈련용 활(110)을 우측으로 기울인 경우, 즉, 훈련용 활(110)의 발사 방향을 스크린(132)으로 고정한 상태에서 사용자(USER)가 훈련용 활(110)을 우측으로 30도 이상 기울인 경우, 신호 처리 장치(120)는 가상 공간 내 캐릭터의 시선 방향을 우측으로 30도 만큼 이동시킬 수 있다. 훈련용 활(110)의 발사 방향의 변화량(즉, 기울기의 변화량)과 캐릭터의 시선 방향의 이동각은 예시적인 것으로, 본 발명이 이에 국한되는 것은 아니다.4E, when the user USER tilts the training bow 110 to the left, that is, when the user USER rotates in the state where the shooting direction of the training bow 110 is fixed by the screen 132 When the training bow 110 is tilted to the left by 30 degrees or more, the signal processing device 120 can move the visual direction of the character in the virtual space by 30 degrees to the left. Similarly, when the user USER tilts the training bow 110 to the right, i.e., when the user USER moves the training bow 110 to the training bow 110 with the shooting direction of the training bow 110 fixed by the screen 132 ) Is inclined to the right by 30 degrees, the signal processing apparatus 120 can move the visual line direction of the character in the virtual space by 30 degrees to the right. The amount of change in the shooting direction of the training bow 110 (i.e., the amount of change in the tilt) and the moving angle of the character in the sight line direction are illustrative and the present invention is not limited thereto.

도 4f는 도 2a의 훈련용 활에 포함된 거치대의 일 예를 나타내는 도면이다.Fig. 4F is a view showing an example of a cradle included in the training bow shown in Fig. 2A.

도 4f를 참조하면, 거치대(280)는 활대(210)에 배치되고, 외부 장치(예를 들어, 모바일 단말)을 고정시킬 수 있다. 예를 들어, 사용자가 훈련용 활(110)을 들어 화살을 쏠 준비를 하는 경우 외부 장치가 사용자의 시선 높이에 대응되도록, 거치대(280)는 손잡이(230)와 어퍼림 사이에 배치될 수 있다. Referring to FIG. 4F, the cradle 280 is disposed on the rib 210, and can fasten an external device (e.g., a mobile terminal). For example, the cradle 280 may be disposed between the handle 230 and the upper rim so that the external device corresponds to the user's line of sight when the user is preparing to shoot an arrow through the training bow 110 .

도 4g는 도 2a의 훈련용 활에 포함된 근접 센서의 일 예를 나타내는 도면이다.FIG. 4G is a view showing an example of a proximity sensor included in the training bow of FIG. 2A.

도 2a 및 도 4g를 참조하면, 훈련용 활(110)은 근접 센서(471, 472)를 더 포함할 수 있다. 근접 센서(471, 472)는 근접 센서(471, 472)로부터 화살(300)까지의 제1 거리(L1)를 측정하거나, 근접 센서(471, 472)간의 제2 거리(L2)를 측정할 수 있다.Referring to FIGS. 2A and 4G, the training bow 110 may further include proximity sensors 471 and 472. Proximity sensors 471 and 472 can measure a first distance L1 from proximity sensors 471 and 472 to arrow 300 or a second distance L2 between proximity sensors 471 and 472 have.

예를 들어, 제1 근접 센서(471)는 적외선 센서로 구현되어 제1 거리(L1)를 측정할 수 있다. 다른 예를 들어, 제1 근접 센서(471)는 자기장을 형성하는 자기 센서 또는 자석으로 구현되고, 제2 근접 센서(472)는 자기장을 측정하는 자기장 측정 센서(또는, 전자기 센서)로 구현되어, 제1 근접 센서(471)와 제2 근접 센서(472)간의 제2 거리(L2)를 측정할 수 있다.For example, the first proximity sensor 471 may be implemented as an infrared sensor to measure the first distance L1. In another example, the first proximity sensor 471 is implemented as a magnetic sensor or magnet that forms a magnetic field, and the second proximity sensor 472 is implemented as a magnetic field measurement sensor (or electromagnetic sensor) The second distance L2 between the first proximity sensor 471 and the second proximity sensor 472 can be measured.

참고로, 활시위(220)에 같은 장력(N1)이 가해지더라도, 훈련용 활(110)의 크기, 종류에 따라 화살(300)에 가해지는 발사 힘들(N2, N3)은 다를 수 있다. 따라서, 신호 처리 장치(120)는, 장력(N1)만을 고려하는 경우 화살의 발사 힘(N2), 발사 힘(N2)에 기초한 발사 속도와, 발사 속도에 기초한 화살(200)의 궤적 등을 정확하게 산출하기 어렵다. 이에 따라, 신호 처리 장치(120)는 장력(N1)별/활 종류별/화살 종류별로 발사 속도/이동 궤적 등을 실험적으로 측정하여 룩업 테이블로 저장할 수 있으나, 이에 대한 데이터 양이 증가하는 문제점을 가질 수 있다.Note that, even if the same tension N1 is applied to the bowstring 220, the shooting forces N2 and N3 applied to the arrow 300 may be different depending on the size and type of the training bow 110. [ Therefore, when considering only the tension N1, the signal processing apparatus 120 can accurately calculate the launching speed based on the launching force N2 and the launching force N2 of the arrow and the trajectory of the arrow 200 based on the launching speed It is hard to calculate. Accordingly, the signal processing apparatus 120 can experimentally measure the emission rate / movement trajectory according to the tension N1, the bow type, and the arrow type, and store it as a lookup table. However, .

한편, 훈련용 활(110)은 제1 거리(L1) 또는 제2 거리(L2)를 측정하므로, 신호 처리 장치(120)는 제1 거리(L1) 또는 제2 거리(L2)에 기초하여 화살(300)의 발사 힘(즉, 화살(200)에 가해지는 힘)을 보다 정확하게 측정하며, 이에 따라 별도의 룩업테이블 등이 없더라도 화살(300)의 궤적을 보다 정확하게 산출할 수 있다.On the other hand, since the training bow 110 measures the first distance L1 or the second distance L2, the signal processing apparatus 120 can measure the first distance L1 or the second distance L2 based on the first distance L1 or the second distance L2. (I.e., the force exerted on the arrow 200) of the arrow 300 can be more accurately measured. Thus, the trajectory of the arrow 300 can be accurately calculated even without a separate look-up table or the like.

제1 거리(L1)(또는, 제2 거리(L2))가 측정되는 경우, 제1 거리(L1)와 장력(N1)에 기초하여 아래의 수학식 1에 따라 발사 힘(N2)이 산출될 수 있다.When the first distance L1 (or the second distance L2) is measured, the launching force N2 is calculated based on the first distance L1 and the tension N1 according to the following equation (1) .

[수학식 1][Equation 1]

Figure 112017106276891-pat00001
Figure 112017106276891-pat00001

여기서, N2는 화살(300)에 가해지는 발사힘, N1은 장력, Θ1은 활시위(220)와 화살(300)이 이루는 각, L1은 근접 센서(또는, 활고자(211))와 화살(300)간의 제1 거리, LS는 활고자(211) 사이에서 활시위(220)의 길이의 절반이다.N1 is the angle formed by the bow 220 and the arrow 300 and L1 is the angle between the proximity sensor or the arrow 300 and the arrow 300, LS is half of the length of the bowstring 220 between the dynamos 211. [

한편, 제2 거리(L2)는 제1 거리(L1)의 2배 이므로, 제2 거리(L2)를 측정하는 경우에도 수학식 1을 이용하여 발사힘(N2)이 산출될 수 있다.On the other hand, since the second distance L2 is twice the first distance L1, the emission force N2 can be calculated using the equation (1) even when the second distance L2 is measured.

따라서, 신호 처리 장치(120)는 화살(300)에 가해지는 발사힘(N2)을 산출할 수 있으며, 발사힘(N2)과, 화살 종류 정보(예를 들어, 화살(300)의 무게, 길이)와, 운동방정식 등에 기초하여 화살(300)의 궤적(즉, 화살(300)이 훈련용 활(110)에서 발사되는 경우, 화살(300)의 이동 궤적)을 보다 정확하게 산출할 수 있다.Therefore, the signal processing apparatus 120 can calculate the launching force N2 applied to the arrow 300 and can calculate the launching force N2, the arrow type information (for example, the weight of the arrow 300, (That is, the movement trajectory of the arrow 300 when the arrow 300 is fired from the training bow 110) can be more accurately calculated on the basis of the motion equation and the like.

도 5a는 도 1a의 가상 훈련 시스템에 포함된 무빙 플레이트의 일 예를 나타내는 도면이고, 도 5b는 도 5a의 무빙 플레이트에 포함된 구동부의 일 예를 나타내는 도면이다.FIG. 5A is a view illustrating an example of a moving plate included in the virtual training system of FIG. 1A, and FIG. 5B is a view illustrating an example of a driving unit included in the moving plate of FIG. 5A.

도 5a 및 도 5b를 참조하면, 무빙 플레이트(140)은 발판부(510), 구동부(530) 및 가이드부(520)를 포함할 수 있다. 무빙 플레이트(140)는 신호 처리 장치(120)와 연동되고, 신호 처리 장치(120)에서 제공되는 경사 제어 신호에 기초하여 발판부(110)의 경사(즉, 지면을 기준으로 발판부(110)의 상부면이 이루는 경사)를 조절하며, 가이드부(520)를 통해 사용자로부터 입력된 입력 신호를 가상 훈련 장치에 제공할 수 있다.5A and 5B, the moving plate 140 may include a foot plate 510, a driving unit 530, and a guide unit 520. The moving plate 140 is interlocked with the signal processing device 120 and detects the inclination of the footrest 110 based on the inclination control signal provided from the signal processing device 120 And the input signal input from the user through the guide unit 520 can be provided to the virtual training device.

도 5b를 참조하면, 발판부(510)는 평판 형상을 가지고 사용자의 발을 지지할 수 있다. 예를 들어, 발판부(510)는 1m*1m 크기의 사각형의 평면을 가질 수 있다. 이는 예시적인 것으로, 발판부(510)가 이에 국한되는 것은 아니다. 예를 들어, 발판부(510)는 직경 1m의 원형의 평면을 가지거나, 다각형 형상을 가질 수 있다.Referring to FIG. 5B, the footrest 510 has a flat plate shape and can support a user's foot. For example, the footrest 510 may have a square plane of 1 m * 1 m in size. This is an example, and the footrest 510 is not limited thereto. For example, the footrest 510 may have a circular plane with a diameter of 1 m, or may have a polygonal shape.

발판부(510)는 제1 발판(511) 및 제2 발판(512)을 포함할 수 있다. 제1 발판(511)은 사용자의 발과 접촉하여 사용자를 직접적으로 지지할 수 있다. 제2 발판(512)은 제1 발판(511)과 실질적으로 동일한 형상을 가지고, 제1 발판(511)의 하부에 배치될 수 있다.The footrest 510 may include a first footrest 511 and a second footrest 512. The first footrest 511 can directly support the user by contacting the foot of the user. The second footplate 512 has substantially the same shape as the first footplate 511 and may be disposed under the first footplate 511.

구동부(530)는 지면을 기준으로 발판부(510)의 상부면의 경사각(즉, 지면을 기준으로 발판부(511)의 상부면이 이루는 경사각)을 조절할 수 있다. 구동부(530)는 제1 발판(511) 및 제2 발판(512) 사이에 배치될 수 있다.The driving unit 530 can adjust the inclination angle of the upper surface of the pedestal 510 with respect to the ground surface (i.e., the inclination angle formed by the upper surface of the pedestal 511 with respect to the ground). The driving unit 530 may be disposed between the first footrest 511 and the second footrest 512.

구동부(530)는 높이조절부재(531), 구동장치(532) 구동제어부(533), 및 지지축(534)를 포함할 수 있다.The driving unit 530 may include a height adjusting member 531, a driving unit 532, a driving control unit 533, and a supporting shaft 534.

먼저, 지지축(534)은 바 형상을 가지고, 제2 발판(512)의 면적 중심으로부터 수직 방향으로 연장되어 배치되며, 제1 발판(511)의 면적 중심 부분과 회동 가능하게 연결되어 제1 발판(511)을 지지할 수 있다.First, the supporting shaft 534 has a bar shape and is arranged to extend in the vertical direction from the center of the area of the second scaffold 512 and is rotatably connected to the central area of the area of the first scaffold 511, (511).

높이조절부재(531)는 제2 발판(512)의 면적 중심(또는, 지지축(534))을 기준으로 상호 특정 각도를 가지고 이격되어 배치되며, 제1 발판(511)을 지지할 수 있다. 예를 들어, 구동부(530)는 제1 및 제2 높이조절부재들(531a, 531b)을 포함하고, 제1 및 제2 높이조절부재들(531a, 531b)은 제2 발판(512)의 가장자리와 인접하여 배치되며, 제2 발판(512)의 무게 중심(또는, 지지축(534))을 기준으로 상호 90도 간격을 가지도록 배치될 수 있다. 이는 예시적인 것으로, 높이조절부재들(531)이 이에 국한되는 것은 아니다. 예를 들어, 구동부(530)는 3개 이상의 높이조절부재들(531)을 포함할 수 있다.The height adjusting members 531 are spaced apart from each other by a specific angle with respect to the center of the area of the second footstep 512 (or the supporting shaft 534), and can support the first footstep 511. For example, the driving unit 530 includes first and second height adjusting members 531a and 531b, and the first and second height adjusting members 531a and 531b include the edge of the second footstep 512 And may be disposed so as to be spaced apart from each other by 90 degrees with respect to the center of gravity (or the support shaft 534) of the second footplate 512. This is illustrative, and the height adjustment members 531 are not limited thereto. For example, the driving unit 530 may include three or more height adjustment members 531.

일 실시예에서, 높이조절부재(531)는 유압 방식 또는 공기압 방식으로 구동될 수 있다. 예를 들어, 구동장치(532)에 의해 형성된 유압 또는 공기압에 기초하여 높이조절부재(231)의 길이(즉, 제3 방향(D3)으로의 길이)가 변화 할 수 있다.In one embodiment, the height adjustment member 531 may be driven hydraulically or pneumatically. For example, the length of the height adjusting member 231 (that is, the length in the third direction D3) may vary based on the hydraulic pressure or the air pressure formed by the driving device 532. [

일 실시예에서, 높이조절부재(531)는 구동장치(521), 제1 발판(511) 및 상호 회동 가능하게 연결되는 2개의 연결부재들로 구성될 수 있다. 예를 들어, 구동장치(521)가 모터로 구현되는 경우, 제1 연결부재는 바(bar) 형태로 구현되고, 제1 연결부재의 중심이 모터의 회전축에 수직으로 연결될 수 있다. 제2 연결부재는 바 형태로 구현되고, 제2 연결부재의 일단은 제1 연결부재의 일단에 연결되며, 제2 연결부재의 타단은 제1 발판(511)에 형성된 연결부재(예를 들어, 러그)에 연결될 수 있다. 이 경우, 모터의 회전에 따라 연결부재의 수직 방향으로의 전체 길이가 변화되고, 제2 발판(512)을 기준으로 제1 발판(511)의 높이가 변화할 수 있다.In one embodiment, the height adjustment member 531 may be composed of a driving device 521, a first footrest 511, and two connecting members that are pivotally connected to each other. For example, when the driving device 521 is embodied as a motor, the first connecting member may be realized in the form of a bar, and the center of the first connecting member may be perpendicularly connected to the rotation axis of the motor. One end of the second connecting member is connected to one end of the first connecting member and the other end of the second connecting member is connected to the connecting member formed on the first supporting plate 511, Lugs < / RTI > In this case, the overall length of the connecting member in the vertical direction is changed according to the rotation of the motor, and the height of the first footrest 511 can be changed with respect to the second footrest 512.

구동장치(532)는 높이조절부재들(531) 각각의 길이를 가변시킬 수 있다. 예를 들어, 구동장치(532)는 유압 또는 공기압을 형성하는 모터로 구현될 수 있고, 높이조절부재들(531) 각각에 대응하여 복수의 모터들을 포함할 수 있다.The driving device 532 may vary the length of each of the height adjusting members 531. [ For example, the driving device 532 may be embodied as a motor that forms a hydraulic or pneumatic pressure, and may include a plurality of motors corresponding to each of the height adjustment members 531.

구동 제어부(533)는 가상 훈련 장치로부터 경사 제어 신호를 수신하고, 경사 제어 신호에 기초하여 높이조절부재들(531) 각각의 높이 또는 상기 높이에 대응하는 유압/공기압을 결정하며, 구동장치(532) 각각의 동작을 제어할 수 있다.The drive control unit 533 receives the tilt control signal from the virtual training device and determines the hydraulic pressure / air pressure corresponding to the height or the height of each of the height adjustment members 531 based on the tilt control signal, ) Can be controlled.

한편, 도 1 및 도 2에 도시되지 않았으나, 구동부(530)는 제1 발판(511)의 충격을 흡수하고, 제1 발판(511) 및 제2 발판(512)의 간격을 허용 간격이상으로 유지시키는 완충 부재(예를 들어, 스프링 부재) 등을 더 포함할 수 있다.1 and 2, the driving unit 530 absorbs the impact of the first footstep 511 and maintains the interval between the first footstep 511 and the second footstep 512 at an allowable interval or more (For example, a spring member) and the like.

다시 도 1을 참조하면, 가이드부(520)는 사용자(즉, 무빙 플레이트를 이용하는 사용자)의 움직임을 가이드할 수 있다.Referring again to FIG. 1, the guide unit 520 can guide the movement of a user (i.e., a user using a moving plate).

가이드부(520)는 착용부재(521) 및 연결부재(522)를 포함할 수 있다.The guide portion 520 may include a wearing member 521 and a connecting member 522.

착용부재(521)는 사용자의 일부에 장착될 수 있다. 예를 들어, 착용부재(521)는 환형으로 형성되고, 사용자의 허리에 장착되거나 착용될 수 있다. 사용자는 제2 방향(D2)(또는, 제2 방향(D2)의 반대 방향)을 향해 서 있을 수 있으며, 사용자의 허리 단면의 형상을 고려하여, 착용부재(521)의 제1 방향(D1)으로의 제1 폭은 착용부재(521)의 제2 방향(D2)으로의 제2 폭보다 클 수 있다.The wearing member 521 may be mounted on a part of the user. For example, the wearing member 521 is formed in an annular shape and can be mounted on or worn by the user's waist. The user can stand in the second direction D2 (or the opposite direction to the second direction D2) and can take the first direction D1 of the wear member 521 in consideration of the shape of the waist section of the user, May be greater than the second width of the wear member 521 in the second direction D2.

착용부재(521)는 발판부(510)의 상부면(또는, 제1 발판(511))으로부터 기준 거리(예를 들어, 1.1m)만큼 이격되어 배치되며, 착용부재(521)의 무게 중심은 발판부(510)의 면적 중심(또는, 무게 중심)을 지나는 수직축(예를 들어, 제3 방향(D3)에 평행한 수직축) 상에 위치 할 수 있다. 착용부재(521)의 높이(즉, 제1 발판(511)으로부터 이격된 거리)는 사용자의 신체 특성(예를 들어, 사용자의 키 등)을 고려하여 자유롭게 설정될 수 있다.The wear member 521 is disposed at a distance from the upper surface (or the first foot plate 511) of the foot plate 510 by a reference distance (for example, 1.1 m), and the center of gravity of the wear member 521 (E.g., a vertical axis parallel to the third direction D3) passing through the center of the area of the footrest 510 (or the center of gravity). The height of the wear member 521 (i.e., the distance spaced from the first foot plate 511) can be freely set in consideration of the user's body characteristics (e.g., the user's key, etc.).

연결부재(522)는 발판부(110)의 상부면에 배치되고, 착용부재(521)와 연결되어 착용부재(521)를 지지할 수 있다. 연결부재(522)는 연결부재(522)의 축 방향을 따라 하부 방향으로 일정 힘 이상을 지지하여, 착용부재(521)와 함께 사용자의 안전을 보장할 수 있다.The connecting member 522 is disposed on the upper surface of the foot part 110 and can be connected to the wear member 521 to support the wear member 521. [ The connecting member 522 supports a certain amount of force in the downward direction along the axial direction of the connecting member 522 to ensure the safety of the user together with the wearing member 521. [

사용자의 움직임에 따라 연결부재(522)와 발판부(510)가 이루는 연결각도(A1)와 발판부(510)와 착용부재(521)간의 이격거리에 대응하는 연결길이(L1)가 조절될 수 있다.The connection length L1 corresponding to the connection angle A1 between the connection member 522 and the foot plate 510 and the separation distance between the foot plate 510 and the wear member 521 can be adjusted have.

예를 들어, 연결부재(122)는 원통형의 2개의 바(bar)들 및 2개의 회전연결부재들을 포함하고, 제1 바의 일단은 제1 회전연결부재를 통해 발판부(510)와 연결되며, 제2 바는 제1 바의 직경보다 작은 직경을 가지며 제1 바의 내부에 삽입되고, 제2 바의 일단은 제1 바의 내부에 배치된 탄성 부재와 연결되어 제1 바의 타탄으로 돌출되거나 들어갈 수 있으며(즉, 제2 바의 돌출된 길이가 조절될 수 있으며), 제2 바의 타단은 제2 회전연결부재를 통해 착용부재(521)와 연결될 수 있다.For example, the connecting member 122 includes two cylindrical bars and two rotating connecting members, and one end of the first bar is connected to the pedestal portion 510 through the first rotating connecting member And the second bar has a diameter smaller than the diameter of the first bar and is inserted into the interior of the first bar and one end of the second bar is connected to the elastic member disposed inside the first bar to protrude into the first bar of the tart (That is, the protruding length of the second bar can be adjusted), and the other end of the second bar can be connected to the wear member 521 through the second rotation connecting member.

한편, 도 1에는 2개의 연결부재(522)들이 개시되어 있으나, 이는 예시적인 것으로 연결부재(522)가 이에 국한되는 것은 아니다. 예를 들어, 무빙 플레이트(140)는 1개의 연결부재 또는 3개 이상의 연결부재들을 포함할 수 있다.In the meantime, although two connecting members 522 are shown in Fig. 1, this is merely an example, and the connecting member 522 is not limited thereto. For example, the moving plate 140 may include one connecting member or three or more connecting members.

연결부재(522)의 연결각도(A1)와 연결길이(L1)는 후술하는 제어부(550)(도 5c 참조) 또는 신호 처리 장치(120)에서 이동 제어 신호를 생성하는데 이용될 수 있다. 여기서, 이동 제어 신호는 가상 훈련 시스템(100)에 의해 구현된 가상 공간 내에서 상기 사용자에 대응하여 생성되는 가상 캐릭터의 이동을 제어하는데 이용될 수 있다.The connection angle A1 and the connection length L1 of the connection member 522 can be used to generate a movement control signal in the control unit 550 (see FIG. 5C) or the signal processing device 120 described later. Here, the movement control signal may be used to control the movement of the virtual character generated corresponding to the user in the virtual space implemented by the virtual training system 100. [

한편, 가이드부(520)는 착용부재(521)의 내부면에 배치되고 사용자의 움직임에 따라 발생되는 압력을 감지하는 복수의 압력 센서들(523)을 포함할 수 있다.Meanwhile, the guide unit 520 may include a plurality of pressure sensors 523 disposed on the inner surface of the wear member 521 and sensing pressure generated by the user's movement.

예를 들어, 압력 센서들(523)은 착용부재(521)의 무게 중심을 기준으로 착용부재(521)의 내부면의 전/후/좌/우 방향에 배치되고, 사용자의 움직임(예를 들어, 허리의 전/후/좌/우 방향으로의 움직임)에 의해 발생되는 압력을 감지할 수 있다. 압력 센서들(523)에 의해 생성되는 압력 신호는 가상 캐릭터의 이동을 제어하는데 이용될 수 있다. 예를 들어, 사용자가 제1 방향(D1)으로 이동하기 위해 제1 방향(D1)으로 한쪽 발을 내딛는 경우, 사용자의 무게 중심과 사용자의 허리의 위치는 제1 방향(D1)으로 이동하고 제1 방향(D1)에 위치한 압력 센서에 압력이 가해질 수 있다. 이 경우, 가상 훈련 장치는 제1 방향(D1)에 위치한 압력 센서에 의해 감지된 압력에 기초하여 가상 캐릭터를 제1 방향(D1)으로 이동시킬 수 있다.For example, the pressure sensors 523 are arranged in the front / rear / left / right direction of the inner surface of the wear member 521 with respect to the center of gravity of the wear member 521, , The movement in the front / back / left / right direction of the waist). The pressure signal generated by the pressure sensors 523 may be used to control the movement of the virtual character. For example, when the user steps one foot in the first direction D1 to move in the first direction D1, the center of gravity of the user and the position of the waist of the user move in the first direction D1, Pressure may be applied to the pressure sensor located in one direction (D1). In this case, the virtual training device may move the virtual character in the first direction D1 based on the pressure sensed by the pressure sensor located in the first direction D1.

한편, 무빙 플레이트(140)는 연결부재(522)의 연결각도(A1)와 연결길이(L1)에 기초하여 이동 제어 신호를 생성할 수 있다. 이동 제어 신호를 생성하는 구성에 대해서는 도 5c 및 도 5d를 참조하여 설명하기로 한다.On the other hand, the moving plate 140 can generate a movement control signal based on the connection angle A1 and the connection length L1 of the connection member 522. [ The configuration for generating the movement control signal will be described with reference to Figs. 5C and 5D.

도 5c은 도 5a의 무빙 플레이트의 일 예를 나타내는 블록도이고, 도 5d는 도 5a의 무빙 플레이트에 포함된 제어부의 동작을 설명하는 도면이다.FIG. 5C is a block diagram showing an example of the moving plate of FIG. 5A, and FIG. 5D is a view illustrating an operation of the control unit included in the moving plate of FIG. 5A.

도 5c를 참조하면, 무빙 플레이트(140)는 센서부(540), 제어부(550) 및 구동 제어부(533)를 포함할 수 있다.Referring to FIG. 5C, the moving plate 140 may include a sensor unit 540, a control unit 550, and a drive control unit 533.

센서부(540)는 사용자의 움직임과 사용자 주변 환경을 감지할 수 있다. 센서부(540)는 압력 센서(541), 가이드 센서(542) 및 감지 센서(543)를 포함할 수 있다.The sensor unit 540 can sense the movement of the user and the user's surrounding environment. The sensor unit 540 may include a pressure sensor 541, a guide sensor 542, and a detection sensor 543.

압력 센서(541)는 도 5a을 참조하여 설명한 압력 센서(523)와 실질적으로 동일하므로, 중복되는 설명은 반복하지 않기로 한다. 압력 센서(541)는 사용자의 움직임에 따라 발생하는 압력을 감지하여 압력 신호(S_CONTACT)를 생성할 수 있다. 압력 신호(S_CONTACT)는 압력이 발생한 방향에 대한 방향 정보와 압력의 크기에 대한 세기 정보를 포함할 수 있다.Since the pressure sensor 541 is substantially the same as the pressure sensor 523 described with reference to Fig. 5A, the description will not be repeated. The pressure sensor 541 can generate a pressure signal S_CONTACT by sensing the pressure generated according to the movement of the user. The pressure signal S_CONTACT may include direction information on the direction in which the pressure is generated and intensity information on the magnitude of the pressure.

이 경우, 제어부(550)는 압력 신호(S_CONTACT)에 기초하여 입력 신호(예를 들어, 사용자의 움직임에 기초하여 입력된 신호로서, 캐릭터의 이동 제어 신호를 생성하는데 이용되는 신호)를 생성하며, 신호 처리 장치(120)에 제공할 수 있다.In this case, the control unit 550 generates an input signal (for example, a signal used to generate the movement control signal of the character based on the user's motion) based on the pressure signal S_CONTACT, To the signal processing apparatus 120.

가이드 센서(542)는 연결부재(522)의 연결각도(A1)와 연결길이(L1)를 감지하고, 장력 신호(S_TENSION)과 각도 신호(S_ANGLE)를 생성할 수 있다.The guide sensor 542 can detect the connection angle A1 and the connection length L1 of the connection member 522 and generate the tension signal S_TENSION and the angle signal S_ANGLE.

도 5d의 (a)를 참조하면, 무빙 플레이트(140)의 평면도가 도시되어 있다. 무빙 플레이트(140)는 제1 내지 제4 연결부재들(571 내지 574)(또는, 제1 내지 제4 서브 연결부재들)과, 제1 내지 제4 가이드 센서들(561 내지 564)(또는, 제1 내지 제4 서브 가이드 센서들)을 포함할 수 있다.Referring to FIG. 5D (a), a plan view of the moving plate 140 is shown. The moving plate 140 includes first to fourth connecting members 571 to 574 (or first to fourth sub connecting members), first to fourth guide sensors 561 to 564 First to fourth sub-guide sensors).

제1 내지 제4 연결부재들(571 내지 574)은, 도 5a를 참조하여 설명한 바와 같이, 발판부(510)와 착용부재(521) 사이에 연결되되, 발판부(510)의 무게 중심을 기준으로 상호 대칭되도록 배치될 수 있다.The first to fourth connecting members 571 to 574 are connected between the footrest 510 and the wearer 521 as described with reference to Figure 5A, As shown in FIG.

제1 내지 제4 가이드 센서들(561 내지 564)는 제1 내지 제4 연결부재들(571 내지 574)의 일단(예를 들어, 발판부(510)와 연결되는 부분)에 배치되고, 제1 내지 제4 연결부재들(571 내지 574) 각각의 연결각도들(A1 내지 A4)과 연결길이들(L1 내지 L4)을 각각 측정할 수 있다.The first to fourth guide sensors 561 to 564 are disposed at one end of the first to fourth connecting members 571 to 574 (for example, at a portion connected to the foot part 510) The connection angles A1 to A4 and the connection lengths L1 to L4 of the fourth to fourth connection members 571 to 574, respectively, can be measured.

이 경우, 제어부(320)는 연결각도들(A1 내지 A4)과 연결길이들(L1 내지 L4)에 기초하여 입력 신호(또는, 이동 제어 신호)를 생성하며, 생성된 입력 신호를 외부의 프로세서(10)(또는, 가상 훈련 장치)에 제공할 수 있다.In this case, the control unit 320 generates an input signal (or a movement control signal) based on the connection angles A1 to A4 and the connection lengths L1 to L4, and outputs the generated input signal to an external processor 10) (or a virtual training device).

도 4의 (b)를 참조하여 예를 들면, 사용자는 제1 이동방향(MD1)으로 이동하기 위해 사용자의 한쪽 발을 제1 이동방향(MD1)으로 내딛는 경우, 사용자의 무게 중심과 사용자의 허리의 위치는 제1 이동방향(MD1)으로 이동하고 이에 따라 착용부재(521)가 제1 이동방향(MD1)으로 이동할 수 있다. 이 경우, 제1 연결부재(571)의 제1 연결길이(L1)가 감소하고 제1 연결부재(571)의 제1 연결각도(A1)가 제1 회전방향(DR1)으로 증가하며 제2 연결부재(572)의 제2 연결길이(L2)가 증가하고 제2 연결부재(572)의 제2 연결각도(A2)가 제1 회전방향(DR1)으로 증가 할 수 있다. 따라서, 제어부(550)는 사용자가 가상공간 내 가상 캐릭터를 제1 방향(D1)으로 이동시키고자 하는 것으로 판단하고, 가상 캐릭터를 제1 방향(D1)으로 이동시키는 제1 이동 제어 신호를 생성 할 수 있다. 이와 유사하게, 제어부(550)는 제1 내지 제4 연결부재들(571 내지 574)의 연결길이들(L1 내지 L4) 및 연결각도들(A1 내지 A4) 중 적어도 2개의 변화에 기초하여 사용자의 의도(즉, 캐릭터를 특정 방향으로 이동시키고자 하는 의도)를 파악하여 이동 제어 신호를 생성할 수 있다.Referring to FIG. 4 (b), for example, when the user takes one foot of the user in the first movement direction MD1 to move in the first movement direction MD1, Is moved in the first moving direction MD1 and accordingly the wearing member 521 can move in the first moving direction MD1. In this case, the first connection length L1 of the first connection member 571 decreases and the first connection angle A1 of the first connection member 571 increases in the first rotation direction DR1, The second connection length L2 of the member 572 may increase and the second connection angle A2 of the second connection member 572 may increase in the first rotation direction DR1. Accordingly, the control unit 550 determines that the user desires to move the virtual character in the virtual space in the first direction D1, and generates the first movement control signal for moving the virtual character in the first direction D1 . Similarly, the control unit 550 controls the operation of the user (not shown) based on at least two of the connection lengths (L1 to L4) and connection angles (A1 to A4) of the first to fourth connection members It is possible to grasp the intention (that is, the intention to move the character in a specific direction) and generate the movement control signal.

도 5d의 (c)를 참조하여 예를 들면, 사용자는 제1 회전방향(DR1)으로 시선 방향을 전환하기 위해 사용자의 몸을 제1 회전방향(DR1)으로 회전시키는 경우, 착용부재(521)가 제1 회전방향(DR1)을 따라 회전 할 수 있다. 이 경우, 제1 연결부재(571)의 제1 연결길이(L1)가 증가하고 제1 연결각도(A1)가 제1 회전방향(DR1)으로 증가하며 제2 연결부재(572)의 제2 연결길이(L2)가 증가하고 제2 연결각도(A2)가 제1 회전방향(DR1)으로 증가 할 수 있다. 따라서, 제어부(550)는 가상 캐릭터를 제1 회전방향(DR1)으로 회전시키는 제1 회전 신호(또는, 사용자에게 제공되는 영상을 제1 회전방향(DR1)으로 전환시키는 제1 회전 신호)를 생성 할 수 있다. 이와 유사하게, 제어부(550)는 제1 내지 제4 연결부재들(571 내지 574)의 연결길이들(L1 내지 L4) 및 연결각도들(A1 내지 A4) 중 적어도 2개의 변화에 기초하여 사용자의 의도(즉, 캐릭터를 특정 방향으로 회전시키고자 하는 의도)를 파악하여 회전 신호를 생성할 수 있다.Referring to (c) of FIG. 5D, for example, when the user rotates the user's body in the first rotational direction DR1 to switch the viewing direction in the first rotational direction DR1, Can rotate along the first rotation direction DR1. In this case, the first connection length L1 of the first connection member 571 increases, the first connection angle A1 increases in the first rotation direction DR1, and the second connection of the second connection member 572 The length L2 may increase and the second connection angle A2 may increase in the first rotation direction DR1. Accordingly, the control unit 550 generates a first rotation signal for rotating the virtual character in the first rotation direction DR1 (or a first rotation signal for switching the image provided to the user to the first rotation direction DR1) can do. Similarly, the control unit 550 controls the operation of the user (not shown) based on at least two of the connection lengths (L1 to L4) and connection angles (A1 to A4) of the first to fourth connection members It is possible to grasp the intention (that is, the intention to rotate the character in a specific direction) and generate the rotation signal.

도 4의 (d)를 참조하여 예를 들면, 사용자는 서 있는 자세에서 앉은 자세로 자세를 바꾸는 경우, 착용부재(521)의 높이(즉, 발판부(510)부터 착용부재(521)까지의 거리)가 낮아질 수 있다. 제1 내지 제4 연결부재들(571 내지 574)의 연결길이들(L1 내지 L4)은 사용자가 서 있는 자세에서 최단 거리를 가지고, 사용자가 앉아 있는 자세에서 증가하며, 연결각도들(A1 내지 A4)은 수평 방향으로 변화하지 않을 수 있다. 즉, 제1 연결부재(571)의 제1 연결길이(L1)가 증가하고 제1 연결각도(A1)가 기준 범위 이내에서 변화하며(또는, 제1 연결각도(A1)의 수평 방향 성분이 변화하지 않으며) 제2 연결부재(572)의 제2 연결길이(L2)가 증가하고 제2 연결각도(A2)가 기준 범위 이내에서 변화할 수 있다. 따라서, 제어부(320)는 가상 캐릭터의 무게 중심의 높이를 변화시키는(또는, 가상 캐릭터의 자세를 변화시키거나, 사용자에게 표시되는 영상의 기준점의 고도를 변화시키는) 제1 자세 전환 신호를 생성 할 수 있다. 이와 유사하게, 제어부(320)는 제1 내지 제4 연결부재들(571 내지 574)의 연결길이들(L1 내지 L4) 및 연결각도들(A1 내지 A4) 중 적어도 2개의 변화에 기초하여 사용자의 자세 변화를 파악하여 자세 전환 신호를 생성할 수 있다.Referring to FIG. 4D, for example, when the user changes his / her posture from a standing posture to a sitting posture, the height of the wear member 521 (i.e., the distance from the foot plate 510 to the wear member 521) Distance) can be lowered. The connection lengths L1 to L4 of the first to fourth connection members 571 to 574 are set such that the user has the shortest distance in the standing posture and increases in the posture in which the user is seated and the connection angles A1 to A4 May not change in the horizontal direction. That is, when the first connection length L1 of the first connection member 571 increases and the first connection angle A1 changes within the reference range (or the horizontal direction component of the first connection angle A1 changes The second connecting length L2 of the second connecting member 572 may increase and the second connecting angle A2 may vary within the reference range. Accordingly, the control unit 320 generates the first posture change signal that changes the height of the center of gravity of the virtual character (or changes the posture of the virtual character, or changes the altitude of the reference point of the image displayed to the user) . Similarly, the control unit 320 determines whether or not the user of the user is on the basis of at least two of the connection lengths L1 to L4 and connection angles A1 to A4 of the first to fourth connection members 571 to 574 The posture change signal can be generated by grasping the posture change.

다시 도 5c를 참조하면, 감지 센서(543)는 무빙 플레이트(140)에 접근하는 객체 및/또는 사용자의 자세를 감지할 수 있다. 감지 센서(543)의 구체적인 구성에 대해서는 도 5e를 참조하여 후술하기로 한다.Referring again to FIG. 5C, the sensing sensor 543 may sense the attitude of the object and / or the user approaching the moving plate 140. The specific configuration of the detection sensor 543 will be described later with reference to FIG. 5E.

제어부(550)는 감지 센서(543)에서 측정된 감지 신호(S_INF)에 기초하여 구동부(550)의 동작을 제어하거나, 사용자의 자세에 대응하는 자세 변환 신호를 생성하며, 생성된 신호를 신호 처리 장치(120)에 제공할 수 있다.The control unit 550 controls the operation of the driving unit 550 based on the sensing signal S_INF measured by the sensing sensor 543 or generates an attitude conversion signal corresponding to the attitude of the user, To the device 120.

도 5a 내지 도 5d를 참조하여 설명한 바와 같이, 무빙 플레이트(140)는 발판부(510)(또는, 제1 발판(511))의 경사를 변화시켜 사용자에게 다양한 체험(예를 들어, 지형 변화에 체감)이 가능하도록 할 수 있다. 또한, 무빙 플레이트(140)는 가이드부(520)를 통해 사용자의 안전을 보장할 뿐만 아니라, 사용자의 움직임에 기초하여 입력 신호(또는, 가상 훈련 장치에 의해 구현된 가상공간 내 가상 캐릭터를 제어하는 제어 신호로서, 이동 제어 신호, 회전 신호, 자세 전환 신호)를 생성함으로써, 사용자로 하여금 가상공간 내 가상 캐릭터를 용이하게/직관적으로 제어할 수 있도록 할 수 있다.5A to 5D, the moving plate 140 changes the inclination of the pedestal portion 510 (or the first pedestal 511) to give the user various experiences (for example, Feeling) can be made possible. In addition, the moving plate 140 not only ensures the safety of the user through the guide unit 520, but also controls the virtual character in the virtual space implemented by the virtual training apparatus based on the movement of the user It is possible to easily and intuitively control the virtual character in the virtual space by generating the control signal as the movement control signal, the rotation signal, and the attitude conversion signal.

도 6a는 도 5a의 무빙 플레이트의 다른 일 예를 나타내는 도면이다.6A is a view showing another example of the moving plate of FIG. 5A.

도 5a 및 도 6a를 참조하면, 가이드부(520)는 수직바들(vertical bars)(581 내지 584)(또는, 가이드 수직바들) 및 감지 센서(610 내지 640)를 포함할 수 있다.5A and 6A, the guide unit 520 may include vertical bars 581 to 584 (or guide vertical bars) and sensing sensors 610 to 640.

수직바들(581 내지 584)은 발판부(110) 상에 배치되되, 발판부(510)의 가장자리를 따라 등간격을 가지고 상호 이격될 수 있다. 예를 들어, 수직바들(581 내지 584)은 발판부(510)의 코너들 각각에 배치될 수 있다. 수직바들(581 내지 584)은 특정 길이만큼 수직 방향(예를 들어, 제3 방향(D3))으로 연장되고, 예를 들어, 수직바들(581 내지 584) 각각의 높이는 1.5m 일 수 있다.The vertical bars 581 to 584 are disposed on the pedestal portion 110 and can be spaced apart from each other at equal intervals along the edge of the pedestal portion 510. For example, the vertical bars 581 to 584 may be disposed at each of the corners of the pedestal portion 510. The vertical bars 581 to 584 extend in a vertical direction (e.g., the third direction D3) by a specified length, and the height of each of the vertical bars 581 to 584 may be 1.5 m, for example.

감지 센서들(610 내지 640)는 도 5c를 참조하여 설명한 감지 센서(543)와 실질적으로 동일하며, 수직바들(581 내지 584) 각각에 배치되어 외부로부터 무빙 플레이트(140)에 접근하는 객체(또는, 발판부(510)의 가장자리에 접근하는 객체를 감지할 수 있다. 예를 들어, 감지 센서들(610 내지 640)은 발판부(510)를 기준으로 1m 높이에 위치할 수 있다.The sensing sensors 610 to 640 are substantially the same as the sensing sensors 543 described with reference to Figure 5C and are disposed in each of the vertical bars 581 to 584 to provide an object The sensing sensors 610 to 640 may be positioned at a height of 1 meter with respect to the footrest 510. For example,

제1 감지 센서(610)는 제11 및 제12 서브 센서들(611, 612)를 포함하고, 제2 감지 센서(620)는 제21 및 제22 서브 센서들(621, 622)를 포함하며, 제3 감지 센서(630)는 제31 및 제32 서브 센서들(631, 632)를 포함하고, 제4 감지 센서(640)는 제41 및 제42 서브 센서들(641, 642)를 포함 할 수 있다. 제11 내지 제42 서브 센서들(611 내지 642)는 적외선을 발산/수신하는 적외선 센서로 구현될 수 있다.The first sensing sensor 610 includes eleventh and twelfth sub-sensors 611 and 612 and the second sensing sensor 620 includes twenty-first and twenty-second sub-sensors 621 and 622, The third sensing sensor 630 includes the 31st and 32nd sub sensors 631 and 632 and the fourth sensing sensor 640 may include the 41st and 42nd sub sensors 641 and 642 have. The 11th to 42nd sub-sensors 611 to 642 may be implemented as an infrared sensor that emits / receives infrared rays.

예를 들어, 제11 서브 센서(611)는 제22 서브 센서(622)를 향해 적외선을 발산하고, 제22 서브 센서(622)는 제11 서브 센서(611)로부터 발산되는 적외선을 수신할 수 있다. 외부로부터 객체(또는, 다른 사용자)가 접근하는 경우 제22 서브 센서(622)는 적외선을 수신하지 못할 수 있다. 이 경우, 제어부(550)(즉, 도 3을 참조하여 설명한 제어부(550))는 구동부(533)의 동작을 정지시킬 수 있다.For example, the eleventh sub-sensor 611 may emit infrared rays toward the twenty-second sub-sensor 622 and the twenty-second sub-sensor 622 may receive infrared rays emitted from the eleventh sub-sensor 611 . When an object (or another user) approaches from the outside, the twenty-second sub-sensor 622 may not receive infrared rays. In this case, the control unit 550 (that is, the control unit 550 described with reference to FIG. 3) can stop the operation of the driving unit 533.

유사하게, 제21 서브 센서(621) 및 제32 센서(632)가 한 쌍을 이루어 동작하며, 제31 센서(631) 및 제42 센서(642)가 한 쌍을 이루어 동작하고, 제41 센서(641) 및 제12 센서(612)가 한 쌍을 이루어 동작 할 수 있다.Similarly, the twenty-first sub-sensor 621 and the thirty-second sensor 632 operate as a pair, and the thirty-first sensor 631 and the forty-second sensor 642 operate as a pair, 641 and the twelfth sensor 612 can be operated as a pair.

한편, 도 5e를 참조하여 감지 센서들(610 내지 640)은 발판부(510)의 가장자리 또는 무빙 플레이트(140)의 가장자리를 따라 외부 객체의 접근을 감지하는 것으로 설명하였으나, 감지 센서들(610 내지 640)은 이에 국한되는 것은 아니다. 예를 들어, 감지 센서들(610 내지 640)은 근접 센서로 구현되고, 외부 방향(즉, 무빙 플레이트(140)의 무게 중심으로부터 외부로 발산되는 방향)을 향하여 배치되며, 무빙 플레이트(140)를 기준으로 특정 범위 이내에 객체가 접근하는 것을 감지할 수 있다.5E, the sensing sensors 610 to 640 have been described as sensing the approach of an external object along the edge of the foot plate 510 or along the edge of the moving plate 140. However, 640) are not limited to these. For example, the sensing sensors 610 to 640 are implemented as proximity sensors and are disposed toward the outside (i.e., in a direction that diverges outward from the center of gravity of the moving plate 140), and move the moving plate 140 By reference, you can detect that an object is approaching within a certain range.

일 실시예에서, 가이드부(520)는 수직바들(581 내지 584)) 중 적어도 하나에 배치되어 사용자의 자세를 감지하는 자세 감지 센서를 더 포함 할 수 있다.In one embodiment, the guide portion 520 may further include an orientation sensor disposed in at least one of the vertical bars 581 to 584 to sense the orientation of the user.

도 6a를 참조하여 예를 들면, 제1 감지 센서(610)는 제1 자세 감지 센서(613)를 포함하고, 제3 감지 센서(630)는 제2 자세 감지 센서(633)를 더 포함할 수 있다. 제1 자세 감지 센서(613)는 사용자(또는, 무빙 플레이트(140)의 무게 중심)를 향하여 적외선을 발산하며, 제2 자세 감지 센서(633)는 제1 자세 감지 센서(613)로부터 발산된 적외선을 수신할 수 있다. 예를 들어, 사용자가 선 자세를 취하는 경우, 제2 자세 감지 센서(533)에서 적외선이 수신되지 않을 수 있고, 제어부(550)는 사용자의 선 자세를 인식할 수 있다. 다른 예를 들어, 사용자가 앉은 자세를 취하는 경우, 제2 자세 감지 센서(633)은 적외선을 수신할 수 있고, 제어부(550)는 사용자의 않은 자세를 인식할 수 있다.6A, for example, the first sensing sensor 610 may include a first attitude sensing sensor 613, and the third sensing sensor 630 may further include a second attitude sensing sensor 633. [ have. The first attitude detecting sensor 613 emits infrared rays toward the user (or the center of gravity of the moving plate 140), and the second attitude detecting sensor 633 emits infrared rays toward the user Lt; / RTI > For example, when the user takes the line posture, infrared rays may not be received by the second posture sensing sensor 533, and the control unit 550 may recognize the line posture of the user. In another example, when the user takes a sitting posture, the second posture detecting sensor 633 can receive infrared rays, and the control unit 550 can recognize the posture that the user is not in.

도 6a를 참조하여 설명한 바와 같이, 무빙 플레이트(140)는 감지 센서들(610 내지 640)을 통해 외부 객체의 접근을 감지하여 무빙 플레이트(140)(또는, 구동부(530))의 동작을 제어함으로써, 안전 사고 발생을 방지할 수 있다. 또한, 무빙 플레이트(140)는 자세 감지 센서들을 더 포함함으로써, 사용자의 자세를 용이하게 인식할 수 있다.As described with reference to FIG. 6A, the moving plate 140 detects the approach of an external object through the detection sensors 610 to 640 and controls the operation of the moving plate 140 (or the driving unit 530) , It is possible to prevent a safety accident from occurring. Further, the moving plate 140 further includes posture detecting sensors, so that the posture of the user can be easily recognized.

도 6b는 도 5a의 무빙 플레이트의 또 다른 일 예를 나타내는 도면이다.FIG. 6B is a view showing another example of the moving plate of FIG. 5A.

도 5a, 도 6a 및 도 6b를 참조하면, 무빙 플레이트(140)는 수직바들(581 내지 584) 및 연결부재들(571 내지 574)(또는, 서브 연결부재들)을 포함할 수 있다.5A, 6A and 6B, the moving plate 140 may include vertical bars 581 to 584 and connecting members 571 to 574 (or sub-connecting members).

수직바들(581 내지 584) 각각은 가이드 홈(641)과 가이드 홈(641)을 따라 이동하는 이동고정부재(642)를 포함하고, 연결부재들(571 내지 574)는 수직바들(581 내지 584)(또는, 이동고정부재(612))과 착용부재(521) 사이에 연결될 수 있다.Each of the vertical bars 581 to 584 includes a guide groove 641 and a movement fixing member 642 that moves along the guide groove 641. The connection members 571 to 574 include vertical bars 581 to 584, (Or the movable holding member 612) and the wearing member 521, as shown in Fig.

예를 들어, 제1 가이드 홈(641)은 제1 수직바(581)의 내부에 수직 방향(또는, 제3 방향(D3))을 따라 형성되고, 제1 이동고정부재(642)는 제1 가이드 홈(641)을 따라 수직 방향을 따라 이동하며 특정 위치에서 고정될 수 있다. 사용자의 신체 조건(예를 들어, 남자 성인의 키, 10세 아이의 키 등)에 따라 착용부재(121)의 높이가 다르게 적용될 필요가 있으므로, 무빙 플레이트(140)는 제1 이동고정부재(642)를 사용자의 신체 조건에 기초하여 특정 위치로 이동 및 고정시킬 수 있다.For example, the first guide groove 641 is formed in the vertical direction (or the third direction D3) inside the first vertical bar 581, and the first movable fixing member 642 is formed along the first It can move along the guide groove 641 in the vertical direction and be fixed at a specific position. Since the height of the wearing member 121 needs to be applied differently depending on the physical condition of the user (for example, the height of the male adult, the height of the 10-year-old child, etc.), the moving plate 140 is moved by the first moving fixed member 642 May be moved and fixed to a specific position based on the user's physical condition.

한편, 제1 연결부재(571)는 제1 이동고정부재(642)와 착용부재(521) 사이에 연결되며, 제1 연결부재(571)는 탄성 재질(예를 들어, 탄성을 가지는 줄)로 이루어질 수 있다. 유사하게, 제2 내지 제4 연결부재(572 내지 574) 각각은 이동고정부재(즉, 제2 내지 제4 수직바들(581 내지 584) 각각에 포함된 이동고정부재)와 착용부재(521) 사이에 연결되며, 탄성체로 형성될 수 있다.The first connecting member 571 is connected between the first moving fixed member 642 and the wearing member 521 and the first connecting member 571 is made of an elastic material Lt; / RTI > Similarly, each of the second to fourth connecting members 572 to 574 is disposed between the moving fixed member (i.e., the moving fixed member included in each of the second to fourth vertical bars 581 to 584) and the wearing member 521 And may be formed of an elastic body.

이 경우, 도 5c를 참조하여 설명한 가이드 센서(542)는 제1 연결부재(571)의 일단(예를 들어, 제1 수직바(581) 방향)에 배치되어 제1 연결부재(571)의 탄성력과 제1 연결부재(571)와 제1 수직바(581)가 이루는 각도를 측정할 수 있다. 유사하게, 가이드 센서(542)는 제2 내지 제4 연결부재들(572 내지 574) 각각의 일단에 배치되어 제2 내지 제4 연결부재들(572 내지 574)의 탄성력과 제2 내지 제4 연결부재(572 내지 574)와 제2 내지 제4 수직바들(582 내지 584)가 이루는 각도를 각각 측정할 수 있다. In this case, the guide sensor 542 described with reference to FIG. 5C is disposed at one end (for example, the first vertical bar 581 direction) of the first connecting member 571 so that the elasticity of the first connecting member 571 And the angle between the first connecting member 571 and the first vertical bar 581 can be measured. Similarly, the guide sensor 542 is disposed at one end of each of the second to fourth connection members 572 to 574, so that the elastic force of the second to fourth connection members 572 to 574 and the elastic force of the second to fourth connection The angles formed by the members 572 to 574 and the second to fourth vertical bars 582 to 584 can be respectively measured.

여기서, 탄성력과 각도는, 도 5c 및 도 5d를 참조하여 설명한 연결길이와 연결각도에 대응하며, 제어부(550)는 탄성력과 각도에 기초하여 캐릭터의 이동, 회전, 자세 변환에 관한 신호들을 생성할 수 있다.Here, the elastic force and the angle correspond to the connection length and the connection angle described with reference to FIGS. 5C and 5D, and the controller 550 generates signals related to the movement, rotation, and posture conversion of the character based on the elastic force and the angle .

도 7은 도 1a의 가상 훈련 시스템에 포함된 신호 처리 장치의 일 예를 나타내는 도면이다.FIG. 7 is a diagram showing an example of a signal processing apparatus included in the virtual training system of FIG. 1A.

도 7을 참조하면, 신호 처리 장치(120)는 제1 처리 장치(710) 및 제2 처리 장치(720)를 포함할 수 있다.Referring to FIG. 7, the signal processing apparatus 120 may include a first processing unit 710 and a second processing unit 720.

제1 처리 장치(710)는 훈련 환경 정보에 기초하여 가상 훈련장을 구성하고, 사용자(USER)(또는, 가상 훈련장 내 캐릭터)를 기준으로 가상 훈련장의 적어도 일부에 대한 영상 데이터를 생성할 수 있다. 여기서, 훈련 환경 정보는 훈련 모드(예를 들어, 기록 모드, 전투 모드 등), 활 유형(예를 들어, 양궁, 각궁 등), 발사 횟수(예를 들어, 5회, 10회 등) 등을 포함하며, 이외에도, 훈련이 수행되는 장소, 계절(예를 들어, 여름, 겨울), 시간대(예를 들어, 주간, 야간), 기상 상황(예를 들어, 눈, 비, 안개 등) 등을 포함할 수 있다.The first processing device 710 may construct a virtual training field based on the training environment information and generate image data for at least a part of the virtual training field based on the user USER (or a character in the virtual training field). Herein, the training environment information includes at least one of a training mode (e.g., a recording mode, a battle mode, etc.), a bow type (e.g., archery, (E. G., Snow, rain, fog, etc.), and the like, as well as the location where the training is performed, the season can do.

제1 처리 장치(710)는 시나리오 편집부(711), 영상 처리부(712) 및 탄착 계산부(713)를 포함할 수 있다.The first processing unit 710 may include a scenario editing unit 711, an image processing unit 712, and a crash calculator 713.

시나리오 편집부(711)는 훈련 환경 정보에 기초하여 특정 시나리오를 편집할 수 있다. 예를 들어, 시나리오 편집부(711)는 훈련 모드, 발사 횟수, 활 종류 등에 기초하여 데이터베이스(730)에 포함된 시나리오 DB로부터 해당 시나리오를 로딩/편집할 수 있다.The scenario editing unit 711 can edit a specific scenario based on the training environment information. For example, the scenario editing unit 711 can load / edit the scenario from the scenario DB included in the database 730 based on the training mode, the number of shots, the bow type, and the like.

영상 처리부(712)는 영상 데이터베이스로부터 시나리오에 대응하는 가상 훈련장 데이터를 로딩하고, 데이터베이스(730)에 포함된 3D 모델 데이터베이스로부터 활 모델 등을 로딩하여 가상 훈련장을 구성하고, 사용자(USER)(또는, 캐릭터)를 기준으로 영상 데이터를 생성할 수 있다. 영상 처리부(710)는 3D 엔진(예를 들어, 3D 영상을 생성하는 영상 프로그램)으로 구현될 수 있다.The image processing unit 712 loads the virtual training course data corresponding to the scenario from the image database, loads the bow model or the like from the 3D model database included in the database 730 to construct a virtual training course, Character) can be generated. The image processing unit 710 may be implemented as a 3D engine (for example, a video program for generating a 3D image).

일 실시예에서, 영상 처리부(712)는 자세 인식 센서(예를 들어, 도 5c를 참조하여 설명한 감지 센서(543) 또는 도 6a를 참조하여 설명한 자세 감지 센서들(613, 633))를 통해 인식된 사용자의 자세(예를 들어, 선 자세 등)에 기초하여 캐릭터의 시점(예를 들어, 시선의 높이)를 결정하고, 해당 시점에 대응하는 영상 데이터를 생성할 수 있다.In one embodiment, the image processing unit 712 may recognize (e.g., recognize) the image data through an orientation sensor (for example, the sensor 543 described with reference to FIG. 5C or the orientation sensors 613 and 633 described with reference to FIG. (For example, the height of the line of sight) of the character on the basis of the posture of the user (for example, the line posture and the like), and generate the image data corresponding to the point of time.

탄착 계산부(512)는, 도 2b를 참조하여 설명한 바와 같이, 훈련용 활(110)에서 획득된 훈련용 활(110)의 자세 신호(S_ATITUDE)(또는, 훈련용 활(110)의 방향, 기울기 등), 장력 신호(S_TENSION)(또는, 도 5g를 참조하여 설명한 발사 힘들(N2, N3)), 식별 정보(예를 들어, 화살(300)의 종류)와, 사용자의 자세 정보(예를 들어, 도 6a를 참조하여 설명한 감지 센서들(631, 633)에서 획득한 사용자의 자세)에 기초하여 발사되는 화살(300)의 이동 궤적을 산출할 수 있다.2B, the posture calculation section 512 calculates the posture signal S_ATITUDE (or the direction of the training bow 110) of the training bow 110 obtained from the training bow 110, 5G), identification information (for example, the type of the arrow 300), and attitude information of the user (for example, the tilt angle of the user), the tension signal S_TENSION (or the shooting forces N2 and N3 described with reference to FIG. 5G) The movement trajectory of the arrow 300 to be fired can be calculated on the basis of the attitude of the user acquired by the detection sensors 631 and 633 described with reference to Fig.

예를 들어, 탄착 계산부(512)는 사용자의 자세 정보에 기초하여 화살(300)의 발사 위치(즉, 발사 기준 지점으로, 고도를 포함함)를 결정하고, 훈련용 활(110)의 자세 신호에 기초하여 화살(300)의 발사 방향을 결정하며, 식별 정보(예를 들어, 화살(300)의 종류), 발사 힘 및 운동 방정식에 기초하여 화살(300)의 이동 궤적을 산출할 수 있다. 운동 방정식(또는, 화살(300)의 궤적 산출 알고리즘)은 일반적인 계산식이 이용될 수 있으며, 이에 대한 설명은 생략하기로 한다.For example, the calorific value calculation unit 512 may determine the firing position (i.e., the firing reference point, including the altitude) of the arrow 300 based on the attitude information of the user, The direction of the arrow 300 can be determined based on the signal and the movement trajectory of the arrow 300 can be calculated based on the identification information (for example, the type of the arrow 300), the launching force, and the equation of motion . A general equation can be used for the motion equation (or the locus calculation algorithm of the arrow 300), and a description thereof will be omitted.

한편, 제1 처리 장치(710)는 훈련 분석부를 더 포함할 수 있다. 훈련 분석부는 실제 탄착점에 기초하여 훈련 결과를 생성할 있다. 예를 들어, 훈련 분석부는 실제 탄착점의 위치 정보(예를 들어, 좌표 정보)와 타겟의 좌표 정보에 기초하여 명중 여부를 판단하거나 점수를 산출할 수 있다. 또한, 훈련 분석부는 실제 탄착점과, 훈련용 활(110)의 자세 정보(예를 들어, 기울기 정보)를 포함하는 훈련 결과를 생성하고, 표시 장치(130)를 통해 사용자(USER)에게 훈련 결과를 제공할 수 있다.On the other hand, the first processing unit 710 may further include a training analysis unit. The training and analysis department can generate training results based on actual impact points. For example, the training analysis unit can determine the hit or score based on the actual impact point location information (e.g., coordinate information) and the target coordinate information. The training analyzer also generates training results including actual impact points and attitude information (e.g., tilt information) of the training bow 110 and transmits the training results to the user (USER) through the display device 130 .

일 실시예에서, 훈련 분석부는 격발 시점을 포함하는 제1 시간(time period) 동안 발사 방향(예를 들어, 사용자의 자세 또는, 훈련용 활(110)의 자세에 대응하여 화살(300)이 발사되는 방향)의 이동 경로를 추적하고, 훈련 결과와 함께 발사 방향의 이동 경로를 출력할 수 있다. 예를 들어, 제1 시점(예를 들어, 0초)에 활시위(220)에 의한 장력이 증가하고, 제2 시점(예를 들어, 10초)에 장력이 최대 값으로부터 70% 이하로 감소하는 경우, 제1 시점과 제2 시점 사이의 제1 구간 동안 발사 방향(즉, 훈련용 활(110)의 자세 정보로서, 좌표)를 주기적(예를 들어, 1/60초 간격)으로 샘플링할 수 있다. 이 경우, 훈련 분석부는 샘플링된 발사 방향과 센싱된 시점에 기초하여 발사 방향의 이동 경로 데이터를 생성할 수 있다. 레이저의 이동 경로 데이터는 영상 처리부(712)와 표시 장치(130)를 통해 시각적으로 출력될 수 있고, 사용자(USER)는 발사 전, 발사 시점 등에서 발사 방향의 이동(즉, 활 쏘기 자세의 흔들림)을 인식할 수 있다.In one embodiment, the training analysis unit may determine that the arrow 300 fires in response to a firing direction (e.g., a user's posture or a posture of the training bow 110) during a first time period including a triggering time And the movement path of the shooting direction along with the training result can be output. For example, if the tension by the bowstep 220 increases at a first time point (e.g., 0 seconds) and the tension decreases from the maximum value at a second time point (e.g., 10 seconds) to less than 70% (E.g., the coordinates as the attitude information of the training bow 110) can be sampled periodically (for example, at intervals of 1/60 second) during the first section between the first point and the second point of time have. In this case, the training analysis unit can generate movement path data in the shooting direction based on the sampled launch direction and the sensed time point. The movement path data of the laser can be visually outputted through the image processing unit 712 and the display device 130 and the user USER can move the movement direction of the firing direction before the firing, Can be recognized.

제2 처리 장치(520)는 훈련용 활(110), 표시 장치(130) 및 무빙 플레이트(140)를 제어할 수 있다. 제2 처리 장치(520)는 통신부(721), 이미지 보정부(722), 이미지 캡처부(723), 경사 제어부(724) 및 제어부(725)를 포함할 수 있다.The second processing device 520 can control the training bow 110, the display device 130, and the moving plate 140. The second processing unit 520 may include a communication unit 721, an image correction unit 722, an image capturing unit 723, an inclination control unit 724, and a control unit 725.

통신부(721)는 훈련용 활(110), 무빙 플레이트(140) 등과 데이터 통신을 수행할 수 있다. 예를 들어, 통신부(721)는 훈련용 활(110)로부터 훈련용 활(110)의 자세 정보, 발사 힘, 이동 제어 신호 등을 수신하고, 경사 제어 신호를 무빙 플레이트(140)에 제공하며, 무빙 플레이트(140)로부터 감지 신호(예를 들어, 외부 객체의 접근에 따라 감지 신호, 사용자의 자세 감지 신호 등)을 수신 할 수 있다.The communication unit 721 can perform data communication with the training bow 110, the moving plate 140, and the like. For example, the communication unit 721 receives the attitude information of the training bow 110, the launching force, the movement control signal, and the like from the training bow 110, provides the inclination control signal to the moving plate 140, (E.g., a detection signal according to approach of an external object, a user's posture detection signal, etc.) from the moving plate 140.

이미지 보정부(722)는 표시 장치(130) 상에 출력되는 훈련 영상의 왜곡 여부를 판단하고, 제1 처리 장치(710)로 하여금 훈련 영상을 보정하도록 하며, 이미지 캡처부(723)는 특정 신호(예를 들어, 발사 신호)에 기초하여 훈련 영상을 캡처 할 수 있다.The image correction unit 722 determines whether or not the training image output on the display device 130 is distorted so that the first processing device 710 corrects the training image, (E. G., A firing signal). ≪ / RTI >

경사 제어부 제어부(724)는 가상 훈련장의 지형 정보와 캐릭터의 위치 정보(또는, 이동 정보)에 기초하여 해당 위치의 경사를 산출하고, 이에 기초하여 경사 제어 신호를 생성할 수 있다.The slope control unit control unit 724 can calculate the slope of the position based on the terrain information of the virtual training ground and the character position information (or movement information), and generate the slope control signal based thereon.

제어부(725)는 통신부(721), 이미지 보정부(722), 이미지 캡처부(723) 및 경사 제어부 제어부(724)의 동작을 제어할 수 있다. The control unit 725 may control operations of the communication unit 721, the image correction unit 722, the image capturing unit 723, and the slope control unit control unit 724. [

한편, 데이터베이스(730)는 사용자 데이터베이스, 훈련 데이터베이스, 예약 데이터베이스 등을 포함할 수 있다. 사용자 데이터베이스는 훈련에 참가하는 사용자(USER)의 사용자 정보(예를 들어, 이름, 키, 몸무게 등)를 저장할 수 있다. 훈련 데이터베이스는 제1 처리 장치(510)로부터 제공되는 훈련 결과를 저장할 수 있다. 훈련 결과는 사용자 정보에 대응하여 저장되거나, 훈련 일정 등에 대응하여 저장될 수 있다. 예약 DB는 훈련 일정, 참가 인원, 참가 대상자 등의 정보를 저장할 수 있다.Meanwhile, the database 730 may include a user database, a training database, a reservation database, and the like. The user database may store user information (e.g., name, key, weight, etc.) of the user (USER) participating in the training. The training database may store the training results provided by the first processing device 510. [ The training results may be stored in correspondence with the user information, or may be stored in correspondence with the training schedule or the like. The reservation DB can store information such as training schedule, participants, participants.

도 7을 참조하여 설명한 바와 같이, 신호 처리 장치(120)는 훈련 환경 설정 정보에 기초하여 가상 훈련장(또는, 가상 공간)을 구성하고, 사용자(USER)(또는, 캐릭터)를 기준으로 시선 방향에 위치하는 가상 훈련장의 적어도 일부에 대한 영상 데이터를 생성하며, 훈련용 활(110)의 자세 정보, 화살(300)의 식별 정보 및 사용자의 자세 정보에 기초하여 화살(300)의 이동 궤적 및/또는 탄착점을 산출하며, 가상 공간 내 지형 정보와 캐릭터의 위치 정보에 기초하여 무빙 플레이트(140)의 경사를 제어할 수 있다.As described with reference to FIG. 7, the signal processing apparatus 120 forms a virtual training field (or virtual space) based on the training environment setting information and generates a virtual training field (or virtual space) based on the user USER And generates a movement trajectory of the arrow 300 based on the posture information of the training bow 110, the identification information of the arrow 300 and the posture information of the user, and / The inclination of the moving plate 140 can be controlled based on the topographic information in the virtual space and the character position information.

한편, 제1 처리 장치(710) 및 제2 처리 장치(720)는 신호 처리 장치(120)를 영상 처리 기능과 제어 기능을 중심으로 예시적으로 구분한 것으로, 제1 처리 장치(710) 및 제2 처리 장치(720)가 이에 국한되는 것은 아니다. 예를 들어, 제2 처리 장치(720)는 탄착 계산부(713)를 포함할 수 있다.The first processing unit 710 and the second processing unit 720 illustratively distinguish the signal processing unit 120 based on the image processing function and the control function. The first processing unit 710 and the second processing unit 720, 2 processing apparatus 720 are not limited thereto. For example, the second processing apparatus 720 may include a calorific value calculation section 713.

도 1a 내지 도 7를 참조하여 설명한 바와 같이, 영상 훈련 시스템(100)은 훈련용 활(110)(및 화살(300), 신호 처리 장치(120), 무빙 플레이트(140)를 포함할 수 있다. The image training system 100 may include a training bow 110 (and arrows 300, a signal processing device 120, a moving plate 140), as described with reference to Figs.

훈련용 활(110)은 장력 센서(240)를 이용하여 활시위(220)의 장력(N1)을 측정하고, 신호 처리 장치(120)는 장력(N1)과, 훈련용 활(110)의 근접 센서(471, 472)를 통해 획득한 활고자(111)간의 최단 거리(또는, 제2 거리(L2))에 기초하여 화살(300)에 직접적으로 가해지는 발사 힘(N2)을 산출하여, 화살(300)의 발사 속도, 궤적 등을 보다 정확하게 산출할 수 있다. 또한, 훈련용 활(110)은 재장전 모듈(250)을 통해 화살(300)이 실제 원거리로 발사되는 것을 제한하여, 가상 훈련 시스템(100)이 상대적으로 좁은 공간에서 구현 가능하도록 하며, 게임에서 중요시되는 타격감을 제공할 수 있다. 또한, 훈련용 활(110)은 신호 처리 장치(120)(예를 들어, 모바일 단말)를 고정하는 거치대(280)를 제공함으로써, 훈련용 활(110)과 신호 처리 장치(120)를 포함하는 가상 훈련 시스템의 크기를 최소화 시킬 수 있다. 나아가, 훈련용 활(110)은 입력 모듈(260)(예를 들어, 조이스틱, 버튼)을 통해 가상 훈련 시스템(100)에서 구현되는 가상 공간 내 캐릭터의 이동 또는 화면의 전환과 같은 인터페이스 기능을 제공하며, 화살(300)에 구비되는 식별 장치(예를 들어, RFID 태그)를 인식하는 식별기(443)(예를 들어, RFID 리더기)를 이용하여, 화살(300)의 식별에 대한 사용자의 편의성을 제공할 뿐만 아니라, 신호 처리 장치(120)로 하여금 화살(300)의 종류 정보에 기초하여 화살(300)의 궤적(또는, 발사 궤적)을 보다 정확하게 산출하도록 할 수 있다.The training bow 110 measures the tension N1 of the bowstring 220 using the tension sensor 240 and the signal processing device 120 measures the tension N1 and the proximity sensor of the training bow 110 (Or the second distance L2) between the dunnets 111 obtained through the arrows 471 and 472 to calculate a launching force N2 directly applied to the arrow 300, The launching speed, locus, and the like of the vehicle can be more accurately calculated. The training bow 110 also limits the actual firing of the arrow 300 through the reload module 250 so that the virtual training system 100 can be implemented in a relatively small space, It can provide an important sense of hitting. The training bow 110 also includes a cradle 280 that holds the signal processing device 120 (e.g., a mobile terminal) The size of the virtual training system can be minimized. Further, the training bow 110 provides an interface function, such as movement of a character in a virtual space or switching of a screen implemented in the virtual training system 100 via an input module 260 (e.g., joystick, button) And uses the identifier 443 (e.g., an RFID reader) that recognizes an identification device (e.g., an RFID tag) provided on the arrow 300 to allow the user's convenience for identification of the arrow 300 The signal processing apparatus 120 can more accurately calculate the trajectory of the arrow 300 (or the launching trajectory) based on the type information of the arrow 300.

한편, 무빙 플레이트(140)는 발판부(510)의 경사를 변화시킴으로써, 사용자에게 다양한 체험(예를 들어, 지형 변화에 체감)이 가능하도록 할 수 있다. 또한, 무빙 플레이트(140)는 가이드부(520)를 통해 사용자의 안전을 보장할 뿐만 아니라, 사용자의 움직임에 기초하여 입력 신호(또는, 가상 훈련 장치에 의해 구현된 가상공간 내 가상 캐릭터를 제어하는 제어 신호로서, 이동 제어 신호, 회전 신호, 자세 전환 신호)를 생성함으로써, 사용자로 하여금 가상공간 내 가상 캐릭터를 용이하게/직관적으로 제어할 수 있도록 할 수 있다. 나아가, 무빙 플레이트(540)는 감지 센서들을 통해 외부 객체의 접근을 감지하여 무빙 플레이트(540)(또는, 구동부)의 동작을 제어함으로써, 안전 사고 발생을 방지할 뿐만 아니라, 사용자의 자세를 용이하게 인식할 수 있다.On the other hand, the moving plate 140 can change the inclination of the footrest 510, thereby enabling the user to experience various experiences (for example, a change in the terrain change). In addition, the moving plate 140 not only ensures the safety of the user through the guide unit 520, but also controls the virtual character in the virtual space implemented by the virtual training apparatus based on the movement of the user It is possible to easily and intuitively control the virtual character in the virtual space by generating the control signal as the movement control signal, the rotation signal, and the attitude conversion signal. Further, the moving plate 540 senses the approach of the external object through the detection sensors and controls the operation of the moving plate 540 (or the driving unit), thereby preventing the occurrence of a safety accident, Can be recognized.

신호 처리 장치(120)는 훈련 환경 설정 정보에 기초하여 가상 훈련장(또는, 가상 공간)을 구성하고, 사용자(USER)(또는, 캐릭터)를 기준으로 시선 방향에 위치하는 가상 훈련장의 적어도 일부에 대한 영상 데이터를 생성하며, 훈련용 활(110)의 자세 정보, 화살(300)의 식별 정보 및 사용자의 자세 정보에 기초하여 화살(300)의 이동 궤적 및/또는 탄착점을 산출하며, 가상 공간 내 지형 정보와 캐릭터의 위치 정보에 기초하여 무빙 플레이트(140)의 경사를 제어할 수 있다.The signal processing apparatus 120 configures a virtual training field (or virtual space) based on the training configuration information and generates a virtual training field for at least a part of the virtual training field located in the visual direction on the basis of the user USER And generates a moving trajectory and / or an impact point of the arrow 300 based on the attitude information of the training bow 110, the identification information of the arrow 300, and the attitude information of the user, The inclination of the moving plate 140 can be controlled based on the information and the position information of the character.

실시예들에서, 신호 처리 장치(120)(또는, 영상 처리부(712))는 활(110)의 장력(또는, 활(110)의 장력에 기초하여 생성된 힘 정보)에 기초하여 영상 데이터(즉, 표시 장치를 통해 표시되는 영상에 대응하는 데이터)에 포함되는 가상 훈련장의 부분 영역을 결정할 수 있다. 여기서, 가상 훈련장의 부분 영역은 가상 훈련장에 위치하는 캐릭터의 시야 범위에 대응할 수 있다. 예를 들어, 신호 처리 장치(120)는 활(110)에서 생성되는 활대의 방향 정보에 기초하여 캐릭터의 시야 범위를 변화시키되, 장력이 기준 장력(또는, 기준 값) 이상인 경우 시야 범위의 변화 정도를 감소시킬 수 있다.In the embodiments, the signal processing apparatus 120 (or the image processing unit 712) may generate image data (or image data) based on the tension of the bow 110 (or force information generated based on the tension of the bow 110) That is, data corresponding to an image displayed through the display device) of the virtual training field. Here, the partial area of the virtual training field may correspond to the field of view range of the character located in the virtual training field. For example, the signal processing apparatus 120 may change the visual field range of the character based on the direction information of the barb generated in the bow 110, and when the tension is equal to or greater than the reference tension (or the reference value) Can be reduced.

도 8은 도 7의 신호 처리 장치에서 영상 변화를 제어하는 일 예를 나타내는 도면이다.8 is a diagram showing an example of controlling an image change in the signal processing apparatus of FIG.

도 8을 참조하면, 신호 처리 장치(120)에서 생성된 가상 공간을 수직 방향으로 자른 단면(또는, 사용자에 대응하는 캐릭터와 타겟을 포함하는 공간을 측면에서 바라본 영상)이 도시되어 있다.Referring to FIG. 8, there is shown a cross section (or a view of a space including a character and a target corresponding to the user, which is viewed from the side) of the virtual space generated in the signal processing apparatus 120 in the vertical direction.

도 8의 (a)에 도시된 바와 같이, 캐릭터가 제1 지점(P1)에 위치하고, 목표물(target)은 제2 지점(P2)에 위치할 수 있다. 제1 조준 방향(D_A1)은 사용자가 소지하고 있는 활(110)의 조준 방향에 대응할 수 있다. 제1 기준 각도(A_R)은 캐릭터를 중심으로 사용자에게 표시되는 영상의 범위를 결정하는데 이용되며, 예를 들어, 45도로 기 설정될 수 있다. 한편, 제1 기준 각도(A_R)에 대응하는 시야 범위(또는, 표시 장치를 통해 디스플레이 되는 범위)는 제1 조준 방향(D_A1)에 기초하여 설정될 수 있다. 예를 들어, 시야 범위는 가상 공간의 지면을 기준으로 상하 22.5도 범위, 즉, 총 45도 범위로 설정될 수 있다. 제1 조준 방향(D_A1)이 특정 범위(예를 들어, 상측 10도 내지 하측 10도의 범위, 상측 10도 내지 하측 45도의 범위 등) 이내인 경우 시야 범위는 변화하지 않고, 제1 조준 방향(D_A1)이 상기 특정 범위를 벗어나는 경우, 시야 범위는 제1 조준 방향(D_A1)을 중심으로 설정될 수 있다.As shown in Fig. 8 (a), the character may be located at the first point P1 and the target may be located at the second point P2. The first aiming direction D_A1 may correspond to the aiming direction of the bow 110 held by the user. The first reference angle A_R is used to determine the range of the image displayed to the user around the character, and may be set at, for example, 45 degrees. On the other hand, the visual field range corresponding to the first reference angle A_R (or the range displayed through the display device) can be set based on the first bouncing direction D_A1. For example, the field of view may be set up to a range of up to and including 22.5 degrees, that is, a total of 45 degrees, based on the ground of the virtual space. When the first bosing direction D_A1 is within a specific range (for example, within a range of 10 degrees from the upper side to 10 degrees from the lower side, from 10 degrees to the upper side and from 45 degrees to the lower side), the viewing range does not change, Is out of the specific range, the field of view can be set around the first aiming direction D_A1.

예를 들어, 도 8의 (b)에 도시된 바와 같이, 시야 범위는 제2 조준 방향(D_A2)(즉, 특정 범위를 벗어난 조준 방향)을 중심으로 상하 22.5도 범위로 설정될 수 있다. 이 경우, 화면 변화에 따라 타겟이 시야 범위로부터 사라지는 문제가 발생할 수 있다.For example, as shown in (b) of FIG. 8, the field of view range can be set to a range of up and down 22.5 degrees around the second boresight direction D_A2 (i.e., the boresight direction outside the specified range). In this case, there may occur a problem that the target disappears from the visual range in accordance with the screen change.

참고로, 화살(300)의 포물선 운동은 중력에 의한 영향을 상대적으로 많이 받으므로, 화살(300)이 도 8의 (a)에 도시된 조준 요구 방향(D_R)을 따라 발사되는 경우에 한하여, 기준 궤적(TRA_R)에 따라 목표물(Target)에 명중할 수 있다. 사용자가 활(110)을 제2 조준 방향(D_A2)으로 향하도록 움직이는 경우, 사용자에게 표시되는 영상에서 타겟이 누락될 수 있다. 즉, 활 쏘기 동작에 의해 화면이 크게 변화될 수 있다.For reference, the parabolic motion of the arrow 300 is relatively affected by gravity. Therefore, only when the arrow 300 is fired along the aiming direction D_R shown in FIG. 8A, It is possible to hit the target according to the reference trajectory TRA_R. If the user moves the bow 110 toward the second aiming direction D_A2, the target may be missing from the image displayed to the user. That is, the screen may be largely changed by the bow shooting operation.

따라서, 신호 처리 장치(120)는 활(110)의 장력이 기본 힘보다 큰 경우(즉, 화살을 발사하기 위해 사용자가 활시위를 당기는 것으로 판단되는 경우로, 예를 들어, 활시위가 사용자 측으로 15cm 이상 당겨진 경우), 기준 범위를 증가시킬 수 있다. 예를 들어, 신호 처리 장치(120)는 기준 범위를 상측 10도 내지 하측 10도의 범위에서, 상측 20도 내지 하측 10도의 범위로 증가시킬 수 있다. 또한, 신호 처리 장치(120)는 활(110)의 장력이 기본 힘보다 크고, 제2 조준 방향(D_A2)가 기준 범위를 벗어난 경우, 시야 범위의 상측 최대값과 제2 조준 방향(D_A2)간의 차이(또는, 차이 각(A_SUB)를 감소시킬 수 있다. 예를 들어, 상기 차이를 22.5도에서 10도, 5도, 0도 등으로 감소시킬 수 있다.Accordingly, when the tension of the bow 110 is greater than the basic force (that is, when the bow is determined to be pulled by the user to fire an arrow, for example, Pulled), the reference range can be increased. For example, the signal processing apparatus 120 may increase the reference range to a range of from an upper side of 10 degrees to a lower side of 10 degrees, and an upper side of 20 degrees to a lower side of 10 degrees. When the tension of the bow 110 is larger than the basic force and the second bosing direction D_A2 is out of the reference range, the signal processing apparatus 120 may be configured such that the difference between the upper maximum value of the field of view and the second boresight direction D_A2 The difference (or the difference angle A_SUB) can be reduced. For example, the difference can be reduced from 22.5 degrees to 10 degrees, 5 degrees, 0 degrees, and the like.

이 경우, 도 8의 (c)에 도시된 바와 같이, 조준 방향(D_A2)이 기준 범위를 벗어나더라도, 시야 범위 내에 목표물(Target)이 위치하고, 목표물(target)이 표시 장치를 통해 디스플레이 될 수 있다.In this case, even if the bending direction D_A2 is out of the reference range as shown in Fig. 8 (c), the target is positioned within the visual range, and the target can be displayed through the display device .

일 실시예에서, 신호 처리 장치(120)는 활(110)의 장력이 기준값 이상인 경우, 활의 장력에 기초하여 제1 기준 각도(A_R)을 변화시킬 수 있다. 예를 들어, 신호 처리 장치(120)는 활의 장력이 기준값을 초과하여 증가함에 따라 제1 기준 각도(A_R)를 감소시킬 수 있다. 이 경우, 타겟을 중심으로 화면이 확대되는 것과 같은 영상이 표시 장치를 통해 디스플레이 될 수 있다.In one embodiment, the signal processing device 120 may change the first reference angle A_R based on the tension of the bow when the tension of the bow 110 is greater than or equal to the reference value. For example, the signal processing apparatus 120 may reduce the first reference angle A_R as the tension of the bow increases beyond the reference value. In this case, an image such that the screen is enlarged around the target can be displayed through the display device.

도 8을 참조하여 설명한 바와 같이, 신호 처리 장치(120)는 사용자가 활 쏘기를 위해 활을 이동시키는 경우, 활(110)의 조준 방향에 기초하여 시야 범위를 조정함으로써, 영상의 급격한 변화를 방지하고, 사용자에게 필요한 영상(예를 들어, 타겟이 포함된 영상)을 제공할 수 있다.As described with reference to Fig. 8, when the user moves the bow for bowing, the signal processing apparatus 120 adjusts the viewing range based on the bending direction of the bow 110, thereby preventing sudden change of the image , And can provide the user with a necessary image (e.g., an image including the target).

본 발명은 활을 이용한 가상 훈련 시스템 및 가상 체험 시스템, 게임 장치 등에 적용될 수 있다.The present invention can be applied to a virtual training system using a bow, a virtual experience system, a game device, and the like.

상술한 바와 같이, 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be understood that the invention may be varied and changed without departing from the scope of the invention.

100: 가상 훈련 시스템 110: 훈련용 활
120: 신호 처리 장치 130: 표시 장치
131: 프로젝터 132: 스크린
140: 무빙 플레이트 210: 활대
211: 활고자 220: 활시위
230: 손잡이 240: 장력 센서
250: 재장전 모듈 260: 입력 모듈
270: 컨트롤 모듈 280: 거치대
300: 화살 310: 화살대
311: 식별 장치 320: 화살촉
330: 화살깃 340: 오니
411: 로드셀 412: 증폭기
413: 장력 조절기 431: 이동 스위치
432: 보조 스위치 441: 기울기 센서
442: 통신 모듈 443: 식별기
471, 472: 제1 및 제2 근접센서들
510: 발판부 520: 가이드부
511: 제1 발판 512; 제2 발판
521: 착용부재 522: 연결부재
523: 압력센서 530: 구동부
531: 높이조절부재들 532: 구동장치
533: 구동제어부 540: 센서부
541: 압력 센서 542: 가이드 센서
543: 감지 센서 550: 제어부
561 내지 564: 제1 내지 제4 가이드 센서들
571 내지 574: 제1 내지 제4 연결부재들
581 내지 584: 제1 내지 제4 수직바들
610 내지 640: 제1 내지 제4 감지 센서들
611 내지 642: 제11 내지 제42 서브 센서들
613: 제1 자세 감지 센서 633: 제2 자세 감지 센서
641: 제1 가이드 홈 642: 제1 이동고정부재
710: 제1 처리 장치 711: 시나리오 편집부
712: 영상 처리부 713: 탄착 계산부
720: 제2 처리 장치 721: 통신부
722: 이미지 보정부 723: 이미지 캡처부
724: 경사 제어부 725: 제어부
730: 데이터베이스
100: virtual training system 110: training bow
120: signal processing device 130: display device
131: projector 132: screen
140: Moving plate 210: Ribbon
211: The dancer 220: The bowstring
230: handle 240: tension sensor
250: Reload module 260: Input module
270: Control module 280: Cradle
300: arrow 310:
311: Identification device 320: Arrowhead
330: Arrowheads 340: Souni
411: Load cell 412: Amplifier
413: Tension regulator 431: Moving switch
432: auxiliary switch 441: tilt sensor
442: Communication module 443: Identifier
471, 472: first and second proximity sensors
510: footstool 520: guide portion
511: first footrest 512; Second scaffolding
521: Wearing member 522:
523: pressure sensor 530:
531: height adjusting members 532:
533: drive control unit 540:
541: Pressure sensor 542: Guide sensor
543: Detection sensor 550:
561 to 564: First to fourth guide sensors
571 to 574: First to fourth connecting members
581 to 584: first to fourth vertical bars
610 to 640: First to fourth detection sensors
611 to 642: the 11th to 42nd sub-sensors
613: first attitude sensor 633: second attitude sensor
641: first guide groove 642: first movement fixing member
710: First processing device 711: Scenario editor
712: image processor 713:
720: second processing unit 721: communication unit
722: image correcting unit 723: image capturing unit
724: slope control unit 725:
730: Database

Claims (5)

활대 및 활시위를 구비하고, 상기 활시위에 걸리는 장력을 측정하여 힘 정보를 생성하며, 상기 활대의 방향 정보를 생성하는 훈련용 활;
가상 훈련장을 구성하고, 상기 장력 및 상기 방향 정보에 기초하여 가상 화살의 이동 궤적을 산출하며, 상기 이동 궤적에 기초하여 상기 가상 훈련장 내 기준 지점으로부터 발사되는 가상 화살에 대한 영상 데이터를 생성하되, 상기 힘 정보에 기초하여 영상 데이터에 포함되는 상기 가상 훈련장의 부분 영역을 결정하는 신호 처리 장치; 및
상기 영상 데이터에 기초하여 훈련 영상을 표시하는 표시 장치를 포함하며,
상기 가상 훈련장의 상기 부분 영역은 상기 가상 훈련장에 위치하는 캐릭터의 시야 범위에 대응하고,
상기 신호 처리 장치는, 상기 활대의 방향 정보에 기초하여 상기 시야 범위를 변화시키되, 상기 장력이 기준 장력 이상인 경우 상기 시야 범위의 변화 정도를 감소시키는 가상 훈련 시스템.
A training bow provided with a bow and bowstep, generating force information by measuring a tension applied to the bowstep, and generating direction information of the bowstring;
A virtual training area, and a moving trajectory of the virtual arrow is calculated based on the tension and the direction information, and image data of a virtual arrow shot from a reference point in the virtual training area is generated based on the moving trajectory, A signal processing device for determining a partial area of the virtual training field included in the video data based on the force information; And
And a display device for displaying a training image based on the image data,
Wherein the partial area of the virtual training field corresponds to a field of view of the character located in the virtual training field,
Wherein the signal processing apparatus changes the visual field range based on the direction information of the rib, and decreases the degree of change of the visual field range when the tension is equal to or greater than a reference tension.
삭제delete 활대 및 활시위를 구비하고, 상기 활시위에 걸리는 장력을 측정하여 힘 정보를 생성하며, 상기 활대의 방향 정보를 생성하는 훈련용 활;
가상 훈련장을 구성하고, 상기 장력 및 상기 방향 정보에 기초하여 가상 화살의 이동 궤적을 산출하며, 상기 이동 궤적에 기초하여 상기 가상 훈련장 내 기준 지점으로부터 발사되는 가상 화살에 대한 영상 데이터를 생성하되, 상기 힘 정보에 기초하여 영상 데이터에 포함되는 상기 가상 훈련장의 부분 영역을 결정하는 신호 처리 장치; 및
상기 영상 데이터에 기초하여 훈련 영상을 표시하는 표시 장치를 포함하며,
상기 훈련용 활은,
상기 활대의 길이 방향 중앙에 배치되는 손잡이;
상기 활대의 활고자에 인접하여 설치되고, 상기 장력을 측정하는 장력 센서;
내부에 빈 공간을 구비하는 원통 형상을 가지고, 상기 손잡이에 상기 활대의 전방으로 배치되며, 일단부가 폐쇄되어 상기 활시위에 의해 발사되는 화살을 정지시키고, 상기 일단부에 접촉하는 상기 화살을 감지하는 재장전 모듈; 및
상기 활대의 자세를 감지하여 상기 방향 정보를 생성하는 기울기 센서를 포함하고,
상기 화살의 오니는 상기 활시위에 연결되고, 상기 활을 이용하는 사용자의 접촉을 감지하여 턴온 신호를 생성하는 스위치를 포함하며,
상기 신호 처리 장치는, 상기 턴온 신호에 기초하여 상기 화살의 발사 여부를 판단하는 가상 훈련 시스템.
A training bow provided with a bow and bowstep, generating force information by measuring a tension applied to the bowstep, and generating direction information of the bowstring;
A virtual training area, and a moving trajectory of the virtual arrow is calculated based on the tension and the direction information, and image data of a virtual arrow shot from a reference point in the virtual training area is generated based on the moving trajectory, A signal processing device for determining a partial area of the virtual training field included in the video data based on the force information; And
And a display device for displaying a training image based on the image data,
Wherein the training bow comprises:
A handle disposed at a longitudinal center of the barb;
A tension sensor installed adjacent to the ball guard and measuring the tension;
And a guide member which has a cylindrical shape having an empty space therein and which is disposed in front of the barb on the handle and whose one end is closed to stop an arrow fired by the bowstring, Loading module; And
And a tilt sensor for sensing the posture of the barb to generate the direction information,
Wherein the sludge of the arrow is connected to the bowstep and includes a switch for sensing a touch of a user using the bow and generating a turn-
Wherein the signal processing device determines whether or not the arrow is fired based on the turn-on signal.
삭제delete 제 1 항 또는 제3항에 있어서,
무빙 플레이트를 더 포함하고,
상기 무빙 플레이트는,
평판 형상을 가지고, 사용자의 발을 지지하는 발판부;
지면을 기준으로 상기 발판부의 상부면의 경사각을 조절하는 구동부; 및
사용자의 움직임을 가이드하는 가이드부를 포함하며,
상기 발판부는 상기 사용자의 발과 접촉하는 제1 발판 및 상기 제1 발판의 하부에 배치되는 제2 발판을 포함하고,
상기 구동부는,
상기 제2 발판의 면적 중심에 배치되어 상기 제1 발판을 지지하는 지지축;
상기 지지축을 기준으로 상기 제2 발판 상에 상호 수직하는 각도를 가지고 배치되며, 상기 제1 발판을 지지하는 제1 및 제2 높이조절부재들; 및
상기 제1 및 제2 높이조절부재들 각각의 길이를 가변시키는 구동장치를 포함하는 것을 특징으로 하는 가상 훈련 시스템.
The method according to claim 1 or 3,
Further comprising a moving plate,
The moving plate includes:
A foot plate having a flat plate shape and supporting a foot of a user;
A driving unit for adjusting the inclination angle of the upper surface of the footrest with respect to the ground; And
And a guide portion for guiding movement of the user,
Wherein the footrest includes a first footrest contacting the foot of the user and a second footrest disposed below the first footrest,
The driving unit includes:
A support shaft disposed at the center of the area of the second footrest and supporting the first footrest;
First and second height adjusting members disposed at an angle perpendicular to each other on the second foot plate with respect to the support shaft, the first and second height adjusting members supporting the first foot plate; And
And a driving device for varying a length of each of the first and second height adjusting members.
KR1020170140741A 2017-10-27 2017-10-27 Virtual training system using bow KR101960454B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170140741A KR101960454B1 (en) 2017-10-27 2017-10-27 Virtual training system using bow

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170140741A KR101960454B1 (en) 2017-10-27 2017-10-27 Virtual training system using bow

Publications (1)

Publication Number Publication Date
KR101960454B1 true KR101960454B1 (en) 2019-03-20

Family

ID=66036636

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170140741A KR101960454B1 (en) 2017-10-27 2017-10-27 Virtual training system using bow

Country Status (1)

Country Link
KR (1) KR101960454B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102541750B1 (en) * 2022-02-18 2023-06-13 주식회사 미디어프론트 SYSTEM FOR PROVIDING EXPERIENTIAL CONTENTS USING IoT

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900006926B1 (en) * 1986-09-17 1990-09-25 현대정공 주식회사 Western-style archery exerciser
JP2000189670A (en) * 1998-12-28 2000-07-11 Namco Ltd Operation input device and game device
KR101314179B1 (en) 2011-07-08 2013-10-02 주식회사 도담시스템스 Apparatus for fire training simulation system
KR101749216B1 (en) * 2016-09-26 2017-06-21 옵티머스시스템 주식회사 Shooting traning simulatior and shooting traning system using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR900006926B1 (en) * 1986-09-17 1990-09-25 현대정공 주식회사 Western-style archery exerciser
JP2000189670A (en) * 1998-12-28 2000-07-11 Namco Ltd Operation input device and game device
KR101314179B1 (en) 2011-07-08 2013-10-02 주식회사 도담시스템스 Apparatus for fire training simulation system
KR101749216B1 (en) * 2016-09-26 2017-06-21 옵티머스시스템 주식회사 Shooting traning simulatior and shooting traning system using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102541750B1 (en) * 2022-02-18 2023-06-13 주식회사 미디어프론트 SYSTEM FOR PROVIDING EXPERIENTIAL CONTENTS USING IoT

Similar Documents

Publication Publication Date Title
KR101938257B1 (en) Image shooting simulation system
KR101689330B1 (en) Virtual reality simulation system
US7140962B2 (en) Video game apparatus, image processing method and program
CN110770529B (en) Targeting system
KR101101936B1 (en) System for Simulation of Archery Shooting
KR100849558B1 (en) Simulated gun
US11306993B2 (en) Compound bow performance module
US11859947B2 (en) Targeting system
KR101461201B1 (en) Swing exercise system of golf and exercise method thereof
US20190105548A1 (en) Robotic cannon with laser
US20170321987A1 (en) Simulated firearm with target accuracy detection, and related methods and systems
KR101960454B1 (en) Virtual training system using bow
KR101954903B1 (en) Virtual training system
KR20170136886A (en) Vr multiple fire training systems
KR101954901B1 (en) Training bow
KR101593153B1 (en) Infrared light launch unit of dummy gun
KR101755632B1 (en) System for screen bow game
US20190101358A1 (en) Device and Method for Determining a Motion Characteristic of a Projectile Ejected from a Toy Gun
CA2880213A1 (en) Illuminating and/or laser-emitting golf ball
KR101355882B1 (en) Apparatus for training swing
KR101706170B1 (en) Survival smart archery game system
KR20140112117A (en) Wireless indoor shooting simulation system
KR20220061434A (en) Method and system for bow survival game using augmented reality
KR101610706B1 (en) Simulation apparatus for virtual experience
KR102002452B1 (en) Game controller

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant