KR101587263B1 - Sensing device and screen shooting simulation system having thesame - Google Patents

Sensing device and screen shooting simulation system having thesame Download PDF

Info

Publication number
KR101587263B1
KR101587263B1 KR1020140071822A KR20140071822A KR101587263B1 KR 101587263 B1 KR101587263 B1 KR 101587263B1 KR 1020140071822 A KR1020140071822 A KR 1020140071822A KR 20140071822 A KR20140071822 A KR 20140071822A KR 101587263 B1 KR101587263 B1 KR 101587263B1
Authority
KR
South Korea
Prior art keywords
sensors
user
sensing device
rear end
recognized
Prior art date
Application number
KR1020140071822A
Other languages
Korean (ko)
Other versions
KR20150142991A (en
Inventor
박영호
Original Assignee
박영호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박영호 filed Critical 박영호
Priority to KR1020140071822A priority Critical patent/KR101587263B1/en
Publication of KR20150142991A publication Critical patent/KR20150142991A/en
Application granted granted Critical
Publication of KR101587263B1 publication Critical patent/KR101587263B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

발명의 실시에에 따른 센싱장치는 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부; 및 상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부;를 포함한다.According to an embodiment of the present invention, there is provided a sensing device comprising: a coordinate value extracting unit for determining coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of a user and whether or not the plurality of sensor positions contact the sensing device; And an operation analyzing unit for analyzing the operation of the user based on the measurement result of the coordinate value extracting unit.

Description

센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템{Sensing device and screen shooting simulation system having thesame}TECHNICAL FIELD [0001] The present invention relates to a sensing device and a screen shooting simulation system having the same,

본 발명은 센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템에 관한 것으로, 보다 자세하게는 사용자의 움직임 정보를 정확하게 분석하여 현실감있는 조작기능을 구현한 센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템에 관한 것이다.
The present invention relates to a sensing device and a screen shooting simulation system having the same, and more particularly, to a sensing device that realizes a realistic operation function by accurately analyzing motion information of a user and a screen shooting simulation system having the sensing device.

최근 가상공간 영상 시뮬레이션을 이용하여 사용자에게 실제 상황과 유사한 느낌을 주는 다양한 시스템들이 이용되고 있다. 예를 들면 1인칭 슈팅 게임, 비행 시뮬레이션 시스템, 운전 시뮬레이션 시스템, 실내 골프 게임 및 스크린 사격 게임 등에서는 사용자의 시각에서 정면으로 보이는 영상을 스크린 등에 보여주고, 이 영상을 제어하여 사용자가 현실에서 움직이는 듯한 몰입감을 느끼도록 하고 있다.Recently, various systems have been used to give users a feeling similar to actual situation by using virtual space image simulation. For example, in a first-person shooter game, a flight simulation system, a driving simulation system, an indoor golf game, and a screen shooting game, a front-view image is displayed on a screen from a user's viewpoint and the user controls the image, So that a feeling of immersion is felt.

초기의 가상체험 장치는 대부분 러닝머신을 개조하여 제자리에서 뛰거나 달릴 수 있도록 만들었는데, 기존의 프로그램된 소스 이미지를 단순히 보여주기만 함으로서 가상공간 이미지가 사용자의 움직임을 반영하지 못하는 문제가 있었다.Most of the early virtual experience devices have been modified so that the treadmill can be modified to run or run in place. By simply showing the original programmed source image, the virtual space image does not reflect the movement of the user.

이런 불편함을 해소하기 위하여 사용자의 방향을 인식할 수 있는 형태의 가상체험 장치들이 등장하였다. 예를 들면 사용자가 벨트를 착용하게 하거나 데이터 장갑을 끼게 하여 걷거나 달리도록 하는 가상체험 장치가 있다.In order to solve this inconvenience, virtual experience devices that can recognize the direction of the user have appeared. For example, there is a virtual experience device that allows a user to wear a belt or wear a data glove to walk or run.

이 경우 사용자가 착용한 벨트나 장갑에 장착된 센서를 이용하여 사용자의 움직임에 따라 가상공간 내의 영상을 갱신한다. 그러나 이와 같은 장치는 사용자에게 벨트나 센서를 장착하게 함으로서 장치의 구성이 복잡해지고, 사용자에게 보조도구를 착용하게 하는 번잡한 작업을 강요하게 된다.In this case, the image in the virtual space is updated according to the movement of the user by using the sensor mounted on the belt or the glove worn by the user. However, such a device causes a complicated configuration of the device by allowing the user to attach a belt or a sensor, thereby imposing a troublesome task of causing the user to wear an auxiliary tool.

한편, 사용자가 두부장착 교시장치(HMD, head-mounted display)를 사용하는 가상체험 장치가 있다. HMD는 보안경이나 헬멧형 기기로서 눈앞에 있는 가상 스크린을 보는 영상 장치이다. 즉 양쪽 눈에 근접한 위치에 액정 등의 소형 디스플레이가 설치되어 시차를 이용한 입체 영상을 투영한다. 이때, 사용자의 머리를 향하고 있는 방향을 자이로 센서 등으로 검출하여 움직임에 대응한 영상을 강조함으로써 3차원 공간에 있는 것 같은 체험이 가능하도록 한다. 그러나 이 경우 역시 사용자는 두부 위치 센서를 머리에 착용해야만 한다.On the other hand, there is a virtual experience apparatus in which a user uses a head-mounted display (HMD). The HMD is a safety goggle or a helmet type device and is a visual device for viewing the virtual screen in front of the user. In other words, a small display such as a liquid crystal is provided at a position close to both eyes to project a stereoscopic image using time difference. At this time, the direction facing the user's head is detected by a gyro sensor or the like, and the image corresponding to the motion is emphasized, so that it is possible to experience the three-dimensional space. In this case, however, the user must also wear a head position sensor on the head.

위와 같은 벨트, 장갑 또는 HMD 등의 장비들은 모두 사용자가 보조 장치를 착용해야만 하는 것으로서, 장치의 사용이 번거롭고 불편하여 가상현실을 자연스럽게 느끼기 어렵다는 문제점이 있었다.
All of the above-mentioned devices such as a belt, a glove, or an HMD are required to wear an accessory device, and the use of the device is cumbersome and inconvenient, making it difficult to feel the virtual reality naturally.

본 발명은 사용자의 발에 센서를 부착하여 다른 보조장치를 착용하지 않고서도 사용자의 동작 변화를 감지하여 방향, 속도 등의 동작을 파악, 분석할 수 있는 센싱장치 및 이를 반영하여 가상공간 이미지를 제공하여 생동감 있는 스크린 사격 시뮬레이션 시스템을 제공하는 것을 목적으로 한다.
The present invention provides a sensing device capable of sensing and analyzing motion, such as direction, speed, etc., by detecting a change in a user's behavior without attaching a sensor to a user's foot and wearing another assistive device, And to provide a lively screen shooting simulation system.

발명의 실시에에 따른 센싱장치는 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부; 및 상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부;를 포함한다.
According to an embodiment of the present invention, there is provided a sensing device comprising: a coordinate value extractor for checking coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of a user and whether or not the plurality of sensor positions are in contact with the sensing device; And an operation analyzing unit for analyzing the operation of the user based on the measurement result of the coordinate value extracting unit.

본 발명은 사용자가 다른 보조장치를 착용하지 않고서도 사용자의 동작 변화를 감지하여 방향, 속도 등의 정보로 분석하여 현장감있는 가상현실을 체험할 수 있다.
The present invention allows a user to experience a realistic virtual reality by detecting a change in a user's behavior without analyzing the information with respect to directions, speeds, etc. without wearing a different auxiliary device.

도 1은 발명의 실시예에 따른 스크린 사격 시뮬레이션 시스템의 일 실시예를 나타내는 도면이다.
도 2는 발명의 실시예에 따른 센싱장치의 동작 센싱 방법을 나타내는 도면이다.
도 3은 발명의 실시예에 따른 센싱장치의 내부 구성도를 나타내는 도면이다.
1 is a view showing an embodiment of a screen shooting simulation system according to an embodiment of the present invention.
2 is a diagram illustrating a method of sensing an operation of a sensing device according to an embodiment of the present invention.
3 is a diagram showing an internal configuration of a sensing device according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms can be understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "comprising" or "comprising" and the like should not be construed as encompassing various elements or various steps of the invention, Or may further include additional components or steps.

또한, 본 발명에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 발명의 실시예에 따른 스크린 사격 시뮬레이션 시스템의 일 실시예를 나타내는 도면이다. 도시된 바와 같이, 발명의 실시예에 따른 스크린 사격 시물레이션 시스템은 센싱장치(100), 모형 총기(150), 센서(200), 제어부(300) 및 출력부(400)를 포함한다.1 is a view showing an embodiment of a screen shooting simulation system according to an embodiment of the present invention. The screen shot simulation system according to an embodiment of the present invention includes a sensing device 100, a model gun 150, a sensor 200, a control unit 300, and an output unit 400.

도 1에 도시된 스크린 사격 시뮬레이션 시스템의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 스크린 사격 시뮬레이션 시스템이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 스크린 사격 시뮬레이션 시스템이 구현될 수도 있다.Not all of the components of the screen shooting simulation system shown in Fig. 1 are essential components, and a screen shooting simulation system may be implemented by more components than the components shown in Fig. 1, A screen shot simulation system may be implemented.

센싱장치(100)는 매트 형태일 수 있으며, 실제로 사용자가 제자리 걸음을 하거나 제자리 달리기를 할 수 있는 면적으로 형성된다. 또한 센싱장치(100)는 사용자의 발에 부착된 센서(200)의 위치를 나타내는 좌표값 및 기울기를 측정 및 계산하여 사용자의 동작을 분석할 수 있다. 센싱장치(100)는 센서(200)로부터 신호가 측정된 위치, 압력의 빈도 및 강도변화, 또는 소정시간의 압력 미감지 중에 적어도 하나를 감지할 수 있다.The sensing device 100 may be in the form of a mat and is formed in an area where the user can actually walk in place or run in place. In addition, the sensing device 100 may analyze a user's operation by measuring and calculating a coordinate value and a slope indicating the position of the sensor 200 attached to the user's foot. The sensing device 100 may sense at least one of the position at which the signal is measured from the sensor 200, the frequency and intensity change of the pressure, or the unreacted pressure for a predetermined time.

제어부(300)는 센싱장치(100)와 연결되고 센싱장치(100)로부터의 동작 분석에 대응하여 출력부(400)의 영상을 제어한다. 예를 들어, 사용자의 동작이 좌측으로 방향전환한 것으로 인식된 경우, 제어부(300)는 출력부(400)에 출력되는 영상을 좌측으로 회전시킨다.The control unit 300 is connected to the sensing device 100 and controls the image of the output unit 400 in accordance with the operation analysis from the sensing device 100. For example, when the operation of the user is recognized as a change in direction to the left, the control unit 300 rotates the image output to the output unit 400 to the left.

출력부(400)는 사용자의 시선 전방에 위치할 수 있으며, 영상 출력부 및 음성 출력부를 포함할 수 있다. 또한, 모형 총기(150)로부터 신호를 수신하여 출력부(400)의 대응되는 위치에 점으로 표시할 수 있다.The output unit 400 may be located in front of the user's eyes, and may include an image output unit and an audio output unit. In addition, a signal may be received from the model gun 150 and displayed as a point at a corresponding location in the output unit 400.

출력부(400)는 프로젝션 장치일 수도 있고, 일반적인 컴퓨터 모니터나 게임기의 화면일 수도 있으며, 영상을 출력하는 장치이면 특별히 한정하지 않는다.The output unit 400 may be a projection device, a general computer monitor, a screen of a game machine, or the like, and is not particularly limited as long as it is an apparatus for outputting an image.

도 1에서는 아바타가 도시되지 않았으나, 게임 환경 및 설정에 따라 아바타가 표현되고 아바타의 시각을 고려하여 영상이 출력될 수 있다. 아바타(avatar)는 일반적으로 가상 공간 시스템에서 사용자의 대용이 되는 캐릭터를 말한다. 따라서, 가상공간 시스템에서는 아바타의 시각에 따라 영상을 출력하게 되며, 아바타의 이동에 따라 상기 영상을 전환하게 된다.Although an avatar is not shown in FIG. 1, an avatar may be represented according to a game environment and a setting, and an image may be output in consideration of an avatar's time. An avatar is a substitute for a user in a virtual space system. Therefore, in the virtual space system, the image is outputted according to the avatar's time, and the image is switched according to the movement of the avatar.

아바타는 일반적으로 가상 공간 시스템에 표현이 되는 경우도 있지만 아바타의 눈을 통해 표현되는 것처럼 가상 공간 시스템에서 표현이 되지 않는 경우도 있다. 어느 경우나 마찬가지로 사용자의 의도에 맞는 아바타의 행동과 이동에 따라 출력 영상이 표시된다.An avatar is sometimes represented in a virtual space system but may not be represented in a virtual space system as represented through an avatar's eyes. In either case, the output image is displayed according to the behavior and movement of the avatar according to the user's intention.

도 2는 발명의 실시예에 따른 센싱장치의 동작 센싱 방법을 나타내는 도면이다. 도시된 바와 같이, 두 개의 좌측센서(211, 212)가 왼발에, 두 개의 우측센서(221, 222)가 오른발에 배치된다. 센서(200)는 압전 센서, 무게 센서 압전 스위치 등의 눌림을 인식하여 전기적 신호로 변환 가능한 수단이 사용될 수 있다.2 is a diagram illustrating a method of sensing an operation of a sensing device according to an embodiment of the present invention. As shown, two left sensors 211 and 212 are located at the left foot and two right sensors 221 and 222 are located at the right foot. The sensor 200 may be a means capable of recognizing the depression of the piezoelectric sensor, the weight sensor, the piezoelectric switch, etc. and converting it into an electrical signal.

좌측센서(211, 212)는 좌측 전단 센서(211) 및 좌측 후단 센서(212)를 포함할 수 있다. 또한 우측센서(221, 222)는 우측 전단 센서(221) 및 우측 후단 센서(222)를 포함할 수 있다.The left sensors 211 and 212 may include a left front end sensor 211 and a left rear end sensor 212. [ The right sensors 221 and 222 may include a right front end sensor 221 and a right rear end sensor 222. [

각각의 전단 센서는 상대적으로 발의 앞쪽에 부착되고 후단 센서는 발의 뒤쪽에 부착된다. 실시예에서는 각각 두 개의 센서가 사용되었으나 보다 정밀한 동작 측정을 위해 세 개 이상의 센서가 사용될 수도 있다.Each front-end sensor is attached to the front of the foot relatively and the rear-end sensor is attached to the back of the foot. Although two sensors are used in each embodiment, three or more sensors may be used for more accurate operation measurement.

좌측 이동 축(213)은 좌측 전단 센서(211) 및 좌측 후단 센서(212)를 잇는 축이고, 우측 이동 축(223)은 우측 전단 센서(221) 및 우측 후단 센서(222)를 잇는 축이다.The left movement axis 213 is an axis connecting the left front end sensor 211 and the left rear end sensor 212 and the right movement axis 223 is an axis connecting the right front end sensor 221 and the right rear end sensor 222.

걷기 동작은 사용자가 센싱장치(100) 위를 제자리에서 걷는 동작을 의미하며, 이에 따라 좌측센서(211, 212) 및 우측센서(221, 222)가 센싱장치(100)의 표면과 교대로 접하고 이격되는 과정이 반복된다. 이동하는 방향은 양 발의 후단 센서(212, 222)를 기준으로 양 발의 앞쪽에 위치한 전단 센서(211, 221)를 향한 방향이다.The walking action means that the user is walking on the sensing device 100 in place so that the left sensors 211 and 212 and the right sensors 221 and 222 are alternately in contact with the surface of the sensing device 100, The process is repeated. The direction of movement is the direction toward the front end sensors 211 and 221 located on the front sides of both feet based on the rear end sensors 212 and 222 of both feet.

센싱장치(100)는 좌측센서(211, 212) 및 우측센서(221, 222)가 센싱장치(100)의 표면에서 교대로 접하는 경우 사용자가 센싱장치(100) 위를 걷는 동작으로 인식하여 이를 제어부(300)로 전달하고, 제어부(300)는 출력부(400)의 영상 신호를 걷는 속도에 대응하여 화면이 전환되도록 제어할 수 있다.The sensing device 100 recognizes the user as an operation to walk on the sensing device 100 when the left sensors 211 and 212 and the right sensors 221 and 222 are alternately touched on the surface of the sensing device 100, The control unit 300 can control the screen to be switched according to the walking speed of the video signal of the output unit 400.

뛰기 동작은 걷기 동작과 센서의 인식 과정은 동일하나, 동작의 반복 속도가 미리 정해진 기준 이상인 경우, 사용자가 해당 방향으로 뛰고 있는 것으로 인식할 수 있다.The walking operation is the same as the walking operation and the sensor recognition process, but when the repetition rate of the operation is higher than a predetermined reference, the user can recognize that the user is jumping in the corresponding direction.

방향전환 동작은 이동 축 방향을 기준으로 인식될 수 있다. 구체적으로 사용자가 좌측으로 방향전환 하고자 하는 경우, 두 개의 우측센서(221, 222) 및 왼발(210)의 좌측 후단 센서(212)를 고정한 상태에서 좌측 전단 센서(211)를 시계 반대 방향으로 회전시킨다. 이에 따라 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 증가하게 되고, 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 미리 정해진 값 이상의 각도, 예를 들어, 20°이상 80°이하를 유지하는 시간 동안 좌측으로 방향전환하는 것으로 인식하도록 설정될 수 있다.The direction switching operation can be recognized based on the movement axis direction. Specifically, when the user desires to change the direction to the left, the left front end sensor 211 is rotated counterclockwise while the two right sensors 221 and 222 and the left rear end sensor 212 of the left foot 210 are fixed . As a result, the angle between the right-side moving shaft 223 and the left-side moving shaft 213 is increased and the angle between the right-side moving shaft 223 and the left-side moving shaft 213 is greater than a predetermined value, Or more and not more than 80 [deg.].

이에 따라 출력부(400)의 화면이 일정한 속도로 좌측으로 회전하고, 사용자가 원하는 시점까지 방향전환한 후, 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 센싱장치(100)에서 미리 정해진 값 이하로 인식되도록 발의 위치를 변경시키면 출력부(400)에 표시되는 화면의 회전이 정지될 수 있다. 이는 우측으로 방향전환하는 경우에도 마찬가지로 적용될 수 있다.The screen of the output unit 400 rotates to the left at a predetermined speed and the direction of the user is changed to a desired point of view and the angles of the right and left movement axes 223 and 213 are detected by the sensing device 100 The rotation of the screen displayed on the output unit 400 may be stopped if the foot position is changed so as to be recognized as a predetermined value or less. This can be similarly applied to the case of turning to the right.

또는 사용자가 오른발(220)은 고정한 상태에서 왼발(210)을 센싱장치(100)로부터 이격시키는 동작과 접하게 하는 동작을 반복하는 경우에 왼쪽으로 방향전환 하는 것으로 인식될 수도 있다. 이는 우측으로 방향전환하는 경우에도 마찬가지로 적용될 수 있다.Or the user may be perceived to turn to the left when repeating the operation of contacting the left foot 210 with the operation of separating the left foot 210 from the sensing device 100 in a fixed state. This can be similarly applied to the case of turning to the right.

또는 센싱장치(100)의 가로축(x축)과 세로축(y축)을 기준으로 우측 이동 축(223)과 좌측 이동 축(213)의 각도에 대응하여 방향 전환을 인식할 수 있다. 구체적으로 사용자가 좌측으로 방향전환 하고자 하는 경우, 오른발(220)과 왼발(210)을 센싱장치(100)의 가로축(x축)과 세로축(y축)을 기준으로 좌측을 향하도록 걷거나 뛰는 동안에는 화면이 우측 이동 축(223)과 좌측 이동 축(213)의 각도만큼 좌측으로 회전될 수 있다. 그리고 사용자가 다시 출력부(400)를 정면으로 바라보고 걷게 되면 방향전환이 종료한 것으로 인식될 수 있다. 이는 우측으로 방향전환하는 경우에도 마찬가지로 적용될 수 있다.The direction switching can be recognized corresponding to the angles of the right movement axis 223 and the left movement axis 213 with respect to the horizontal axis (x axis) and the vertical axis (y axis) of the sensing device 100. Specifically, when the user desires to change the direction to the left, while walking or jumping the left foot 220 and the left foot 210 toward the left with respect to the horizontal axis (x axis) and the vertical axis (y axis) of the sensing device 100, Can be rotated to the left by an angle between the right movement axis 223 and the left movement axis 213. [ When the user again looks at the output unit 400 in front and then walks, it can be recognized that the direction change is completed. This can be similarly applied to the case of turning to the right.

사용자가 제자리에서 점프하는 경우, 모든 센서(200)가 미리 정해진 시간 이상 센싱장치(100)로부터 이격되므로 이를 점프 동작으로 인식할 수 있다. 이 경우 제어부(300)는 출력부(400)의 영상을 걷는 동작에 비해 점프 동작이 유지되는 동안 일정 각도 위에서 내려다보는 전망으로 제어할 수 있다.When the user jumps in place, all the sensors 200 are separated from the sensing device 100 for a predetermined time or more, and thus can recognize this as a jump operation. In this case, the control unit 300 can control the view from above the predetermined angle while the jump operation is maintained, as compared with the operation of walking the image of the output unit 400.

또한 왼발(210) 또는 오른발(220)로 장애물을 넘는 동작의 인식이 가능하다. 구체적으로, 사용자가 오른발(220)로 장애물을 넘는 경우는 왼발(210)을 축으로 사용하고 오른발(220)로 장애물을 넘는 것으로 좌측센서(211, 212) 중 하나 이상의 좌표가 인식되며 우측센서(221, 222)가 모두 센싱장치(100)의 좌표 상에서 인식되지 않은 후, 좌측센서(211, 212)도 모두 센싱장치(100)의 좌표 상에서 인식되지 않으면 사용자가 점프를 하는 것으로, 양 발이 모두 센싱장치(100)와 이격되어 있는 상태이며 이후 센서(200)가 감지되면 사용자가 착지한 것으로 판단한다. 이는 오른발(220)을 축으로 사용하여 왼발(210)로 장애물을 넘는 경우에도 마찬가지로 적용될 수 있다.It is also possible to recognize the movement of the left foot 210 or the right foot 220 over the obstacle. Specifically, when the user crosses the obstacle with the right foot 220, one of the left and right sensors 211 and 212 is recognized by using the left foot 210 as an axis and the right foot 220 as an obstacle, When both of the left sensors 211 and 212 are not recognized on the coordinates of the sensing device 100 after the user has not recognized all of the sensors 221 and 222 on the coordinates of the sensing device 100, It is determined that the user is landed when the sensor 200 is detected. This can be similarly applied to the case where the right foot 220 is used as an axis to pass the obstacle to the left foot 210. [

또한 상기에서 기술한 동작 이외의 특수 동작으로, 앉은 자세 유지, 앉은 자세로 이동하기, 포복 자세 유지, 포복 자세로 이동하기 등의 동작을 인식할 수 있다.In addition, by the special operation other than the above-described operations, it is possible to recognize operations such as maintaining a sitting posture, moving to a sitting posture, maintaining a crawling posture, and moving to a crawling posture.

구체적으로, 앉은 자세 유지는 양쪽 발의 뒤꿈치를 동시에 들어올리는 것으로 인식될 수 있으며, 이에 따라 좌측 후단 센서(212) 및 우측 후단 센서(222)는 센싱장치(100)에서 인식되지 않으며 좌측 전단 센서(211) 및 우측 전단 센서(221)만이 센싱장치(100)에 인식되고, 출력부(400)에는 정지된 영상이 걷기 또는 뛰기에 비해 낮은 시점에서 제공될 수 있다.The left rear end sensor 212 and the right rear end sensor 222 are not recognized by the sensing device 100 and the left front end sensor 211 And the right front end sensor 221 are recognized by the sensing device 100 and the stationary image is provided at the output unit 400 at a time lower than the walking or running.

또한, 앉은 자세로 이동하기는 양쪽 발의 뒤꿈치를 동시에 들어올린 상태에서 앞꿈치 만으로 이동하는 것으로, 좌측 후단 센서(212) 및 우측 후단 센서(222)는 센싱장치(100)에서 인식되지 않으며 좌측 전단 센서(211) 및 우측 전단 센서(221)만이 교대로 센싱장치(100)에 인식된다. 이에 따라 출력부(400)에는 이동하는 영상이 걷기 또는 뛰기에 비해 낮은 시점에서 제공될 수 있다.The left rear end sensor 212 and the right rear end sensor 222 are not recognized by the sensing device 100 and the left front end sensor 212 and the right rear end sensor 222 are not recognized by the sensing device 100. In this case, 211 and the right front end sensor 221 are recognized by the sensing device 100 alternately. Accordingly, the moving image may be provided to the output unit 400 at a lower point of time than the walking or running.

또한, 포복 자세 유지는 오른발(220)과 왼발(210)의 각도, 즉 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 미리 정해진 각도, 예를 들어 80°를 초과하는 경우 사용자가 포복 자세를 유지하는 것으로 인식하여 출력부(400)에는 정지된 영상이 앉은 자세에 비해 더 낮은 시점에서 제공될 수 있다.In addition, when the angle between the right foot 220 and the left foot 210, that is, the angle between the right movement axis 223 and the left movement axis 213 exceeds a predetermined angle, for example, 80 degrees, It is recognized that the crawling posture is maintained, and the output unit 400 can be provided at a time point lower than the posture in which the still image is seated.

또한, 포복 자세로 이동하기는 오른발(220)과 왼발(210)의 각도, 즉 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 미리 정해진 각도, 예를 들어 80°를 초과하는 상태에서 이동하는 것으로, 오른발(220) 및 왼발(210)이 센싱장치(100)에 교대로 인식되어, 출력부(400)에는 이동하는 영상이 앉은 자세에 비해 더 낮은 시점에서 제공될 수 있다.Movement to the crawling posture is performed when the angle between the right foot 220 and the left foot 210, that is, the angle between the right movement axis 223 and the left movement axis 213 exceeds a predetermined angle, for example, 80 degrees The right foot 220 and the left foot 210 are alternately recognized by the sensing device 100 so that the moving image can be provided at a point lower than the sitting position.

도 3은 발명의 실시예에 따른 센싱장치의 내부 구성도를 나타내는 도면이다. 도시된 바와 같이, 발명의 실시예에 따른 센싱장치(100)는 좌표값 추출부(110), 기울기 측정부(120), 동작 분석부(130) 및 저장부(140)를 포함할 수 있다.3 is a diagram showing an internal configuration of a sensing device according to an embodiment of the present invention. The sensing device 100 may include a coordinate value extracting unit 110, a tilt measuring unit 120, an operation analyzing unit 130, and a storage unit 140.

좌표값 추출부(110)는 사용자의 발에 부착되는 센서(200)가 센싱장치(100)의 표면에 접한 위치의 좌표값을 추출한다. 좌표값 추출부(110)는 주기적으로 센서(200)의 위치 및 측정 여부를 감지할 수 있다.The coordinate value extraction unit 110 extracts a coordinate value of a position where the sensor 200 attached to the user's foot touches the surface of the sensing device 100. [ The coordinate value extracting unit 110 may periodically detect the position of the sensor 200 and whether the sensor 200 is measured.

즉, 사용자의 동작에 의해 하나 이상의 센서의 위치가 측정되지 않는 경우, 위치가 측정되지 않는 센서는 센싱장치(100)로부터 이격되어 있는 것으로 판단할 수 있다.That is, when the position of one or more sensors is not measured by the user's operation, the sensor whose position is not measured may be determined to be spaced from the sensing device 100.

기울기 측정부(120)는 좌측 전단 센서(211) 및 좌측 후단 센서(212)를 잇는 좌측 이동 축(213)과, 우측 전단 센서(221) 및 우측 후단 센서(222)를 잇는 우측 이동 축(223)의 각도를 계산한다.The tilt measuring unit 120 measures the tilt of the left moving shaft 213 connecting the left front end sensor 211 and the left rear end sensor 212 and the right moving shaft 223 connecting the right front end sensor 221 and the right rear end sensor 222 ) Is calculated.

즉, 좌측 이동 축(213) 및 우측 이동 축(223)이 센싱장치(100)의 가로축과 이루는 각도뿐만 아니라, 좌측 이동 축(213) 및 우측 이동 축(223) 간의 각도를 계산한다. 우측 이동 축(223)과 좌측 이동 축(213)의 각도는 후단 센서 및 전단 센서의 위치를 고려하여 측정될 수 있다.That is, the angle between the left movement axis 213 and the right movement axis 223 is calculated as well as the angle formed by the left movement axis 213 and the right movement axis 223 with the horizontal axis of the sensing device 100. The angle between the right movement axis 223 and the left movement axis 213 can be measured in consideration of the positions of the rear end sensor and the front end sensor.

동작 분석부(130)는 좌표값 추출부(110) 및 기울기 측정부(120)에서 측정한 결과를 바탕으로 사용자의 동작을 분석하고, 그 결과를 제어부(300)로 전송할 수 있다.The motion analyzer 130 analyzes the motion of the user based on the results measured by the coordinate value extracting unit 110 and the tilt measuring unit 120 and transmits the result to the controller 300. [

저장부(140)는 설정에 따라 특정 동작으로 인식되기 위한 좌표값 추출부(110) 및 기울기 측정부(120)에서 측정한 값을 저장할 수 있다.The storage unit 140 may store values measured by the coordinate value extraction unit 110 and the tilt measurement unit 120 to be recognized as a specific operation according to the setting.

전술한 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100: 센싱장치
110: 좌표값 추출부
120: 기울기 측정부
130: 동작 분석부
140: 저장부
150: 모형 총기
200: 센서
300: 제어부
400: 출력부
100: sensing device
110: Coordinate value extraction unit
120: tilt measuring unit
130:
140:
150: Model firearm
200: Sensor
300:
400: Output section

Claims (7)

사용자의 움직임 정보를 검출하는 센싱장치에 있어서,
상기 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부;
상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부; 및
상기 사용자의 양 발의 각각 앞뒤쪽에 부착되는 복수의 센서를 잇는 축의 기울기를 측정하는 기울기 측정부;를 포함하고,
상기 복수의 센서는 양 발의 앞쪽에 각각 부착되는 좌측 및 우측 전단 센서와 양 발의 뒤쪽에 각각 부착되는 좌측 및 우측 후단 센서를 포함하고,
상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 인식되는 경우 '앉은 자세 유지'로 인식하고, 상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 교대로 인식되는 경우 '앉은 자세로 이동하기'로 인식하는 것을 특징으로 하는 센싱장치.
A sensing device for detecting motion information of a user,
Coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of the user and a coordinate value extracting unit for checking whether the plurality of sensor positions and the sensing device are in contact with each other;
An operation analyzer for analyzing an operation of a user on the basis of a result measured by the coordinate value extracting unit; And
And a tilt measuring unit for measuring a tilt of an axis connecting a plurality of sensors attached to the front and back sides of each of the two feet of the user,
Wherein the plurality of sensors include left and right front end sensors respectively attached to the front of both feet and left and right rear end sensors respectively attached to the back of both feet,
If the left and right rear end sensors are not recognized and the left and right rear end sensors are not recognized, then the left and right rear end sensors are recognized. If the left and right rear end sensors are not recognized, The control unit recognizes the " move to a sitting posture "
삭제delete 제1항에 있어서,
상기 기울기 측정부는 왼발의 앞뒤쪽에 부착된 센서를 연결하는 좌측 이동 축과 오른발의 앞뒤쪽에 부착된 센서를 연결하는 우측 이동 축이 상기 센싱장치의 가로축과 이루는 각도 및 상기 좌측 이동 축과 우측 이동 축 사이의 각도를 계산하는 것을 특징으로 하는 센싱장치.
The method according to claim 1,
The inclination measuring unit may include an inclination measuring unit for measuring an angle between a left movement axis connecting sensors attached to the front and back sides of the left foot and a right movement axis connecting sensors attached to front and back sides of the right foot with the horizontal axis of the sensing apparatus, The angle of the sensor is calculated.
제1항에 있어서,
상기 좌표값 추출부는 주기적으로 상기 센서의 위치를 감지하는 것을 특징으로 하는 센싱장치.
The method according to claim 1,
Wherein the coordinate value extractor periodically senses the position of the sensor.
매트 형태의 센싱장치;
상기 센싱장치의 출력에 대응하는 사용자의 이동정보 신호에 따라 출력 영상을 제어하는 제어부; 및
상기 출력 영상을 출력하는 출력부;를 포함하고,
상기 센싱장치는,
상기 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부;
상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부; 및
상기 사용자의 양 발의 각각 앞뒤쪽에 부착되는 복수의 센서를 잇는 축의 기울기를 측정하는 기울기 측정부;를 포함하고,
상기 복수의 센서는 양 발의 앞쪽에 각각 부착되는 좌측 및 우측 전단 센서와 양 발의 뒤쪽에 각각 부착되는 좌측 및 우측 후단 센서를 포함하고,
상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 인식되는 경우 '앉은 자세 유지'로 인식하고, 상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 교대로 인식되는 경우 '앉은 자세로 이동하기'로 인식하는 것을 특징으로 하는 스크린 사격 시뮬레이션 시스템.
Sensing device in the form of a mat;
A control unit for controlling an output image according to a movement information signal of a user corresponding to an output of the sensing device; And
And an output unit for outputting the output image,
The sensing device includes:
Coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of the user and a coordinate value extracting unit for checking whether the plurality of sensor positions and the sensing device are in contact with each other;
An operation analyzer for analyzing an operation of a user on the basis of a result measured by the coordinate value extracting unit; And
And a tilt measuring unit for measuring a tilt of an axis connecting a plurality of sensors attached to the front and back sides of each of the two feet of the user,
Wherein the plurality of sensors include left and right front end sensors respectively attached to the front of both feet and left and right rear end sensors respectively attached to the back of both feet,
If the left and right rear end sensors are not recognized and the left and right rear end sensors are not recognized, then the left and right rear end sensors are recognized. If the left and right rear end sensors are not recognized, Is recognized as " moving to a sitting posture "
삭제delete 제5항에 있어서,
상기 기울기 측정부는 왼발의 앞뒤쪽에 부착된 센서를 연결하는 좌측 이동 축과 오른발의 앞뒤쪽에 부착된 센서를 연결하는 우측 이동 축이 상기 센싱장치의 가로축과 이루는 각도 및 상기 좌측 이동 축과 우측 이동 축 사이의 각도를 계산하는 것을 특징으로 하는 스크린 사격 시뮬레이션 시스템.
6. The method of claim 5,
The inclination measuring unit may include an inclination measuring unit for measuring an angle between a left movement axis connecting sensors attached to the front and back sides of the left foot and a right movement axis connecting sensors attached to front and back sides of the right foot with the horizontal axis of the sensing apparatus, Wherein the angle of the screen shot is calculated.
KR1020140071822A 2014-06-13 2014-06-13 Sensing device and screen shooting simulation system having thesame KR101587263B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140071822A KR101587263B1 (en) 2014-06-13 2014-06-13 Sensing device and screen shooting simulation system having thesame

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140071822A KR101587263B1 (en) 2014-06-13 2014-06-13 Sensing device and screen shooting simulation system having thesame

Publications (2)

Publication Number Publication Date
KR20150142991A KR20150142991A (en) 2015-12-23
KR101587263B1 true KR101587263B1 (en) 2016-01-20

Family

ID=55082245

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140071822A KR101587263B1 (en) 2014-06-13 2014-06-13 Sensing device and screen shooting simulation system having thesame

Country Status (1)

Country Link
KR (1) KR101587263B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12045397B2 (en) 2022-06-10 2024-07-23 Sony Interactive Entertainment Inc. Single sphere foot operated position-based controller
US11567609B1 (en) * 2022-06-10 2023-01-31 Sony Interactive Entertainment Inc. Foot operated position-based touchpad controller

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253539A (en) * 2010-06-02 2011-12-15 Sony Computer Entertainment Inc Input for computer device using computer vision based on pattern

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101009946B1 (en) * 2008-06-26 2011-01-20 시사게임 주식회사 Bodily sensation type game apparatus and the method using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011253539A (en) * 2010-06-02 2011-12-15 Sony Computer Entertainment Inc Input for computer device using computer vision based on pattern

Also Published As

Publication number Publication date
KR20150142991A (en) 2015-12-23

Similar Documents

Publication Publication Date Title
JP6401841B1 (en) Information processing method, computer, and program
CN103480154B (en) Barrier circumvention device and barrier bypassing method
CN106796452B (en) Head-mounted display apparatus and its control method, computer-readable medium
KR101666096B1 (en) System and method for enhanced gesture-based interaction
KR101695365B1 (en) Treadmill motion tracking device possible omnidirectional awarenessand move
JP2019516174A (en) Head mounted display tracking
JP2021523432A (en) Power management for optical position tracking devices
TWI659221B (en) Tracking system, tracking device and tracking method
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
US10668372B2 (en) Information processing apparatus, information processing method, and program
CN109240487B (en) Immersive system, control method, and non-transitory computer readable medium
KR101811809B1 (en) Arcade game system by 3D HMD
US11501552B2 (en) Control apparatus, information processing system, control method, and program
CN108021227B (en) Method for rapidly moving in virtual reality and virtual reality device
WO2018143732A1 (en) Game control device and virtual reality game system including same
CN115129164B (en) Interaction control method and system based on virtual reality and virtual reality equipment
JP3847634B2 (en) Virtual space simulation device
KR101587263B1 (en) Sensing device and screen shooting simulation system having thesame
JP2021009673A (en) Virtual reality system, program, and computer-readable storage medium
KR101766226B1 (en) Game Simulator
TW202022569A (en) Gaming standing stage for vr application
KR20170099755A (en) Head mount display for walking simulator
US20160232673A1 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
US10429949B2 (en) User interaction apparatus and method
JP6670710B2 (en) Information processing method, information processing apparatus and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200107

Year of fee payment: 5