KR101587263B1 - Sensing device and screen shooting simulation system having thesame - Google Patents
Sensing device and screen shooting simulation system having thesame Download PDFInfo
- Publication number
- KR101587263B1 KR101587263B1 KR1020140071822A KR20140071822A KR101587263B1 KR 101587263 B1 KR101587263 B1 KR 101587263B1 KR 1020140071822 A KR1020140071822 A KR 1020140071822A KR 20140071822 A KR20140071822 A KR 20140071822A KR 101587263 B1 KR101587263 B1 KR 101587263B1
- Authority
- KR
- South Korea
- Prior art keywords
- sensors
- user
- sensing device
- rear end
- recognized
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
발명의 실시에에 따른 센싱장치는 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부; 및 상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부;를 포함한다.According to an embodiment of the present invention, there is provided a sensing device comprising: a coordinate value extracting unit for determining coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of a user and whether or not the plurality of sensor positions contact the sensing device; And an operation analyzing unit for analyzing the operation of the user based on the measurement result of the coordinate value extracting unit.
Description
본 발명은 센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템에 관한 것으로, 보다 자세하게는 사용자의 움직임 정보를 정확하게 분석하여 현실감있는 조작기능을 구현한 센싱장치 및 이를 구비한 스크린 사격 시뮬레이션 시스템에 관한 것이다.
The present invention relates to a sensing device and a screen shooting simulation system having the same, and more particularly, to a sensing device that realizes a realistic operation function by accurately analyzing motion information of a user and a screen shooting simulation system having the sensing device.
최근 가상공간 영상 시뮬레이션을 이용하여 사용자에게 실제 상황과 유사한 느낌을 주는 다양한 시스템들이 이용되고 있다. 예를 들면 1인칭 슈팅 게임, 비행 시뮬레이션 시스템, 운전 시뮬레이션 시스템, 실내 골프 게임 및 스크린 사격 게임 등에서는 사용자의 시각에서 정면으로 보이는 영상을 스크린 등에 보여주고, 이 영상을 제어하여 사용자가 현실에서 움직이는 듯한 몰입감을 느끼도록 하고 있다.Recently, various systems have been used to give users a feeling similar to actual situation by using virtual space image simulation. For example, in a first-person shooter game, a flight simulation system, a driving simulation system, an indoor golf game, and a screen shooting game, a front-view image is displayed on a screen from a user's viewpoint and the user controls the image, So that a feeling of immersion is felt.
초기의 가상체험 장치는 대부분 러닝머신을 개조하여 제자리에서 뛰거나 달릴 수 있도록 만들었는데, 기존의 프로그램된 소스 이미지를 단순히 보여주기만 함으로서 가상공간 이미지가 사용자의 움직임을 반영하지 못하는 문제가 있었다.Most of the early virtual experience devices have been modified so that the treadmill can be modified to run or run in place. By simply showing the original programmed source image, the virtual space image does not reflect the movement of the user.
이런 불편함을 해소하기 위하여 사용자의 방향을 인식할 수 있는 형태의 가상체험 장치들이 등장하였다. 예를 들면 사용자가 벨트를 착용하게 하거나 데이터 장갑을 끼게 하여 걷거나 달리도록 하는 가상체험 장치가 있다.In order to solve this inconvenience, virtual experience devices that can recognize the direction of the user have appeared. For example, there is a virtual experience device that allows a user to wear a belt or wear a data glove to walk or run.
이 경우 사용자가 착용한 벨트나 장갑에 장착된 센서를 이용하여 사용자의 움직임에 따라 가상공간 내의 영상을 갱신한다. 그러나 이와 같은 장치는 사용자에게 벨트나 센서를 장착하게 함으로서 장치의 구성이 복잡해지고, 사용자에게 보조도구를 착용하게 하는 번잡한 작업을 강요하게 된다.In this case, the image in the virtual space is updated according to the movement of the user by using the sensor mounted on the belt or the glove worn by the user. However, such a device causes a complicated configuration of the device by allowing the user to attach a belt or a sensor, thereby imposing a troublesome task of causing the user to wear an auxiliary tool.
한편, 사용자가 두부장착 교시장치(HMD, head-mounted display)를 사용하는 가상체험 장치가 있다. HMD는 보안경이나 헬멧형 기기로서 눈앞에 있는 가상 스크린을 보는 영상 장치이다. 즉 양쪽 눈에 근접한 위치에 액정 등의 소형 디스플레이가 설치되어 시차를 이용한 입체 영상을 투영한다. 이때, 사용자의 머리를 향하고 있는 방향을 자이로 센서 등으로 검출하여 움직임에 대응한 영상을 강조함으로써 3차원 공간에 있는 것 같은 체험이 가능하도록 한다. 그러나 이 경우 역시 사용자는 두부 위치 센서를 머리에 착용해야만 한다.On the other hand, there is a virtual experience apparatus in which a user uses a head-mounted display (HMD). The HMD is a safety goggle or a helmet type device and is a visual device for viewing the virtual screen in front of the user. In other words, a small display such as a liquid crystal is provided at a position close to both eyes to project a stereoscopic image using time difference. At this time, the direction facing the user's head is detected by a gyro sensor or the like, and the image corresponding to the motion is emphasized, so that it is possible to experience the three-dimensional space. In this case, however, the user must also wear a head position sensor on the head.
위와 같은 벨트, 장갑 또는 HMD 등의 장비들은 모두 사용자가 보조 장치를 착용해야만 하는 것으로서, 장치의 사용이 번거롭고 불편하여 가상현실을 자연스럽게 느끼기 어렵다는 문제점이 있었다.
All of the above-mentioned devices such as a belt, a glove, or an HMD are required to wear an accessory device, and the use of the device is cumbersome and inconvenient, making it difficult to feel the virtual reality naturally.
본 발명은 사용자의 발에 센서를 부착하여 다른 보조장치를 착용하지 않고서도 사용자의 동작 변화를 감지하여 방향, 속도 등의 동작을 파악, 분석할 수 있는 센싱장치 및 이를 반영하여 가상공간 이미지를 제공하여 생동감 있는 스크린 사격 시뮬레이션 시스템을 제공하는 것을 목적으로 한다.
The present invention provides a sensing device capable of sensing and analyzing motion, such as direction, speed, etc., by detecting a change in a user's behavior without attaching a sensor to a user's foot and wearing another assistive device, And to provide a lively screen shooting simulation system.
발명의 실시에에 따른 센싱장치는 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부; 및 상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부;를 포함한다.
According to an embodiment of the present invention, there is provided a sensing device comprising: a coordinate value extractor for checking coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of a user and whether or not the plurality of sensor positions are in contact with the sensing device; And an operation analyzing unit for analyzing the operation of the user based on the measurement result of the coordinate value extracting unit.
본 발명은 사용자가 다른 보조장치를 착용하지 않고서도 사용자의 동작 변화를 감지하여 방향, 속도 등의 정보로 분석하여 현장감있는 가상현실을 체험할 수 있다.
The present invention allows a user to experience a realistic virtual reality by detecting a change in a user's behavior without analyzing the information with respect to directions, speeds, etc. without wearing a different auxiliary device.
도 1은 발명의 실시예에 따른 스크린 사격 시뮬레이션 시스템의 일 실시예를 나타내는 도면이다.
도 2는 발명의 실시예에 따른 센싱장치의 동작 센싱 방법을 나타내는 도면이다.
도 3은 발명의 실시예에 따른 센싱장치의 내부 구성도를 나타내는 도면이다.1 is a view showing an embodiment of a screen shooting simulation system according to an embodiment of the present invention.
2 is a diagram illustrating a method of sensing an operation of a sensing device according to an embodiment of the present invention.
3 is a diagram showing an internal configuration of a sensing device according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms can be understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "comprising" or "comprising" and the like should not be construed as encompassing various elements or various steps of the invention, Or may further include additional components or steps.
또한, 본 발명에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.
도 1은 발명의 실시예에 따른 스크린 사격 시뮬레이션 시스템의 일 실시예를 나타내는 도면이다. 도시된 바와 같이, 발명의 실시예에 따른 스크린 사격 시물레이션 시스템은 센싱장치(100), 모형 총기(150), 센서(200), 제어부(300) 및 출력부(400)를 포함한다.1 is a view showing an embodiment of a screen shooting simulation system according to an embodiment of the present invention. The screen shot simulation system according to an embodiment of the present invention includes a
도 1에 도시된 스크린 사격 시뮬레이션 시스템의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 스크린 사격 시뮬레이션 시스템이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 스크린 사격 시뮬레이션 시스템이 구현될 수도 있다.Not all of the components of the screen shooting simulation system shown in Fig. 1 are essential components, and a screen shooting simulation system may be implemented by more components than the components shown in Fig. 1, A screen shot simulation system may be implemented.
센싱장치(100)는 매트 형태일 수 있으며, 실제로 사용자가 제자리 걸음을 하거나 제자리 달리기를 할 수 있는 면적으로 형성된다. 또한 센싱장치(100)는 사용자의 발에 부착된 센서(200)의 위치를 나타내는 좌표값 및 기울기를 측정 및 계산하여 사용자의 동작을 분석할 수 있다. 센싱장치(100)는 센서(200)로부터 신호가 측정된 위치, 압력의 빈도 및 강도변화, 또는 소정시간의 압력 미감지 중에 적어도 하나를 감지할 수 있다.The
제어부(300)는 센싱장치(100)와 연결되고 센싱장치(100)로부터의 동작 분석에 대응하여 출력부(400)의 영상을 제어한다. 예를 들어, 사용자의 동작이 좌측으로 방향전환한 것으로 인식된 경우, 제어부(300)는 출력부(400)에 출력되는 영상을 좌측으로 회전시킨다.The
출력부(400)는 사용자의 시선 전방에 위치할 수 있으며, 영상 출력부 및 음성 출력부를 포함할 수 있다. 또한, 모형 총기(150)로부터 신호를 수신하여 출력부(400)의 대응되는 위치에 점으로 표시할 수 있다.The
출력부(400)는 프로젝션 장치일 수도 있고, 일반적인 컴퓨터 모니터나 게임기의 화면일 수도 있으며, 영상을 출력하는 장치이면 특별히 한정하지 않는다.The
도 1에서는 아바타가 도시되지 않았으나, 게임 환경 및 설정에 따라 아바타가 표현되고 아바타의 시각을 고려하여 영상이 출력될 수 있다. 아바타(avatar)는 일반적으로 가상 공간 시스템에서 사용자의 대용이 되는 캐릭터를 말한다. 따라서, 가상공간 시스템에서는 아바타의 시각에 따라 영상을 출력하게 되며, 아바타의 이동에 따라 상기 영상을 전환하게 된다.Although an avatar is not shown in FIG. 1, an avatar may be represented according to a game environment and a setting, and an image may be output in consideration of an avatar's time. An avatar is a substitute for a user in a virtual space system. Therefore, in the virtual space system, the image is outputted according to the avatar's time, and the image is switched according to the movement of the avatar.
아바타는 일반적으로 가상 공간 시스템에 표현이 되는 경우도 있지만 아바타의 눈을 통해 표현되는 것처럼 가상 공간 시스템에서 표현이 되지 않는 경우도 있다. 어느 경우나 마찬가지로 사용자의 의도에 맞는 아바타의 행동과 이동에 따라 출력 영상이 표시된다.An avatar is sometimes represented in a virtual space system but may not be represented in a virtual space system as represented through an avatar's eyes. In either case, the output image is displayed according to the behavior and movement of the avatar according to the user's intention.
도 2는 발명의 실시예에 따른 센싱장치의 동작 센싱 방법을 나타내는 도면이다. 도시된 바와 같이, 두 개의 좌측센서(211, 212)가 왼발에, 두 개의 우측센서(221, 222)가 오른발에 배치된다. 센서(200)는 압전 센서, 무게 센서 압전 스위치 등의 눌림을 인식하여 전기적 신호로 변환 가능한 수단이 사용될 수 있다.2 is a diagram illustrating a method of sensing an operation of a sensing device according to an embodiment of the present invention. As shown, two
좌측센서(211, 212)는 좌측 전단 센서(211) 및 좌측 후단 센서(212)를 포함할 수 있다. 또한 우측센서(221, 222)는 우측 전단 센서(221) 및 우측 후단 센서(222)를 포함할 수 있다.The
각각의 전단 센서는 상대적으로 발의 앞쪽에 부착되고 후단 센서는 발의 뒤쪽에 부착된다. 실시예에서는 각각 두 개의 센서가 사용되었으나 보다 정밀한 동작 측정을 위해 세 개 이상의 센서가 사용될 수도 있다.Each front-end sensor is attached to the front of the foot relatively and the rear-end sensor is attached to the back of the foot. Although two sensors are used in each embodiment, three or more sensors may be used for more accurate operation measurement.
좌측 이동 축(213)은 좌측 전단 센서(211) 및 좌측 후단 센서(212)를 잇는 축이고, 우측 이동 축(223)은 우측 전단 센서(221) 및 우측 후단 센서(222)를 잇는 축이다.The
걷기 동작은 사용자가 센싱장치(100) 위를 제자리에서 걷는 동작을 의미하며, 이에 따라 좌측센서(211, 212) 및 우측센서(221, 222)가 센싱장치(100)의 표면과 교대로 접하고 이격되는 과정이 반복된다. 이동하는 방향은 양 발의 후단 센서(212, 222)를 기준으로 양 발의 앞쪽에 위치한 전단 센서(211, 221)를 향한 방향이다.The walking action means that the user is walking on the
센싱장치(100)는 좌측센서(211, 212) 및 우측센서(221, 222)가 센싱장치(100)의 표면에서 교대로 접하는 경우 사용자가 센싱장치(100) 위를 걷는 동작으로 인식하여 이를 제어부(300)로 전달하고, 제어부(300)는 출력부(400)의 영상 신호를 걷는 속도에 대응하여 화면이 전환되도록 제어할 수 있다.The
뛰기 동작은 걷기 동작과 센서의 인식 과정은 동일하나, 동작의 반복 속도가 미리 정해진 기준 이상인 경우, 사용자가 해당 방향으로 뛰고 있는 것으로 인식할 수 있다.The walking operation is the same as the walking operation and the sensor recognition process, but when the repetition rate of the operation is higher than a predetermined reference, the user can recognize that the user is jumping in the corresponding direction.
방향전환 동작은 이동 축 방향을 기준으로 인식될 수 있다. 구체적으로 사용자가 좌측으로 방향전환 하고자 하는 경우, 두 개의 우측센서(221, 222) 및 왼발(210)의 좌측 후단 센서(212)를 고정한 상태에서 좌측 전단 센서(211)를 시계 반대 방향으로 회전시킨다. 이에 따라 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 증가하게 되고, 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 미리 정해진 값 이상의 각도, 예를 들어, 20°이상 80°이하를 유지하는 시간 동안 좌측으로 방향전환하는 것으로 인식하도록 설정될 수 있다.The direction switching operation can be recognized based on the movement axis direction. Specifically, when the user desires to change the direction to the left, the left
이에 따라 출력부(400)의 화면이 일정한 속도로 좌측으로 회전하고, 사용자가 원하는 시점까지 방향전환한 후, 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 센싱장치(100)에서 미리 정해진 값 이하로 인식되도록 발의 위치를 변경시키면 출력부(400)에 표시되는 화면의 회전이 정지될 수 있다. 이는 우측으로 방향전환하는 경우에도 마찬가지로 적용될 수 있다.The screen of the
또는 사용자가 오른발(220)은 고정한 상태에서 왼발(210)을 센싱장치(100)로부터 이격시키는 동작과 접하게 하는 동작을 반복하는 경우에 왼쪽으로 방향전환 하는 것으로 인식될 수도 있다. 이는 우측으로 방향전환하는 경우에도 마찬가지로 적용될 수 있다.Or the user may be perceived to turn to the left when repeating the operation of contacting the
또는 센싱장치(100)의 가로축(x축)과 세로축(y축)을 기준으로 우측 이동 축(223)과 좌측 이동 축(213)의 각도에 대응하여 방향 전환을 인식할 수 있다. 구체적으로 사용자가 좌측으로 방향전환 하고자 하는 경우, 오른발(220)과 왼발(210)을 센싱장치(100)의 가로축(x축)과 세로축(y축)을 기준으로 좌측을 향하도록 걷거나 뛰는 동안에는 화면이 우측 이동 축(223)과 좌측 이동 축(213)의 각도만큼 좌측으로 회전될 수 있다. 그리고 사용자가 다시 출력부(400)를 정면으로 바라보고 걷게 되면 방향전환이 종료한 것으로 인식될 수 있다. 이는 우측으로 방향전환하는 경우에도 마찬가지로 적용될 수 있다.The direction switching can be recognized corresponding to the angles of the
사용자가 제자리에서 점프하는 경우, 모든 센서(200)가 미리 정해진 시간 이상 센싱장치(100)로부터 이격되므로 이를 점프 동작으로 인식할 수 있다. 이 경우 제어부(300)는 출력부(400)의 영상을 걷는 동작에 비해 점프 동작이 유지되는 동안 일정 각도 위에서 내려다보는 전망으로 제어할 수 있다.When the user jumps in place, all the
또한 왼발(210) 또는 오른발(220)로 장애물을 넘는 동작의 인식이 가능하다. 구체적으로, 사용자가 오른발(220)로 장애물을 넘는 경우는 왼발(210)을 축으로 사용하고 오른발(220)로 장애물을 넘는 것으로 좌측센서(211, 212) 중 하나 이상의 좌표가 인식되며 우측센서(221, 222)가 모두 센싱장치(100)의 좌표 상에서 인식되지 않은 후, 좌측센서(211, 212)도 모두 센싱장치(100)의 좌표 상에서 인식되지 않으면 사용자가 점프를 하는 것으로, 양 발이 모두 센싱장치(100)와 이격되어 있는 상태이며 이후 센서(200)가 감지되면 사용자가 착지한 것으로 판단한다. 이는 오른발(220)을 축으로 사용하여 왼발(210)로 장애물을 넘는 경우에도 마찬가지로 적용될 수 있다.It is also possible to recognize the movement of the
또한 상기에서 기술한 동작 이외의 특수 동작으로, 앉은 자세 유지, 앉은 자세로 이동하기, 포복 자세 유지, 포복 자세로 이동하기 등의 동작을 인식할 수 있다.In addition, by the special operation other than the above-described operations, it is possible to recognize operations such as maintaining a sitting posture, moving to a sitting posture, maintaining a crawling posture, and moving to a crawling posture.
구체적으로, 앉은 자세 유지는 양쪽 발의 뒤꿈치를 동시에 들어올리는 것으로 인식될 수 있으며, 이에 따라 좌측 후단 센서(212) 및 우측 후단 센서(222)는 센싱장치(100)에서 인식되지 않으며 좌측 전단 센서(211) 및 우측 전단 센서(221)만이 센싱장치(100)에 인식되고, 출력부(400)에는 정지된 영상이 걷기 또는 뛰기에 비해 낮은 시점에서 제공될 수 있다.The left
또한, 앉은 자세로 이동하기는 양쪽 발의 뒤꿈치를 동시에 들어올린 상태에서 앞꿈치 만으로 이동하는 것으로, 좌측 후단 센서(212) 및 우측 후단 센서(222)는 센싱장치(100)에서 인식되지 않으며 좌측 전단 센서(211) 및 우측 전단 센서(221)만이 교대로 센싱장치(100)에 인식된다. 이에 따라 출력부(400)에는 이동하는 영상이 걷기 또는 뛰기에 비해 낮은 시점에서 제공될 수 있다.The left
또한, 포복 자세 유지는 오른발(220)과 왼발(210)의 각도, 즉 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 미리 정해진 각도, 예를 들어 80°를 초과하는 경우 사용자가 포복 자세를 유지하는 것으로 인식하여 출력부(400)에는 정지된 영상이 앉은 자세에 비해 더 낮은 시점에서 제공될 수 있다.In addition, when the angle between the
또한, 포복 자세로 이동하기는 오른발(220)과 왼발(210)의 각도, 즉 우측 이동 축(223)과 좌측 이동 축(213)의 각도가 미리 정해진 각도, 예를 들어 80°를 초과하는 상태에서 이동하는 것으로, 오른발(220) 및 왼발(210)이 센싱장치(100)에 교대로 인식되어, 출력부(400)에는 이동하는 영상이 앉은 자세에 비해 더 낮은 시점에서 제공될 수 있다.Movement to the crawling posture is performed when the angle between the
도 3은 발명의 실시예에 따른 센싱장치의 내부 구성도를 나타내는 도면이다. 도시된 바와 같이, 발명의 실시예에 따른 센싱장치(100)는 좌표값 추출부(110), 기울기 측정부(120), 동작 분석부(130) 및 저장부(140)를 포함할 수 있다.3 is a diagram showing an internal configuration of a sensing device according to an embodiment of the present invention. The
좌표값 추출부(110)는 사용자의 발에 부착되는 센서(200)가 센싱장치(100)의 표면에 접한 위치의 좌표값을 추출한다. 좌표값 추출부(110)는 주기적으로 센서(200)의 위치 및 측정 여부를 감지할 수 있다.The coordinate
즉, 사용자의 동작에 의해 하나 이상의 센서의 위치가 측정되지 않는 경우, 위치가 측정되지 않는 센서는 센싱장치(100)로부터 이격되어 있는 것으로 판단할 수 있다.That is, when the position of one or more sensors is not measured by the user's operation, the sensor whose position is not measured may be determined to be spaced from the
기울기 측정부(120)는 좌측 전단 센서(211) 및 좌측 후단 센서(212)를 잇는 좌측 이동 축(213)과, 우측 전단 센서(221) 및 우측 후단 센서(222)를 잇는 우측 이동 축(223)의 각도를 계산한다.The
즉, 좌측 이동 축(213) 및 우측 이동 축(223)이 센싱장치(100)의 가로축과 이루는 각도뿐만 아니라, 좌측 이동 축(213) 및 우측 이동 축(223) 간의 각도를 계산한다. 우측 이동 축(223)과 좌측 이동 축(213)의 각도는 후단 센서 및 전단 센서의 위치를 고려하여 측정될 수 있다.That is, the angle between the
동작 분석부(130)는 좌표값 추출부(110) 및 기울기 측정부(120)에서 측정한 결과를 바탕으로 사용자의 동작을 분석하고, 그 결과를 제어부(300)로 전송할 수 있다.The
저장부(140)는 설정에 따라 특정 동작으로 인식되기 위한 좌표값 추출부(110) 및 기울기 측정부(120)에서 측정한 값을 저장할 수 있다.The
전술한 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100: 센싱장치
110: 좌표값 추출부
120: 기울기 측정부
130: 동작 분석부
140: 저장부
150: 모형 총기
200: 센서
300: 제어부
400: 출력부100: sensing device
110: Coordinate value extraction unit
120: tilt measuring unit
130:
140:
150: Model firearm
200: Sensor
300:
400: Output section
Claims (7)
상기 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부;
상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부; 및
상기 사용자의 양 발의 각각 앞뒤쪽에 부착되는 복수의 센서를 잇는 축의 기울기를 측정하는 기울기 측정부;를 포함하고,
상기 복수의 센서는 양 발의 앞쪽에 각각 부착되는 좌측 및 우측 전단 센서와 양 발의 뒤쪽에 각각 부착되는 좌측 및 우측 후단 센서를 포함하고,
상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 인식되는 경우 '앉은 자세 유지'로 인식하고, 상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 교대로 인식되는 경우 '앉은 자세로 이동하기'로 인식하는 것을 특징으로 하는 센싱장치.
A sensing device for detecting motion information of a user,
Coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of the user and a coordinate value extracting unit for checking whether the plurality of sensor positions and the sensing device are in contact with each other;
An operation analyzer for analyzing an operation of a user on the basis of a result measured by the coordinate value extracting unit; And
And a tilt measuring unit for measuring a tilt of an axis connecting a plurality of sensors attached to the front and back sides of each of the two feet of the user,
Wherein the plurality of sensors include left and right front end sensors respectively attached to the front of both feet and left and right rear end sensors respectively attached to the back of both feet,
If the left and right rear end sensors are not recognized and the left and right rear end sensors are not recognized, then the left and right rear end sensors are recognized. If the left and right rear end sensors are not recognized, The control unit recognizes the " move to a sitting posture "
상기 기울기 측정부는 왼발의 앞뒤쪽에 부착된 센서를 연결하는 좌측 이동 축과 오른발의 앞뒤쪽에 부착된 센서를 연결하는 우측 이동 축이 상기 센싱장치의 가로축과 이루는 각도 및 상기 좌측 이동 축과 우측 이동 축 사이의 각도를 계산하는 것을 특징으로 하는 센싱장치.
The method according to claim 1,
The inclination measuring unit may include an inclination measuring unit for measuring an angle between a left movement axis connecting sensors attached to the front and back sides of the left foot and a right movement axis connecting sensors attached to front and back sides of the right foot with the horizontal axis of the sensing apparatus, The angle of the sensor is calculated.
상기 좌표값 추출부는 주기적으로 상기 센서의 위치를 감지하는 것을 특징으로 하는 센싱장치.
The method according to claim 1,
Wherein the coordinate value extractor periodically senses the position of the sensor.
상기 센싱장치의 출력에 대응하는 사용자의 이동정보 신호에 따라 출력 영상을 제어하는 제어부; 및
상기 출력 영상을 출력하는 출력부;를 포함하고,
상기 센싱장치는,
상기 사용자의 양 발의 앞뒤쪽에 각각 부착되는 복수의 센서 위치의 좌표값 및 상기 복수의 센서 위치와 상기 센싱장치의 접촉여부를 확인하는 좌표값 추출부;
상기 좌표값 추출부에서 측정한 결과를 바탕으로 사용자의 동작을 분석하는 동작 분석부; 및
상기 사용자의 양 발의 각각 앞뒤쪽에 부착되는 복수의 센서를 잇는 축의 기울기를 측정하는 기울기 측정부;를 포함하고,
상기 복수의 센서는 양 발의 앞쪽에 각각 부착되는 좌측 및 우측 전단 센서와 양 발의 뒤쪽에 각각 부착되는 좌측 및 우측 후단 센서를 포함하고,
상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 인식되는 경우 '앉은 자세 유지'로 인식하고, 상기 좌측 및 우측 후단 센서가 인식되지 않은 상태에서 상기 좌측 및 우측 전단 센서만이 교대로 인식되는 경우 '앉은 자세로 이동하기'로 인식하는 것을 특징으로 하는 스크린 사격 시뮬레이션 시스템.
Sensing device in the form of a mat;
A control unit for controlling an output image according to a movement information signal of a user corresponding to an output of the sensing device; And
And an output unit for outputting the output image,
The sensing device includes:
Coordinate values of a plurality of sensor positions respectively attached to front and back sides of both feet of the user and a coordinate value extracting unit for checking whether the plurality of sensor positions and the sensing device are in contact with each other;
An operation analyzer for analyzing an operation of a user on the basis of a result measured by the coordinate value extracting unit; And
And a tilt measuring unit for measuring a tilt of an axis connecting a plurality of sensors attached to the front and back sides of each of the two feet of the user,
Wherein the plurality of sensors include left and right front end sensors respectively attached to the front of both feet and left and right rear end sensors respectively attached to the back of both feet,
If the left and right rear end sensors are not recognized and the left and right rear end sensors are not recognized, then the left and right rear end sensors are recognized. If the left and right rear end sensors are not recognized, Is recognized as " moving to a sitting posture "
상기 기울기 측정부는 왼발의 앞뒤쪽에 부착된 센서를 연결하는 좌측 이동 축과 오른발의 앞뒤쪽에 부착된 센서를 연결하는 우측 이동 축이 상기 센싱장치의 가로축과 이루는 각도 및 상기 좌측 이동 축과 우측 이동 축 사이의 각도를 계산하는 것을 특징으로 하는 스크린 사격 시뮬레이션 시스템.6. The method of claim 5,
The inclination measuring unit may include an inclination measuring unit for measuring an angle between a left movement axis connecting sensors attached to the front and back sides of the left foot and a right movement axis connecting sensors attached to front and back sides of the right foot with the horizontal axis of the sensing apparatus, Wherein the angle of the screen shot is calculated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140071822A KR101587263B1 (en) | 2014-06-13 | 2014-06-13 | Sensing device and screen shooting simulation system having thesame |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140071822A KR101587263B1 (en) | 2014-06-13 | 2014-06-13 | Sensing device and screen shooting simulation system having thesame |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150142991A KR20150142991A (en) | 2015-12-23 |
KR101587263B1 true KR101587263B1 (en) | 2016-01-20 |
Family
ID=55082245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140071822A KR101587263B1 (en) | 2014-06-13 | 2014-06-13 | Sensing device and screen shooting simulation system having thesame |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101587263B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12045397B2 (en) | 2022-06-10 | 2024-07-23 | Sony Interactive Entertainment Inc. | Single sphere foot operated position-based controller |
US11567609B1 (en) * | 2022-06-10 | 2023-01-31 | Sony Interactive Entertainment Inc. | Foot operated position-based touchpad controller |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011253539A (en) * | 2010-06-02 | 2011-12-15 | Sony Computer Entertainment Inc | Input for computer device using computer vision based on pattern |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101009946B1 (en) * | 2008-06-26 | 2011-01-20 | 시사게임 주식회사 | Bodily sensation type game apparatus and the method using the same |
-
2014
- 2014-06-13 KR KR1020140071822A patent/KR101587263B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011253539A (en) * | 2010-06-02 | 2011-12-15 | Sony Computer Entertainment Inc | Input for computer device using computer vision based on pattern |
Also Published As
Publication number | Publication date |
---|---|
KR20150142991A (en) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6401841B1 (en) | Information processing method, computer, and program | |
CN103480154B (en) | Barrier circumvention device and barrier bypassing method | |
CN106796452B (en) | Head-mounted display apparatus and its control method, computer-readable medium | |
KR101666096B1 (en) | System and method for enhanced gesture-based interaction | |
KR101695365B1 (en) | Treadmill motion tracking device possible omnidirectional awarenessand move | |
JP2019516174A (en) | Head mounted display tracking | |
JP2021523432A (en) | Power management for optical position tracking devices | |
TWI659221B (en) | Tracking system, tracking device and tracking method | |
WO2017021902A1 (en) | System and method for gesture based measurement of virtual reality space | |
US10668372B2 (en) | Information processing apparatus, information processing method, and program | |
CN109240487B (en) | Immersive system, control method, and non-transitory computer readable medium | |
KR101811809B1 (en) | Arcade game system by 3D HMD | |
US11501552B2 (en) | Control apparatus, information processing system, control method, and program | |
CN108021227B (en) | Method for rapidly moving in virtual reality and virtual reality device | |
WO2018143732A1 (en) | Game control device and virtual reality game system including same | |
CN115129164B (en) | Interaction control method and system based on virtual reality and virtual reality equipment | |
JP3847634B2 (en) | Virtual space simulation device | |
KR101587263B1 (en) | Sensing device and screen shooting simulation system having thesame | |
JP2021009673A (en) | Virtual reality system, program, and computer-readable storage medium | |
KR101766226B1 (en) | Game Simulator | |
TW202022569A (en) | Gaming standing stage for vr application | |
KR20170099755A (en) | Head mount display for walking simulator | |
US20160232673A1 (en) | Information processing device, storage medium storing information processing program, information processing system, and information processing method | |
US10429949B2 (en) | User interaction apparatus and method | |
JP6670710B2 (en) | Information processing method, information processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20190114 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20200107 Year of fee payment: 5 |