KR101909791B1 - Data processing apparatus and method - Google Patents

Data processing apparatus and method Download PDF

Info

Publication number
KR101909791B1
KR101909791B1 KR1020160179284A KR20160179284A KR101909791B1 KR 101909791 B1 KR101909791 B1 KR 101909791B1 KR 1020160179284 A KR1020160179284 A KR 1020160179284A KR 20160179284 A KR20160179284 A KR 20160179284A KR 101909791 B1 KR101909791 B1 KR 101909791B1
Authority
KR
South Korea
Prior art keywords
user
pressure
graphic object
feet
operation mode
Prior art date
Application number
KR1020160179284A
Other languages
Korean (ko)
Other versions
KR20180075205A (en
Inventor
송윤석
전상훈
김진홍
Original Assignee
주식회사 티엘아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 티엘아이 filed Critical 주식회사 티엘아이
Priority to KR1020160179284A priority Critical patent/KR101909791B1/en
Publication of KR20180075205A publication Critical patent/KR20180075205A/en
Application granted granted Critical
Publication of KR101909791B1 publication Critical patent/KR101909791B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

페어링된 보행 보조 장치로부터 로우 데이터를 입력 받고, 렌더링된 그래픽 오브젝트를 포함하는 화면을 제공하는 사용자 단말이 제공된다. 상기 사용자 단말은 사용자에 관한 위치 별 압력 정보를 포함하는 로우 데이터를 입력 받는 경우, 상기 로우 데이터로부터 복수 개의 센싱 위치에 기반한 압력 이동 및 압력 분포 중 적어도 하나를 계산하는 계산부 및 상기 계산된 압력 이동 및 압력 분포에 대응하는 그래픽 오브젝트를 렌더링하여 출력하는 영상 처리부를 포함할 수 있다.There is provided a user terminal for receiving low data from a paired walking aid and providing a screen including a rendered graphic object. Wherein the user terminal comprises: a calculation unit for calculating at least one of a pressure movement and a pressure distribution based on a plurality of sensing positions from the row data, when receiving raw data including positional pressure information regarding a user; And an image processing unit for rendering and outputting a graphic object corresponding to the pressure distribution.

Description

데이터 처리 장치 및 방법{DATA PROCESSING APPARATUS AND METHOD}DATA PROCESSING APPARATUS AND METHOD BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

데이터 처리 장치 및 방법에 연관되며, 보다 구체적으로는 사용자의 보행 정보에 대응하는 그래픽 오브젝트를 출력하거나 페어링된 단말이 사용자와의 인터렉션(interaction)을 구현하도록 지원하는 데이터 처리 장치 및 방법에 연관된다.The present invention relates to a data processing apparatus and method, and more particularly to a data processing apparatus and method for outputting a graphic object corresponding to walking information of a user or supporting a paired terminal to implement an interaction with a user.

증강 현실(AR: Augmented Reality)이란, 실제 현실의 이미지나 배경에 가상의 이미지를 렌더링하여 하나의 영상으로 보여주는 기술이다. 증강 현실 기술은 오늘날 복수의 영역에서 널리 이용되고 있는 웨어러블 기기(wearable device)와의 결합에 기초하여 다양한 기능을 사용자에게 제공하고 있다.Augmented Reality (AR) is a technology that renders a virtual image on a realistic image or background and displays it as a single image. Augmented reality technologies provide users with various functions based on their combination with wearable devices that are widely used today in multiple domains.

예시적으로, 증강 현실을 제공하는 전자책에서는 진행되는 스토리에 대응하는 3D 이미지나 영상을 사용자에게 제공하고, 사용자는 보다 높은 몰입감을 만끽할 수 있다. 또한, GPS(Global Positioning System) 정보와의 결합을 통해 특정 위치에 존재하는 몬스터를 포획하고 훈련시켜 다른 사용자와 대전하는 게임은 전 세계적으로 선풍적인 인기를 끌었다.Illustratively, in an e-book providing an augmented reality, a 3D image or an image corresponding to an ongoing story is provided to the user, and the user can enjoy a higher immersion feeling. In addition, the game that catches and trains monsters existing in a specific position through a combination with GPS (Global Positioning System) information and plays against other users has attracted worldwide attention.

KR 10-2016-0118859KR 10-2016-0118859 KR 10-1546654KR 10-1546654

일측에 따르면, 측정된 압력값 및 움직임 정보들을 페어링된 사용자 단말로 전송하는 보행 보조 장치가 제공된다. 상기 보행 보조 장치는 사용자의 양 발의 각각의 부위에 대응하는 복수의 위치에 배치되어 상기 사용자의 앙 발의 압력에 관한 제1 로우 데이터를 획득하는 제1 센싱부, 상기 양 발 각각에 대응하는 움직임 정보에 관한 제2 로우 데이터를 획득하는 제2 센싱부 및 페어링된 사용자 단말로 상기 제1 로우 데이터 및 상기 제2 로우 데이터 중 적어도 하나를 전송하여 상기 사용자 단말이 연관되는 프로그램과의 인터랙션(interaction)을 수행하도록 제어하는 통신부를 포함할 수 있다.According to one aspect, there is provided a walking assistance device for transmitting measured pressure values and motion information to a paired user terminal. The walking assist device includes a first sensing unit disposed at a plurality of positions corresponding to respective portions of both feet of the user and acquiring first row data relating to the pressure of the user's foot, A second sensing unit for acquiring second row data related to the first row data and at least one of the first row data and the second row data to the paired user terminal to transmit an interaction with the program to which the user terminal is related And a communication unit for controlling the communication unit to perform the communication.

일실시예에 따르면, 상기 제1 센싱부는 복수의 압력 센서로 구현되고, 상기 제2 센싱부는 복수의 관성 센서로 구현될 수 있다.According to an embodiment, the first sensing unit may be implemented by a plurality of pressure sensors, and the second sensing unit may be implemented by a plurality of inertial sensors.

다른 일실시예에 따르면, 상기 보행 보조 장치는 상기 제1 로우 데이터를 이용하여 상기 사용자의 부위별 압력의 변화량에 기초하여 양 발 중 동작 모드를 결정하는 어느 하나의 발을 선택하는 프로세서를 더 포함할 수 있다.According to another embodiment, the walking assist device further includes a processor for selecting one of the feet that determines the operation mode of both feet based on the amount of change in the pressure of the user's part using the first row data can do.

또 다른 일실시예에 따르면, 상기 프로세서는 상기 동작 모드를 결정하도록 선택된 어느 하나의 발에 관한 식별값을 생성하고, 상기 통신부는 상기 식별값을 상기 페어링된 사용자 단말로 전송할 수 있다.According to yet another embodiment, the processor generates an identification value for any one foot selected to determine the operation mode, and the communication unit can transmit the identification value to the paired user terminal.

또 다른 일실시예에 따르면, 상기 프로세서는 상기 제2 로우 데이터를 이용하여 상기 사용자의 보폭 및 스탠스에 대응하는 움직임을 계산하고, 상기 통신부는 상기 움직임을 나타내는 식별값을 상기 페어링된 사용자 단말로 전송할 수 있다.According to yet another embodiment, the processor calculates movement corresponding to the stride and stance of the user using the second row data, and the communication unit transmits an identification value indicating the movement to the paired user terminal .

다른 일측에 따르면, 페어링된 보행 보조 장치로부터 로우 데이터를 입력 받고, 렌더링된 그래픽 오브젝트를 포함하는 화면을 제공하는 사용자 단말이 제공된다. 상기 사용자 단말은 사용자에 관한 위치 별 압력 정보를 포함하는 로우 데이터를 입력 받는 경우, 상기 로우 데이터로부터 복수 개의 센싱 위치에 기반한 압력 이동 및 압력 분포 중 적어도 하나를 계산하는 계산부 및 상기 계산된 압력 이동 및 압력 분포에 대응하는 그래픽 오브젝트를 렌더링하여 출력하는 영상 처리부를 포함할 수 있다.According to another aspect there is provided a user terminal for receiving raw data from a paired walking aids and providing a screen containing rendered graphic objects. Wherein the user terminal comprises: a calculation unit for calculating at least one of a pressure movement and a pressure distribution based on a plurality of sensing positions from the row data, when receiving raw data including positional pressure information regarding a user; And an image processing unit for rendering and outputting a graphic object corresponding to the pressure distribution.

일실시예에 따르면, 상기 사용자 단말은 복수의 압력 센서를 서로 다른 위치에 포함하는 보행 보조 장치와 페어링되고, 상기 사용자의 발에 관한 부위별 압력 및 상기 부위별 압력의 변화량을 상기 로우 데이터로서 수신하는 통신부를 더 포함할 수 있다. 보다 구체적으로, 상기 계산부는 상기 부위별 압력의 변화량에 기초하여 양 발 중 동작 모드를 결정하기 위한 어느 하나의 발을 선택하는 것을 특징으로 할 수 있다.According to one embodiment, the user terminal is paired with a walking aid device including a plurality of pressure sensors at different positions, and receives the pressure of each part and the amount of pressure of each part of the user as the raw data And a communication unit. More specifically, the calculation unit may select any one of the feet for determining the operation mode of both feet based on the amount of change in the pressure of each site.

다른 일실시예에 따르면, 상기 계산부는 상기 부위별 압력의 변화량의 합이 미리 지정된 임계치 이상이 되는지 여부에 따라, 양 발 중 상기 임계치를 먼저 초과하는 어느 하나의 발을 선택할 수 있다.According to another embodiment, the calculation unit may select any one of the feet that exceeds the threshold value of the both of the feet in advance, depending on whether or not the sum of the amounts of change in pressure of the respective regions is equal to or greater than a predetermined threshold value.

또 다른 일실시예에 따르면, 상기 사용자의 오른발이 동작 모드를 결정하도록 선택된 경우, 상기 영상 처리부는 상기 오른발에 대응하는 제1 동작 모드에 대한 제1 그래픽 오브젝트를 렌더링하여 출력하고, 상기 사용자의 왼 발이 동작 모드를 결정하도록 선택한 경우, 상기 영상 처리부는 상기 왼 발에 대응하는 제2 동작 모드에 대한 제2 그래픽 오브젝트를 렌더링하여 출력할 수 있다.According to another embodiment, when the right foot of the user is selected to determine an operation mode, the image processing unit may render and output a first graphic object for a first operation mode corresponding to the right foot, When the foot is selected to determine the operation mode, the image processing unit may render and output the second graphic object for the second operation mode corresponding to the left foot.

또 다른 일실시예에 따르면, 상기 영상 처리부는 상기 제1 동작 모드가 선택된 경우에 증강현실 기반의 화면 내의 차체(vehicle)가 이동하는 제1 그래픽 오브젝트를 생성하고, 상기 제2 동작 모드가 선택된 경우에 상기 차체가 정지하는 제2 그래픽 오브젝트를 생성할 수 있다.According to another embodiment, the image processing unit generates a first graphic object in which a vehicle in augmented reality-based screen moves when the first operation mode is selected, and when the second operation mode is selected The second graphic object in which the vehicle body is stopped can be generated.

또 다른 일실시예에 따르면, 상기 통신부는 상기 사용자의 양 발 각각에 배치된 관성 센서를 포함하는 상기 보행 보조 장치와 페어링되고, 상기 사용자의 양 발 각각에 관한 보폭 및 스탠스를 상기 로우 데이터로서 수신할 수 있다. 보다 구체적으로, 상기 영상 처리부는 상기 양 발 각각에 관한 보폭 및 스탠스에 대응하는 움직임(movement)이 반영된 상기 그래픽 오브젝트를 생성할 수 있다.According to another embodiment of the present invention, the communication unit is paired with the walking aid device including the inertial sensor disposed at each of the two feet of the user, and receives the stride and the stance about each of the two feet of the user as the raw data can do. More specifically, the image processing unit may generate the graphic object in which the movement corresponding to the stride and the stance related to each foot is reflected.

또 다른 일측에 따르면, 증강 현실 제공 방법이 제공된다. 상기 증강 현실 제공 방법은 페어링(pairing)된 보행 보조 장치로부터 사용자에 관한 로우 데이터(raw data)를 수신하는 단계, 상기 로우 데이터로부터 상기 사용자에 관한 압력 이동 및 압력 분포 중 적어도 하나를 계산하는 단계, 상기 계산된 결과에 상응하는 그래픽 오브젝트를 생성하는 단계 및 상기 생성된 그래픽 오브젝트를 이용하여 생성된 증강현실(AR: Augmented Reality) 기반의 화면(screen)을 상기 사용자에게 출력하는 단계를 포함할 수 있다.According to another aspect, a method of providing an augmented reality is provided. Wherein the augmented reality providing method comprises receiving raw data relating to a user from a paired walking aids device, calculating at least one of a pressure movement and a pressure distribution with respect to the user from the raw data, Generating a graphic object corresponding to the calculated result, and outputting an augmented reality (AR) -based screen generated using the generated graphic object to the user .

또 다른 일측에 따르면, 페어링된 보행 보조 장치로부터 로우 데이터를 입력 받고, 입력된 로우 데이터에 상응하는 인터랙션(interaction)을 실행 중인 프로그램 상에서 구현하는 사용자 단말이 제공된다. 상기 사용자 단말은 사용자에 관한 위치 별 압력 정보를 포함하는 로우 데이터를 입력 받는 경우, 상기 로우 데이터로부터 복수 개의 센싱 위치에 기반한 압력 이동 및 압력 분포 중 적어도 하나를 계산하는 계산부 및 상기 계산된 압력 이동 및 압력 분포에 대응하는 커맨드 신호를 생성하여 연관되는 프로그램과의 인터랙션을 수행하는 데이터 처리부를 포함할 수 있다.According to another aspect of the present invention, there is provided a user terminal for receiving low data from a paired walking aiding device and implementing the interaction on a running program corresponding to input raw data. Wherein the user terminal comprises: a calculation unit for calculating at least one of a pressure movement and a pressure distribution based on a plurality of sensing positions from the row data, when receiving raw data including positional pressure information regarding a user; And a data processor for generating a command signal corresponding to the pressure distribution and performing an interaction with the associated program.

일실시예에 따르면, 상기 데이터 처리부는 상기 프로그램에 미리 저장된 복수의 상태값에 기초하여 생성된 커맨드 신호에 대응하는 어느 하나의 인터랙션을 결정하는 것을 특징으로 할 수 있다.According to an embodiment, the data processing unit may determine any one of the interactions corresponding to the command signal generated based on the plurality of state values stored in advance in the program.

다른 일실시예에 따르면, 상기 복수의 상태값은 상기 프로그램과 연관되어 사용자에게 출력되는 복수의 그래픽 오브젝트의 미리 정의된 움직임에 각각 연관되는 것을 특징으로 할 수 있다.According to another embodiment, the plurality of status values are each associated with a predefined motion of a plurality of graphic objects output to the user in association with the program.

도 1은 일실시예에 따른 보행 보조 장치의 블록도이다.
도 2a 내지 도 2d는 보행 보조 장치에 의해 획득되는 로우 데이터에 관한 예시도이다.
도 3은 보행 보조 장치에 의해 획득되는 다른 로우 데이터에 관한 예시도이다.
도 4a는 일실시예에 따른 사용자 단말의 블록도이다.
도 4b는 다른 일실시예에 따른 사용자 단말의 블록도이다.
도 5는 일실시예에 따른 증강 현실 제공 방법에 관한 흐름도이다.
도 6a 및 도 6b는 일실시예에 따라 사용자에게 제공되는 증강 현실에 관한 예시도이다.
1 is a block diagram of a walking assistance apparatus according to an embodiment.
Figs. 2A to 2D are exemplary diagrams of raw data obtained by the walking aid. Fig.
Fig. 3 is an example of another row data obtained by the walking aid; Fig.
4A is a block diagram of a user terminal according to one embodiment.
4B is a block diagram of a user terminal according to another embodiment.
5 is a flowchart of an augmented reality providing method according to an embodiment.
6A and 6B are exemplary views of an augmented reality provided to a user according to an embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of embodiments are set forth for illustration purposes only and may be embodied with various changes and modifications. Accordingly, the embodiments are not intended to be limited to the specific forms disclosed, and the scope of the disclosure includes changes, equivalents, or alternatives included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first or second, etc. may be used to describe various elements, but such terms should be interpreted solely for the purpose of distinguishing one element from another. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected or connected to the other element, although other elements may be present in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises ", or" having ", and the like, are used to specify one or more of the features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and a duplicate description thereof will be omitted.

도 1은 일실시예에 따른 보행 보조 장치의 블록도이다. 도 1을 참조하면, 보행 보조 장치(100)는 제1 센싱부(110), 제2 센싱부(120) 및 통신부(130)를 포함할 수 있다. 보행 보조 장치(100)는 사용자의 보행 정보를 분석할 수 있다. 일실시예로서, 보행 보조 장치(100)는 사용자에 부착되는 웨어러블 기기로 구현될 수 있다. 이를테면, 보행 보조 장치(100)는 사용자가 착용하는 스마트 신발 또는 신발에 삽입되는 깔창, 안창(insole)의 형태로 구현될 수 있다.1 is a block diagram of a walking assistance apparatus according to an embodiment. Referring to FIG. 1, the walking assistance apparatus 100 may include a first sensing unit 110, a second sensing unit 120, and a communication unit 130. The walking aiding device 100 can analyze the walking information of the user. In one embodiment, the walking aiding device 100 may be implemented as a wearable device attached to a user. For example, the walking aid device 100 may be implemented in the form of an insole, an insole, or the like, which is inserted into smart shoes or shoes to be worn by a user.

보행 보조 장치(100)는 제1 센싱부(110) 및 제2 센싱부(120)로부터 사용자의 보행에 관한 다양한 형태의 로우 데이터를 측정할 수 있다. 일실시예로서, 제1 센싱부(110)는 적어도 하나의 압력 센서로 구현될 수 있다. 보다 구체적으로, 제1 센싱부(110)는 사용자의 양 발 각각의 부위에 대응하는 복수의 위치에 배치될 수 있다. 예시적으로, 제1 센싱부(110)는 발의 앞꿈치(toe), 발바닥의 오른 측면, 발바닥의 왼 측면, 발의 뒤꿈치(heel) 각각에 배치되는 복수의 압력 센서로 구현될 수 있다. 제1 센싱부(110)가 포함하는 압력 센서에 관한 기재는 발명의 이해를 돕기 위한 예시적 기재일 뿐, 다른 실시예의 범위를 제한하거나 한정하는 것으로 해석되어서는 안될 것이다. 이를테면, 미리 지정된 간격에 기초하여 격자 모양으로 복수의 압력 센서를 배치하는 것으로 제1 센싱부(110)가 구현될 수도 있을 것이다. 제1 센싱부(110)는 사용자에 관한 압력 이동 및 압력 분포에 관한 제1 로우 데이터를 획득할 수 있다.The walking aiding apparatus 100 can measure various types of raw data related to the user's walking from the first sensing unit 110 and the second sensing unit 120. [ In one embodiment, the first sensing unit 110 may be implemented with at least one pressure sensor. More specifically, the first sensing unit 110 may be disposed at a plurality of positions corresponding to respective portions of the user's feet. Illustratively, the first sensing unit 110 may be implemented with a plurality of pressure sensors disposed on each of the toe of the foot, the right side of the sole, the left side of the sole, and the heel of the foot. The description of the pressure sensor included in the first sensing unit 110 is merely an exemplary description for facilitating understanding of the invention and should not be construed as limiting or limiting the scope of other embodiments. For example, the first sensing unit 110 may be implemented by arranging a plurality of pressure sensors in a lattice shape based on a predetermined interval. The first sensing unit 110 may acquire first raw data related to pressure movement and pressure distribution with respect to the user.

제2 센싱부(120)는 양 발에 대응하는 보폭 및 스탠스에 관한 제2 로우 데이터를 획득할 수 있다. 제2 센싱부(120)는 사용자의 움직임을 측정하는 센서로서, 가속 센서, 지자기 센서 및 자이로 센서 중 적어도 하나로서 구현될 수 있다. 제2 센싱부(120)는 사용자의 보행에 관한 움직임을 분석하여 사용자의 보폭 및 스탠스에 관한 제2 로우 데이터를 생성할 수 있다.The second sensing unit 120 may acquire the second row data related to the stride and the stance corresponding to both feet. The second sensing unit 120 may be implemented as at least one of an acceleration sensor, a geomagnetic sensor, and a gyro sensor. The second sensing unit 120 may analyze the movement of the user's walking and generate second row data related to the user's stride and stance.

통신부(130)는 획득된 제1 로우 데이터 및 제2 로우 데이터 중 적어도 하나를 페어링된 사용자 단말로 전송할 수 있다. 사용자 단말은 수신된 제1 로우 데이터 및 제2 로우 데이터 중 적어도 하나를 이용하여 사용자에 관한 증강현실 기반의 화면을 제공할 수 있다. 통신부(130)는 통신 인터페이스를 이용하여 획득된 제1 로우 데이터 및 제2 로우 데이터 중 적어도 하나를 사용자 단말로 전송할 수 있다. 통신 인터페이스는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등의 무선 인터넷 인터페이스와 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등의 근거리 통신 인터페이스를 포함할 수 있다. 뿐만 아니라, 통신 인터페이스는 외부와 통신을 수행할 수 있는 모든 인터페이스(예를 들어, 유선 인터페이스)를 나타낼 수 있다.The communication unit 130 may transmit at least one of the acquired first row data and second row data to the paired user terminal. The user terminal may provide the augmented reality-based screen for the user using at least one of the received first row data and the second row data. The communication unit 130 may transmit at least one of the first row data and the second row data obtained using the communication interface to the user terminal. The communication interface may be a wireless interface such as a wireless LAN (WLAN), a wireless fidelity (WiFi) direct, a DLNA (Digital Living Network Alliance), a Wibro (Wireless broadband), a Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) May include an Internet interface and a short range communication interface such as Bluetooth (TM), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC . In addition, the communication interface may represent any interface (e.g., a wired interface) capable of communicating with the outside.

예시적으로, 보행 보조 장치(100)는 통신부(130)를 통해 어느 하나의 특정한 사용자 단말과 미리 페어링될 수 있다. 그에 따라, 보행 보조 장치(100)에서 측정되는 실시간 로우 데이터에 관한 그래픽 오브젝트가 사용자 단말에 출력되도록 할 수 있다. 본 실시예에서 제공되는 그래픽 오브젝트는 다양한 그래픽 렌더링 기술을 통해 구현되어 사용자 단말로 출력될 수 있을 것이다. 이를테면, 사용자 단말은 보행 보조 장치(100)에서 측정되는 실시간 로우 데이터를 이용하여 가상 현실(VR: Virtual Reality)을 구성하는 그래픽 오브젝트를 사용자에게 제공하고, 사용자가 느끼는 현실감을 높일 수 있을 것이다. 또한, 보행 보조 장치(100)에서 측정된 로우 데이터를 이용하여 증강 현실(AR: Augmented Reality)을 구성하는 그래픽 오브젝트를 사용자에게 제공하고, 오늘날 증강 현실과 결합된 다양한 어플리케이션의 몰입감을 높일 수도 있을 것이다. 그래픽 렌더링 기술에 관한 앞선 예시들은 이해를 돕기 위한 예시적 기재일 뿐, 다른 실시예들의 범위를 제한하거나 한정하는 것으로 해석되어서는 안 될 것이다.Illustratively, the walking aiding device 100 may be pre-paired with any one of the specific user terminals via the communication unit 130. Accordingly, it is possible to cause the graphical object related to the real-time raw data measured by the walking aiding apparatus 100 to be outputted to the user terminal. The graphic object provided in the present embodiment may be implemented through various graphic rendering techniques and output to the user terminal. For example, the user terminal may provide graphical objects constituting a virtual reality (VR) to the user using the real-time raw data measured by the walking assistant 100, thereby enhancing the sense of reality felt by the user. In addition, graphical objects constituting Augmented Reality (AR) may be provided to a user by using the raw data measured by the walking aiding device 100, and the immersion feeling of various applications combined with the augmented reality may be increased today . The foregoing examples of graphical rendering techniques are illustrative only for purposes of understanding and should not be construed as limiting or limiting the scope of other embodiments.

도 2a 내지 도 2d는 보행 보조 장치에 의해 획득되는 일실시예의 로우 데이터에 관한 예시도이다. 도 2a를 참조하면, 보행 보조 장치에 의해 획득되는 로우 데이터에 관한 실시예가 도시된다. 보행 보조 장치는 사용자의 양 발에서 측정되는 압력값의 평균에 기초하여 사용자에 관한 중심 이동선을 생성할 수 있다. 보다 구체적으로, 보행 보조 장치는 사용자의 양 발의 압력값의 평균점을 연속적으로 마크하는 방식으로 상기 중심 이동선을 생성할 수 있다.2A to 2D are exemplary diagrams of row data of an embodiment obtained by a walking aid. Referring to Figure 2a, an embodiment of the raw data obtained by the walking aid is shown. The walking aid may generate a centering line for the user based on an average of the pressure values measured at both feet of the user. More specifically, the walking assist device can generate the center moving line in such a manner that the average points of the pressure values of both feet of the user are continuously marked.

도 2b를 참조하면, 보행 보조 장치에 의해 획득되는 로우 데이터로서 양 발로부터 측정된 압력값에 기초한 좌우상하 밸런스 지도(balance map)가 도시된다. 보행 보조 장치는 사용자의 보행에 연관된 무게중심의 분포를 도 2b와 같은 형태의 로우 데이터로서 계산해낼 수 있다. 도 2c를 참조하면, 보행 보조 장치에 의해 획득되는 로우 데이터로서 사용자의 걸음걸이에 관한 이동선의 누적 데이터가 도시된다.Referring to FIG. 2B, left and right up and down balance maps based on pressure values measured from both feet are shown as raw data acquired by the walking aid. The walking aiding device can calculate the distribution of the center of gravity associated with the user's walking as raw data of the form shown in FIG. 2B. Referring to FIG. 2C, accumulated data of the moving line regarding the user's walking as row data obtained by the walking aiding device is shown.

도 2d를 참조하면, 보행 보조 장치에 의해 획득되는 로우 데이터로서, 복수의 압력 센서(210, 220, 230, 240, 250, 260) 각각의 시간에 따른 압력값의 변화가 도시된다. 보행 보조 장치는 각각의 압력 센서에 의해 측정되는 압력값의 변화를 미리 지정된 시간 구간에서 지속적으로 계산할 수 있다.Referring to FIG. 2D, the change in pressure value with time of each of the plurality of pressure sensors 210, 220, 230, 240, 250, 260 is shown as row data obtained by the walking aid. The walking aid can continuously calculate the change in the pressure value measured by each of the pressure sensors at a predetermined time interval.

도 3은 보행 보조 장치에 의해 획득되는 다른 일실시예의 로우 데이터에 관한 예시도이다. 도 3을 참조하면, 보행 보조 장치에 의해 획득되는 로우 데이터로서 오른발에 관한 스윙 폭 및 스탠스의 변화량이 도시된다. 본 실시예에서 오른발에 관한 스윙 폭 및 스탠스의 변화량이 도시되지만, 왼발에도 그대로 적용 가능함은 통상의 기술자에게 자명한 사실을 것이다.Fig. 3 is an example of row data of another embodiment obtained by the walking aid; Fig. Referring to FIG. 3, the variation data of the swing width and the stance with respect to the right foot are shown as row data obtained by the walking aid. In the present embodiment, the swing width and the stance change amount with respect to the right foot are shown, but it is obvious to a person skilled in the art that the left foot can be applied as it is.

보행 보조 장치는 가속 센서, 지자기 센서, 자이로 센서 및 압전 센서로 구현되는 센싱부로부터 사용자의 모션 정보를 획득할 수 있다. 상기 모션 정보는 증강 현실 기반의 그래픽 오브젝트를 구현하기 위한 파라미터 및 상기 파라미터에 대한 식별값을 포함할 수 있다. 상기 파라미터에 관한 구체적인 예를 들면, 사용자가 이동하는 방향을 기준선으로 한 양 발의 각도, 양 발의 압력, 사용자의 보행시 양 발의 착지 지점, 양 발의 무게 중심, 양 발의 보폭, 양 발의 스탠스 및 사용자의 걸음걸이 수 중 적어도 하나를 포함할 수 있다. 또한, 보행 보조 장치는 사용자의 다양한 움직임 정보를 로우 데이터로서 획득할 수 있을 것이다. 보행 보조 장치는 관성 센서를 통해 보행 정보뿐만 아니고 사용자의 달리기(running) 또는 뛰기(jumping)와 같은 다양한 움직임 정보를 획득할 수 있을 것이다.The walking aid can acquire motion information of a user from a sensing unit implemented by an acceleration sensor, a geomagnetic sensor, a gyro sensor, and a piezoelectric sensor. The motion information may include a parameter for implementing augmented reality-based graphic object and an identification value for the parameter. Specific examples of the parameters include, for example, an angle of both feet based on a direction in which the user moves, a pressure of both feet, a landing point of both feet in walking of the user, a center of gravity of both feet, a stance of both feet, And the number of steps of walking. In addition, the walking aiding device may acquire various motion information of the user as raw data. The walking aid will be able to acquire various motion information such as running or jumping of the user as well as walking information via the inertial sensor.

도 4a는 일실시예에 따른 사용자 단말의 블록도이다. 도 4a를 참조하면, 사용자 단말(410)은 계산부(411) 및 영상 처리부(412)를 포함할 수 있다. 사용자 단말(410)이 사용자에 관한 위치 별 압력 정보를 포함하는 로우 데이터를 입력 받는 경우, 계산부(411)는 상기 로우 데이터로부터 복수 개의 센싱 위치에 기반한 압력 이동 및 압력 분포 중 적어도 하나를 계산할 수 있다. 계산부(411)는 상기 부위별 압력의 변화량에 기초하여 양 발 중 어느 하나의 발을 선택할 수 있다. 상기 선택된 발은 영상 처리부(412)에 의해 렌더링된 그래픽 오브젝트의 움직임을 제어하고, 동작 모드를 결정하는데 이용될 수 있다.4A is a block diagram of a user terminal according to one embodiment. Referring to FIG. 4A, the user terminal 410 may include a calculation unit 411 and an image processing unit 412. When the user terminal 410 receives the row data including the positional pressure information regarding the user, the calculation unit 411 can calculate at least one of the pressure movement and the pressure distribution based on the plurality of sensing positions from the row data have. The calculation unit 411 can select any one of the feet based on the change amount of the pressure of each of the parts. The selected foot may be used to control the motion of the graphic object rendered by the image processing unit 412 and determine the operation mode.

계산부(411)는 부위별 압력의 변화량의 합이 미리 지정된 임계치 이상이 되는지 여부에 따라, 양 발 중 임계치를 먼저 초과하는 어느 하나의 발을 선택할 수 있다. 예시적으로 보행 보조 장치를 착용한 사용자가 양 발 중 어느 하나의 발을 통해 지표면을 누르는 경우가 존재할 수 있다. 이 경우에, 사용자는 오른발 또는 왼발 중 어느 하나의 발을 통해 지표면을 누르는 방식으로 사용자 단말의 그래픽 오브젝트를 조정할 수 있다. 예시적으로, 계산부(411)는 획득된 로우 데이터를 이용하여 양 발 중 변화량의 평균이 10N 이상이 되는 어느 하나의 발을 선택할 수 있다.The calculation unit 411 can select any one of the feet that exceeds the threshold of both feet first, depending on whether or not the sum of the amount of change in pressure of each site becomes equal to or greater than a predetermined threshold value. There may be a case where, for example, a user wearing the walking aid pushes the ground surface through one of the feet. In this case, the user can adjust the graphical object of the user terminal in such a manner that the user presses the ground surface through either the right foot or the left foot. Illustratively, the calculation unit 411 can use any of the obtained raw data to select any one of the feet whose average of the change amounts in the both directions is 10N or more.

영상 처리부(412)는 계산부(411)에 의해 계산된 압력 이동 및 압력 분포에 대응하는 그래픽 오브젝트를 렌더링하여 출력할 수 있다. 앞서 기재한 실시예와 같이 계산부(411)는 양 발 중 어느 하나의 발을 선택할 수 있다. 상기 사용자의 오른발이 동작 모드를 결정하도록 선택된 경우에, 영상 처리부(412)는 상기 오른발에 대응하는 제1 동작 모드에 대한 제1 그래픽 오브젝트를 렌더링하여 출력할 수 있다. 마찬가지로, 상기 사용자의 왼발이 동작 모드를 결정하도록 선택된 경우, 영상 처리부(412)는 상기 사용자의 왼발에 대응하는 제2 동작 모드에 대한 제2 그래픽 오브젝트를 렌더링하여 출력할 수 있다.The image processing unit 412 may render and output a graphic object corresponding to the pressure movement and the pressure distribution calculated by the calculation unit 411. [ The calculation unit 411 can select any one of the feet as in the embodiment described above. When the right foot of the user is selected to determine the operation mode, the image processing unit 412 may render and output the first graphic object for the first operation mode corresponding to the right foot. Similarly, when the left foot of the user is selected to determine the operation mode, the image processing unit 412 may render and output the second graphic object for the second operation mode corresponding to the left foot of the user.

사용자 단말(410)은 오른발에 대응하는 제1 동작 모드로서, 화면에 출력되는 그래픽 오브젝트의 액셀 페달(accelerator pedal)의 동작과 미리 매칭할 수 있다. 또한, 사용자 단말(410)은 왼발에 대응하는 제2 동작 모드로서, 화면에 출력되는 그래픽 오브젝트의 브레이크 페달(brake pedal)의 동작과 미리 매칭할 수 있다.The user terminal 410 may be a first operation mode corresponding to the right foot and may previously match the operation of the accelerator pedal of the graphic object output to the screen. In addition, the user terminal 410 may be a second operation mode corresponding to the left foot, and may match the operation of the brake pedal of the graphic object output on the screen in advance.

예시적으로, 계산부(411)에 의해 오른발이 선택된 경우가 존재할 수 있다. 계산부(411)는 선택된 오른발에 대응하는 압력 변화량의 합을 계산할 수 있다. 영상 처리부(412)는 계산부(411)에 의해 계산된 압력 변화량의 합에 대응하는 제1 그래픽 오브젝트를 렌더링하여 출력할 수 있다. 일실시예로서, 제1 그래픽 오브젝트는 증강현실 기반의 화면에 도시되는 차체(vehicle)가 앞으로 이동하는 이미지 또는 영상을 나타낼 수 있다.Illustratively, there may be a case where the right foot is selected by the calculation unit 411. The calculation unit 411 can calculate the sum of the pressure change amounts corresponding to the selected right foot. The image processing unit 412 may render and output the first graphic object corresponding to the sum of the pressure change amounts calculated by the calculation unit 411. [ In one embodiment, the first graphic object may represent an image or an image in which a vehicle shown in augmented reality-based screen moves forward.

마찬가지로, 계산부(411)에 의해 왼발이 선택된 경우가 존재할 수 있다. 계산부(411)는 선택된 왼발에 대응하는 압력 변화량의 합을 계산할 수 있다. 영상 처리부(412)는 계산부(411)에 의해 계산된 압력 변화량의 합에 대응하는 제2 그래픽 오브젝트를 렌더링하여 출력할 수 있다. 일실시예로서, 제2 그래픽 오브젝트는 증강현실 기반의 화면에 도시되는 차체의 이동 속도가 점점 감소하도록 하는 이미지 또는 영상을 나타낼 수 있다.Likewise, there may be a case where the left foot is selected by the calculation unit 411. The calculation unit 411 can calculate the sum of the pressure change amounts corresponding to the selected left foot. The image processing unit 412 may render and output a second graphic object corresponding to the sum of the pressure change amounts calculated by the calculation unit 411. [ In one embodiment, the second graphical object may represent an image or an image that causes the moving speed of the vehicle body displayed on the augmented reality-based screen to gradually decrease.

도 4b는 다른 일실시예에 따른 사용자 단말의 블록도이다. 도 4b를 참조하면, 사용자 단말(420)은 계산부(421) 및 데이터 처리부(422)를 포함할 수 있다. 계산부(421)에 대해서는 앞서 도 4a와 함께 설명된 계산부(411)에 관한 설명이 그대로 적용될 수 있어 중복되는 설명은 생략하기로 한다.4B is a block diagram of a user terminal according to another embodiment. Referring to FIG. 4B, the user terminal 420 may include a calculation unit 421 and a data processing unit 422. As for the calculation unit 421, the description regarding the calculation unit 411 described above with reference to FIG. 4A may be applied as it is, and a duplicated description will be omitted.

데이터 처리부(422)는 사용자 단말(420)에 입력되는 로우 데이터에 대응하는 커맨드 신호를 생성하여 연관되는 프로그램과의 인터랙션(interaction)을 수행할 수 있다. 예시적으로, 상기 로우 데이터는 복수 개의 센싱 위치에 기반한 압력 이동 데이터, 압력 분포 데이터, 사용자의 움직임에 관한 가속도 데이터, 속도 데이터 및 이동 거리 데이터 중 적어도 하나를 포함할 수 있다.The data processing unit 422 may generate a command signal corresponding to the row data input to the user terminal 420 and may perform an interaction with the associated program. Illustratively, the raw data may include at least one of pressure movement data based on a plurality of sensing positions, pressure distribution data, acceleration data relating to a user's motion, velocity data, and movement distance data.

보다 구체적으로, 데이터 처리부(422)는 상기 프로그램에 미리 저장된 복수의 상태값에 기초하여 커맨드 신호를 생성할 수 있다. 예시적으로, 상기 프로그램이 사용자 단말(420)에서 실행되는 축구 게임 프로그램과 같은 형태로 구현되는 경우가 존재할 수 있다. 이 경우에, 상기 프로그램은 골키퍼와 공격수가 일 대 일로 마주하게 되는 제1 상태값, 수비수에게 공을 빼앗기게 되는 제2 상태값, 수비수의 반칙을 유도하여 프리킥이 주어지게 되는 제3 상태값을 미리 정의하고, 사용자 단말(420) 내에 저장할 수 있다.More specifically, the data processing unit 422 can generate a command signal based on a plurality of state values stored in advance in the program. As an example, there may be a case where the program is implemented in the form of a soccer game program executed in the user terminal 420. In this case, the program may include a first state value in which the goalkeeper and the striker face each other in a one-to-one manner, a second state value to be defeated by the defender, and a third state value Predefined, and stored in the user terminal 420.

데이터 처리부(422)는 복수의 상태값 각각에 대응하는 사용자의 의도를 로우 데이터를 통해 계산하여, 그에 상응하는 커맨드 신호를 생성할 수 있다. 일실시예로서, 사용자의 이동 속도가 미리 지정된 제1 임계 속도를 초과하는 경우에 데이터 처리부(422)는 사용자 단말(420)에서 실행되는 축구 게임 프로그램 내에서 사용자에게 골키퍼와 일 대 일 찬스가 제공되는 제1 상태값에 관한 제1 커맨드 신호를 생성할 수 있다. 다른 일실시예로서, 사용자의 이동 속도가 미리 지정된 제2 임계 속도 미만으로 측정된 경우에 데이터 처리부(422)는 사용자 단말(420)에서 실행되는 축구 게임 프로그램 내에서 사용자의 공격권이 수비수에게 넘어가는 제2 상태값에 관한 제2 커맨드 신호를 생성할 수 있다. 또 다른 일실시예로서, 사용자의 양 발 중 어느 한 발에 관한 압력 변화량이 임계치 이상이 된 경우에, 데이터 처리부(422)는 사용자 단말(420)에서 실행되는 축구 게임 프로그램 내에서 사용자에게 프리킥 찬스를 부여하는 제3 상태값에 관한 제3 커맨드 신호를 생성할 수 있다.The data processing unit 422 may calculate the user's intention corresponding to each of the plurality of status values through the row data and generate a corresponding command signal. In one embodiment, if the movement speed of the user exceeds a predetermined first threshold speed, the data processing unit 422 provides a one-to-one chance with the goalkeeper to the user within the soccer game program executed by the user terminal 420 It is possible to generate the first command signal relating to the first state value. In another embodiment, when the moving speed of the user is measured to be less than the predetermined second threshold speed, the data processing unit 422 determines that the user's attack right passes to the defender in the soccer game program executed in the user terminal 420 It is possible to generate the second command signal relating to the second state value. In another embodiment, the data processing unit 422 may provide a free kick opportunity to the user in the soccer game program executed by the user terminal 420, when the pressure change amount for one foot of the user is equal to or greater than the threshold value To the third state value that gives the third state value.

데이터 처리부(422)는 상기 프로그램에 미리 저장된 복수의 상태값에 기초하여 생성된 커맨드 신호에 대응하는 어느 하나의 인터랙션을 결정할 수 있다. 인터랙션은 프로그램의 실행, 중지, 종료뿐만 아니라 프로그램을 통해 출력되는 그래픽 오브젝트의 이동, 상태 변경 등과 같이 구현될 수 있다. 예시적으로, 상기 복수의 상태값은 상기 프로그램과 연관되어 사용자에게 출력되는 복수의 그래픽 오브젝트의 미리 정의된 움직임에 각각 연관될 수 있다.The data processing unit 422 can determine any one of the interactions corresponding to the command signal generated based on the plurality of state values stored in advance in the program. Interaction can be implemented not only in the execution, termination, and termination of a program, but also in the movement of graphics objects output through the program, state changes, and the like. Illustratively, the plurality of status values may each be associated with a predefined motion of a plurality of graphical objects associated with the program and output to the user.

앞서 기재한 축구 게임 프로그램에 관한 설명은 발명의 사상의 이해를 돕기 위한 예시적인 기재일 뿐, 다른 실시예의 범위를 제한하는 것으로 해석되어서는 안될 것이다. 본 실시예에 따른 사용자 단말(420)은 입력되는 로우 데이터에 관한 데이터 처리를 통해, 사용자 단말(420) 내에서 실행되는 다양한 프로그램 또는 어플리케이션에 대해 운용(operation), 제어(control), 명령(command)과 같은 다양한 인터랙션을 사용자에게 제공할 수 있을 것이다. 이를테면, 상기 프로그램 또는 상기 어플리케이션은 골프 게임 프로그램, 농구 게임 프로그램 등으로 구현될 수도 있고, 게임 분야에 한정되지 않고 음악 재생 프로그램, 악기 연주 프로그램, 헬스 케어 프로그램과 같은 다양한 분야의 다양한 프로그램으로 구현될 수 있을 것이다. 이에 따라, 사용자는 자신에게 장착된 스마트인솔 기반으로 사용자 단말(420) 내에서 실행되는 어플리케이션 또는 프로그램과 인터랙션을 수행할 수 있어 보다 높은 현실감이 사용자에게 제공되는 효과를 기대할 수 있다.The description of the soccer game program described above is merely an exemplary description for facilitating understanding of the idea of the invention, and should not be construed as limiting the scope of other embodiments. The user terminal 420 according to the present exemplary embodiment may perform operations such as operation, control, command, and control for various programs or applications executed in the user terminal 420, ). ≪ / RTI > For example, the program or the application may be implemented as a golf game program, a basketball game program, or the like, and may be implemented by various programs in various fields such as a music playing program, a musical instrument playing program, and a healthcare program, There will be. Accordingly, the user can perform the interaction with the application or the program executed in the user terminal 420 based on the Smart Insole installed in the user, thereby providing a higher realism to the user.

도 5는 일실시예에 따른 증강 현실 제공 방법에 관한 흐름도이다. 도 5를 참조하면, 증강 현실 제공 방법(500)은 페어링된 보행 보조 장치로부터 사용자에 관한 로우 데이터를 획득하는 단계(510), 상기 로우 데이터로부터 상기 사용자에 관한 압력 이동 및 압력 분포 중 적어도 하나를 계산하는 단계(520), 상기 계산된 결과에 상응하는 그래픽 오브젝트를 생성하는 단계(530) 및 상기 생성된 그래픽 오브젝트를 이용하여 생성된 증강현실 기반의 화면을 상기 사용자에게 출력하는 단계(540)를 포함할 수 있다.5 is a flowchart of an augmented reality providing method according to an embodiment. Referring to Figure 5, an augmented reality providing method 500 includes obtaining 510 (step 510) user-related raw data from a paired walking aids device, generating at least one of a pressure movement and a pressure distribution for the user from the raw data A step 530 of generating a graphic object corresponding to the calculated result, and a step 540 of outputting the augmented reality-based screen generated using the generated graphic object to the user .

단계(510)에서 사용자 단말은 페어링된 보행 보조 장치로부터 사용자에 관한 로우 데이터를 수신할 수 있다. 예시적으로, 로우 데이터는 사용자의 보행에 관한 파라미터를 나타낼 수 있다. 상기 파라미터는 사용자가 이동하는 방향을 기준선으로 한 양 발의 각도, 양 발의 압력, 사용자의 보행시 양 발의 착지 지점, 양 발의 무게 중심, 양 발의 보폭, 양 발의 스탠스 및 사용자의 걸음걸이 수 중 적어도 하나를 포함할 수 있다.In step 510, the user terminal may receive raw data regarding the user from the paired walking aids. By way of example, the raw data may represent a parameter relating to the user's walking. Wherein the parameter includes at least one of an angle of two feet based on a direction in which the user moves, a pressure of both feet, a landing point of both feet in walking of the user, a center of gravity of both feet, a step width of both feet, . ≪ / RTI >

단계(520)에서 사용자 단말은 상기 로우 데이터로부터 상기 사용자에 관한 압력 이동 및 압력 분포 중 적어도 하나를 계산할 수 있다. 또한, 사용자 단말은 상기 로우 데이터로부터 상기 사용자의 발의 이동 거리, 이동 방향 및 이동 각도 중 적어도 하나를 계산할 수 있다.In step 520, the user terminal may calculate at least one of the pressure transfer and pressure distribution for the user from the raw data. Also, the user terminal may calculate at least one of the moving distance, the moving direction, and the moving angle of the user's foot from the raw data.

단계(530)에서 사용자 단말은 상기 계산된 결과에 상응하는 그래픽 오브젝트를 생성할 수 있다. 일실시예로서, 사용자 단말은 사용자의 압력 이동 및 압력 분포에 상응하도록 형태, 크기 및 모양이 조정되는 제1 그래픽 오브젝트를 생성할 수 있다. 상기 제1 그래픽 오브젝트는 이동체(moving object)로서 자동차, 비행기, 드론(drone)과 같이 사용자에 의해 무선으로 조종되는 다양한 이동 수단을 나타낼 수 있다. 또한, 사용자 단말은 상기 이동체가 사용자에 의해 제어되는 압력 이동 및 압력 분포에 상응하도록 이동하는 그래픽 오브젝트를 생성할 수 있다.In step 530, the user terminal may generate a graphical object corresponding to the calculated result. In one embodiment, the user terminal may generate a first graphical object whose shape, size, and shape are adjusted to correspond to a user's pressure movement and pressure distribution. The first graphic object may be a moving object, and may represent various moving means, such as a car, a plane, and a drone, which are controlled by a user wirelessly. In addition, the user terminal may generate graphical objects in which the moving object moves to correspond to pressure and pressure distributions controlled by the user.

다른 일실시예로서, 사용자 단말은 사용자의 양 발의 이동 거리, 이동 방향 및 이동 각도에 상응하도록 움직임이 조정되는 제2 그래픽 오브젝트를 생성할 수 있다. 예시적으로, 상기 제2 그래픽 오브젝트는 스포츠 경기에서 이용되는 다양한 형태의 운동 기구를 나타낼 수 있다. 일실시예로서, 제2 그래픽 오브젝트는 사용자의 페달을 돌리는 움직임에 따라 증강현실 기반의 화면 내에서 이동하는 자전거를 나타낼 수 있다. 다른 일실시예로서, 제2 그래픽 오브젝트는 사용자의 발의 이동 거리, 이동 속도, 이동 각도 및 이동 방향에 상응하도록 증강현실 기반의 화면 내에서 이동하는 공(ball)을 나타낼 수 있다.In another embodiment, the user terminal may generate a second graphics object whose motion is adjusted to correspond to the moving distance, the moving direction, and the moving angle of the user's two feet. Illustratively, the second graphical object may represent various types of exercise devices used in a sporting event. In one embodiment, the second graphical object may represent a bicycle moving within augmented reality-based screen according to the movement of the user's pedal. In another embodiment, the second graphical object may represent a ball moving within an augmented reality-based screen to correspond to a movement distance, a movement speed, a movement angle, and a movement direction of the user's foot.

또 다른 일실시예로서, 사용자 단말은 사용자의 압력 이동, 압력 분포, 양 발의 이동 거리, 이동 방향 및 이동 각도에 상응하도록 연주음이 조정되는 제3 그래픽 오브젝트를 생성할 수 있다. 예시적으로, 상기 제3 그래픽 오브젝트는 사용자의 양 발의 압력 및 움직임에 기초하여 연주 가능한 피아노, 드럼 및 베이스 등과 같은 다양한 형태의 악기로서 증강현실 기반의 화면 내에서 구현될 수 있다.In yet another embodiment, the user terminal may generate a third graphic object whose playing notes are adjusted to correspond to a user's pressure, pressure, two-way movement distance, movement direction, and movement angle. Illustratively, the third graphic object may be implemented in augmented reality-based screen as various types of musical instruments such as a piano, drum, and a base that can be played based on the pressure and motion of both feet of the user.

단계(540)에서 사용자 단말은 상기 생성된 그래픽 오브젝트를 이용하여 생성된 증강현실 기반의 화면을 상기 사용자에게 출력할 수 있다. 사용자 단말은 생성된 그래픽 오브젝트를 오버레이(overlay)하여 증강현실 영상을 생성할 수 있다. 또한, 사용자 단말은 사용자의 보행에 관한 움직임에 따라 오버레이된 그래픽 오브젝트의 상태를 변환할 수 있다. 상기 상태는 그래픽 오브젝트의 크기, 형태, 색상, 움직임 등과 같은 식별값으로서, 그래픽 오브젝트의 상태를 정의하는 파라미터를 나타낼 수 있다. 실제적인 이미지 또는 영상에 가상의 그래픽 오브젝트를 결합하는 증강현실 기술 자체는 기술 분야의 전문가에게 straight forward한 내용이므로 자세한 설명은 생략하기로 한다.In step 540, the user terminal may output the augmented reality-based screen generated using the generated graphic object to the user. The user terminal may overlay the generated graphic object to generate an augmented reality image. In addition, the user terminal can convert the state of the overlaid graphic object according to the movement related to the user's walking. The status may be an identification value such as a size, a shape, a color, a motion, etc. of the graphic object, and may indicate a parameter that defines the status of the graphic object. The augmented reality technology that combines virtual graphic objects with actual images or images is straightforward to the experts in the technical field, so a detailed description will be omitted.

사용자는 본 실시예에 따른 보행 보조 장치 및 사용자 단말을 이용하여 증강현실 기반의 서비스를 제공 받는 것뿐만 아니라, 자신의 물리적 움직임을 통해 3D 그래픽 오브젝트와 상호 작용할 수 있다. 증강현실 환경에서 출력되는 그래픽 오브젝트를 통해 현실에서 경험하기 어려운 비행기 운전이나 물 위를 걷기와 같은 체험을 할 수 있고, 또한 축구와 같은 구기 종목의 연습을 수행하는 효과를 기대할 수도 있다.The user can interact with the 3D graphic object through his or her physical movement as well as receive the augmented reality based service using the walking aid and the user terminal according to the present embodiment. Through the graphical objects output from the augmented reality environment, it is possible to experience an experience such as walking on a plane or driving on an airplane, which is difficult to experience in reality, and also can expect the effect of performing a ball game such as football.

도 6a 및 도 6b는 일실시예에 따라 사용자에게 제공되는 증강 현실에 관한 예시도이다. 도 6a를 참조하면, 실제 환경(real world)에 존재하는 나무(611) 및 도로(612)가 도시된다. 또한, 증강현실 기반의 디스플레이 화면에서 출력되는 나무(621) 및 도로(622)와 가상의 그래픽 오브젝트인 자동차 계기판(623)이 도시된다. 사용자는 본 실시예에서 설명된 보행 보조 장치를 이용하여 사용자 단말에서 출력되는 자동차 계기판(623)를 포함하는 자동차와 상호 작용할 수 있다.6A and 6B are exemplary views of an augmented reality provided to a user according to an embodiment. Referring to FIG. 6A, a tree 611 and a road 612 present in a real world are shown. In addition, a tree 621 and a road 622 output from augmented reality-based display screen and a vehicle instrument panel 623 as a virtual graphic object are shown. The user can interact with the vehicle including the vehicle dashboard 623 output from the user terminal using the walking aid device described in this embodiment.

일실시예로서, 사용자는 자신의 오른발에 기설정된 임계치 이상의 압력을 가하는 방식으로 증강현실 기반의 디스플레이 화면에서 출력되는 자동차를 전진 시킬 수 있다. 사용자 단말은 자동차의 전진에 관한 사용자의 입력에 대응하여 영상 획득 장치의 줌-인(zoom-in) 기능을 실행하여 멀리 있는 사물이 가까워 지도록 하는 실제 환경을 출력할 수 있다.In one embodiment, the user can advance the automobile output from the augmented reality-based display screen by applying a pressure equal to or greater than a predetermined threshold value to his or her right foot. The user terminal may perform a zoom-in function of the image acquisition device in response to a user's input regarding the advancement of the automobile, thereby outputting a real environment in which a distant object approaches.

다른 일실시예로서, 사용자는 자신의 왼발에 기설정된 임계치 이상의 압력을 가하는 방식으로 증강현실 기반의 디스플레이 화면에서 출력되는 자동차의 이동 속도를 감소 시킬 수 있다. 사용자 단말은 자동차의 전진에 관한 사용자의 입력에 대응하여 영상 획득 장치의 줌-아웃(zoom-out) 기능을 실행하여 증강현실 내의 자동차가 정지하는 듯한 효과를 사용자에게 제공할 수 있다.In another embodiment, the user may reduce the moving speed of the automobile output from the augmented reality-based display screen by applying a pressure equal to or greater than a predetermined threshold value to the left foot of the user. The user terminal can provide the user with the effect of stopping the car in the augmented reality by executing the zoom-out function of the image acquisition device in response to the input of the user regarding the advance of the car.

도 6b를 참조하면, 실제 환경에 존재하는 축구 골대(631)가 도시된다. 또한, 증강현실 기반의 디스플레이 화면에서 출력되는 축구 골대(641) 및 가상의 그래픽 오브젝트인 축구공(642)이 도시된다. 마찬가지로, 사용자는 본 실시예에서 설명된 보행 보조 장치를 이용하여 사용자 단말에서 출력되는 축구공(642)과 상호 작용할 수 있다.6B, a soccer goalpost 631 present in the real environment is shown. Also shown are a soccer goalpost 641 output from the augmented reality-based display screen and a soccer ball 642 which is a virtual graphic object. Similarly, the user can interact with the soccer ball 642 output from the user terminal using the walking aid device described in this embodiment.

일실시예로서, 사용자는 보행 정보를 측정하는 보행 보조 장치를 착용하고, 적절한 움직임을 수행하는 방식으로 가상의 그래픽 오브젝트인 축구공(642)을 슈팅(shooting)할 수 있다. 사용자 단말은 사용자의 움직임에 상응하는 속도 및 방향으로 축구공(642)에 움직이도록 렌더링하여, 사용자가 가상의 그래픽 오브젝트를 통해 축구 킥을 연습하는 효과를 제공할 수 있다.In one embodiment, the user wears a walking aid to measure walking information, and can shoot a soccer ball 642, which is a virtual graphic object, in a manner that performs appropriate movement. The user terminal may be rendered to move in the soccer ball 642 at a speed and direction corresponding to the movement of the user to provide the effect of the user practicing the soccer kick through the virtual graphic object.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a computer-readable medium may be those specially designed and constructed for an embodiment or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

Claims (17)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 사용자에 관한 위치 별 압력 정보를 포함하는 로우 데이터를 입력 받는 경우, 상기 로우 데이터로부터 복수 개의 센싱 위치에 기반한 압력 이동 및 압력 분포 중 적어도 하나를 계산하는 계산부;
상기 계산된 압력 이동 및 압력 분포에 대응하는 그래픽 오브젝트를 렌더링하여 출력하는 영상 처리부; 및
복수의 압력 센서를 서로 다른 위치에 포함하는 보행 보조 장치와 페어링되고, 상기 사용자의 발에 관한 부위별 압력 및 상기 부위별 압력의 변화량을 상기 로우 데이터로서 수신하는 통신부
를 포함하고,
상기 계산부는 상기 부위별 압력의 변화량에 기초하여 양 발 중 동작 모드를 결정하기 위한 어느 하나의 발을 선택하고,
상기 사용자의 오른발이 동작 모드를 결정하도록 선택된 경우, 상기 영상 처리부는 상기 오른발에 대응하는 제1 동작 모드에 대한 제1 그래픽 오브젝트를 렌더링하여 출력하고,
상기 사용자의 왼발이 동작 모드를 결정하도록 선택된 경우, 상기 영상 처리부는 상기 왼발에 대응하는 제2 동작 모드에 대한 제2 그래픽 오브젝트를 렌더링하여 출력하는 사용자 단말.
A calculation unit for calculating at least one of a pressure movement and a pressure distribution based on the plurality of sensing positions from the row data when the row data including the pressure information per position for the user is input;
An image processor for rendering and outputting a graphic object corresponding to the calculated pressure movement and pressure distribution; And
A communication unit which is paired with a walking aid device including a plurality of pressure sensors at different positions and receives as a raw data the pressure of each part of the user's foot and the amount of change of pressure of each part,
Lt; / RTI >
Wherein the calculation unit selects any one of the feet for determining the operation mode of both feet based on the change amount of the pressure for each site,
When the right foot of the user is selected to determine the operation mode, the image processing unit renders and outputs the first graphic object for the first operation mode corresponding to the right foot,
When the left foot of the user is selected to determine an operation mode, the image processing unit renders a second graphic object for a second operation mode corresponding to the left foot and outputs the second graphic object.
삭제delete 삭제delete 제6항에 있어서,
상기 계산부는 상기 부위별 압력의 변화량의 합이 미리 지정된 임계치 이상이 되는지 여부에 따라, 양 발 중 상기 임계치를 먼저 초과하는 어느 하나의 발을 선택하는 사용자 단말.
The method according to claim 6,
Wherein the calculation unit selects any one of the feet that exceeds the threshold value in the first step in accordance with whether or not the sum of the amounts of change in pressure of the respective regions is equal to or greater than a predetermined threshold value.
삭제delete 제6항에 있어서,
상기 영상 처리부는 상기 제1 동작 모드가 선택된 경우에 증강현실 기반의 화면 내의 차체(vehicle)가 이동하는 제1 그래픽 오브젝트를 생성하고, 상기 제2 동작 모드가 선택된 경우에 상기 차체가 정지하는 제2 그래픽 오브젝트를 생성하는 것을 특징으로 하는 사용자 단말.
The method according to claim 6,
Wherein the image processing unit generates a first graphic object in which a vehicle in augmented reality-based screen moves when the first operation mode is selected, and a second graphic object in which a vehicle is stopped when the second operation mode is selected, And generates a graphical object.
제6항에 있어서,
상기 통신부는 상기 사용자의 양 발 각각에 배치된 관성 센서를 포함하는 상기 보행 보조 장치와 페어링되고, 상기 사용자의 양 발 각각에 관한 보폭 및 스탠스를 상기 로우 데이터로서 수신하는 사용자 단말.
The method according to claim 6,
Wherein the communication unit is paired with the walking aid device including an inertial sensor disposed on each of the two feet of the user and receives the pace and stance of each of the feet of the user as the row data.
제12항에 있어서,
상기 영상 처리부는 상기 양 발 각각에 관한 보폭 및 스탠스에 대응하는 움직임(movement)이 반영된 상기 그래픽 오브젝트를 생성하는 것을 특징으로 하는 사용자 단말.
13. The method of claim 12,
Wherein the image processing unit generates the graphic object reflecting a movement corresponding to a stance and a stance with respect to each of the two feet.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020160179284A 2016-12-26 2016-12-26 Data processing apparatus and method KR101909791B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160179284A KR101909791B1 (en) 2016-12-26 2016-12-26 Data processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160179284A KR101909791B1 (en) 2016-12-26 2016-12-26 Data processing apparatus and method

Publications (2)

Publication Number Publication Date
KR20180075205A KR20180075205A (en) 2018-07-04
KR101909791B1 true KR101909791B1 (en) 2018-10-22

Family

ID=62913222

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160179284A KR101909791B1 (en) 2016-12-26 2016-12-26 Data processing apparatus and method

Country Status (1)

Country Link
KR (1) KR101909791B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187834A (en) * 2009-02-17 2010-09-02 Taito Corp Game apparatus with turntable input operation device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003053032A (en) * 2001-08-20 2003-02-25 Shinsedai Kk Soccer game device
KR100546447B1 (en) * 2003-09-25 2006-01-25 (주)두모션 Gait analyzer and gait analysis method using the same
KR101390213B1 (en) * 2012-05-31 2014-07-09 한양대학교 에리카산학협력단 Exercising-game apparatus using user's activities

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187834A (en) * 2009-02-17 2010-09-02 Taito Corp Game apparatus with turntable input operation device

Also Published As

Publication number Publication date
KR20180075205A (en) 2018-07-04

Similar Documents

Publication Publication Date Title
JP6690014B2 (en) Head mounted display tracking
US10282882B2 (en) Augmented reality simulation continuum
US20190076716A1 (en) Activity training system
KR101670147B1 (en) Portable device, virtual reality system and method
US20210166479A1 (en) Program, information processor, and information processing method
JP2022529245A (en) Sensor fusion for electromagnetic tracking
US20170216675A1 (en) Fitness-based game mechanics
US20140235348A1 (en) Sensor-based gaming system for an avatar to represent a player in a virtual environment
CN112755458B (en) System and method for linking virtual reality with indoor sports equipment
EP2926877A2 (en) Sensor-based gaming system for an avatar to represent a player in a virtual environment
CN105229666A (en) Motion analysis in 3D rendering
CN105144194A (en) Systems and methods for identifying and characterizing athletic maneuvers
US20170354886A1 (en) Game apparatus, game controlling method and storage medium
WO2020244491A1 (en) Information display method and apparatus, and electronic device and computer storage medium
US20200086219A1 (en) Augmented reality-based sports game simulation system and method thereof
JP2022082559A (en) Thermal management systems for wearable components
JP6796197B2 (en) Information processing equipment, information processing methods and programs
JP2023501079A (en) Co-located Pose Estimation in a Shared Artificial Reality Environment
KR20160090042A (en) Arcade game system by 3D HMD
KR101909791B1 (en) Data processing apparatus and method
US10915165B2 (en) Methods and systems for controlling a displacement of a virtual point of view in a virtual reality environment
KR101200000B1 (en) Gate ball system and the methods thereof
KR101881227B1 (en) Flight experience method using unmanned aerial vehicle
KR102433084B1 (en) Player emotion analysis method for virtual reality game, player emotion-based virtual reality service management method and virtual reality system
KR20160064350A (en) Data processing system for bicycle simulation and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right