KR101679805B1 - 인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용 - Google Patents

인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용 Download PDF

Info

Publication number
KR101679805B1
KR101679805B1 KR1020137023483A KR20137023483A KR101679805B1 KR 101679805 B1 KR101679805 B1 KR 101679805B1 KR 1020137023483 A KR1020137023483 A KR 1020137023483A KR 20137023483 A KR20137023483 A KR 20137023483A KR 101679805 B1 KR101679805 B1 KR 101679805B1
Authority
KR
South Korea
Prior art keywords
user
character
virtual
delete delete
computer
Prior art date
Application number
KR1020137023483A
Other languages
English (en)
Other versions
KR20140049503A (ko
Inventor
데펭 후앙
Original Assignee
데펭 후앙
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 데펭 후앙 filed Critical 데펭 후앙
Publication of KR20140049503A publication Critical patent/KR20140049503A/ko
Application granted granted Critical
Publication of KR101679805B1 publication Critical patent/KR101679805B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • A63F2300/6054Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands by generating automatically game commands to assist the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자가 사용자 허용 미동작을 실시함으로써 가상 환경속의 캐릭터를 제어하여 상응하는 가상 허용 동작을 실시하게 하고, 1)가상 세계에서 캐릭터를 설정하는 단계; 2)사용자의 몸이 소재위치에서 떠나지 않고 미동작을 수행하는 단계; 3)사용자가 수행한 미동작을 추적하고 식별하며 사용자가 임의의 미동작을 수행할 때 그의 몸이 소재위치를 떠나지 않아도 되는 단계; 4)캐릭터가 사용자의 미동작을 확대하여 수행하는 단계;를 포함하는 인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용을 제공하였다. 본 발명에서 소개한 "동작확대 시스템"은 사용자의 몸이 변위하지 않거나 약간 변위하여도 가상 세계에서 부여한 모든 기능 또는 능력을 구현할 수 있어 사용자가 가상 세계의 전반 과정에서 하나의 조종위치에 있을 수 있고 동시에 사용자의 운동부위가 가상 세계의 캐릭터의 가상동작부위와 일치하게 할 수도 있기 때문에 사용자가 쉽게 습득할 수 있다.

Description

인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용{Method for controlling man-machine interaction and application thereof}
본 발명은 인간과 컴퓨터가 인터랙티브할 수 있도록 하는 바이오 가상 세계의 제어방법 및 응용에 관한 것이다.
현재의 기술에서는 이미 인간과 컴퓨터가 인터랙티브할 수 있는 바이오 가상 세계의 다수의 제어방법 및 그의 설비를 제공하였는데 사용자가 운동하는 공간이 커야 하고 운동에 한계성(캐릭터의 유한양의 동작만 허용하고 사용자가 동작의 폭을 조정할 수 없음)이 있는 결함이 있다. 예를 들어 사용자가 이미 벽에 닿았으나 캐릭터의 다음 동작이 사용자가 더욱 뒤로 벽을 향해 전진하여야 하는 것이다. 어떤 기존의 기술은 이런 경우를 회피하기 위하여 캐릭터의 운동공간(여기서 말하는 것은 사용자가 아니라 캐릭터인 것을 주의하여야 함)을 축소하여 사용자가 제어하는 과정에서 이동하지 않거나 가능한 한 운동을 줄이게 하는데 이런 방법은 게임의 오락성을 대폭 절감하고 그의 응용가치도 아주 유한한다. 또 어떤 기존의 기술은 런닝머신 등의 방안에 의해 사용자가 동일한 위치에서 이동하게 하는 것인데 사용자가 지속적으로 체능을 소모하여야 하므로 인간과 컴퓨터가 인터랙티브하는 것을 장기간 진행할 수 없고 동시에 사용자가 캐릭터를 마음대로 움직이게 하기도 어렵다. 캐릭터의 운동공간을 축소하는 기존의 기술은 전차와 같은 이동 조종도구를 더 포함하는데 캐릭터가 조종과정에서 전차 또는 같은 유형의 기동설비를 조종하는 동작만 수행할 수 있고 전차에서 떠나 동작형태 또는 동작폭에 제한이 없는 동작을 수행할 수 없으나 이런 전통적인 방식은 상기 결함외에도 기계제어부재가 많고 원가가 높으며 휴대하기 불편하는 등 문제가 있는 것이 명백하다.
또한 수많은 기존의 기술에서는 각종 원인으로 인해 캐릭터의 유한 양의 동작만 허용하고 사용자가 동작을 수행하는 폭을 조정할 수 없거나 조정할 수 있는 폭이 일정치인데 예를 들어 어떤 게임에서 캐릭터는 소량의 공격 동작, 소량의 비전투 동작만 수행할 수 있고 이러한 동작을 수행하는 과정에서 동작의 폭이 일정하고, 즉 어느 한 동작에서 가상 캐릭터의 어느 두 부위 사이의 거리는 주어진 행진점에서 조정할 수 없거나 다른 하나 또는 몇 개의 일정치로만 조정할 수 있는데 예를 들어 가상 캐릭터가 가장 간단한 행보동작을 수행하게 하고 완전한 행보동작을 완성하는 것을 한 주기로 하면 특정 비율의 진도(예를 들어 1/5주기)를 완성하는데 있어서 캐릭터의 좌, 우 두 발바닥 사이의 거리의 조정 가능치가 두 개(즉 행보 생태치, 달리기 생태치)만 있다.
본 발명의 목적은 사용자가 현실감을 느끼면서 가상 세계로 들어갈 수 있으며 시간의 제한과 체능의 제한을 받지 않고 지속적으로 캐릭터를 제어할 수 있는 방법 및 설비를 제공하는 것인데 캐릭터는 사용자가 수행하고 싶은 임의의 동작을 수행할 수 있고 시스템이 캐릭터가 수행할 수 있는 동작 자세와 운동형태에 대해 제한하지 않아도 되며 동시에 발명의 배경이 되는 기술에서 제시한 기타 문제도 극복할 수 있다.
본 발명을 편하게 이해하기 위하여 특히 연관되는 각 전문 용어에 대해 다음과 같이 해석한다.
캐릭터: 가상 세계에서 사용자에 의해 조종될 수 있고 사용자가 자기의 가상 캐릭터로 생각하는 것을 가리키는데 사람 또는 임의의 운동 물체일 수 있다.
사용자 허용 미동작 방안: 사용자가 하나 또는 한 조의 조건에 맞는 미동작을 실시할 때 컴퓨터에 대해 제어명령을 발송하는 것을 가리키는데 여기서 말하는 미동작은 특히 상응하는 어느 한 관절이 1초 내의 이동변위가 20mm보다 작은 것과 같은 사용자의 작은 폭의 동작을 가리키는데 구체적인 표현은 예를 들어 팔이 약간 움직이거나 다리가 약간 구부리는 것이 있고 본 발명의 상기 조건은 특히 사용자의 운동부위가 관련되는 캐릭터 몸체의 가상동작부위를 제어하지 않거나 완전히 제어하지 못하는 경우를 포함한다.
가상 허용 동작 방안: 가상 세계에서 캐릭터 또는 가상 세계의 기구가 동작 또는 동작방안을 수행하게 하는 것인데 상기 동작방안은 연속적인 동작세트, 동작역량, 속도 등을 포함한다.
운동부위: 사용자의 모든 관절의 운동이 모두 캐릭터의 상응하는 부위의 운동을 제어할 수 있는 것이 아니고 특히 캐릭터가 사람이 아닌 경우 사용자 몸의 어떤 관절이 없기 때문에 본 발명에서 가리키는 "운동부위"는 가상 세계에서 캐릭터에 운동할 수 있는 부위를 부여하여 사용자 몸의 관절에 대응하는 것이다. 한편, 캐릭터의 운동부위가 사용자의 실제 운동부위의 양보다 많은 경우 본 발명에서 소개한 기타 방법을 이용하며 또한 본 문에서 말하는 운동부위는 골격 연결부에만 한정되지 않고 일반적으로 전체 위팔 또는 그의 어느 한 점과 같은 인체의 운동할 수 있는 임의의 부위를 가리킨다.
역방향 동작 : 캐릭터는 가상 세계의 배경에서 사용자가 발송한 명령과 벡터치가 같으나 방향이 반대되는 벡터 동작을 수행하고 상기 벡터 동작에 대하여 본 발명에서는 특히 어느 한 시점에서의 변위변화, 체적변화를 가리키며, 도 1에서 도시한 바와 같이 벡터 동작을 세로 좌표로 하고 시간을 가로 좌표로 하여 좌표계를 만드는 경우 사용자가 발송한 명령과 캐릭터가 위치하는 가상 세계의 배경은 곡선도에 대응하여 가로 좌표에 따라 축 대칭관계를 나타내며, 예를 들어 시점t1에서 시점t2까지 사용자가 동남방향으로 5m 보행하거나 달리고자 할 때 이 시간대에 캐릭터가 소재 배경에서 서북방향으로 5m 이동하면 구현할 수 있으며, 또한 예를 들어 사용자가 시점t1에서 시점t2까지 자신의 전신 비례를 2배 커지고자 하는 경우 캐릭터가 위치하는 배경이 같은 시간대에 2배 축소되는데 여기서는 특히 사용자의 변신 또는 변형 명령명령 중에 우선 눈 및 두 눈 사이의 간격의 변화가 포함되어 있는지를 판단하고 눈 및 두 눈 사이의 간격에 변화가 없으면 배경의 체적이 변화되지 않는데 즉 배경의 체적 벡터 동작과 캐릭터의 눈 및 두 눈 사이의 거리의 체적 벡터 동작은 벡터치가 같고 방향이 반대되는 관계를 가지고 있다. 상기 사용자 명령은 캐릭터 머리의 운동벡터와 시각벡터를 우선 선택할 수 있고 상기 운동벡터는 예를 들어 속도, 변위이고, 상기 시각벡터는 예를 들어 캐릭터의 체적변화이다.
손바닥: 도 2에서 도시한 바와 같이 손바닥(1)은 팔목(11)을 포함한 모든 손바닥(1)의 관절을 포함하는데 예를 들어 손가락(12)이다.
발바닥: 도 2에서 도시한 바와 같이 발바닥(2)은 발목(21)을 포함한 모든 발바닥(2)의 관절을 포함하는데 예를 들어 발가락(22)이다.
동작의 폭을 평가하는 지표: 추적 받는 부위의 어떤 시점에서의 운동 지표 또는 어떤 시점까지의 누계 운동 지표를 가리키기 때문에 추적 받는 부위의 어떤 시점의 속도일 수 있고 추적 받는 점의 어떤 시점에서의 위치와 묵시위치 사이의 거리일 수도 있으며 추적 받는 부위와 기타 부위와의 상대 위치관계의 어떤 시점에서 변화가 발생하는 지표일 수도 있고 추적 받는 부위와 기타 부위와의 상대 위치관계가 어떤 시점까지의 누계변화 지표일 수도 있는데 예를 들어 어떤 추적 받는 부위와 인접하는 부위 사이의 협각의 어떤 시점에서의 변화속도 또는 묵시협각에 대한 어떤 추적 받는 부위가 어떤 시점에서 인접하는 부위와의 협각의 차이고 또한 추적 받은 부위의 변위 및 방향, 추적 받은 부위의 두 시점에서의 협각 등일 수도 있으며 동작의 폭을 평가하는 지표는 상기에 한정되지 않는다.
동작 확대: 사용자의 진실감을 추구하고 인터랙티브하는 과정에서의 동기를 구현하기 위하여 아래의 두 개 규칙을 설정하는데 특히 아래의 두 개 규칙은 본 발명을 구현하기 위한 필수의 규칙이 아님을 제시한다.
1, 인체의 감지능력의 범위 내에서 동작 확대는 우선 사용자의 동작 폭, 역량에 대하여 확대하고 사용자의 힘을 평가하는 지표는 사용자 한 부위의 근육의 긴장 정도일 수 있다.
2, 인체의 감지능력의 범위를 초과할 때 동작 확대는 사용자의 동작 속도에 대하여 확대할 수도 있다.
상기 목적을 실현하기 위하여 본 발명의 기술방안은 다음과 같다.
1. 사용자가 변위하지 않고 하나의 "조종위치"에서 연속적으로 각종 제어를 수행하고 가상 세계의 공간과 시간의 한정을 받지 않는다.
본 발명은 동작 확대방법을 이용하여 상기 기술효과를 실현하는 것인데 상기 동작 확대방법은
1)가상세계에서 캐릭터를 설정하고 캐릭터가 하나 또는 하나 이상의 제어할 수 있는 가상 동작 부위를 가지게 하는 단계;
2)사용자의 운동부위와 캐릭터의 가상동작부위를 관련시켜 사용자의 운동부위의 동작폭에 대한 가상동작부위의 동작폭의 확대배수를 확인하고 사용자의 두 개 인접하는 운동부위의 자세가 캐릭터와 관련되는 가상동작부위의 자세와 다른 것을 허용하며 사용자와 캐릭터의 운동형태가 다르거나 비슷하지 않는 것도 허용하고 캐릭터가 앉은 상태의 운동과 누워있는 상태의 운동이 아닌 과정에서도 조종위치에서 떠나지 않고 조종위치에 앉거나 눕는 것을 만족하는 단계;
3)사용자가 조종위치에 앉거나 누워서 미동작을 수행하는 단계;
4)캐릭터가 사용자의 미동작를 확대하여 수행하는 단계;를 포함한다.
사용자 신체의 서로 다른 운동부위의 미동작이 확대되는 배수는 다를 수 있고 특히 확대배수가 "1"이 아닌 서로 다른 두 운동부위의 확대배수가 다를 수 있는데 예를 들어 손가락의 특정 시점에서의 확대배수는 3이고 위팔의 동일한 시점에서의 확대배수는 20이며 같은 운동부위가 서로 다른 시점에서 확대되는 배수도 다를 수 있다
사용자 신체의 서로 다른 운동부위의 미동작이 확대되는 배수는 다를 수 있고 특히 확대배수가 "1"이 아닌 서로 다른 두 운동부위의 확대배수가 다를 수 있는데 예를 들어 손가락의 특정 시점에서의 확대배수는 3이고 위팔의 동일한 시점에서의 확대배수는 20이며 같은 운동부위가 서로 다른 시점에서 확대되는 배수도 다를 수 있다.
우화 방안 1:
사용자 또는 가상 세계의 도구가 어느 한 사용자 허용 동작을 수행하는 최대폭M, 대응하는 가상 세계의 캐릭터의 가상 허용 동작의 최대폭N을 설정하며 t시점에서 사용자 또는 가상 세계의 도구가 이 허용동작을 수행하는 폭이 Mt로 되고 대응하는 가상 세계의 사람 또는 물체가 상응하는 허용동작을 수행하는 폭이 Nt로 되어 이 시스템은 Mt≥M인 경우 Nt=N, Mt<M인 경우 N>Nt>Mt를 만족하는데 예를 들어 사용자가 팔을 5도 올릴 때 캐릭터는 팔을 완전히 들어 올리고 사용자가 팔을 들어 올리는 각도가 5도보다 클 때 캐릭터는 모두 팔을 완전히 들어 올리며 여기서 말하는 5도는 사용자가 팔을 들어 올리는 최대폭이고 사용자의 팔은 5도 들어 올릴 수만 있다는 것이 아니다.
여기서 특히 사용자가 어떤 허용동작을 수행할 때 실제의 운동한계는 모두 이 허용동작의 최대폭보다 크고 본 기술효과를 더욱 효과적으로 실현하기 위하여 가상 세계의 과정에서 동작확대 시스템을 사용한다면 사용자 지체에 대하여 한정함으로써 작은 폭의 미동작만 수행하게 하는 것이 가장 바람직하다는 것을 제출한다.
상기 사용자 허용 미동작 방안은 사용자가 최대폭M으로 어느 한 미동작을 완성할 때 손바닥과 발바닥 외의 인접하는 임의의 두 부위의 각도변화치가 30도보다 작은 것을 만족한다. 예를 들어 어떤 허용 미동작 방안은 위팔과 아래팔의 각도와 관련되어 이 동작을 수행하는 전후의 각도가 120도와 140도인 경우 이 인접하는 두 부위의 협각 변화치는 +20도이다. 사용자와 캐릭터의 형태(또는 자세)는 같거나 비슷하여야 한다는 것을 요구하지 않는다(같은 자세란 사용자와 캐릭터가 어느 한 시점에서 동시에 같은 자세를 취하는 것을 가리키고, 비슷한 자세란 사용자와 캐릭터가 같은 시점에서 서있거나 앉아있는 것과 같은 동일한 자세를 취하는 것을 가리키며 상기 운동상태는 누워서 운동하는 상태, 앉아서 운동하는 상태, 걸으면서 운동하는 상태 등이 있고 사용자와 캐릭터의 운동상태가 비슷하지 않는 것은 예를 들어 같은 시간대 내에 사용자는 앉아서 운동하고 캐릭터는 걸으면서 운동하는 것이다).
또한 본 발명은 지속적인 동작명령을 제공할 수 있는데 사용자가 지속적으로 탄력성장치에 작용할 때 사용자는 몸을 돌리는 등 동작을 유지할 수 있다. 그러므로 사용자는 임의의 자세로 캐릭터의 임의의 동작 방안을 제어할 수 있다. 본 발명의 최대폭M은 플라스 마이나스 5도 이내를 우선 선택한다.
또한 사용자 몸의 서로 다른 부위의 미동작이 확대되는 배수가 다를 수 있는데 특히 확대배수가 "1"이 아닌 서로 다른 두 개의 부위의 확대배수가 다를 수 있고 같은 운동부위가 서로 다른 시점에서 확대되는 배수도 다를 수 있다.
우화 방안 2:
사용자 지체의 운동폭을 한정하여 소재위치에서 떠나지 않고 한정 받은 상응하는 부분이 미동작을 완전히 수행할 수 있게 하는데 상기 한정방안에 대하여 아래와 같은 하나 또는 다수의 우화를 실시할 수 있다.
1)가상 세계의 어느 한 물체가 캐릭터의 어떤 부위 또는 몇몇 부위에 작용할 때 사용자의 상응 부위는 이 물체의 동작특징에 따라 작용될 수 있다.
2)캐릭터가 가상 세계의 어느 한 물체에 작용할 때 먼저 캐릭터의 동작특징 및 이 물체의 즉시생태에 따라 캐릭터가 반작용을 받은 부위 및 반작용 효과를 판단하여 사용자의 상응하는 부위가 같은 요소 효과에 의해 작용되게 한다.
3)캐릭터의 피곤 정도 또는 최대 운동능력에 따라 사용자의 상응 부위가 상응 비례 또한 사용자가 감당할 수 있는 하중 작용을 받게 한다.
2. 가상 세계가 사용자의 명령을 받는 방법:
동작의 고정점에 의해 시스템을 제어하여 사용자가 수행한 동작을 확인하고 관련되는 동작에 의해 사용자가 발송한 명령내용을 확인하며 이어서 캐릭터의 가상동작부위의 운동을 제어하는 것이다.
상기 동작 고정점 제어 시스템: 사용자의 몸 또는 도구에 하나 또는 하나 이상의 위치고정센서를 설치하고 각 위치고정센서의 위치(3차원 좌표)가 시간을 따라 변화되는 것에 의해 사용자가 어느 한 시간에서의 자세 또는 어떤 시간대 내의 동작 변화를 확인할 수 있다.
이하 본 기술방안에 따른 "위치고정센서의 위치변화의 확인 방법", "위치고정센서의 위치변화에 의해 캐릭터의 동작을 제어하는 방법"과 "위치고정센서 또는 그의 변화와 캐릭터의 동작 또는 운동부위의 대응 방법"에 대하여 하나하나 소개한다.
(1)위치고정센서 위치변화의 확인방법은
1)가상 3차원 좌표계를 설정하고 3개 또는 3개 이상의 한 직선에 위치하지 않는 거리측정점의 이 좌표계에서의 좌표를 확인하는 단계;
2)위치고정센서가 상기 각 거리측정점까지의 거리를 각각 측정하여 각 위치고정센서가 임의의 시점에서의 3차원 좌표를 계산하는 단계;를 포함한다.
(2)위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법은 가상 세계에서 캐릭터에 대해 A1, A2…An 총 n개의 단독적으로 운동 가능한 가상동작부위를 부여하는 것인데 이하 두 경우에 따라 제어한다.
1)이 N개의 가상동작부위가 모두 사용자의 몸에서 대응하는 운동부위를 찾아 대응할 수 있는 경우 사용자의 각 대응되는 운동부위에 각각 N1, N2…Nn 총 N개의 위치고정센서를 설치하고 임의의 시점t에서 N1, N2…Nn의 3차원 위치 변화를 추적하며 각 위치고정센서의 3차원 위치를 변화시켜 캐릭터의 상응하는 가상동작부위를 제어하여 관련되는 동작을 수행하도록 한다.
2)이 N개의 가상동작부위가 완전히 사용자의 몸에서 대응하는 운동부위를 찾아 대응할 수 없는 경우 소량의 대응관계를 찾을 수 없는 가상동작부위(Mx)가 있다고 가정하고 먼저 사용자의 운동부위(Nx)가 캐릭터의 Mx1, Mx1…Mxs 총 s개의 가상동작부위를 선택하여 제어하게 하고 선택법과 결합법중의 하나 또는 전부를 이용하여 구체적인 가상동작부위(Mx)를 선택하고 제어하며 상기 선택법은 운동부위(Nx)가 대응하는 가상동작부위를 확인한 후 단독적으로 직접 제어할 수 있는 것을 의미하고 상기 결합법은 가상동작부위를 바꾸어야 할 때 제3명령에 의하거나 또는 기타 운동부위(Z)를 이용하고 공동적으로 협력하여 서로 다른 가상동작부위(Mx)를 매칭할 수 있는 것을 의미하는데 예를 들어 사용자의 팔은 캐릭터의 팔과 날개를 선택하여 제어할 수 있고 상기 운동부위(Z)가 발가락인 경우 발가락을 구부리면 사용자가 날개를 제어하고 다시 펴면 팔을 제어하며 상기 제3명령은 사용자가 요구에 맞는 명령을 발송할 때 시스템이 인터페이스를 제공하여 사용자가 선택 인터페이스를 통해 제어하고자 하는 가상동작부위를 확인하거나 교체할 수 있게 하는 것을 의미한다.
""3. 후각 시스템, 촉각시스템과 체력피곤의 무작위 장애물 설치 시스템중의 하나 또는 다수개를 더 포함한다.
시스템이 캐릭터가 피곤한 것을 식별하게 되면 상응하는 부위의 장애물 설치 기구가 이 부위에 대한 부하가 더 커지게 되고 사용자가 이 동작을 더 어렵게 수행하게 되어 사용자가 캐릭터와 유사한 감각을 가지게 되므로 게임이 더 진실적으로 느끼게 된다.
4. 본 발명은 또한 상기 가상 세계의 방법에 적용되는 "착용식 위치고정 제어설비"를 소개하였다.
손바닥 착용물, 팔 착용물, 머리 착용물, 발바닥 착용물, 다리 착용물, 엉덩이 착용물과 허리 착용물을 포함하고 각 착용물에는 모두 하나 또는 하나 이상의 감응 고정점이 설치되어 있다.
또한 각 손가락의 3개 관절, 팔목 관절, 팔꿈치 관절, 어깨 관절, 머리의 한 직선에 위치하지 않는 임의의 3점, 각 발가락의 한 관절, 발목 관절, 종아리, 허벅지, 엉덩이, 척추중점에 모두 하나 또는 하나 이상의 감응 고정점이 설치되어 있는 것을 만족한다.
본 설비는 사용자의 몸에 위치하는 각 감응 고정점의 위치에 의해 어느 한 시점에서의 사용자의 위치와 자세를 완전히 확인하는 것이고 본 설비는 또한 상기 감응 고정점이 상기 관절에서의 분배방안에 한정되지 않는다.
5. 본 발명은 또한 사용자가 자가의 몸이 가상 세계로 들어가는 것을 확인하는 방법을 제공하였다.
이 방법은 동시에 치신 시스템, 전경 시스템과 배경 이동 시스템을 이용하는 것인데 이하 각 시스템을 하나하나 소개한다.
(1)상기 배경 이동 시스템은 가상 세계의 캐릭터가 위치하는 배경의 역방향 벡터 동작을 이용하여 사용자가 각종 이동 또는 변신(몸이 축소, 확대하거나 또는 형상이 변화하는 것)을 수행하고 있다는 착각을 느끼게 된다.
상기 캐릭터가 위치하는 배경을 확인하는 방법은
1)직접 또는 간접적으로 사용자의 머리에 머리와 동기적으로 변위할 수 있는 위치고정부재가 설치되어 있고 상기 위치고정부재에 적어도 한 직선에 위치하지 않는 3점의 가상 세계에서의 위치가 확인될 수 있어 사용자의 머리가 가상 세계에서의 위치 및 안면 방향을 확인하는 단계;
2)사용자의 머리가 가상 세계에서의 위치 및 안면 방향에 의해 가상 세계의 화면을 확인하는 단계; 를 포함한다.
상기 역방향 동작은 가상 세계의 캐릭터가 위치하는 배경이 캐릭터의 머리방향과 반대되고 벡터치가 같은 벡터 동작을 수행하게 하는 것인데 양자는 각각 동일한 벡터 동작과 시간을 좌표축으로 하는 좌표계에서 벡터 동작 시간도가 시간 좌표축에 따라 축 대칭 관계를 나타낸다.
(2)상기 전경 시스템은 사용자가 가상 세계의 배경만 볼 수 있게 하고 현실의 배경을 볼 수 없게 하여 가상 세계의 배경이 사용자의 전체 시각 범위에 가득 차는 것인데 본 시스템은 특히 사용자가 3D 안경을 쓰고 스크린 및 그의 가상 세계의 화면이 모두 사용자의 전체 시각 범위를 가득 차게 하는 것을 가리킨다.
(3)상기 치신 시스템은 사용자와 캐릭터의 가상 세계에서의 위치가 동일하고 사용자의 몸과 캐릭터의 운동이 동기적인 것을 만족하여 사용자가 자기의 몸을 보고 싶을 때 가상 세계에서의 자기의 각종 동작을 확인할 수 있게 한다.
상기 기술방안의 장점은 다음과 같다.
본 발명은 사용자가 미동작을 수행하게 하고 가상 캐릭터가 미동작을 확대하여 수행하게 하며 각 부위의 확대비례를 허용하는 정도가 다르고, 즉 사용자의 즉시자세가 가상 캐릭터와 다르고 자세의 변화상황도 완전히 같기 않기 때문에 조종공간에 대한 사용자의 요구를 대폭 확대하였는데 즉 "가상 캐릭터가 가상 환경과 접촉하는 부위"와 "사용자가 조종공간과 접촉하는 부위"가 다를 수 있고 특히 "사용자가 조종위치에 지탱되는 부위"와 "캐릭터가 소재 환경에 지탱되는 부위"가 다른 것을 구현할 수 있는데 예를 들어 사용자가 조종위치에 앉아서 캐릭터를 제어하여 보행동작을 수행하게 할 때 "사용자가 조종위치에 지탱되는 부위"는 엉덩이이고 "캐릭터가 소재 환경에 지탱되는 부위"는 발바닥이다.
동시에 "사용자가 소재 조종위치에 대한 작용력"과 "가상 캐릭터가 소재 환경에 대한 작용력"도 다를 수 있고, 가상 캐릭터가 한 동작을 수행하여 소재 환경에 작용력을 가하며 이어서 가상 캐릭터를 변위시키는 경우 사용자는 소재 환경에 동일한 작용력을 가하지 않고 또는 조종대에 가한 작용력이 사용자 주요 지체에 대한 조종대의 한정을 극복하는데 충분하지 않게 때문에 가상 캐릭터가 어떻게 변위하여도 시종 조종대에서 떠나지 않아도 되는데 예를 들어 사용자가 침대에서 가상 캐릭터가 행보하도록 제어할 때 사용자의 몸을 앞으로 약간 기울이고 두발을 침대에서 교체적으로 움직이면 되고 이러한 동작은 사용자가 침대에서의 위치를 변화시키지 않으며 이를 통해 캐릭터가 앉은 상태의 운동과 누워있는 상태의 운동이 아닌 과정에서도 조종위치에서 떠나지 않고 조종위치에 앉거나 누워있을 수 있다는 것을 알 수 있다.
가상 캐릭터를 아무리 응용하거나 가상 환경에서 어떤 변위가 일어나도 사용자는 모두 조종위치에서 떠나지 않아도 되므로 시스템은 조종공간이 사용자의 몸에 대한 한정 요구를 만족하기 위하여(시스템이 가상 캐릭터의 운동공간과 운동형식에 대하여 한정하지 않는다면 전통적인 기술을 사용할 때 사용자가 조종대를 떠나거나 벽에 부딪치는 상황이 일어나게 되고 본 발명이 기재한 기술을 사용하면 사용자가 조종대를 떠나거나 벽에 부딪치는 상황이 일어나지 않음) 가상 캐릭터의 운동공간과 운동형식을 한정하지 않아도 된다.
본 발명은 사용자의 몸이 소재위치에서 떠나지 않아도 되는 전제하에서 가상 캐릭터가 임의의 동작을 수행하도록 제어하고 시스템은 동작 형태, 양, 폭에 대해 한정하지 않아도 되며 또한 사용자는 조종과정에서 모두 누워 있거나 또는 앉아 있을 수 있기 때문에 사용자가 장기간 편히 각종 조종을 완성할 수 있고 체력이 떨어져 중지하여야 하는 경우가 쉽게 나타나지 않으며 또한 본 발명의 제품은 적용하는 사람이 많고 운동기능이 있는 자라면 모두 본 발명에 의해 인간과 컴퓨터의 인터랙티브를 할 수 있다.
사용자가 미동작을 이용하여 캐릭터를 제어하기 때문에 캐릭터가 도 3에서 도시한 바와 같은 허리를 뒤로 굽히는 동작을 수행하는 동시에 펀치하는 동작과 같은 현실에서 완성할 수 없는 각종 동작을 완성할 수 있다.
본 발명에서 소개한 "동작확대 시스템"은 사용자의 몸이 변위하지 않거나 또는 약간 변위하여도 가상 세계에서 부여한 전체 기능 또는 능력을 구현할 수 있게 하여 사용자가 가상 세계의 전반 과정에서 모두 하나의 조종위치에 있게 하고 동시에 사용자의 운동부위와 가상 세계의 캐릭터의 운동부위가 일치하는 것에도 편리하여 사용자가 쉽게 습득할 수 있다.
본 발명에서 소개한 "선택법"과 "결합법"은 캐릭터의 운동부위의 양이 감응 고정점의 양보다 크는 것을 구현할 수 있는데 예를 들어 신체에 장애가 있는 사람은 운동기능이 있는 부위를 조합하여 응용함으로써 캐릭터가 자유자재로 운동기능을 잃은 부위를 움직이도록 한다.
이하 첨부된 도면과 구체적인 실시예를 결합하여 본 발명을 더욱 상세하게 설명한다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
실시예1 : 인간과 컴퓨터가 인터랙티브하는 제어방법
《사용자 미동작 데이터 베이스》와 《캐릭터 가상 동작 데이터》를 설정하였고 《동작확대 규칙》과 《인간과 컴퓨터가 인터랙티브하는 규칙》을 규정한 인간과 컴퓨터가 인터랙티브하는 제어방법.
상기 《사용자 미동작 데이터 베이스》는 《사용자 허용 미동작 방안 데이터 베이스》를 더 포함한다.
1. 사용자 미동작 데이터 베이스:
1.1)머리, 목, 허리, 위팔, 아래팔, 골반, 윗다리, 아랫다리, 손바닥과 발바닥을 키워드로 하여 데이터 베이스를 설정하는데 취지는 사용자 몸의 캐릭터의 동작을 제어할 수 있는 운동부위를 확인하는데 있고;
1.2)운동부위로 변위, 인접하는 관절의 각도변화치, 이동속도를 포함한 파라미터를 그리는데 취지는 구체적으로 운동부위가 발송한 명령의 형식을 규정하는데 있고;
1.3)파라미터를 그리는 상한선을 규정하고 미동작의 폭의 상한선을 규정하여 사용자가 "조종위치"에서 떠나지 않아도 연속적으로 임의의 제어동작을 수행할 수 있게 한다.
2. 사용자 허용 미동작 방안의 데이터 베이스:
2.1)제어명령을 발송하지 않는 상황을 규정하고;
2.2)특기를 발산하는 상황의 조건을 규정하는데 사용자가 조건에 맞는 동작 또는 동작세트를 수행할 때 캐릭터가 특기동작 등을 수행하는 것을 가리키고 특히 조건이 규정한 권한을 개방하여 서로 다른 사용자가 자신의 습관에 따라 설정할 수 있게 하는 것을 제시하였다.
3. 캐릭터 가상 동작 데이터 베이스
3.1)사용자의 운동부위에 대응하여 캐릭터의 가상 동작 부위 즉 캐릭터 몸의 제어 받을 수 있는 부위를 규정하고;
3.2)가상 동작 부위의 동작 파라미터에는 변위, 속도, 역량이 있고 사용자의 운동부위의 동작 폭에 대한 각 가상 동작부위의 동작 폭의 확대배수를 확인한다.
4. 인간과 컴퓨터가 인터랙티브하는 규칙
《사용자 미동작 데이터 베이스》와 《캐릭터 가상 동작 데이터》를 아래와 같은 관계로 연관시킨다.
4.1)《사용자 미동작 데이터 베이스》의 "운동부위"는 《캐릭터가상 동작데이터》의 "가상 동작 부위"와 관련되고;
4.2)《사용자 미동작 데이터 베이스》의 "운동부위가 그린 파라미터"는 《캐릭터 가상 동작 데이터 베이스》의 "가상 동작부위의 동작 파라미터"와 관련된다.
5. 동작 확대규칙
5.1)《사용자 미동작 데이터 베이스》의 "파라미터를 그리는 상한선을 규정함"에 따라 《인간과 컴퓨터가 인터랙티브하는 규칙》의 4.1)조항을 한정하고;
5.2)사용자 또는 가상 세계도구가 수행하는 임의의 허용동작의 최대폭M, 대응하는 가상 세계에서의 사람 또는 물품이 상응하는 허용 동작을 수행하는 최대폭N을 설정하며 t시점에서 사용자 또는 가상 세계의 도구가 이 허용 동작을 수행하는 폭이 Mt로 되고 대응하는 가상 세계에서의 사람 또는 물품이 상응하는 허용 동작을 수행하는 폭이 Nt로 되어 이 시스템은 Mt≥M일 때 Nt=N을 만족하고 Mt<M일 때 N>Nt>Mt를 만족한다.
6. 인간과 컴퓨터의 인터랙티브가 동기화되는 것을 확보하기 위하여 본 실시예에서는 사용자 미동작 식별시스템, 미동작 매칭 명령 규칙시스템을 포함하는 인간과 컴퓨터가 동기 되는 시스템도 제공하였다.
6.1)상기 사용자 미동작 식별시스템: 사용자의 몸 또는 도구에 대해 운동부위와 비운동부위를 규정하고 서로 다른 운동부위에 구별특징을 가진 위치고정센서를 각각 설치하며 가상 3차원 좌표계를 설정하여 3개 또는 3개 이상의 한 직선에 위치하지 않는 기지의 좌표점에 거리측정장치를 고정하는데 구체적인 식별방법은 다음과 같다.
a)어느 한 시점에서 위치고정센서가 상기 각 거리측정점까지의 거리를 각각 측정하여 각 위치고정센서의 3차원 좌표를 계산한다.
b)각 위치고정센서의 위치(3차원 좌표)가 시간에 따라 변화되는 것을 축적함으로써 사용자가 임의의 시간에서의 자세 또는 어느 시간대 내의 동작변화를 확인한다.
본 실시예에서 상기 사용자 미동작 식별시스템은 사용자의 운동부위의 운동에 대하여 실시간 추적을 실시하는 것이고 임의의 운동부위에 2개 또는 2개 이상의 위치고정센서를 설치하는데 그 중에 적어도 두 개의 위치고정센서의 x, y, z축에서의 좌표치가 모두 달라 이 운동부위의 어느 시간대내의 수평전각 또는 수직전각이 확인될 수 있게 한다.
6.2)상기 미동작 매칭 명령 규칙시스템: 사용자가 운동부위의 동작을 제어함으로써 운동부위에 있는 감응 위치 고정부재가 일정한 규칙의 변위변화를 일으키게 하여 캐릭터의 동작방안에 매칭하는데 아래와 같은 규칙을 포함한다.
규칙 1:
구체적으로 "위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법"과 "위치고정센서 또는 그의 변화와 캐릭터의 동작 또는 운동부위의 대응방법"을 포함하는데 이하에서 하나하나 소개한다.
규칙 1.1: 위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법:
가상 세계의 캐릭터에 대하여 A1, A2…An 총 n개의 단독적으로 운동가능하는 가상동작부위(A)를 부여하고 그 중 임의의 단독적으로 운동가능하는 가상동작부위(Ax)에는 Ax1, Ax2…Axm 총 m개의 허용동작이 설정되어 있으며 Axx는 그 중의 임의의 허용동작이고 이하 두 경우에 따라 제어한다.
경우 1: 이 n개의 가상동작부위가 모두 사용자의 몸에서 대응하는 운동부위를 찾아 대응할 수 있는 경우에는
1)사용자의 n개의 운동부위 대하여 각각 A1', A2'…An' 총 n개의 감응 고정점(A')을 대응하고 어느 한 시점t에서의 어느 한 감응 고정점(Ax')의 3차원 위치변화를 추적하여 Ax1', Ax2'…Axm' 총 m개중의 어느 운동규칙에 속하는지를 매칭하고 Axx'를 그 중의 임의의 운동규칙으로 하며;
2)캐릭터의 가상동작부위(A)를 하나하나 사용자 몸의 감응 고정점(A')에 대응하게 하고 임의의 가상동작부위(Ax)의 허용 동작(Axx)은 감응 고정점(Ax')에서 Axx'의 운동규칙을 따라 동작할 때에만 기동될 수 있는데 예를 들어 Ax가 발생한 변위가 각 시점에서의 변화는 하나하나 Ax'가 발생한 변위가 각 시점에서의 변화에 대응되고 또한 예를 들어 Ax가 실시한 역량의 강약은 Ax'가 대응하는 관절의 만곡도 및 이 관절이 떠는 주파수와 대응되고 Ax의 사용하는 역량이 최대치에 도달하는 조건은 사용자의 Ax'가 최대폭에 도달하고 또한 Ax가 Ax'의 긴장정도, 운동속도와 수행시간에 대응하는 것도 고려하여 사용자가 더 자연스럽게 가상 세계를 조종하고 캐릭터의 운동이 가능한 한 자연규칙에 부합되도록 하여야 하며;
3)본 실시예의 운동부위는 사용자 몸에 위치하는 각 감응 고정점의 위치에 의해 임의의 시점에서의 사용자의 위치와 자세를 완전히 확인하는 것인데 여기서 본 발명은 특히 각 손가락의 3개 관절, 팔목 관절, 팔꿈치 관절, 어깨 관절, 머리의 한 직선에 위치하지 않는 3점, 각 발가락의 한 관절, 발목 관절, 종아리, 허벅지, 엉덩이, 척추 중점중의 이 목적을 만족할 수 있는 운동부위의 총합을 예시하였다.
경우 2 : 이 n개의 가상동작부위가 사용자의 몸에서 완전히 대응하는 운동부위를 찾아 대응할 수 없는 경우에는 소량의 대응관계를 찾을 수 없는 가상동작부위(Ay)가 존재한다고 가정하여 먼저 사용자의 운동부위(Ay')가 그 중의 Ay1, Ay2…Ays 총 s개의 가상동작부위(Ay)를 선택하고 제어할 수 있게 하며 선택법과 결합법 중의 하나 또는 전부를 이용하여 구체적인 가상동작부위(Ay)를 선택하고 제어하는데 상기 선택법은 운동부위(Ay')가 대응하여 매칭하는 가상동작부위를 확인한 후 단독적으로 대응하는 가상동작부위(Ay)를 직접 제어할 수 있는 것이고 상기 결합법은 가상동작부위를 바꾸어야 할 때 제3명령에 의하거나 또는 기타 운동부위(Z)를 이용하고 기타 가상동작부위를 매칭하는 것인데 예를 들어 사용자의 팔은 캐릭터의 팔과 날개를 선택하여 제어할 수 있고 상기 운동부위(Z)를 발가락으로 하여 발가락을 구부리면 사용자가 날개를 제어하게 되고 발가락을 펴면 팔을 제어하게 되며 상기 제3명령은 사용자가 요구에 맞는 명령을 발송할 때 시스템이 인터페이스를 제공하고 사용자가 선택 인터페이스를 통해 제어하고자 하는 가상동작부위를 교체하거나 확인할 수 있게 하는 것을 의미한다.
또한 위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법은 사용자의 몸과 도구를 가동부와 불가동부로 나누고 가동부에 대해 각각 위치고정센서를 설치하는 단계를 더 포함하는데 그 중에 도구는 가상 세계의 물품 또는 기구와 대응되고 도구를 조종할 때 가상 세계에서의 상응 물품 또는 기구가 상응적으로 조종되게 할 수 있다.
규칙 1.2: 위치고정센서 또는 그의 변화와 캐릭터의 동작 또는 운동부위의 대응방법:
사용자의 서로 다른 운동부위에 있는 위치고정센서가 모두 서로 다른 구별특징을 가지게 하고 서로 다른 구별특징에 따라 캐릭터의 운동부위 또는 서로 다른 동작에 대응하게 하는 것이다.
상기 구별특징은 위치고정센서의 서로 다른 도포점밀도 또는 도포점규칙인데 예를 들어 도포점밀도가 d 또는 도포점규칙 1을 가진 위치고정센서의 위치가 변화될 때 캐릭터의 어느 한 가상동작부위는 상응하는 허용 동작을 수행하게 되고 도포점밀도 또는 도포점규칙은 날인을 통해 구현할 수 있다.
규칙 2:
명령을 발송하지 않는 규칙.
본 실시예에서는 명령을 발송하지 않는 규칙이 바람직하는데 물론 명령을 발송하는 규칙일 수도 있다.
본 실시예는 사용자의 소량 운동부위의 근육의 긴장정도와 운동속도를 사용자의 의도에 결합하여 미조정체제를 형성할 수 있고 상술한 감응 고정점은 이하 두 방안을 적용할 수 있다.
1)검지될 수 있는 도료를 감응 고정점으로 하여 근육의 예민점에 발라 감응 고정점의 운동상황 및 상대 위치의 변화를 통해 상응하는 운동부위의 근육의 긴장정도와 운동속도를 얻고 이어서 미조정체제에 의해 사용자의 의도를 판단하여 가상 세계에 상응하는 명령을 효과적으로 발송하도록 한다.
2)감응 고정점을 착용식 위치고정 제어설비의 각 운동부위에 고착하고 사용자가 직접 착용한 후 몸의 각 운동부위의 동작이 모두 대응하는 "감응 고정점"을 제어하여 관련되는 명령을 수행할 수 있기 때문에 사용자가 자신 또는 자신의 가상 세계에서 조종하는 기계를 보고 상응하는 동작을 수행하게 하는데 이 설비를 응용함으로써 사용자가 가상 세계로 들어가기 전의 준비시간을 대폭 줄였고 필요하는 준비 공정을 간단화 하여 사용자가 간편한 방식에 의해 가상 세계로 들어갈 수 있게 한다.
상기 두 방안은 "동작확대 시스템"에 한정되지 않고 특히 사용자의 몸이 변위하는 것을 요구하지 않는 레이싱 가상 세계와 같은 가상 세계에 적용된다.
본 실시예에서 착용식 위치고정 제어설비는 설비에 제어기를 설치하여 조종기가 각 고정점이 발생한 각 벡터변화(변위, 속도, 방향을 포함함)를 감지하게 할 수도 있는데 본 발명에서 소개한 "감응 고정점 시스템"을 결합하면 "착용식 위치고정 제어설비"를 효과적으로 간단화하여 전자 시스템이 필요없이 단 기계구조로 구성되게 할 수 있고 가상 세계의 과정에서 사용자의 각 부위가 미동작만 수행하기 때문에 설비에 손상이 발생되는 않는데 즉 설비의 사용수명을 확보하고 또한 전자 시스템에서 발생할 수 있는 전자 단락이 사용자에게 위험을 가져다 주는 것을 회피할 수 있다.
본 실시예에서 착용식 위치고정 제어설비는 손바닥 착용물, 팔 착용물, 머리 착용물, 발바닥 착용물, 다리 착용물, 엉덩이 착용물과 허리 착용물을 포함하고 각 착용물에는 모두 하나 또는 하나 이상의 감응 고정점이 설치되어 있다.
또한 각 손가락의 3개 관절, 팔목 관절, 팔꿈치 관절, 어깨 관절, 머리의 한 직선에 위치하지 않는 임의의 3점, 각 발가락의 한 관절, 발목 관절, 종아리, 허벅지, 엉덩이, 척추 중점에 모두 하나 또는 하나 이상의 감응 고정점이 설치되어 있는 것을 만족한다.
본 설비는 각 감응 고정점의 위치를 추적함으로써 임의의 시점에서의 사용자의 위치와 자세를 정확히 그리는 것인데 본 설비는 상기 감응 고정점의 상기 관절에서의 분배 방안에 한정되지 않는다.
바이오 효과를 향상하기 위하여 본 실시예는 반작용 감지장치와 작용 받는 감지장치를 포함하고, 주로 사용자의 최대 허용 미동작 폭(Mm)과 캐릭터의 최대 가상 허용 동작 폭(Nm)의 비율Mm/Nm을 수정하는데 사용하며, Mm/Nm의 치수를 디폴트 값보다 크게 하는데 즉 반작용 감지장치와 작용받는 감지장치가 가동할 때 Nm가 아래의 경우에 따라 같은 요소가 감소되는 인간과 컴퓨터가 인터랙티브하는 시스템을 제공하였다.
7.1)인간과 컴퓨터의 인터랙티브가 캐릭터에 의해 촉발되면 아래의 방법에 의해 구현된다.
7.1.1)사용자가 작용하고자 하는 목표를 지정한다.
방법 1:
눈 위치고정장치를 이용하여 사용자의 시선방향이 어떤 물체를 거치고 지체 또는 도구의 작용방향이 이 물체를 향할 때 시스템에 이 지체 또는 도구가 이 물체에 작용하고자 하는 명령을 발송하며 시스템이 명령을 발송하여 캐릭터가 이 목표를 지정하게 되는데 그 중에 사용자의 시선방향의 추적은 본 발명자가 출원한 출원번호가 "201110411809.X"인 《눈으로 물체를 식별하는 방법》 또는 특허번호가 "02829315.0"인 《비틀어진 눈의 방향과 위치의 추적》과 같은 임의의 기존기술을 이용할 수 있다.
방법 2:
눈 화상 채집장치에 의해 사용자가 지정한 주요 목표를 정확히 판단하는데 그 중에 눈화상 채집장치는 특허번호가 "200610072961.9"인 《눈화상채집장치》와 같은 많은 기존기술에 의해 구현될 수 있다.
7.1.2)이 동작이 목표에 작용된 후 반작용으로 인해 필연코 존재하는 캐릭터의 "동작속도", "동작폭"이 변화되고 시스템은 반작용 감지장치에 의해 사용자에 작용된 하중을 조정하거나 상응하는 가상동작부위의 최대폭을 변화시키거나 또는 상응하는 가상동작부위가 사용자의 운동부위에 대한 확대배수를 변화시켜 사용자가 캐릭터가 어느 한 목표에 작용한 후 "동작속도", "동작폭"이 발생한 변화를 느끼게 한다.
7.1.3)목표가 작용 받은 후의 형태 변화를 계산하는데 변형(자세변화, 회복할 수 없는 변형, 특히 파괴를 가리킴), 운동 에너지 변화(운동 에너지 치수+운동 에너지 방향)를 포함한다.
7.2)인간과 컴퓨터의 인터랙티브가 가상 세계의 기타 물체가 캐릭터에 작용하여 캐릭터가 피동적으로 인터랙티브하게 되는 경우 아래의 방법에 의해 구현된다.
7.2.1)캐릭터가 작용 받아 작용효과를 발생할 때 자동적으로 작용을 실시하는 물체를 목표로 지정한다.
7.2.2)캐릭터가 작용 받아 발생한 작용효과는 캐릭터가 작용 받은 후의 형태변화, 운동 에너지 변화를 가리키고 캐릭터가 작용 받아 발생한 작용효과는 작용 받는 감각장치에 의해 사용자에게 피드백하거나 상응하는 가상동작부위의 최대 폭 또는 확대비례를 변화시켜 캐릭터가 피동적으로 인터랙티브할 때 사용자가 자신의 형태 변화, 자세 구부림, 운동 에너지 변화를 느끼도록 한다.
이하 실례에 의해 아래의 내용을 소개한다.
캐릭터가 한 게임 캐릭터를 공격하고자 할 때 먼저 목표를 지정하고 펀치를 한 후 상대방의 운동하는 팔에 작용하여 상대방의 팔의 반작용을 받는데 여기서 특히 상대방이 패리가 있는지 없는지에 상관없이 캐릭터가 목표와 부딪치기만 하면 작용력과 반작용력의 원리에 의해 캐릭터는 필연코 반작용력을 받게 되는 것을 제시하였고 목표가 패리할 때 캐릭터는 또한 목표가 패리할 때 쓰는 팔의 작용을 받기 때문에 작용 받는 감지장치의 설치 효과가 겹치게 된다.
특히 아래와 같은 내용을 제시하였다.
1)동작확대 시스템의 효과성을 확보하기 위하여 캐릭터가 허용동작을 수행하는 조건은 감응 고정점이 어떤 시간에서의 위치가 아니고 바로 앞의 시점에서의 위치변화와 상대된다.
2)거리측정점은 고정된 것이거나 그의 좌표가 계산하여 확인활 수 있다.
3)어떤 가상 세계는 컴퓨터를 차지하는 공간을 감소하기 위하여 캐릭터에게 몇 개 특정된 동작만 부여하는데 이런 경우 사용자의 몇몇 부위의 동작 또는 동작세트를 만족하기만 하면 캐릭터가 일련의 허용 동작을 수행하게 제어할 수 있다.
4)동작확대 시스템과 "위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법"은 서로 조합하여 응용할 수 있고 단독적으로 사용할 수도 있다.
5)본 발명은 음성 제어 시스템을 더 포함하고 사용자가 음성에 의해 명령을 발송하여 캐릭터의 허용 동작 및 퇴출, 보존과 같은 가상 세계의 각종 기본 조종을 제어할 수 있게 한다. 본 시스템은 음성 식별 시스템을 더 포함하는데 예를 들어 미리 사용자의 목소리를 녹음할 수 있고 각종 명령을 매칭하는 것이다.
기타 설명:
사용자가 준비된 후 눈을 뜨면 지난번에 가상 세계에서 퇴출할 때 위치하는 위치에 처하여 있는 것을 볼 수 있게 되고 각종 동작이 초래한 배경의 변화는 모두 이 위치에서 시작된다.
본 가상 세계는 캐릭터가 변형능력을 가지게 하는데 변형한 후 제어가 필요한 부위가 사람의 관절의 양보다 크게 되면 "선택법"을 이용할 수 있는데 선택 명령 동작을 수행할 때 한 관절을 선택하여 가상 세계의 대응하는 구체적인 운동부위를 제어할 수 있으며 또한 "결합법"을 이용할 수도 있는데 즉 두 개 또는 두 개 이상의 관절이 동시에 어떤 특정동작을 수행할 때 같은 효과를 일으킬 수도 있다.
본 가상 세계 방법은 사용자가 격공취물(공간의 제한을 받지 않고 물품을 가져오는 것을 가리킴)등 초능력을 가지게 하는데 이 명령을 기동하는 조건은 사용자의 팔에 있는 감응 고정점이 한 직선에 집중되고 손바닥에 있는 감응 고정점이 발 형상으로 모아 이 물품을 향하는 것이며 가상 세계가 흡인력의 크기를 판단하는 것은 먼저 캐릭터의 흡인력 최대치를 설정할 수 있고 치수를 선택하는 조건은 손가락이 떠는 주파수일 수 있으며 주파수가 감소하면 흡인력이 대응되게 감소된다.
가상 세계가 사용자의 이러한 의미를 수신 받으면 흡인력과 물품이 소재 환경에 의해 작용력을 계산하고 비교하게 되고 물품의 중력이 너무 크거나 또는 원 소재위치의 흡인력이 너무 크는 경우 사용자의 "잡는 힘"이 증가하게 되는데 이때 손가락의 만곡 정도가 강화되고 손가락의 떨림이 격화되어 손가락에 있는 감응 고정점의 떨림이 격화되기 때문에 컴퓨터가 사용자의 흡인력이 강화되었다는 것을 수신 받아 흡수를 완성할 수 있는지를 진일보 판단하게 된다.
위치고정센서와 제어하고자 하는 부위가 어떻게 대응하는지? 만약 각 관절이 모두 하나의 위치고정센서와 대응한다면 풍부한 허용동작을 가지고 있는 가상 세계에서 사용자가 장기간 준비하여야 가상 세계에 들어갈 수 있기 때문에 본 발명은 또한 착용식 위치고정 제어설비를 제공하는데 사용자가 대응하는 장갑, 발 커버, 스탠드와 헬멧을 착용하기만 하면 전신의 각 관절에 묶은 감응 고정점을 조정할 수 있으므로 실용성이 아주 좋다.
동작확대법을 이용하기 때문에 사용자의 몸과 캐릭터의 각 지체위치, 자세와 완전히 대응되지 못하고 따라서 다만 감응 고정점의 위치에 따라 확인할 수 없게 되는데 양자의 머리(특히 눈)의 가상 세계에서의 위치와 방향은 같다. 사용자도 가상 세계에서 좌표를 확인할 수 있는 것을 어떻게 설명하는가? 먼저 사용자의 시각은 안경에 의해 획득하는 것이고 안경의 가상 세계에서의 좌표는 확인될 수 있으며 안구와 안경의 상대 위치가 변화되지 않기 때문에 사용자 안구의 가상 세계에서의 좌표가 확인될 수 있다.
실시예 2: 가상 설비
치신 시스템, 전경 시스템, 배경 이동 시스템, 동작 판단 시스템과 동작확대 시스템을 포함한다.
A. 동작 판단 시스템: 출원번호 "97198214.7"에서 소개한 기술방안과 같은 기존 기술을 이용할 수 있다.
B. 동작확대 시스템: 상세한 내용은 실시예 1를 참조한다.
C. 전경 시스템
상기 전경 시스템은 가상 세계의 과정에서 가상 세계의 화면이 시종 사용자의 전체 시각 범위를 덮어 사용자가 가상 세계의 배경만 볼 수 있고 현실중의 배경을 볼 수 없게 하며 본 시스템은 특히 사용자가 3D 안경을 쓰는 것을 가리키는데 안경에 스크린 및 그의 가상 세계의 화면은 모두 사용자의 전체 시각범위를 가득 차는데 이 기술은 특허번호가 "200810066897.2"인 《CMMB 수신모듈을 집적한 이동 동영상 안경》과 같은 기존 기술을 이용할 수 있다.
D. 치신 시스템
상기 치신 시스템은 사용자와 캐릭터의 가상 세계에서의 위치가 같고 사용자의 몸의 운동과 캐릭터의 운동이 동기되는 것을 만족하여 사용자가 캐릭터의 몸을 볼 때 자신의 현실중의 몸으로 착각하게 하며 사용자의 몸의 운동과 캐릭터의 운동이 동기되는 방법은 동작 고정점 제어 시스템에 의해 사용자가 수행한 동작을 확인하고 관련되는 동작에 의해 사용자가 발송한 명령 내용을 확인하며 이어서 캐릭터가 운동부위에 대한 운동을 제어한다.
E. 배경 이동 시스템
상기 배경 이동 시스템은 가상 세계에서의 캐릭터가 위치하는 배경의 역방향 동작을 이용하여 사용자가 각종 이동 또는 변신(몸이 축소, 확대하거나 또는 형상이 변화함)을 수행하고 있다는 착각을 하게 하는 것인데 상기 캐릭터가 위치하는 배경을 확인하는 방법은
1)직접 사용자의 머리에 머리와 동기적으로 변위를 발생할 수 있는 위치고정부재를 설치하고 상기 위치고정부재에는 한 직선에 위치하지 않는 3개 위치고정센서가 설치되어 있으며 상기 위치고정센서는 가상 세계의 위치가 확인될 수 있는 것을 만족하여 사용자의 머리가 가상 세계에서의 위치 및 안면의 방향을 확인하는 단계;
2)사용자의 머리의 가상 세계에서의 위치 및 안면의 방향에 따라 가상 세계의 화면을 확인하는 단계; 를 포함한다.
본 실시예에서 위치고정부재를 장착하는 위치의 중점은 머리와 동기적으로 변위할 수 있는 것을 만족하는 위치이기 때문에 사용자의 머리에 있는 각종 기구에 장착할 수 있다.
본 실시예에서 사용자와 캐릭터가 얼굴에서 응용하는 동기관계도 동작확대 시스템을 이용할 수 있다.
본 실시예는 가상 세계가 더욱 현실처럼 보이도록 후각 시스템, 촉각 시스템과 체력피곤등 무작위 장애물 설치 시스템중의 하나 또는 다수개를 포함한다.
상기 체력피곤의 무작위 장애물 설치 시스템은 착용식 위치고정 제어설비와 결합할 수 있는데 예를 들어 발바닥 착용물에 신축할 수 있는 추진기구를 연결할 수 있고 손바닥 착용물에 수축할 수 있는 손잡이를 내장할 수 있다.
상기 장애물 설치 시스템은 반작용 감지장치와 작용 받는 감지장치를 포함하는데 상기 작용 받는 감지장치는 가상 세계에서의 어느 한 물체가 캐릭터의 한 부위 또는 몇몇 부위에 작용할 때 장애물 설치 시스템이 이 물체의 동작 특징에 따라 사용자의 상응 부위에 작용하는 것을 만족하며 반작용 감지장치는 캐릭터가 가상 세계의 어느 한 물체에 작용할 때 시스템이 먼저 캐릭터의 동작 특징 및 이 물체의 즉시생태에 따라 캐릭터가 반작용을 받는 부위 및 반작용의 효과를 판단하고 상기 장애물 설치 시스템은 같은 요소 효과에 의해 사용자의 상응하는 부위에 작용한다. 상기 장애물 설치 시스템은 캐릭터의 피곤정도 또는 최대 운동능력에 따라 반작용 감지장치와 작용 받는 감지장치가 사용자에 대한 하중을 변화시킨다.
이하 실례를 통해 아래 내용을 소개한다.
게임하기 전에 사용자가 먼저 한 조종위치(예를 들어 침대)에 고정하고 어느 한 지체를 움지이면 가상 세계에서의 대응하는 캐릭터가 완전한 동작을 수행하게 되는데 사용자가 임의의 동작을 수행할 때 모두 하나의 조종위치에서 진행될 수 있고 동작한 후 몸의 소재위치 또한 변화되지 않아 사용자의 운동 공간을 감소하는 것이 목적이다.
사용자가 제어대에 눕거나 앉은 후 장애물 설치 시스템에 의해 사용자의 각 구간의 최대 운동범위를 한정하는데 예를 들어 발판장치가 탄력적으로 사용자의 발판과 접촉하고 팔 위치한정장치는 사용자의 팔에 끼운다.
상기 장애물 설치 기구는 사용자가 허용동작을 수행하는 부위의 윗쪽에 설치되고 정상에서 장애물 설치 기구와 사용자의 구간이 일정한 거리(자유공간으로 함)를 유지하게 하여 사용자의 각 부위가 장애물 설치 기구와 접촉하지 않는 경우 작용을 받지 않고 임의의 미동작을 수행할 수 있게 하며 상기 장애물 설치 기구에는 탄력성 하중 운동영역(하중공간으로 함)이 설치되어 있고 사용자의 구간이 장애물 설치 기구와 접촉하고 계속하여 탄력 반방향으로 운동할 때 상응 부위는 탄력을 극복하면서 움직여야 한다. 그의 기능은 아래와 같다.
1)사용자가 자유공간과 하중공간에서 이동할 수 있는 총합은 사용자의 최대 허용 미동작의 폭과 대응된다.
2)사용자의 구간이 장애물 설치 기구에 작용하고 동시에 그의 동작이 컴퓨터 식별명령에 부합할 때 캐릭터는 연속적으로 몸을 돌리는 것과 같은 가상 허용 동작을 지속적으로 수행한다.
3)사용자가 인간과 컴퓨터의 인터랙티브를 촉발할 때 장애물 설치 기구는 목표가 사용자에 대한 반작용으로 나타낸다.
4)캐릭터가 가상 세계의 물체에 의해 작용될 때 장애물 설치 기구는 자유공간을 축소하여 사용자의 상응 구간에 작용한다.
5)캐릭터의 운동 능력치가 상승할 때 장애물 설치 기구의 부하가 감소된다.
6)캐릭터의 운동 능력치가 감소될 때 예를 들어 피곤할 때 장애물 설치 기구의 부하는 향상된다.
본 발명의 동영상 설비는 눈으로 보는 설비에 한정되지 않고 예를 들어 특허번호가 "00820024.6"인 "인체 전자 삽입체 및 그의 인공 시각 시스템"에서는 이미 눈에 의하지 않고 대뇌가 화상을 얻게 되는 방법을 제시하였다.
실시예 3: 인간과 컴퓨터가 인터랙티브하는 제어방법
이 방법은 게임에 사용하여 캐릭터가 초능력을 가지게 하는데 주로
1)캐릭터가 사용자의 체능을 확대하는 것 이외의 초능력 가상 허용 동작 방안을 설정하는 단계;
2)사용자 허용 미동작의 변화를 추적하고 캐릭터의 초능력 가상 허용 동작의 작용 목표를 확인하는 단계;
3)초능력 가상 허용 동작을 수행할 때 캐릭터의 초능력 기능치를 평학하여 작용받는 목표의 같은 요소의 형태가 변화되는 단계;를 포함한다.
본 실시예의 형태변화는 위치, 형상, 생태, 물질변화를 포함하는데 그 중에 형상은 변형, 액상, 과립상 지간의 변화등을 포함하고 생태변화는 기체상, 고체상, 액체상 지간의 전환 등을 포함하며 위치는 변위, 운동속도, 가속도 등 운동의 변화를 포함한다.
본 발명의 가상 환경은 적어도 미래환경, 과거환경, 몽경중의 하나 또는 다수개의 가상 환경을 포함한다.
본 발명은 사용자가 가상 환경에서 물체의 파라미터를 하는 권한을 개방할 수 있어 사용자가 스스로 가상 환경을 구축, 조정, 삭제할 수 있다. 따라서 사용자가 상상중의 물품을 실체화하기 쉬우며 전통적인 도구에 비해 상상 초월하는 잠정을 가지고 있다.
실시예 4: 공간설계 또는 공간샘플을 전시하고 교류하는데 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)공간설계 또는 공간샘플에 대해 3d 모델링하는 단계;
2)사용자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법을 응용하여 캐릭터가 공간설계 또는 공간샘플의 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계;를 포함한다.
실시예 5: 영화 촬영에 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)영화 배경에 대해 3D 모델링하는 단계;
2)연기자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법을 응용하여 캐릭터가 1)에 기재된 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계;
3) 3D 모델링에 필요하는 배경 및 캐릭터가 가상 동작을 실시하는 화면을 녹화하는 단계; 를 포함한다.
실시예 6: 모의 실험에 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)기지의 자연규칙을 수록하여 연산법칙f[x1(x11, x12…x1n), x2(x21, x22…x2n)…xn(xn1, xn2…xnn)]=y1(y11, y12…y1n), y2(y21, y22…y2n)…yn(yn1, yn2…ynn)을 세우는데 그 중에 xn은 규칙이 발생되지 전의 반응주체, xnn은 xn의 계산 파라미터, yn은 규칙이 발생한 후의 새로운 주체, ynn은 yn의 계산 파라미터, f는 규칙의 연산공식인 단계;
2)사용자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법에 의해 캐릭터가 가상 환경에서 xn의 xnn치를 사용자의 설정치로 조정하게 하는 단계;
3)사용자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법에 의해 캐릭터가 가상 환경에서 xn에 대해 f1동작을 수행하게 하는 단계;
4)단계 1에 기재된 연산법칙에 의해 yn 및 그의 ynn치를 계산하고 기록하는 단계를 포함한다.
본 실시예에서 실험이 한 규칙의 여러번 반응 또는 다수의 규칙의 여러번 반응이 필요한 경우 필요에 따라 단계2)~4)를 반복적으로 수행한다.
이 실험방법은 사용자에 피해를 주지 않을 뿐만아니라 원가가 필요 없고 실험 정밀도가 아주 높다.
실시예 7: 여행에 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)여행지에 대하여 3d 모델링하는 단계;
2)사용자가 실시예 1에 기재된 게임방법을 응용하여 캐릭터가 1)에 기재된 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계를 포함한다.
실시예1 : 인간과 컴퓨터가 인터랙티브하는 제어방법
《사용자 미동작 데이터 베이스》와 《캐릭터 가상 동작 데이터》를 설정하였고 《동작확대 규칙》과 《인간과 컴퓨터가 인터랙티브하는 규칙》을 규정한 인간과 컴퓨터가 인터랙티브하는 제어방법.
상기 《사용자 미동작 데이터 베이스》는 《사용자 허용 미동작 방안 데이터 베이스》를 더 포함한다.
1. 사용자 미동작 데이터 베이스:
1.1)머리, 목, 허리, 위팔, 아래팔, 골반, 윗다리, 아랫다리, 손바닥과 발바닥을 키워드로 하여 데이터 베이스를 설정하는데 취지는 사용자 몸의 캐릭터의 동작을 제어할 수 있는 운동부위를 확인하는데 있고;
1.2)운동부위로 변위, 인접하는 관절의 각도변화치, 이동속도를 포함한 파라미터를 그리는데 취지는 구체적으로 운동부위가 발송한 명령의 형식을 규정하는데 있고;
1.3)파라미터를 그리는 상한선을 규정하고 미동작의 폭의 상한선을 규정하여 사용자가 "조종위치"에서 떠나지 않아도 연속적으로 임의의 제어동작을 수행할 수 있게 한다.
2. 사용자 허용 미동작 방안의 데이터 베이스:
2.1)제어명령을 발송하지 않는 상황을 규정하고;
2.2)특기를 발산하는 상황의 조건을 규정하는데 사용자가 조건에 맞는 동작 또는 동작세트를 수행할 때 캐릭터가 특기동작 등을 수행하는 것을 가리키고 특히 조건이 규정한 권한을 개방하여 서로 다른 사용자가 자신의 습관에 따라 설정할 수 있게 하는 것을 제시하였다.
3. 캐릭터 가상 동작 데이터 베이스
3.1)사용자의 운동부위에 대응하여 캐릭터의 가상 동작 부위 즉 캐릭터 몸의 제어 받을 수 있는 부위를 규정하고;
3.2)가상 동작 부위의 동작 파라미터에는 변위, 속도, 역량이 있고 사용자의 운동부위의 동작 폭에 대한 각 가상 동작부위의 동작 폭의 확대배수를 확인한다.
4. 인간과 컴퓨터가 인터랙티브하는 규칙
《사용자 미동작 데이터 베이스》와 《캐릭터 가상 동작 데이터》를 아래와 같은 관계로 연관시킨다.
4.1)《사용자 미동작 데이터 베이스》의 "운동부위"는 《캐릭터가상 동작데이터》의 "가상 동작 부위"와 관련되고;
4.2)《사용자 미동작 데이터 베이스》의 "운동부위가 그린 파라미터"는 《캐릭터 가상 동작 데이터 베이스》의 "가상 동작부위의 동작 파라미터"와 관련된다.
5. 동작 확대규칙
5.1)《사용자 미동작 데이터 베이스》의 "파라미터를 그리는 상한선을 규정함"에 따라 《인간과 컴퓨터가 인터랙티브하는 규칙》의 4.1)조항을 한정하고;
5.2)사용자 또는 가상 세계도구가 수행하는 임의의 허용동작의 최대폭M, 대응하는 가상 세계에서의 사람 또는 물품이 상응하는 허용 동작을 수행하는 최대폭N을 설정하며 t시점에서 사용자 또는 가상 세계의 도구가 이 허용 동작을 수행하는 폭이 Mt로 되고 대응하는 가상 세계에서의 사람 또는 물품이 상응하는 허용 동작을 수행하는 폭이 Nt로 되어 이 시스템은 Mt≥M일 때 Nt=N을 만족하고 Mt<M일 때 N>Nt>Mt를 만족한다.
6. 인간과 컴퓨터의 인터랙티브가 동기화되는 것을 확보하기 위하여 본 실시예에서는 사용자 미동작 식별시스템, 미동작 매칭 명령 규칙시스템을 포함하는 인간과 컴퓨터가 동기 되는 시스템도 제공하였다.
6.1)상기 사용자 미동작 식별시스템: 사용자의 몸 또는 도구에 대해 운동부위와 비운동부위를 규정하고 서로 다른 운동부위에 구별특징을 가진 위치고정센서를 각각 설치하며 가상 3차원 좌표계를 설정하여 3개 또는 3개 이상의 한 직선에 위치하지 않는 기지의 좌표점에 거리측정장치를 고정하는데 구체적인 식별방법은 다음과 같다.
a)어느 한 시점에서 위치고정센서가 상기 각 거리측정점까지의 거리를 각각 측정하여 각 위치고정센서의 3차원 좌표를 계산한다.
b)각 위치고정센서의 위치(3차원 좌표)가 시간에 따라 변화되는 것을 축적함으로써 사용자가 임의의 시간에서의 자세 또는 어느 시간대 내의 동작변화를 확인한다.
본 실시예에서 상기 사용자 미동작 식별시스템은 사용자의 운동부위의 운동에 대하여 실시간 추적을 실시하는 것이고 임의의 운동부위에 2개 또는 2개 이상의 위치고정센서를 설치하는데 그 중에 적어도 두 개의 위치고정센서의 x, y, z축에서의 좌표치가 모두 달라 이 운동부위의 어느 시간대내의 수평전각 또는 수직전각이 확인될 수 있게 한다.
6.2)상기 미동작 매칭 명령 규칙시스템: 사용자가 운동부위의 동작을 제어함으로써 운동부위에 있는 감응 위치 고정부재가 일정한 규칙의 변위변화를 일으키게 하여 캐릭터의 동작방안에 매칭하는데 아래와 같은 규칙을 포함한다.
규칙 1:
구체적으로 "위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법"과 "위치고정센서 또는 그의 변화와 캐릭터의 동작 또는 운동부위의 대응방법"을 포함하는데 이하에서 하나하나 소개한다.
규칙 1.1: 위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법:
가상 세계의 캐릭터에 대하여 A1, A2…An 총 n개의 단독적으로 운동가능하는 가상동작부위(A)를 부여하고 그 중 임의의 단독적으로 운동가능하는 가상동작부위(Ax)에는 Ax1, Ax2…Axm 총 m개의 허용동작이 설정되어 있으며 Axx는 그 중의 임의의 허용동작이고 이하 두 경우에 따라 제어한다.
경우 1: 이 n개의 가상동작부위가 모두 사용자의 몸에서 대응하는 운동부위를 찾아 대응할 수 있는 경우에는
1)사용자의 n개의 운동부위 대하여 각각 A1', A2'…An' 총 n개의 감응 고정점(A')을 대응하고 어느 한 시점t에서의 어느 한 감응 고정점(Ax')의 3차원 위치변화를 추적하여 Ax1', Ax2'…Axm' 총 m개중의 어느 운동규칙에 속하는지를 매칭하고 Axx'를 그 중의 임의의 운동규칙으로 하며;
2)캐릭터의 가상동작부위(A)를 하나하나 사용자 몸의 감응 고정점(A')에 대응하게 하고 임의의 가상동작부위(Ax)의 허용 동작(Axx)은 감응 고정점(Ax')에서 Axx'의 운동규칙을 따라 동작할 때에만 기동될 수 있는데 예를 들어 Ax가 발생한 변위가 각 시점에서의 변화는 하나하나 Ax'가 발생한 변위가 각 시점에서의 변화에 대응되고 또한 예를 들어 Ax가 실시한 역량의 강약은 Ax'가 대응하는 관절의 만곡도 및 이 관절이 떠는 주파수와 대응되고 Ax의 사용하는 역량이 최대치에 도달하는 조건은 사용자의 Ax'가 최대폭에 도달하고 또한 Ax가 Ax'의 긴장정도, 운동속도와 수행시간에 대응하는 것도 고려하여 사용자가 더 자연스럽게 가상 세계를 조종하고 캐릭터의 운동이 가능한 한 자연규칙에 부합되도록 하여야 하며;
3)본 실시예의 운동부위는 사용자 몸에 위치하는 각 감응 고정점의 위치에 의해 임의의 시점에서의 사용자의 위치와 자세를 완전히 확인하는 것인데 여기서 본 발명은 특히 각 손가락의 3개 관절, 팔목 관절, 팔꿈치 관절, 어깨 관절, 머리의 한 직선에 위치하지 않는 3점, 각 발가락의 한 관절, 발목 관절, 종아리, 허벅지, 엉덩이, 척추 중점중의 이 목적을 만족할 수 있는 운동부위의 총합을 예시하였다.
경우 2 : 이 n개의 가상동작부위가 사용자의 몸에서 완전히 대응하는 운동부위를 찾아 대응할 수 없는 경우에는 소량의 대응관계를 찾을 수 없는 가상동작부위(Ay)가 존재한다고 가정하여 먼저 사용자의 운동부위(Ay')가 그 중의 Ay1, Ay2…Ays 총 s개의 가상동작부위(Ay)를 선택하고 제어할 수 있게 하며 선택법과 결합법 중의 하나 또는 전부를 이용하여 구체적인 가상동작부위(Ay)를 선택하고 제어하는데 상기 선택법은 운동부위(Ay')가 대응하여 매칭하는 가상동작부위를 확인한 후 단독적으로 대응하는 가상동작부위(Ay)를 직접 제어할 수 있는 것이고 상기 결합법은 가상동작부위를 바꾸어야 할 때 제3명령에 의하거나 또는 기타 운동부위(Z)를 이용하고 기타 가상동작부위를 매칭하는 것인데 예를 들어 사용자의 팔은 캐릭터의 팔과 날개를 선택하여 제어할 수 있고 상기 운동부위(Z)를 발가락으로 하여 발가락을 구부리면 사용자가 날개를 제어하게 되고 발가락을 펴면 팔을 제어하게 되며 상기 제3명령은 사용자가 요구에 맞는 명령을 발송할 때 시스템이 인터페이스를 제공하고 사용자가 선택 인터페이스를 통해 제어하고자 하는 가상동작부위를 교체하거나 확인할 수 있게 하는 것을 의미한다.
또한 위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법은 사용자의 몸과 도구를 가동부와 불가동부로 나누고 가동부에 대해 각각 위치고정센서를 설치하는 단계를 더 포함하는데 그 중에 도구는 가상 세계의 물품 또는 기구와 대응되고 도구를 조종할 때 가상 세계에서의 상응 물품 또는 기구가 상응적으로 조종되게 할 수 있다.
규칙 1.2: 위치고정센서 또는 그의 변화와 캐릭터의 동작 또는 운동부위의 대응방법:
사용자의 서로 다른 운동부위에 있는 위치고정센서가 모두 서로 다른 구별특징을 가지게 하고 서로 다른 구별특징에 따라 캐릭터의 운동부위 또는 서로 다른 동작에 대응하게 하는 것이다.
상기 구별특징은 위치고정센서의 서로 다른 도포점밀도 또는 도포점규칙인데 예를 들어 도포점밀도가 d 또는 도포점규칙 1을 가진 위치고정센서의 위치가 변화될 때 캐릭터의 어느 한 가상동작부위는 상응하는 허용 동작을 수행하게 되고 도포점밀도 또는 도포점규칙은 날인을 통해 구현할 수 있다.
규칙 2:
명령을 발송하지 않는 규칙.
본 실시예에서는 명령을 발송하지 않는 규칙이 바람직하는데 물론 명령을 발송하는 규칙일 수도 있다.
본 실시예는 사용자의 소량 운동부위의 근육의 긴장정도와 운동속도를 사용자의 의도에 결합하여 미조정체제를 형성할 수 있고 상술한 감응 고정점은 이하 두 방안을 적용할 수 있다.
1)검지될 수 있는 도료를 감응 고정점으로 하여 근육의 예민점에 발라 감응 고정점의 운동상황 및 상대 위치의 변화를 통해 상응하는 운동부위의 근육의 긴장정도와 운동속도를 얻고 이어서 미조정체제에 의해 사용자의 의도를 판단하여 가상 세계에 상응하는 명령을 효과적으로 발송하도록 한다.
2)감응 고정점을 착용식 위치고정 제어설비의 각 운동부위에 고착하고 사용자가 직접 착용한 후 몸의 각 운동부위의 동작이 모두 대응하는 "감응 고정점"을 제어하여 관련되는 명령을 수행할 수 있기 때문에 사용자가 자신 또는 자신의 가상 세계에서 조종하는 기계를 보고 상응하는 동작을 수행하게 하는데 이 설비를 응용함으로써 사용자가 가상 세계로 들어가기 전의 준비시간을 대폭 줄였고 필요하는 준비 공정을 간단화 하여 사용자가 간편한 방식에 의해 가상 세계로 들어갈 수 있게 한다.
상기 두 방안은 "동작확대 시스템"에 한정되지 않고 특히 사용자의 몸이 변위하는 것을 요구하지 않는 레이싱 가상 세계와 같은 가상 세계에 적용된다.
본 실시예에서 착용식 위치고정 제어설비는 설비에 제어기를 설치하여 조종기가 각 고정점이 발생한 각 벡터변화(변위, 속도, 방향을 포함함)를 감지하게 할 수도 있는데 본 발명에서 소개한 "감응 고정점 시스템"을 결합하면 "착용식 위치고정 제어설비"를 효과적으로 간단화하여 전자 시스템이 필요없이 단 기계구조로 구성되게 할 수 있고 가상 세계의 과정에서 사용자의 각 부위가 미동작만 수행하기 때문에 설비에 손상이 발생되는 않는데 즉 설비의 사용수명을 확보하고 또한 전자 시스템에서 발생할 수 있는 전자 단락이 사용자에게 위험을 가져다 주는 것을 회피할 수 있다.
본 실시예에서 착용식 위치고정 제어설비는 손바닥 착용물, 팔 착용물, 머리 착용물, 발바닥 착용물, 다리 착용물, 엉덩이 착용물과 허리 착용물을 포함하고 각 착용물에는 모두 하나 또는 하나 이상의 감응 고정점이 설치되어 있다.
또한 각 손가락의 3개 관절, 팔목 관절, 팔꿈치 관절, 어깨 관절, 머리의 한 직선에 위치하지 않는 임의의 3점, 각 발가락의 한 관절, 발목 관절, 종아리, 허벅지, 엉덩이, 척추 중점에 모두 하나 또는 하나 이상의 감응 고정점이 설치되어 있는 것을 만족한다.
본 설비는 각 감응 고정점의 위치를 추적함으로써 임의의 시점에서의 사용자의 위치와 자세를 정확히 그리는 것인데 본 설비는 상기 감응 고정점의 상기 관절에서의 분배 방안에 한정되지 않는다.
바이오 효과를 향상하기 위하여 본 실시예는 반작용 감지장치와 작용 받는 감지장치를 포함하고, 주로 사용자의 최대 허용 미동작 폭(Mm)과 캐릭터의 최대 가상 허용 동작 폭(Nm)의 비율Mm/Nm을 수정하는데 사용하며, Mm/Nm의 치수를 디폴트 값보다 크게 하는데 즉 반작용 감지장치와 작용받는 감지장치가 가동할 때 Nm가 아래의 경우에 따라 같은 요소가 감소되는 인간과 컴퓨터가 인터랙티브하는 시스템을 제공하였다.
7.1)인간과 컴퓨터의 인터랙티브가 캐릭터에 의해 촉발되면 아래의 방법에 의해 구현된다.
7.1.1)사용자가 작용하고자 하는 목표를 지정한다.
방법 1:
눈 위치고정장치를 이용하여 사용자의 시선방향이 어떤 물체를 거치고 지체 또는 도구의 작용방향이 이 물체를 향할 때 시스템에 이 지체 또는 도구가 이 물체에 작용하고자 하는 명령을 발송하며 시스템이 명령을 발송하여 캐릭터가 이 목표를 지정하게 되는데 그 중에 사용자의 시선방향의 추적은 본 발명자가 출원한 출원번호가 "201110411809.X"인 《눈으로 물체를 식별하는 방법》 또는 특허번호가 "02829315.0"인 《비틀어진 눈의 방향과 위치의 추적》과 같은 임의의 기존기술을 이용할 수 있다.
방법 2:
눈 화상 채집장치에 의해 사용자가 지정한 주요 목표를 정확히 판단하는데 그 중에 눈화상 채집장치는 특허번호가 "200610072961.9"인 《눈화상채집장치》와 같은 많은 기존기술에 의해 구현될 수 있다.
7.1.2)이 동작이 목표에 작용된 후 반작용으로 인해 필연코 존재하는 캐릭터의 "동작속도", "동작폭"이 변화되고 시스템은 반작용 감지장치에 의해 사용자에 작용된 하중을 조정하거나 상응하는 가상동작부위의 최대폭을 변화시키거나 또는 상응하는 가상동작부위가 사용자의 운동부위에 대한 확대배수를 변화시켜 사용자가 캐릭터가 어느 한 목표에 작용한 후 "동작속도", "동작폭"이 발생한 변화를 느끼게 한다.
7.1.3)목표가 작용 받은 후의 형태 변화를 계산하는데 변형(자세변화, 회복할 수 없는 변형, 특히 파괴를 가리킴), 운동 에너지 변화(운동 에너지 치수+운동 에너지 방향)를 포함한다.
7.2)인간과 컴퓨터의 인터랙티브가 가상 세계의 기타 물체가 캐릭터에 작용하여 캐릭터가 피동적으로 인터랙티브하게 되는 경우 아래의 방법에 의해 구현된다.
7.2.1)캐릭터가 작용 받아 작용효과를 발생할 때 자동적으로 작용을 실시하는 물체를 목표로 지정한다.
7.2.2)캐릭터가 작용 받아 발생한 작용효과는 캐릭터가 작용 받은 후의 형태변화, 운동 에너지 변화를 가리키고 캐릭터가 작용 받아 발생한 작용효과는 작용 받는 감각장치에 의해 사용자에게 피드백하거나 상응하는 가상동작부위의 최대 폭 또는 확대비례를 변화시켜 캐릭터가 피동적으로 인터랙티브할 때 사용자가 자신의 형태 변화, 자세 구부림, 운동 에너지 변화를 느끼도록 한다.
이하 실례에 의해 아래의 내용을 소개한다.
캐릭터가 한 게임 캐릭터를 공격하고자 할 때 먼저 목표를 지정하고 펀치를 한 후 상대방의 운동하는 팔에 작용하여 상대방의 팔의 반작용을 받는데 여기서 특히 상대방이 패리가 있는지 없는지에 상관없이 캐릭터가 목표와 부딪치기만 하면 작용력과 반작용력의 원리에 의해 캐릭터는 필연코 반작용력을 받게 되는 것을 제시하였고 목표가 패리할 때 캐릭터는 또한 목표가 패리할 때 쓰는 팔의 작용을 받기 때문에 작용 받는 감지장치의 설치 효과가 겹치게 된다.
특히 아래와 같은 내용을 제시하였다.
1)동작확대 시스템의 효과성을 확보하기 위하여 캐릭터가 허용동작을 수행하는 조건은 감응 고정점이 어떤 시간에서의 위치가 아니고 바로 앞의 시점에서의 위치변화와 상대된다.
2)거리측정점은 고정된 것이거나 그의 좌표가 계산하여 확인활 수 있다.
3)어떤 가상 세계는 컴퓨터를 차지하는 공간을 감소하기 위하여 캐릭터에게 몇 개 특정된 동작만 부여하는데 이런 경우 사용자의 몇몇 부위의 동작 또는 동작세트를 만족하기만 하면 캐릭터가 일련의 허용 동작을 수행하게 제어할 수 있다.
4)동작확대 시스템과 "위치고정센서의 위치변화에 따라 캐릭터의 동작을 제어하는 방법"은 서로 조합하여 응용할 수 있고 단독적으로 사용할 수도 있다.
5)본 발명은 음성 제어 시스템을 더 포함하고 사용자가 음성에 의해 명령을 발송하여 캐릭터의 허용 동작 및 퇴출, 보존과 같은 가상 세계의 각종 기본 조종을 제어할 수 있게 한다. 본 시스템은 음성 식별 시스템을 더 포함하는데 예를 들어 미리 사용자의 목소리를 녹음할 수 있고 각종 명령을 매칭하는 것이다.
기타 설명:
사용자가 준비된 후 눈을 뜨면 지난번에 가상 세계에서 퇴출할 때 위치하는 위치에 처하여 있는 것을 볼 수 있게 되고 각종 동작이 초래한 배경의 변화는 모두 이 위치에서 시작된다.
본 가상 세계는 캐릭터가 변형능력을 가지게 하는데 변형한 후 제어가 필요한 부위가 사람의 관절의 양보다 크게 되면 "선택법"을 이용할 수 있는데 선택 명령 동작을 수행할 때 한 관절을 선택하여 가상 세계의 대응하는 구체적인 운동부위를 제어할 수 있으며 또한 "결합법"을 이용할 수도 있는데 즉 두 개 또는 두 개 이상의 관절이 동시에 어떤 특정동작을 수행할 때 같은 효과를 일으킬 수도 있다.
본 가상 세계 방법은 사용자가 격공취물(공간의 제한을 받지 않고 물품을 가져오는 것을 가리킴)등 초능력을 가지게 하는데 이 명령을 기동하는 조건은 사용자의 팔에 있는 감응 고정점이 한 직선에 집중되고 손바닥에 있는 감응 고정점이 발 형상으로 모아 이 물품을 향하는 것이며 가상 세계가 흡인력의 크기를 판단하는 것은 먼저 캐릭터의 흡인력 최대치를 설정할 수 있고 치수를 선택하는 조건은 손가락이 떠는 주파수일 수 있으며 주파수가 감소하면 흡인력이 대응되게 감소된다.
가상 세계가 사용자의 이러한 의미를 수신 받으면 흡인력과 물품이 소재 환경에 의해 작용력을 계산하고 비교하게 되고 물품의 중력이 너무 크거나 또는 원 소재위치의 흡인력이 너무 크는 경우 사용자의 "잡는 힘"이 증가하게 되는데 이때 손가락의 만곡 정도가 강화되고 손가락의 떨림이 격화되어 손가락에 있는 감응 고정점의 떨림이 격화되기 때문에 컴퓨터가 사용자의 흡인력이 강화되었다는 것을 수신 받아 흡수를 완성할 수 있는지를 진일보 판단하게 된다.
위치고정센서와 제어하고자 하는 부위가 어떻게 대응하는지? 만약 각 관절이 모두 하나의 위치고정센서와 대응한다면 풍부한 허용동작을 가지고 있는 가상 세계에서 사용자가 장기간 준비하여야 가상 세계에 들어갈 수 있기 때문에 본 발명은 또한 착용식 위치고정 제어설비를 제공하는데 사용자가 대응하는 장갑, 발 커버, 스탠드와 헬멧을 착용하기만 하면 전신의 각 관절에 묶은 감응 고정점을 조정할 수 있으므로 실용성이 아주 좋다.
동작확대법을 이용하기 때문에 사용자의 몸과 캐릭터의 각 지체위치, 자세와 완전히 대응되지 못하고 따라서 다만 감응 고정점의 위치에 따라 확인할 수 없게 되는데 양자의 머리(특히 눈)의 가상 세계에서의 위치와 방향은 같다. 사용자도 가상 세계에서 좌표를 확인할 수 있는 것을 어떻게 설명하는가? 먼저 사용자의 시각은 안경에 의해 획득하는 것이고 안경의 가상 세계에서의 좌표는 확인될 수 있으며 안구와 안경의 상대 위치가 변화되지 않기 때문에 사용자 안구의 가상 세계에서의 좌표가 확인될 수 있다.
실시예 2: 가상 설비
치신 시스템, 전경 시스템, 배경 이동 시스템, 동작 판단 시스템과 동작확대 시스템을 포함한다.
A. 동작 판단 시스템: 출원번호 "97198214.7"에서 소개한 기술방안과 같은 기존 기술을 이용할 수 있다.
B. 동작확대 시스템: 상세한 내용은 실시예 1를 참조한다.
C. 전경 시스템
상기 전경 시스템은 가상 세계의 과정에서 가상 세계의 화면이 시종 사용자의 전체 시각 범위를 덮어 사용자가 가상 세계의 배경만 볼 수 있고 현실중의 배경을 볼 수 없게 하며 본 시스템은 특히 사용자가 3D 안경을 쓰는 것을 가리키는데 안경에 스크린 및 그의 가상 세계의 화면은 모두 사용자의 전체 시각범위를 가득 차는데 이 기술은 특허번호가 "200810066897.2"인 《CMMB 수신모듈을 집적한 이동 동영상 안경》과 같은 기존 기술을 이용할 수 있다.
D. 치신 시스템
상기 치신 시스템은 사용자와 캐릭터의 가상 세계에서의 위치가 같고 사용자의 몸의 운동과 캐릭터의 운동이 동기되는 것을 만족하여 사용자가 캐릭터의 몸을 볼 때 자신의 현실중의 몸으로 착각하게 하며 사용자의 몸의 운동과 캐릭터의 운동이 동기되는 방법은 동작 고정점 제어 시스템에 의해 사용자가 수행한 동작을 확인하고 관련되는 동작에 의해 사용자가 발송한 명령 내용을 확인하며 이어서 캐릭터가 운동부위에 대한 운동을 제어한다.
E. 배경 이동 시스템
상기 배경 이동 시스템은 가상 세계에서의 캐릭터가 위치하는 배경의 역방향 동작을 이용하여 사용자가 각종 이동 또는 변신(몸이 축소, 확대하거나 또는 형상이 변화함)을 수행하고 있다는 착각을 하게 하는 것인데 상기 캐릭터가 위치하는 배경을 확인하는 방법은
1)직접 사용자의 머리에 머리와 동기적으로 변위를 발생할 수 있는 위치고정부재를 설치하고 상기 위치고정부재에는 한 직선에 위치하지 않는 3개 위치고정센서가 설치되어 있으며 상기 위치고정센서는 가상 세계의 위치가 확인될 수 있는 것을 만족하여 사용자의 머리가 가상 세계에서의 위치 및 안면의 방향을 확인하는 단계;
2)사용자의 머리의 가상 세계에서의 위치 및 안면의 방향에 따라 가상 세계의 화면을 확인하는 단계; 를 포함한다.
본 실시예에서 위치고정부재를 장착하는 위치의 중점은 머리와 동기적으로 변위할 수 있는 것을 만족하는 위치이기 때문에 사용자의 머리에 있는 각종 기구에 장착할 수 있다.
본 실시예에서 사용자와 캐릭터가 얼굴에서 응용하는 동기관계도 동작확대 시스템을 이용할 수 있다.
본 실시예는 가상 세계가 더욱 현실처럼 보이도록 후각 시스템, 촉각 시스템과 체력피곤등 무작위 장애물 설치 시스템중의 하나 또는 다수개를 포함한다.
상기 체력피곤의 무작위 장애물 설치 시스템은 착용식 위치고정 제어설비와 결합할 수 있는데 예를 들어 발바닥 착용물에 신축할 수 있는 추진기구를 연결할 수 있고 손바닥 착용물에 수축할 수 있는 손잡이를 내장할 수 있다.
상기 장애물 설치 시스템은 반작용 감지장치와 작용 받는 감지장치를 포함하는데 상기 작용 받는 감지장치는 가상 세계에서의 어느 한 물체가 캐릭터의 한 부위 또는 몇몇 부위에 작용할 때 장애물 설치 시스템이 이 물체의 동작 특징에 따라 사용자의 상응 부위에 작용하는 것을 만족하며 반작용 감지장치는 캐릭터가 가상 세계의 어느 한 물체에 작용할 때 시스템이 먼저 캐릭터의 동작 특징 및 이 물체의 즉시생태에 따라 캐릭터가 반작용을 받는 부위 및 반작용의 효과를 판단하고 상기 장애물 설치 시스템은 같은 요소 효과에 의해 사용자의 상응하는 부위에 작용한다. 상기 장애물 설치 시스템은 캐릭터의 피곤정도 또는 최대 운동능력에 따라 반작용 감지장치와 작용 받는 감지장치가 사용자에 대한 하중을 변화시킨다.
이하 실례를 통해 아래 내용을 소개한다.
게임하기 전에 사용자가 먼저 한 조종위치(예를 들어 침대)에 고정하고 어느 한 지체를 움지이면 가상 세계에서의 대응하는 캐릭터가 완전한 동작을 수행하게 되는데 사용자가 임의의 동작을 수행할 때 모두 하나의 조종위치에서 진행될 수 있고 동작한 후 몸의 소재위치 또한 변화되지 않아 사용자의 운동 공간을 감소하는 것이 목적이다.
사용자가 제어대에 눕거나 앉은 후 장애물 설치 시스템에 의해 사용자의 각 구간의 최대 운동범위를 한정하는데 예를 들어 발판장치가 탄력적으로 사용자의 발판과 접촉하고 팔 위치한정장치는 사용자의 팔에 끼운다.
상기 장애물 설치 기구는 사용자가 허용동작을 수행하는 부위의 윗쪽에 설치되고 정상에서 장애물 설치 기구와 사용자의 구간이 일정한 거리(자유공간으로 함)를 유지하게 하여 사용자의 각 부위가 장애물 설치 기구와 접촉하지 않는 경우 작용을 받지 않고 임의의 미동작을 수행할 수 있게 하며 상기 장애물 설치 기구에는 탄력성 하중 운동영역(하중공간으로 함)이 설치되어 있고 사용자의 구간이 장애물 설치 기구와 접촉하고 계속하여 탄력 반방향으로 운동할 때 상응 부위는 탄력을 극복하면서 움직여야 한다. 그의 기능은 아래와 같다.
1)사용자가 자유공간과 하중공간에서 이동할 수 있는 총합은 사용자의 최대 허용 미동작의 폭과 대응된다.
2)사용자의 구간이 장애물 설치 기구에 작용하고 동시에 그의 동작이 컴퓨터 식별명령에 부합할 때 캐릭터는 연속적으로 몸을 돌리는 것과 같은 가상 허용 동작을 지속적으로 수행한다.
3)사용자가 인간과 컴퓨터의 인터랙티브를 촉발할 때 장애물 설치 기구는 목표가 사용자에 대한 반작용으로 나타낸다.
4)캐릭터가 가상 세계의 물체에 의해 작용될 때 장애물 설치 기구는 자유공간을 축소하여 사용자의 상응 구간에 작용한다.
5)캐릭터의 운동 능력치가 상승할 때 장애물 설치 기구의 부하가 감소된다.
6)캐릭터의 운동 능력치가 감소될 때 예를 들어 피곤할 때 장애물 설치 기구의 부하는 향상된다.
본 발명의 동영상 설비는 눈으로 보는 설비에 한정되지 않고 예를 들어 특허번호가 "00820024.6"인 "인체 전자 삽입체 및 그의 인공 시각 시스템"에서는 이미 눈에 의하지 않고 대뇌가 화상을 얻게 되는 방법을 제시하였다.
실시예 3: 인간과 컴퓨터가 인터랙티브하는 제어방법
이 방법은 게임에 사용하여 캐릭터가 초능력을 가지게 하는데 주로
1)캐릭터가 사용자의 체능을 확대하는 것 이외의 초능력 가상 허용 동작 방안을 설정하는 단계;
2)사용자 허용 미동작의 변화를 추적하고 캐릭터의 초능력 가상 허용 동작의 작용 목표를 확인하는 단계;
3)초능력 가상 허용 동작을 수행할 때 캐릭터의 초능력 기능치를 평학하여 작용받는 목표의 같은 요소의 형태가 변화되는 단계;를 포함한다.
본 실시예의 형태변화는 위치, 형상, 생태, 물질변화를 포함하는데 그 중에 형상은 변형, 액상, 과립상 지간의 변화등을 포함하고 생태변화는 기체상, 고체상, 액체상 지간의 전환 등을 포함하며 위치는 변위, 운동속도, 가속도 등 운동의 변화를 포함한다.
본 발명의 가상 환경은 적어도 미래환경, 과거환경, 몽경중의 하나 또는 다수개의 가상 환경을 포함한다.
본 발명은 사용자가 가상 환경에서 물체의 파라미터를 하는 권한을 개방할 수 있어 사용자가 스스로 가상 환경을 구축, 조정, 삭제할 수 있다. 따라서 사용자가 상상중의 물품을 실체화하기 쉬우며 전통적인 도구에 비해 상상 초월하는 잠정을 가지고 있다.
실시예 4: 공간설계 또는 공간샘플을 전시하고 교류하는데 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)공간설계 또는 공간샘플에 대해 3d 모델링하는 단계;
2)사용자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법을 응용하여 캐릭터가 공간설계 또는 공간샘플의 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계;를 포함한다.
실시예 5: 영화 촬영에 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)영화 배경에 대해 3D 모델링하는 단계;
2)연기자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법을 응용하여 캐릭터가 1)에 기재된 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계;
3) 3D 모델링에 필요하는 배경 및 캐릭터가 가상 동작을 실시하는 화면을 녹화하는 단계; 를 포함한다.
실시예 6: 모의 실험에 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)기지의 자연규칙을 수록하여 연산법칙f[x1(x11, x12…x1n), x2(x21, x22…x2n)…xn(xn1, xn2…xnn)]=y1(y11, y12…y1n), y2(y21, y22…y2n)…yn(yn1, yn2…ynn)을 세우는데 그 중에 xn은 규칙이 발생되지 전의 반응주체, xnn은 xn의 계산 파라미터, yn은 규칙이 발생한 후의 새로운 주체, ynn은 yn의 계산 파라미터, f는 규칙의 연산공식인 단계;
2)사용자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법에 의해 캐릭터가 가상 환경에서 xn의 xnn치를 사용자의 설정치로 조정하게 하는 단계;
3)사용자가 실시예 1에 기재된 인간과 컴퓨터가 인터랙티브하는 제어방법에 의해 캐릭터가 가상 환경에서 xn에 대해 f1동작을 수행하게 하는 단계;
4)단계 1에 기재된 연산법칙에 의해 yn 및 그의 ynn치를 계산하고 기록하는 단계를 포함한다.
본 실시예에서 실험이 한 규칙의 여러번 반응 또는 다수의 규칙의 여러번 반응이 필요한 경우 필요에 따라 단계2)~4)를 반복적으로 수행한다.
이 실험방법은 사용자에 피해를 주지 않을 뿐만아니라 원가가 필요 없고 실험 정밀도가 아주 높다.
실시예 7: 여행에 응용하는 인간과 컴퓨터가 인터랙티브하는 제어방법
1)여행지에 대하여 3d 모델링하는 단계;
2)사용자가 실시예 1에 기재된 게임방법을 응용하여 캐릭터가 1)에 기재된 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계를 포함한다.
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
삭제
A: 곡선
B: 곡선
S: 변위
t: 시간
V: 체적
1: 손바닥
2: 발바닥
11: 팔목
12: 손가락
21: 발목
22: 발가락

Claims (25)

  1. 인간과 컴퓨터가 인터랙티브하는 제어 방법에 있어서,
    사용자가 조종위치에서 사용자 허용 미동작을 실시함으로써 가상 환경 속의 캐릭터가 상응하는 가상 허용 동작을 실시하게 하고,
    상기 제어 방법은,
    가상 세계에서 상기 캐릭터를 설정하고 상기 캐릭터가 하나 이상의 제어될 수 있는 가상동작부위를 가지게 하는 단계;
    상기 사용자의 운동부위와 상기 캐릭터의 가상동작부위를 관련시켜 상기 사용자의 운동부위의 동작폭에 대한 상기 가상동작부위의 동작폭의 확대배수를 확인하고 상기 사용자의 두 개의 인접하는 운동부위의 자세가 상기 캐릭터와 관련되는 가상동작부위의 자세와 다른 것을 허용하며, 상기 사용자와 상기 캐릭터의 운동형태가 다르거나 비슷하지 않는 것도 허용하고, 상기 캐릭터가 앉은 상태의 운동과 누워있는 상태의 운동이 아닌 과정에서도 조종위치에서 떠나지 않고 상기 조종위치에 앉거나 눕는 것을 만족하는 단계;
    상기 사용자가 상기 조종위치에 앉거나 누워서 미동작을 수행하는 단계;
    상기 캐릭터가 상기 사용자의 미동작을 확대하여 수행하게 하는 단계;
    상기 사용자 또는 도구가 상기 미동작을 수행하는 최대폭M, 대응하는 캐릭터가 상응하는 허용동작을 수행하는 최대폭N이 설정되고, 상기 M이 상기 사용자의 상응하는 운동부위의 운동보다 작게 t시점에 설정되면 상기 사용자가 상기 미동작을 수행하는 폭이 Mt로 되며, 상기 대응하는 캐릭터가 상기 상응하는 허용동작을 수행하는 폭이 Nt로 되어 Mt≥M인 경우 Nt=N이고 Mt<M인 경우 N>Nt>Mt이며 상기 사용자가 상기 가상 세계의 전반 과정에서 하나의 조종위치에 있고 상기 조종위치를 떠나지 않아도 되는 것을 만족하고,
    상기 미동작의 폭의 상한선M을 규정하여 상기 사용자가 상기 "조종위치"에서 떠나지 않아도 연속적으로 임의의 제어동작을 수행할 수 있는 단계; 및
    상기 사용자의 각 구간의 최대 운동범위를 한정하고 상기 한정 받은 상응부분이 상기 미동작을 완전히 수행할 수 있게 하는 단계
    를 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 가상 세계에서의 어느 한 물체가 상기 캐릭터의 어떤 부위 또는 몇몇 부위에 작용을 발휘하면 상기 사용자의 상응하는 부위가 상기 물체의 동작특징에 따라 작용을 받게 되는 단계;
    상기 캐릭터가 상기 가상 세계의 어느 한 물체에 작용할 때 먼저 상기 캐릭터의 동작특징에 따라 상기 캐릭터가 반작용을 받은 부위 및 반작용의 효과를 판단하여 상기 사용자의 상응하는 부위가 같은 요소 효과에 의해 작용 받게 하는 단계;
    컴퓨터에 의해 식별될 수 있는 하나 또는 하나 이상의 상기 사용자 허용 미동작 방안과 하나 또는 하나 이상의 상기 가상 허용 동작 방안을 설정하는 단계;
    상기 사용자가 인간과 컴퓨터가 인터랙티브하는 과정에서 상기 가상 세계의 애니메이션만 볼 수 있고 자기의 몸을 볼 수 없게 하는 단계;
    상기 가상 세계의 화면이 상기 사용자의 시각을 가득 차게 하는 단계; 및
    적어도 두개의 확대배수가 1이 아닌 가상동작부위가 서로 다른 확대배수를 가지게 하는 단계
    중 적어도 하나를 더 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  4. 제3항에 있어서,
    상기 캐릭터의 피곤정도 또는 최대운동능력에 따라, 상기 사용자의 상응하는 부위가, 상응 비례하며 또한 상기 사용자가 감당할 수 있는 하중 작용을 받게 하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  5. 제1항에 있어서,
    상기 사용자가 상기 캐릭터의 상응하는 운동부위를 가지고 있지 않는 경우, 상기 사용자가 스스로 기타 운동부위를 선택하여 대체하는 것을 허용하는 선택법; 및
    상기 사용자의 운동부위의 양이 상기 캐릭터의 가상동작부위의 양보다 적은 경우, 상기 사용자 몸에 공유 운동위치를 설치하여 상기 캐릭터 몸체의 하나 이상의 상기 가상동작부위를 제어하는 결합법
    을 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  6. 제5항에 있어서,
    상기 결합법은,
    캐릭터의 가상동작부위를 바꾸어야 하는 경우 제3명령에 의하거나 또는 기타 운동부위를 이용하고 공동적으로 협력하여 기타 가상동작부위를 선택할 수 있는 단계; 및
    공유 운동부위를 기타 하나 또는 다수의 운동부위와 결합시켜 캐릭터의 가상 허용 동작방안을 공동적으로 제어하는 단계
    중의 적어도 하나를 더 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  7. 제1항에 있어서,
    상기 가상 환경에는 적어도 미래환경, 과거환경, 몽경 중의 하나 또는 다수개의 가상 환경이 설치되어 있는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  8. 제1항에 있어서,
    상기 캐릭터가 초능력을 가지게 하는 방법은,
    상기 캐릭터가 사용자의 체능을 확대하는 이외의 초능력 가상 허용 동작 방안을 설정하는 단계;
    상기 사용자 허용 미동작의 변화를 추적하여 상기 캐릭터의 초능력 가상 허용 동작의 작용목표를 확인하는 단계; 및
    상기 초능력 가상 허용 동작을 실시할 때의 상기 캐릭터의 초능력 기능치를 평가하여 작용 목표의 같은 요소의 형태가 변화되는 단계
    를 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  9. 제7항 또는 제8항에 있어서,
    상기 사용자가 상기 가상 환경에서 물체 파라미터를 리셋트하는 권한을 개방하여 상기 사용자가 스스로 가상 환경을 구축, 조정, 삭제하게 하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  10. 제1항에 있어서,
    공간을 설계하거나 또는 공간 샘플을 보는데 사용하고,
    상기 공간설계 또는 상기 공간샘플에 대해 3D 모델링하는 단계; 및
    상기 캐릭터가 상기 공간설계 또는 상기 공간샘플의 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계
    를 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  11. 제1항에 있어서,
    영화의 촬영에 사용하고,
    영화 배경에 대해 3D 모델링하는 단계;
    상기 캐릭터가 상기 영화 배경에 대해 3D 모델링하는 단계에 기재된 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계; 및
    3D 모델링에서 필요하는 배경 및 캐릭터가 가상 동작을 실시하는 화면을 녹화하는 단계
    를 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  12. 제1항에 있어서,
    실험을 모의하는 방법에 사용하고,
    기지의 자연규칙을 수록하고 연산법칙 f[x1(x11, x12…x1n), x2(x21, x22…x2n)…xn(xn1, xn2…xnn)]=y1(y11, y12…y1n), y2(y21, y22…y2n)…yn(yn1, yn2…ynn)을 세우는데 다만 xn은 반응하기 전의 반응주체, xnn은 xn의 계산 파라미터, yn은 반응한 후의 새로운 주체, ynn은 yn의 계산 파라미터, f는 규칙의 연산공식인 단계;
    상기 캐릭터가 상기 가상 환경에서 반응하기 전의 상기 각 반응주체xn의 상기 각 계산 파라미터xnn의 값을 상기 사용자의 설정치로 조정되게 하는 것을 제어하는 단계; 및
    상기 연산법칙에 따라 반응한 후의 상기 각 새로운 주체yn 및 상기 그의 ynn치를 계산하고 기록하는 단계
    를 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  13. 제1항에 있어서,
    여행 방법에 사용하고,
    여행지에 대해 3d 모델링하는 단계; 및
    상기 캐릭터가 상기 여행지에 대해 3D 모델링하는 단계에서 기재된 상기 3D 모델링에서 가상 동작을 실시하는 것을 제어하는 단계
    를 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어방법.
  14. 사용자가 미동작을 실시함으로써 가상 환경속의 캐릭터가 상응하는 가상 허용 동작을 실시하는 것을 제어하는 인간과 컴퓨터가 인터랙티브하는 제어 시스템에 있어서,
    가상 세계를 나타내는 영상설비, 조종대, 사용자 허용 미동작 방안을 식별하고 포착하는 설비와 사용자와 캐릭터의 동작이 동기되도록 제어하는 동기 제어 시스템
    을 포함하고,
    상기 조종대에는 조종위치와 장애물 설치 시스템이 설치되어 있고 상기 장애물 설치 시스템에는 위치한정기구가 설치되어 있어 위치한정기구에 의해 사용자 지체의 운동폭을 한정하여 한정받은 상응하는 부위가 최대폭M으로 허용 동작을 실시하도록 하며 동시에 사용자가 "조종위치"에서 떠나지 않고 연속적으로 임의의 제어 동작을 수행하도록 확보하며,
    상기 사용자 허용 미동작 방안을 식별하고 포착하는 설비는 본 시스템이 사용자가 수행한 미동작을 추적하고 식별할 수 있게 만족하고,
    상기 동기 제어 시스템은
    상기 가상세계에서 상기 캐릭터를 설정하고 상기 캐릭터가 하나 또는 하나 이상의 제어할 수 있는 가상 동작 부위를 가지게 하며;
    상기 사용자의 운동부위와 상기 캐릭터의 가상동작부위를 관련시켜 상기 사용자의 운동부위의 동작폭에 대한 상기 가상동작부위의 동작폭의 확대배수를 확인하고 상기 사용자의 두 개의 인접하는 운동부위의 자세가 상기 캐릭터와 관련되는 가상동작부위의 자세와 다른 것을 허용하며,
    상기 사용자와 상기 캐릭터의 운동형태가 다르거나 비슷하지 않는 것도 허용하고 상기 캐릭터가 앉은 상태의 운동과 누워있는 상태의 운동이 아닌 과정에서도 조종위치에서 떠나지 않고 조종위치에 앉거나 눕는 것을 만족하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어 시스템.
  15. 제14항에 있어서,
    상기 가상 세계를 나타내는 영상 설비는 상기 가상 세계의 화면이 상기 사용자의 시각에 가득 차도록 하여 상기 사용자가 인간과 컴퓨터가 인터랙티브하는 과정에서 상기 가상 세계의 애니메이션만 볼 수 있고 자기의 몸을 볼 수 없게 하며,
    상기 사용자 허용 미동작 방안을 식별하고 포착하는 설비에는 다수의 서로 다른 구별 특징을 가진 위치고정센서가 설치되어 있어 컴퓨터가 고정점이 대응하는 사용자의 부위를 식별할 수 있게 하며,
    상기 장애물 설치 시스템에는 반작용 감지장치 및 작용 받는 감지장치가 설치되어 있고, 상기 작용 받는 감지장치에 의해 상기 가상 세계의 어느 한 물체가 상기 캐릭터의 어느 부위 또는 몇몇 부위에 작용하는 경우 장애물 설치 시스템은 이 물체의 동작 특징에 따라 상기 사용자의 상응하는 부위에 작용할 수 있으며, 상기 반작용 감지장치에 의해 상기 캐릭터가 상기 가상 세계의 어느 한 물체에 작용하는 경우 상기 장애물 설치 시스템은 먼저 상기 캐릭터의 동작 특징에 따라 상기 캐릭터가 반작용을 받은 부위 및 반작용 효과를 판단하고 상기 장애물 설치 시스템은 같은 요소 효과에 의해 상기 사용자의 상응하는 부위에 작용하게 되며,
    후각 시스템, 촉각 시스템과 체력이 피곤할 때의 무작위 장애물 설치 시스템중의 하나 또는 다수개를 더 포함하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어 시스템.
  16. 제15항에 있어서,
    상기 장애물 설치 시스템은 상기 캐릭터의 피곤정도 또는 최대 운동능력에 따라 상기 반작용 감지장치와 상기 작용 받는 감지장치가 사용자에 대한 하중을 변화할 수 있는 것을 만족하는 것을 특징으로 하는
    인간과 컴퓨터가 인터랙티브하는 제어 시스템.
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
KR1020137023483A 2011-02-11 2012-01-20 인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용 KR101679805B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201110036356 2011-02-11
CN201110036356.7 2011-02-11
CN201110458168.3 2011-12-30
CN2011104581683A CN102541260B (zh) 2011-02-11 2011-12-30 一种人机互动的控制方法及其运用
PCT/CN2012/000108 WO2012106978A1 (zh) 2011-02-11 2012-01-20 一种人机互动的控制方法及其运用

Publications (2)

Publication Number Publication Date
KR20140049503A KR20140049503A (ko) 2014-04-25
KR101679805B1 true KR101679805B1 (ko) 2016-11-25

Family

ID=46348299

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137023483A KR101679805B1 (ko) 2011-02-11 2012-01-20 인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용

Country Status (6)

Country Link
US (1) US10058773B2 (ko)
EP (2) EP3950076A1 (ko)
JP (3) JP6193764B2 (ko)
KR (1) KR101679805B1 (ko)
CN (8) CN106984041B (ko)
WO (1) WO2012106978A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101967072B1 (ko) * 2017-12-14 2019-04-08 김민철 사용자 활동 기반 가상 객체 관리 방법, 이를 수행하는 가상 객체 관리 장치 및 이를 기록한 기록매체

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
CN103207667B (zh) * 2011-12-24 2018-10-23 漳州市科达企业咨询有限公司 一种人机互动的控制方法及其运用
CN103544636A (zh) * 2013-11-08 2014-01-29 梁涛 基于虚拟商场的互动方法及设备
US10254804B2 (en) 2014-02-11 2019-04-09 Apple Inc. Detecting the limb wearing a wearable electronic device
US10827268B2 (en) 2014-02-11 2020-11-03 Apple Inc. Detecting an installation position of a wearable electronic device
CN104914992A (zh) * 2014-04-11 2015-09-16 黄得锋 一种人机互动的控制方法
US20190121515A1 (en) * 2015-10-15 2019-04-25 Sony Corporation Information processing device and information processing method
CN105867600A (zh) * 2015-11-06 2016-08-17 乐视移动智能信息技术(北京)有限公司 一种交互方法和设备
CN105488834B (zh) * 2015-12-01 2019-03-19 网易(杭州)网络有限公司 角色面部朝向的调整方法及装置
CN105892754A (zh) * 2016-05-27 2016-08-24 北京小鸟看看科技有限公司 一种手指动作识别方法和系统
JP6756236B2 (ja) 2016-10-31 2020-09-16 富士通株式会社 アクション指示プログラム、アクション指示方法及び画像生成装置
US10901494B2 (en) 2017-03-28 2021-01-26 Wipro Limited Method and a system for providing gesture-based interaction with a virtual product
US20200016743A1 (en) * 2017-03-31 2020-01-16 Sony Corporation Information Processing Apparatus, Information Processing Method, And Program
CN107158709A (zh) * 2017-05-16 2017-09-15 杭州乐见科技有限公司 一种基于游戏引导运动的方法和设备
EP4252632A3 (en) 2017-09-05 2024-05-01 Apple Inc. Wearable electronic device with electrodes for sensing biological parameters
EP3459447A3 (en) 2017-09-26 2019-07-10 Apple Inc. Optical sensor subsystem adjacent a cover of an electronic device housing
DE102017009169A1 (de) 2017-10-02 2019-04-04 Holger Wild Interaktives Oberkörperabbildgerät
CN108553893B (zh) * 2018-04-28 2021-11-16 网易(杭州)网络有限公司 赛车游戏中车辆转向的控制方法和装置
CN110908568B (zh) * 2018-09-18 2022-11-04 网易(杭州)网络有限公司 一种虚拟对象的控制方法和装置
CN111221416B (zh) * 2020-01-06 2021-12-07 腾讯科技(深圳)有限公司 一种虚拟道具分配的方法、服务器及终端设备
US11055891B1 (en) 2020-03-10 2021-07-06 Microsoft Technology Licensing, Llc Real time styling of motion for virtual environments
CN112527109B (zh) * 2020-12-04 2022-05-17 上海交通大学 基于坐姿的vr全身动作控制方法、系统及计算机可读介质
JP7372717B1 (ja) 2023-03-30 2023-11-01 mirrorX株式会社 プログラム、情報処理装置及び方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法
US20110007079A1 (en) * 2009-07-13 2011-01-13 Microsoft Corporation Bringing a visual representation to life via learned input from the user

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US6408289B1 (en) * 1993-06-11 2002-06-18 Mri Devices Daum Gmbh Shapeable elastic body with master unit and method of controlling
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
JP2840923B2 (ja) * 1994-11-11 1998-12-24 富士通株式会社 プロダクションシステム
CN1075955C (zh) * 1994-12-30 2001-12-12 世雅企业股份有限公司 连环漫画模拟游戏用图像游戏设备
US5913727A (en) * 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
GB9525047D0 (en) * 1995-12-07 1996-02-07 Philips Electronics Nv Virtual body control device
CN1168057C (zh) * 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JPH10302083A (ja) * 1997-04-30 1998-11-13 Yamaha Corp Cgモデルの動作制御システム
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP4332254B2 (ja) * 1999-04-28 2009-09-16 株式会社アミテック インテリジェント型手袋型手形入力装置
ATE543546T1 (de) * 1999-06-11 2012-02-15 Canon Kk Vorrichtung und verfahren zur darstellung eines von mehreren benutzern geteilten raumes, wo wirklichkeit zum teil einbezogen wird, entsprechende spielvorrichtung und entsprechendes schnittstellenverfahren
US6377281B1 (en) * 2000-02-17 2002-04-23 The Jim Henson Company Live performance control of computer graphic characters
JP2002032788A (ja) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
JP2004129180A (ja) * 2002-09-30 2004-04-22 Atsusato Fujii 仮想空間体験のためのシステム
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4048999B2 (ja) * 2003-04-15 2008-02-20 セイコーエプソン株式会社 画像処理装置及び画像処理方法
US9274598B2 (en) * 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US7403220B2 (en) * 2004-08-23 2008-07-22 Gamecaster, Inc. Apparatus, methods, and systems for viewing and manipulating a virtual environment
JP2006163886A (ja) * 2004-12-08 2006-06-22 Canon Inc 情報入力方法及び情報入力装置
JP4406693B2 (ja) * 2005-01-28 2010-02-03 学校法人立命館 バルーンアクチュエータ、エンドエフェクタ、及び医療用器具
CN102989174B (zh) * 2006-05-04 2016-06-29 美国索尼电脑娱乐公司 获得用于控制游戏程序的运行的输入
JP4848515B2 (ja) * 2006-06-12 2011-12-28 国立大学法人九州工業大学 アバター動作制御システム、そのプログラム及び方法
JP4148281B2 (ja) * 2006-06-19 2008-09-10 ソニー株式会社 モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム
US8336078B2 (en) * 2006-07-11 2012-12-18 Fmr Corp. Role-based access in a multi-customer computing environment
CN101110102A (zh) * 2006-07-20 2008-01-23 中国科学院自动化研究所 基于玩家拳头的游戏场景和角色控制方法
CA2653330C (en) * 2006-08-24 2021-07-27 Cfph, Llc Multi-display computer terminal system
JP5557529B2 (ja) * 2006-09-19 2014-07-23 マイオモ インコーポレイテッド 動力で作動する矯正デバイス
EP2132650A4 (en) * 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
US8706914B2 (en) * 2007-04-23 2014-04-22 David D. Duchesneau Computing infrastructure
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8419545B2 (en) * 2007-11-28 2013-04-16 Ailive, Inc. Method and system for controlling movements of objects in a videogame
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
US20110183751A1 (en) * 2008-01-22 2011-07-28 Hiromu Ueshima Imaging device, online game system, operation object, input method, image analysis device, image analysis method, and recording medium
CN101256673A (zh) * 2008-03-18 2008-09-03 中国计量学院 用于在实时视频跟踪系统中跟踪手臂运动的方法
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
US8793498B2 (en) * 2008-08-11 2014-07-29 Nbcuniversal Media, Llc System and method for forensic analysis of media works
JP2012501020A (ja) * 2008-08-25 2012-01-12 ウニヴェルジテート チューリッヒ プロレクトラート エムエヌヴェー 調整可能な仮想現実システム
TWI373361B (en) * 2008-10-09 2012-10-01 Univ Nat Chiao Tung Glove puppet manipulation system
CN101732858B (zh) * 2008-11-11 2013-10-30 盛乐信息技术(上海)有限公司 现实与虚拟结合的联网游戏系统及实现方法
US8253801B2 (en) * 2008-12-17 2012-08-28 Sony Computer Entertainment Inc. Correcting angle error in a tracking system
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法
US9067097B2 (en) * 2009-04-10 2015-06-30 Sovoz, Inc. Virtual locomotion controller apparatus and methods
US20100302253A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
KR101755051B1 (ko) * 2009-07-22 2017-07-06 임머숀 코퍼레이션 플랫폼에 걸쳐 햅틱 피드백을 갖는 상호작용 터치 스크린 게임 메타포
CN102141685B (zh) * 2009-11-29 2016-02-24 黄得锋 一种3d成像装置
US8284157B2 (en) * 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US20110221755A1 (en) * 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
CN202120199U (zh) * 2011-06-13 2012-01-18 深圳市远望落星山科技有限公司 一种光影跟踪系统
CN102253713B (zh) * 2011-06-23 2016-10-12 康佳集团股份有限公司 面向三维立体影像显示系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110007079A1 (en) * 2009-07-13 2011-01-13 Microsoft Corporation Bringing a visual representation to life via learned input from the user
CN101890237A (zh) * 2010-07-16 2010-11-24 叶尔肯·拜山 游戏控制器及其控制方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101967072B1 (ko) * 2017-12-14 2019-04-08 김민철 사용자 활동 기반 가상 객체 관리 방법, 이를 수행하는 가상 객체 관리 장치 및 이를 기록한 기록매체

Also Published As

Publication number Publication date
JP2019061707A (ja) 2019-04-18
EP2674204A4 (en) 2015-01-28
KR20140049503A (ko) 2014-04-25
US20130331964A1 (en) 2013-12-12
JP6193764B2 (ja) 2017-09-06
JP6749384B2 (ja) 2020-09-02
JP2018022498A (ja) 2018-02-08
WO2012106978A1 (zh) 2012-08-16
JP2014510336A (ja) 2014-04-24
CN102541260A (zh) 2012-07-04
CN107050852A (zh) 2017-08-18
JP6722624B2 (ja) 2020-07-15
CN106984041A (zh) 2017-07-28
EP3950076A1 (en) 2022-02-09
CN102681655B (zh) 2017-07-07
CN102541260B (zh) 2013-04-03
CN102631781A (zh) 2012-08-15
EP2674204A1 (en) 2013-12-18
CN106943743A (zh) 2017-07-14
CN106943742B (zh) 2024-04-26
CN106964150A (zh) 2017-07-21
CN106964150B (zh) 2021-03-02
CN106943742A (zh) 2017-07-14
CN102631781B (zh) 2017-04-05
CN106943743B (zh) 2024-04-26
CN106984041B (zh) 2021-07-06
CN102681655A (zh) 2012-09-19
US10058773B2 (en) 2018-08-28

Similar Documents

Publication Publication Date Title
KR101679805B1 (ko) 인간과 컴퓨터가 인터랙티브하는 제어방법 및 그의 응용
Caserman et al. A survey of full-body motion reconstruction in immersive virtual reality applications
US7542040B2 (en) Simulated locomotion method and apparatus
US8223147B1 (en) Method and system for vision-based interaction in a virtual environment
CN103019386B (zh) 一种人机互动的控制方法及其运用
Ishigaki et al. Performance-based control interface for character animation
Nilsson et al. The perceived naturalness of virtual locomotion methods devoid of explicit leg movements
US9229530B1 (en) Wireless haptic feedback apparatus configured to be mounted on a human arm
KR101317383B1 (ko) 로봇을 이용한 인지 능력 훈련 장치 및 그 방법
CN102270276A (zh) 根据身体移动确定卡路里燃烧
Zhang et al. KaraKter: An autonomously interacting Karate Kumite character for VR-based training and research
CN104470593A (zh) 社交舞用的系统和方法
Ye et al. Animating responsive characters with dynamic constraints in near-unactuated coordinates
Hwang et al. Ergopulse: Electrifying your lower body with biomechanical simulation-based electrical muscle stimulation haptic system in virtual reality
Walther-Franks et al. Suspended walking: A physical locomotion interface for virtual reality
Nabiyouni How does interaction fidelity influence user experience in VR locomotion?
CN110280016B (zh) 一种vr场景体验系统
WO2017178862A1 (en) Method for modeling and simulating physical effect in interactive simulators and electronic games, system for implementing the same and method for calibrating the system
Normand et al. Exploring the Perception of Center of Mass changes for VR Avatars
KR20230163820A (ko) 가상현실 체험을 위한 전자장갑을 이용한 다중감각 인터페이스 시스템
Tripicchio et al. Human forces in hands free interaction: a new paradigm for immersive virtual environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190703

Year of fee payment: 4