KR20160095663A - 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법 - Google Patents

영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법 Download PDF

Info

Publication number
KR20160095663A
KR20160095663A KR1020150011290A KR20150011290A KR20160095663A KR 20160095663 A KR20160095663 A KR 20160095663A KR 1020150011290 A KR1020150011290 A KR 1020150011290A KR 20150011290 A KR20150011290 A KR 20150011290A KR 20160095663 A KR20160095663 A KR 20160095663A
Authority
KR
South Korea
Prior art keywords
information
motion
platform
axis
control
Prior art date
Application number
KR1020150011290A
Other languages
English (en)
Inventor
이석준
서갑호
박용식
박성호
Original Assignee
재단법인대구디지털산업진흥원
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구디지털산업진흥원, 한국로봇융합연구원 filed Critical 재단법인대구디지털산업진흥원
Priority to KR1020150011290A priority Critical patent/KR20160095663A/ko
Publication of KR20160095663A publication Critical patent/KR20160095663A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 실시예는 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법에 관한 것으로서, 본 발명의 실시예에 따른 다축 모션 플랫폼을 제어하는 플랫폼 제어 장치는 영상표시장치의 화면에 표시되는 3차원 영상의 객체(object)와 관련된 3차원 모션 정보를 저장하는 저장부, 및 객체에 이벤트가 발생하면, 저장한 3차원 모션 정보를 이용하여 이벤트가 반영된 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성해 출력하는 모션 정보 처리부를 포함할 수 있다.

Description

영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법{Image Simulating System, Apparatus for Controlling Platform and Method for Controlling Platform}
본 발명은 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법에 관한 것으로서, 더 상세하게는 예컨대 3차원 게임 컨텐츠의 구현시 사용자가 지정한 객체에 가해지는 모션이 6축 모션 플랫폼에서 실감나게 재연될 수 있도록 하는 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법에 관한 것이다.
통상적으로 다수의 이용자가 이용하는 라이더 시스템은 전면에 제공되는 영상의 진행에 따라 의자 등에 포함되어 있는 모션 시스템을 통해 이용자들에게 상하/좌우/전후 진동, 가감속 등의 다양한 모션을 제공한다. 한편, 체험형 4D 라이더 시스템의 경우 바람, 물, 냄새, 버블, 눈 등의 다양한 이벤트를 영상의 내용에 따라 제공해 주기도 한다. 라이더 시스템은 3D 프로젝션, 스크린, 스피커 및 구동부(operating unit)로 구성되며, 구동부는 1인승 및 다인승 의자와 의자에 연결되는 모션 시스템으로 구성된다.
그런데 종래의 4D 라이더는 컨텐츠 유형이 롤러코스터, 라이더 등의 사용자 조작이 없는 수동적인 컨텐츠 위주이고, 컨텐츠 영상은 사전 제작 방식으로 이루어지며, 모션 동기화를 위하여 메타 파일을 사전에 제작해야 하는 문제가 있다. 또한 모션 재연성 측면에서 보면 4D 라이더는 대부분 유압식 플랫폼 사용으로 인해 반응 속도가 느려 실감 게임용으로 적합하지 않다. 나아가, 대부분 다인 탑승형이므로 전달 모션 상쇄로 인한 탑승자 실감성도 하락한다. 뿐만 아니라, 4D 라이더는 플랫폼에 최적화된 라이더형 컨텐츠만 사용 가능하고, 확장성을 위해서는 단일 컨텐츠마다 각각의 사전 작업이 필요하게 된다. 무엇보다 4D 라이더에서 발생하는 장면 즉 스크린에 구현되는 장면과 플랫폼 모션과의 재연 시차 즉 모션 동기화(motion syncronization) 문제는 컨텐츠 사용자의 몰입감(immersion)을 현저히 떨어뜨리는 문제가 있다.
본 발명의 실시예는 예컨대 3차원 게임 컨텐츠의 구현시 사용자가 지정한 객체의 모션이 6축 모션 플랫폼에서 실감나게 재연될 수 있도록 하는 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법을 제공하려는 데 그 목적이 있다.
본 발명의 실시예에 따른 영상 시뮬레이팅 시스템은 3차원 영상을 화면에 표시하는 영상표시장치, 상기 3차원 영상의 객체(object)와 관련된 3차원 모션 정보를 저장하고, 상기 객체와 관련된 이벤트가 발생하면, 상기 저장한 3차원 모션 정보를 이용하여 상기 이벤트가 반영된 상기 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성하는 플랫폼 제어 장치, 및 상기 생성한 제어 정보의 상기 좌표 정보 및 상기 회전 정보에 근거하여 상기 이벤트가 발생한 상기 객체의 모션을 재연하는 모션 플랫폼 기반의 시뮬레이터를 포함한다.
본 발명의 실시예에 따른 다축 모션 플랫폼을 제어하는 플랫폼 제어 장치는 영상표시장치의 화면에 표시되는 3차원 영상의 객체(object)와 관련된 3차원 모션 정보를 저장하는 저장부, 및 상기 객체에 이벤트가 발생하면, 상기 저장한 3차원 모션 정보를 이용하여 상기 이벤트가 반영된 상기 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성해 출력하는 모션 정보 처리부를 포함한다.
상기 다축 모션 플랫폼은 상기 제어 정보에 근거해 상기 이벤트가 발생된 객체의 모션이 재연되는 6축 모션 플랫폼을 포함하며, 상기 모션 정보 처리부는 상기 6축 모션 플랫폼을 제어하기 위한 제어 정보를 생성해 제공할 수 있다.
상기 모션 정보 처리부는, 상기 이벤트에 의해 발생된 상기 객체의 3차원 모션에 대한 X축, Y축 및 Z축으로의 좌표 정보(Px, Py, Pz)와 각 축별 회전 정보(Ox, Oy, Oz)를 생성하고, 상기 생성한 좌표 정보 및 회전 정보를 상기 6축 모션 플랫폼의 제어 정보로서 제공할 수 있다.
상기 저장부는, 상기 3차원 모션 정보로서 상기 객체의 충격 이벤트에 대한 충격량 정보를 포함하며, 상기 모션 정보 처리부는, 상기 충격 이벤트가 발생하면, 상기 충격량 정보가 반영된 제어 정보를 생성하여 제공할 수 있다.
상기 3차원 영상은 게임 영상이며, 게임이 진행되는 동안, 상기 제어 정보는 상기 다축 모션 플랫폼으로 끊김 없이 제공될 수 있다.
상기 모션 정보 처리부는, 상기 3차원 영상 컨텐츠의 유형, 상기 객체의 종류, 상기 객체의 동작 상태 및 전문가 모드의 선택 중 적어도 하나의 설정에 따라 상기 제어 정보를 변경하여 상기 다축 모션 플랫폼으로 제공할 수 있다.
또한 본 발명의 실시예에 따른 다축 모션 플랫폼을 제어하는 플랫폼 제어 방법은 영상표시장치의 화면에 표시되는 3차원 영상의 객체와 관련된 3차원 모션 정보를 저장하는 단계, 및 상기 객체에 이벤트가 발생하면, 상기 저장한 3차원 모션 정보를 이용하여 상기 이벤트가 반영된 상기 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성해 제공하는 단계를 포함한다.
상기 다축 모션 플랫폼은 상기 제어 정보에 근거해 상기 이벤트가 발생된 객체의 모션이 재연되는 6축 모션 플랫폼을 포함하며, 상기 제어 정보로서 생성해 제공하는 단계는, 상기 6축 모션 플랫폼을 제어하기 위한 제어 정보를 생성해 출력할 수 있다.
상기 제어 정보로서 생성해 제공하는 단계는, 상기 이벤트에 의한 상기 객체의 3차원 모션에 대한 X축, Y축 및 Z축으로의 좌표 정보(Px, Py, Pz)와 각 축별 회전 정보(Ox, Oy, Oz)를 생성하는 단계, 및 상기 생성한 좌표 정보 및 회전 정보를 상기 6축 모션 플랫폼을 제어하기 위한 제어 정보로서 제공하는 단계를 포함할 수 있다.
상기 저장하는 단계는, 상기 3차원 모션 정보로서 상기 객체의 충격 이벤트에 대한 충격량 정보를 포함하며, 상기 제어 정보로서 생성해 제공하는 단계는 상기 충격 이벤트가 발생하면, 상기 충격량 정보가 반영된 제어 정보를 생성하여 제공할 수 있다.
상기 3차원 영상은 게임 영상이며, 게임이 진행되는 동안, 상기 제어 정보는 상기 다축 모션 플랫폼으로 끊김 없이 제공될 수 있다.
상기 제어 정보로서 생성해 제공하는 단계는, 3차원 영상 컨텐츠의 유형, 상기 객체의 종류, 상기 객체의 동작 상태 및 전문가 모드의 선택 중 적어도 하나의 설정에 따라 상기 제어 정보가 변경되어 상기 다축 모션 플랫폼으로 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템을 도시화하여 나타낸 도면,
도 2a는 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 블록다이어그램,
도 2b는 도 2a에 도시된 일부 구성요소의 구동 메커니즘을 나타내는 도면,
도 3a는 게임 컨텐츠와 시뮬레이터의 연동을 설명하기 위한 도면,
도 3b는 게임 내 3D 모션 정보를 플랫폼으로 전달하는 것을 설명하기 위한 도면,
도 4a는 시뮬레이터의 구조를 나타내는 도면,
도 4b는 도 4a의 모션 플랫폼의 구조를 나타내는 도면,
도 5는 게임 시뮬레이터를 위한 좌표 체계를 설명하기 위한 도면,
도 6a는 도 1의 플랫폼 제어 장치의 세부 구조를 예시하여 나타낸 블록다이어그램,
도 6b는 도 6a의 모션 정보 처리부 내에 구비되는 프로그램을 예시하여 나타낸 도면,
도 7은 게임상의 3차원 모션 정보의 처리 과정을 설명하기 위한 도면,
도 8은 도 1의 플랫폼 제어 장치의 다른 세부 구조를 예시하여 나타낸 블록다이어그램,
도 9는 토크 제어 시스템 루프의 일반적인 예를 나타내는 도면,
도 10은 본 발명의 실시예에 따른 플랫폼 제어 방법을 나타내는 흐름도, 그리고
도 11a 내지 도 11e는 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템의 다양한 변형 예를 나타내는 도면이다.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템을 도시화하여 나타낸 도면이고, 도 2a는 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 블록다이어그램이며, 도 2b는 도 2a에 도시된 일부 구성요소의 구동 메커니즘을 나타내는 도면이다. 또한 도 3a는 게임 컨텐츠와 시뮬레이터의 연동을 설명하기 위한 도면이고, 도 3b는 게임 내 3D 모션 정보를 플랫폼으로 전달하는 것을 설명하기 위한 도면이다. 나아가, 도 4a는 시뮬레이터의 구조를 나타내는 도면이고, 도 4b는 도 4a의 모션 플랫폼의 구조를 나타내는 도면이며, 도 5는 게임 시뮬레이터를 위한 좌표 체계를 설명하기 위한 도면이다.
도 1 내지 도 4b를 참조하면, 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템(90)은 플랫폼 제어 장치(100) 및 시뮬레이터(110)를 포함하며, 영상표시장치 및 영상기 중 적어도 하나를 더 포함할 수 있다.
구체적인 설명에 앞서, 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템(혹은 영상 시뮬레이팅 시스템)(90)의 구동 메커니즘을 먼저 간략하게 살펴보면, 가령 사용자는 도 1, 도 2a 및 도 2b에서와 같이 3차원(3D) 게임 컨텐츠와 연동된 모션 플랫폼 기반의 시뮬레이터(110)에 장착된 컨텐츠 제어기(예. 조이스틱)(110a)를 통해 3D 게임을 조작할 수 있다.
예를 들어 사용자에 의해 조이스틱으로 입력되는 이동 및 공격 등의 조작은 도 3a 및 도 3b에서와 같은 3D 게임상에 존재하는 가상(의) 로봇(100-3a)을 조종하게 되고, 가령 게임 엔진(혹은 프로그램)은 가상 로봇(100-3a)의 3D 모션 데이터를 실감 게임 시뮬레이터 제어기, 예를 들어 MLF 모듈(100-2) 등의 플랫폼 제어 장치(100)로 실시간(in real time) 즉 끊김 없이 전달해 준다.
제어기에서 전달받은 데이터는 가령 데이터 분석 모듈을 통해, 탑승자에게 전달할 모션 데이터로 변환되어 시뮬레이터(110)의 움직임으로 표현되게 된다.
결국, 본 발명의 실시예는 도 2a 및 도 2b에서와 같이 게임 내부에서 발생하는 모션 좌표를 실시간으로 MLF 모듈(100-2)과 같은 제어기에서 처리하고, 그 결과가 실시간으로 게임 플랫폼에 반영되는 구조를 갖는다. 이를 위하여 제어기는 게임 실감성을 표현하기 위하여 실제 게임 내부에서 발생하는 움직임을 3차원 좌표(Px, Py, Pz)와 각 축별 회전값(Ox, Oy, Oz)의 형태로 제공한다.
좀더 구체적으로 살펴보면, 플랫폼 제어 장치(100)는 게임 컨텐츠를 처리하는 영상 처리부(100-1), 다축 모션 플랫폼(110b)의 모션 제어를 위한 제어 정보를 생성하는 MLF 모듈(100-2), 3D 게임 컨텐츠를 화면에 표시하기 위한 스크린 또는 영상 패널 등의 디스플레이부(100-3) 및 음향을 출력하는 음향 출력부(100-4)를 포함할 수 있다. 여기서, 스크린은 영화관에서와 같이 영상기를 통해 투사된 영상을 단순히 보여주는 (장)막을 의미하며, 영상 패널은 컴퓨터 모니터나 TV에 적용되는 LCD 패널, OLED 패널 및 PDP 패널 등을 의미할 수 있다. 이러한 점에 근거해 볼 때, 도 1의 플랫폼 제어 장치(100)는 모니터나 TV와 같은 영상표시장치가 될 수 있다.
따라서, 도 1의 플랫폼 제어 장치(100)는 사용자의 요청에 따라 가령 3차원 게임 영상(혹은 컨텐츠)을 화면에 표시하고, 표시된 3차원 게임 영상에서 사용자가 지정한 특정 객체, 가령 도 3a에서와 같은 가상 로봇(100-3a)에 대한 모션 정보를 실시간으로 생성하거나 또는 기생성된 모션 정보를 추출하여 시뮬레이터(110)를 구성하는 다축 모션 플랫폼(110b)으로 제공할 수 있다.
다시 말해, 사용자는 화면상에서 게임 영상을 즐기기 위하여 자신이 객체를 지정할 수 있는데, 이는 다축 모션 플랫폼(110b)에 구비되는 조이스틱과 같은 컨텐츠 제어기(100a)에 의해 이루어질 수 있다. 여기서, 컨텐츠 제어기(100a)는 사용자의 인터페이스가 요구되므로 사용자 인터페이스 장치가 될 수 있다. 가령, 전투 로봇 게임이 실행되는 경우, 사용자는 자신이 원하는 특정 로봇을 지정하여 조종할 수 있을 것이다.
이와 같은 과정이 이루어지면, 플랫폼 제어 장치(100)는 도 3b에서와 같이 조이스틱을 조종하는 사용자의 제어에 따라 가상 로봇(100-3a)과 같은 객체가 움직이면, 이때 움직이는 객체의 좌표 정보, 즉 X축, Y축 및 Z축을 기준으로 하여 객체가 움직이는 좌표값을 생성 또는 기생성된 좌표값을 추출하여 다축 모션 플랫폼(110b)에 제공하게 된다. 다시 말해, 다축 모션 플랫폼(110b)은 도 3a에서와 같이 가상 로봇(100-3a)에 동기되어 움직이게 되는 것이다.
나아가 플랫폼 제어 장치(100)는 만약 게임을 진행하던 중 돌이나 벽과 같은 장애물이 나타나 사용자가 가상 로봇(100-3a)을 제어하는 과정에서 가상 로봇(100-3a)이 장애물에 부딪히게 되었다면 즉 충격 이벤트가 발생하였다면 플랫폼 제어 장치(100)는 충격량에 따른 가상 로봇(100-3a)의 좌표 정보와 그 각각의 좌표 정보에 대한 회전 정보를 추가로 생성하거나 기생성된 회전 정보를 추출하여 다축 모션 플랫폼(100b)에 제공할 수 있다.
이후에 다시 살펴보겠지만, 플랫폼 제어 장치(100)는 사용자의 조이스틱 조절량에 따른 복수의 좌표 정보를 내부 메모리에 저장할 수 있다. 예를 들어, 사용자가 조이스틱을 조정하여 객체 즉 가상 로봇(100-3a)이 천천히 걸을 때와 빨리 걷거나 뛸 때는 X, Y 및 Z축의 좌표 정보가 다를 수 있다. 따라서, 플랫폼 제어 장치(100)는 조이스틱 조절량 즉 가상 로봇(100-3a)이 천천히 걸을 때, 빨리 걸을 때 및 뛸 때의 상황에 대한 각각의 좌표 정보를 저장할 수 있다. 그리고 이러한 상황에 근거함으로써 동일한 충격이 발생하더라도 각 축의 회전량은 달라질 수 있다. 다시 말해, 동일한 충격이 가상 로봇(100-3a)에 가해지더라도 천천히 걸을 때보다는 빨리 걸을 때가, 그리고 빨리 걸을 때보다는 뛸 때가 회전량이 크게 될 것이다. 따라서, 플랫폼 제어 장치(100)는 각 상황에 따라 서로 다른 회전 정보를 좌표 정보에 매칭시켜 저장할 수 있다. 그리고 충격 이벤트가 발생하면 해당 이벤트에 관계된 좌표 정보와 회전 정보를 추출하여 다축 모션 플랫폼(110b)으로 제공할 수 있을 것이다. 가령 이러한 정보들은 내부 메모리에 EMMT(Effect Motion Mapping Table) 방식으로 저장된 후 추출될 수 있다. 여기서 EMMT는 특정 시점에 발생할 모션을 컨텐츠 제작시에 미리 가공 즉 저장해 두어 사용하는 것을 의미한다.
물론 본 발명의 실시예에 따라 플랫폼 제어 장치(100)는 단순히 기저장된 정보를 이벤트의 발생에 따라 추출하는 것을 넘어 실시간으로 계산하여 제공하는 것도 얼마든지 가능할 수 있다. 예를 들어, 천천히 걸을 때의 상황에 대해서만 좌표 정보와 회전 정보를 기설정하였다고 가정하자. 그러면 빨리 걸을 때와 뛸 때는 천천히 걸을 때의 좌표 정보와 회전 정보에서 일정 값을 증가시키도록 하여 해당 상황에 맞는 3차원 모션 정보를 생성하여 제공할 수 있다. 여기서, 일정 값은 가중치가 부여된 값을 포함할 수도 있을 것이다.
한편, 이러한 좌표 정보와 위치 정보의 생성은 사용자가 어떠한 객체를 지정하였느냐 즉 객체의 유형에 따라서도 얼마든지 달라질 수 있을 것이다. 예를 들어, 로봇의 크기가 크다면 작은 로봇보다 동일 충격량에 대하여 위치 변화가 적을 수도 있다. 또한 위의 정보들은 사용자가 어떠한 동작 모드를 선택하였느냐에 따라서도 얼마든지 달라질 수 있다. 예를 들어, 사용자가 위치 변화에 대하여 전문가 수준으로 세밀하게 모션을 느끼고 싶지 않다면 전문가 모드가 아닌 일반 사용자 (동작) 모드를 선택할 수도 있다. 이와 같이 좌표 정보와 회전 정보는 주어진 상황에 따라 다양하게 변경될 수 있을 것이다. 따라서 본 발명의 실시예에서는 위의 내용에 특별히 한정하지는 않을 것이다.
시뮬레이터(110)는 도 4a 및 도 4b에 나타낸 바와 같이, 컨텐츠 제어기(110a), 다축 모션 플랫폼(110b), 탑승 시트(110c) 및 발판(110d)을 포함할 수 있다. 이를 통해 시뮬레이터(110)는 게임을 즐기기 위한 사용자의 탑승이 가능하다. 다축 모션 플랫폼(110b)은 자신의 동작에 의해 사용자가 가상 로봇(100-3a)과 같은 모션을 느낄 수 있도록 하기 위하여 플랫폼 제어 장치(100)에서 제공하는 좌표 정보만을 이용하거나 좌표 정보와 회전 정보를 함께 이용하여 플랫폼의 각 축을 제어한다. 본 발명의 실시예에 따른 시뮬레이터(110)의 구조는 컨텐츠 연동의 편의성을 제공한다. 다시 말해, 플랫폼의 사양은 컨텐츠의 용도에 맞게 구성되는 것이 일반적이다. 따라서, 본 발명의 실시예에서는 컨텐츠의 변경에 대비하여 모션 플랫폼(110b)을 모션부와 인터페이스 부분으로 모듈화하여 변경이 용이한 구조이다.
본 발명의 실시예에 따라 다축 모션 플랫폼(110b)는 도 4b 및 도 5에서와 같이 6축 제어가 가능한 플랫폼이 바람직하다. 다시 말해, 회전 정보가 없는 경우 다축 모션 플랫폼(110b)은 X축, Y축 및 Z축에 대한 좌표 정보만을 이용하여 해당 축을 제어한다. 하지만, 회전 정보가 함께 제공되면 X축, Y축 및 Z축에 대한 회전 값도 함께 이용하여 회전 축들을 제어하게 된다. <표 1>은 실감 게임 시뮬레이터(110)를 위한 좌표 체계를 보여주고 있다. 여기서, 축은 엑추에이터(420-1 ~ 420-6)를 의미할 수 있는데, 엑추에이터(420-1 ~ 420-6)는 모터(미도시) 및 제어부(미도시)에 연동할 수 있다. 또한 다축 모션 플랫폼(110b)는 엑추에이터(420-1 ~ 420-6)를 고정하는 베이스 플레이트(400)와 플랫폼 플레이트(410)를 포함한다.
Figure pat00001
다축 모션 플랫폼(110b)의 탑승 시트(110c)에 탑승한 사용자는 컨텐츠 제어기(110a) 즉 조이스틱을 조정해 컨텐츠를 제어하며 게임을 즐길 수 있다. 즉 로봇 캐릭터를 이동시켜 주변 배경을 바꾸게 된다. 나아가, 다축 모션 플랫폼(110b)은 조이스틱의 조정에 의해 자신이 지정한 객체를 회전시키는 것이 가능하다면 해당 회전에 대한 제어 정보가 모션 제어 장치(100)로 제공될 것이다. 이에 따라 플랫폼 제어 장치(100)는 해당 회전에 대한 제어 정보를 이용해 회전 정보를 생성 또는 추출하여 출력하게 되고, 다축 모션 플랫폼(110b)은 해당 값을 수신하여 회전 축을 제어할 수도 있을 것이다. 따라서, 본 발명의 실시예에서는 플랫폼 제어 장치(100)가 어떠한 방식으로 모션 정보를 생성하여 다축 모션 플랫폼(100b)에 제공하는지에 대하여 특별히 한정하지는 않을 것이다.
한편, 본 발명의 실시예에 따른 다축 모션 플랫폼(100b)은 <표 2>에 나타낸 데이터 시트 상의 정격값들을 참조해 실감게임 시뮬레이터(110)로서 설계될 수 있다.
Figure pat00002
도 6a는 도 1의 플랫폼 제어 장치의 세부 구조를 예시하여 나타낸 블록다이어그램이며, 도 6b는 도 6a의 모션 정보 처리부 내에 구비되는 프로그램을 예시하여 나타낸 도면이며, 도 7은 게임상의 3차원 모션 정보의 처리 과정을 설명하기 위한 도면이다.
설명의 편의상 도 6a 및 도 6b를 도 1과 함께 참조하면, 도 1의 플랫폼 제어 장치(100)는 모션 정보 처리부(600) 및 저장부(610)를 포함할 수 있다.
여기서, 모션 정보 처리부(600)는 다축 모션 플랫폼(110b)에 구비되는 조이스틱 등의 컨텐츠 제어기(110a) 및 외부의 영상표시장치와 연동할 수 있다. 예를 들어, 모션 정보 처리부(600)는 인터넷 등을 통해 외부에서 게임 컨텐츠를 수신하는 경우 이를 저장부(610)에 임시 저장한 후 외부의 영상표시장치로 제공해 줄 수 있다.
그리고, 영상표시장치의 화면에 표시된 게임 컨텐츠에서 사용자가 지정한 특정 객체 가령 도 3a 및 도 3b의 가상 로봇(100-3a)의 모션을 조작하는 조이스틱 신호 즉 컨텐츠 제어 신호를 수신할 수 있다. 모션 정보 처리부(600)는 이러한 조이스틱 신호를 실시간으로 수신하고, 이를 반영하여 게임 컨텐츠를 영상표시장치로 제공하게 된다.
이의 과정에서 모션 정보 처리부(600)는 해당 조이스틱 신호에 근거하여 객체의 좌표 정보를 추출(또는 산출)하여 다축 모션 플랫폼(110b)으로 제공한다. 여기서, 추출은 테이블 형태로 기저장된 좌표 정보를 불러내는 것을 의미한다.
또한 모션 정보 처리부(600)는 조이스틱 신호를 실시간으로 수신하고, 이를 반영하여 게임 컨텐츠를 영상표시장치로 제공하는 과정에서 객체에 이벤트가 발생하는지를 판단할 수 있다. 예를 들어, 가상 로봇(100-3a)이 돌에 걸리거나 벽에 부딪히는지를 판단할 수 있다. 가령 돌에 걸린다고 판단되면 이의 충격량을 반영하여 모션 정보 처리부(600)는 가상 로봇(100-3a)의 좌표 정보 및 회전 정보를 추출하여 다축 모션 플랫폼(110b)으로 제공할 수 있다. 여기서, 충격이 있는지는 장애물의 위치와 가상 로봇(100-3a)의 위치가 동일할 때 가능하다. 기타 자세한 내용은 앞서 충분히 설명하였으므로 더 이상의 설명은 생략하도록 한다.
실질적으로 이러한 모션 정보 즉 좌표 정보와 회전 정보는 모션 정보 처리부(600)의 내부 메모리에 저장된 모션 정보 생성 프로그램에 의해 실행된다고 볼 수도 있다. 다시 말해, 모션 정보 처리부(600)는 하나의 소프트웨어 형태로 구성될 수 있지만, CPU와 메모리를 포함하는 하드웨어 형태로 구성될 수 있다. 물론 하나의 소프트웨어란 CPU의 기능과 메모리 내에 저장된 도 6b에서와 같은 프로그램들의 모든 기능을 수행하는 것을 전제로 한다. 이러한 프로그램들은 저장부(610)에 장기적으로 저장되고, 사용자의 요청이 있을 때 즉 게임을 진행하고자 할 때 메모리에 임시 저장될 수 있다. CPU는 메모리에 저장된 프로그램들을 실행시켜 위의 동작을 수행한다고 볼 수 있다.
예를 들어, 모션 정보 처리부(610)는 도 6a의 게임 엔진(600-1) 즉 게임 프로그램을 통해서는 게임 컨텐츠에 대한 데이터 또는 정보를 처리할 수 있다. 다시 말해, 게임 엔진을 통해서는 저장부(610) 또는 내부 메모리에 저장된 게임 컨텐츠를 실행시킬 수 있다. 또한 조이스틱 조작에 의해 이동하는 객체의 모션에 대한 좌표 정보를 생성하여 출력할 수 있다. 그리고 생성한 좌표 정보는 모션 정보 엔진(600-2) 즉 모션 정보 프로그램에 제공해 줄 수 있다.
모션 정보 엔진(600-2)을 통해서는 게임 엔진(600-1)에서 제공된 좌표 정보와 가령 돌 충격과 같은 이벤트의 발생에 따른 충격량 정보를 반영하여 생성한 좌표 정보(Px, Py, Pz)와 회전 정보(Ox, Oy, Oz)를 생성해 출력할 수 있다. 실질적으로 모션 정보 엔진(600-2)은 앞서 설명한 대로, 로봇의 상태, 즉 빨리 걷는 중인지 혹은 뛰는 중인지와 돌이 충격에 따라 저장부(610)에 기저장된 좌표 정보 및 회전 정보를 추출하여 제공할 수 있을 것이다. 또는 벽에 부딪힌 경우라면 벽의 충격에 따라 좌표 정보와 회전 정보를 추출하여 제공한다. 이때, 제공되는 좌표 정보와 회전 정보는 로봇의 크기 등에 따라서도 얼마든지 달라지는 것이며, 이는 앞서 충분히 설명하였으므로 더 이상의 설명은 생략하도록 한다.
도 7을 참조하여 본 발명의 실시예에 따른 모션 정보 처리부(500)의 게임상의 3차원 모션 정보의 처리 과정을 살펴보면 다음과 같다. 도 7의 (a)는 월드좌표계에서의 이동량을 예시하여 나타낸 것이고, 도 7의 (b)는 로컬 좌표계에서의 이동량을 예시하여 나타내는 것이다.
도 7을 참조하면, 게임 렌더링 중의 위치 이동량은 아래의 <수학식 1>과 같이 나타낼 수 있다.
Figure pat00003
이때, i는 △t 이전의 프레임 번호이고, △t 동안 수집된 월드 좌표계상의 모션정보 개수는 n개 일 때, k = i + n으로 나타낼 수 있다. Pi, Pi+1, … Pk는 i ~ k 프레임 사이의 위치 변화를 나타내고, w는 월드 좌표계를 나타내며, Ci, Ck는 객체(게임 내의 로봇) 좌표계이다. 월드 좌표계에서 객체 좌표계로 변환은 Tw→c로 표현된다.
또한 객체 좌표계에서의 위치 이동량은 <수학식 2>에서와 같이 나타낼 수 있다.
Figure pat00004
가장 최근의 객체 위치 좌표(local position) Ck를 기준으로 3차원 공간상에서의 이동량을 캐릭터 좌표계에서의 이동량으로 변환하게 된다.
이때 제공되는 컨텐츠의 강도 조절을 위해 전체 모션 정보의 크기를 조절할 필요가 있으므로 스케일 조정자(scale factor) s를 정의하게 된다.
상기의 같은 처리 과정에 의해, 최종 출력되는 정보는 <표 3>에서와 같은 형식을 가질 수 있다.
Figure pat00005
저장부(610)는 EPROM이나 EEPROM을 포함할 수 있다. 다시 말해, 비휘발성 메모리인 것이 바람직하다. 저장부(610)는 게임 컨텐츠를 영구적으로 저장하고, 도 5b에서와 같이 게임 엔진(600-1)과 모션 정보 엔진(600-2)을 저장할 수 있다. 그리고, 모션 정보 처리부(600)의 요청이 있는 경우, 저장된 게임 컨텐츠, 게임 엔진(600-1) 및 모션 정보 엔진(600-2) 중 적어도 하나를 출력해 줄 수 있다.
저장부(610)는 모션 정보로서 좌표 정보와 회전 정보를 저장하고, 이러한 정보는 객체의 상태나 특정 이벤트에 매칭되어 저장될 수 있다. 예를 들어, 단순히 로봇이 걷거나 뛰거나 하는 경우라면 이의 객체 상황에 맞는 좌표 정보와 회전 정보를 추출하여 제공한다. 이때 회전 정보는 각각 0의 값을 가질 수 있다. 그러나, 특정 이벤트가 발생하면, 해당 이벤트와 객체 상황에 맞는 좌표 정보와 회전 정보를 추출하여 제공하는 것이다. 앞서 언급한 대로, 저장부(610)는 특정 이벤트에 따른 대표적인 좌표 정보와 회전 정보만을 물론 저장할 수도 있다. 그리고 객체의 특정 상태에 대한 증가값이나 가중치에 대한 정보를 더 저장할 수 있다.
이의 경우 모션 정보 처리부(600)는 기설정된 규칙에 따라 대표적인 좌표 정보와 회전 정보에 증가값이나 가중치에 대한 정보를 반영하여 새로운 좌표 정보와 회전 정보를 생성해 낼 수 있다. 앞서 언급한 대로 로봇이 천천히 걷는 경우를 기준으로 좌표 정보와 회전 정보를 저장하였는데, 빨리 걷는다거나 뛰는 경우에는 기저장된 증가값이나 가중치를 반영해 새로운 정보를 생성할 수 있는 것이다.
<표 4>는 실감 게임 시뮬레이터의 실감 요소를 정의한 테이블을 나타낸다. 다시 말해, <표 4>에 나타낸 다양한 항목들에 따라 객체의 좌표 정보와 회전 정보는 달라질 수 있는 것이다.
Figure pat00006
<표 4>에서 볼 때, No 11 ~ 15에 해당되는 특수 이벤트(Special Event)에서 발생하는 특수 모션은 가상 공간에서 일어나는 물리 현상을 플랫폼과 동일하게 구현하는 데에 물론 한계가 있을 수 있다. 따라서, 본 발명의 실시예에서는 특수 모션의 실감성을 최대로 표현하기 위해 도 2a 및 도 2b에 도시한 MLF 모듈(100-2) 및 모션 플랫폼(110b)의 세밀한 정의(또는 설계)가 필요할 수 있을 것이다.
예를 들어, 특수 모션, 즉 자유 낙하, 가속-감속, 점프 등에 대한 모션 체감성을 추가함으로써 실감나는 모션을 재연할 수 있을 것이다.
또한 사용자 몰입도 분석을 통한 데이터를 참고함으로써 시스템을 보다 안정화시킬 수 있는데, 이에 따라 사용상의 흥미 상승이 기대되며, 그 중에서 라이더 형태의 시스템은 플랫폼의 만족도가 컨텐츠에 대한 사용자의 몰입도 분석을 통해 가능할 수 있을 것이다.
상기와 같이, 로봇형 플랫폼(H/W)과 연동 가능한 게임엔진 모듈(S/W)을 구현함으로써 실감 로봇 플랫폼 기반 아케이드 게임 구동이 가능한 게임 플랫폼을 구현할 수 있을 것이다. 또한 다축(6DOF) 표현 가능한 운동성 로봇 플랫폼의 정밀한 제어를 통하여 실제와 유사한 운동성 피드백을 재현할 수 있는 탑승형 로봇 플랫폼의 개발에 따라 이를 아케이드 게임과 연동하여 서비스함으로써 가상의 3차원 세계를 현장감있게 제공할 수 있을 것이다.
또한 본 발명의 실시예에 따르면, 3D 월드 자율 네비게이션이 가능하게 된다. 즉 포크레인, 잠수함, 선박 등 다양한 시뮬레이션 컨텐츠의 교체가 가능하다. 컨텐츠 영상은 실시간 렌더링이 가능하며, 모션 동기화 측면에서는 게임 3D 정보 기반의 역기구학적 실시간 분석에 의한 모션 전달이 가능하다. 즉 메타 파일이 없고, EMMT의 지원이 가능하다.
나아가, 모션 재연성 측면에서는 6 + 2 DoF가 가능할 수 있다. 모터식 플랫폼 구성과 본 발명의 실시예에 따른 제어 기술로 순간적인 모션, 가령 흔들림, 떨림, 반동 등의 재연이 가능하다. 2 DoF의 추가 개발을 통해 탑승 체감성이 증대될 수 있다. 1인 탑승이지만, 향후 동일 다수 플랫폼의 네트워크 연결이 가능할 수 있을 것이다. 나아가, 게임 컨텐츠 교체를 통해 사전 작업이 최소화된다. 즉 3D 모션 데이터를 그대로 사용하므로 유사한 컨텐츠에는 사전 작업이 필요 없게 될 것이다.
도 8은 도 1의 플랫폼 제어 장치의 다른 세부 구조를 예시하여 나타낸 블록다이어그램이다.
설명의 편의상 도 8을 도 1과 함께 참조하면, 본 발명의 다른 실시예에 따른 플랫폼 제어 장치(100')는 인터페이스부(800), 제어부(810), 저장부(820) 및 모션정보 생성부(830)의 일부 또는 전부를 포함할 수 있다.
여기서, 일부 또는 전부를 포함한다는 것은 저장부(820)와 같은 일부 구성요소가 생략되어 구성되거나, 모션 정보 생성부(830)와 같은 일부 구성요소가 제어부(810)와 같은 다른 구성요소에 통합하여 구성될 수 있는 것 등을 의미하는 것으로서 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.
인터페이스부(800)는 통신 인터페이스부 및 사용자 인터페이스부를 포함한다. 통신 인터페이스는 조이스틱 및 다축 모션 플랫폼(110b)과 연동할 수 있다. 다시 말해, 조이스틱으로부터 조이스틱 신호를 수신하여 제어부(810)에 전달한다. 또한 조이스틱 신호에 근거하여 이동하는 지정된 객체의 3차원 모션 정보를 다축 모션 플랫폼(110b)으로 제공한다. 여기서, 3차원 모션 정보는 다양한 정보를 포함한다. 가령 X축, Y축 및 Z축으로 로봇의 모션에 대한 좌표 정보, 각 축별 회전 정보, 충격량 정보 등 다양한 정보를 포함한다. 사용자 인터페이스부는 디스플레이부, 버튼 입력부 또는 저장 매체를 연결할 수 있는 저장매체 연결부를 포함할 수 있다. 디스플레이부는 사용자의 요청에 따라 저장부(820) 또는 저장 매체에 저장된 게임 컨텐츠를 화면에 표시할 수 있다. 버튼 입력부는 전원 버튼 또는 볼륨 등과 같은 입력 버튼을 포함할 수 있다.
제어부(810)는 플랫폼 제어 장치(100') 내의 인터페이스부(800), 저장부(820) 및 모션 정보 생성부(830) 등의 전반적인 동작을 제어한다. 다시 말해, 제어부(810)는 사용자의 요청이 있는 경우, 저장부(820)에 저장된 게임 컨텐츠를 실행시켜 디스플레이부에 표시한다. 이와 함께 모션 정보 생성부(830) 내의 프로그램을 실행시킬 수 있다. 여기서 프로그램은 도 6b의 모션 정보 엔진(600-2)이 될 수 있다. 또한 화면에 표시된 게임 영상을 보고 사용자가 조작하는 조이스틱 신호를 수신하며, 제어부(810)는 수신한 조이스틱 신호에 따른 영상을 다시 디스플레이부에 제공한다. 여기서, 조이스틱 신호에 따른 영상이란 로봇과 같은 객체의 이동에 따라 변경되는 로봇의 배경 영상이 될 수 있다.
또한 사용자는 조이스틱의 조작에 따라 로봇과 같은 객체를 걷게 하거나 뛰게 하거나 할 수 있는데, 제어부(810)는 이와 같은 객체의 상태에 따른 3차원 모션 정보를 생성 또는 추출하도록 모션 정보 생성부(830)를 제어한다. 그리고 제어부(810)는 생성된 정보를 다축 모션 플랫폼(110b)으로 제공하도록 제어한다. 이때의 3차원 모션 정보는 로봇의 모션에만 관련되므로 X축, Y축 및 Z축에 대한 좌표 정보가 될 수 있다. 이의 과정에서 가령, 돌 충격과 같은 특정 이벤트가 발생하게 되면, 로봇 객체는 각 축별로 회전이 발생할 수 있다. 따라서, 제어부(810)는 돌 충격과 같은 이벤트와 위의 객체의 상황에 따른 좌표 정보와 회전 정보를 제공받아 인터페이스부(800)를 통해 다축 모션 플랫폼(110b)으로 제공할 수 있다.
한편, 제어부(810)는 하나의 소프트웨어 형태로 구성될 수 있지만, 하드웨어적으로 CPU와 메모리를 포함할 수 있다. 여기서, 하나의 소프트웨어 웨어는 CPU와 메모리 내의 프로그램들에 대한 동작을 수행한다고 볼 수 있다. 예를 들어, 사용자가 게임 컨텐츠를 실행시킨 경우, CPU는 저장부(820)에 저장된 게임 컨텐츠, 모션 정보 생성부(830)에 저장된 가령 도 6b의 게임 엔진(600-1) 및 모션 정보 엔진(600-2)을 메모리에 임시 저장하고 이를 실행시킬 수 있을 것이다. 이때 메모리는 RAM과 같은 휘발성 메모리를 포함할 수 있다.
저장부(820)는 게임 컨텐츠, 로봇과 같은 객체에 대한 3차원 모션 정보 등을 저장하고, 도 6b의 게임 엔진(600-1)을 더 포함할 수 있다. 이러한 저장부(820)는 영구적으로 정보를 저장할 수 있는 ROM과 같은 비휘발성 메모리인 것이 바람직하다. 기타 자세한 내용은 도 6a의 저장부(610)와 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
모션 정보 생성부(830)는 마스크 롬, EPROM이나 EEPROM의 형태로서 도 6b의 모션 정보 엔진(600-2)과 같은 프로그램을 저장할 수 있다. 그리고, 제어부(810)의 제어에 따라 내부 프로그램을 실행시켜 결과를 제어부(810)에 제공할 수 있다. 또는 게임 실행시 제어부(810)의 요청에 따라 내부에 저장된 프로그램을 제어부(810)로 제공하여 내부 메모리에 저장되도록 할 수 있다. 모션 정보 생성부(830)는 모션 정보 엔진(600-2)을 실행시켜 게임 엔진(600-1)이 제공하는 좌표 정보와, 충격량 정보 또는 로봇 객체의 상태 등에 대한 다양한 정보를 이용하여 다축 모션 플랫폼(110b)을 제어하기 위한 제어 정보를 생성할 수 있을 것이다.
다시 말해, 앞서 언급한 대로, 저장부(820)에는 로봇 객체가 천천히 걸을 때의 좌표 정보를 저장하고 있다. 또한 천천히 걸을 때, 충격 이벤트가 발생하면 좌표 정보와 위치 정보를 얼마 정도로 변경하라는 증가값이나 가중치에 대한 정보가 있다면 이를 반영하여 좌표 정보와 위치 정보를 산출한다. 이와 같은 과정에 의해 산출된 좌표 정보 및 위치 정보를 출력하게 된다.
한편, 모션 플랫폼 기반의 게임 실감성 향상을 위하여 본 발명의 실시예에서는 개인 선택적 실감성을 제공할 수 있다. 다시 말해, 탑승자 하중에 적응적인 모션 플랫폼 작동 출력을 변화하는 것이 가능하다. 특히, 기존의 플랫폼들이 위치제어기반으로 시스템을 구성하였다면, 본 발명의 실시에에 따른 플랫폼은 힘 제어기반으로 시스템이 구성된다. 즉 힘 제어기반의 기술이 적용되는 것이다. 힘 제어를 사용하기 위해서는 무엇보다도 시스템의 실시간성이 중요시된다. 따라서, 실내/개인용 시뮬레이터의 사양을 대비하기 위하여 진동 및 소음에 대한 중요성이 있으며, 이들은 기구부의 효율성과 안정성과 관련된 척도라 할 수 있다. 이러한 부분도 향후 고려될 수 있을 것이다.
도 9는 토크 제어 시스템 루프의 일반적인 예를 나타내는 도면이다.
기존의 플랫폼은 도 9에 나타낸 바와 같이 위치제어기반의 제어 기법을 주로 적용하였는데, 컨텐츠에서 생성된 움직임을 정확히 추종함으로써 플랫폼의 움직임을 구현하였다. 이를 위해서 기구적으로 고정된 궤적을 움직이도록 하거나, 움직임 자체에 대한 오차분을 최소화하여 탑승한 사용자의 반응과 관계없이 움직임을 생성한다는 특징이 있다. 이렇게 될 경우, 플랫폼의 움직임이 딱딱하다는 느낌이 전달되기 쉬우며, 이를 방지하기 위해서는 위치 기반의 제어를 하지만, 도 9에서와 같이 각 모터에 대해서는 토크 제어를 수행함으로써, 사용자가 플랫폼에 전달하는 힘이 플랫폼의 움직임에 영향을 줄 수 있도록 설계되어야 한다.
이를 개선하기 위하여, 본 발명의 실시예에서 제안하는 플랫폼 제어기술은 힘제어 기반의 제어기술을 활용하여 로봇의 움직임이 실시간으로 외부 환경에 의해서 수정이 될 수 있도록 하였다. 이에 따라 사람의 하중 등의 외력은 로봇에 그대로 전달되어 로봇의 출력을 조절할 수 있도록 제어하는 동역학 해석 기반의 전류제어기법으로 구현할 수 있으며, 이를 통해서 모션 적용 대상인 컨텐츠 속의 로봇 종류에 따라서, 그 유연함을 많이 주거나 적게 주도록 조정할 수 있게 되고, 또 탑승자의 성향에 따라서 그 유연성의 정도를 조정할 수 있도록 할 수 있게 된다.
더 나아가, 본 발명의 실시예에서는 임계치 보정 기술이 적용될 수 있다. 다시 말해, 게임 내부 모션이 그대로 게임 플랫폼에 반영될 경우 오히려 게임 플랫폼 탑승자에게 울렁거림과 피로함이 증가하거나 안전사고 발생 가능성이 존재한다. 따라서, 가령 도 2a 및 도 2b에서와 같이 MLF 모듈(100-2)에서 실감성 극대화와 동시에 탑승자의 편안함과 안정성을 확보할 수 있다.
이러한 임계치 보정 기술은 MLF 모듈(100-2) 단에서 조정하는 제어적 임계치 보정 기술과 다축 모션 플랫폼(110b) 단에서 제어하기 위한 기구적 임계치 보정 기술로 구분해 볼 수 있다.
본 발명의 실시예에서 로봇과 컨텐츠와의 연동이 중요한 사항이다. 하지만, 플랫폼은 임의로 변경이 가능하고, 그 사양에 따라서 컨텐츠는 플랫폼의 종류를 선택할 수 있도록 할 수 있다. 하지만, 플랫폼의 구동범위 이상의 값이 생성되었을 경우에는 플랫폼의 구동에 문제를 일으키게 될 것이고, 이를 컨텐츠에서 사전 지식으로 모두 알고 있는 것은 부하가 상당히 걸리게 될 수 있다는 것이다.
따라서, 컨텐츠에서는 적용대상인 컨텐츠 로봇의 움직임 즉 이동 및 회전 정보만을 생성하고, 이를 로봇 플랫폼 내에서 기구적으로 관계식을 해석할 수 있도록 하는 것이다. 이 과정에서 로봇 플랫폼은 기구적인 임계치가 있으므로, 이를 자율적으로 보상할 수 있도록 모션 정보를 수정하는 과정을 수행할 수 있을 것이다.
이를 통해서 플랫폼은 항시 안정적인 움직임을 보장할 수 있는 범위에서 모션을 표현할 수 있도록 구동시킬 수 있을 것이다.
다시 말해, 다축 모션 플랫폼(110b)은 6축에 대하여 임계치가 설정되어 있는 경우, 수신된 좌표 정보 및 위치 정보가 그 임계치를 벗어나지 않도록 하여 6축을 제어한다고 볼 수 있다.
한편, 모션 플랫폼에 적용되는 움직임 정보는 모두 컨텐츠에서 생성이 가능하도록 되어 있다. 따라서 전체 적용되는 움직임은 <수학식 3>에서와 같이 나타낼 수 있다.
Figure pat00007
여기에서, mi는 개별적인 이동 및 이벤트에 의해 생성되는 움직임을 의미하고, wi는 각 움직임에 대한 가중치 정보를 의미한다. 즉, 설정에 따라서 적용되는 움직임을 개별적으로 조정이 가능함을 의미하고, 이들에 의해서 동일 환경에서 동일 이벤트가 발생하더라도 다양한 반응이 발생할 수 있도록 할 수 있다. 심지어, 동일 이벤트에 대해서 m의 정보를 달리 정의하게 되면 사용자의 선택에 따른 개인적인 반응을 적용할 수 있게 되는 것이다.
이들의 조합에 의해서 생성되는 Mtotal도 사용자의 선택에 의해서 임계치를 적용할 수 있도록 한다.
이를 통해서 플랫폼은 항시 안정적인 움직임을 보장할 수 있는 범위에서 모션을 표현할 수 있도록 구동시킬 수 있게 되는 것이다.
예를 들어, 사용자가 게임 시작 전에 설정을 위하여 전문가 모드 또는 일반 사용자 모드를 설정할 수 있는데, 이에 근거하여 특정 값을 갖는 좌표 정보 및 회전 정보가 다축 모션 플랫폼(110b)으로 제공된다고 볼 수 있을 것이다.
도 10은 본 발명의 실시예에 따른 플랫폼 제어 방법을 나타내는 흐름도이다.
설명의 편의상 도 10을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 플랫폼 제어 장치(100)는 영상표시장치의 화면에 표시되는 3차원 영상의 객체와 관련된 3차원 모션 정보를 저장한다(S1100). 여기서, 3차원 모션 정보는 가령 <표 3>에 나타낸 바와 같은 특정 상황에 따른 좌표 정보와 회전 정보가 될 수 있다.
그리고, 플랫폼 제어 장치(100)는 객체에 이벤트가 발생하면, 저장된 3차원 모션 정보를 이용해서 발생된 이벤트가 반영된 다축 모션 플랫폼(110b)의 좌표 정보 및 회전 정보를 제어 정보로서 생성해 다축 모션 플랫폼(110b)으로 제공하게 된다(S1110). 이러한 제어 정보의 생성과 관련해서는 앞서 충분히 설명하였으므로 더 이상의 설명은 생략하도록 한다.
상기의 같은 모션 발생, 저장, 제공 및 재연 과정은 본 발명의 실시예에 따라 실시간으로 진행되는 것이 바람직하다.
도 11a 내지 도 11e는 본 발명의 실시예에 따른 실감 게임 시뮬레이터 시스템의 다양한 변형 예를 나타내는 도면으로, 도 11a는 본 발명의 제1 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 도면이다.
도 11a에 도시된 바와 같이, 본 발명의 제1 실시예에 따른 실감 게임 시뮬레이터 시스템(1090)은 영상표시장치(1100a)와 다축 모션 플랫폼(1110a)을 포함할 수 있다.
여기서, 영상표시장치(1100a)는 TV, 컴퓨터 모니터 등을 포함하며, 인터넷 등을 통해 외부의 컨텐츠 제공원으로부터 제공된 게임 컨텐츠 또는 자신이 소유한 USB 등의 저장 매체를 통해 제공된 게임 컨텐츠를 화면에 표시하고, 다축 모션 플랫폼(1110a)을 제어하기 위한 좌표 정보 및 위치 정보를 생성하여 출력할 수 있다.
이와 같은 점을 제외하면 영상표시장치(1100a)는 도 1에서의 플랫폼 제어 장치(100)와 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
또한 다축 모션 플랫폼(1110a)의 경우에도 1인 착석형으로서, 도 1의 다축 모션 플랫폼(110)과 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
도 11b는 본 발명의 제2 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 도면이다.
도 11a에 도시된 바와 같이, 본 발명의 제2 실시예에 따른 실감 게임 시뮬레이터 시스템(1090')은 영상표시장치(1100b)와 다인 착석용 다축 모션 플랫폼(1110b)을 포함할 수 있다.
여기서, 영상표시장치(1100b)는 다축 모션 플랫폼(1110b)에 착석한 제1 사용자 및 제2 사용자 각각을 움직이기 위하여 6축 제어를 위한 제어 정보를 실시간으로 생성하여 제공할 수 있다. 예를 들어, 도 11b에 도시된 바와 같이 6축에 연결된 하나의 플레이트를 통해 복수의 사용자가 고정된 경우에는 제1 시점에서 제1 사용자를 움직이고 제1 시점에 이은 제2 시점에서 제2 사용자를 움직이는 방식으로 제어할 수 있다. 이를 통해 각 사용자는 상대의 모션을 함께 느낄 수도 있다. 또는 6축 제어를 하나의 사용자를 기준으로 설정한 경우, 다른 사용자는 기준이 된 상대의 모션을 느낄 수 있을 것이다.
이와 같은 것은 게임 시뮬레이터의 설계자가 설계한 방식에 따라 다양하게 변경될 수 있으며, 또 복수의 사용자들이 어떻게 협의하느냐에 따라 달라질 수 있다. 예를 들어, 게임 진행 초기에 메뉴 화면에 표시되는 다양한 메뉴의 설정이 이루어졌다면 영상표시장치(1100b)는 설정된 방식에 따라 동작하게 된다.
무엇보다 본 발명의 제2 실시예에 따른 영상표시장치(1100b)는 게임을 즐기는 복수의 사용자에 대한 모션을 제어할 수 있고, 이를 위하여 사용자 각각에 해당되는 모션 정보를 생성해 제공할 수 있을 것이다.
이와 같은 점을 제외하면, 본 발명의 제2 실시예에 따른 영상표시장치(1100b) 및 다축 모션 플랫폼(1110b)은 도 1에 도시된 플랫폼 제어 장치(100) 및 다축 모션 플랫폼(110)과 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
도 11c는 본 발명의 제3 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 도면이다.
도 11c에 도시된 바와 같이, 본 발명의 제3 실시예에 따른 실감 게임 시뮬레이터 시스템(1090'')은 착용형 영상표시장치(1100c)와 다축 모션 플랫폼(1110c)을 포함한다.
도 11c의 실감 게임 시뮬레이터 시스템(1090'')을 도 11a의 실감 게임 시뮬레이터(1100a)와 비교해 보면, 도 2a의 스탠드형 영상표시장치(1100a)가 착용형(HMD) 영상표시장치(1100c)로 변경되었다는 데에 차이가 있다. 이러한 착용형 영상표시장치(1100c)는 스탠드형 영상표시장치(1100)도 마찬가지겠지만, 유선 또는 무선 방식 등 다양한 방식으로 정보를 송신할 수 있을 것이다.
도 11d는 본 발명의 제4 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 도면이다.
도 11d에 도시된 바와 같이, 본 발명의 제4 실시예에 따른 실감 게임 시뮬레이터 시스템(1090''')은 공간형 영상표시장치(1100d), 다축 모션 플랫폼(1110d) 및 영사장치(1120d)를 포함할 수 있다.
본 발명의 제4 실시예에 따른 실감 게임 시뮬레이터 시스템(1090''')은 공간형 영상표시장치(1100d) 및 영사장치(1120d)가 영화관에서의 가령 스크린과 영사기와 같은 형태로 구성될 수 있는 것을 나타낸다.
또한 다축 모션 플랫폼(1110d)은 평와형의 형태로 이루어질 수 있다.
그 이외에 공간형 영상표시장치(1100d), 다축 모션 플랫폼(1110d) 및 영사장치(1120d)와 관련한 자세한 내용은 도 1의 플랫폼 제어 장치(100) 및 다축 모션 플랫폼(110)과 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
도 11e는 본 발명의 제5 실시예에 따른 실감 게임 시뮬레이터 시스템을 나타내는 도면이다.
도 11e에 도시된 바와 같이, 본 발명의 제5 실시예에 따른 실감 게임 시뮬레이터 시스템(1090'''')은 영상표시장치(1100e) 및 직와형 다축 모션 플랫폼(1110e)을 포함한다.
여기서, 영상표시장치(1100e)는 도 11a의 영상표시장치(1100)와 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
또한 직와형 다축 모션 플랫폼(1110e)은 도 11d에서와 같은 다축 모션 플랫폼(1110d)과 크게 다르지 않다. 다만, 도 11d에서와 같이 바닥에 고정하는 것이 아니라 벽에 고정함으로써 직와형 다축 모션 플랫폼(1110e)을 구성할 수 있다.
이와 같은 점을 제외하면, 영상표시장치(1100e) 및 직와형 다축 모션 플랫폼(1110e)은 도 1의 플랫폼 제어 장치(100) 및 다축 모션 플랫폼(110)과 크게 다르지 않으므로 그 내용들로 대신하고자 한다.
한편, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.
여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.
100, 100': 플랫폼 제어 장치 100-1: 영상 처리부
100-2: MLF 모듈 100-3: 디스플레이부
100-4: 음향 출력부 110: 시뮬레이터
110a: 컨텐츠 제어기
110b, 1110a, 1110b, 110c, 1110d, 1110e: 다축 모션 플랫폼
110c: 탑승 시트 110d: 발판
600: 모션 정보 처리부 610, 820: 저장부
800: 인터페이스부 810: 제어부
830: 모션 정보 생성부

Claims (13)

  1. 다축 모션 플랫폼을 제어하는 플랫폼 제어 장치에 있어서,
    영상표시장치의 화면에 표시되는 3차원 영상의 객체(object)와 관련된 3차원 모션 정보를 저장하는 저장부; 및
    상기 객체와 관련된 이벤트가 발생하면, 상기 저장한 3차원 모션 정보를 이용하여 상기 이벤트가 반영된 상기 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성해 출력하는 모션 정보 처리부;를
    포함하는 플랫폼 제어 장치.
  2. 제1항에 있어서,
    상기 다축 모션 플랫폼은 상기 제어 정보에 근거해 상기 이벤트가 발생된 객체의 모션이 재연되는 6축 모션 플랫폼을 포함하며,
    상기 모션 정보 처리부는 상기 6축 모션 플랫폼을 제어하기 위한 제어 정보를 생성해 제공하는 것을 특징으로 하는 플랫폼 제어 장치.
  3. 제2항에 있어서,
    상기 모션 정보 처리부는, 상기 이벤트에 의해 발생된 상기 객체의 3차원 모션에 대한 X축, Y축 및 Z축으로의 좌표 정보(Px, Py, Pz)와 각 축별 회전 정보(Ox, Oy, Oz)를 생성하고, 상기 생성한 좌표 정보 및 회전 정보를 상기 6축 모션 플랫폼의 제어 정보로서 제공하는 것을 특징으로 하는 플랫폼 제어 장치.
  4. 제1항에 있어서,
    상기 저장부는, 상기 3차원 모션 정보로서 상기 객체의 충격 이벤트에 대한 충격량 정보를 포함하며,
    상기 모션 정보 처리부는, 상기 충격 이벤트가 발생하면, 상기 충격량 정보가 반영된 제어 정보를 생성하여 제공하는 것을 특징으로 하는 플랫폼 제어 장치.
  5. 제1항에 있어서,
    상기 3차원 영상은 게임 영상이며,
    게임이 진행되는 동안, 상기 제어 정보는 상기 다축 모션 플랫폼으로 끊김 없이 제공되는 것을 특징으로 하는 플랫폼 제어 장치.
  6. 제1항에 있어서,
    상기 모션 정보 처리부는, 3차원 영상 컨텐츠의 유형, 상기 객체의 종류, 상기 객체의 동작 상태 및 전문가 모드 선택 중 적어도 하나의 설정에 따라 상기 제어 정보를 변경하여 상기 다축 모션 플랫폼으로 제공하는 것을 특징으로 하는 플랫폼 제어 장치.
  7. 다축 모션 플랫폼을 제어하는 플랫폼 제어 방법에 있어서,
    영상표시장치의 화면에 표시되는 3차원 영상의 객체(object)와 관련된 3차원 모션 정보를 저장하는 단계; 및
    상기 객체와 관련한 이벤트가 발생하면, 상기 저장한 3차원 모션 정보를 이용하여 상기 이벤트가 반영된 상기 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성해 제공하는 단계;
    포함하는 플랫폼 제어 방법.
  8. 제7항에 있어서,
    상기 다축 모션 플랫폼은 상기 제어 정보에 근거해 상기 이벤트가 발생된 객체의 모션이 재연되는 6축 모션 플랫폼을 포함하며,
    상기 제어 정보로서 생성해 제공하는 단계는,
    상기 6축 모션 플랫폼을 제어하기 위한 제어 정보를 생성해 출력하는 것을 특징으로 하는 플랫폼 제어 방법.
  9. 제8항에 있어서,
    상기 제어 정보로서 생성해 제공하는 단계는,
    상기 이벤트에 의한 상기 객체의 3차원 모션에 대한 X축, Y축 및 Z축으로의 좌표 정보(Px, Py, Pz)와 각 축별 회전 정보(Ox, Oy, Oz)를 생성하는 단계; 및
    상기 생성한 좌표 정보 및 회전 정보를 상기 6축 모션 플랫폼을 제어하기 위한 제어 정보로서 제공하는 단계;를
    포함하는 것을 특징으로 하는 플랫폼 제어 방법.
  10. 제7항에 있어서,
    상기 저장하는 단계는,
    상기 3차원 모션 정보로서 상기 객체의 충격 이벤트에 대한 충격량 정보를 포함하며,
    상기 제어 정보로서 생성해 제공하는 단계는,
    상기 충격 이벤트가 발생하면, 상기 충격량 정보가 반영된 제어 정보를 생성하여 제공하는 것을 특징으로 하는 플랫폼 제어 방법.
  11. 제7항에 있어서,
    상기 3차원 영상은 게임 영상이며,
    게임이 진행되는 동안, 상기 제어 정보는 상기 다축 모션 플랫폼으로 끊김 없이 제공되는 것을 특징으로 하는 플랫폼 제어 방법.
  12. 제7항에 있어서,
    상기 제어 정보로서 생성해 제공하는 단계는,
    3차원 영상 컨텐츠의 유형, 상기 객체의 종류, 상기 객체의 동작 상태 및 전문가 모드의 선택 중 적어도 하나의 설정에 따라 상기 제어 정보가 변경되어 상기 다축 모션 플랫폼으로 제공하는 것을 특징으로 하는 플랫폼 제어 방법.
  13. 영상 시뮬레이팅 시스템에 있어서,
    3차원 영상을 화면에 표시하는 영상표시장치;
    상기 3차원 영상의 객체(object)와 관련된 3차원 모션 정보를 저장하고, 상기 객체와 관련된 이벤트가 발생하면, 상기 저장한 3차원 모션 정보를 이용하여 상기 이벤트가 반영된 상기 다축 모션 플랫폼의 각 축에 대한 좌표 정보 및 회전 정보를 제어 정보로서 생성하는 플랫폼 제어 장치; 및
    상기 생성한 제어 정보의 상기 좌표 정보 및 상기 회전 정보에 근거해 상기 이벤트가 발생한 상기 객체의 모션을 재연하는 모션 플랫폼 기반의 시뮬레이터;를
    포함하는 영상 시뮬레이팅 시스템.
KR1020150011290A 2015-01-23 2015-01-23 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법 KR20160095663A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150011290A KR20160095663A (ko) 2015-01-23 2015-01-23 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150011290A KR20160095663A (ko) 2015-01-23 2015-01-23 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160100915A Division KR20160099075A (ko) 2016-08-08 2016-08-08 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법

Publications (1)

Publication Number Publication Date
KR20160095663A true KR20160095663A (ko) 2016-08-12

Family

ID=56714650

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150011290A KR20160095663A (ko) 2015-01-23 2015-01-23 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법

Country Status (1)

Country Link
KR (1) KR20160095663A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200000123A (ko) * 2018-06-22 2020-01-02 주식회사 바로텍시너지 네트워크를 통한 상호 연동형 vr 시뮬레이션 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200000123A (ko) * 2018-06-22 2020-01-02 주식회사 바로텍시너지 네트워크를 통한 상호 연동형 vr 시뮬레이션 시스템

Similar Documents

Publication Publication Date Title
US11782501B2 (en) System and method for presenting virtual reality content to a user based on body posture
US10181212B2 (en) Method and system for reducing motion sickness in virtual reality ride systems
JP5443137B2 (ja) 拡張現実感体験を提供するシステムおよび方法
JP3625212B1 (ja) 3次元仮想空間シミュレータ、3次元仮想空間シミュレーションプログラム、およびこれを記録したコンピュータ読み取り可能な記録媒体
Halarnkar et al. A review on virtual reality
JP2019516159A (ja) Vr環境における観客ビュー視点
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
KR101131093B1 (ko) 지리정보를 이용한 4d 기반의 비행선 체험 시뮬레이션 시스템 및 방법
JP2019175323A (ja) シミュレーションシステム及びプログラム
WO2017188224A1 (ja) シミュレーションシステム
JP2018533317A (ja) 仮想現実映像伝送方法、再生方法、及びこれらを用いたプログラム
KR20160099075A (ko) 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법
EP2961503B1 (en) Method for reproducing an item of audiovisual content having haptic actuator control parameters and device implementing the method
WO2021261595A1 (ja) 航空機のvr訓練システム、航空機のvr訓練方法及び航空機のvr訓練プログラム
JP6005254B2 (ja) 複数のローカルな力フィードバックを用いてグローバルな6自由度運動効果を提供する方法
JP2019202061A (ja) シミュレーションシステム及びプログラム
KR20160095663A (ko) 영상 시뮬레이팅 시스템, 플랫폼 제어 장치 및 플랫폼 제어 방법
JP7104539B2 (ja) シミュレーションシステム及びプログラム
JPH1039743A (ja) 運動機能調整装置
US11107364B2 (en) Method to enhance first-person-view experience
KR20180031838A (ko) 영상 시뮬레이팅 시스템, 호스트 장치 및 복수시점 기반의 영상 제공 방법
JP7423781B2 (ja) Vrアミューズメントプログラムおよび装置
JP2001017748A (ja) 動揺装置の動作指令データ生成方法及び動揺装置
Beever Exploring Mixed Reality Level Design Workflows
JP2022177643A (ja) コンテンツ制御装置、コンテンツ制御方法、プログラム、およびコンテンツ提供システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
A107 Divisional application of patent
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2016101004667; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20160808

Effective date: 20180523