KR20200110102A - 과학 실험용 vr 콘텐츠 저작 방법 및 시스템 - Google Patents

과학 실험용 vr 콘텐츠 저작 방법 및 시스템 Download PDF

Info

Publication number
KR20200110102A
KR20200110102A KR1020190052325A KR20190052325A KR20200110102A KR 20200110102 A KR20200110102 A KR 20200110102A KR 1020190052325 A KR1020190052325 A KR 1020190052325A KR 20190052325 A KR20190052325 A KR 20190052325A KR 20200110102 A KR20200110102 A KR 20200110102A
Authority
KR
South Korea
Prior art keywords
experiment
user
input
event
objects
Prior art date
Application number
KR1020190052325A
Other languages
English (en)
Other versions
KR102181498B1 (ko
Inventor
박정호
조민영
Original Assignee
주식회사 듀코젠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 듀코젠 filed Critical 주식회사 듀코젠
Publication of KR20200110102A publication Critical patent/KR20200110102A/ko
Application granted granted Critical
Publication of KR102181498B1 publication Critical patent/KR102181498B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

저작자가 VR 헤드셋을 쓰고 VR 입력 장치를 잡고 과학 실험용 VR 콘텐츠를 저작하는 방법이 개시된다. 본 발명에 따른 과학 실험용 VR 콘텐츠 저작 방법은, VR 헤드셋을 통해 사용자에게 제공되는 VR 공간에 과학 실험을 위한 오브젝트를 선택할 수 있는 사용자 인터페이스를 제공하는 단계; VR 입력 장치를 통한 사용자의 입력에 따라 선택된 실험실 오브젝트 및 실험 환경 오브젝트를 저장부로부터 독출하여 VR 공간에 표시하는 단계; 사용자의 입력에 따라 VR 공간에서 사용할 실험 도구 오브젝트 및 실험 재료 오브젝트를 복수 개 선택하는 단계; 실험 도구 오브젝트 및 실험 재료 오브젝트의 선택이 완료되면 실험 결과 정의 모드로 자동 전환하는 단계; 및 실험 결과 정의 모드에서의 사용자 입력에 따라 VR 공간의 VR 콘텐츠를 편집하는 단계;를 포함하고, 실험 결과 정의 모드로 자동 전환하는 단계는, 사용자의 입력에 따라 실험 결과를 정의할 실험 도구 오브젝트 및 실험 재료 오브젝트의 실험 조합을 선정하는 단계; 및 선정된 실험 조합에 대해 발생할 수 있는 이벤트와 해당 이벤트 발생시의 속성 변화를 정의하는 단계;를 포함할 수 있다.

Description

과학 실험용 VR 콘텐츠 저작 방법 및 시스템 {Method and system for authoring virtual reality contents for scientific experiment}
본 발명은 VR 영상 콘텐츠의 저작 환경에 대한 것으로, 더 구체적으로는 저작자가 VR 헤드셋을 쓰고 VR 입력 장치를 잡고 과학 실험용 VR 콘텐츠를 저작함에 있어서 편리하고 효율적으로 작업할 수 있는 사용자 인터페이스를 제공하는 과학 실험용 VR 콘텐츠 저작 방법 및 시스템에 대한 것이다.
멀티미디어 콘텐츠의 형태에 따라 저작 환경이나 저작 도구 또한 변화한다. VR(Virtual Reality) 콘텐츠를 만들기 위한 VR 저작 환경은 기본적으로는 3D 그래픽 저작도구를 활용하는 것이 일반적이며, 보통 마우스 등의 고전적 형태의 입력 장치를 이용하여 작업하기 때문에 불편하고 비효율적이다.
한편, 과학 학습 실험을 위한 VR 콘텐츠는 VR 저작 전문가가 아닌 교사나 강사가 자신의 강의 내용에 적합하도록 편집해야 하는 경우가 많기 때문에 원하는 형태의 콘텐츠를 일반 사용자가 직접 만들고자 하는 수요가 늘고 있다.
또한, 과학 실험에서는 매우 다양한 형태의 실험이나 학습이 가능할 뿐 아니라, 과학 자체에 대한 이론적인 지식을 가진 상태로 컨텐츠를 만들어야 하기 때문에 학습 컨텐츠의 저작자가 시나리오를 써서 별도의 3D 그래픽 전문가에게 의뢰하여 매번 컨텐츠를 만들기란 여간 불편하고 번거로운 일이 아니다.
따라서, 전문가뿐만 아니라 일반인들도 손쉽게 과학 실험용 VR 콘텐츠를 저작할 수 있는 방법이 필요하다.
본 발명은 상기와 같은 종래 기술의 문제점을 해소하기 위한 것으로, 저작자가 VR 헤드셋을 쓰고서 한손 또는 양손을 이용하면서 손쉽게 과학 실험용 VR 콘텐츠를 저작할 수 있는 사용자 인터페이스를 제공하는 VR 콘텐츠 저작 방법 및 시스템을 제공하기 위한 것이다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 과학 실험용 VR(Virtual Reality) 콘텐츠 저작 방법은, VR 헤드셋 및 VR 입력 장치와 연동하는 VR 콘텐츠 저작용 컴퓨터가, 상기 VR 헤드셋을 통해 사용자에게 제공되는 VR 공간에 과학 실험을 위한 오브젝트를 선택할 수 있는 사용자 인터페이스를 제공하는 단계; 상기 VR 입력 장치를 통한 사용자의 입력에 따라 선택된 실험실 오브젝트 및 실험 환경 오브젝트를 저장부로부터 독출하여 상기 VR 공간에 표시하는 단계; 상기 사용자의 입력에 따라 상기 VR 공간에서 사용할 실험 도구 오브젝트 및 실험 재료 오브젝트를 복수 개 선택하는 단계; 상기 실험 도구 오브젝트 및 실험 재료 오브젝트의 선택이 완료되면 실험 결과 정의 모드로 자동 전환하는 단계; 및 상기 실험 결과 정의 모드에서의 사용자 입력에 따라 상기 VR 공간의 VR 콘텐츠를 편집하는 단계;를 포함하고, 상기 실험 결과 정의 모드로 자동 전환하는 단계는, 상기 사용자의 입력에 따라 실험 결과를 정의할 실험 도구 오브젝트 및 실험 재료 오브젝트의 실험 조합을 선정하는 단계; 및 상기 선정된 실험 조합에 대해 발생할 수 있는 이벤트와 해당 이벤트 발생시의 속성 변화를 정의하는 단계;를 포함할 수 있다.
상기 실험 결과 정의 모드로 자동 전환하는 단계는, 오브젝트 메타데이터를 이용하여 상기 선택된 복수의 실험 도구 오브젝트 및 실험 재료 오브젝트 중에서 둘 이상을 포함하는 실험 조합을 하나 이상 생성하여 상기 사용자에게 제공하는 단계;를 더 포함할 수 있다.
상기 이벤트 및 속성 변화를 정의하는 단계는, 상기 이벤트 발생 시점으로부터 경과된 시간에 따른 속성 변화를 복수개 정의하는 단계;를 포함할 수 있다.
상기 VR 입력 장치는 상기 사용자가 양손에 쥐는 2개의 입력 장치를 포함하고, 상기 이벤트 및 속성 변화를 정의하는 단계는, 상기 양손 중 프라이머리 핸드에 의해 입력되는 제스처에 대응하는 이벤트를 선택하여 활성화하는 단계; 상기 활성화된 이벤트를 나타내는 아이콘을 상기 VR 헤드셋을 착용한 사용자의 시각 전방에 오버레이하여 표시하는 단계; 및 상기 양손 중 세컨더리 핸드에 의한 입력에 따라 선택된 실험 조합에 대해 상기 활성화된 이벤트를 연결하는 단계;를 포함할 수 있다.
상기 사용자 인터페이스는 상기 사용자에 의해 선택 가능한 복수의 템플릿을 제공하는 화면을 포함하고, 상기 템플릿은 소정의 시나리오에 따른 실험실 오브젝트 및 실험 환경 오브젝트를 포함하고 소정 카테고리의 실험 도구 오브젝트 및 실험 재료 오브젝트를 상기 사용자에게 제시하도록 정의될 수 있다.
본 발명에 의하면, 저작자가 VR 헤드셋을 쓰고서 실험 대상물과 실험 결과를 WYSIWYG(What You See is What Yout Get) 방식으로 설정할 수 있는 과학 실험용 VR 콘텐츠 저작 방법 및 시스템을 제공할 수 있다.
또한, 저작자가 양손을 이용하면서 몸을 많이 움직이지 않고도 손쉽게 과학 실험용 VR 콘텐츠를 저작할 수 있는 방법 및 시스템을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 과학 실험용 VR 콘텐츠 저작 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 과학 실험용 VR 콘텐츠 저작 방법을 설명하기 위한 순서도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따라 과학 실험용 VR 콘텐츠를 편집하는 화면을 예시한 것이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...수단", "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 발명의 일 실시예에 따른 과학 실험용 VR 콘텐츠 저작 시스템의 구성을 설명하기 위한 도면이다.
VR(Virtual Reality) 장비는 VR 헤드셋(110) 및 VR 입력 장치(120, 130)를 포함할 수 있다.
VR 헤드셋(110)은 사용자가 눈에 착용하는 장비로 VR 영상의 원점을 기준으로 사용자의 회전이나 눈의 움직임에 기초하여 사용자의 시선을 감지하는 감지부와 감지된 시선에 따라 VR 영상 구동 중 대응하는 시야 영역을 표시하는 표시부를 구비할 수 있다. 감지부는, VR 헤드셋(110)의 회전을 감지하기 위해 각속도 센서, 자이로 센서 등을 구비할 수 있으며, 눈의 방향(시선)이나 움직임을 감지하는 아이트래킹 센서 등을 구비할 수 있다.
본 발명에서 사용자는 과학 실험용 VR 콘텐츠 저작 도구를 이용해 과학 실험용 VR 콘텐츠를 저작하는 자를 의미하며, 학생은 기 생성된 과학 실험용 VR 콘텐츠를 재생하여 과학 실험을 시행하는 자를 의미하는 용어로 사용된다.
VR 입력 장치(120, 130)는 사용자로부터 선택 신호, 조작 신호 등을 입력받는 구성으로서, 다양한 조작 버튼과 사용자 손의 제스처를 인식할 수 있는 구성요소를 포함할 수 있다. 이에 따라, VR 입력 장치(120, 130)는 사용자의 손에 의한 버튼 누름, 각 손가락의 펼침, 각 손가락의 오므림 등의 제스처를 인식할 수 있다.
도 1에서는 양손 입력을 위한 2대의 VR 입력 장치(120, 130)를 포함하는 것으로 도시하고 있으나, 실시예에 따라서는 1대의 VR 입력 장치(130)를 포함하도록 구현될 수도 있다.
2대의 VR 입력 장치(120, 130)를 포함하는 실시예에서, 제1 VR 입력 장치(120)는 사용자가 왼손에 쥐고 사용하는 입력 장치이고 제2 VR 입력 장치(130)는 사용자가 오른손에 쥐고 사용하는 입력 장치이다.
VR 장비와 연동하는 VR 콘텐츠 저작 장치(100)는 VR 입력 장치(120, 130)를 통한 사용자의 입력에 따라 인물 또는 사물, 특히 실험 도구와 실험 재료를 나타내는 적어도 하나의 오브젝트를 가상 공간에 추가하고 편집하여 과학 실험용 VR 콘텐츠를 생성하고, VR 콘텐츠를 구동시켜 사용자의 시선에 따라 VR 콘텐츠 내 일부 영상을 재생 및 출력한다.
VR 콘텐츠 저작 장치(100)는 VR 콘텐츠 저작 도구를 이용하여 VR 영상 데이터를 제작하고 편집하기 위한 컴퓨팅 장치로, 사용자 인터페이스 제공부(101), VR 콘텐츠 생성부(102), VR 콘텐츠 재생부(103), VR 콘텐츠 저장부(104), 오브젝트 데이터베이스(105) 및 제어부(140)를 포함할 수 있다.
사용자 인터페이스 제공부(101)는 과학 실험용 VR 콘텐츠 저작을 위한 GUI(Graphic User Interface)를 VR 공간에 표시한다. 구체적으로, 새 VR 콘텐츠의 생성, 템플릿의 선택, 기 생성된 VR 콘텐츠의 선택, VR 공간에 추가할 오브젝트의 선택이나 편집, 설정 정보 입력 등을 위한 사용자 인터페이스를 생성하여 제공한다.
또한, 2대의 입력 장치를 가지는 실시예에서 사용자의 양손을 프라이머리 핸드(primary hand)와 세컨더리 핸드(secondary hand)로 설정하고 각 입력 장치(120, 130)에 양손 중 하나를 매핑하는 설정창의 제공, 프라이머리 핸드에 의해 입력 가능한 제스처들과 각 제스처에 대응하는 이벤트를 매핑할 수 있는 설정창의 제공, 현재 활성화된 이벤트를 나타내는 이벤트 아이콘의 표시, 선택된 오브젝트들과 활성화된 이벤트의 상호작용 결과인 속성 변화를 나타내는 그래픽 데이터의 표시 등을 수행할 수 있다.
VR 콘텐츠 생성부(102)는 사용자의 편집에 따라 과학 실험용 VR 콘텐츠를 생성하여 VR 콘텐츠 저장부(105)에 저장한다. VR 콘텐츠 재생부(103)는 사용자의 입력에 따라 선택된 VR 콘텐츠나 사용자가 편집중인 VR 콘텐츠를 재생하며, VR 영상을 3차원 좌표계에 매칭시켜 구동시킨다.
오브젝트 데이터베이스(105)는 과학 실험용 VR 콘텐츠를 저작하기 위해 필요한 각종 오브젝트에 대한 정보를 저장하기 위한 것으로, 오브젝트는 대상 객체를 나타내는 그래픽 데이터 및 그에 대한 정보를 기술한 메타데이터 중 적어도 하나를 포함할 수 있다. 즉, 그래픽 데이터를 포함하지 않고 메타데이터만 포함하는 오브젝트도 가능하며, 실험 환경 오브젝트가 그 예이다.
오브젝트 데이터베이스(105)는 다양한 과학 실험실을 표현한 그래픽 데이터를 포함하는 실험실 오브젝트들과 온도, 바람, 중력, 조도, 습도 등 실험 환경에 대한 데이터를 포함하는 실험환경 오브젝트들을 저장할 수 있다.
또한, 각 실험실 및 실험 환경에서 사용할 수 있는 실험 도구 오브젝트들과 실험 재료 오브젝트들이 저장될 수 있다. 또한, 충돌, 혼합, 가열 등 하나 이상의 실험 도구 및/또는 실험 재료에 발생할 수 있는 이벤트를 정의한 이벤트 오브젝트들이 저장될 수 있다.
또한, 각 이벤트의 발생시 해당 실험 도구 및/또는 실험 재료의 물리적 변화 및/또는 화화적 변화를 정의한 물리/화학 속성 오브젝트들이 저장될 수 있다. 또한, 사용자가 실험실과 실험 환경을 선택하는데 도움을 주기 위해 실험실과 실험 환경을 함께 정의한 템플릿들이 오브젝트 데이터베이스(105)에 저장될 수 있다.
제어부(140)는 다른 구성 요소들을 제어하여 과학 실험용 VR 콘텐츠 저작 방법을 수행하기 위한 저작 도구를 실행하는 구성으로서, VR 영상 구동 중 오브젝트 정보, 사용자의 시선 정보 및 사용자 입력 신호 중 적어도 하나에 기초하여 각각의 특정된 오브젝트에 대한 출력 정보를 처리할 수 있다.
사용자는 VR 헤드셋(110)을 쓰고 VR 입력 장치(120, 130)를 쥔 상태로 가상 현실 상의 오브젝트를 선택하거나 잡고 이동시키면서 과학 실험용 VR 콘텐츠를 저작하게 된다.
사용자 인터페이스 제공부(101)에 의해 VR 공간에 표시된 선택창을 통해 실험실 오브젝트 및 실험 환경 오브젝트를 선택하고, 실험실에서 학생들이 사용할 오브젝트들을 선택하여 가상 공간의 원하는 위치에 배치한다. 구체적으로, 실험 도구와 재료들을 선택한 후 각각 물리적/화학적 속성을 드래그 앤 드롭으로 연결해준다. 물리적/화학적 속성에는 실험 도구인지 실험 재료인지 여부, 실험 재료인 경우 형태, 성분 등의 정보(고체, 기체 또는 액체인지 여부, 산성인지 염기성인지 여부 등)가 포함될 것이다.
상기와 같이 실험실과 실험에 사용되는 오브젝트들이 모두 정의되면, '실험 결과 정의' 모드가 자동으로 실행된다. 실험 결과 정의 모드에서는, 사용자가 VR 콘텐츠에 추가한 실험 재료 오브젝트들 및 실험 도구 오브젝트들을 선택할 수 있다. 사용자는 오브젝트들 중 원하는 2개 이상의 오브젝트를 손으로 잡고 꺼내 선택하고, 충돌, 혼합, 연결, 가열 등 선택된 오브젝트들에 발생 가능한 이벤트를 정의한다.
또한, 이벤트 발생후의 변화를 손으로 잡고 꺼내와서 선택된 이벤트 오브젝트에 연결해준다. 이벤트 발생후의 변화는 물리적 속성 및/또는 화학적 속성의 변화일 수 있으며, 예를 들어 색상이 변화한다거나, 끓는다거나, 기화하는 등의 변화를 말한다.
실험 결과 정의 모드에서의 사용자 조작으로 오브젝트들의 위치나 형상 등 속성이 실제로 변화하지는 않으며, 단지 추후 과학 실험용 VR 콘텐츠를 재생하여 가상의 공간에서 과학 실험을 할 때의 실험 결과에 해당하는 화화적, 물리적 속성 변화를 정의하는 것이다. 결과적으로 VR 콘텐츠를 이용하는 학생들이 가상 공간에서 두 실험 재료를 섞거나 충돌시키는 등의 실험을 시행했을 때 미리 정의된 속성 변화가 시각적 및/또는 청각적 효과로 처리되어 표시될 수 있다.
도 2는 본 발명의 일 실시예에 따른 과학 실험용 VR 콘텐츠 저작 방법을 설명하기 위한 순서도이다.
먼저, VR 헤드셋(110)을 통해 사용자에게 제공되는 VR 공간에 과학 실험을 위한 오브젝트를 선택할 수 있는 사용자 인터페이스를 제공한다(S21). 사용자 인터페이스는 실험실, 실험 환경, 실험 재료, 실험 도구, 이벤트, 속성 변화 등을 선택할 수 있는 GUI를 포함할 수 있다.
단계 S22에서는, VR 입력 장치(120, 130)를 통한 사용자의 입력에 따라 선택된 실험실 오브젝트 및 실험 환경 오브젝트를 저장부(105)로부터 독출하여 VR 공간에 표시한다.
실험실과 실험 환경을 사용자가 일일이 모두 선택할 필요없이 실험실과 실험 환경을 쉽게 설정할 수 있도록 다양한 템플릿을 제공할 수 있다. 템플릿은 실험 시나리오를 미리 정의한 오브젝트로 실험실과 실험 환경을 적절하게 연결하여 정의하고 필요한 그래픽 데이터 및 정보를 포함할 수 있다. 사용자가 원하는 템플릿을 선택하면, 물리 실험, 화학 실험, 지구과학 실험, 무중력 실험 등 여러가지 제반 조건이 사전 정의된 것을 꺼내올 수 있으며, 템플릿 선택후에는 실험 도구/실험 재료 오브젝트를 선택하는 단계부터 진행할 수 있다.
단계 S23에서는, 사용자의 입력에 따라 VR 공간에서 사용할 실험 도구 오브젝트 및 실험 재료 오브젝트를 복수 개 선택하며, 선택된 실험 도구 및 실험 재료들이 가상 화면에 표시될 것이다.
도 3은 실험실에 배치할 실험 도구 오브젝트와 실험 재료 오브젝트를 선택하기 위한 선택창(300)을 예시한 것이다. 사용자는 오른손에 쥔 VR 입력 장치(130)를 움직여 빔(310)을 원하는 오브젝트(320)로 위치시키고 소정의 버튼을 눌러 해당 오브젝트(320)를 편집중인 VR 공간에 불러올 수 있다. 오브젝트들을 다 고르고 각 오브젝트에 대한 기본적 속성을 선택해서 연결해주면 단계 S24로 넘어간다.
단계 S24에서, 실험 도구 오브젝트 및 실험 재료 오브젝트의 선택이 완료되면 실험 결과 정의 모드로 자동 전환한다. 실험 결과 정의 모드로 전환하면, 상기에서 선택된 실험 도구 및 실험 재료들로부터 임의의 조합을 자동으로 생성하여 VR 공간을 통해 사용자에게 제공한다.
단계 S25에서는, 실험 결과 정의 모드로 전환된 상태에서, 사용자의 입력에 따라 실험 결과를 정의할 실험 도구 오브젝트 및 실험 재료 오브젝트의 실험 조합을 선정한다. 사용자는 가상 공간에서 자신이 원하는 조합을 손으로 쥐어 선택하거나 빔을 쏘아 선택할 수 있다.
이때, 단계 S23에서 선택된 실험 도구 오브젝트 및 실험 재료 오브젝트들의 속성 정보를 포함하는 메타데이터를 이용하여, 실험시 함께 사용될 수 있는 실험 도구 오브젝트 및/또는 실험 재료 오브젝트를 둘 이상 포함하는 실험 조합(들)을 생성하여 사용자에게 제공할 수 있다. 이에 따라 사용자는 단계 S25에서 오브젝트들을 일일이 선택하지 않고 저작 도구가 제공하는 조합 중 하나를 선택함으로써 쉽게 실험 결과를 정의할 수 있다.
단계 S26에서는, 사용자의 조작에 따라 실험 조합(들)에 대해 발생할 수 있는 이벤트와 해당 이벤트 발생시의 속성 변화를 정의한다.
단계 S23에서 고른 실험 재료나 실험 도구 오브젝트들을 둘 또는 그 이상을 끌어다 놓고, 사전 정의된 이벤트들(혼합, 충돌, 반사 등)을 포함하는 창에서 원하는 이벤트를 가져온 다음, 마지막으로 속성 변화를 선택창에서 끌어다 놓는 것만으로, 해당 조합에 대해 이벤트(실험) 발생시 어떤 변화가 발생하는지를 손쉽게 저작할 수 있다.
속성 변화는 1단계 또는 다단계로 정의될 수 있다. 다단계로 정의되는 경우, 이벤트 발생 시점으로부터 경과된 시간에 따른 속성 변화를 복수개 정의하면 된다. 이를 위해 각 속성 변화 연결시 시간을 입력 또는 지정할 수 있는 사용자 인터페이스가 제공될 것이다. 이 인터페이스를 통해 혼합 직후에는 색상이 푸른색으로 변화, 5초 후에는 끓고, 10초후에는 기화되는 식으로 다단계 속성 변화를 정의함으로써 더 실감나는 과학 실험을 가상 공간에서 체험하도록 VR 콘텐츠를 저작할 수 있다.
단계 S27에서는, 실험 결과 정의 모드에서의 사용자 입력에 따라 작업중인 VR 콘텐츠를 편집하고 저장한다.
이와 같이 생성된 VR 콘텐츠를 재생하면, 학생은 사용자(저작자)가 설정한 실험실과 실험 환경을 나타내는 3차원 그래픽을 VR 헤드셋을 통해 볼 수 있으며, 이 실험실에는 저작시 배치한 위치에 선택된 실험 도구들과 실험 재료들이 배치되어 있음을 알 수 있다. 또한, 실험자의 실험 조작에 따라 발생하는 실험 결과는 저작자가 설정한 이벤트와 그에 따른 속성 변화를 나타내는 그래픽 변화로 표시될 것이다.
예를 들어, 실험 결과 정의 모드에서 저작자가 실험 도구인 '알코올 램프'와 실험 재료인 '액체 A'의 조합에 대해 '가열' 이벤트와 그에 따른 속성 변화로 '붉은색 기체 B의 발생'을 선택해 연결하여 정의한다. 그 결과, 최종 저작된 VR 콘텐츠 상에서 학생이 '알코올 램프'로 '액체 A'를 가열하면, 속성 변화 '붉은색 기체 B의 발생'에 대응하는 그래픽 데이터를 이용하여 붉은색으로 기화하는 모습이 디스플레이될 것이다.
다른 예로, 학생이 2가지 실험 재료에 대해 '혼합' 이벤트를 선택하면, 해당 물질들의 좌표가 겹쳐 섞이게 되어 하나의 좌표를 가지는 하나의 오브젝트가 되며 미리 정의된 속성 변화에 따른 그래픽 변화가 나타날 것이다.
도 4는 본 발명의 일 실시예에 따라 오브젝트들에 이벤트와 속성 변화를 설정하는 화면을 예시한 것이다.
도 4를 참조하면, 편집중인 VR 콘텐츠에서 1개의 실험 도구 오브젝트(430)와 2개의 실험 재료 오브젝트(410, 420)를 선택하고 이들 오브젝트에 대해 '혼합' 이벤트를 연결 설정할 수 있다.
이 실시예서는 양손 입력을 이용해 오브젝트 조합에 이벤트와 속성 변화를 쉽게 연결하도록 VR 입력 장치(120, 130)를 잡는 사용자의 양손을 미리 프라이머리 핸드와 세컨더리 핸드로 각각 지정한다. 프라이머리 핸드와 세컨더리 핸드의 정의는 미리 정해진 값을 이용하거나 사용자에 의해 설정 또는 변경될 수 있다.
예를 들어, 사용자의 왼손을 프라이머리 핸드로 오른손을 세컨더리 핸드로 정의할 수 있다. 이 경우, VR 콘텐츠 저작 장치(100)는 왼손에 쥐고 사용하는 VR 입력 장치(120)를 통해 수신되는 입력을 프라이머리 핸드에 의한 입력으로 인식하고, 오른손에 쥐고 사용하는 VR 입력 장치(130)를 통해 수신되는 입력을 세컨더리 핸드에 의한 입력으로 인식할 것이다.
이 실시예에서, 프라이머리 핸드는 사용자가 원하는 이벤트 오브젝트를 선택하여 활성화하는데 사용되며, 세컨더리 핸드는 해당 이벤트를 연결할 실험 재료/실험 도구 오브젝트 조합을 선택하고 선택된 오브젝트들에 현재 활성화된 이벤트가 연결되도록 조작하는데 사용될 수 있다.
프라이머리 핸드에 의해 입력 가능한 각 제스처와 이벤트 간의 매핑 관계는 미리 정의되며, 혼합, 충돌, 가열 등 사용자가 자주 쓰는 이벤트 각각에 대해 제스처를 연결시켜 정의할 수 있다. 예를 들어, 왼손을 주먹쥔 상태로 엄지를 드는 동작을 하면 혼합이라는 이벤트가 선택되고, 왼손의 두번째 손가락과 세번째 손가락을 펴는 동작을 하면 가열이라는 이벤트가 선택도록 매핑 관계를 정의할 수 있다. 제스처와 이벤트 간의 매핑 관계는 미리 정해진 값을 이용하거나 사용자에 의해 설정 또는 변경될 수 있다.
프라이머리 핸드에 의해 소정의 제스처가 입력되면, 이 제스처에 대응하는 이벤트를 선택하여 활성화하고 그에 대응하는 이벤트 아이콘(400)을 VR 헤드셋(110)을 착용한 사용자의 시각 전방에 오버레이하여 표시한다.
이에 따라, 사용자는 이벤트 선택창을 열거나 시선을 돌리지 않고 간단한 조작만으로 이벤트 아이콘을 선택하여 원하는 해당 이벤트가 활성화되도록 할 수 있다. 이벤트 아이콘(400)이 표시된 동안, 즉 이벤트가 활성화된 동안은 오브젝트들을 선택하여 해당 이벤트를 연결할 수 있으며, 다른 제스처에 의해 다른 이벤트를 선택하기 전까지는 기존 이벤트가 활성화된 상태를 유지하므로 복수의 오브젝트 조합에 대해 동일 이벤트를 연결하는 작업이 쉬워진다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
본 발명은 VR 콘텐츠 저작 기술 분야에 적용될 수 있다.
100: VR 콘텐츠 저작 장치
140: 제어부
101: 사용자 인터페이스 제공부
102: VR 콘텐츠 생성부
103: VR 콘텐츠 재생부
104: VR 콘텐츠 저장부
105: 오브젝트 데이터베이스

Claims (5)

  1. VR(Virtual Reality) 헤드셋 및 VR 입력 장치와 연동하는 VR 콘텐츠 저작용 컴퓨터가,
    상기 VR 헤드셋을 통해 사용자에게 제공되는 VR 공간에 과학 실험을 위한 오브젝트를 선택할 수 있는 사용자 인터페이스를 제공하는 단계;
    상기 VR 입력 장치를 통한 사용자의 입력에 따라 선택된 실험실 오브젝트 및 실험 환경 오브젝트를 저장부로부터 독출하여 상기 VR 공간에 표시하는 단계;
    상기 사용자의 입력에 따라 상기 VR 공간에서 사용할 실험 도구 오브젝트 및 실험 재료 오브젝트를 복수 개 선택하는 단계;
    상기 실험 도구 오브젝트 및 실험 재료 오브젝트의 선택이 완료되면 실험 결과 정의 모드로 자동 전환하는 단계; 및
    상기 실험 결과 정의 모드에서의 사용자 입력에 따라 상기 VR 공간의 VR 콘텐츠를 편집하는 단계;를 포함하고,
    상기 실험 결과 정의 모드로 자동 전환하는 단계는,
    상기 사용자의 입력에 따라 실험 결과를 정의할 실험 도구 오브젝트 및 실험 재료 오브젝트의 실험 조합을 선정하는 단계; 및
    상기 선정된 실험 조합에 대해 발생할 수 있는 이벤트와 해당 이벤트 발생시의 속성 변화를 정의하는 단계;를 포함하는 것을 특징으로 하는 과학 실험용 VR 콘텐츠 저작 방법.
  2. 제1항에 있어서,
    상기 실험 결과 정의 모드로 자동 전환하는 단계는,
    오브젝트 메타데이터를 이용하여 상기 선택된 복수의 실험 도구 오브젝트 및 실험 재료 오브젝트 중에서 둘 이상을 포함하는 실험 조합을 하나 이상 생성하여 상기 사용자에게 제공하는 단계;를 더 포함하는 것을 특징으로 하는 과학 실험용 VR 콘텐츠 저작 방법.
  3. 제1항에 있어서,
    상기 이벤트 및 속성 변화를 정의하는 단계는,
    상기 이벤트 발생 시점으로부터 경과된 시간에 따른 속성 변화를 복수개 정의하는 단계;를 포함하는 것을 특징으로 하는 과학 실험용 VR 콘텐츠 저작 방법.
  4. 제1항에 있어서,
    상기 VR 입력 장치는 상기 사용자가 양손에 쥐는 2개의 입력 장치를 포함하고,
    상기 이벤트 및 속성 변화를 정의하는 단계는,
    상기 양손 중 프라이머리 핸드에 의해 입력되는 제스처에 대응하는 이벤트를 선택하여 활성화하는 단계;
    상기 활성화된 이벤트를 나타내는 아이콘을 상기 VR 헤드셋을 착용한 사용자의 시각 전방에 오버레이하여 표시하는 단계; 및
    상기 양손 중 세컨더리 핸드에 의한 입력에 따라 선택된 실험 조합에 대해 상기 활성화된 이벤트를 연결하는 단계;를 포함하는 것을 특징으로 하는 과학 실험용 VR 콘텐츠 저작 방법.
  5. 제1항에 있어서,
    상기 사용자 인터페이스는 상기 사용자에 의해 선택 가능한 복수의 템플릿을 제공하는 화면을 포함하고, 상기 템플릿은 소정의 시나리오에 따른 실험실 오브젝트 및 실험 환경 오브젝트를 포함하고 소정 카테고리의 실험 도구 오브젝트 및 실험 재료 오브젝트를 상기 사용자에게 제시하도록 정의되는 것을 특징으로 하는 과학 실험용 VR 콘텐츠 저작 방법.
KR1020190052325A 2019-03-14 2019-05-03 과학 실험용 vr 콘텐츠 저작 방법 및 시스템 KR102181498B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190029362 2019-03-14
KR1020190029362 2019-03-14

Publications (2)

Publication Number Publication Date
KR20200110102A true KR20200110102A (ko) 2020-09-23
KR102181498B1 KR102181498B1 (ko) 2020-11-23

Family

ID=72708147

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190052325A KR102181498B1 (ko) 2019-03-14 2019-05-03 과학 실험용 vr 콘텐츠 저작 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102181498B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062868A (ko) * 2020-11-09 2022-05-17 김종훈 인공지능을 이용한 실험 정보 제공 방법 및 이를 이용하는 장치
CN115798273A (zh) * 2022-11-25 2023-03-14 广州市妇女儿童医疗中心 生物实验的模拟练习实现方法、系统、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294701A (ja) * 2003-03-26 2004-10-21 Hiroshima Gas Kk 仮想現実空間内における科学実験シミュレーションシステム
KR20110123334A (ko) * 2010-05-07 2011-11-15 (주)코아블루 가상현실 교육 시스템 제작 도구 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294701A (ja) * 2003-03-26 2004-10-21 Hiroshima Gas Kk 仮想現実空間内における科学実験シミュレーションシステム
KR20110123334A (ko) * 2010-05-07 2011-11-15 (주)코아블루 가상현실 교육 시스템 제작 도구 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220062868A (ko) * 2020-11-09 2022-05-17 김종훈 인공지능을 이용한 실험 정보 제공 방법 및 이를 이용하는 장치
CN115798273A (zh) * 2022-11-25 2023-03-14 广州市妇女儿童医疗中心 生物实验的模拟练习实现方法、系统、装置及存储介质

Also Published As

Publication number Publication date
KR102181498B1 (ko) 2020-11-23

Similar Documents

Publication Publication Date Title
AU2017203641B2 (en) Interactive virtual reality platforms
Wigdor et al. Brave NUI world: designing natural user interfaces for touch and gesture
TWI459281B (zh) 在使用者介面顯示上顯現教學動畫
Van Dam Post-WIMP user interfaces
US20170228138A1 (en) System and method for spatial interaction for viewing and manipulating off-screen content
US20120102438A1 (en) Display system and method of displaying based on device interactions
TWI606384B (zh) 透過自由形式描繪之吸引人的顯示
JP2022547775A (ja) 仮想環境中のプロジェクションキャスティング
KR20070039868A (ko) 3차원 포인팅 방법, 3차원 표시제어방법, 3차원 포인팅장치, 3차원 표시 제어장치, 3차원 포인팅 프로그램, 및3차원 표시제어 프로그램
US20110161821A1 (en) Method, system and apparatus for managing and interacting with multimedia presentations
KR102181498B1 (ko) 과학 실험용 vr 콘텐츠 저작 방법 및 시스템
Ryu et al. GG Interaction: a gaze–grasp pose interaction for 3D virtual object selection
White et al. Interaction and presentation techniques for shake menus in tangible augmented reality
Monteiro et al. Teachable reality: Prototyping tangible augmented reality with everyday objects by leveraging interactive machine teaching
Caputo et al. Gestural Interaction and Navigation Techniques for Virtual Museum Experiences.
Gillies et al. Non-representational interaction design
JP2021521512A (ja) 手の位置に基づいたモーダル制御の開始
CN106200900A (zh) 基于识别区域在视频中触发虚拟现实交互的方法及系统
Fourney et al. Gesturing in the wild: understanding the effects and implications of gesture-based interaction for dynamic presentations
US11262885B1 (en) Multi-gesture context chaining
Ribeiro et al. Virtual reality annotator: A tool to annotate dancers in a virtual environment
Dong et al. Touch-move-release: studies of surface and motion gestures for mobile augmented reality
US20220179552A1 (en) Gesture-based menuless command interface
Seol et al. Handytool: Object manipulation through metaphorical hand/fingers-to-tool mapping
Lemoine et al. Interaction techniques: 3d menus-based paradigm

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant