KR20220073476A - 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치 - Google Patents

직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치 Download PDF

Info

Publication number
KR20220073476A
KR20220073476A KR1020200161587A KR20200161587A KR20220073476A KR 20220073476 A KR20220073476 A KR 20220073476A KR 1020200161587 A KR1020200161587 A KR 1020200161587A KR 20200161587 A KR20200161587 A KR 20200161587A KR 20220073476 A KR20220073476 A KR 20220073476A
Authority
KR
South Korea
Prior art keywords
virtual reality
area
setting
input
character
Prior art date
Application number
KR1020200161587A
Other languages
English (en)
Inventor
김찬기
문성현
Original Assignee
(주)브로틴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)브로틴 filed Critical (주)브로틴
Priority to KR1020200161587A priority Critical patent/KR20220073476A/ko
Publication of KR20220073476A publication Critical patent/KR20220073476A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따르는 직관적 사용이 가능한 가상현실 컨텐츠 제작방법은, 가상현실에 표시될 컨텐츠의 동작을 설정하기 위한 동작설정 영역, 상기 동작설정 영역에 입력될 설정값을 표시하는 목록 영역 및 상기 동작설정 영역에 입력된 설정값에 따른 가상현실 컨텐츠의 동작을 표시하는 미리보기 영역을 포함하여 제시함으로써, 사용자가 보다 쉽고 편리하게 VR콘텐츠를 제작하도록 한다.

Description

직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치{METHOD AND APPARATUS FOR PRODUCING AN INTUITIVE VIRTUAL REALITY CONTENT}
본 발명은 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치에 관한 기술이다.
컴퓨터 기술의 발전에 따라, 가상현실(VR: Virtural Reality) 기술도 비약적으로 발전되었으며, 실제 다양한 영역에 적용되고 있다. 최근에는, 게임 영역 및 엔터테인먼트 영역을 넘어 교육, 쇼핑 등 점점 그 적용 영역을 넓혀가고 있다. 따라서, 가상현실 컨텐츠에 대한 수요도 점점 증가하고 있는 실정이다.
한편, 이러한 복잡한 가상 세계의 컨텐츠를 생성하고 제어하기 위해서는 가상현실 제작 툴에 대해 상당한 숙련도가 필요하다. 따라서, 다수개의 표준 템플릿 등을 제공하여 가상현실 컨텐츠 제작시간을 단축 시키는 방법이 공지되었다. 하지만, 종래에 개시된 가상현실 컨텐츠 제작 툴은 사용자 인터페이스가 직관적이지 못하여, 사용자가 제작 툴에 숙련되기 전까지 컨텐츠를 제작하기는 매우 어려웠다. 또한, 그 활용 범위가 매우 제한적이었기 때문에, 컨텐츠 안의 모든 객체를 원하는 타이밍에 원하는 위치로 이동시키거나 사용자와 인터렉션 하도록 묘사하는 것과 같은 고급 동작을 표현하긴 어려웠다.
본 발명은 일 실시 예에 따른 가상현실 컨텐츠 제작방법 및 장치는, 동작설정 영역, 목록 영역 및 미리보기 영역을 포함하는 사용자 직관적으로 표시된 사용자 인터페이스를 개시한다.
물론, 본 발명의 기술적 과제들은 이상에서 언급한 특징으로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당해 기술분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시 예는 직관적 사용이 가능한 가상현실 컨텐츠 제작방법에 있어서, 가상현실에 표시될 컨텐츠의 동작을 설정하기 위한 동작설정 영역, 상기 동작설정 영역에 입력될 설정값을 표시하는 목록 영역 및 상기 동작설정 영역에 입력된 설정값에 따른 가상현실 컨텐츠의 동작을 표시하는 미리보기 영역을 표시하는 단계; 사용자의 입력을 수신하여 상기 목록 영역에 표시된 설정값 중 적어도 하나의 설정값이 상기 동작설정 영역으로 드래그 앤 드롭 되는 단계; 및 상기 동작설정 영역에 드래그 앤 드롭 된 설정값에 따른 상기 컨텐츠의 동작을 설정하고, 상기 설정된 컨텐츠의 동작을 상기 미리보기 영역에 표시하는 단계를 포함한다.
또한, 상기 미리보기 영역에 표시하는 단계는, 상기 설정값에 따른 가상현실 캐릭터의 동작과, 상기 가상현실 캐릭터의 동작을 조정할 수 있는 객체를 함께 상기 미리보기 화면에 표시하는 단계; 및 상기 객체를 조작하는 사용자 입력을 수신하고, 수신된 사용자 입력에 따라 상기 가상현실 캐릭터가 소정 동작을 수행하는 장면을 상기 미리보기 영역에 표시하는 단계를 포함할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
본 발명은 일 실시 예에 따라 동작설정 영역, 목록 영역 및 미리보기 영역을 포함하는 사용자 직관적으로 표시된 사용자 인터페이스를 제공함으로써, 보다 쉽게 가상현실 캐릭터가 동작하는 장면을 포함하는 가상현실 컨텐츠를 생성할 수 있다.
또한, 하나의 동작설정 영역에서 사용자가 설정값을 직관적으로 변경함으로써, 가상현실 캐릭터가 동작하는 장면을 쉽게 제작할 수 있다.
또한, 일 실시 예에 따른 가상현실 컨텐츠 제작방법은, 사용자 입력값에 대응하여 출력되는 동작이 수정되도록 설정값을 수정함으로써, 실시간으로 사용자의 시선(얼굴의 각도, 방향), 음성, VR기기의 하드웨어 버튼에 대한 터치입력에 대응하여 동작하는 가상 현실 컨텐츠도 쉽게 제작 할 수 있다.
도 1은 본 발명의 일 실시 예에 따르는 가상현실 컨텐츠 제작방법을 나타내는 순서도이다.
도 2 내지 도 26은 본 발명의 일 실시 예에 따른 가상현실 컨텐츠 제작방법에 있어서, 동작설정 영역의 일 예를 나타내는 도이다.
도 27는 본 발명의 일 실시 예에 따른 가상현실 컨텐츠 제작장치를 나타내는 블럭도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), LTE(Long Term Evolution) 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, "네트워크"는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.
이하, 도 1 내지 도 17를 참조하여 일 실시 예에 따른 가상현실 컨테츠 제작방법 및 장치에 대해서 상세히 설명한다.
도 1은 본 발명의 일 실시 예에 따르는 가상현실 컨텐츠 제작방법을 설명하기 위한 개념도이다.
도 1을 참조하면, 일 실시 예에 따르는 가상현실 컨텐츠 제작 장치(100)는 가상현실에 표시될 컨텐츠의 동작을 설정하기 위한 동작설정 영역(110), 상기 동작설정 영역(110)에 입력될 설정값을 표시하는 목록 영역(120) 및 상기 동작설정 영역(110)에 입력된 설정값에 따른 가상현실 컨텐츠의 동작을 표시하는 미리보기 영역(130)을 표시할 수 있다. 여기서, 가상현실 컨텐츠 제작 장치(100)는 상술한 단말을 포함할 수 있다.
또한, 가상현실 컨텐츠는 가상현실 캐릭터의 동작을 포함할 수 있으며, 일정 타임라인 동안 가상현실 캐릭터가 혼자 동작하거나 또는 사용자의 입력에 반응하여 동작(이하, 인터랙션 동작)하는 장면을 포함할 수 있다.
목록 영역(120)에는 가상현실 컨텐츠의 리소스 폴더구조 및 가상현실 컨텐츠를 구성하는 객체들이 포함 될 수 있다. 예컨대 가상현실 컨텐츠에 포함될 캐릭터 및 배경화면을 이루는 객체 들을 포함할 수 있다.
또한, 목록 영역(120)에는 가상현실 캐릭터의 시선의 이동 등 캐릭터의 동작을 발생시키기 위한 객체가 포함되어 있을 수 있다. (예컨대, 도1의 큐브(150)) 또한, 객체의 좌표, 연관된 스크립트 및 속성값이 표시될 수 있다.
동작 설정영역(110)에는 소정 설정값이 기 입력되어 있을 수 있으며, 기 입력된 설정값에 따라 가상현실 캐릭터의 동작이 결정될 수 있다. 예컨대, 가상현실 캐릭터의 시선, 표정, 몸짓 또는 음성을 선택하는 설정값이 기 입력되어 있을 수 있다. 또한, 동작설정 영역은, 기 입력된 가상현실 캐릭터의 동작의 종류에 따라 설정값이 입력될 수 있는 사용자 인터페이스가 변할 수 있다. 동작설정 영역의 사용자 인터페이스는 도 2 내지 도 16을 참조하여 후술한다.
일 실시 예에 따라 가상현실 컨텐츠 제작 장치(100)는 사용자의 입력을 수신(140)하여 목록 영역(120)에 표시된 설정값 중 적어도 하나의 설정값이 동작설정 영역(110)으로 이동되면, 동작설정 영역에 이동된 설정값에 따른 컨텐츠의 동작을 설정하기 위한 화면을 미리보기 영역(130)에 표시할 수 있다. 예컨대, 사용자 입력에 기초하여, 목록 영역(120)에서 동작설정 영역(110)으로 드래그앤 드롭(drag & drop)된 설정값에 대응되는 객체(150)가 미리보기 영역(130)에 표시될 수 있다.
또한, 객체를 조작하는 사용자 입력을 수신하면, 수신된 사용자 입력에 따라 가상현실 캐릭터가 소정 동작을 수행하는 장면을 미리보기 영역(130)에 표시할 수 있다.
예를 들면, 가상현실 컨텐츠 제작 장치(100)가 가상현실 캐릭터의 시선처리 동작에 대한 컨텐츠를 생성하는 경우, 미리보기 영역(130)에 시선처리를 위해 지정한 대상(예컨대, 큐브(150))을 표시하고, 가상현실 캐릭터가 이를 자연스럽게 바라보도록 할 수 있다. 이때, 큐브(150)와 캐릭터 간의 위치 등에 대한 구분이 용이하도록 큐브에는 x,y,z축에 대한 축정보가 함께 표시될 수도 있다. 물론, 반드시 큐브에 한정되는 것은 아니며, 목록 영역(120)에서 다양한 객체에 대응하는 설정값을 선택하여 표시할 수 있다. 다음으로, 사용자는 지정한 대상의 이동을 통해 가상현실 캐릭터의 머리의 가동범위를 설정하거나, 머리가 움직이는 속도 등을 직관적으로 설정 할 수 있다. 나아가, 머리가 움직이는 속도에 가감속을 적용할 수 있다. 지정한 대상의 이동을 통해 설정된 값을 기초로 가상현실 컨텐츠가 생성될 수 있다. 여기서 생성된 컨텐츠는 가상현실 캐릭터의 동작을 표시할 수도 있고, 나아가 사용자와 인터렉션 하는 동작을 표시할 수도 있다.
다른 예로, 가상현실 컨텐츠 제작 장치(100)가 가상현실 캐릭터의 감정표현 동작에 대한 컨텐츠를 생성하는 경우, 미리보기 영역(130)에 가상현실 캐릭터의 감정 표현을 나타내는 표정 및 몸짓을 표시할 수 있다. 표정에는 크게 희, 노, 애, 락이 있을 수 있으며, 몸짓에도 여러 동작이 있을 수 있다.
또 다른 예로, 가상현실 컨텐츠 제작 장치(100)가 가상현실 캐릭터의 음성 동작에 대한 컨텐츠를 생성하는 경우, 미리 준비된 음성이 원하는 타이밍에 출력되도록 할 수 있다. 이 때, 음성이 출력되면 가상현실 캐릭터의 입도 함께 움직이도록 설정 될 수 있다.
이 외에도, 캐릭터의 복장을 변경하거나, 또는 다양한 동작을 조합하는 등의 가상현실 컨텐츠를 생성할 수 있다.
이때, 위의 몸짓, 동작, 음성 등과 같은 출력정보에 대응한 입력정보도 함께 입력될 수도 있다. 예를 들어, 사용자가 커서로 캐릭터를 터치하는 입력을 하거나, 사용자가 미리 설정된 말을 하는 등의 입력정보가 함께 입력될 경우, 사용자와 인터랙션하는 캐릭터의 동작이 생성될 수 있다.
따라서, 사용자는 동작설정 영역(110), 목록 영역(120) 및 미리보기 영역(130)을 포함하는 사용자 인터페이스를 통해 직관적으로 가상현실 컨텐츠를 제작 할 수 있다. 특히, 가상현실 캐릭터 혼자서 동작하는 장면을 담은 가상현실 컨텐츠뿐 아니라, 사용자 입력값에 대응하여 출력되는 동작이 수정되도록 설정값을 수정함으로써, 실시간으로 사용자의 시선(얼굴의 각도, 방향), 음성, VR기기의 하드웨어 버튼에 대한 터치입력에 대응하여 동작하는 인터렉션 가상 현실 컨텐츠도 쉽게 제작 할 수 있다.
도 1는 본 발명의 일 실시 예에 따르는 가상현실 컨텐츠 제작방법을 나타내는 순서도이다.
도 1를 참조하면, 단계 S200에서, 가상현실 컨텐츠 제작방법은, 동작설정 영역, 목록 영역 및 미리보기 영역을 표시할 수 있다. 여기서, 동작설정 영역은 가상현실에 표시될 컨텐츠의 동작을 설정할 수 있으며, 목록 영역은 동작설정 영역에 입력될 설정값을 표시할 수 있고, 미리보기 영역은 동작설정 영역에 입력된 설정값에 따른 가상현실 컨텐츠의 동작을 표시할 수 있다. 또한, 동작설정 영역은, 기 입력된 가상현실 캐릭터의 동작의 종류에 따라 설정값이 입력될 수 있는 사용자 인터페이스가 변한다.
단계 S210에서, 가상현실 컨텐츠 제작방법은, 사용자의 입력을 수신하여 목록 영역에 표시된 설정값 중 적어도 하나의 설정값이 동작설정 영역으로 드래그 앤 드롭 될 수 있다.
단계 S220에서, 동작설정 영역에 드래그 앤 드롭 된 설정값에 따른 가상현실 컨텐츠의 동작을 설정하기 위한 화면을 미리보기 영역에 표시할 수 있다. 구체적으로, 미리보기 영역에 표시하는 단계는, 동작설정 영역에 기 입력된 설정값에 따른 가상현실 캐릭터의 동작과, 드로그 앤 드롭된 설정값에 따른 객체를 함께 상기 미리보기 영역에 표시할 수 있다. 또한, 객체를 조작하는 사용자 입력을 수신하고, 수신된 사용자 입력에 따라 상기 가상현실 캐릭터가 소정 동작을 수행하는 장면을 상기 미리보기 영역에 표시할 수 있다. 따라서, 캐릭터의 동작이 타임라인에 따라 재생되는 가상현실 컨텐츠를 생성할 수 있다.
또한, 객체의 이동범위 및 각도를 조정함으로써, 사용자의 입력에 인터렉션 하여, 가상현실 캐릭터가 동작을 수행하는 가상현실 콘텐츠를 생성할 수 있다. 여기서, 사용자 입력은 사용자의 시선, 음성 또는 장치에 대한 물리적 입력을 포함할 수 있다.
또한, 동작설정 영역에, 가상현실 캐릭터의 시선처리를 위한 제1 설정값이 기 입력된 경우, 동작설정 영역은 상기 가상현실 캐릭터의 시선처리를 위한 제2 설정값을 수신하기 위한 입력 영역을 표시하고, 제2 설정값은 상기 가상현실 캐릭터의 머리의 가동범위 또는 이동속도에 대한 설정값을 포함할 수 있다.
예를 들면, 도 3 은 본 발명의 일 실시 예에 따른 가상현실 컨텐츠 제작방법의 일 예를 나타내는 도이다.
도 3a 및 도3b를 참조하면, 미리보기 영역(130)에 가상현실 캐릭터(310) 및 시선 이동을 위한 객체(350)가 제 1영역(320)에 표시 될 수 있다. 따라서, 사용자 입력에 따라 객체(350)를 제1 영역(320)에서 제2 영역(330)으로 이동 시키는 경우 가상현실 캐릭터(310)의 시선이 이를 바라보는 위치로 이동할 수 있다. 즉, 객체(350)의 이동에 따라 캐릭터(310)의 시선이 자유롭게 변할 수 있으며, 소정 시간동안 캐릭터(310)의 시선 변화를 출력하여, 가상현실 컨텐츠로 제작할 수 있다. 또는, 사용자 입력에 따라 객체(350)를 제1 영역(320)에서 제2 영역(330)으로 이동시키는 동작을 얼마나 넓은 간격에 대해 얼마나 빠르게 진행하는지에 따라 인터렉션 동작의 가동범위 및 속도를 결정할 수도 있다.
또한, 다시 도 1를 참조하여, 가상현실 컨텐츠 제작방법은, 동작설정 영역에, 가상현실 캐릭터의 감정표현을 위한 제1 설정값이 기 입력된 경우, 동작설정 영역은 상기 가상현실 캐릭터의 감정표현을 위한 제2 설정값을 수신하기 위한 입력 영역을 표시하고, 제2 설정값은 상기 가상현실 캐릭터의 표정 및 몸짓에 해당하는 설정값을 포함할 수 있다.
또한, 가상현실 컨텐츠 제작방법은 동작설정 영역에, 가상현실 캐릭터의 음성출력을 위한 제1 설정값이 기 입력된 경우, 동작설정 영역은 가상현실 캐릭터의 음성출력을 위한 제2 설정값을 수신하기 위한 입력 영역을 표시하고, 제2 설정값은 상기 가상현실 캐릭터의 음성출력 타이밍을 포함할 수 있다.
이하, 도 2 내지 도 16을 참조하여, 본 발명의 일 실시 예에 따른 가상현실 컨텐츠 제작방법에 있어서, 동작설정 영역의 일 예를 설명한다.
도 2는, 가상현실 컨텐츠 제작방법의 동작설정 영역을 생성하기 위한 최초 사용자 인터페이스(400)를 나타낸다.
우선, 최초 사용자 인터페이스(400)는 사용자가 현재 선택한 가상현실 컨텐츠를 구성하는 씬(Scene_01)에 대한 간단한 설명을 넣을 수 있는 영역인 401을 표시한다. 또한, 사용자가 New Step 박스인 402를 선택하면 사용자가 선택한 씬에 대한 최초의 시퀀스가 생성된다.
도 3는 최초 시퀀스 생성 후 표시되는 동작 설정 영역(500)을 도시한다.
도 3를 참조하면, 501영역에는 시퀀스의 시리얼번호가 표시된다. 이 숫자대로 시퀀스의 순서가 정렬되며, 임의로 숫자를 바꾸어 순서를 바꾸는 것도 가능하다.
502 영역에는 전 단계의 시퀀스 넘버가 들어간다. 기본적으로 시퀀스를 생성하면 자동으로 이전 시퀀스의 번호가 입력된다.
503 영역에는 현재 시퀀스가 얼마만큼의 지연시간을 가지는지 설정할 수 있다. 단위는 초 이며, 입력한 시간만큼 지체 후 다음 시퀀스로 넘어간다.
504영역을 선택하면, 해당 시퀀스의 순서를 한 단계 이전으로 올린다.
505영역을 선택하면, 해당 시퀀스의 순서를 한 단계 이후로 내린다.
506영역을 선택하면, 해당 시퀀스를 삭제한다.
507영역을 선택하면, 해당 시퀀스의 다음 시퀀스를 생성한다.
508영역을 선택하면, 509영역에서 지정한 씬 상의 객체 또는 캐릭터를 현재 시퀀스가 위치하고 있는 좌표로 이동시킨다.
*509 영역은 현재 시퀀스에서 액션을 줄 대상(객체, 또는 캐릭터)을 지정한다.
511영역에는 현재 시퀀스에 대한 코멘트를 기입할 수 있다.
액션영역(510)은 현재 시퀀스의 액션을 지정한다. 510영역의 설정값 입력에 따라 일 실시 예에 따른 가상현실 컨텐츠 제작 방법에 포함된 가상현실 캐릭터의 동작이 설정될 수 있다.
도 4을 참조하여 액션 영역(510)에서 선택될 수 있는 액션 명령(601)을 도시한다. 도 4에 도시된 바같이 가상현실 캐릭터가 수행할 수 있는 다양한 동작에 대한 명령이 포함되어 있으며, 각 명령의 선택에 따라 동작선택 영역(500)에 입력될 수 있는 선택값의 입력 영역이 변화하는 실시예를 도 5 내지 도 16을 참조하여 후술한다.
예를 들면, "No Op"를 선택하면 아무런 액션을 하지 않는다. 또한, "Action"을 선택하면 미리 만들어진 특정 행동을 할 때 사용한다.
예를 들면, 도 5은 "Action" 동작명령을 선택한 동작설정영역(700)을 도시한다.
도 5을 참조하면, 701 영역에, 미리 지정된 액션 동작 중에서 어떤 액션을 사용할지 해당액션의 번호를 입력 할 수 있으며, 702 영역은 액션 실행 후 정해진 동작을 반복해서 하게 되는 경우 체크할 수 있다.
한편, 703영역의 옵션을 체크하는 경우 가상현실 캐릭터는 눈 깜빡임 애니메이션을 하지 않는다. 예를 들어, 우는 표정을 하며 동작을 하는데 눈 깜빡임을 하게 될 경우 표정 연출이 어색해지는 현상을 방지하기 위해 선택될 수 있는 옵션이다.
도 6을 참조하면, "Activate" 동작명령을 선택한 경우의 동작설정영역(800)을 도시한다.
Activate 선택영역(801)에서, Activate는 씬상에 객체를 등장시키는 명령이며, Deactivate는 씬상에서 해당 객체를 삭제하는 명령을 의미한다. Message의 경우 자막 텍스트를 등장시키는 명령이다.
802 영역의 설정값은 등장 또는 삭제할 객체를 목록영역에서 드래그앤드롭으로 선택할 수 있다.
803영역의 설정값은 특정 입력을 받아야 등장/삭제를 원하는 경우 체크한다.
도 7를 참조하면, "Change into" 동작명령을 선택한 경우의 동작설정 영역(900)을 도시한다.
캐릭터의 복장 및 소지 아이템을 등장/삭제하는 기능을 가지는 선택영역(901)에서, Put on은 지정된 복장을 캐릭터에게 입히는 기능이며, Restore는 한번 삭제한 복장을 다시 불러오는 기능을 나타낸다. Clear은 현재 착용중인 복장/아이템을 삭제하는 기능을 나타낸다.
902영역의 설정값은 가상현실 캐릭터에게 갈아 입힐 복장 데이터를 지정해 주고, 903 영역의 설정값은 가상현실 캐릭터가 소지하게 할 아이템을 지정한다.
도 8을 참조하면, "End Cutscene" 동작명령을 선택한 경우의 동작설정 영역(1000)을 도시한다.
End Cutscene 설정값은 현재의 씬을 종료할 때 입력될 수 있다.
도 9을 참조하면, "Game log" 동작명령을 선택한 경우의 동작설정 영역(1100)을 도시한다.
Game log 동작명령의 선택을 통해 컨텐츠 중간에 로그기록을 남길 수 있도록 할 수 있으며, 추가 선택영역(1101)에서, 컨텐츠시작/종료, 중간 챕터의 시작/종료의 선택이 가능하다.
도 10를 참조하면 캐릭터의 점프 동작에 관련된 "Jump to" 동작명령을 선택한 경우의 동작설정 영역(1200)을 도시한다.
1201 영역의 설정값에는 캐릭터가 점프할 포지션 좌표 정보가 입력된다.
1202 영역의 버튼이 선택되면, 현재 입력된 좌표 정보를 저장한다.
1203 영역의 버튼이 선택되면, 씬 에디터상에서 선택된 좌표를 캐릭터를 점프시킬 좌표로 적용한다.
1203 영역의 설정값 입력을 통해 점프할 때의 속도를 지정할 수 있다.
도 11을 참조하면, 현재 진행중인 씬 이후에 불러들일 씬을 지정하는 "Load scene" 동작명령을 선택한 경우의 동작설정 영역(1300)을 도시한다.
1301 영역의 설정값에는 불러들일 씬의 이름이 입력된다.
1302영역의 설정값에는 씬을 불러들여 전환할 때의 효과가 선택될 수 있다.
1303 영역의 설정값은 씬을 불러들인 후 다시 연결될 씬을 지정한다.
1304 영역의 설정값은 씬 전환시 전달해야 하는 파라미터가 있을 때 입력될 수 있다.
도 12를 참조하면, 시선처리에 관련된 "Look at" 동작명령을 선택한 경우의 동작설정 영역(1400)을 도시한다.
선택메뉴(1401)에서 객체를 바라보는 경우와 특정 위치를 바라보는 경우, 그리고 씬 상의 카메라를 보는 3가지의 경우를 설정할 수 있다. 여기서, 객체는 목록 영역에서 선택될 수 있다.
도 13를 참조하면, 캐릭터가 한가지 동작을 반복적으로 하는 경우를 설정하는 "Loop action" 동작명령을 선택한 경우의 동작설정 영역(1500)을 도시한다.
도 14을 참조하면, "Mood" 동작명령을 선택한 경우의 동작설정 영역(1600)을 도시한다.
Mood 동작에서 가상현실 캐릭터의 감정표현에 관련된 기능을 설정할 수 있다. 선택 메뉴(1601)에서, 캐릭터가 어떤 표정을 지을지 선택할 수 있다.
도 15을 참조하면, "Move to" 동작명령을 선택한 경우의 동작설정 영역(1700)을 도시한다.
Move to는 캐릭터 또는 객체를 이동시킬 때 사용하는 기능이다.
1701영역은 움직이면서 특정 동작을 해야 할 때 체크한다.
1702 영역의 설정값에는 지정된 위치까지 이동할 때의 상세 경로를 지정할 수 있다.
1703 영역의 설정값에는 지정된 위치까지 이동할 때 움직이는 속도에 대한 디테일을 지정할 수 있다.
도 16을 참조하면, Proc 동작명령을 선택한 경우의 동작설정 영역(1800)을 도시한다.
Proc 동작명령을 통해, 대기상태에서 캐릭터를 손으로 만지거나 했을 때의 반응을 지정할 수 있다. 예를 들면, 현재 시간/날씨에 따른 자동 리액션(ex:날씨정보를 확인하여 “어 지금은 비가 오는구나”라는 음성대사와 움직임을 출력)기능이 포함되어 있다.
도 17를 참조하면, "Rotate" 동작명령을 선택한 경우의 동작설정 영역(1900)을 도시한다.
Rotate 동작 명령은 캐릭터가 바라보는 방향(시선이 아닌 몸 전체)을 지정할 수 있다.
도 18을 참조하면, "Scale to" 동작명령을 선택한 경우의 동작설정 영역(2000)을 도시한다.
Scale to 동작명령을 통해 캐릭터/객체의 크기를 변경할 수 있다.
도 19을 참조하면, "Setup" 동작명령을 선택한 경우의 동작설정 영역(2100)을 도시한다.
Setup 동작명령을 통해 최초에 씬 생성시 캐릭터를 씬 상에 세팅하는 기능을 설정할 수 있다.
도 20를 참조하면, "Sound" 동작명령을 선택한 경우의 동작설정 영역(2200)을 도시한다.
Sound 동작명령을 통해 현재 씬 상에 배경음악, 효과음, 노래를 지정하고 볼륨을 조절할 수 있다.
도 21을 참조하면, "Speech to" 동작명령을 선택한 경우의 동작설정 영역(2300)을 도시한다.
Speech to 동작명령을 통해 캐릭터가 지정한 대상을 보고 말을 하게 하는 기능을 설정할 수 있다. Talk to와의 차이점은 이 기능은 씬 상의 모든 캐릭터가 지정한 대상을 바라볼 수 있도록 설정할 수 있다는 점이다.
2301 영역의 설정값은 말하면서 바라볼 대상을 지정한다.
2302 영역의 설정값에는 말을 하는 시간을 설정하는 값이 입력 될 수 있다.
한편, "Stop" 동작명령을 선택한 경우의 현재 씬상에 적용되어있는 캐릭터의 모든 액션을 중지시킬 때 사용한다.
도 22를 참조하면, "Talk to" 동작명령을 선택한 경우의 동작설정 영역(2500)을 도시한다. Talk to는 캐릭터가 지정한 대상을 바라보고 말을 하게 하는 기능이다.
도 23를 참조하면, "Wait sound" 동작명령을 선택한 경우의 동작설정 영역(2500)을 도시한다.
Wait sound는 소리를 입력 받는 기능을 설정하는 것으로 사용자 인터렉션 동작을 설정할 때 이용될 수 있다.
선택영역(2501)에서 소리, 후~부는 소리, 박수소리를 구분하여 인식할 수 있도록 설정 될 수 있다. 나아가, 해당 소리를 얼마나 기다려서 입력 받을 지 대기하는 시간의 설정도 가능하다.
도 24을 참조하면, "Wait touch" 동작명령을 선택한 경우의 동작설정 영역(2600)을 도시한다.
Wait touch는 유저의 입력(터치)을 받고자 할 때 사용하는 기능으로 사용자 인터렉션 동작을 설정할 때 이용될 수 있다.
도 25을 참조하면, "Screen fade" 동작명령을 선택한 경우의 동작설정 영역(2700)을 도시한다.
Screen fade 동작명령은 씬의 페이드인/아웃에 대한 기능이다.
도 26을 참조하면, "Speech quiz" 동작명령을 선택한 경우의 동작설정 영역(2800)을 도시한다.
Speech quiz 동작명령은 가상 캐릭터와의 대화에서 질문과 답변에 관련된 AI를 설정하는 기능이다.
2801 영역의 설정값에는 정확한 답변의 개수가 설정된다.
2802 영역의 설정값에는 답변을 기다리는 시간을 설정한다.
2803영역에 도시된 바와 같이 입력된 답변의 종류를 설정하고 거기에 따르는 리액션(동작과 출력 음성)을 설정할 수 있다. 이때, 답변과 리액션의 종류는 유저가 원하는 만큼 그 숫자를 늘릴 수 있다.
도 27는 본 발명의 일 실시 예에 따른 가상현실 컨텐츠 제작장치를 나타내는 블럭도이다. 일 실시 예에 따른 가상현실 컨텐츠 제작장치(100)는, 입력부(110), 디스플레이부(120), 메모리(130) 및 프로세서(140)를 포함할 수 있다.
한편, 도 27에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 이는 설명의 편의를 위한 것일 뿐 이러한 구성에 한정되는 것은 아니며, 따라서 도 17에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
나아가, 이하에서 생략된 내용이더라도 도 1 내지 도 16을 참조하여 이상에서 기술된 내용은 도 27에 도시된 가상현실 컨텐츠 제작 장치(100) 를 통해 수행될 수 있음을 본 발명이 속하는 기술분야의 통상의 기술자는 쉽게 이해할 수 있을 것이다.
입력부(110)는, 터치 패널, 키(key) 버튼 등 사용자가 원하는 정보를 입력할 수 있도록 해주는 각종 입력장치를 포함하며, 사용자의 입력을 수신하여 동작 설정영역에 설정 값을 입력하거나, 목록 영역에 포함된 설정값을 드래그 앤 드롭 하여 동작설정 영역에 입력 할 수 있다.
디스플레이부(120)에는 가상현실 컨텐츠 제작방법이 표시될 수 있다. 디스플레이부(120)는, 표시 패널과 레이어 구조를 이루는 터치 패드는 터치 스크린이라 부를 수 있다. 한편 사용자 입력부 (110) 가 터치 스크린으로 구성되어 있는 경우, 사용자 입력부 (110) 는 디스플레이부 (120) 의 기능을 수행할 수 있다.
메모리(130)에는 상술한 가상현실 컨텐츠 제작방법을 수행하기 위한 프로그램이 저장되어 있을 수 있다. 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
프로세서(140)는 상술한 프로그램을 수행할 수 있으며, 프로세서(140)는, 메모리(130)에 저장된 프로그램의 실행에 따라, 가상현실에 표시될 컨텐츠의 동작을 설정하기 위한 동작설정 영역, 동작설정 영역에 입력될 설정값을 표시하는 목록 영역 및 미리보기 영역을 디스플레이부(120)에 표시하고, 입력부(110)를 통해 사용자의 입력을 수신하여 목록 영역에 표시된 설정값 중 적어도 하나의 설정값이 동작설정 영역으로 드래그 앤 드롭 되면, 상기 동작설정 영역에 드래그 앤 드롭 된 설정값에 따른 컨텐츠의 동작을 설정하기 위한 화면을 미리보기 영역에 표시하도록 제어할 수 있다.
본 발명의 일 실시 예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (5)

  1. 직관적 사용이 가능한 가상현실 컨텐츠 제작장치에 의해 수행되는, 가상현실 컨텐츠 제작방법에 있어서,
    가상현실에 표시될 컨텐츠의 동작을 설정하기 위한 동작설정 영역, 상기 동작설정 영역에 입력될 설정값을 표시하는 목록 영역 및 상기 동작설정 영역에 입력된 설정값에 따른 가상현실 컨텐츠의 동작을 표시하는 미리보기 영역을 표시하는 단계;
    사용자의 입력을 수신하여 상기 목록 영역에 표시된 설정값 중 적어도 하나의 설정값이 상기 동작설정 영역으로 드래그 앤 드롭 되는 단계; 및
    상기 동작설정 영역에 드래그 앤 드롭 된 설정값에 따른 상기 컨텐츠의 동작을 설정하고, 상기 설정된 컨텐츠의 동작을 상기 미리보기 영역에 표시하는 단계를 포함하며,
    상기 미리보기 영역에 표시하는 단계는,
    상기 동작설정 영역에 기 입력된 설정값에 따른 가상현실 캐릭터의 동작과, 상기 드래그 앤 드롭된 설정값에 따른 객체를 함께 상기 미리보기 영역에 표시하는 단계; 및
    상기 객체의 이동범위 및 각도를 조작하는 사용자 입력을 수신하고, 상기 사용자 입력에 따라 상기 객체가 이동할 경우, 상기 이동하는 객체에 인터렉션하여 상기 가상현실 캐릭터의 시선을 상기 객체의 이동에 따라 변화하도록 하는 장면을 상기 미리보기 영역에 표시하는 단계를 포함하고,
    상기 객체의 이동범위 및 각도를 조작하는 사용자 입력에 따라, 상기 가상현실 캐릭터의 시선 변화에 대한 움직임 범위와 속도가 결정되고,
    상기 가상현실 컨텐츠 제작방법은,
    상기 가상현실 캐릭터의 동작이 타임라인에 따라 재생되는 가상현실 컨텐츠를 생성하는 단계를 더 포함하며,
    상기 사용자 입력은
    사용자의 시선, 음성 또는 장치에 대한 물리 적 입력을 포함하되,
    상기 동작설정 영역은, 기 입력된 가상현실 캐릭터의 동작의 종류에 따라 설정값이 입력될 수 있는 사용자 인터페이스가 변하는 것을 특징으로 하는, 방법.
  2. 제 1항에 있어서,
    상기 동작설정 영역에, 가상현실 캐릭터의 시선처리를 위한 제1 설정값이 기 입력된 경우,
    상기 동작설정 영역은 상기 가상현실 캐릭터의 시선처리를 위한 제2 설정값을 수신하기 위한 입력 영역을 표시하고,
    상기 제2 설정값은 상기 가상현실 캐릭터의 머리의 가동범위 또는 이동속도에 대한 설정값을 포함하는 것을 특징으로 하는, 방법.
  3. 제 1항에 있어서,
    상기 동작설정 영역에, 가상현실 캐릭터의 감정표현을 위한 제1 설정값이 기 입력된 경우,
    상기 동작설정 영역은 상기 가상현실 캐릭터의 감정표현을 위한 제2 설정값을 수신하기 위한 입력 영역을 표시하고,
    상기 제2 설정값은 상기 가상현실 캐릭터의 표정 및 몸짓에 해당하는 설정값을 포함하는 것을 특징으로 하는, 방법.
  4. 제 1항에 있어서,
    상기 동작설정 영역에, 가상현실 캐릭터의 음성출력을 위한 제1 설정값이 기 입력된 경우,
    상기 동작설정 영역은 상기 가상현실 캐릭터의 음성출력을 위한 제2 설정값을 수신하기 위한 입력 영역을 표시하고,
    상기 제2 설정값은 상기 가상현실 캐릭터의 음성출력 타이밍을 포함하는 것을 특징으로 하는, 방법.
  5. 직관적 사용이 가능한 가상현실 컨텐츠 제작 장치에 있어서,
    직관적 사용이 가능한 가상현실 컨텐츠 제작방법을 수행하기 위한 프로그램이 저장된 메모리;
    상기 가상현실 컨텐츠 제작방법이 표시되는 디스플레이부; 및
    상기 프로그램을 수행하기 위한 프로세서;를 포함하며,
    상기 프로세서는, 상기 프로그램의 실행에 따라,
    가상현실에 표시될 컨텐츠의 동작을 설정하기 위한 동작설정 영역, 상기 동작설정 영역에 입력될 설정값을 표시하는 목록 영역 및 미리보기 영역을 상기 디스플레이부에 표시하고,
    사용자의 입력을 수신하여 상기 목록 영역에 표시된 설정값 중 적어도 하나의 설정값이 상기 동작설정 영역으로 드래그 앤 드롭 되면, 상기 동작설정 영역에 드래그 앤 드롭 된 설정값에 따른 상기 컨텐츠의 동작을 설정하고, 상기 설정된 컨텐츠의 동작을 상기 미리보기 영역에 표시하도록 제어하되,
    상기 동작설정 영역에 기 입력된 설정값에 따른 가상현실 캐릭터의 동작과, 상기 드래그 앤 드롭된 설정값에 따른 객체를 함께 상기 미리보기 영역에 표시하며,
    상기 객체의 이동범위 및 각도를 조작하는 사용자 입력을 수신하고, 상기 사용자 입력에 따라 상기 객체가 이동할 경우, 상기 이동하는 객체에 인터렉션하여 상기 가상현실 캐릭터의 시선을 상기 객체의 이동에 따라 변화하도록 하는 장면을 상기 미리보기 영역에 표시하고,
    상기 객체의 이동범위 및 각도를 조작하는 사용자 입력에 따라, 상기 가상현실 캐릭터의 시선 변화에 대한 움직임 범위와 속도가 결정되는 것인, 장치.
KR1020200161587A 2020-11-26 2020-11-26 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치 KR20220073476A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200161587A KR20220073476A (ko) 2020-11-26 2020-11-26 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200161587A KR20220073476A (ko) 2020-11-26 2020-11-26 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치

Publications (1)

Publication Number Publication Date
KR20220073476A true KR20220073476A (ko) 2022-06-03

Family

ID=81983604

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200161587A KR20220073476A (ko) 2020-11-26 2020-11-26 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치

Country Status (1)

Country Link
KR (1) KR20220073476A (ko)

Similar Documents

Publication Publication Date Title
CN111294663B (zh) 弹幕处理方法、装置、电子设备及计算机可读存储介质
US20200293181A1 (en) Method, system and user interface for creating and displaying of presentations
KR101831802B1 (ko) 적어도 하나의 시퀀스에 대한 가상현실 컨텐츠 제작방법 및 장치
Leiva et al. Rapido: Prototyping Interactive AR Experiences through Programming by Demonstration
US20120107790A1 (en) Apparatus and method for authoring experiential learning content
US20090083710A1 (en) Systems and methods for creating, collaborating, and presenting software demonstrations, and methods of marketing of the same
JP6647867B2 (ja) アニメーションのモーションシーケンスを生成するための方法、システム及びコンピュータ読み取り可能な記録媒体
WO2021157595A1 (ja) コンテンツ作成支援システム
US20180296916A1 (en) System and method for spatial and immersive computing
JP7351877B2 (ja) グラフィカルユーザインターフェースプロトタイプの提供方法および装置
Walter et al. Learning MIT app inventor: A hands-on guide to building your own android apps
WO2020186837A1 (zh) 文本动画控制方法和装置、存储介质和处理器
Whitlock et al. MRCAT: In situ prototyping of interactive AR environments
KR101806922B1 (ko) 가상현실 컨텐츠 제작방법 및 장치
KR20220073476A (ko) 직관적 사용이 가능한 가상현실 컨텐츠 제작방법 및 장치
CN111291256A (zh) 一种个性化主页生成方法、设备、电子设备及存储介质
Correa Digitopolis II: Creation of video games GDevelop
US20240127704A1 (en) Systems and methods for generating content through an interactive script and 3d virtual characters
CN116027945B (zh) 互动故事中动画信息处理方法及装置
KR101553272B1 (ko) 복수의 타이머를 사용하여 멀티미디어 콘텐츠를 저작하는 방법 및 복수의 타이머를 사용하여 멀티미디어 콘텐츠를 저작하는 저작 장치
JP6815054B1 (ja) コンテンツ作成支援システム
CN115499672B (zh) 图像显示方法、装置、设备及存储介质
Zhou et al. IslayTouch: an educational visual programming environment based on state-transition diagrams that runs on android devices
JP6747741B1 (ja) コンテンツ作成支援システム
KR102177283B1 (ko) 대인 관계 개선을 위한 hci를 이용한 콘텐츠의 제작 및 편집을 지원하는 시스템 및 방법