KR101483851B1 - 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법 - Google Patents

홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법 Download PDF

Info

Publication number
KR101483851B1
KR101483851B1 KR20130036383A KR20130036383A KR101483851B1 KR 101483851 B1 KR101483851 B1 KR 101483851B1 KR 20130036383 A KR20130036383 A KR 20130036383A KR 20130036383 A KR20130036383 A KR 20130036383A KR 101483851 B1 KR101483851 B1 KR 101483851B1
Authority
KR
South Korea
Prior art keywords
virtual
user
virtual object
activated
viewpoint
Prior art date
Application number
KR20130036383A
Other languages
English (en)
Other versions
KR20140120986A (ko
Inventor
김윤호
박기홍
최재명
이현직
박현준
Original Assignee
목원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 목원대학교 산학협력단 filed Critical 목원대학교 산학협력단
Priority to KR20130036383A priority Critical patent/KR101483851B1/ko
Publication of KR20140120986A publication Critical patent/KR20140120986A/ko
Application granted granted Critical
Publication of KR101483851B1 publication Critical patent/KR101483851B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

홈 컨트롤을 위해 스마트 단말을 이용한 유비쿼터스 가상 현실 기반의 저작 방법 및 저작 장치가 개시된다. 스마트 단말을 이용한 가상 현실 저작 방법은 사용자가 스마트 단말에 로드된 미리 설계된 가상 공간 내에서 원하는 위치로 시점을 이동시키고, 그래픽 유저 인터페이스를 통해 미리 설계된 가상 물건을 선택하여 가상 공간 내에서 활성화시켜 원하는 위치에 배치시킬 수 있다.

Description

홈 컨트롤을 위한 유비쿼터스 가상 현실(UVR) 기반의 저작 장치 및 방법 {AUTHORING TOOL BASED ON UBIQUITOUS VIRTUAL REALITY FOR HOME CONTROL}
스마트 단말을 이용하여 미리 설계된 가상의 공간에 가구나 전자 제품 등의 가상의 물건을 적절한 위치에 배치시키는 저작 방법 및 저작 장치에 관한 것이다.
최근, 스마트 단말의 발전으로 사람들을 정보의 세계로 이끌어 온 PC의 역할이 줄어들고 있으며, 스마트 단말의 급속한 보급으로 인간의 생활이 바뀌고 있다.
스마트 단말은 메시지 전송 기능을 비롯한 본래의 전화 기능 외에 인터넷을 통한 비즈니스, 기본적인 사무 등에 사용되고 있다. 스마트 기능은 가전 제품 중에 최초로 스마트 TV에 적용되었고, 냉장고, 식기세척기, 청소기 등으로 퍼지고 있다.
최근 유비쿼터스 컴퓨팅에 대한 관심이 급증하고 있다. 유비쿼터스 컴퓨팅은 '언제 어디서든 어떤 기기를 통해서도 컴퓨팅 할 수 있는 것'을 의미한다. 즉, 일상생활 곳곳에 숨어 있는 컴퓨팅 자원을 활용하여 스마트한 서비스를 제공받을 수 있는 미래의 컴퓨팅 패러다임이다.
여기서 가상 현실은 컴퓨터의 기술을 응용하여 실제가 아닌 인공적인 환경을 구축하여 그 속에서 인간이 새로운 체험을 하게 하는 새로운 기술을 말한다. 이에 관계된 기술을 가상환경, 인공현실, 사이버스페이스 등으로 부르기도 한다.
유비쿼터스 가상 현실(Ubiquitous Virtual Reality, UVR)의 적용은 스마트 미디어를 통해 크게 확장 될 수 있다. UVR은 컴퓨터 그래픽, 센서 및 디스플레이 기술 등을 포함한 다양한 요소들을 통합하는 융합기술이다.
기존의 PC환경이나 휴대 전화를 통한 홈 네트워크 시스템은, 홈 컨트롤을 위해서 보일러 온/오프와 같은 단순한 신호가 송신된다. 그런데, UVR 개념이 나타나고, 스마트 단말이 발전하면서 스마트 단말의 기술과 UVR 개념을 접목하는 기술이 요구된다.
실내 공간 안에 가구 등의 물건을 배치하려고 할 때, 실제 배치해보지 않고 가상의 현실에서 가상의 물건을 배치해 봄으로써 공간 안에 물건이 들어갈 수 있는지 여부 및 주위 환경과 잘 어울리는지 여부를 미리 알 수 있는 장치 및 방법을 제공한다.
일측에 따른 스마트 단말을 이용한 가상 현실 저작 방법은 사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시키는 단계;, 상기 사용자가 그래픽 유저 인터페이스를 통해 선택한 가상 물건을 상기 가상 공간 내에서 활성화시키는 단계, 및 상기 사용자의 제2 제스쳐에 따라 상기 활성화된 가상 물건을 상기 가상 공간 내에 배치시키는 단계를 포함할 수 있다.
다른 일측에 따르면, 상기 사용자가 그래픽 유저 인터페이스를 통해 선택한 가상 물건을 상기 가상 공간 내에서 활성화시키는 단계는, 상기 단말에 그래픽 유저 인터페이스(GUI)를 이용해 미리 설계된 가상 물건을 불러오는 단계; 및 상기 복수개의 가상 물건 중에 사용자에 의해 선택된 가상 물건을 활성화하는 단계를 포함할 수 있다.
또 다른 측면에 따르면, 미리 설계된 가상 공간은 3차원 컴퓨터 그래픽스용 디자인 소프트웨어를 이용해 설계되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 스마트 단말을 이용한 가상 현실 저작 방법은 가상 물건이 배치된 가상 공간을 스마트 단말 또는 데이터 베이스 중 적어도 하나에 자동으로 저장하는 단계를 더 포함할 수 있다.
일측에 따른 가상 현실 저작 장치는, 사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시키는 시점처리부, 상기 사용자가 그래픽 유저 인터페이스를 통해 선택한 가상 물건을 상기 가상 공간 내에서 활성화시키는 GUI제공부, 및 상기 사용자의 제2 제스쳐에 따라 상기 활성화된 가상 물건을 상기 가상 공간 내에 배치시키는 가상물건처리부를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 집 안에 가재도구를 직접 배치하지 않고도 미리 설계된 가상의 공간 안에 가상의 물건을 배치해 봄으로써 적절한 위치와 부적절한 위치를 판단할 수 있다.
도 1은 본 발명의 일 실시예에 따른 스마트 단말을 이용한 유비쿼터스 가상 현실(UVR) 기반의 저작 방법을 도시한 흐름도이다.
도 2는 본 발명의 일 실시예에 따른 스마트 단말을 이용한 유비쿼터스 가상 현실(UVR) 기반의 저작 장치의 전반적인 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 저작 도구의 배경이 되는 가상 공간과 배치될 가상 물건의 일례를 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 있어서, 유비쿼터스 가상 현실(UVR) 기반의 저작 도구의 시점을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 있어서, 시점 이동을 위한 제1 제스쳐를 입력 받기 위한 가상 조이스틱을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 있어서, 그래픽유저인터페이스(GUI)메뉴와 가상 물건이 활성화되는 실시 일례를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 있어서, 스마트 단말을 이용한 유비쿼터스 가상 현실(UVR) 기반의 저작 도구를 나타낸 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 일 실시예에 따른 유비쿼터스 가상현실 기반의 저작 방법은 유비쿼터스 가상 현실 기반의 저작 장치에 의해 수행될 수 있다.
도 1은 본 발명의 일 실시예에 따른 스마트 단말을 이용한 유비쿼터스 가상 현실(UVR) 기반의 저작 방법을 도시한 흐름도이다.
먼저, 단계(110)에서, 스마트 단말에 디스플레이되는 미리 설계된 가상 공간 상의 방향 전환과 이동을 통해 사용자가 원하는 위치로 가상 물건을 배치할 수 있다. 이때, 가상의 공간은 사용자의 실제 집안 환경과 동일한 형태로 설계될 수 있다. 여기서 가상 공간 상에서의 이동은 스마트 단말의 터치 스크린에 표시되는 가상 조이스틱을 이용하여 방향 및 움직임을 제어할 수 있다.
이어, 단계(120)에서, 사용자는 그래픽 유저 인터페이스(GUI)에 현출되는 미리 설계된 가상 물건을 선택할 수 있다. 선택된 가상 물건은 가상 공간에 배치될 수 있는 상태로 활성화 될 수 있다. 이를테면, 선택된 가상 물건은 드래그될 수 있는 상태로 활성화될 수 있다.
그리고, 단계(130)에서, 사용자의 제2 제스쳐에 따라 활성화된 가상 물건을 가상 공간의 특정 위치에 배치할 수 있다. 일 실시예에 따르면, 제2 제스쳐는 사용자가 활성화 된 가상 물건을 배치하고자 하는 가상 공간으로 드래그&드랍하는 것일 수 있다. 이때, 가상 물건이 드래그되는 동안, 시점으로부터 가상 물건까지의 거리에 따라 가상 물건의 크기를 변경시킬 수 있다. 이를테면 가상 공간 내에서 시점으로부터 가상 물건까지의 거리가 멀어지면 가상 물건을 작게 표시할 수 있다. 또한, 가상의 공간에서 부적절한 위치에 놓이게 되면 가상 물건의 색을 변하게 하여 그 위치에 배치할 수 없음을 표시할 수 있다.
도 2는 본 발명의 일 실시예에 따른 유비쿼터스 가상 현실(UVR) 기반의 저작 장치(200)의 전반적인 구성을 도시한 블록도이다.
먼저, 시점처리부(210)는 사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시킬 수 있다. 여기서, 제1 제스쳐는 저작 장치에 디스플레이 되는 가상 조이스틱에 사용자의 신체에 의한 접촉을 통해 감지되며, 제1 제스쳐를 통해 이동된 방향 및 거리를 감지하고, 그에 대응하는 방향 및 거리만큼 디스플레이 되는 시점을 이동시킬 수 있다.
그러면, GUI제공부(220)는, 이동된 가상 공간에서 미리 설계된 가상 물건을 선택할 수 있도록 그래픽 유저 인터페이스를 제공한다. 사용자는 가상 공간의 원하는 위치에 배치하고자 하는 가상 물건을 GUI를 통해 선택할 수 있다. 그리고 선택된 가상 물건은 가상 공간에 배치될 수 있는 상태로 활성화 된다. 여기서, 활성화되는 것은 사용자가 선택된 가상 물건을 드래그하여 가상 공간 안에 배치할 수 있도록 가상 공간의 중앙에 나타나는 것을 의미할 수 있다.
그러면, 가상물건처리부(230)는, 사용자의 제2 제스쳐에 따라 활성화된 가상 물건을 가상 공간 내에 배치할 수 있도록 한다. 이때, 제2 제스쳐는 활성화된 가상 물건에 사용자의 신체 접촉이 있고, 신체 접촉 지점이 이동되면 그 대응되는 위치로 활성화된 가상 물건을 이동시키며, 신체 접촉 지점이 릴리즈되는 위치에 가상 물건을 배치시키는 것이 될 수 있다.
일 실시예에 따르면, 활성화된 가상 물건이 배치된 가상 공간은 저작 장치의 저장부에 저장될 수 있으며, 이는 별도의 명령 없이 자동으로 저장될 수도 있다.
도 3은 일측에 따른 저작 도구의 배경이 되는 가상 공간(320)과 배치될 가상 물건들(330, 340, 350, 360)의 일례를 나타낸 도면이다.
도 3에서 유비쿼터스 가상 현실 기반의 저작 도구 및 장치를 구현하기 위해 스마트 단말(310)에 미리 설계된 가상 공간(320) 및 가상 물건(330, 340, 350, 360)을 로드할 수 있다. 여기서 배경이 되는 가상의 공간(320) 및 가상 공간에 배치될 가상 물건(330, 340, 350, 360)은 미리 설계된 것일 수 있다. 이때, 가상 공간 및 가상 물건은 사용자가 실제로 거주하는 현실 공간 및 사용자의 가구, 가전 제품 등에 대응될 수 있다. 일 실시예에 따르면 가상의 공간은 3차원 컴퓨터 그래픽스용 디자인 소프트웨어인 3ds MAX를 통해 만들어질 수 있고, 가상의 물건은 3차원 컴퓨터 그래픽스용 디자인 소프트웨어인 Unity3D를 이용하여 제작될 수 있다.
도 4는 본 발명의 일 실시예에 있어서, 유비쿼터스 가상 현실(UVR) 기반의 저작 도구의 시점을 도시한 도면이다.
도 4를 참고하면, 사용자의 시점은 현실성을 위해 1인칭 시점으로 표시될 수 있다. 도 4a에서 가상 캐릭터(411)는 실제의 공간에 사람이 돌아다니는 것과 유사하게 1인칭 시점을 제공하기 위하여 사용된다. 도 4b를 참고하면, 가상 캐릭터(411)의 전면에 위치하는 카메라(421)를 통해 가상 공간을 디스플레이 화면에 표시함으로써, 사용자에게 가상 공간을 1인칭 시점으로 제공할 수 있다.
도 5는 본 발명의 일 실시예에 있어서, 시점 이동을 위한 제1 제스쳐를 입력 받기 위한 가상 조이스틱을 도시한 도면이다.
도 5a를 참고하면, 사용자는 가상 캐릭터의 방향 및 움직임을 제어하기 위해 가상 조이스틱을 이용할 수 있다. 도 5a는 가상 조이스틱(512, 513)의 일례를 도시한 것으로서, 좌측 터치 영역(514), 우측 터치 영역(515)으로 구분될 수 있다. 일 실시예로, 좌측 버튼(512)과 우측 버튼(513)의 좌표를 나타내기 위해 여백(516)을 이용할 수 있다. 스마트 단말의 화면(510)의 중심(511)을 원점으로 하여 버튼의 중심 좌표는 다음 수학식 1과 같이 나타날 수 있다.
Figure 112013029087497-pat00001
도 5b를 참고하면, 가상 조이스틱(512,513) 중 어느 하나를 확대하여 도시한 것이다. 여기서 중심 지점(521)으로부터 터치 지점(522)까지의 거리(523)가 최대거리(524)를 벗어나면, 가상 조이스틱의 x축, y축 좌표는 중심 지점(521)과 터치 지점(522) 직선 연결된 최대거리(524)를 기준으로 설정된다. 다음 수학식 2를 통해 중심 지점의 좌표 (a, b)로부터 터치 지점(522)까지의 거리(Distance)를 구할 수 있다. 일 실시예에 따르면 각도는 다음 수학식 3과 같이 나타날 수 있고, 터치 영역 내에서 터치 지점의 x좌표와 y좌표의 한계값은 수학식 4와 같이 나타날 수 있다.
Figure 112013029087497-pat00002
Figure 112013029087497-pat00003
Figure 112013029087497-pat00004
도 6은 본 발명의 일 실시예에 있어서, 그래픽유저인터페이스(GUI)메뉴와 가상 물건이 활성화되는 실시 일례를 나타낸 도면이다.
도 6a를 참고하면, 실시 일례로 사용자는 그래픽유저인터페이스(GUI)를 이용해 미리 설계된 가상 물건을 선택할 수 있다. 구체적으로 그래픽유저인터페이스(GUI)는 미리 설계된 가상 물건인, 전등(611), 탁자(612), 책상(613) 등을 표시 할 수 있고, 사용자는 표시된 가상 물건을 선택할 수 있다.
도 6b를 참고하면, 선택된 가상 물건(620)은 가상 공간의 중앙에 활성화되어 사용자가 원하는 위치에 배치될 수 있다. 이때, 일 실시예로 그래픽유저인터페이스(GUI)는 선택된 가상 물건(620)인 전등을 하이라이트 표시 하거나, 선택된 가상 물건(620)의 주변 배경을 어둡게 함으로써 가상 물건이 활성화 된 것을 나타낼 수 있다. 일측에서, 선택된 가상 물건이 활성화 된 상태에서도 가상 조이스틱(512, 513)을 이용하여 가상 공간에서 방향 전환 및 시점 이동을 할 수 있다.
도 7은 본 발명의 일 실시예에 있어서, 스마트 단말을 이용한 유비쿼터스 가상 현실(UVR) 기반의 저작 도구를 나타낸 도면이다.
도 7a를 참고하면, 일 실시예로 가상 조이스틱을 이용하여 미리 설계된 가상 공간을 스마트 단말에 로드하여 방향을 전환하거나 시점을 이동시킬 수 있다.
도 7b를 참고하면, 일 실시예로 가상 물건을 배치하고자 하는 위치에 이동한 뒤에 그래픽유저인터페이스를 통해 배치하고자 하는 가상 물건을 선택할 수 있다.
도 7c를 참고하면, 일 실시예로 선택된 가상 물건을 활성화 하여 사용자는 활성화 된 가상 물건을 드래그 함으로써 원하는 위치에 배치 할 수 있다.
도 7d를 참고하면, 일 실시예로 가상 물건을 배치하려는 위치가 부적절한 경우에는 활성화 된 가상 물건이 붉은색으로 표시되어 사용자에게 알려줄 수 있다.
도 7e를 참고하면, 일 실시예로 사용자의 제2 제스쳐에 따라 가상 물건을 배치시킨 후 주변 환경과의 조화 여부를 알아 볼 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (10)

  1. 스마트 단말을 이용한 가상 현실 저작 방법에 있어서,
    사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동 시키는 단계;
    상기 사용자가 그래픽 유저 인터페이스를 통해 선택한 가상 물건을 상기 가상 공간 내에서 활성화시키는 단계; 및
    상기 사용자의 제2 제스쳐에 따라 상기 활성화된 가상 물건을 상기 가상 공간 내에 배치시키는 단계
    를 포함하고,
    상기 사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시키는 단계는,
    상기 가상 공간 상에 위치하는 가상 캐릭터 및 가상 카메라를 이용하여 상기 시점을 1인칭 시점으로 디스플레이하고,
    상기 가상 카메라는,
    상기 1인칭 시점을 제공하기 위해 상기 가상 공간 상에서 상기 가상 캐릭터의 전면에 위치하고,
    상기 가상 물건을 상기 가상 공간 내에서 활성화시키는 단계는,
    상기 사용자에 의해 선택된 가상 물건을 사용자가 원하는 위치에 배치될 수 있도록 가상 공간의 중앙에 1차 배치하여 활성화하고,
    상기 활성화된 가상 물건을 상기 가상 공간 내에 배치시키는 단계는,
    상기 활성화된 가상 물건에 대한 상기 사용자의 신체 접촉이 감지됨에 따라, 사용자의 신체 접촉이 이동하는 지점으로 상기 활성화된 가상 물건을 이동하여 2차 배치시키는 단계; 및
    상기 활성화된 가상 물건이 2차 배치된 공간이 부적절함에 따라 상기 활성화된 가상 물건의 색상을 변경하여 표시하는 단계
    를 포함하고,
    상기 활성화된 가상 물건은,
    상기 2차 배치를 위해 상기 사용자의 신체 접촉이 이동하는 지점으로 이동되는 동안 가상 공간 내에서의 시점으로부터 상기 활성화된 가상 물건까지의 거리에 기초하여 크기가 조절되는 스마트 단말을 이용한 가상 현실 저작 방법.
  2. 제 1항에 있어서,
    상기 가상 물건을 상기 가상 공간 내에서 활성화시키는 단계는,
    상기 단말에 그래픽 유저 인터페이스(GUI)를 이용해 미리 설계된 복수개의 가상 물건을 불러오는 단계; 및
    상기 복수개의 가상 물건 중에 사용자에 의해 선택된 가상 물건을 활성화하는 단계
    를 포함하는 스마트 단말을 이용한 가상 현실 저작 방법.
  3. 제 1항에 있어서,
    사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시키는 단계는,
    상기 가상 공간이 3차원 컴퓨터 그래픽스용 디자인 소프트웨어를 이용해 설계되는 단계
    를 포함하는 스마트 단말을 이용한 가상 현실 저작 방법.
  4. 제1항에 있어서,
    상기 가상 물건이 배치된 상기 가상 공간을 상기 스마트 단말 또는 데이터 베이스 중 적어도 하나에 자동으로 저장하는 단계를 더 포함하는 스마트 단말을 이용한 가상 현실 저작 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시키는 단계는,
    사용자 신체에 의한 접촉 지점이 이동된 방향 및 거리를 감지하는 단계; 및
    상기 이동 방향으로 상기 이동 거리에 대응하는 거리만큼 상기 시점을 이동시키는 단계
    를 포함하는 스마트 단말을 이용한 가상 현실 저작 방법.
  7. 삭제
  8. 삭제
  9. 사용자의 제1 제스쳐에 기초하여 미리 설계된 가상 공간 내에서의 시점을 이동시키는 시점처리부;
    상기 사용자가 그래픽 유저 인터페이스를 통해 선택한 가상 물건을 상기 가상 공간 내에서 활성화시키는 GUI제공부;
    상기 사용자의 제2 제스쳐에 따라 상기 활성화된 가상 물건을 상기 가상 공간 내에 배치시키는 가상물건처리부
    를 포함하고,
    상기 시점 처리부는,
    상기 가상 공간 상에 위치하는 가상 캐릭터 및 가상 카메라를 이용하여 상기 시점을 1인칭 시점으로 디스플레이하고,
    상기 가상 카메라는,
    상기 1인칭 시점을 제공하기 위해 상기 가상 공간 상에서 상기 가상 캐릭터의 전면에 위치하고,
    상기 GUI제공부는,
    상기 사용자에 의해 선택된 가상 물건을 사용자가 원하는 위치에 배치될 수 있도록 가상 공간의 중앙에 1차 배치하여 활성화하고,
    상기 가상물건처리부는,
    상기 활성화된 가상 물건에 대한 상기 사용자의 신체 접촉이 감지됨에 따라, 사용자의 신체 접촉이 이동하는 지점으로 상기 활성화된 가상 물건을 이동하여 2차 배치시키고, 상기 활성화된 가상 물건이 2차 배치된 공간이 부적절함에 따라 상기 활성화된 가상 물건의 색상을 변경하여 표시하고,
    상기 활성화된 가상 물건은,
    상기 2차 배치를 위해 상기 사용자의 신체 접촉이 이동하는 지점으로 이동되는 동안 가상 공간 내에서의 시점으로부터 상기 활성화된 가상 물건까지의 거리에 기초하여 크기가 조절되는 스마트 단말을 이용한 가상 현실 저작 장치.
  10. 제9항에 있어서,
    상기 가상 현실 저작 장치는,
    상기 가상 물건이 배치된 상기 가상 공간을 저장시키는 저장부
    를 더 포함하는 스마트 단말을 이용한 가상 현실 저작 장치.
KR20130036383A 2013-04-03 2013-04-03 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법 KR101483851B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130036383A KR101483851B1 (ko) 2013-04-03 2013-04-03 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130036383A KR101483851B1 (ko) 2013-04-03 2013-04-03 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20140120986A KR20140120986A (ko) 2014-10-15
KR101483851B1 true KR101483851B1 (ko) 2015-01-19

Family

ID=51992645

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130036383A KR101483851B1 (ko) 2013-04-03 2013-04-03 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101483851B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180079953A (ko) 2017-01-03 2018-07-11 주식회사 인스퀘어 착탈기반의 vr 컨트롤러, 이를 포함하는 vr 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102199292B1 (ko) * 2018-11-23 2021-01-06 에스케이텔레콤 주식회사 동영상 저작 장치 및 이를 이용한 동영상 저작 방법
KR102629330B1 (ko) 2018-11-28 2024-01-26 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100524382B1 (ko) * 1999-11-02 2005-10-28 마츠시다 덴코 가부시키가이샤 주거공간 관련 상품 판매 지원 시스템, 주거공간 관련상품 판매 지원 방법, 주거공간 관련 상품 판매 지원용프로그램 및 주거공간 관련 상품 판매 지원용 프로그램을기록한 컴퓨터 판독 가능한 기록 매체
KR100960577B1 (ko) * 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100524382B1 (ko) * 1999-11-02 2005-10-28 마츠시다 덴코 가부시키가이샤 주거공간 관련 상품 판매 지원 시스템, 주거공간 관련상품 판매 지원 방법, 주거공간 관련 상품 판매 지원용프로그램 및 주거공간 관련 상품 판매 지원용 프로그램을기록한 컴퓨터 판독 가능한 기록 매체
KR100960577B1 (ko) * 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180079953A (ko) 2017-01-03 2018-07-11 주식회사 인스퀘어 착탈기반의 vr 컨트롤러, 이를 포함하는 vr 시스템

Also Published As

Publication number Publication date
KR20140120986A (ko) 2014-10-15

Similar Documents

Publication Publication Date Title
US20220375431A1 (en) Detection and display of mixed 2d/3d content
US11775074B2 (en) Apparatuses, systems, and/or interfaces for embedding selfies into or onto images captured by mobile or wearable devices and method for implementing same
US10289376B2 (en) Method for displaying virtual object in plural electronic devices and electronic device supporting the method
EP3928192B1 (en) Wearable electronic device presenting a computer-generated reality environment
US11002974B2 (en) System and method of customizing a user interface panel based on user's physical sizes
US11861056B2 (en) Controlling representations of virtual objects in a computer-generated reality environment
US20160320866A1 (en) System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
CN117311494A (zh) 发光用户输入设备
KR20170036786A (ko) 2차 디스플레이용 모바일 디바이스 입력 제어기
US11954245B2 (en) Displaying physical input devices as virtual objects
US10809910B2 (en) Remote touch detection enabled by peripheral device
US10984607B1 (en) Displaying 3D content shared from other devices
US20200034995A1 (en) System and method of connecting two different environments using a hub
KR101483851B1 (ko) 홈 컨트롤을 위한 유비쿼터스 가상 현실(uvr) 기반의 저작 장치 및 방법
CN112230907B (zh) 程序生成方法、装置、终端及存储介质
CN114432699A (zh) 虚拟房间的装饰方法、装置、设备及介质
CN109871177A (zh) 显示控制方法及移动终端
CN109408472A (zh) 一种文件夹显示方法及终端
CN110531905A (zh) 一种图标控制方法及终端
CN109491572A (zh) 一种移动终端的截屏方法及移动终端
WO2018042923A1 (ja) 情報処理システム、情報処理方法、およびプログラム
US20230206572A1 (en) Methods for sharing content and interacting with physical devices in a three-dimensional environment
US20230334808A1 (en) Methods for displaying, selecting and moving objects and containers in an environment
US20230350539A1 (en) Representations of messages in a three-dimensional environment
WO2023028569A1 (en) Product comparison and upgrade in a virtual environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180111

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190110

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200108

Year of fee payment: 6