KR20120125938A - 가상현실 구현 방법 및 그를 위한 이동통신 시스템 - Google Patents

가상현실 구현 방법 및 그를 위한 이동통신 시스템 Download PDF

Info

Publication number
KR20120125938A
KR20120125938A KR1020110100634A KR20110100634A KR20120125938A KR 20120125938 A KR20120125938 A KR 20120125938A KR 1020110100634 A KR1020110100634 A KR 1020110100634A KR 20110100634 A KR20110100634 A KR 20110100634A KR 20120125938 A KR20120125938 A KR 20120125938A
Authority
KR
South Korea
Prior art keywords
virtual reality
mobile
network
information
reality space
Prior art date
Application number
KR1020110100634A
Other languages
English (en)
Inventor
전창범
Original Assignee
에릭슨 엘지 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에릭슨 엘지 주식회사 filed Critical 에릭슨 엘지 주식회사
Priority to KR1020110100634A priority Critical patent/KR20120125938A/ko
Publication of KR20120125938A publication Critical patent/KR20120125938A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W56/00Synchronisation arrangements
    • H04W56/001Synchronization between nodes
    • H04W56/0015Synchronization between nodes one node acting as a reference for the others
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 이동통신 환경에서 가상현실을 구현하기 위한 방법 및 그를 위한 이동통신 시스템에 관한 것이다. 본 발명의 이동통신 시스템은, 이동 사용자 단말로부터의 가상현실 공간 구현을 위한 기본 정보를 전송하는 모바일 네트워크(mobile network), 적어도 하나의 유비쿼터스 센서(ubiquitous sensor)로부터의 가상현실 공간 구현을 위한 이동 사용자의 주변환경에 대한 부가 정보를 전송하는 센서 네트워트(sensor network), 기본 정보 및 부가 정보를 통합하여(integration) 가상현실 공간 구현을 위한 모델링을 수행하는 데이터 머징 엔티티(data merging entity)를 포함한다.

Description

가상현실 구현 방법 및 그를 위한 이동통신 시스템{METHOD FOR REALIZING VIRTUAL REALITY AND MOBILE TELECOMMUNICATION SYSTEM FOR THE SAME}
본 발명은 이동통신 분야에 관련된 발명으로, 특히 이동통신 환경에서 가상현실을 구현하기 위한 방법 및 그를 위한 이동통신 시스템에 관련된 발명이다.
도 1은 가상현실을 위한 이동통신 시스템의 구성을 보이는 예시도이다.
일반적으로 초고속 네트워크에서 임장감 있는 가상현실을 사용하는 다양한 이동통신 시스템이 존재한다. 이러한 이동통신 시스템은 사용자에게 가상현실 체험할 수 있도록 해주는 대부분의 기능이 포함된 사용자 에이전트(client agent), 각 객체(object)들을 이동통신 시스템의 텀(term)과 매칭시켜 주는 지식 에이전트(knowledge agent) 및 멀티미디어 데이터를 제공하여 현장감을 높일 수 있는 분산 멀티미디어 데이터베이스 서버(Distributed Multimedia Database Server)로 구성된다.
먼저 사용자 에이전트는 사용자 인터페이스(User interface), 제어 매니저(Control Manager), 사용자 객체 매니저(Client Object Manager), 향기 매니저(Scent Manager), 메뉴 매니저(Menu Manager), 비디오 아바타 매니저(Video Avatar Manager), 오디오 매니저(Audio Manager), 사용자 공간 매니저(Client Space Manager)를 포함한다. 각 구성요소의 기능은 다음과 같다.
사용자 인터페이스는 가상현실 구현요청을 받아들이고, 여러 가지 가상현실 공간(space)을 제공한다. 제어 매니저는 사용자의 현재 좌표가 확인된 후 가상현실의 공간에 매칭시킨다. 또한 객체들의 변화와 객체들의 움직임에 대한 부분도 제어한다. 사용자 객체 매니저는 가상현실 공간에서 객체가 정렬될 수 있도록 한다. 그리고 움직임 기능을 객체들에 설정한다. 향기 매니저는 자연물(나무, 꽃 등)과 인공물의 후각 정보를 관리한다. 메뉴 매니저는 여러 기능들을 설정할 수 있는 3D 메뉴를 뜨게 한다. 그리고 3D 메뉴 기능을 제어한다. 비디오 아바타 매니저는 사용자가 가상현실 공간에서 아바타로 투영되도록 제어한다. 그리고 다른 사용자와의 대화도 관리한다. 오디오 매니저는 여러 환경의 소리와 객체들이 움직일 때 발생하는 소리를 제어한다. 사용자 공간 매니저는 각 사용자에게 업데이트(update)된 정보 제공을 제어하고 최신정보를 제공한다. 그리고 상대방 사용자가 공간과 동기를 맞출 수 있도록 해준다.
지식 에이전트는 키워드 매니저(keyword manager), 객체 매니저(object manager), 공간 세션 매니저(space session manager)를 포함한다.
키워드 매니저는 공간의 상태를 언급하는 용어인 키워드와 가상현실 공간 사이의 관계를 설정한다. 객체 매니저는 공간 객체(space object), 맞춤 객체(fittings object), 스펙터클 객체(spectacle object), 보이스 객체(voice object) 등이 저장되는 멀티미디어 데이터베이스(Multimedia database)를 검색(searching)하도록 요청한다. 공간 세션 매니저는 모든 공간에서의 공유정보들을 관리한다.
이러한 사용자 에이전트와 지식 에이전트를 이용한 종래의 기술방식은 고정지점간의 통신에만 적용될 수 있다.
한국 공개 특허 제2005-0050434호 (2005.05.31 공개)
본 발명은 이동통신 환경에서 가상현실을 구현하기 위한 방법 및 그를 위한 이동통신 시스템을 제공한다.
본 발명의 이동통신 시스템은, 이동 사용자 단말로부터의 가상현실 공간 구현을 위한 기본 정보를 전송하는 모바일 네트워크(mobile network); 적어도 하나의 유비쿼터스 센서(ubiquitous sensor)로부터의 상기 가상현실 공간 구현을 위한 상기 이동 사용자의 주변환경에 대한 부가 정보를 전송하는 유비쿼터스 네트워트(ubiquitous network); 및 상기 기본 정보 및 상기 부가 정보를 통합하여(integration) 상기 가상현실 공간 구현을 위한 모델링을 수행하는 데이터 머징 엔티티(data merging entity)를 포함한다.
또한 본 발명의 가상현실 구현 방법은, a) 이동 사용자 단말이 모바일 네트워크(mobile network)로 접속 요청 메시지를 전송하는 단계; b) 상기 모바일 네트워크 주변의 센서 네트워크(sensor network) 존재 여부를 검사하는 단계; c) 상기 이동 사용자 단말이 데이터 머징 엔티티(data merging entity)로 가상현실 공간 구현을 위한 기본 정보를 전송하는 단계; d) 상기 센서 네트워크가 포함하는 적어도 하나의 유비쿼터스 센서(ubiquitous sensor)를 이용하여 센싱한 부가 정보를 상기 데이터 머징 엔티티로 전송하는 단계; 및 e) 상기 데이터 머징 엔티티가 상기 기본 정보 및 상기 부가 정보를 통합하여 상기 가상현실 공간을 모델링하는 단계를 포함한다.
본 발명에 따르면, 시각, 청각, 촉각을 충족시키는 사용자 인터페이스 기술 및 이동통신 네트워크를 개선하여 이동 중에도 가상현실을 체험할 수 있다.
도 1은 가상현실을 위한 이동통신 시스템의 구성을 보이는 예시도.
도 2는 본 발명의 실시예에 따른 네트워크 구성을 보이는 예시도.
도 3은 본 발명의 실시예에 따른 신호 흐름을 보이는 플로우챠트.
이하 첨부된 도면을 참조하여 본 발명의 실시예들에 대해 상세히 설명한다. 다만, 이하의 설명에서는 본 발명의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
본 발명에서는 이동통신 환경에서의 가상현실 통신에 대한 방안을 제시한다. 즉, 한 명의 사용자가 이동 중이거나 장소를 옮긴 상태이고, 상대방은 고정된 지점에서 가상현실 통신을 하는 경우와 양자가 모두 이동 중 일 때의 가상현실 통신 방안에 대해 제시한다.
도 2는 본 발명의 실시예에 따른 네트워크 구성을 보이는 예시도이다.
제1 실시예
-한 명의 사용자만 이동통신 환경에 있을 경우-
고정된 지점에 있는 상대방은 실감나는 가상현실 통신을 위해 가상현실 공간(cave)에 들어가거나 HMD(head mounted display)를 착용하도록 한다. 비록 사용자가 가상현실 공간 안에 앉아 있더라도 이동 사용자의 단말 및 주변 WPAN(wireless personal area network)에 속한 유비쿼터스 방식의 센서 네트워크(Ubiquitous Sensor Network)를 통해 이동 사용자와 같은 가상환경에 포함되어 있으므로 가상현실 공간에서는 3D 디스플레이로 상대방과 상대방 주변의 환경까지 전자적인(electronics) 방식으로 볼 수 있다. 센서 네트워크는 적어도 하나의 태그, 센서 등을 이용하여 사물이나 환경정보를 감지하거나 이를 저장, 가공, 통합해 상황인식정보와 지식콘텐츠를 만들어 활용할 수 있다. 또한, 가상현실 공간에서는 소리의 발생 위치까지 알 수 있는 MPEG-4의 재생을 적용하며, 후각, 미각, 촉각 등을 구현할 수 있다. 특히 촉각의 경우, 가상현실 공간 안의 사용자가 가상현실 체험용 장갑(이하 글로브 라고 함)을 착용하여 상대방과 악수를 하거나, 상대방이 가리키는(pointing) 사물을 직접 만지는 느낌을 체감할 수 있도록 한다. 일 실시예로서, 이동 사용자가 여행을 갈 경우 가상현실 공간 안의 사용자는 이동 사용자가 여행중인 원격지에 직접 동행하는 것과 같은 느낌을 받을 수 있고, 이동 사용자가 쇼핑 중일 경우 가상현실 공간 안의 사용자는 이동 사용자와 동행하는 것과 같이 물건을 같이 골라줄 수 있게 된다. 그리고 군용으로 사용시 경계근무 인원이 이동 사용자일 경우, 가상현실 공간 안에서도 경계근무 인원과 함께 임무를 수행할 수 있다.
그러나 이러한 정보를 이동 환경에 있는 사용자의 단말 하나만으로 모두 센싱(sensing)해서 데이터를 전송하기는 불가능하고, 네트워크의 부하(load)도 상당히 증가하게 된다. 이에 대한 대안으로 센서 네트워크를 같이 활용하는 방법을 제안한다. 이동환경에 있는 상대방은 자신의 모습이나 음성뿐만 아니라 주변 환경의 시각, 음성, 음향, 음원 위치 등의 모든 정보와 자신이 만지는 물체의 촉각 정보까지 모두 가상현실 공간 안에 있는 상대방에게 전달해야 한다. 이동 환경에 있는 사용자가 갖고 있는 단말로는 기본 정보 즉, 이동 사용자의 모습, 음성, 주변인의 음성 외에 다른 모든 정보를 센싱하기는 어렵다. 따라서 다음과 같은 절차로 가상현실 구현을 진행한다. 이동 사용자가 가상현실 통신을 시작하고자 할 경우, 먼저 이동 사용자 주변에 있는 센서 네트워크의 현황을 감지하고, 사용자 단말에서 감지하기 어려운 부가 정보 즉, 주변 환경의 시각, 음성, 음향, 음원 위치 등의 정보를 해당 센서 네트워크에 요청하여 파악하도록 한다. 이런 정보들이 센서 네트워크를 통해 가상현실 공간에 전달되면, 가상현실 공간에서는 이동 사용자 주변의 환경을 모델링하게 된다. 물론 이러한 각 정보들이 실시간으로 매칭(matching) 되려면 센서 네트워크와 이동 사용자의 모바일 네트워크의 시간 동기가 정확히 맞아야 한다. 시간 동기화를 위하여 NTP(network time protocol) 서버를 이용할 수 있다
촉각 정보의 경우, 이동 사용자가 글로브를 착용하여 글로브로 물체를 만져서 해당 물체에 대한 정보들을 글로브 단말을 통해 가상현실 공간으로 송신하게 하여, 가상현실 공간 안의 사용자가 자신이 착용하고 있는 글로브로부터 이동 사용자가 만지는 촉감을 느낄 수 있도록 한다. 이렇게 물건을 만지고 느끼고 잡는 등의 행위를 통해 디지털 정보를 조작하게 하는 실체적인 인터페이스(tangible interface)는 이동 사용자의 실제공간과 가상현실 공간 안의 가상 공간 사이에 벽이 없게 하는 효과를 가져온다.
가상현실 공간에서 이동 사용자로의 통신의 경우, 가상현실 공간 안의 사용자의 정보들은 이동 사용자의 단말에 설치된 홀로그램 재생기를 통해 이동 사용자 앞에 투영되도록 한다. 홀로그램 재생기는 이동 사용자 단말 내부에 포함될 수도 있고, 이동 사용자 단말 외부에 부착될 수도 있다. 마치 실재 세계와 가상 세계를 결합하여 실물과 가상 객체(상대방 사용자)가 공존하는 상황으로 만들어 양측 사용자 모두 해당 환경과 실시간으로 상호 작용할 수 있게 하는 혼합현실(Mixed Reality)을 구현하는 것과 유사하다. 이를 구현하기 위해 이동 사용자가 소지한 모바일 기기(차세대 휴대폰 또는 몸에 착용가능한 장치 일수도 있음)에 부착된 카메라의 위치를 인식하는 기술, 입력된 실세계 공간에 가상의 디지털 정보를 정합하고 표현하는 기술(가상현실 공간 안 사용자의 홀로그램을 의미), 이동 사용자가 자신의 눈앞에 나타난 가상현실 공간 사용자의 홀로그램과 현실감 있게 상호작용하는 기술이 필요하다.
단 이동 사용자에게는 가상현실 공간 안 사용자의 영상정보와 음성정보, 그리고 간단한 움직임 정보만 인식할 수 있게 하면 된다(예를 들면, 가상현실 공간 안의 사용자가 가상현실 공간 안에서 체험하는 이동 사용자 주변환경을 체험하며 몸의 방향을 돌리거나 걷거나 팔을 움직이고 손가락으로 어느 지점을 가리키는 정도의 행동). 주의할 점은, 이동 사용자 앞에 투영된 가상현실 공간 사용자의 홀로그램의 공간정보가 가상현실 공간 안에 투영된 이동 사용자 주변 환경의 공간정보와 동기화되어야 한다는 것이다. 그러기 위해 홀로그램이 투영된 위치정보와 가상현실 공간 안에 있는 사용자 주변에 투영된 공간 속에서의 사용자 위치는 GPS(global positioning system)로 동기화를 맞추도록 한다. 사용자 위치의 공간적 동기화가 이루어지지 않을 경우, 가상현실 공간 안의 사용자가 이동사용자 주변 공간을 보면서 손가락으로 가리키는 특정 지점과 이동 사용자 앞에 나타난 상대방의 홀로그램에서 가리키는 지점이 불일치하게 된다. 따라서 가상 환경과 실제 환경의 3차원 좌표가 정확히 일치되어야 한다. 가상 환경과 실제 환경의 공간적 동기화는 영상정합 기술을 활용할 수 있다.
네트워크의 필요 용량을 줄이기 위해 가상현실 공간 안에 주대화 상대를 기계적인 장치(robotics)로 구현하도록 한다. 어차피 가상현실 공간 안에 있는 사용자의 대화 상대방은 정해져 있으므로 기계적인 장치로 구현된 상대방과 대화하며 주변 환경만 전자적으로 구현하도록 한다.
제2 실시예
-양자가 모두 이동 중 일 때의 가상현실 통신 방안-
고정된 가상현실 공간을 활용하는 사용자가 없으므로 실제감은 많이 떨어지게 된다. 홀로그램으로 상대방의 모습과 음성정보를 제공받게 되며, 자신의 모습과 음성정보는 홀로그램으로 상대방 이동 사용자 근처에 디스플레이된다. 경우에 따라서 가상현실 공간이 홀로그램으로 투영되게 하여 가상현실 공간 밖에서도 실제감을 느낄 수 있도록 한다. 하지만 이런 경우 대용량 네트워크가 지원되어야 하고, 가상현실 공간을 구현하기 위한 홀로그램 단말의 기능도 지원되어야 한다. 일 실시예로서, 이동 사용자의 단말에서 홀로그램을 발생시켜 이동 사용자의 주변을 홀로그램으로 둘러싸서 배경이 디스플레이되고, 상대방 사용자의 모습이 3차원으로 디스플레이되도록 구현될 수 있다.
센서 네트워크는 언제, 어디서나, 누구나 원하는 지식과 서비스를 제공하는 사회의 기반 인프라가 되는 셈이다. 센서 네트워크에 포함된 일부 센서에는 소형카메라가 부착되어, 이동 사용자 주변의 환경을 모델링 하는데 필요한 부가정보를 제공할 수 있다.
본 실시예의 네트워크는 모바일 네트워크(Mobile Network) 및 가상현실 공간 네트워크(Cave Network)를 포함한다. 모바일 네트워크에는 LTE, LTE-Advanced 네트워크 등을 적용하도록 하고, 모바일 네트워크와 별도로 센서 네트워크도 구성요소에 포함된다. 가상현실 공간 네트워크는 모바일 네트워크에서 전송된 정보들을 PDN(public data network)을 통하여 데이터 머징 엔티티(data merging entity)에서 모든 정보를 통합(integration)한 후, 가상현실 공간으로 제공하도록 한다.
이동 사용자에서 가상현실 공간 사용자로 전달되는 정보의 경우, 이동 사용자는 기본적으로 휴대폰이나 몸에 착용하는 단말을 사용하는데, 단말을 통해서는 자신의 모습과 음성, 단말의 카메라로 센싱한 주변환경의 시각정보와 잡음 정도만 모바일 네트워크를 통해 전송한다. 센서 네트워크는 이동 사용자의 단말과 WPAN으로 교신하면서 이동 사용자 주변환경에 대한 각종 정보(주변 시각정보 및 소리의 발생 위치)를 수집하게 된다. 모바일 네트워크 및 센서 네트워크는 NTP 서버를 이용하여 시간 동기화(time synchronization)가 이루어지도록 하고, GPS를 통해 공간 동기화(space synchronization)가 이루어지도록 한다. 그리고 All-IP(internet protocol) 네트워크이므로 센서 네트워크, 이동 사용자 단말, 가상현실 공간 네트워크 모두 IP로 라우팅 된다.
모바일 네트워크 및 센서 네트워크를 통해 가상현실 공간까지 도달한 정보들은 통합되어 최종적으로 사용자 주변 환경을 모델링 하게 된다. 그리고 이러한 정보는 가상현실 공간 내부에 있는 디스플레이를 통해 사용자에게 보여지게 된다.
가상현실 공간 사용자에서 이동 사용자로 전송되는 정보의 경우, 센서 네트워크는 사용하지 않고 오직 모바일 네트워크만 사용하도록 한다. 사용자가 가상현실 공간 안에 서 있는 위치가 가상현실 공간 안에서 보여주는 환경과 정합되어 3차원 좌표를 인식한 후, 이동사용자에게 영상, 음성, 몸짓 정보 등과 함께 전송하게 된다.
도 3은 본 발명의 실시예에 따른 신호 흐름을 보이는 플로우챠트이다.
도 3을 참조하면, 단말(10)은 모바일 네트워크(20)에 접속 요청 메시지를 전송한다(S110).
모바일 네트워크(20)는 주변에 어떠한 센서 네트워크(sensor network, 30)가 존재하는지 WPAN을 통해 파일롯(pilot) 신호를 보내 체크한다(S120).
검색된 센서 네트워크(30)는 WPAN을 통해 당 사용자 주변에서 동작(operation)이 가능함을 알려준다(S130). 모바일 네트워크(20), 센서 네트워크(30), 데이터 머징 엔티티(Data Merging Entity, 40)간 시간 동기화를 NTP 서버를 이용하여 수행한다(S140).
데이터 머징 엔티티(40)는 모바일 네트워크(20) 및 센서 네트워크(30)로 시간 동기화에 대한 확인 메시지(acknowledge)를 전송한다(S150).
이후 단말(10)과 모바일 네트워크(20)간에 기본적인 호처리 과정이 진행된다(S160).
단말(10)에서는 가상현실 공간 앞 단에 있는 데이터 머징 엔티티(40)로 자신의 영상,음성,단말의 카메라로 센싱한 주변환경의 시각정보, 잡음 등의 기본 정보들만 전송한다(S170).
센서 네트워크(30)의 적어도 하나의 유비쿼터스 센서를 이용하여 센싱한 이동 사용자 주변의 부가 정보들은 바로 데이터 머징 엔티티(40)로 전송한다(S180).
데이터 머징 엔티티(40)에서는 모바일 네트워크(20) 및 센서 네트워크(30)의 정보를 취합하여 가상현실 공간에 전달할 가상현실 데이터를 통합하여 가상현실 공간을 모델링한다(S190).
가상현실 공간에 데이터가 제대로 전달되면 성공 확인 메시지(success ack)를 단말(10)로 전송한다(S200).
가상현실 공간에서 단말(10)측으로 데이터를 보내게 되면, GPS에 기반한 3D 좌표가 단말(10)과 가상현실 공간 사이에 계속 일치할 수 있도록 공간 동기화를 수행한다(S210).
단말(10)에서는 가상현실 공간으로 확인 메시지(Ack)를 전송한다(S220).
가상현실 공간에서는 사용자 정보와 현재 가상현실 상태 피드백(feedback)을 단말(10)로 전송하여 동기화를 계속 수행할 수 있도록 한다(S230).
동기화가 계속 수행될 수 있도록, 단말(10)과 가상현실 공간 사이의 루핑(looping)이 계속 이루어지도록 한다(S240).
가상현실 공간 사용자의 데이터는 모바일 네트워크만을 통해 단말 사용자에게 전달될 수 있도록 한다(S250).
상기 방법들은 특정 실시예들을 통하여 설명되었지만, 상기 방법들은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
본 명세서에서는 본 발명이 일부 실시예들과 관련하여 설명되었지만, 본 발명이 속하는 기술분야의 당업자가 이해할 수 있는 본 발명의 정신 및 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
10: 이동 사용자 단말 20: 모바일 네트워크
30: 센서 네트워크 40: 데이터 머징 엔티티
50: 가상현실 공간 네트워크

Claims (18)

  1. 이동통신 시스템으로서,
    이동 사용자 단말로부터의 가상현실 공간 구현을 위한 기본 정보를 전송하는 모바일 네트워크;
    적어도 하나의 유비쿼터스 센서로부터의 상기 가상현실 공간 구현을 위한 상기 이동 사용자의 주변환경에 대한 부가 정보를 전송하는 센서 네트워트; 및
    상기 기본 정보 및 상기 부가 정보를 통합하여 상기 가상현실 공간 구현을 위한 모델링을 수행하는 데이터 머징 엔티티(data merging entity)를 포함하는, 이동통신 시스템.
  2. 제1항에 있어서,
    상기 센서 네트워크는,
    상기 이동 사용자 단말과 WPAN(wireless personal ares network)을 이용하여 송수신을 수행하는, 이동통신 시스템.
  3. 제1항에 있어서,
    상기 모바일 네트워크 및 상기 센서 네트워크는, NTP(network time protocol) 서버를 이용하여 시간 동기화를 수행하는, 이동통신 시스템.
  4. 제1항에 있어서,
    상기 모바일 네트워크 및 상기 센서 네트워크는, GPS(global positioning system)를 이용하여 공간 동기화를 수행하는, 이동통신 시스템.
  5. 제1항에 있어서,
    상기 기본 정보는,
    상기 이동 사용자 단말을 이용하여 감지할 수 있는 정보를 포함하는, 이동통신 시스템.
  6. 제5항에 있어서,
    상기 기본 정보는,
    상기 이동 사용자의 모습, 음성 및 주변인의 음성 정보를 포함하는, 이동통신 시스템.
  7. 제1항에 있어서,
    상기 부가 정보는,
    상기 적어도 하나의 유비쿼터스 센서를 이용하여 감지할 수 있는 정보를 포함하는, 이동통신 시스템.
  8. 제7항에 있어서,
    상기 부가 정보는,
    상기 이동 사용자의 주변 환경의 시각, 음성, 음향 또는 음원 위치 정보 중 적어도 하나를 포함하는, 이동통신 시스템.
  9. 제1항에 있어서,
    상기 이동 사용자 단말은, 상기 이동 사용자가 글로브를 착용하여 획득한 촉각 정보를 상기 데이터 머징 엔티티로 전송하는, 이동통신 시스템.
  10. 제1항에 있어서,
    상기 가상현실 공간은,
    이동 사용자 단말을 이용하여 구현될 경우 홀로그램을 이용하는, 이동통신 시스템.
  11. 제1항에 있어서,
    상기 데이터 머징 엔티티는,
    상기 가상현실 공간 안의 대화 상대를 기계적인 장치(robotics)로 구현하는, 이동통신 시스템.
  12. 제1항에 있어서,
    상기 센서 네트워크는,
    유비쿼터스(Ubiquitous) 방식을 이용하는, 이동통신 시스템.
  13. 가상현실 구현 방법으로서,
    a) 이동 사용자 단말이 모바일 네트워크로 접속 요청 메시지를 전송하는 단계;
    b) 상기 모바일 네트워크 주변의 센서 네트워크 존재 여부를 검사하는 단계;
    c) 상기 이동 사용자 단말이 데이터 머징 엔티티(data merging entity)로 가상현실 공간 구현을 위한 기본 정보를 전송하는 단계;
    d) 상기 센서 네트워크가 포함하는 적어도 하나의 유비쿼터스 센서를 이용하여 센싱한 부가 정보를 상기 데이터 머징 엔티티로 전송하는 단계; 및
    e) 상기 데이터 머징 엔티티가 상기 기본 정보 및 상기 부가 정보를 통합하여 상기 가상현실 공간을 모델링하는 단계를 포함하는, 가상현실 구현 방법.
  14. 제13항에 있어서,
    상기 센서 네트워크는,
    상기 이동 사용자 단말과 WPAN(wireless personal ares network)을 이용하여 송수신을 수행하는, 가상현실 구현 방법.
  15. 제13항에 있어서,
    상기 모바일 네트워크 및 상기 센서 네트워크는, NTP(network time protocol)를 이용하여 시간 동기화를 수행하고, GPS(global positioning system)를 이용하여 공간 동기화를 수행하는, 가상현실 구현 방법.
  16. 제13항에 있어서,
    상기 이동 사용자 단말은, 상기 이동 사용자가 글로브를 착용하여 획득한 촉각 정보를 상기 데이터 머징 엔티티로 전송하는, 가상현실 구현 방법.
  17. 제13항에 있어서,
    상기 가상현실 공간은,
    이동 사용자 단말을 이용하여 구현될 경우 홀로그램을 이용하는, 가상현실 구현 방법.
  18. 제13항에 있어서,
    상기 데이터 머징 엔티티는,
    상기 가상현실 공간 안의 대화 상대를 기계적인 장치(robotics)로 구현하고, 유비쿼터스(Ubiquitous) 방식을 이용하는, 가상현실 구현 방법.
KR1020110100634A 2011-05-09 2011-10-04 가상현실 구현 방법 및 그를 위한 이동통신 시스템 KR20120125938A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110100634A KR20120125938A (ko) 2011-05-09 2011-10-04 가상현실 구현 방법 및 그를 위한 이동통신 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110043623 2011-05-09
KR1020110100634A KR20120125938A (ko) 2011-05-09 2011-10-04 가상현실 구현 방법 및 그를 위한 이동통신 시스템

Publications (1)

Publication Number Publication Date
KR20120125938A true KR20120125938A (ko) 2012-11-19

Family

ID=47511415

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110100634A KR20120125938A (ko) 2011-05-09 2011-10-04 가상현실 구현 방법 및 그를 위한 이동통신 시스템

Country Status (1)

Country Link
KR (1) KR20120125938A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150143659A (ko) * 2013-04-12 2015-12-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 홀로그램 스냅 그리드
WO2016108424A1 (ko) * 2014-12-31 2016-07-07 경희대학교 산학협력단 공간 구현 방법 및 그 장치
WO2019146830A1 (ko) * 2018-01-25 2019-08-01 (주)이지위드 공간상 좌표를 마커로 활용하는 실시간 동기화된 증강현실 콘텐츠 제공 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150143659A (ko) * 2013-04-12 2015-12-23 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 홀로그램 스냅 그리드
WO2016108424A1 (ko) * 2014-12-31 2016-07-07 경희대학교 산학협력단 공간 구현 방법 및 그 장치
US10534333B2 (en) 2014-12-31 2020-01-14 University-Industry Cooperation Group Of Kyung Hee University Space implementation method and apparatus therefor
WO2019146830A1 (ko) * 2018-01-25 2019-08-01 (주)이지위드 공간상 좌표를 마커로 활용하는 실시간 동기화된 증강현실 콘텐츠 제공 장치 및 방법

Similar Documents

Publication Publication Date Title
US20230393796A1 (en) Controlling external devices using reality interfaces
JP7109408B2 (ja) 広範囲同時遠隔ディジタル提示世界
CN105264460B (zh) 全息图对象反馈
US10996757B2 (en) Methods and apparatus for generating haptic interaction for virtual reality
US20190102928A1 (en) Virtual Reality
US20180288391A1 (en) Method for capturing virtual space and electronic device using the same
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
CN106997241A (zh) 虚拟现实环境中与真实世界互动的方法与虚拟现实系统
US20120327091A1 (en) Gestural Messages in Social Phonebook
US11806621B2 (en) Gaming with earpiece 3D audio
JP2017028390A (ja) 仮想現実空間音声コミュニケーション方法、プログラム、プログラムを記録した記録媒体、および、装置
KR20120125938A (ko) 가상현실 구현 방법 및 그를 위한 이동통신 시스템
WO2022066438A1 (en) Asymmetric presentation of an environment
KR20180113115A (ko) 전자장치 및 이의 동작방법
KR20200116380A (ko) 모바일을 이용한 vr 디바이스에 호환 가능한 스포츠 기기와 컨테츠 제공 방법
US20240069352A1 (en) Handheld Controllers with Charging and Storage Systems
WO2022149496A1 (ja) エンタテインメントシステムおよびロボット
WO2023246159A1 (zh) 一种虚拟现实的交互方法、相关装置、设备以及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application