KR20120019007A - 가상 현실 연동 서비스 제공 시스템 및 그 방법 - Google Patents

가상 현실 연동 서비스 제공 시스템 및 그 방법 Download PDF

Info

Publication number
KR20120019007A
KR20120019007A KR1020100082071A KR20100082071A KR20120019007A KR 20120019007 A KR20120019007 A KR 20120019007A KR 1020100082071 A KR1020100082071 A KR 1020100082071A KR 20100082071 A KR20100082071 A KR 20100082071A KR 20120019007 A KR20120019007 A KR 20120019007A
Authority
KR
South Korea
Prior art keywords
information
virtual
user
setting
virtual reality
Prior art date
Application number
KR1020100082071A
Other languages
English (en)
Other versions
KR101505060B1 (ko
Inventor
주상현
박창준
최병태
이길행
이영직
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020100082071A priority Critical patent/KR101505060B1/ko
Priority to US13/216,846 priority patent/US20120050325A1/en
Publication of KR20120019007A publication Critical patent/KR20120019007A/ko
Application granted granted Critical
Publication of KR101505060B1 publication Critical patent/KR101505060B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 가상 현실 연동 서비스 제공 시스템 및 그 방법에 관한 것으로, 본 발명의 일면에 따른 가상 현실 연동 서비스 제공 서버는 이용자 정보, 현실 객체 특성 정보, 객체 움직임 정보 및 객체별 설정 정보 중 적어도 하나를 제공받는 수신부와, 가상 공간을 생성 및 설정하는 가상 공간 설정부와, 현실 객체 특성 정보 및 객체 움직임 정보에 따라 현실 객체에 대응하는 가상 객체를 생성 및 관리하는 가상 객체 관리부와, 이용자에게 제공 가능한 부가 서비스 제공을 위한 적어도 하나 이상의 대상 객체를 생성 및 관리하는 대상 객체 관리부와, 가상 객체, 대상 객체 및 아바타 객체에 대응되는 객체별 오감 효과를 생성 및 관리하는 오감 효과 관리부와, 객체별 설정 정보에 따라 오감 효과 관리부의 각 객체별 오감 효과가 변경되도록 설정하는 오감 효과 설정부와, 가상 객체, 아바타 객체 및 대상 객체 중 적어도 하나를 가상 공간상에 매칭하는 매칭부와, 매칭의 결과에 따라 렌더링을 수행하는 렌더링부 및 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스를 생성하는 서비스 생성부를 포함한다.

Description

가상 현실 연동 서비스 제공 시스템 및 그 방법{SYSTEM AND METHOD FOR PROVIDING VIRTUAL REALITY LINKING SERVICE}
본 발명은 가상 현실 연동 서비스 제공 시스템 및 그 방법에 관한 것으로서, 구체적으로는 현실과 가상세계를 융합하는 서비스인 가상 현실 연동 서비스를 제공하는 가상 현실 연동 서비스 제공 시스템 및 그 방법에 관한 것이다.
본 발명은 지식경제부의 가상세계와 현실세계 연동서비스 프레임워크 표준개발 사업의 일환으로 수행한 연구로부터 도출된 것이다. [과제관리번호: 2010-P1-28, 과제명: 가상세계와 현실세계 연동서비스 프레임워크 표준개발]
종래의 가상 현실 연동 기술은 현실 세계의 현실 객체에 대응하는 가상 객체를 생성하고, 가상 공간상에 표현하여 이용자가 가상 현실을 즐길 수 있도록 한다. 하지만, 이용자는 가상 현실 상의 객체를 이용자의 의도대로 변형할 수 없어, 주어진 그대로의 가상 현실 연동 서비스를 이용할 수 밖에 없었다. 따라서, 종래의 가상 현실 연동 기술로는 이용자가 원하는데로 가상 세계를 재구성하여 현실과 가상을 자유롭게 왕래할 수 없다.
본 발명의 목적은 가상 세계, 현실 세계 및 이용자를 연결하고, 이용자가 원하는 형태로 가상 공간을 재구성하여 현실과 가상을 자유롭게 왕래하는 가상 현실 연동 서비스 제공 시스템 및 그 방법을 제공하는 것이다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일면에 따른 가상 현실 연동 서비스 제공 서버는 이용자를 타 이용자와 구별하기 위한 이용자 정보, 현실 객체로부터 사람의 감각을 자극하는 감각적 특성이 추출된 정보를 포함하는 현실 객체 특성 정보, 현실 객체의 움직임에 관한 정보인 객체 움직임 정보 및 객체별 설정 정보 중 적어도 하나를 제공받는 수신부와, 가상 공간을 생성 및 설정하는 가상 공간 설정부와, 현실 객체 특성 정보 및 객체 움직임 정보에 따라 현실 객체에 대응하는 적어도 하나 이상의 가상 객체를 생성 및 관리하는 가상 객체 관리부와, 가상 공간에서 이용자에게 제공 가능한 서비스를 포함하는 적어도 하나 이상의 대상 객체를 생성 및 관리하는 대상 객체 관리부와, 가상 객체 및 대상 객체 중 적어도 하나에 대응되는 객체별 오감 효과를 생성 및 관리하는 오감 효과 관리부와, 객체별 설정 정보에 따라 오감 효과 관리부의 각 객체별 오감 효과가 변경되도록 설정하는 오감 효과 설정부와, 가상 객체 및 대상 객체 중 적어도 하나를 각각에 대응되는 객체별 오감 효과를 반영하여 가상 공간상에 매칭하는 매칭부와, 매칭의 결과에 따라 렌더링을 수행하는 렌더링부 및 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스를 생성하는 서비스 생성부를 포함한다.
본 발명의 다른 면에 따른 가상 현실 연동 서비스 제공 단말기는 타 이용자와 구별하기 위한 이용자 정보를 입력받는 이용자 정보 입력부와, 이용자 정보에 대응되는 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스를 제공받는 수신부와, 이용자 주위에 현실적으로 존재하는 현실 객체로부터 사람의 감각을 자극하는 감각적 특성을 추출하여 현실 객체 특성 정보를 생성하는 현실 객체 특성 정보 생성부와, 현실 객체의 물리적 움직임을 인식하여 객체 움직임 정보를 생성하는 객체 움직임 정보 생성부 및 이용자 정보, 현실 객체 특성 정보 및 객체 움직임 정보를 제공하는 송신부를 포함한다.
본 발명의 또 다른 면에 따른 가상 현실 연동 서비스 제공 방법은 이용자를 타 이용자와 구별하기 위한 이용자 정보를 제공받는 단계와, 이용자 정보에 대응하는 아바타 설정 정보를 포함하는 프로파일들을 관리하는 단계와, 프로파일에 따라 가상 공간 상의 분신인 아바타 객체를 생성하는 단계와, 가상 공간을 설정하는 단계와, 현실 객체로부터 사람의 감각을 자극하는 감각적 특성이 추출된 정보를 포함하는 현실 객체 특성 정보를 생성하는 단계와, 현실 객체의 움직임에 관한 정보인 객체 움직임 정보 및 객체별 설정 정보를 생성하는 단계와, 현실 객체 특성 정보 및 객체 움직임 정보 중 적어도 하나를 제공받는 단계와, 현실 객체 특성 정보 및 객체 움직임 정보 중 적어도 하나에 따라 현실 객체에 대응하는 적어도 하나 이상의 가상 객체를 생성하는 단계와, 가상 공간에서 이용자에게 제공 가능한 서비스를 포함하는 적어도 하나 이상의 대상 객체를 생성하는 단계와, 복수의 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 각 객체별 오감 효과를 생성하는 단계와, 각 객체별 설정 정보에 따라 각 객체별 오감 효과가 변형되도록 설정하는 단계와, 가상 객체, 아바타 객체 및 대상 객체 중 적어도 하나를 각각에 대응되는 각 객체별 오감 효과를 반영하여 가상 공간상에 매칭하는 단계와, 매칭의 결과에 따라 렌더링을 수행하는 단계 및 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스를 생성하는 단계를 포함한다.
본 발명에 따르면, 가상 세계, 현실 세계 및 이용자를 연결하고, 이용자가 원하는 형태로 가상 공간을 재구성하여 현실과 가상을 자유롭게 왕래하는 가상 현실 연동 서비스 제공 시스템 및 그 방법을 제공한다.
따라서, 이용자는 가상 현실 연동 서비스 제공 시스템을 통해 타 이용자와 가상 공간을 공유하여, 가상 세계 속의 사회 활동을 즐길 수 있다. 이용자는 가상 현실 연동 서비스 제공 시스템을 통해 이용자가 원하는데로 가상 객체를 자유롭게 변형하여, 가상 객체 및 가상 공간을 재구성하게 되므로, 이용자가 원하는 모습의 가상 세계 속에서 사회 활동을 하는 것이 가능해진다.
도 1은 아우린 서비스를 통해 현실세계와 가상세계가 연동되는 과정을 설명하기 위한 도면이다.
도 2a 및 도 2b는 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 서버와 가상 현실 연동 서비스 제공 단말기가 수행하는 절차를 도시한 절차도이다.
도 3은 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 서버의 구조를 도시한 블록도이다.
도 4는 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 단말기의 구조를 도시한 블록도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로서, 본 발명은 청구항의 기재에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
본 발명에 따른 가상 현실 연동 서비스 제공 시스템 및 그 방법은 가상 세계, 현실 세계 및 이용자를 연결하고, 이용자가 원하는 형태로 가상 공간을 재구성하여 현실과 가상을 자유롭게 왕래(Out & In)하는 가상 현실 연동 서비스를 제공한다. 한편, 본 명세서에서는 설명의 편의와 이해의 증진을 위하여 본 발명에 따른 가상 현실 연동 서비스를 아우린(Out & In Service) 서비스라고 칭하도록 한다.
이하, 도 1을 참조하여 본 발명에 따른 아우린 서비스를 설명한다.
도 1은 아우린 서비스를 통해 현실세계와 가상세계가 연동되는 과정을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 이용자는 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 시스템(이하, 아우린 시스템)을 통하여 가상 세계와 현실 세계가 연동된 아우린 서비스를 제공받을 수 있다.
전술한 바와 같이, 아우린 시스템은 가상 세계, 현실 세계 및 이용자를 연결하고, 이용자가 원하는 형태로 가상 공간을 재구성하여 현실과 가상을 자유롭게 왕래(Out & In)하는 아우린 서비스를 제공한다. 즉, 아우린 시스템은 가상 공간을 설정하고, 현실에서 존재하는 사람, 사물, 건물, 장치에 대응하는 가상 객체를 생성하여 가상 세계를 구축한다. 이러한, 가상 객체는 아우린 시스템을 통하여 인식, 표현 및 제어될 수 있고, 이용자는 아우린 시스템을 이용하여, 자신이 원하는 바에 따라 가상 객체 및 가상 공간을 재구성할 수 있다. 또한, 아우린 시스템은 현실 세계의 제어 가능한 각종 제어 장치를 이용하여 가상 객체 및 가상 공간을 표현한다.
따라서, 이용자는 아우린 시스템을 통해 타 이용자와 가상 공간을 공유하여, 가상 세계 속의 사회 활동을 즐길 수 있다. 이용자는 아우린 시스템을 통해 이용자가 원하는데로 가상 객체를 자유롭게 변형하여, 가상 객체 및 가상 공간을 재구성하게 되므로, 이용자가 원하는 모습의 가상 세계 속에서 사회 활동을 하는 것이 가능해진다.
아우린 시스템의 서비스 요소는, 현실세계를 가상으로 매핑하는 미러월드 기술과, 아우린 시스템을 통하여 가상세계의 서비스를 연동하는 가상세계 인식 기술과, 아우린 시스템을 통하여 가상세계에 정보를 입력하거나 객체를 제어하는 가상 세계 표현 및 제어 기술과, 아우린 시스템을 통하여 현실세계의 사람, 사물, 건물 및 장치 등을 인식하는 현실세계 인식 기술을 포함한다.
또한, 아우린 시스템을 통하여 현실세계의 사람, 사물, 건물 및 장치들을 선택, 삭제, 대체 및 제어하거나 부가정보를 표현하는 현실 세계 표현 및 제어 기술과, 이용자가 의도하는 명령을 아우린 시스템에 전달하는 기술로서, 이용자의 명령을 인식하여 가상세계나 현실세계를 제어하는 아우린 시스템 제어 기술과, 가상 세계나 현실세계에서 인식한 정보를 이용자에게 전달하기 위한 표현 기술과, 이용자가 직접 현실세계의 사람, 사물, 건물 및 장치를 직접 제어하는 현실세계 직접 제어 기술과 이용자가 직접 가상세계의 아바타, 객체, 시뮬레이션을 직접 제어하는 가상세계 직접 제어 기술과 이용자마다 다양한 환경에서 서비스 접속하는 경우, 공통의 환경을 제공하는 기술 등 다양한 기술들을 포함할 수 있다
한편, 아우린 시스템은, 이용자마다 다양한 환경에서 서비스 접속하는 경우에 공통의 환경을 제공하는 공유공간 다시점 렌더링 기술과, 가상세계 또는 현실세계로 정보를 전달하여 동기화하기 위한 실시간 스트리밍 기술과, 서로 다른 이용자가 다양한 환경에서 공통의 가상 공간을 공유하며 상호작용을 위한 실시간 동기화 기술과, 서로 다른 이용자간의 상호작용을 위한 멀티모달 인터랙션 기술과, 다양한 통신망을 이용하여 정보를 수집하는 이종망 기반 정보 수집 기술이 적용된다.
또한, 서로 다른 환경의 이용자가 자신의 플랫폼에서 아우린 시스템 상의 가상 공간으로 접속할 수 있는 서비스 기술로서의 멀티플랫폼 융합 서비스 기술과, 가상세계의 아바타, 객체, 환경 및 현실세계의 사용자, 사물, 장치, 환경에 대한 프로파일 정보를 관리하는 기술과, 가상세계, 현실세계, 사용자와의 정보 입출력을 처리하는 처리 엔진 기술과, 아우린 시스템 및 가상 공간을 생성하고 관리하기 위한 서버 기술 등의 다양한 기술들을 포함한다.
이하, 아우린 시스템을 구체적으로 구현하기 위한 가상 현실 연동 서비스 제공 시스템 및 가상 현실 연동 서비스 제공 방법을 도면을 참조하여 설명하도록 한다.
도 2a 및 도 2b를 참조하여 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 시스템을 설명한다. 도 2a 및 도 2b는 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 서버와 가상 현실 연동 서비스 제공 단말기가 수행하는 절차를 도시한 절차도이다.
아우린 서비스를 제공하기 위한 가상 현실 연동 서비스 제공 시스템은 가상 현실 연동 서비스 제공 서버(이하, 서버라 칭함)(10)와 가상 현실 연동 서비스 제공 단말기(이하, 단말기라 칭함)(20)를 포함한다.
이용자는 가상 현실 연동 서비스 제공 단말기(20)를 통해 이용자를 타 이용자와 구별하기 위한 이용자 정보를 입력한다(S201).
단말기(20)는 입력된 이용자 정보를 서버(10)에 제공한다(S203)
서버(10)는 이용자 정보에 대응하는 프로파일들을 관리한다(S101).
여기서, 프로파일은, 이용자의 아우린 서비스 이용에 관한 과거 서비스 이용 이력 정보를 포함할 수 있으며, 아바타 설정 정보를 포함하여 이용자의 가상 공간상의 분신인 아바타 객체를 생성하는데 이용될 수 있다. 또한, 성향, 기호, 감성, 병력 등의 이용자의 개인적 정보를 포함하는 이용자 개인 정보와, 이용자 주변의 현실세계의 이용자, 사물, 장치, 환경에 대한 이용자 주변 정보를 포함할 수 있다.
이러한, 프로파일은 이용자의 선호도에 따른 이용자 선호 정보를 서버(10) 자체적으로 생성하는데 이용될 수 있으며, 이용자 선호 정보는 가상 객체, 대상 객체, 아바타 객체에 대응하는 객체별 오감 효과를 생성, 변형, 관리하는 데 이용될 수 있다.
이후, 서버(10)는 프로파일에 따라 가상 공간 상의 분신인 아바타 객체를 생성하고(S103), 가상 공간을 설정한다(S105).
여기서, 가상 공간이란 가상 현실 연동 서비스 제공 서버(10)에서 생성되는 가상의 물리적 공간으로서, 가상 객체, 대상 객체, 아바타 객체 등의 각종 객체의 생성, 배치 및 변형이 이루어지는 공간이다. 이용자는 현실 공간에 대응되는 가상 공간 상에서 가상 세계를 체험하게 한다.
서버(10)는 가상 공간을 설정하기에 앞서, 단말기(20)는 이용자 주변의 물리적 공간에 대한 공간의 용도, 실내외 여부 및 조도 등에 관련된 정보를 포함하는 공간 특성 정보를 생성하고(S205), 서버(10)는 단말기(20)로부터 공간 특성 정보를 제공받아 가상 공간을 설정할 수 있다(S207).
예를 들어, 이용자 주변의 물리적 공간의 용도가 스크린 골프장이라고 하면, 서버(10)는 가상의 대형 골프장을 가상 공간으로 설정할 수 있다.
한편, 단말기(20)는 공간 특성 정보를 수집하기 위하여, 영상 수집 수단, 수광 센서 등의 센서 수단을 구비할 수 있고, 서버(10)는 가상 공간을 설정하기 위하여, 서버(10)에서 설정 가능한 가상 공간을 저장하는 가상 공간 DB(database)를 포함할 수 있다.
단말기(20)는 현실 세계에 존재하는 사람, 사물, 건물, 장치 등과 같은 현실 객체로부터 사람의 감각을 자극하는 감각적 특성이 추출된 정보를 포함하는 현실 객체 특성 정보를 생성하여(S209), 서버(10)에 현실 객체 특성 정보를 제공한다(S211).
또한, 단말기(20)는 현실 객체의 움직임에 관한 정보(예를 들어, 현실 객체의 움직임에 따른 위치 변화 등의 정보)인 객체 움직임 정보를 생성하여(S213), 서버(10)에 객체 움직임 정보를 제공한다(S215). 한편, 단말기(20)는 현실 객체의 움직임에 관한 정보를 수집하기 위한 모션 센서, 중력 센서 등의 센서 수단을 구비할 수 있다.
한편, 현실 객체 특성 정보 및 객체 움직임 정보는 2차원 또는 3차원의 영상을 분석하여 수집될 수 있다.
이 후, 서버(10)는 현실 객체 특성 정보 및 객체 움직임 정보 중 적어도 하나에 따라 현실 객체에 대응하는 적어도 하나 이상의 가상 객체를 생성한다(S107).
이러한, 가상 객체는 현실에서의 객체에 대응하여 가상 공간상의 생성되는 객체이다. 예를 들어, 이용자가 골프채를 가지고 스윙 동작을 하는 경우, 서버(10)는 현실 객체인 골프채에 대응하는 가상 객체로서의 가상 골프채를 생성할 수 있다. 이 때, 서버(10)는 현실 객체 특성 정보를 이용하여, 골프채의 재질감, 형상, 색깔 등의 감각적 특성이 반영된 가상 골프채를 생성할 수도 있고, 객체 움직임 정보를 이용하여, 골프채의 움직임에 관한 정보로부터 같은 동작을 하는 가상 골프채를 생성할 수도 있다.
한편, 서버(10)는 가상 공간에서 상기 이용자에게 제공 가능한 부가 서비스를 제공하기 위한 적어도 하나 이상의 대상 객체를 생성한다(S109).
여기서, 대상 객체는 가상 공간상에서 이용자에게 부가 서비스를 제공하기 위해 생성된다.
예를 들어, 가상 공간이 커피숍으로 설정된 경우, 커피 주문을 위한 메뉴판 등이 대상 객체로 생성 될 수 있으며, 대상 객체인 메뉴판은 부가 서비스로 주문 관련 서비스를 포함할 수 있다.
서버(10)는 대상 객체를 생성하기 위하여, 가상 공간에서 상기 이용자에게 제공 가능한 부가 서비스를 메타 데이터로 저장하는 부가 서비스 DB(Database)를 포함할 수 있고, 부가 서비스를 검색할 수 있는 검색 엔진 등의 검색 수단을 구비할 수 있다. 한편, 대상 객체는 가상 공간의 공간상의 특성에 따라 생성되는 것이 바람직하다.
이 후, 서버(10)는 복수의 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 각 객체별 오감 효과(Sensory Effect)를 생성한다(111).
본 명세서에서 오감 효과라는 용어는 가상 객체, 대상 객체 및 아바타 객체의 객체에 각각 대응되는 사람의 시각, 촉각, 청각, 미각, 후각 중 어느 하나의 감각을 자극하는 효과를 의미한다.
한편, 서버(10)는 객체별 오감 효과를 생성하기 위하여, 전술한 프로파일 및 이용자 선호 정보, 현실 객체 특성 정보 및 객체 움직임 정보를 이용할 수 있다.
객체별 오감 효과의 생성은 대응되는 가상 객체, 대상 객체, 아바타 객체의 현실적 특성이 반영될 수 있다.
예를 들어, 현실 객체가 차가운 정사각형의 얼음인 경우, 서버(10)는 가상 객체로 정사각형의 객체를 생성하고, 얼음의 재질감, 얼음을 긁었을 때의 소리, 저온 등의 가상 객체에 대응하는 객체별 오감 효과를 생성할 수 있다.
한편, 서버(10)는 객체별 오감 효과의 생성을 위해, 오감 효과에 관한 정보 및 실감재현장치(Sensory effect device)의 제어 정보를 포함하는 오감 효과 DB(Database)를 포함할 수 있다.
이 후, 이용자는 단말기(20)를 통해 가상 객체, 대상 객체 및 아바타 객체의 가상 공간상의 형상, 위치, 객체별 오감 효과를 설정하기 위한 객체별 설정 정보를 입력하고(S217), 단말기(20)는 객체별 설정 정보를 서버(10)로 제공한다(S219).
한편, 이용자는 단말기(20)를 통해 각종 객체별 형상 및 객체별 오감 효과에 관한 이용자의 선호도가 반영된 이용자 선호 정보를 생성하고(S221), 단말기(20)는 이용자 선호 정보를 서버(10)로 제공한다(S223).
한편, 서버(10)는 각 객체별 설정 정보에 따라 각 객체별 오감 효과가 변경되도록 설정할 수 있다(S113). 또한, 서버(10)는 각종 객체별 형상 및 객체별 오감 효과에 관한 이용자의 선호도가 반영된 이용자 선호 정보에 따라, 오감 효과 관리부(115)의 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 객체별 오감 효과가 변경되도록 설정할 수 있다(S113).
이 후, 서버(10)는 가상 객체, 아바타 객체 및 대상 객체 중 적어도 하나를 각각에 대응되는 각 객체별 오감 효과를 반영하여 가상 공간상에 매칭한다(S115).
이 후, 서버(10)는 가상 공간상의 매칭의 결과에 따라 렌더링을 수행한다(S117).
한편, 이용자는 단말기(20)를 통해 렌더링의 수준 및 시각적 효과의 품질을 결정하는 해상도, 프레임율, 차원 등을 설정하는 정보를 포함하는 렌더링 설정 정보를 입력하고(S225), 단말기(20)는 서버(10)에 렌더링 설정 정보를 제공할 수 있다(S227). 이 때, 서버(10)는 제공받은 렌더링 설정 정보에 따라 렌더링의 수준을 설정하고, 설정된 렌더링의 수준에 따라 렌더링을 수행할 수 있다(S117).
이 후, 서버(10)는 객체별 오감 효과 및 렌더링 결과를 포함하는 아우린 서비스를 생성하고(S119), 단말기(20)에 아우린 서비스를 제공한다(S121).
단말기(20)는 제공받은 아우린 서비스에 포함된 객체별 오감 효과 및 렌더링 결과를 이용하여, 렌더링 결과 및 오감 효과를 화면으로 표시하거나(S229), 실감 재현 장치 등의 객체별 오감 효과를 출력할 수 있는 장치로 출력한다(S231).
한편, 단말기(20)는 객체별 오감 효과를 출력할 수 있는 장치를 검색하고, 검색된 장치를 이용하여 객체별 오감 효과를 출력할 수 있다.
한편, 아우린 시스템은 서로 다른 이용자가 다양한 환경에서 가상세계 혹은 현실세계로 정보를 전달하여 동기화하기 위한 실시간 스트리밍 기술을 구비하는 것이 바람직하다.
한편, 아우린 시스템은 다양한 통신망을 이용하여 가상 객체 정보 및 부가정보에 관계된 정보를 수집하기 위하여 다양한 통신망을 이용할 수 있어야 한다. 예를들어, 3G, Wibro, WiFi등의 다양한 종류의 통신방식을 채택하여 가상 객체 정보 및 부가정보에 관계된 정보를 수집할 수 있다.
한편, 아우린 시스템은 이용자가 이용자 각자가 가진 서로 다른 환경의 플랫폼을 이용하여 접속할 수 있도록 다양한 형태로 제공될 수 있다. 예를 들어, 스마트 단말, PC, IP TV등의 다양한 플랫폼에서 아우린 시스템에 접속하여 가상 공간을 공유할 수 있고, 가상 객체들과 실시간 상호작용을 할 수 있다.
도 3을 참조하여 본 발명의 실시예에 따른 아우린 서비스를 제공하기 위한 가상 현실 연동 서비스 제공 서버 설명한다. 도 3은 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 서버의 구조를 도시한 블록도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 서버(10)는 수신부(101), 프로파일 관리부(103), 아바타 객체 생성부(105), 가상 공간 설정부(107), 가상 공간 저장부(109), 가상 객체 관리부(111), 대상 객체 관리부(113), 오감 효과 관리부(115), 오감 효과 설정부(117), 매칭부(119), 렌더링부(121), 서비스 생성부(123), 부가 서비스 탐색부(125) 및 부가 정보 생성부(127)를 포함한다.
수신부(101)는 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 서버(10)에서, 아우린 서비스 생성하기 위하여 필요한 모든 정보를 제공받는다.
수신부(101)가 제공받는 정보는, 이용자를 타 이용자와 구별하기 위한 이용자 정보, 현실 객체로부터 사람의 감각을 자극하는 감각적 특성이 추출된 정보를 포함하는 현실 객체 특성 정보, 현실 객체의 움직임에 관한 정보인 객체 움직임 정보 및 각종 객체의 가상 공간상의 형상, 위치, 객체별 오감 효과를 설정하기 위한 객체별 설정 정보일 수 있다. 여기서, 객체별 설정 정보는 가상 객체를 설정하기 위한 가상 객체 설정 정보, 대상 객체를 설정하기 위한 대상 객체 설정 정보 및 아바타 객체를 설정하기 위한 아바타 객체 설정 정보 중 적어도 하나를 포함한다.
또한, 가상 현실 연동 서비스 제공 서버(10)의 이용 목적에 따라 각종 객체별 형상 및 객체별 오감 효과에 관한 이용자의 선호도가 반영된 이용자 선호 정보, 아우린 서비스의 가상 공간상의 가상 객체 및 대상 객체 중 적어도 하나를 추가 또는 삭제하기 위한 객체 등록 정보, 렌더링의 수준을 설정하기 위한 렌더링 설정 정보 및 현실의 물리적 공간의 특성에 대한 공간 특성 정보를 제공 받을 수 있다.
프로파일 관리부(103)는 이용자 정보에 대응하는 적어도 하나 이상의 프로파일들을 관리한다.
아바타 객체 생성부(105)는 아바타 설정 정보에 따라 이용자의 가상 공간 상의 분신인 아바타 객체를 생성 및 관리한다.
가상 공간 설정부(107)는 가상 공간을 생성 및 설정한다.
가상 공간 저장부(109)는 가상 공간을 저장하여 유지 관리한다.
가상 객체 관리부(111)는 현실 객체 특성 정보 및 객체 움직임 정보에 따라 현실 객체에 대응하는 적어도 하나 이상의 가상 객체를 생성 및 관리한다.
대상 객체 관리부(113)는 가상 공간에서 이용자에게 제공 가능한 부가 서비스 제공을 위한 적어도 하나 이상의 대상 객체를 생성 및 관리한다.
한편, 가상 객체 관리부(111) 및 대상 객체 관리부(113)는 객체 등록 정보에 따라 가상 객체 및 대상 객체 중 적어도 하나를 추가 또는 삭제하여 관리할 수 있다.
오감 효과 관리부(115)는 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 객체별 오감 효과(Sensory Effect)를 생성 및 관리한다.
오감 효과 설정부(117)는 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 객체별 설정 정보에 따라 오감 효과 관리부(115)의 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 각 객체별 오감 효과가 변경되도록 설정한다.
매칭부(119)는 가상 객체, 아바타 객체 및 대상 객체 중 적어도 하나를 각각에 대응되는 객체별 오감 효과를 반영하여 가상 공간상에 매칭한다.
렌더링부(121)는 매칭의 결과에 따라 렌더링을 수행한다.
서비스 생성부(123)는 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스인 아우린 서비스를 생성한다.
부가 서비스 탐색부(125)는 대상 객체와 관련된 이용자에게 제공 가능한 부가 서비스 정보를 탐색한다.
부가 정보 생성부(127)는 서비스 탐색부(125)에서 탐색된 부가 서비스 정보에 따라 각 대상 객체에 대응되는 부가 정보를 생성한다. 여기서, 부가 정보는 부가 서비스를 제공 받을 수 있도록 입력 수단을 제공하는 인터페이스 정보를 포함한다. 이 경우, 서비스 생성부(123)는 부가 정보를 더 포함하여 가상 현실 연동 서비스를 생성한다.
즉, 부가 정보는 대상 객체가 포함하는 부가 서비스를 이용자에게 가상 현실 연동 서비스를 통해 제공될 수 있도록 부가 서비스 정보를 가공하여 생성된다.
예를 들어서, 가상 공간으로 커피숍이 설정되고, 부가 서비스로 주문 관련 서비스를 포함한 대상 객체인 메뉴판이 생성되는 경우, 부가 정보는 주문 관련 서비스를 제공받을 수 있도록하는 인터페이스 정보 및 부가 서비스의 구체적 내역 정보를 포함하게 된다.
한편, 가상 공간 설정부(107)는 가상 공간 저장부에 저장된 복수의 가상 공간 중에서 하나를 선택하여 가상 공간을 설정할 수 있다. 따라서, 이용자가 이용한 가상 공간을 재이용 할 수 있고, 이용자는 가상 공간 설정부(107)를 통해 저장된 가상 공간을 불러와서 이용하는 것이 가능하다.
또한, 가상 공간 설정부(107)는 공간 특성 정보를 이용하여 가상 공간을 설정할 수 있다. 이러한, 공간 특성 정보는 이용자 주변의 물리적 공간에 대한 공간의 용도, 실내외 여부 및 조도 등에 관련된 정보를 포함하는 것일 수 있다.
한편, 오감 효과 설정부(117)는 각종 객체별 형상 및 객체별 오감 효과에 관한 이용자의 선호도가 반영된 이용자 선호 정보에 따라 오감 효과 관리부(115)의 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응되는 객체별 오감 효과가 변경되도록 설정할 수 있다.
이러한, 이용자 선호 정보는 이용자 정보에 대응되는 프로파일로부터 과거 서비스 이용 이력 정보, 이용자 개인 정보 및 이용자 주변 정보를 이용하여 이용자의 선호도를 분석하는 과정을 통해 생성될 수 있다. 또한, 수신부(101)에서 이용자 선호 정보를 제공받을 수 있다.
한편, 가상 객체 관리부(111)는 가상 객체를 가상 객체 설정 정보에 따라 가상 객체의 형상이 변경되도록 설정하여 가상 객체를 관리할 수 있고, 마찬가지로, 대상 객체 관리부(113)는 대상 객체를 대상 객체 설정 정보에 따라 대상 객체의 형상이 변경되도록 설정하여 대상 객체를 관리할 수 있다.
따라서, 오감 효과 설정부(117)에서 객체별 오감 효과가 변경되도록 설정하는 것과는 별도로, 가상 객체 관리부(111) 및 대상 객체 관리부(113)에서 가상 객체 및 대상 객체의 자체 형상이 변경되도록 설정하고 관리할 수 있다.
한편, 렌더링부(121)는 렌더링 설정 정보에 따라 렌더링의 수준을 설정하고, 렌더링의 수준에 따라 렌더링을 수행할 수 있다. 이 때, 렌더링 설정 정보는 렌더링의 수준 및 시각적 효과의 품질을 결정하는 해상도, 프레임율, 차원 등을 설정하는 정보를 포함하는 것 일 수 있다.
한편, 렌더링부(121)는 다시점 렌더링을 수행할 수 있다.
따라서, 각 이용자가 다양한 환경에서 서비스 접속하는 경우, 각 이용자간에 서로 다른 가상 공간상의 시점을 가질 수 있도록 렌더링을 수행할 수 있다.
한편, 전술한 가상 현실 연동 서비스 제공 서버(10)는 가상 공간의 복수 이용자간의 공유, 각종 객체 정보의 생성 및 관리가 가능 해야 하므로, 동시 접속자 수와 가상 공간의 동시관리, 스트리밍 서비스를 위한 실시간 처리를 할 수 있는 것이 바람직하다.
도 4를 참조하여 본 발명의 실시예에 따른 아우린 서비스를 제공하기 위한 가상 현실 연동 서비스 제공 단말기를 설명한다. 도 5는 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 단말기의 구조를 도시한 블록도이다.
도 4를 참조하면, 본 발명의 실시예에 따른 가상 현실 연동 서비스 제공 단말기(20)는 수신부(201), 이용자 정보 입력부(203), 현실 객체 특성 정보 생성부(205), 객체 움직임 정보 생성부(207), 객체 등록 정보 입력부(209), 공간 특성 정보 생성부(213), 렌더링 설정 정보 입력부(215), 이용자 선호 정보 생성부(217), 송신부(219), 화면 표시부(221) 및 오감 효과부(223)를 포함한다.
수신부(201)는 이용자 정보에 대응되는 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스를 제공받는다.
이용자 정보 입력부(203)는 타 이용자와 구별하기위한 이용자 정보를 입력 받는다.
현실 객체 특성 정보 생성부(205)는 이용자 주위에 현실적으로 존재하는 현실 객체로부터 사람의 감각을 자극하는 감각적 특성을 추출하여 현실 객체 특성 정보를 생성한다.
객체 움직임 정보 생성부(207)는 현실 객체의 물리적 움직임을 인식하여 객체 움직임 정보를 생성한다.
객체 등록 정보 입력부(209)는 가상 현실 연동 서비스에서 이용되는 가상 객체 및 대상 객체 중 적어도 하나를 추가 또는 삭제하기 위한 객체 등록 정보를 이용자로부터 입력 받는다.
객체별 설정 정보 입력부(211)는 가상 현실 연동 서비스에서 이용되는 가상 객체를 설정하기 위한 가상 객체 설정 정보, 대상 객체를 설정하기 위한 대상 객체 설정 정보 및 아바타 객체를 설정하기 위한 아바타 객체 설정 정보 중 적어도 하나를 포함하는 객체별 설정 정보를 이용자로부터 입력 받는다.
공간 특성 정보 생성부(213)는 이용자 주변의 물리적 공간을 인식하여, 공간의 용도, 실내외 여부 및 조도 중 적어도 하나에 따른 특성을 추출하여 공간 특성 정보를 생성한다.
렌더링 설정 정보 입력부(215)는 시각화 정보의 품질을 결정하기위한 렌더링의 수준을 설정하는 렌더링 설정 정보를 이용자로부터 입력 받는다.
이용자 선호 정보 생성부(217)는 가상 현실 연동 서비스에서 이용되는 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나에 대응하는 객체별 오감 효과에 대한 이용자 선호를 반영한 이용자 선호 정보를 생성한다.
송신부(219)는 이용자 정보, 현실 객체 특성 정보, 객체 움직임 정보, 객체 등록 정보, 객체 설정 정보, 공간 특성 정보, 렌더링 설정 정보 및 이용자 선호 정보를 서버(10)로 제공한다.
화면 표시부(221)는 렌더링의 결과 및 객체별 오감 효과를 화면으로 표시한다.
오감 효과부(223)는 실감 재현 장치 등의 객체별 오감 효과를 출력할 수 있는 장치로 객체별 오감 효과를 출력한다.
한편, 오감 효과부(223)는 객체별 오감 효과를 출력할 수 있는 장치를 검색하는 장치 검색부(225)를 포함하고, 장치 검색부(225)에서 검색된 장치를 이용하여 객체별 오감 효과를 출력한다.
따라서, 전술한 아우린 시스템을 통하여 이용자는 아우린 서비스를 제공 받고, 현실환경에 존재하는 사람, 사물, 건물, 장치를 제거하거나 대체 또는 재구성 할 수 있다.
예를 들어, 이용자는 아우린 시스템을 이용하여, 보기 싫은 사람과 대화할 때 상대방의 얼굴을 이용자가 좋아하는 연예인의 얼굴로 바꿀 수 있다. 따라서, 이용자는 아우린 시스템을 통해 이용자가 좋아하는 연예인의 얼굴를 보고 목소리를 들으며 상대방과 대화할 수 있다.
또한, 이용자는 아우린 시스템을 통하여 현실환경에 존재하는 장치의 인터페이스를 이용자가 선호하는 방식으로 변경하여 사용을 할 수 있다.
예를 들어, 복잡한 인터페이스를 가지는 오디오 장치의 경우, 이용자가 어린아이나 노인인 경우에도 손쉬운 조작을 할 수 있도록 오디오 장치의 인터페이스를 간단한 기능만을 가지도록 표시된 간단한 인터페이스로 변경할 수 있다.
이용자는 아우린 시스템을 통하여 이용자는 자신의 아바타를 선택하고 다른 아바타나 객체와 상호작용 할 수 있다.
예를들어, 오프라인 교실에서 강의를 하는 교사와 출석한 학생들이 있고, 몸이 아프거나 거리상의 문제로 출석하지 못한 학생들이 있는 경우, 출석하지 못한 학생들은 가상세계에서 수업을 받는다. 이들은 서로 아우린 시스템을 이용하여 질문과 대답을 자유로이 할 수 있는 서비스를 이용한다.
이 밖에도 아우린 시스템을 이용하는 방법은 다양하다.
예를 들어, 실세계 골프 경기, 스크린 골프, 게임 골프 환경에 있는 골퍼들이 다자간 골프 서비스를 제공하는 골프 아우린 공간에서 함께 골프 경기를 할 수 있다. 이 경우, 실세계 골프 경기장에 대한 풍속, 그린 상태 등에 대한 정보가 스크린 골프 및 게임 골프에 전달되고 실세계와 가상세계의 골퍼들은 골프 코스 및 상대방 골퍼에 대한 정보를 아우린을 통해 공유할 수 있다. 또한, 골프 코치는 골프 아우린 공간을 통해 경기를 보면서 경기 참가자들에게 조언을 할 수 있다.
또한, 아우린 시스템을 통해 상대방과 대화를 하는 경우, 상대방의 모습과 말투, 주위 환경을 이용자가 원하는대로 바꿀 수 있다.
또한, 아우린 시스템을 통해 커피숍을 이용하는 경우, 가상 공간의 인테리어 및 점원의 모습 등을 이용자가 원하는 형태로 바꾸고, 주문 및 결제까지 한번에 할 수 있는 서비스를 제공 받을 수 있다.
또한, 아우린 시스템을 통해 물리적으로 떨어져 있는 현실 세계의 댄서들이 가상 공간에서 함께 춤을 출 수 있는 원격 댄스 서비스를 제공할 수 있다. 따라서, 물리적으로 다른 지역에 있는 댄서들이 아우린 시스템을 통해 가상 공간에서 만나 지리적 한계를 극복하고 함께 춤을 춤으로써 오락적 효과를 기대할 수 있다.
또한, 아우린 시스템을 통해 온오프라인 통합회의 서비스를 제공할 수 있다. 따라서, 현실과 가상의 구별 없이 가상의 아바타가 현실의 회의에 참가하고, 현실의 사람들이 가상 세계의 회의에 참가함으로써 공간의 제약을 극복하고, 누구나 회의에 참여할 수 있는 개방형 회의 환경 구축이 가능하다.
이와 같이, 아우린 시스템을 이용한 아우린 서비스의 이용 방법은 전술한 방법 이외에도 다양하게 제시될 수 있으며, 상황에 따라 변형될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (20)

  1. 이용자 정보, 현실 객체의 감각적 특성 정보를 포함하는 현실 객체 특성 정보, 현실 객체의 움직임 정보 및 객체별 설정 정보 중 적어도 하나를 제공받는 수신부;
    가상 공간을 생성 및 설정하는 가상 공간 설정부;
    상기 현실 객체 특성 정보 및 상기 객체 움직임 정보에 따라 상기 현실 객체에 대응하는 적어도 하나 이상의 가상 객체를 생성 및 관리하는 가상 객체 관리부;
    상기 가상 공간에서 상기 이용자에게 제공 가능한 부가 서비스 제공을 위한 적어도 하나 이상의 대상 객체를 생성 및 관리하는 대상 객체 관리부;
    상기 가상 객체 및 상기 대상 객체 중 적어도 하나에 대응되는 객체별 오감 효과(Sensory Effect)를 생성 및 관리하는 오감 효과 관리부;
    상기 객체별 설정 정보에 따라 상기 오감 효과 관리부의 상기 각 객체별 오감 효과가 변경되도록 설정하는 오감 효과 설정부;
    상기 가상 객체 및 상기 대상 객체 중 적어도 하나를 상기 가상 공간상에 매칭하는 매칭부;
    상기 매칭의 결과에 따라 렌더링을 수행하는 렌더링부; 및
    상기 객체별 오감 효과 및 상기 렌더링 결과를 포함하는 가상 현실 연동 서비스를 생성하는 서비스 생성부
    를 포함하는 가상 현실 연동 서비스 제공 서버.
  2. 제 1 항에 있어서,
    상기 이용자 정보에 대응하는 아바타 설정 정보를 포함하는 적어도 하나 이상의 프로파일들을 관리하는 프로파일 관리부 및
    상기 아바타 설정 정보에 따라 상기 이용자의 가상 공간 상의 분신인 아바타 객체를 생성 및 관리하는 아바타 객체 생성부를 더 포함하고,
    상기 오감 효과 관리부는 상기 아바타 객체에 대응되는 상기 객체별 오감 효과를 추가적으로 더 생성 및 관리하는 것이고,
    상기 매칭부는 상기 아바타 객체를 상기 가상 공간상에 추가적으로 더 매칭하는 것
    인 가상 현실 연동 서비스 제공 서버.
  3. 제 1 항에 있어서,
    상기 객체별 설정 정보는 상기 가상 객체 및 상기 대상 객체 중 적어도 하나의 상기 가상 공간상의 형상, 위치, 객체별 오감 효과를 각각 설정하기 위한 객체 설정 정보를 포함하는 것
    인 가상 현실 연동 서비스 제공 서버.
  4. 제 3 항에 있어서,
    상기 대상 객체 관리부는 상기 대상 객체를 상기 객체 설정 정보에 따라 상기 대상 객체의 상기 가상 공간상의 형상 및 위치중 적어도 하나가 변경되도록 설정하여 상기 대상 객체를 관리하는 것
    인 가상 현실 연동 서비스 제공 서버.
  5. 제 3 항에 있어서,
    상기 가상 객체 관리부는 상기 가상 객체를 상기 객체 설정 정보에 따라 상기 가상 객체의 상기 가상 공간상의 형상 및 위치중 적어도 하나가 변경되도록 설정하여 상기 가상 객체를 관리하는 것
    인 가상 현실 연동 서비스 제공 서버.
  6. 제 1 항에 있어서,
    상기 대상 객체와 관련된 상기 이용자에게 제공 가능한 부가 서비스 정보를 탐색하는 부가 서비스 탐색부; 및
    상기 서비스 탐색부에서 탐색된 부가 서비스 정보에 따라 상기 각 대상 객체에 대응되는 부가 정보를 생성하는 부가 정보 생성부를 더 포함하고,
    상기 서비스 생성부는 상기 부가 정보를 더 포함하여 상기 가상 현실 연동 서비스를 생성하는 것
    인 가상 현실 연동 서비스 제공 서버.
  7. 제 1 항에 있어서,
    상기 수신부는 상기 가상 객체 및 상기 대상 객체 중 적어도 하나를 추가 또는 삭제하기 위한 객체 등록 정보를 더 수신하는 것이고,
    상기 가상 객체 관리부 및 상기 대상 객체 관리부는 상기 객체 등록 정보에 따라 상기 가상 객체 및 상기 대상 객체 중 적어도 하나를 추가 또는 삭제하여 관리하는 것
    인 가상 현실 연동 서비스 제공 서버.
  8. 제 1 항에 있어서,
    상기 수신부는 상기 렌더링의 수준을 설정하기 위한 렌더링 설정 정보를 더 입력받고,
    상기 렌더링부는 상기 렌더링 설정 정보에 따라 상기 렌더링의 수준을 설정하고, 상기 렌더링의 수준에 따라 상기 렌더링을 수행하는 것
    인 가상 현실 연동 서비스 제공 서버.
  9. 제 1 항에 있어서,
    상기 수신부는 물리적 공간의 특성에 대한 공간 특성 정보를 더 제공받고,
    상기 가상 공간 설정부는 상기 공간 특성 정보를 이용하여 상기 가상 공간을 설정하는 것
    인 가상 현실 연동 서비스 제공 서버.
  10. 이용자 정보를 입력받는 이용자 정보 입력부;
    상기 이용자 정보에 대응되는 객체별 오감 효과 및 렌더링 결과를 포함하는 가상 현실 연동 서비스를 제공받는 수신부;
    상기 이용자 주위에 현실적으로 존재하는 현실 객체로부터 사람의 감각을 자극하는 감각적 특성을 추출하여 현실 객체 특성 정보를 생성하는 현실 객체 특성 정보 생성부;
    상기 현실 객체의 물리적 움직임을 인식하여 객체 움직임 정보를 생성하는 객체 움직임 정보 생성부; 및
    상기 이용자 정보, 상기 현실 객체 특성 정보 및 상기 객체 움직임 정보를 제공하는 송신부
    를 포함하는 가상 현실 연동 서비스 제공 단말기.
  11. 제 10 항에 있어서,
    상기 가상 현실 연동 서비스에서 이용되는 가상 객체 및 대상 객체 중 적어도 하나를 추가 또는 삭제하기 위한 객체 등록 정보를 이용자로부터 입력받는 객체 등록 정보 입력부를 더 포함하고,
    상기 송신부는 상기 객체 등록 정보를 더 제공하는 것
    인 가상 현실 연동 서비스 제공 단말기.
  12. 제 10 항에 있어서,
    상기 가상 현실 연동 서비스에서 이용되는 가상 객체, 대상 객체 및 아바타 객체 중 적어도 하나를 각각 설정하기 위한 객체 설정 정보를 포함하는 객체별 설정 정보를 이용자로부터 입력받는 객체 설정 정보 입력부를 더 포함하고,
    상기 송신부는 상기 객체 설정 정보를 더 제공하는 것
    인 가상 현실 연동 서비스 제공 단말기.
  13. 제 10 항에 있어서,
    이용자 주변의 물리적 공간을 인식하여, 상기 공간의 용도, 실내외 여부 및 조도 중 적어도 하나에 따른 특성을 추출하여 공간 특성 정보를 생성하는 공간 특성 정보 생성부를 더 포함하고,
    상기 송신부는 상기 공간 특성 정보를 더 제공하는 것
    인 가상 현실 연동 서비스 제공 단말기.
  14. 제 10 항에 있어서,
    상기 시각화 정보의 품질을 결정하기위한 렌더링의 수준을 설정하는 렌더링 설정 정보를 이용자로부터 입력받는 렌더링 설정 정보 입력부를 더 포함하고,
    상기 송신부는 상기 렌더링 설정 정보를 더 제공하는 것
    인 가상 현실 연동 서비스 제공 단말기.
  15. 제 10 항에 있어서,
    상기 렌더링의 결과를 화면으로 표시하는 화면 표시부
    를 더 포함하는 가상 현실 연동 서비스 제공 단말기.
  16. 제 10 항에 있어서,
    상기 객체별 오감 효과를 출력하는 오감 효과부
    를 더 포함하는 가상 현실 연동 서비스 제공 단말기.
  17. 제 16 항에 있어서, 상기 오감 효과부는,
    상기 객체별 오감 효과를 출력할 수 있는 장치를 검색하는 장치 검색부를 포함하고, 상기 장치 검색부에서 검색된 장치를 이용하여 상기 객체별 오감 효과를 출력하는 것
    인 가상 현실 연동 서비스 제공 단말기.
  18. 제 10 항에 있어서,
    상기 가상 현실 연동 서비스에서 이용되는 상기 가상 객체, 상기 대상 객체 및 상기 아바타 객체 중 적어도 하나에 대응하는 객체별 오감 효과에 대한 이용자 선호를 반영한 이용자 선호 정보를 생성하는 이용자 선호 정보 생성부를 더 포함하고,
    상기 송신부는 상기 이용자 선호 정보를 더 제공하는 것
    인 가상 현실 연동 서비스 제공 단말기.
  19. 이용자 정보를 제공받는 단계;
    상기 이용자 정보에 대응하는 가상 공간 상의 분신인 아바타 객체를 생성하는 단계;
    가상 공간을 설정하는 단계;
    현실 객체로부터 감각적 특성을 추출하여 현실 객체 특성 정보를 생성하는 단계;
    현실 객체의 움직임에 관한 정보인 객체 움직임 정보 및 객체별 설정 정보를 생성하는 단계;
    현실 객체 특성 정보 및 객체 움직임 정보 중 적어도 하나를 제공받는 단계;
    현실 객체 특성 정보 및 객체 움직임 정보 중 적어도 하나에 따라 상기 현실 객체에 대응하는 적어도 하나 이상의 가상 객체를 생성하는 단계;
    상기 가상 공간에서 상기 이용자에게 제공 가능한 부가 서비스 제공을 위한 적어도 하나 이상의 대상 객체를 생성하는 단계;
    복수의 상기 가상 객체, 상기 대상 객체 및 상기 아바타 객체 중 적어도 하나에 대응되는 각 객체별 오감 효과(Sensory Effect)를 생성하는 단계;
    상기 각 객체별 설정 정보에 따라 상기 각 객체별 오감 효과가 변형되도록 설정하는 단계;
    상기 가상 객체, 상기 아바타 객체 및 상기 대상 객체 중 적어도 하나를 상기 가상 공간상에 매칭하는 단계;
    상기 매칭의 결과에 따라 렌더링을 수행하는 단계; 및
    상기 객체별 오감 효과 및 상기 렌더링 결과를 포함하는 가상 현실 연동 서비스를 생성하는 단계
    를 포함하는 가상 현실 연동 서비스 제공 방법.
  20. 제 19 항에 있어서,
    상기 객체별 설정 정보는 상기 가상 객체를 설정하기 위한 가상 객체 설정 정보, 상기 대상 객체를 설정하기 위한 대상 객체 설정 정보 및 상기 아바타 객체를 설정하기 위한 아바타 객체 설정 정보 중 적어도 하나를 포함하는 것
    인 가상 현실 연동 서비스 제공 방법.
KR1020100082071A 2010-08-24 2010-08-24 가상 현실 연동 서비스 제공 시스템 및 그 방법 KR101505060B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100082071A KR101505060B1 (ko) 2010-08-24 2010-08-24 가상 현실 연동 서비스 제공 시스템 및 그 방법
US13/216,846 US20120050325A1 (en) 2010-08-24 2011-08-24 System and method for providing virtual reality linking service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100082071A KR101505060B1 (ko) 2010-08-24 2010-08-24 가상 현실 연동 서비스 제공 시스템 및 그 방법

Publications (2)

Publication Number Publication Date
KR20120019007A true KR20120019007A (ko) 2012-03-06
KR101505060B1 KR101505060B1 (ko) 2015-03-26

Family

ID=45696589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100082071A KR101505060B1 (ko) 2010-08-24 2010-08-24 가상 현실 연동 서비스 제공 시스템 및 그 방법

Country Status (2)

Country Link
US (1) US20120050325A1 (ko)
KR (1) KR101505060B1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396813B1 (ko) * 2013-04-10 2014-05-19 한국관광공사 가상 동행 체험이 가능한 워킹 월
KR20170121721A (ko) * 2016-04-25 2017-11-02 장부다 Vr 공간을 제공하는 디바이스를 이용한 결제 방법 및 그 디바이스
WO2018101551A1 (ko) * 2016-12-02 2018-06-07 안상돈 만물 인터넷을 융합한 생활 밀착형 가상현실 비즈니스 플랫폼과 그 운영방법
WO2018155919A1 (ko) * 2017-02-22 2018-08-30 삼성전자 주식회사 전자 장치 및 그 제어 방법
WO2019124726A1 (ko) * 2017-12-19 2019-06-27 (주) 알큐브 혼합 현실 서비스 제공 방법 및 시스템
KR20190110218A (ko) * 2018-03-20 2019-09-30 한국전자통신연구원 동적 가상객체 구현 시스템 및 방법
KR20210158653A (ko) * 2020-06-24 2021-12-31 주식회사 버블트리 현실세계 데이터의 가상화시스템 및 방법
KR20220052211A (ko) * 2020-10-20 2022-04-27 (주)심스리얼리티 실내 혼합현실 매칭 시스템
KR102425624B1 (ko) * 2021-03-03 2022-07-27 주식회사 피치솔루션 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템
KR20230064788A (ko) * 2021-11-04 2023-05-11 한국기술교육대학교 산학협력단 가상현실 서비스에서 복수의 사용자 사이에 객체의 정보를 동기화 하기 위한 방법 및 장치

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101640043B1 (ko) * 2010-04-14 2016-07-15 삼성전자주식회사 가상 세계 처리 장치 및 방법
US20130257877A1 (en) * 2012-03-30 2013-10-03 Videx, Inc. Systems and Methods for Generating an Interactive Avatar Model
US8982175B2 (en) * 2012-09-28 2015-03-17 Tangome, Inc. Integrating a video with an interactive activity
US20180197342A1 (en) * 2015-08-20 2018-07-12 Sony Corporation Information processing apparatus, information processing method, and program
US10031580B2 (en) * 2016-01-13 2018-07-24 Immersion Corporation Systems and methods for haptically-enabled neural interfaces
US10410320B2 (en) * 2016-09-30 2019-09-10 Sony Interactive Entertainment Inc. Course profiling and sharing
US10642991B2 (en) * 2016-10-14 2020-05-05 Google Inc. System level virtual reality privacy settings
KR102233099B1 (ko) * 2017-12-05 2021-03-29 한국전자통신연구원 기계학습에 기반한 가상 현실 콘텐츠의 사이버 멀미도 예측 모델 생성 및 정량화 조절 장치 및 방법
US10832483B2 (en) 2017-12-05 2020-11-10 Electronics And Telecommunications Research Institute Apparatus and method of monitoring VR sickness prediction model for virtual reality content
US11044456B2 (en) 2018-05-31 2021-06-22 Electronics And Telecommunications Research Institute Image processing method and image player using thereof
KR20200076178A (ko) 2018-12-19 2020-06-29 한국전자통신연구원 가상증강현실 제공 방법, 이를 이용하는 가상증강현실 제공 장치 및 향기 프로젝터
US11410359B2 (en) * 2020-03-05 2022-08-09 Wormhole Labs, Inc. Content and context morphing avatars
US20230140611A1 (en) * 2021-10-29 2023-05-04 Daniel D'Souza Methods, systems, apparatuses, and devices for facilitating simulating golf play on golf courses
JP7158781B1 (ja) * 2021-11-29 2022-10-24 クラスター株式会社 端末装置、サーバ、仮想現実空間提供システム、プログラムおよび仮想現実空間提供方法
KR102651994B1 (ko) * 2022-08-17 2024-03-27 주식회사 브이알크루 비주얼 로컬라이제이션을 이용하여 전술 훈련을 지원하기 위한 방법 및 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6854012B1 (en) * 2000-03-16 2005-02-08 Sony Computer Entertainment America Inc. Data transmission protocol and visual display for a networked computer system
JP3978508B2 (ja) * 2004-11-22 2007-09-19 益田 準 体感型仮想現実空間システム
US20070282695A1 (en) * 2006-05-26 2007-12-06 Hagai Toper Facilitating on-line commerce
US8012023B2 (en) * 2006-09-28 2011-09-06 Microsoft Corporation Virtual entertainment
US20090199275A1 (en) * 2008-02-06 2009-08-06 David Brock Web-browser based three-dimensional media aggregation social networking application
US8358302B2 (en) * 2008-04-22 2013-01-22 International Business Machines Corporation Dynamic creation of virtual regions
KR20090112049A (ko) * 2008-04-23 2009-10-28 정일권 네트워크 기반의 3차원 가상현실 전자상거래 시스템 및 그서비스 방법
US9086727B2 (en) * 2010-06-22 2015-07-21 Microsoft Technology Licensing, Llc Free space directional force feedback apparatus

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396813B1 (ko) * 2013-04-10 2014-05-19 한국관광공사 가상 동행 체험이 가능한 워킹 월
KR20170121721A (ko) * 2016-04-25 2017-11-02 장부다 Vr 공간을 제공하는 디바이스를 이용한 결제 방법 및 그 디바이스
KR20170121718A (ko) * 2016-04-25 2017-11-02 장부다 Vr 공간에서 사용자 인터페이스를 제공하는 방법, 디바이스 및 기록매체
WO2018101551A1 (ko) * 2016-12-02 2018-06-07 안상돈 만물 인터넷을 융합한 생활 밀착형 가상현실 비즈니스 플랫폼과 그 운영방법
WO2018155919A1 (ko) * 2017-02-22 2018-08-30 삼성전자 주식회사 전자 장치 및 그 제어 방법
US11017486B2 (en) 2017-02-22 2021-05-25 Samsung Electronics Co., Ltd. Electronic device and control method therefor
US11206373B2 (en) 2017-12-19 2021-12-21 R Cube Co., Ltd. Method and system for providing mixed reality service
WO2019124726A1 (ko) * 2017-12-19 2019-06-27 (주) 알큐브 혼합 현실 서비스 제공 방법 및 시스템
KR20190110218A (ko) * 2018-03-20 2019-09-30 한국전자통신연구원 동적 가상객체 구현 시스템 및 방법
KR20210158653A (ko) * 2020-06-24 2021-12-31 주식회사 버블트리 현실세계 데이터의 가상화시스템 및 방법
KR20220052211A (ko) * 2020-10-20 2022-04-27 (주)심스리얼리티 실내 혼합현실 매칭 시스템
KR102425624B1 (ko) * 2021-03-03 2022-07-27 주식회사 피치솔루션 사용자 단말의 센서 동작 신호를 이용한 가상 공간에서의 아바타의 제스처 또는 이모지 전송 방법 및 이를 위한 시스템
KR20230064788A (ko) * 2021-11-04 2023-05-11 한국기술교육대학교 산학협력단 가상현실 서비스에서 복수의 사용자 사이에 객체의 정보를 동기화 하기 위한 방법 및 장치

Also Published As

Publication number Publication date
KR101505060B1 (ko) 2015-03-26
US20120050325A1 (en) 2012-03-01

Similar Documents

Publication Publication Date Title
KR101505060B1 (ko) 가상 현실 연동 서비스 제공 시스템 및 그 방법
CN114125523B (zh) 数据处理系统和方法
US11709576B2 (en) Providing a first person view in a virtual world using a lens
US10846520B2 (en) Simulated sandtray system
RU2621633C2 (ru) Система и способ для дополненной и виртуальной реальности
JP2019139781A (ja) 拡張現実および仮想現実のためのシステムおよび方法
CN107683166A (zh) 用于限制头戴式显示器上的视觉活动的过滤和父母控制方法
JP7009508B2 (ja) 模擬箱庭システム
CN114115519B (zh) 用于在虚拟环境中递送应用程序的系统和方法
KR20220029453A (ko) 사용자 그래픽 표현 기반 사용자 인증 시스템 및 방법
CN103702100A (zh) 一种场景的3d展示方法和系统
CN110444066A (zh) 基于全息教师及环幕互动的电气设备绝缘试验培训系统
KR20220029454A (ko) 가상 환경에서 가상으로 방송하기 위한 시스템 및 방법
Wallgrün et al. Low-cost VR applications to experience real word places anytime, anywhere, and with anyone
KR20220030178A (ko) 가상 환경에서 클라우드 컴퓨팅 기반 가상 컴퓨팅 리소스를 프로비저닝하는 시스템 및 방법
KR20220029467A (ko) 접근하는 사용자 표현 간의 애드혹 가상통신
KR20220029471A (ko) 공간 비디오 기반 존재
JP2023075441A (ja) 情報処理システム、情報処理方法、情報処理プログラム
Torrejon et al. Panoramic audio and video: towards an immersive learning experience
US11741652B1 (en) Volumetric avatar rendering
Xu et al. Urban Interactive Installation Art as Pseudo-Environment Based on the Frame of the Shannon–Weaver Model
US11776227B1 (en) Avatar background alteration
Li et al. Immersive Experience Design of Digital Media Interactive Art Based on Virtual Reality
Brumley Spatially Immersive Sound in the Bird Song Diamond Project
Dias Participation in the machinic city

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
LAPS Lapse due to unpaid annual fee