KR101839726B1 - Virtual reality system with two-way communication - Google Patents

Virtual reality system with two-way communication Download PDF

Info

Publication number
KR101839726B1
KR101839726B1 KR1020170055383A KR20170055383A KR101839726B1 KR 101839726 B1 KR101839726 B1 KR 101839726B1 KR 1020170055383 A KR1020170055383 A KR 1020170055383A KR 20170055383 A KR20170055383 A KR 20170055383A KR 101839726 B1 KR101839726 B1 KR 101839726B1
Authority
KR
South Korea
Prior art keywords
information
virtual reality
user
scanning
space
Prior art date
Application number
KR1020170055383A
Other languages
Korean (ko)
Inventor
황철하
Original Assignee
황철하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 황철하 filed Critical 황철하
Priority to KR1020170055383A priority Critical patent/KR101839726B1/en
Application granted granted Critical
Publication of KR101839726B1 publication Critical patent/KR101839726B1/en
Priority to PCT/KR2018/005032 priority patent/WO2018199724A1/en

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • User Interface Of Digital Computer (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)

Abstract

The present invention relates to a virtual reality system capable of two-way communication. According to an embodiment of the present invention, a user can perform two-way communion or conversation with a subject (e.g., a dead person and a user wanting to leave a message or an event of the user for a specific person in the future) to present remembrance and emotions of memories to the user. Also, the subject displayed in a three dimensional virtual reality space reacts to motion information and voice information of the user and is linked to real world information (weather, news, etc.) at a specific future time of an event to be displayed in the three dimensional virtual reality space to allow the user to feel as if the user really converses with the subject about daily life.

Description

양방향 커뮤니케이션이 가능한 가상현실 시스템{VIRTUAL REALITY SYSTEM WITH TWO-WAY COMMUNICATION}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual reality system capable of two-

본 발명은 양방향 커뮤니케이션이 가능한 가상현실 시스템에 관한 것이다.The present invention relates to a virtual reality system capable of bidirectional communication.

가상현실(Virtual Reality) 시스템은 컴퓨터 등을 사용하여 가상 현실을 구현하는 시스템으로, 실제와 유사하지만 실제가 아닌 어떤 특정한 환경이나 상황을 구현하는 기술이다.Virtual Reality system is a system that implements a virtual reality using a computer or the like, and is a technology that implements a specific environment or situation that is similar to the actual, but not actual.

최근의 가상현실 시스템은 헤드장착 디스플레이(HMD : Head Mounted Display)처럼 3차원 가상 현실을 시각적으로 표시할 수 있는 디스플레이 수단과, 3차원 가상현실을 위한 가상현실 콘텐츠를 재생하여 디스플레이 수단을 제어하는 컴퓨터 장치와, 가상현실 콘텐츠가 사용자의 움직임에 대응하여 진행하도록 하기 위해 카메라 또는 센서 등을 이용하여 사용자의 움직임을 추적하여 컴퓨터 장치에게 제공하는 트래킹 장치를 포함한다.BACKGROUND ART [0002] Recent virtual reality systems include a display unit capable of visually displaying a 3D virtual reality such as a head mounted display (HMD), a computer controlling a display unit by reproducing a virtual reality content for a 3D virtual reality And a tracking device for tracking the movement of the user using a camera or a sensor to provide the virtual reality contents to the computer device in order to allow the virtual reality contents to proceed in response to the movement of the user.

가상공간 내에서 사용자가 특정 모션을 취하면 트래킹 장치가 그 사용자 모션을 추적하고, 가상현실 콘텐츠는 사용자 모션에 따라 가상공간을 바꾼다.When the user takes a specific motion in the virtual space, the tracking device tracks the user's motion, and the virtual reality contents change the virtual space according to the user's motion.

한편, 최근에는 사용자에게 실질적 현장감을 주는 효과, 즉 체감형 효과를 주는 콘텐츠의 개발이 시작되고 있다.On the other hand, in recent years, development of a content that gives a real sense of presence to a user, that is, a feeling-giving effect, is beginning to be developed.

이러한 효과를 4차원 요소 또는 4차원 효과라 한다.This effect is called a four-dimensional element or a four-dimensional effect.

예를 들어, 영화 장면 중에 주인공이 물에 빠지면, 관람객에게 실제로 물이 뿌려져 그 느낌을 준다거나, 영화 장면에서 바람이 불 경우에 실제로 관람객을 향해 일정한 속도의 에어를 분사함으로써 관람객이 바람을 실제로 느끼도록 하는 것이 4차원 요소의 예가 된다.For example, if the main character falls into the water during a movie scene, the viewer actually feels the wind by spraying water, or if the wind blows in the movie scene, the viewer actually blows air at a constant speed toward the viewer. Is an example of a four-dimensional element.

한편, 최근에는 가상현실 시스템을 이용하여 우리 사회에서 발생되는 여러가지 문제점(정신병, 우울증, 좌절, 자살 등등)을 개선 또는 해소하기 위한 사회적 수단으로의 방안에 대한 관심이 높아지고 있다.Recently, there has been a growing interest in using virtual reality systems as social tools to improve or solve various problems (psychosis, depression, frustration, suicide, etc.) in our society.

한국공개특허 제10-2016-0039776 '가상 공간 및 가상 객체를 포함하는 메시지를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체'Korean Patent Publication No. 10-2016-0039776 'Method, system and computer-readable recording medium for generating a message including a virtual space and a virtual object'

이에 본 발명은 전술한 배경에서 안출된 것으로, 사용자가 가상현실 시스템을 통해 대상체(고인, 미래의 특정인에게 자신의 메시지 또는 이벤트를 남기기 원하는 유저 등)와 쌍방향 교감 또는 대화를 할 수 있어서, 사용자에게 추억의 회상과 감동, 희망 등을 선사할 수 있도록 하는데 그 목적이 있다.Accordingly, the present invention has been made in view of the above background, and it is an object of the present invention to provide a virtual reality system in which a user can interact or interact with an object (a deceased person, a user who wants to leave his or her message or event to a future person, It is aimed to provide memories of memories, impressions, and hope.

또한, 3차원 가상현실 공간 상에 표시되는 대상체가, 사용자의 모션정보, 음성정보 등에 반응하고, 이벤트가 발생된 미래 특정 시점의 실세계정보(날씨, 뉴스 등)와 연동되어 3차원 가상현실 공간 상에 표시됨으로써, 사용자가 마치 실제로 대상체와 일상 생활에 대해 대화하는 것처럼 느낄 수 있도록 하는데 그 목적이 있다.In addition, the object displayed on the three-dimensional virtual reality space reacts with the motion information and voice information of the user, and interacts with the real-world information (weather, news, etc.) So that the user can feel as if he or she is actually conversing with the object in everyday life.

본 발명의 목적은 여기에 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited thereto, and other objects not mentioned may be clearly understood by those skilled in the art from the following description.

이러한 목적을 달성하기 위하여 본 발명의 일실시예는 3차원 가상현실 공간을 시각적으로 표시하는 디스플레이장치; 실세계 공간 상에서 사용자의 모션을 센싱하여 모션정보를 생성하는 트래킹센서장치; 및 3차원 가상현실 공간 상에 표시되는 대상체의 3D스캐닝정보가 저장되는 3D스캐닝정보저장부와, 트래킹센서장치로부터 전송된 모션정보에 대응하여 3D스캐닝정보를 매칭시키고, 모션정보에 연동하여 3D스캐닝정보를 디스플레이장치를 통해 표시되는 3차원 가상현실 공간 상에 표시하는 가상현실처리부를 포함하는 컴퓨터장치;를 포함하는 것을 특징으로 하는 양방향 커뮤니케이션이 가능한 가상현실 시스템을 제공한다.According to an aspect of the present invention, there is provided a display device including: a display device for visually displaying a three-dimensional virtual reality space; A tracking sensor device for sensing motion of a user on a real-world space to generate motion information; A 3D scanning information storage unit for storing 3D scanning information of a target object displayed on the 3D virtual space, a 3D scanning information storage unit for matching the 3D scanning information corresponding to the motion information transmitted from the tracking sensor unit, And a virtual reality processing unit for displaying the virtual reality information on the three-dimensional virtual reality space displayed through the display device.

본 발명의 일실시예에 의하면, 사용자가 가상현실 시스템을 통해 대상체(고인, 미래의 특정인에게 자신의 메시지 또는 이벤트를 남기기 원하는 유저 등)와 쌍방향 교감 또는 대화를 할 수 있어서, 사용자에게 추억의 회상과 감동, 희망 등을 선사할 수 있도록 하는 효과가 있다.According to an embodiment of the present invention, a user can interact or interact with an object (a deceased person, a user who wants to leave his or her message or event to a future person in the future) through a virtual reality system, And the like, and an effect that enables the user to be provided with a feeling of hope and hope.

또한, 3차원 가상현실 공간 상에 표시되는 대상체가, 사용자의 모션정보, 음성정보 등에 반응하고, 이벤트가 발생된 미래 특정 시점의 실세계정보(날씨, 뉴스 등)와 연동되어 3차원 가상현실 공간 상에 표시됨으로써, 사용자가 마치 실제로 대상체와 일상 생활에 대해 대화하는 것처럼 느낄 수 있도록 하는 효과가 있다.In addition, the object displayed on the three-dimensional virtual reality space reacts with the motion information and voice information of the user, and interacts with the real-world information (weather, news, etc.) Thereby making it possible for the user to feel as if he or she is actually conversing with the object in everyday life.

도 1은 본 발명의 일실시예에 따른 양방향 커뮤니케이션이 가능한 가상현실 시스템을 나타낸 블록도이다.
도 2는 도 1의 3D스캐닝정보저장부에 저장되는 정보들을 나타낸 도면이다.
도 3은 3D스캐닝장치가 대상체의 3D스캐닝정보를 생성하는 프로세스의 일예를 나타낸 순서도이다.
도 4는 도 1의 실세계정보저장부에 저장되는 정보들을 나타낸 도면이다.
도 5는 도 1의 컴퓨터장치가, 디스플레이장치를 통해 표시되는 3차원 가상현실 공간 상에 표시되는 대상체의 여러 정보들을 융합하는 프로세스의 일예를 나타낸 순서도이다.
1 is a block diagram illustrating a virtual reality system capable of bidirectional communication according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating information stored in the 3D scanning information storage unit of FIG. 1. Referring to FIG.
3 is a flowchart showing an example of a process by which the 3D scanning device generates 3D scanning information of a target object.
FIG. 4 is a diagram illustrating information stored in the real-world information storage unit of FIG. 1. FIG.
5 is a flowchart showing an example of a process in which the computer device of FIG. 1 fuses a plurality of pieces of information of an object displayed on a three-dimensional virtual reality space displayed through a display device.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference symbols as possible even if they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."

도 1은 본 발명의 일실시예에 따른 양방향 커뮤니케이션이 가능한 가상현실 시스템을 나타낸 블록도이다.1 is a block diagram illustrating a virtual reality system capable of bidirectional communication according to an embodiment of the present invention.

도 2는 도 1의 3D스캐닝정보저장부에 저장되는 정보들을 나타낸 도면이다.FIG. 2 is a diagram illustrating information stored in the 3D scanning information storage unit of FIG. 1. Referring to FIG.

도 3은 3D스캐닝장치가 대상체의 3D스캐닝정보를 생성하는 프로세스의 일예를 나타낸 순서도이다.3 is a flowchart showing an example of a process by which the 3D scanning device generates 3D scanning information of a target object.

도 4는 도 1의 실세계정보저장부에 저장되는 정보들을 나타낸 도면이다.FIG. 4 is a diagram illustrating information stored in the real-world information storage unit of FIG. 1. FIG.

도 5는 도 1의 컴퓨터장치가, 디스플레이장치를 통해 표시되는 3차원 가상현실 공간 상에 표시되는 대상체의 여러 정보들을 융합하는 프로세스의 일예를 나타낸 순서도이다.5 is a flowchart showing an example of a process in which the computer device of FIG. 1 fuses a plurality of pieces of information of an object displayed on a three-dimensional virtual reality space displayed through a display device.

이들 도면들에 도시된 바와 같이, 본 발명의 일실시예에 따른 양방향 커뮤니케이션이 가능한 가상현실 시스템은, 3차원 가상현실 공간을 시각적으로 표시하는 디스플레이장치(101); 실세계 공간 상에서 사용자의 모션을 센싱하여 모션정보(MI)를 생성하는 트래킹센서장치(103); 및 3차원 가상현실 공간 상에 표시되는 대상체의 3D스캐닝정보(SI)가 저장되는 3D스캐닝정보저장부(105)와, 트레킹센서장치(103)로부터 전송된 모션정보(MI)에 대응하여 3D스캐닝정보(SI)를 매칭시키고, 모션정보(MI)에 연동하여 3D스캐닝정보(SI)를 디스플레이장치(101)를 통해 표시되는 3차원 가상현실 공간 상에 표시하는 가상현실처리부(107)를 포함하는 컴퓨터장치(109);를 포함하는 것을 특징으로 한다.As shown in these drawings, a virtual reality system capable of two-way communication according to an embodiment of the present invention includes a display device 101 for visually displaying a three-dimensional virtual reality space; A tracking sensor device (103) for sensing motion of the user on the real space to generate motion information (MI); A 3D scanning information storage unit 105 for storing 3D scanning information SI of a target object displayed on the 3D virtual space, a 3D scanning information storage unit 105 for storing 3D scanning information SI corresponding to the motion information MI transmitted from the trekking sensor unit 103, And a virtual reality processing unit 107 for matching the information SI and interlocking with the motion information MI to display the 3D scanning information SI on the three-dimensional virtual reality space displayed through the display device 101 And a computer device (109).

여기서, 상술한 '대상체'는, 고인(故人), 미래의 어느 시점으로 메시지를 전달하고자 하는 유저 등이 될 수 있다.Here, the 'object' may be a deceased person, a user who wants to transmit a message to a future point in time, and the like.

이하, 각 구성별로 상세히 설명한다.Hereinafter, each configuration will be described in detail.

먼저, 디스플레이장치(101)는 3차원 가상현실 공간을 시각적으로 표시하는 기능을 수행한다.First, the display device 101 performs a function of visually displaying a three-dimensional virtual reality space.

이러한 디스플레이장치(101)는 일예로 HMD(Head Mounted Display)로 제공될 수 있으며, 이와 달리 3D홀로그래픽 디스플레이로 제공될 수도 있다.The display device 101 may be provided as an HMD (Head Mounted Display), or alternatively may be provided as a 3D holographic display.

한편, 디스플레이장치(101)는 후술할 컴퓨터장치(109)와 유선 또는 무선으로 연결되어서 컴퓨터장치(109)로부터 각종 정보를 전송받는다.On the other hand, the display device 101 is connected to a computer device 109, which will be described later, by wire or wirelessly, and receives various information from the computer device 109. [

여기서, 디스플레이장치(101)와 컴퓨터장치(109) 사이의 통신 기술은 현재 또는 향후 지원될 통신 네트워크를 모두 포함하며, 이를 위한 하나 또는 그 이상의 통신 프로토콜들을 모두 지원 가능하다.Here, the communication technology between the display device 101 and the computer device 109 includes both current and future communication networks, and is capable of supporting one or more communication protocols for this.

이러한 유선 또는 무선 네트워크는, 일예로, USB(Universal Serial Bus), 컴포넌트(Component), S-비디오(아날로그), DVI(Digital Visual Interface), HDMI(High Definition Multimedia Interface), RGB, D-SUB와 같은 유선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜과, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA Infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance), WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE/LTE-A(Long Term Evolution(LTE)/LTE-Advanced), Wi-Fi 다이렉트와 같은 무선 연결을 위한 네트워크와 그를 위한 통신 규격 내지 프로토콜에 의하여 형성될 수 있다.Such wired or wireless networks include, for example, a universal serial bus (USB), a component, an S-video (analog), a digital visual interface (DVI), a high definition multimedia interface A communication standard or protocol for the same wired connection and a communication protocol or protocol for the same for wired connection and a wireless communication system such as Bluetooth, Radio Frequency Identification (RFID), IrDA Infrared Data Association, UWB (Ultra Wideband), ZigBee, DLNA (WLAN), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), LTE / LTE (Long Term Evolution LTE) / LTE-Advanced), Wi-Fi direct, and a communication standard or protocol for the network.

이어서, 트래킹센서장치(103)는 실세계 공간 상에서 사용자의 모션을 센싱하여 모션정보(MI)를 생성한다.Subsequently, the tracking sensor device 103 senses the motion of the user on the real-world space to generate motion information MI.

트래킹센서장치(103)는 사용자의 실제 모션을 추적하고 계산하기 위한 기본 정보를 획득하기 위한 장치로, 일예로, 사용자 신체의 특정 위치에 부착된 마커(Marker)와 복수개의 카메라로 구성될 수도 있고, 3차원 카메라(Depth Camera)로 제공될 수도 있다.The tracking sensor device 103 is an apparatus for acquiring basic information for tracking and calculating a user's actual motion. For example, the tracking sensor device 103 may comprise a plurality of cameras and a marker attached to a specific position of the user's body , Or a three-dimensional camera (Depth Camera).

물론, 이 외에도 사용자의 모션 트래킹을 위해 알려진 다양한 방법 또는 장치들이 트래킹센서장치로 사용될 수 있다.Of course, various methods or devices known for the user's motion tracking may also be used as the tracking sensor device.

이러한 트래킹센서장치(103)는 후술할 컴퓨터장치(109)와 유선 또는 무선으로 연결된다.The tracking sensor device 103 is connected to a computer device 109, which will be described later, by wire or wirelessly.

이어서, 컴퓨터장치(109)는 디스플레이장치(101), 트래킹센서장치(103), 후술할 음성인식장치(111)와 연결되어 이들 장치를 제어함으로써, 본 발명인 양방향 커뮤니케이션이 가능한 가상현실 시스템의 전반적인 동작을 수행한다.The computer device 109 is connected to the display device 101, the tracking sensor device 103 and the speech recognition device 111 to be described later to control the overall operation of the virtual reality system capable of bidirectional communication .

이러한 동작 수행을 위하여, 컴퓨터장치(109)는 3D스캐닝정보저장부(105)와 가상현실처리부(107)를 포함한다.To perform this operation, the computer device 109 includes a 3D scanning information storage unit 105 and a virtual reality processing unit 107. [

여기서, 3D스캐닝정보저장부(105)는, 3차원 가상현실 공간 상에 표시되는 대상체의 3D스캐닝정보(SI)를 저장한다.Here, the 3D scanning information storage unit 105 stores 3D scanning information SI of the object displayed on the 3D virtual space.

한편, 3D스캐닝정보(SI)는 일예로, 대상체의 안면형상정보, 대상체의 표정정보, 대상체의 전신형상정보, 대상체의 음성정보, 대상체의 배경정보 등을 포함한다.On the other hand, the 3D scanning information SI includes, for example, facial shape information of the object, facial expression information of the object, full body shape information of the object, audio information of the object, background information of the object,

그리고 3D스캐닝정보(SI)는 3D스캐닝장치가 대상체를 스캐닝하는 과정을 통하여 생성되는데, 3D스캐닝장치가 대상체의 3D스캐닝정보(SI)를 생성하는 프로세스의 일예는 도 3에 도시하였다.The 3D scanning information SI is generated through a process of scanning a target object, and an example of a process by which the 3D scanning device generates 3D scanning information SI of the target object is shown in FIG.

가상현실처리부(107)는 트래킹센서장치(103)로부터 전송된 모션정보(MI)에 대응하여 3D스캐닝정보(SI)를 매칭시킨다.The virtual reality processing unit 107 matches the 3D scanning information SI in correspondence with the motion information MI transmitted from the tracking sensor apparatus 103.

좀 더 구체적으로, 가상현실처리부(107)는 미래 특정 시점의 실세계 공간 상에 있는 사용자의 모션에 따라 대상체의 동작, 표정, 음성 등이 변경되도록 사용자의 모션정보(MI)와 대상체의 3D스캐닝정보(SI)를 매칭시킨다.More specifically, the virtual reality processing unit 107 determines whether or not the motion information (MI) of the user and the 3D scanning information of the object are changed so that the motion, the expression, the voice, etc. of the object are changed according to the motion of the user on the real- (SI).

여기서, 가상현실처리부(107)가 사용자의 모션에 따라 대상체의 동작, 표정, 음성 등이 변경되도록 하기 위한 3D스캐닝정보(SI)의 보완, 누적, 업데이트 등은, 일예로 AI(Artificial Intelligence, 인공지능) 딥러닝(Deep Learning)을 통해 수행될 수 있다.The supplement, accumulation, and update of the 3D scanning information (SI) for allowing the virtual reality processing unit 107 to change the operation, facial expression, voice, etc. of the object according to the motion of the user may be, for example, AI Intelligence) Deep Learning (Deep Learning).

좀 더 구체적으로, 가상현실처리부(107)는 AI 딥러닝을 통하여, 특정 상황별, 이벤트별 동작, 표정, 음성 등에 대한 일반데이터를 수집, 축적하고, 이 일반데이터를 대상체의 동작 변화, 표정 변화, 음성 변화를 위한 3D스캐닝정보(SI)의 보완, 누적, 업데이트 등에 융합한다.More specifically, the virtual reality processing unit 107 collects and accumulates general data on specific situations, events, behaviors, facial expressions, voices, and the like through AI deep learning, and transmits the general data to an operation change, , And supplementing, accumulating, and updating 3D scanning information (SI) for voice change.

그리고 가상현실처리부(107)는 모션정보(MI)에 연동하여 3D스캐닝정보(SI)를 디스플레이장치(101)를 통해 표시되는 3차원 가상현실 공간 상에 표시한다.The virtual reality processing unit 107 displays the 3D scanning information SI on the 3D virtual reality space displayed through the display device 101 in conjunction with the motion information MI.

이로 인해, 미래 특정 시점의 실세계 공간 상에 있는 사용자는 대상체와 마치 동일한 공간 상에서 교감을 하는 것처럼 느낄 수 있게 된다.As a result, the user on the real space of the future at a specific point in the future can feel as if he or she is communicating with the object in the same space.

한편, 컴퓨터장치(109)는 이벤트가 발생된 미래 시점의 실세계 공간에 대한 실세계정보(RWI)가 저장되는 실세계정보저장부(113)를 더 포함한다.The computer device 109 further includes a real-world information storage unit 113 for storing real-world information (RWI) of a real-world space at a future point of time when an event is generated.

여기서, 실세계정보저장부(113)에 저장되는 실세계정보(RWI)는, 일예로, 이벤트가 발생된 미래 특정 시점의 날씨정보, 뉴스정보, 사건/사고정보, 이벤트정보, 경제정보, 환경정보 등 실세계에 관련된 다양한 정보들을 포함한다.Here, the real-world information RWI stored in the real-world-information storage unit 113 includes, for example, weather information, news information, event / accident information, event information, economic information, environmental information And various information related to the real world.

이 때, 앞에서 설명한 가상현실처리부(107)는, 모션정보(MI)와 실세계정보(RWI)를 기반으로 3D스캐닝정보(SI)를 매칭한다.At this time, the virtual reality processing unit 107 described above matches the 3D scanning information SI based on the motion information MI and the real world information RWI.

좀 더 구체적으로, 가상현실처리부(107)는, 실세계정보(RWI)를 3D스캐닝정보(SI)와 연동하고, 이를 3D스캐닝정보(SI)에 매칭한다.More specifically, the virtual reality processing unit 107 associates the real-world information RWI with the 3D scanning information SI and matches it with the 3D scanning information SI.

이로 인해, 이벤트가 발생된 미래 특정 시점의 실세계 공간 상에 있는 사용자는 마치 대상체와 동일한 공간 상에서 실세계정보(RWI)(예로, 날씨, 사건, 사고, 사회이슈, 경제이슈, 환경이슈 등)에 대해 교감하는 것처럼 느낄 수 있게 된다.As a result, a user on a real-time space at a certain point in time at which an event occurs can be used for real-world information (RWI) (e.g., weather, events, accidents, social issues, economic issues, environmental issues, etc.) I feel like I feel sympathetic.

한편, 본 발명의 일실시예에 따른 양방향 커뮤니케이션이 가능한 가상현실 시스템은, 사용자의 음성을 인식하여 음성정보(VI)를 생성하는 음성인식장치(111);를 더 포함한다.Meanwhile, the virtual reality system capable of bidirectional communication according to an embodiment of the present invention further includes a voice recognition device 111 for recognizing a user's voice and generating voice information (VI).

여기서, 음성인식장치(111)는 일예로, 마이크 등으로 제공될 수 있다.Here, the speech recognition apparatus 111 may be provided as a microphone, for example.

한편, 상술한 가상현실처리부(107)는, 음성인식장치(111)로부터 전송된 음성정보(VI)와 모션정보(MI)를 기반으로 3D스캐닝정보(SI)를 매칭한다.The virtual reality processing unit 107 matches the 3D scanning information SI based on the audio information VI and the motion information MI transmitted from the speech recognition apparatus 111. [

좀 더 구체적으로, 가상현실처리부(107)는, 음성정보(VI)와 모션정보(MI)를 연동하고, 이를 3D스캐닝정보(SI)에 매칭한다.More specifically, the virtual reality processing unit 107 associates the voice information VI with the motion information MI and matches the 3D information with the 3D scanning information SI.

이로 인해, 이벤트가 발생된 미래 특정 시점의 실세계 공간 상에 있는 사용자는 마치 대상체와 동일한 공간 상에서 대화하는 것처럼 느낄 수 있게 된다.Thus, the user on the real space of the specific point in time at which the event occurs can feel as if he or she is talking in the same space as the object.

물론, 상술한 가상현실처리부(107)는, 음성인식장치(111)로부터 전송된 음성정보(VI), 트래킹센서장치(103)로부터 전송된 모션정보(MI), 실세계정보저장부(113)에 저장되는 실세계정보(RWI)를 기반으로 3D스캐닝정보(SI)를 매칭할 수도 있다.Of course, the above-described virtual reality processing section 107 may be configured to read the voice information VI transmitted from the voice recognition device 111, the motion information MI transmitted from the tracking sensor device 103, The 3D scanning information SI may be matched based on the stored real-world information RWI.

한편, 컴퓨터장치(109)가, 디스플레이장치(101)를 통해 표시되는 3차원 가상현실 공간 상에 표시되는 대상체의 여러 정보들을 융합하는 프로세스의 일예는 도 5에 도시하였다.On the other hand, an example of a process by which the computer device 109 fuses a plurality of pieces of information of an object displayed on a three-dimensional virtual reality space displayed through the display device 101 is shown in Fig.

이상에서 설명한 바와 같이, 본 발명의 일실시예에 의하면, 사용자가 가상현실 시스템을 통해 대상체(고인, 미래의 특정인에게 자신의 메시지 또는 이벤트를 남기기 원하는 유저 등)와 쌍방향 교감 또는 대화를 할 수 있어서, 사용자에게 추억의 회상과 감동, 희망 등을 선사할 수 있도록 하는 효과가 있다.As described above, according to an embodiment of the present invention, a user can interact with a target object (a deceased person, a user who wants to leave his / her message or event to a future person in the future, etc.) through a virtual reality system, , It is possible to provide the user with memories, impressions, hopes, and the like.

또한, 3차원 가상현실 공간 상에 표시되는 대상체가, 사용자의 모션정보, 음성정보 등에 반응하고, 이벤트가 발생된 미래 특정 시점의 실세계정보(날씨, 뉴스 등)와 연동되어 3차원 가상현실 공간 상에 표시됨으로써, 사용자가 마치 실제로 대상체와 일상 생활에 대해 대화하는 것처럼 느낄 수 있도록 하는 효과가 있다.In addition, the object displayed on the three-dimensional virtual reality space reacts with the motion information and voice information of the user, and interacts with the real-world information (weather, news, etc.) Thereby making it possible for the user to feel as if he or she is actually conversing with the object in everyday life.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

101 : 디스플레이장치
103 : 트래킹센서장치
105 : 3D스캐닝정보저장부
107 : 가상현실처리부
109 : 컴퓨터장치
111 : 음성인식장치
113 : 실세계정보저장부
101: Display device
103: Tracking sensor device
105: 3D scanning information storage unit
107: Virtual reality processor
109: Computer device
111: Speech recognition device
113: Real-world information storage unit

Claims (5)

3차원 가상현실 공간을 시각적으로 표시하는 디스플레이장치;
실세계 공간 상에서 사용자의 모션을 센싱하여 모션정보를 생성하는 트래킹센서장치; 및
상기 3차원 가상현실 공간 상에 표시되는 대상체의 3D스캐닝정보가 저장되는 3D스캐닝정보저장부와, 상기 트래킹센서장치로부터 전송된 모션정보에 대응하여 상기 3D스캐닝정보를 매칭시키고, 상기 모션정보에 연동하여 상기 3D스캐닝정보를 상기 디스플레이장치를 통해 표시되는 상기 3차원 가상현실 공간 상에 표시하는 가상현실처리부 및 이벤트가 발생된 미래 특정 시점의 상기 실세계 공간에 대한 실세계정보가 저장되는 실세계정보저장부를 포함하는 컴퓨터장치;를 포함하며,
상기 가상현실처리부는,
상기 모션정보와 상기 실세계정보를 기반으로 상기 3D스캐닝정보를 매칭하고,
상기 가상현실처리부는,
AI 딥러닝을 통하여 특정 상황별 또는 이벤트별 동작에 대한 일반데이터를 수집 및 축적하고, 상기 일반데이터를 상기 대상체의 동작 변화를 위한 상기 3D스캐닝정보에 융합하여 업데이트하는 것을 특징으로 하는 양방향 커뮤니케이션이 가능한 가상현실 시스템.
A display device for visually displaying a three-dimensional virtual reality space;
A tracking sensor device for sensing motion of a user on a real-world space to generate motion information; And
A 3D scanning information storage unit for storing 3D scanning information of a target object displayed on the 3D virtual space, a 3D scanning information storage unit for matching the 3D scanning information corresponding to the motion information transmitted from the tracking sensor unit, A virtual reality processing unit for displaying the 3D scanning information on the 3D virtual reality space displayed through the display device and a real world information storage unit for storing real world information on the real world space at a future specific point of time when the event is generated The computer system comprising:
The virtual reality processing unit,
The 3D scanning information is matched based on the motion information and the real world information,
The virtual reality processing unit,
Wherein the general data is collected and accumulated by a specific situation or an event-specific operation through AI deep running, and the general data is updated by being merged with the 3D scanning information for operation change of the object. Virtual reality system.
삭제delete 삭제delete 제 1 항에 있어서,
상기 사용자의 음성을 인식하여 음성정보를 생성하는 음성인식장치;를 포함하는 것을 특징으로 하는 양방향 커뮤니케이션이 가능한 가상현실 시스템.
The method according to claim 1,
And a voice recognition device for recognizing the voice of the user and generating voice information.
제 4 항에 있어서,
상기 가상현실처리부는,
상기 음성인식장치로부터 전송된 상기 음성정보와 상기 모션정보를 기반으로 상기 3D스캐닝정보를 매칭하는 것을 특징으로 하는 양방향 커뮤니케이션이 가능한 가상현실 시스템.
5. The method of claim 4,
The virtual reality processing unit,
And the 3D scanning information is matched based on the audio information and the motion information transmitted from the voice recognition device.
KR1020170055383A 2017-04-28 2017-04-28 Virtual reality system with two-way communication KR101839726B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170055383A KR101839726B1 (en) 2017-04-28 2017-04-28 Virtual reality system with two-way communication
PCT/KR2018/005032 WO2018199724A1 (en) 2017-04-28 2018-04-30 Virtual reality system enabling bi-directional communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170055383A KR101839726B1 (en) 2017-04-28 2017-04-28 Virtual reality system with two-way communication

Publications (1)

Publication Number Publication Date
KR101839726B1 true KR101839726B1 (en) 2018-04-27

Family

ID=62081596

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170055383A KR101839726B1 (en) 2017-04-28 2017-04-28 Virtual reality system with two-way communication

Country Status (2)

Country Link
KR (1) KR101839726B1 (en)
WO (1) WO2018199724A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256383B1 (en) * 2020-05-18 2021-05-25 권영훈 system for chatbot service that provides response information and transforms the appearance of characters in consideration of the user's desired time
KR20220033194A (en) 2020-09-09 2022-03-16 주식회사 코탁스 communicating system through selective extraction and matching of voice data based on virtual space

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618004B1 (en) * 2015-01-27 2016-05-09 가톨릭대학교 산학협력단 Interactive content providing apparatus based on the virtual reality and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256512A (en) * 2000-03-09 2001-09-21 Nippon Telegr & Teleph Corp <Ntt> Method for virtual space communication and system device
KR20000054699A (en) * 2000-06-19 2000-09-05 최인호 System and method for offering music and image letter using internet
KR20160009213A (en) * 2014-07-15 2016-01-26 (주)소셜네트워크 A Head Mounted Display and A Method for Providing Contents Using the Same
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101618004B1 (en) * 2015-01-27 2016-05-09 가톨릭대학교 산학협력단 Interactive content providing apparatus based on the virtual reality and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102256383B1 (en) * 2020-05-18 2021-05-25 권영훈 system for chatbot service that provides response information and transforms the appearance of characters in consideration of the user's desired time
KR20210142560A (en) * 2020-05-18 2021-11-25 권영훈 Communication system providing chatbot service
KR102536992B1 (en) 2020-05-18 2023-05-26 주식회사 에이비파트너스 Communication system providing chatbot service
KR20220033194A (en) 2020-09-09 2022-03-16 주식회사 코탁스 communicating system through selective extraction and matching of voice data based on virtual space

Also Published As

Publication number Publication date
WO2018199724A1 (en) 2018-11-01

Similar Documents

Publication Publication Date Title
CN108876877B (en) Emotion symbol doll
US11825012B2 (en) Server, client terminal, control method, and storage medium
CN103902046B (en) Intelligent prompt method and terminal
US20190383620A1 (en) Information processing apparatus, information processing method, and program
US10719950B2 (en) Head mount display (HMD) operated with mobile device for transforming reference coordinate systems for providing screen information
CN109976513B (en) System interface design method
CN110908504B (en) Augmented reality museum collaborative interaction method and system
WO2015194081A1 (en) Apparatus, method and program to position building infrastructure through user information
CN109272473B (en) Image processing method and mobile terminal
KR101839726B1 (en) Virtual reality system with two-way communication
KR102144515B1 (en) Master device, slave device and control method thereof
WO2016125672A1 (en) Information processing device, image processing method, and program
CN115909015B (en) Method and device for constructing deformable nerve radiation field network
CN110298925B (en) Augmented reality image processing method, device, computing equipment and storage medium
WO2023091207A1 (en) Interpretation of resonant sensor data using machine learning
US11169599B2 (en) Information processing apparatus, information processing method, and program
US20200175739A1 (en) Method and Device for Generating and Displaying an Electronic Avatar
US20200388052A1 (en) Information processing device, information processing method, and program
JP6721727B1 (en) Information processing apparatus control program, information processing apparatus control method, and information processing apparatus
CN116841393A (en) Meta-universe scene control system and method and virtual scene interaction system
KR102224985B1 (en) System and method for recognition acquaintance by wearable glass device
CN112437226A (en) Image processing method, apparatus and storage medium
KR102565196B1 (en) Method and system for providing digital human in virtual space
JP7130213B1 (en) Main terminal, program, system and method for maintaining relative position and orientation with sub-terminal in real space in virtual space
WO2020158440A1 (en) Information processing device, information processing method, and recording medium in which program is written

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant