KR102248080B1 - 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템 - Google Patents

실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템 Download PDF

Info

Publication number
KR102248080B1
KR102248080B1 KR1020190176758A KR20190176758A KR102248080B1 KR 102248080 B1 KR102248080 B1 KR 102248080B1 KR 1020190176758 A KR1020190176758 A KR 1020190176758A KR 20190176758 A KR20190176758 A KR 20190176758A KR 102248080 B1 KR102248080 B1 KR 102248080B1
Authority
KR
South Korea
Prior art keywords
real
image
robot
driving
user
Prior art date
Application number
KR1020190176758A
Other languages
English (en)
Inventor
김만근
Original Assignee
농업회사법인 한국도시농업 주식회사
김만근
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 농업회사법인 한국도시농업 주식회사, 김만근 filed Critical 농업회사법인 한국도시농업 주식회사
Priority to KR1020190176758A priority Critical patent/KR102248080B1/ko
Application granted granted Critical
Publication of KR102248080B1 publication Critical patent/KR102248080B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템에 관한 것이다. 본 발명은, 스마트 단말(100), 주행영상로봇(200), 그리고 적어도 하나 이상의 현장 기계장치(300)로 이루어지는 현장 기계장치 그룹(300g)을 포함하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)에 있어서, 사용자가 운영하는 스마트 단말(100)이 접속 어플 또는 HMD 기반의 고글을 포함하는 접속 기기를 통하여 주행영상로봇(200)과 근거리 무선통신 방식으로 데이터 세션을 연결하고 주행영상로봇(200)의 운전 여부를 승인하면 주행영상로봇(200)이 동작을 자율주행 및 현장 기계장치 그룹(300g) 중 하나의 현장 기계장치(300)에 대한 목표지점에 대한 설정을 통해 수행되도록 하는 것을 특징으로 할 수 있다.
이에 의해, 주행영상로봇에 대한 원격에서 접속으로 현재의 현장 환경을 직접 눈으로 보면서 현장에 설치된 각종 도구들을 사용할 수 있도록 하는 효과를 제공할 수 있다. 뿐만 아니라, 기존의 증강현실과 달리 VR로 생중계하는 컨텐츠를 즐기듯이 사용자가 실시간 제공되는 영상 정보를 통하여, 직접 기계 장치 및 가전제품 등을 직접 제어하거나 조작 할 수 있을 뿐만 아니라 사용자가 본인의 사무실에 원격접속, 컴퓨터를 부팅 시킨 후 직접 문서 작성 등의 업무를 수행할 수 있는 효과를 제공할 수 있다.

Description

실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템{Remote access Merged Reality platform providing system using real-time video}
본 발명은 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템에 관한 것으로, 보다 구체적으로는, 주행영상로봇에 대한 원격에서 접속으로 현재의 현장 환경을 직접 눈으로 보면서 현장에 설치된 각종 도구들을 사용할 수 있도록 하기 위한 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템에 관한 것이다.
기술적 진보가 디지털의 영향으로 급격히 빨라짐에 따라 세상의 문화 역시 급변하고 있다. 이제는 생활 속에서도 스마트 폰만 있으면 얼마든지 증강현실(Augmented Reality, AR)이나 가상현실(Virtual Reaality, VR)을 경험 할 수 있으며 현실감을 느끼기 위해 고글과 같은 장치를 통하여 가상현실에 접속하여 즐길 수 있다.
이렇듯 이러한 문화의 확산으로 다양한 컨텐츠들이 개발되고 있는데, 증강현실의 경우, 현실세계와 가상세계를 잘 조화시켜 사용자가 실제 및 가상 환경이 분리되었다는 것을 인지하지 못한 채, 사용자와 가상세계간의 실시간 상호작용이 가능한 몰입감을 제공한다.
예를 들면, 옷을 구매할 때, 의류매장에서 색상이나 스타일이 어울리는지 옷을 입어봐야 하지만, 증강현실을 사용할 경우 착용해보지 않고도, 간편하게 확인할 수 있으며, 가구 등을 구매할 때에도, 잡지에 있는 가구가 원하는 장소에 배치된 모습을 증강현실 기법으로 확인함으로써 마케팅 효과를 거두고 있다.
가상현실인 VR이 이슈가 되는 것은 VR에서만 느낄 수 있는 생동감 때문이다. 주변의 모든 환경을 가상의 공간으로 채워 마치 실제로 그곳에 있는 듯한 경험을 할 수 있는 것이다.
앞으로는 이러한 기술들이 발전을 거듭하면 현장에 가지 않고도 기기의 조작 등이 가능하게 하거나 재택근무도 가능할 것이다. 뿐만 아니라 각종 학습 컨텐츠의 개발과 다수의 접속자들과 실전과 같은 게임이나 스포츠 그리고 여행지까지 가지 않고도 여행을 할 수 있는 시대가 도래 할 것이며, 이러한 기술의 발전은 인간을 좀 더 풍요로운 세계로 이끌 것이다.
이와 관련된 종래에 해당하는 증강현실 및 가상현실과 관련된 기술을 살펴보면, 증강현실은 내부적으로 대단히 복잡하고 어려운 영상 기술이지만, 기본적으로는 다음과 같은 원리와 순서로 작동한다.
증강현실 기술을 적용하기 위해서는 지리/위치 정보를 송수신하는 GPS 장치 및 중력(기울기+전자나침반) 센서(또는 자이로스코프 센서), 이 정보에 따른 상세 정보가 저장된 위치정보시스템(인터넷 연결 필요) 및 그 상세 정보를 수신하여 현실 배경에 표시하는 증강현실 애플리케이션과 마지막으로 이를 디스플레이로 출력할 IT 기기(스마트폰, 태블릿 PC) 등이다.
우선 사용자가 증강현실 애플리케이션 실행 후 스마트폰 등의 내장 카메라(캠)로 특정 거리나 건물을 비추면 GPS 수신기를 통해 현재 위치의 위도/경도 정보, 기울기/중력 정보 등이 스마트폰에 임시 기록되고, 다음 이 GPS 정보를 인터넷을 통해 특정 위치정보 시스템에 전송한다.
이는 해당 위치 반경의 지역이나 건물의 상세 정보를 모두 스마트폰에 저장하기가 현실적으로 불가능하기 때문으로서, 사용자로부터 위치/기울기 등의 GPS 정보를 수신한 위치정보시스템은 해당 지역 또는 사물의 상세 정보를 자신의 데이터베이스에서 검색한 후 그 결과를 다시 스마트폰으로 전송한다.
여기에는 물론 특정 건물의 상호, 전화번호 등이 들어 있는데, 이 데이터를 수신한 스마트폰은 증강현실 애플리케이션을 통해 현 지도 정보와 매칭시킨 후 실시간 화면으로 보여주는 것이다.
위의 데이터 송수신 단계는 지속적으로 유지, 수행되므로 스마트폰을 들고 거리를 지나면 해당 지역 및 주변에 대한 상세 정보가 순차적으로 화면에 나타나게 되는 기술이다.
가상현실이 이미지, 주변 배경, 객체 모두를 가상의 이미지로 만들어 보여 주는 반면, 증강현실은 추가되는 정보만 가상으로 만들어 보여준다는 점에서 서로 다르다.
즉 증강현실은 현실 세계의 실제 모습이 주가 된다는 점에서 가상현실과 다른 것으로서 가상현실은 자신(객체)과 배경·환경 모두 현실이 아닌 가상의 이미지를 사용하는데 반해, 증강현실은 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이며, 혼합현실(Mixed Reality, MR)이라고도 한다.
이러한 기술의 응용으로 다양한 플랫폼들이 개발되고 있지만 이러한 기술들은 사용자들이 증강현실을 통한 서비스를 통하여 가상으로 만들어진 정보를 선택할 때 유용한 가치를 가질 수 있는 용역을 제공받는 자의 입장에 선다. 즉 기존의 증강현실 및 가상현실 서비스 제공은 사용자 중심이 아니라 정보 제공자 중심의 컨텐츠로서 편리성에 기인한 단순 서비스 차원의 기술이라 하겠다.
이에 따라 해당 기술분야에 있어서는 용역을 제공받는 자의 입장이 아니라 직접 용역을 제공하는 입장에서 주행영상로봇에 대한 원격에서 접속으로 현재의 현장 환경을 직접 눈으로 보면서 현장에 설치된 각종 도구들을 사용할 수 있도록 하기 위한 기술개발이 요구되고 있다.
대한민국 특허출원 출원번호 제10-2017-0178764(2017.12.22)호 "모바일 기기를 이용한 VR/AR 기반 다중지능 검사방법 및 다중지능 검사시스템(METHOD AND SYSTEM FOR TESTING MULTIPLE-INTELLIGENCE BASED ON VR/AR USING MOBILE DEVICE)"
본 발명은 상기의 문제점을 해결하기 위한 것으로, 주행영상로봇에 대한 원격에서 접속으로 현재의 현장 환경을 직접 눈으로 보면서 현장에 설치된 각종 도구들을 사용할 수 있도록 하기 위한 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템을 제공하기 위한 것이다.
또한, 본 발명은 기존의 증강현실과 달리 VR로 생중계하는 컨텐츠를 즐기듯이 사용자가 실시간 제공되는 영상 정보를 통하여, 직접 기계 장치 및 가전제품 등을 직접 제어하거나 조작 할 수 있을 뿐만 아니라 사용자가 본인의 사무실에 원격접속, 컴퓨터를 부팅 시킨 후 직접 문서 작성 등의 업무를 수행할 수 있도록 하기 위한 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템을 제공하기 위한 것이다.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템은, 스마트 단말(100), 주행영상로봇(200), 그리고 적어도 하나 이상의 현장 기계장치(300)로 이루어지는 현장 기계장치 그룹(300g)을 포함하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)에 있어서, 사용자가 운영하는 스마트 단말(100)이 접속 어플 또는 HMD 기반의 고글을 포함하는 접속 기기를 통하여 주행영상로봇(200)과 근거리 무선통신 방식으로 데이터 세션을 연결하고 주행영상로봇(200)의 운전 여부를 승인하면 주행영상로봇(200)은 자율주행하여 현장 기계장치 그룹(300g) 중 하나의 현장 기계장치(300)의 위치로 이동하도록 하는 것을 특징으로 할 수 있다.
이때, 사용자가 운용하는 스마트 단말(100)은 주행영상로봇(200)으로부터 직접 제공받은 현장 실시간 영상에 해당하는 현장 실시간 영상부(I1), 각종 제어 아이콘이 탑재되는 VR 가상 현실부(I2)를 융합함으로써, 현장 기계장치(300)로부터 제공받은 사용자 접속도구에 MR 융합현실부(I3)가 형성되도록 하여 실시간 영상 창을 통해 접속 어플 또는 고글로 제공하는 것을 특징으로 할 수 있다.
또한, "실시간 영상 창"에는 각종 제어 아이콘이 배치되어 있으며, 각종 제어 아이콘에 대한 사용자의 선택에 따라 주행영상로봇(200)이 선택된 제어 아이콘과 매칭되도록 주행을 수행하는 것을 특징으로 할 수 있다.
또한, 주행영상로봇(200)이, 사용자가 원하는 목표지점에 도착하면 현장 기계장치(300)에 설치된 목표센서가 주행영상로봇(200)의 목표센서 감지모듈(253)과 매칭되어 작동함으로써, 주행영상로봇(200)과 현장 기계장치(300)와의 거리가 현장 기계장치(300)에서 퍼스널 컴퓨터(100a)를 통해서 또는 스마트 단말(100)을 통해 접속 어플 또는 고글로 표시되는 것을 특징으로 할 수 있다.
또한, 목표센서와 목표센서 감지모듈(253)은 무선송수신 방식에서 RTT(Round Trip Time)을 통한 상호간의 거리를 측정하는 것을 특징으로 할 수 있다.
본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템은, 주행영상로봇에 대한 원격에서 접속으로 현재의 현장 환경을 직접 눈으로 보면서 현장에 설치된 각종 도구들을 사용할 수 있도록 하는 효과를 제공할 수 있다.
뿐만 아니라, 본 발명의 다른 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템은, 기존의 증강현실과 달리 VR로 생중계하는 컨텐츠를 즐기듯이 사용자가 실시간 제공되는 영상 정보를 통하여, 직접 기계 장치 및 가전제품 등을 직접 제어하거나 조작 할 수 있을 뿐만 아니라 사용자가 본인의 사무실에 원격접속, 컴퓨터를 부팅 시킨 후 직접 문서 작성 등의 업무를 수행할 수 있는 효과를 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 퍼스널 컴퓨터(100a)에 출력되는 영상 레이어를 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 MR 접속 플랫폼을 설명하기 위한 도면이다.
도 4 및 도 5는 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 주행영상로봇(200)의 구성을 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 주행영상로봇(200)에 형성되는 셀스틱 수동 스위치 작동 모듈(500)의 구성을 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 사용자 기반의 접속 플랫폼을 나타내는 참조도면이다.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.
도 1은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)을 나타내는 도면이다. 도 2는 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 퍼스널 컴퓨터(100a)에 출력되는 영상 레이어를 설명하기 위한 도면이다. 도 3은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 MR 접속 플랫폼을 설명하기 위한 도면이다. 도 4 및 도 5는 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 주행영상로봇(200)의 구성을 나타내는 도면이다. 도 6은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 주행영상로봇(200)에 형성되는 셀스틱 수동 스위치 작동 모듈(500)의 구성을 설명하기 위한 도면이다. 도 7은 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1) 중 사용자 기반의 접속 플랫폼을 나타내는 참조도면이다.
먼저 도 1을 참조하면, 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)은 스마트 단말(100), 퍼스널 컴퓨터(100a), 주행영상로봇(200), 그리고 적어도 하나 이상의 현장 기계장치(300)로 이루어지는 현장 기계장치 그룹(300g)을 포함할 수 있다.
사용자가 운영하는 스마트 단말(100)이 접속 어플 또는 HMD 기반의 고글 등을 포함하는 접속 기기를 통하여 주행영상로봇(200)과 직접 또는 퍼스널 컴퓨터(100a)를 통해 근거리 무선통신 방식으로 데이터 세션을 연결하고 주행영상로봇(200)의 운전 여부를 승인하면 주행영상로봇(200)이 동작할 수 있다.
사용자가 운용하는 스마트 단말(100)은 도 2와 같이 주행영상로봇(200)으로부터 직접 제공받은 현장 실시간 영상에 해당하는 현장 실시간 영상부(I1), 각종 제어 아이콘이 탑재되는 VR 가상 현실부(I2)를 융합함으로써, 현장 기계장치(300)로부터 제공받은 사용자 접속도구에 MR 융합현실부(I3)가 형성되도록 하여 실시간 영상 창을 통해 접속 어플 또는 고글로 제공할 수 있다.
보다 구체적으로, "실시간 영상 창"에는 각종 제어 아이콘이 배치되어 있으며, 각종 제어 아이콘에 대한 사용자의 선택에 따라 주행영상로봇(200)이 선택된 제어 아이콘과 매칭되도록 주행을 수행할 수 있다.
주행영상로봇(200)이 사용자가 원하는 목표지점에 도착하면 현장 기계장치(300) 등에 설치된 목표센서가 주행영상로봇(200)의 목표센서 감지모듈(253)과 매칭되어 작동함으로써, 주행영상로봇(200)과 현장 기계장치(300)와의 거리가 현장 기계장치(300)에서 퍼스널 컴퓨터(100a)를 통해서 또는 스마트 단말(100)을 통해 접속 어플 또는 고글로 표시될 수 있다. 여기서 목표센서와 목표센서 감지모듈(253)은 다양한 방식의 기술로 제공될 수 있으며, 무선송수신 방식에서 RTT(Round Trip Time)을 통한 상호간의 거리가 측정될 수 있다. 한편, 스마트 단말(100)을 운용하는 사용자가 제어하고자 하는 목표지점의 현장 기계장치(300)에는 스마트 단말(100)에서 원격제어가 가능한 PLC 모듈(Power Line Communication Module)이 장착되어 있어야 한다.
여기서, 사용자는 스마트 단말(100)과 현장 기계장치(300) 간의 원격 제어 세션 연결 뒤에, 명령 아이콘 또는 가상의 손 아이콘을 통하여 현장 기계장치(300)를 동작시키고 제어할 수 있으며, 이는 원격 어플 또는 고글에 구현된 사용자의 손 아이콘과 스마트 단말(100)에 형성된 PLC 원격 프로그램을 연동시킴으로서 제어가 실행될 수 있다.
사용자는 MR 융합현실부(I3) 상에서 명령 아이콘 및 가상의 손 아이콘을 통하여 현장 기계장치(300)의 전원 및 현장 기계장치(300)의 터치 모니터 또는 각종 동작 버튼을 작동킬 수 있는데, 원격 어플 또는 고글의 카메라를 통한 사용자의 제어 명령 이벤트를 인식하면, 스마트 단말(100)이 제어 명령 이벤트를 주행영상로봇(200)으로 제공한 뒤, 주행영상로봇(200)에 장착된 레이저 또는 RF 센서모듈(251)을 이용한 레이저 또는 RF 신호로 현장 기계장치(300)를 제어할 수 있으며, 현장 기계장치(300)의 영상처리장치에서 가능한 QR 코드 및 바 코드를 QR 및 바코드 인식모듈(252)에 대한 제어를 통해 수행할 수 있다.
다만 현장 기계장치(300) 수동식 버튼 또는 레버의 경우 현장 기계장치(300)상에 오토제어 모듈을 장착하여 제어하거나, 별도로 고안되어 주행영상로봇(200)에 장착된 도 6과 같은 조의 셀스틱 수동 스위치 작동 모듈(500)로 수동스위치 레버를 작동시킬 수 있다.
한편, 현장 기계장치(300)가 컴퓨터인 경우 사용자가 MR 융합현실부(I3) 상에 출력된 정보를 가공하고자 하는 경우 컴퓨터 상에 출력된 정보에 대해서 가상의 자판과 마우스를 이용하여 정보를 가공하는데 이때 컴퓨터에는 실제 자판 및 마우스와 가상의 자판 및 마우스를 상호 연동시키는 프로그램이 탑재되며 주행영상로봇(200)에 장착된 레이저 및 RF 센서모듈(251)을 이용한 레이저 또는 RF 신호로 컴퓨터를 제어할 수 있으며, 현장 기계장치(300)의 영상처리장치에서 가능한 QR 코드 및 바 코드를 QR 및 바코드 인식모듈(252)에 대한 제어를 통해 수행할 수 있다.
현장 기계장치(300)가 컴퓨터에 해당하여 디자인 및 문서작성을 사용자가 수행하고자 하는 경우 주행영상로봇(200)에 장착된 레이저 및 RF 센서모듈(251)을 이용한 레이저 신호로 컴퓨터 화면의 커서를 이동시키는데 레이저 신호는 가상의 손 아이콘을 따라 커서를 이동시킬 수 있다.
그리고, 현장 기계장치(300)가 컴퓨터에 해당하는 경우, 사용자가 MR 융합현실부(I3) 상에 출력된 정보를 통해 원하는 폴더에 커서가 놓여지면 사용자는 가상의 손 아이콘으로 폴더를 두 번 두드리면 주행영상로봇(200)에 장착된 레이저 및 RF 센서모듈(251)을 이용한 레이저 신호가 현장 기계장치(300)로 제공되어 해당 폴더가 열리며, 파일 역시 동일한 원리로 이행될 수 있다.
현장 기계장치(300)가 컴퓨터에 해당하는 경우 텍스트 문서를 작성하고자 하면 MR 융합현실부(I3) 상에 출력된 정보로 가상의 화면에 컴퓨터 자판을 띄워 가상의 손 아이콘으로 텍스트를 입력할 수 있으며, 이때 사용되는 마우스의 기능은 가상의 화면에 마우스의 기능을 띄워서 사용 가능하다.
사용자는 작업이 끝난 후 MR 융합현실부(I3) 상에 출력된 정보 중 종료 아이콘에 대해서 선택을 수행하면, 스마트 단말(100)이 주행영상로봇(200)에 대해서 종료 제어 명령을 전송함으로써, 주행영상로봇(200)이 충격예방 근접센서 모듈(254)을 제공하여 전원공급부(290a)를 충전장치부로 도킹되도록 제어하되, 여기서 충전장치부도 현장 기계장치(300) 중 하나로 인식할 수 있다. 즉, 주행영상로봇(200)은 전원공급장치에 해당하는 충전장치부로 최단 경로를 계산하여 자가이동함으로써, 충전모드로 들어갈 수 있다.
다음으로 도 4 및 도 5를 참조하면, 주행영상로봇(200)은 무선통신부(210), A/V 입력부(220), 사용자 입력부(230), 센서부(250), 가상현실 영상컨텐츠 생성부(260), 제어부(270), 출력부(280), 전원공급부(290a), 메모리(290b) 및 인터페이스부(290c)를 포함하며, 무선통신부(210)는 외부로부터 영상을 송수신하는 영상수신모듈(211), 외부의 단말 및 서버와 신호 및 데이터 송수신을 수행하는 이동통신모듈(212), 스마트 단말(100) 및 퍼스널 컴퓨터(100a)와 근거리 무선통신을 수행하는 근거리통신모듈(213), 자신의 위치정보를 수신하는 위치정보 모듈(214)을 포함할 수 있다.
A/V 입력부(220)는 카메라(221) 및 마이크(222)를 구비함으로써, 현장 기계장치(300)에 대한 촬영된 영상 및 음성 정보를 획득할 수 있다. 사용자 입력부(230)는 사용자로부터 별도의 제어명령을 수동으로 입력받을 수 있다.
센서부(250)는 상술한 레이저 및 RF 센서모듈(251), QR 및 바코드 인식모듈(252), 목표센서 감지모듈(253), 충격예방 근접센서 모듈(254)을 포함할 수 있다.
가상현실 영상컨텐츠 생성부(260)는 A/V 입력부(220)에 의해 생성된 실시간 영상을 생성하는 실시간 영상 생성모듈(261), 실시간 영상에서 배경 영상을 별도로 추출하고 다른 배경 영상으로 변환 가능한 배경 영상 생성모듈(262), 실시간 영상에서 객체 영상을 별도로 추출하는 객체 영상 생성모듈(263), 스마트 단말(100) 그 밖의 단말 및 서버와 음성 송수신을 수행하는 다자간 음성 통신모듈(264), 실시간 영상 생성모듈(261), 배경 영상 생성모듈(262), 객체 영상 생성모듈(263)에서 생성된 각 영상을 합성 및 편집 가능한 영상합성 모듈(265)을 포함할 수 있다.
여기서 가상현실 영상컨텐츠 생성부(260)는 주행영상로봇(200)이 아니라 스마트 단말(100) 상에 형성될 수도 있다.
제어부(270)는 멀티미디어 모듈(271)을 구비하며, 출력부(280)는 디스플레이모듈(281), 음향출력모듈(282), 알람모듈(283), 햅틱모듈(284), 프로젝터모듈(285) 등을 포함함으로써, 다양한 방식으로 외부 출력을 수행할 수 있다.
한편, 도 5를 참조하면, 제어부(270)는 줌인작동 모듈(270a), 전원작동 실행모듈(270b), 목표센서 감지모듈(270c), 레이저 및 RF 인식모듈(270d), 카메라 회전모듈(270e), 영상 무선 송출모듈(270f), 주행모듈(270g), 충격예방모듈(270h), 위치정보 좌표분석모듈(270i) 및 자동충전모듈(270j)을 포함할 수 있다.
여기서, 줌인작동 모듈(270a)은 A/V 입력부(220)에 의해 획득된 영상의 확대 및 축소기능을 수행하며, 전원작동 실행모듈(270b)은 목표지점의 현장 기계장치(300) 등의 전원을 제어하는 기능을 수행하며, 목표센서 감지모듈(270c)은 목표지점의 현장 기계장치(300) 등에 설치된 센서를 통하여 주행영상로봇(200)과의 거리측정를 측정하며, 레이저 및 RF 인식모듈(270d)은 터치 스크린의 경우 별도의 터치장치 장착 없이 화면에 배치된 스위치를 레이저 RF로 인식시켜 작동하게 하며, 인식 종류로는 QR 및 바 코드를 사용할 수 있다.
카메라 회전모듈(270e)은 주행영상로봇(200)에 장착된 카메라(221)에 대한 도 5a와 같은 좌우회전 및 상하회전 기능을 제어할 수 있다.
영상 무선 송출모듈(270f)은 주행영상로봇(200)에서 촬영되는 영상에 대한 무선통신부(210)를 통한 스마트 단말(100), 그 밖의 단말 및 서버로의 원격 송출 기능을 수행할 수 있다.
주행모듈(270g)은 주행영상로봇(200)의 이동 기능을 수행하며, 충격예방모듈(270h)은 주행모듈(270g)을 이용한 주행 구간에서 주행영상로봇(200) 간의 충돌방지 기능을 수행하며, 위치정보 좌표분석모듈(270i)은 위치정보 모듈(214)로부터 수신된 위치정보를 통해 주행영상로봇(200)의 이동 주행한 경로를 분석하는 기능을 수행하며, 자동충전모듈(270j)은 자가충전 가능 기능을 수행할 수 있다.
다음으로, 주행영상로봇(200)에 형성되는 셀스틱 수동 스위치 작동 모듈(500)을 현장 기계장치(300)의 수동 스위치 레버(400) 위치로 내리면 수동 스위치 레버(400)의 모양대로 셀스틱 수동 스위치 작동 모듈(500) 하부면의 셀스틱의 일부가 수동 스위치 레버(400)의 형상대로 밀려들어간다.
셀스틱 수동 스위치 작동 모듈(500)의 하부면을 구성하는 셀스틱 중 일부의 셀스틱이 밀려 들어간 상태로 셀스틱 수동 스위치 작동 모듈(500)의 상부를 구성하는 스위치 회전부를 회전시키면 수동 스위치 레버(400)를 셀스틱에 갇혀 함께 회전시킬 수 있다. 셀스틱 수동 스위치 작동 모듈(500)의 상부를 구성하는 스위치 회전부를 원위치하면 셀스틱은 내부 스프링 장치에 의하여 다시 원위치하는 구조를 갖는 것이 바람직하다.
한편, 도 3 및 도 7과 같이 본 발명의 실시예에 따른 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)은 현장 기계장치(300) 뿐만 아니라, 컨트롤 룸, 가정 실내의 다양한 전기전자 장치, 터치스크린 컨트롤러 등에 대한 단순 서비스적인 차원을 넘어서서 사용자가 직접 사물의 접속을 통하여 행위 하는 것이 가능하도록 된것으로서 증강현실과 같이 실시간 영상에서 추가되는 정보만 가상으로 만들어 보여는 것이 아니라 사용자가 가상현실을 통하여 실시간 현실에서 직접 행위하며, 경험할 수 있도록 한 기술을 제공할 수 있다.
이는 주행영상로봇(200)의 카메라(221)를 통하여 영상을 실시간으로 제공받고, 여기에 가상현실을 조화시켜 실시간 영상에서 제공되는 각종 기기들을 실제로 조작이 가능하도록 하는 '시간 영상을 통한 원격접속 융합현실 플랫폼(Merged Reality, MR)을 제공할 수 있다.
MR(Merged Reality)은 용어의 의미 그대로 가상과 현실의 융합이 이루어지는 '융합현실(Merged Reality, MR) 콘텐츠 플랫폼'으로서 '혼합현실(Mixed Reality, MR)'라고 부르기도 하지만 증강현실에 가상현실을 덧붙인 개념과는 엄연한 다른 차이가 있다.
이는 가상의 세계에 현실을 균형 있게 더하기 위하여 장치된 카메라(221)로 부터 실시간 영상을 제공받아 사용자가 직접 원격지의 현장에 접속하여 각종 기기를 제어할 수 있도록 함으로서 사회환경에 한 차원 더 진일보적 요소를 갖게 한 것이 핵심이다.
이러한 기술은 사용자가 현장에 가지 않고도 '접속 플랫폼'을 통하여 현장에 접속하여 각종 기기들을 육안으로 확인하면서 직접 조작할 수 있으며, 컨트롤러(혹은 사용자 인식)를 비롯해 주변 사물을 인식해 상호작용할 수 있으므로 현실 세계는 접속 플랫폼 접속을 통한 실시간 소통이 가능해질 수 있는 것이다.
또한 카메라(221)에는 여러 사용자가 동시 접속한 경우 현장에 장치된 이동 카메라의 작동충돌 감지 및 방지 기능 역시 결합되어 실질적으로 제한된 영역의 공간에서의 자유도를 확보할 수 있다.
본 기술에서 '접속 플랫폼'은 실시간 현실을 가상과 이어주는 브릿지 역할을 수행하며 '융합현실(MR)'을 구현함에 있어 핵심기능으로 활약한다. 또한 접속되는 현장에 배치된 기본 센서나 이동 카메라만으로도 편의를 더한다.
또한 개발된 기술은 기존의 증강현실과 달리 VR로 생중계하는 컨텐츠를 즐기듯이 사용자가 실시간 제공되는 영상 정보를 통하여, ① 직접 기계 장치 및 가전제품 등을 직접 제어하거나 조작 할 수 있을 뿐만 아니라 사용자가 본인의 사무실에 원격접속, 컴퓨터를 부팅 시킨 후 직접 문서 작성 등의 업무를 수행할 수 있으며, ② VR 가상현실 컨텐츠와 같이 접속하거나 또는 스마트 폰의 빔 프로젝트 기능을 이용, 공간에 영상을 투사하여 이용할 수 있도록 한 것이 특징이다.
즉 현실을 모델로 한 실시간 영상에 가상 VR을 덧입힌 '융합현실 MR'로서 접속된 현장의 각종 기기와 연동하도록 하여 가상현실을 통하여서도 사용자가 직접 기기를 조작할 수 있도록 한 것이다.
이러한 기술은 원격에서 접속으로 현재의 현장 환경을 직접 눈으로 보면서 현장에 설치된 각종 도구들을 사용할 수 있게 하는 것이므로 기존 증강현실이나 가상현실의 개념과는 다르다 할 것이다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
1 : 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템
100 : 스마트 단말
100a : 퍼스널 컴퓨터
200 : 주행영상로봇
270a : 줌인작동 모듈
270b : 전원작동 실행모듈
270c : 목표센서 감지모듈
270d : 레이저 및 RF 인식모듈
270e : 카메라 회전모듈
270f : 영상 무선 송출모듈
270g : 주행모듈
270h : 충격예방모듈
270i : 위치정보 좌표분석모듈
270j : 자동충전모듈
300 : 현장 기계장치
300g : 현장 기계장치 그룹
400 : 수동 스위치 레버
500 : 셀스틱 수동 스위치 작동 모듈

Claims (5)

  1. 스마트 단말(100), 주행영상로봇(200), 그리고 적어도 하나 이상의 현장 기계장치(300)로 이루어지는 현장 기계장치 그룹(300g)을 포함하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템(1)에 있어서,
    사용자가 운영하는 스마트 단말(100)이 접속 어플 또는 HMD 기반의 고글을 포함하는 접속 기기를 통하여 주행영상로봇(200)과 근거리 무선통신 방식으로 데이터 세션을 연결하고 주행영상로봇(200)의 운전 여부를 승인하면 주행영상로봇(200)은 자율주행하여 현장 기계장치 그룹(300g) 중 하나의 현장 기계장치(300)의 위치로 이동하도록 하고,
    사용자가 운용하는 스마트 단말(100)은 주행영상로봇(200)으로부터 직접 제공받은 현장 실시간 영상에 해당하는 현장 실시간 영상부(I1), 각종 제어 아이콘이 탑재되는 VR 가상 현실부(I2)를 융합함으로써, 주행영상로봇(200)의 목표센서 감지모듈(253)과 현장 기계장치(300)에 설치된 목표센서는 매칭되고, 현장 기계장치(300)로부터 제공받은 사용자 접속도구에 MR 융합현실부(I3)가 형성되도록 하여 실시간 영상 창을 통해 접속 어플 또는 고글로 제공하며,
    주행영상로봇(200)은 무선통신부(210)와, 카메라(221) 및 마이크(222)를 구비하고, 현장 기계장치(300)에 대한 촬영된 영상 및 음성 정보를 획득하기 위한 A/V 입력부(220)와, 사용자로부터 별도의 제어명령을 수동으로 입력받기 위한 사용자 입력부(230)와, 센서부(250)와, A/V 입력부(220)에 의해 생성된 실시간 영상을 생성하는 실시간 영상 생성모듈(261), 실시간 영상에서 배경 영상을 별도로 추출하고 다른 배경 영상으로 변환 가능한 배경 영상 생성모듈(262), 실시간 영상에서 객체 영상을 별도로 추출하는 객체 영상 생성모듈(263), 스마트 단말(100) 그 밖의 단말 및 서버와 음성 송수신을 수행하는 다자간 음성 통신모듈(264), 실시간 영상 생성모듈(261), 배경 영상 생성모듈(262), 객체 영상 생성모듈(263)에서 생성된 각 영상을 합성 및 편집 가능한 영상합성 모듈(265)을 포함하는 가상현실 영상컨텐츠 생성부(260)와, 제어부(270)와, 출력부(280)와, 전원공급부(290a)와, 메모리(290b) 및 인터페이스부(290c)를 포함하는 것을 특징으로 하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템.
  2. 삭제
  3. 청구항 1에 있어서,
    "실시간 영상 창"에는 각종 제어 아이콘이 배치되어 있으며, 각종 제어 아이콘에 대한 사용자의 선택에 따라 주행영상로봇(200)이 선택된 제어 아이콘과 매칭되도록 주행을 수행하는 것을 특징으로 하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템.
  4. 청구항 1에 있어서, 주행영상로봇(200)이,
    사용자가 원하는 목표지점에 도착하면 현장 기계장치(300)에 설치된 목표센서가 주행영상로봇(200)의 목표센서 감지모듈(253)과 매칭되어 작동함으로써, 주행영상로봇(200)과 현장 기계장치(300)와의 거리가 현장 기계장치(300)에서 퍼스널 컴퓨터(100a)를 통해서 또는 스마트 단말(100)을 통해 접속 어플 또는 고글로 표시되는 것을 특징으로 하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템.
  5. 청구항 4에 있어서,
    목표센서와 목표센서 감지모듈(253)은 무선송수신 방식에서 RTT(Round Trip Time)을 통한 상호간의 거리를 측정하는 것을 특징으로 하는 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템.
KR1020190176758A 2019-12-27 2019-12-27 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템 KR102248080B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190176758A KR102248080B1 (ko) 2019-12-27 2019-12-27 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190176758A KR102248080B1 (ko) 2019-12-27 2019-12-27 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템

Publications (1)

Publication Number Publication Date
KR102248080B1 true KR102248080B1 (ko) 2021-05-04

Family

ID=75914052

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190176758A KR102248080B1 (ko) 2019-12-27 2019-12-27 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템

Country Status (1)

Country Link
KR (1) KR102248080B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492751B1 (ko) * 2021-11-08 2023-02-01 나라라 주식회사 원격 조종로봇을 이용한 실시간 비대면 서비스 제공 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190074936A (ko) * 2018-08-17 2019-06-28 주식회사 동우 이앤씨 혼합 현실 서비스 제공 방법 및 시스템
KR20190098102A (ko) * 2019-08-02 2019-08-21 엘지전자 주식회사 외부 기기를 제어하기 위한 인공 지능 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190074936A (ko) * 2018-08-17 2019-06-28 주식회사 동우 이앤씨 혼합 현실 서비스 제공 방법 및 시스템
KR20190098102A (ko) * 2019-08-02 2019-08-21 엘지전자 주식회사 외부 기기를 제어하기 위한 인공 지능 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 특허출원 출원번호 제10-2017-0178764(2017.12.22)호 "모바일 기기를 이용한 VR/AR 기반 다중지능 검사방법 및 다중지능 검사시스템(METHOD AND SYSTEM FOR TESTING MULTIPLE-INTELLIGENCE BASED ON VR/AR USING MOBILE DEVICE)"

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492751B1 (ko) * 2021-11-08 2023-02-01 나라라 주식회사 원격 조종로봇을 이용한 실시간 비대면 서비스 제공 시스템

Similar Documents

Publication Publication Date Title
US20220044019A1 (en) Augmented reality smartglasses for use at cultural sites
US11206373B2 (en) Method and system for providing mixed reality service
US11663785B2 (en) Augmented and virtual reality
CN104160369B (zh) 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质
CN110865708B (zh) 虚拟内容载体的交互方法、介质、装置和计算设备
US20190088016A1 (en) Collaboration methods to improve use of 3d models in mixed reality environments
WO2019130864A1 (ja) 情報処理装置、情報処理方法およびプログラム
Schmalstieg et al. The world as a user interface: Augmented reality for ubiquitous computing
CN102129812A (zh) 在街道级图像的上下文中观看媒体
KR102079395B1 (ko) 사용자 위치기반 증강현실 컨텐츠 제공방법
US11030359B2 (en) Method and system for providing mixed reality service
JP5616622B2 (ja) 拡張現実感提供方法及び拡張現実感提供システム
KR102248080B1 (ko) 실시간 영상을 통한 원격접속 융합현실 플랫폼 제공 시스템
CN111913674A (zh) 虚拟内容的显示方法、装置、系统、终端设备及存储介质
CN114363705A (zh) 一种增强现实设备及交互增强方法
Dsouza et al. Virtual interior decor app
US11915482B2 (en) Terminal apparatus for performing communication between remote locations
Romli et al. AR@ campus: Augmented reality (AR) for indoor positioning and navigation apps
De Lucia et al. SmartBuilding: a People-to-Peopleto-Geographical-Places mobile system based on Augmented Reality
Gamieldien et al. UWC VirtualView 360°: A study of the Adaptability and Multipurpose Nature of Virtual Tour Mobile Applications
Patel et al. Immersive Interior Design: Exploring Enhanced Visualization Through Augmented Reality Technologies
JP2023066265A (ja) 情報処理システム、情報処理装置、プログラム、利用者端末、及び情報処理方法
Guven Authoring and presenting situated media in augmented and virtual reality
CN116935084A (zh) 一种虚拟现实设备及校验数据的方法
Jacucci et al. Configuring gestures as expressive interactions to navigate multimedia recordings from visits on multiple projections

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant