KR20210024793A - 가상현실 영상처리 시스템 및 방법 - Google Patents

가상현실 영상처리 시스템 및 방법 Download PDF

Info

Publication number
KR20210024793A
KR20210024793A KR1020190104394A KR20190104394A KR20210024793A KR 20210024793 A KR20210024793 A KR 20210024793A KR 1020190104394 A KR1020190104394 A KR 1020190104394A KR 20190104394 A KR20190104394 A KR 20190104394A KR 20210024793 A KR20210024793 A KR 20210024793A
Authority
KR
South Korea
Prior art keywords
virtual reality
user
reality content
screen
controller
Prior art date
Application number
KR1020190104394A
Other languages
English (en)
Other versions
KR102250021B1 (ko
Inventor
박형준
Original Assignee
주식회사 익센트릭게임그루
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 익센트릭게임그루 filed Critical 주식회사 익센트릭게임그루
Priority to KR1020190104394A priority Critical patent/KR102250021B1/ko
Publication of KR20210024793A publication Critical patent/KR20210024793A/ko
Application granted granted Critical
Publication of KR102250021B1 publication Critical patent/KR102250021B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

개시된 내용은 가상현실 콘텐츠를 사용자에게 제공하는 기술에 관한 것으로써, 보다 상세하게는 하나의 대형 스크린을 다수의 사용자가 동시에 사용하는 경우에 가상현실 영상을 처리하는 시스템 및 방법에 관한 것이다.
보다 상세하게는, 다수 사용자를 위한 가상현실 영상처리 시스템에 있어서, 가상현실 콘텐츠를 투영하는 스크린, 제1사용자의 모션을 인식하고, 피드백을 제공하는 컨트롤러, 하나 이상 설치되어, 사용자의 위치를 추적하고, 룸스케일로 사용자의 모션을 인식하는 모션인식센서, 상기 스크린의 전면에 하나 이상 설치되어, 가상현실 콘텐츠를 상기 스크린에 출력하는 빔프로젝터 및 상기 컨트롤러와 모션인식센서를 통해 제1사용자의 위치를 추출하고, 상기 추출된 제1사용자의 위치에 대응되는 스크린을 제1할당영역으로 제1사용자에게 할당하여, 상기 제1할당영역에 대응하는 빔프로젝터에 가상현실 콘텐츠를 출력하는 통합제어서버를 포함하는 가상현실 영상처리 시스템을 일 실시 예로 제시한다.
또한, 다수 사용자를 위한 가상현실 영상처리 방법에 있어서, 가상현실 콘텐츠를 스크린에 출력하는 제1단계, 컨트롤러와 센서를 통해 제1사용자의 위치를 추출하는 제2단계, 상기 제1사용자의 위치를 기준으로 룸스케일의 측정범위를 설정하는 제3단계, 상기 룸스케일의 측정범위에 대응하는 스크린을 제1사용자에게 제1할당영역으로 할당하는 제4단계, 상기 룸스케일의 측정범위에서 상기 컨트롤러와 센서를 통해 제1사용자의 모션을 추출하는 제5단계 및 상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하고, 상기 제1단계로 돌아가 가상현실 콘텐츠를 스크린에 출력하는 제6단계를 포함하는 가상현실 영상처리 방법을 일 실시 예로 제시한다.

Description

가상현실 영상처리 시스템 및 방법{System and Method for processing virtual reality image}
개시된 내용은 가상현실 콘텐츠를 사용자에게 제공하는 기술에 관한 것으로써, 보다 상세하게는 하나의 대형 스크린을 다수의 사용자가 동시에 사용하는 경우에 가상현실 영상을 처리하는 시스템 및 방법에 관한 것이다.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.
최근 4차 산업으로 가상현실 및 증강현실에 관한 기술이 다수 개발되고 있다. 일반적으로 가상현실 및 증강현실 콘텐츠를 제공하는데 있어, 가상현실 콘텐츠를 사용자에게 제공하는 디스플레이, 사용자의 모션을 인식하는 모션인식센서 및 가상현실 콘텐츠를 사용자의 모션에 대응되도록 제어하는 제어장치로 구성되어 있다. 디스플레이의 경우, 스마트폰의 화면 또는 일반 모니터 및 사용자의 머리에 장착하여 몰입감을 향상시킬 수 있는 HMD(Head Mounted Display) 등이 있다. 또한, 사용자의 모션을 인식하는 모션인식센서로는 사용자가 소지하여 움직임을 측정하는 컨트롤러나 사용자의 모션을 인식할 수 있는 별도의 센서 등이 있다.
그러나, 상술한 일반적인 가상현실 및 증강현실 제공 기술은 각각의 개인에게 가상현실 콘텐츠를 제공하는데에는 적합할 수 있으나, 다수의 인원이 함께 가상현실 콘텐츠를 즐기기에는 한계가 존재한다.
한국공개특허공보 제10-2017-0064026호에 게시된 '가상현실, 증강현실 기반의 3차원 실감형 천체교육용 스마트 교육서비스 제공방법'은 학습대상에 대한 천체 이미지 교재부를 단말기 또는 서버부에 등록하는 과정과, 단말기로부터 학습대상에 대한 영상이 수집되면 상기 영상에 대응되는 3차원 가상현실, 증강현실 콘텐츠를 보여주기 위한 이미지 매칭정보 처리과정과, 3차원 실감형 콘텐츠를 선택하는 즉 가상현실과 증강현실을 선택하는 방식과 증강현실의 실감적인 체험성을 높이기 위한 투명-개방형 3D 안경 제공방식을 포함하는 가상현실, 증강현실을 기반의 3차원 실감형 천체교육용 스마트 교육시스템 제공방법을 게시하고 있다. 본 선행문헌에 게시된 기술은 다수의 인원이 함께 가상현실 콘텐츠를 즐길 수는 있으나, 각각의 사용자가 독립적으로 콘텐츠를 제공받을뿐, 다수 사용자가 콘텐츠를 공유하거나, 함께 즐기기에는 한계가 있었다.
1. 한국공개특허공보 제10-2017-0064026호
가상현실 또는 증강현실 콘텐츠을 제공하되, 다수 사용자가 하나의 스크린을 공유하여 가상현실 콘텐츠를 체험할 수 있는 가상현실 영상처리 시스템 및 방법을 제공하고자 한다.
또한 상술한 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 설명으로부터 또 다른 기술적 과제가 도출될 수도 있음은 자명하다.
개시된 내용은 다수 사용자를 위한 가상현실 영상처리 시스템에 있어서, 가상현실 콘텐츠를 투영하는 스크린, 제1사용자의 모션을 인식하고, 피드백을 제공하는 컨트롤러, 하나 이상 설치되어, 사용자의 위치를 추적하고, 룸스케일로 사용자의 모션을 인식하는 모션인식센서, 상기 스크린의 전면에 하나 이상 설치되어, 가상현실 콘텐츠를 상기 스크린에 출력하는 빔프로젝터 및 상기 컨트롤러와 모션인식센서를 통해 제1사용자의 위치를 추출하고, 상기 추출된 제1사용자의 위치에 대응되는 스크린을 제1할당영역으로 제1사용자에게 할당하여, 상기 제1할당영역에 대응하는 빔프로젝터에 가상현실 콘텐츠를 출력하는 통합제어서버를 포함하는 가상현실 영상처리 시스템을 일 실시 예로 제시한다.
또한, 다수 사용자를 위한 가상현실 영상처리 방법에 있어서, 가상현실 콘텐츠를 스크린에 출력하는 제1단계, 컨트롤러와 센서를 통해 제1사용자의 위치를 추출하는 제2단계, 상기 제1사용자의 위치를 기준으로 룸스케일의 측정범위를 설정하는 제3단계, 상기 룸스케일의 측정범위에 대응하는 스크린을 제1사용자에게 제1할당영역으로 할당하는 제4단계, 상기 룸스케일의 측정범위에서 상기 컨트롤러와 센서를 통해 제1사용자의 모션을 추출하는 제5단계 및 상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하고, 상기 제1단계로 돌아가 가상현실 콘텐츠를 스크린에 출력하는 제6단계를 포함하는 가상현실 영상처리 방법을 일 실시 예로 제시한다.
개시된 실시 예에 따르면, 하나의 스크린을 다수의 사용자가 공유하여 가상현실 콘텐츠를 제공받을 수 있는 가상현실 영상처리 시스템 및 방법을 제공할 수 있다. 이를 통해, 일종의 스크린 시뮬레이터 장치에 적용하여 사용자의 위치가 변하는 경우에도 변화된 위치에 대응하는 가상현실 콘텐츠를 제공할 수 있다.
본 실시 예들의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 개시된 내용의 일 실시 예에 따른 가상현실 영상처리 시스템의 구성도.
도 2는 개시된 내용의 일 실시 예에 따른 가상현실 영상처리 시스템에서 룸스케일의 측정범위를 나타내는 개념도.
도 3은 개신된 내용의 일 실시 예에 따라 가상현실 콘텐츠를 중첩되도록 출력하는 사용상태도.
도 4는 개시된 내용의 일 실시 예에 따른 가상현실 영상처리 방법의 흐름도.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들을 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 첨부된 도면을 참조하여 개선된 가상현실 영상처리 시스템의 바람직한 실시 예에 대하여 설명한다.
도 1 내지 도 3을 참조하여 살펴보면, 다수 사용자를 위한 가상현실 영상처리 시스템에 있어서, 가상현실 콘텐츠를 투영하는 스크린(10), 제1사용자의 모션을 인식하고, 피드백을 제공하는 컨트롤러(20), 하나 이상 설치되어, 제1사용자의 위치를 추적하고, 룸스케일로 제1사용자의 모션을 인식하는 모션인식센서(30), 상기 스크린(10)의 전면에 하나 이상 설치되어, 가상현실 콘텐츠를 상기 스크린(10)에 출력하는 빔프로젝터(40) 및 상기 컨트롤러(20)와 모션인식센서(30)를 통해 제1사용자의 위치를 추출하고, 상기 추출된 위치에 대응되는 스크린(10)을 제1할당영역으로 제1사용자에게 할당하여, 해당 빔프로젝터(40)에 가상현실 콘텐츠를 출력하는 통합제어서버(50)를 포함한다.
보다 상세하게는, 상기 스크린(10)은 가상현실 콘텐츠를 투영한다. 가상현실 콘텐츠를 사용자에게 제공하는 매체로써, 영상 또는 이미지로 처리된 가상현실 콘텐츠를 투영 또는 출력할 수 있는 LED, LCD 및 OLED 등이 있다. 그러나, 다수 사용자가 사용하기 위해서는 대화면의 디스플레이가 필요하여, LED, LCD 및 OLED 등을 경제적이지 못할 수 있다. 따라서, 이를 해결하기 위해 빔프로젝터(40)를 사용하는 것이 바람직하다. 이에 상기 스크린(10)은 다수 사용자가 사용할 수 있을 정도의 대화면으로 구성됨이 바람직하며, 빔프로젝터(40)를 통해 출력되는 가상현실 콘텐츠의 선명도를 위해 백색으로 구성됨이 바람직하다.
상기 컨트롤러(20)는 제1사용자의 모션을 인식하고, 제1사용자에게 피드백을 제공할 수 있다. 상기 컨트롤러(20)는 후술하는 바와 같이 통합제어서버(50)와 통신을 하는데, 유선 및 무선통신이 모두 가능하고, 바람직하게는 제1사용자가 원활하게 이동할 수 있도록 무선으로 구성될 수 있다. 통합제어서버(50)와는 와이파이(WIFI), 블루투스(BLUETOOTH), 지그비(ZIGBEE) 또는 라디오통신 등 무선으로 정보전달을 할 수 있는 모든 요소를 포함할 수 있다. 상기 컨트롤러(20)는 가속도 센서 및 자이로 센서 중 적어도 어느 하나 이상 포함하여 제1사용자의 모션을 인식할 수 있다. 바람직하게는 3축 이상의 가속도 센서와 3축 이상의 자이로 센서를 함께 구비하여 제1사용자의 모션을 보다 정확하게 인식할 수 있다. 또한, 상기 가속도 센서와 자이로 센서를 통해 제1사용자의 위치를 추출할 수도 있다. 상기 컨트롤러(20)의 원점을 설정하고 가속도 센서와 자이로 센서의 움직임을 분석하면 제1사용자의 현재 위치를 계산할 수 있다. 또한, 제1사용자의 위치를 추출하기 위한 GPS 또는 GIS 등을 포함할 수도 있으나, 본 가상현실 영상처리 시스템은 실내에서 사용하는 것이 대부분일 것이므로 바람직하진 않다.
상기 컨트롤러(20)는 제1사용자에게 피드백을 제공하는 구성을 포함할 수 있다. 피드백이란 사용자의 오감을 자극하여 상기 가상현실 콘텐츠에 몰입감을 향상시키는 작용을 의미한다. 이에 진동부재, 전기자극부재(저주파자극 등), 스피커 또는 내부에서 위치가 변하는 무게추 등 사용자의 오감을 자극할 수 있는 모든 피드백 제공 부재를 포함할 수 있다.
또한, 상기 컨트롤러(20)는 고유의 아이디정보를 보유하고, 상기 통합제어서버(50)로 상기 아이디정보를 전달하여 상기 컨트롤러(20)의 제1사용자를 식별할 수 있다. 본 발명의 효과 중 하나는 다수의 사용자가 동시에 가상현실 콘텐츠를 제공받는 것이므로, 다수의 사용자가 소지하는 컨트롤러(20)마다 고유의 아이디정보를 설정하고, 상기 설정된 아이디정보에 따라 제1사용자를 식별할 수 있다. 이를 통해, 다수의 사용자를 식별할 수 있고, 각 사용자가 이동할 때도 연속적으로 가상현실 콘텐츠를 제공할 수 있다.
상기 모션인식센서(30)는 도 1에 도시된 것처럼 하나 이상 설치되어, 제1사용자의 위치를 추적하고, 룸스케일로 제1사용자의 모션을 인식할 수 있다. 상기 모션인식센서(30)는 제1사용자의 모션을 인식할 수 있는 자외선 센서, 적외선 센서, UWB 레이더 및 촬영되는 영상의 깊이정보를 추출하여 제1사용자를 인식할 수 있는 비젼센서 등을 사용할 수 있다. 또한, 각각의 모션인식센서(30)가 설치되는 위치에 따라 제1사용자의 위치도 추적할 수 있음은 자명하다.
상기 모션인식센서(30)는 도 1에 도시된 것처럼, 상기 스크린(10)의 전면에 줄을 지어 다수 설치될 수 있다. 그러나, 룸스케일로 제1사용자를 인식하기 위하여, 도 2에 도시된 바와 같이 둘 이상의 모션인식센서(30)가 한 조를 이루도록 설치되되, 인식범위가 중첩되도록 설치되어 룸스케일로 제1사용자의 모션을 인식할 수 있다. 룸스케일이란, 가상현실 환경에 적합한 현실 공간을 가상에 할당하는 기능을 의미한다. 보다 상세하게는, 룸스케일로 설정된 현실의 공간자체를 가상현실로 바로 이식할 수 있어, 해당공간에서 제1사용자의 움직임을 가상현실에 직접적으로 적용할 수 있음을 의미한다. 따라서 둘 이상의 모션인식센서(30)가 가상의 직육면체의 공간을 모두 인식할 수 있도록 도 2에 도시된 것처럼 상기 가상의 직육면체의 공간의 대향하는 모서리에 각각 설치될 수 있다.
상기 빔프로젝터(40)는 상기 스크린(10) 전면에 하나 이상 설치되어, 가상현실 콘텐츠를 상기 스크린(10)에 출력한다. 본 발명의 일 실시 예로써, 가상현실 콘텐츠를 제공하기 위한 임의의 장소에 상기 스크린(10)을 대화면 크기로 설치하고, 상기 빔프로젝터(40)는 상기 스크린(10)을 향하여 하나 이상 설치될 수 있다. 상기 빔프로젝터(40)는 제1사용자의 이동에 방해되지 않도록 스크린(10)을 향하도록 천장에 설치될 수 있으며, 도 1에 도시된 것처럼 다수의 빔프로젝터(40)는 스크린(10)을 향하여 일정 간격으로 줄을 지어 설치될 수 있다. 각각의 빔프로젝터(40)는 상기 통합제어서버(50)와 통신을 통해 가상현실 콘텐츠를 전달받아 스크린(10)으로 출력할 수 있는데, 상기 통합제어서버(50)는 각각의 빔프로젝터(40)의 위치에 대응되는 가상현실 콘텐츠를 출력할 수 있다. 예를 들어, 제1빔프로젝터(40), 제2빔프로젝터(40), 제3빔프로젝터(40) ... 등 다수의 빔프로젝터(40)가 줄을 지어 설치되어 있으며, 통합제어서버(50)에서는 전체 스크린(10)에 출력해야할 가상현실 콘텐츠를 빔프로젝터(40)의 개수에 맞춰 분리한 후 빔프로젝터(40)의 위치에 따라 구분하여 전달할 수 있다.
또한, 상기 빔프로젝터(40)는 도 3에 도시된 것처럼 가상현실 콘텐츠를 이웃하는 빔프로젝터(40)와 일부 중첩하여 출력하도록 설치될 수 있고, 상기 통합제어서버(50)는 상기 중첩된 영역에 콘텐츠가 중복되어 출력되도록 제어할 수 있다. 이는 구분되어 출력되는 가상현실 콘텐츠의 공백을 방지하기 위한 것으로써, 빔프로젝터(40)의 출력되는 범위를 일부 중첩되도록 제어할 수 있다.
상기 통합제어서버(50)는 상기 컨트롤러(20)와 모션인식센서(30)를 통해 제1사용자의 위치를 추출하고, 상기 추출된 위치에 대응되는 스크린(10)을 제1할당영역으로 제1사용자에게 할당하여, 해당 빔프로젝터(40)에 가상현실 콘텐츠를 출력한다. 상술한 바와 같이 상기 컨트롤러(20)와 모션인식센서(30)를 통하면 제1사용자의 위치를 추출할 수 있다. 제1사용자는 스크린(10) 앞을 이동하면서 가상현실 콘텐츠를 체험하게 되는데, 도 1에 도시된 바와 같이 상기 추출된 제1사용자의 위치에 대응되는 스크린(10)을 제1할당영역으로 사용자에게 할당할 수 있다. 제1사용자에게 할당하는 경우 스크린(10)뿐만 아니라, 상술한 룸스케일도 할당영역만큼 설정하여 제1사용자의 움직임과 스크린(10)의 연동이 원활하게 진행될 수 있도록 할 수 있다.
또한, 상기 통합제어서버(50)는 가상현실 콘텐츠를 출력하면서 상기 컨트롤러(20)와 모션인식센서(30)를 통해 인식된 제1사용자의 모션에 따라 가상현실 콘텐츠와 상호작용하도록 제어할 수 있다.
상기 통합제어서버(50)는 상기 추출된 제1사용자의 위치에 대응되는 스크린(10)을 제1할당영역으로 제1사용자에게 할당하되, 다른 제2사용자에게 할당된 제2할당영역과 중첩되지 않도록 할당하고, 상기 제1사용자에 대한 가상현실 콘텐츠는 할당된 제1할당영역 내에서만 출력될 수 있도록 제어하여 출력할 수 있다. 대형 스크린(10)을 다수의 사용자가 함께 사용한다고 하더라도, 각각의 사용자에게 제공되는 가상현실 콘텐츠는 독립적으로 운영되어야 하므로, 각각의 사용자에게 제공되는 가상현실 콘텐츠는 각각의 할당영역 내에서만 출력될 수 있도록 제어되어야 한다.
또한, 상기 가상현실 콘텐츠가 타사용자의 할당영역에 침범하지 않고, 각각의 할당영역 내에서만 출력되도록 하되, 경계선을 기준으로 자연스럽게 움직여야 한다. 경계선을 기준으로 가상현실 콘텐츠가 잘리거나, 벽에 막힌 것처럼 움직인다면, 대형 스크린(10)을 다수의 사용자가 공유한다는 목적에 다소 어긋날 수 있기 때문이다. 따라서 이를 위하여, 상기 통합제어서버(50)는 상기 제1사용자에게 할당되는 제1할당영역에 가상현실 콘텐츠를 출력하되, 상기 가상현실 콘텐츠가 상기 제1할당영역과 상기 제2할당영역의 경계선에 인접할 수록 동작하는 속도를 감소시키고, 상기 가상현실 콘텐츠가 상기 경계선에 닿으면 상기 가상현실 콘텐츠가 이동하는 방향을 제1할당영역 방향으로 전환시킬 수 있다.
가상현실 낚시 시뮬레이터로 예를 들면, 상기 가상현실 콘텐츠는 사용자와 상호작용하는 물고기일 수 있다. 후술하는 바와 같이, 본 명세서에 개시된 발명은 가상현실 낚시 시뮬레이터에 적용할 수 있는데, 이 경우 사용자의 낚시 컨트롤러(20)에 대응되도록 가상현실 물고기를 가상현실 콘텐츠로써, 스크린(10)에 출력할 수 있다. 이 때, 상기 가상현실 물고기는 어신활성화 데이터에 따라 움직이도록 프로그래밍을 하여 자연스러운 움직임을 재현할 수 있다. 다만, 이 경우 각 사용자와 상호작용하는 가상현실 물고기가 타 사용자의 할당영역과의 경계선에 인접할 수록 이동하는 속도를 감소시킬 수 있다. 상기 가상현실 물고기는 경계선과 거의 닿게되면 이동하는 속도는 0으로 수렴하게 되고, 자연스럽게 상호작용하는 사용자의 할당영역 내측으로 방향을 전환하여 이동하도록 제어할 수 있다.
이하에는 첨부된 도면을 참조하여 개선된 가상현실 영상처리 방법에 대하여 설명한다.
도 4에 도시된 바와 같이, 다수 사용자를 위한 가상현실 영상처리 방법은, 가상현실 콘텐츠를 스크린(10)에 출력하는 제1단계(S100), 컨트롤러(20)와 센서(30)를 통해 제1사용자의 위치를 추출하는 제2단계(S200), 상기 제1사용자의 위치를 기준으로 룸스케일의 측정범위를 설정하는 제3단계(S300), 상기 룸스케일의 측정범위에 대응하는 스크린(10)을 제1사용자에게 제1할당영역으로 할당하는 제4단계(S400), 상기 룸스케일의 측정범위에서 상기 컨트롤러(20)와 센서(30)를 통해 제1사용자의 모션을 추출하는 제5단계(S500) 및 상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하고, 상기 제1단계(S100)로 돌아가 가상현실 콘텐츠를 스크린(10)에 출력하는 제6단계(S600)를 포함한다.
보다 상세하게 살펴보면, 제1단계(S100)는 가상현실 콘텐츠를 스크린(10)에 출력한다. 상기 스크린(10)은 가상현실 콘텐츠를 사용자에게 제공하는 매체로써, 영상 또는 이미지로 처리된 가상현실 콘텐츠를 투영 또는 출력할 수 있는 LED, LCD 및 OLED 등을 포함할 수 있다. 그러나, 다수 사용자가 공동으로 사용하기 위해서는 대화면이어야 하는데, LED, LCD 및 OLED 등은 다소 경제적이지 못하다. 따라서, 이를 해결하기 위해 빔프로젝터(40)를 사용하여 출력하는 것이 바람직하다. 이에 상기 스크린(10)은 빔프로젝터(40)에서 출력되는 영상 또는 이미지의 선명도를 위해 백색으로 구성되고, 다수 사용자가 함께 사용할 수 있도록 대화면으로 구성됨이 바람직하다.
또한, 상기 가상현실 콘텐츠를 출력하는 빔프로젝터(40)는 상기 스크린(10)을 향하여 하나 이상 설치될 수 있다. 상기 빔프로젝터(40)는 사용자의 이동에 방해되지 않도록 스크린(10)을 향하도록 천장에 설치될 수 있으며, 도 1에 도시된 것처럼 다수의 빔프로젝터(40)는 스크린(10)을 향하여 일정 간격으로 줄을 지어 설치될 수 있다. 각각의 빔프로젝터(40)는 설치되는 위치에 대응되는 가상현실 콘텐츠를 출력할 수 있다. 예를 들어, 제1빔프로젝터(40), 제2빔프로젝터(40), 제3빔프로젝터(40) ... 등 다수의 빔프로젝터(40)가 줄을 지어 설치되어 있으면, 전체 스크린(10)에 출력해야 할 가상현실 콘텐츠를 빔프로젝터(40)의 개수에 맞춰 분리한 후 빔프로젝터(40)의 위치에 따라 구분하여 출력할 수 있다.
또한, 도 3에 도시된 것처럼 상기 빔프로젝터(40)는 가상현실 콘텐츠를 이웃하는 빔프로젝터(40)와 일부 중첩하여 출력할 수 있다. 그리고, 상기 중첩된 영역에선 콘텐츠가 중복되어 출력되도록 제어할 수 있다. 이는 구분되어 출력되는 가상현실 콘텐츠의 공백을 방지하기 위한 것으로써, 빔프로젝터(40)의 출력되는 범위를 일부 중첩되도록 제어할 수 있다.
상기 제2단계(S200)는 컨트롤러(20)와 센서(30)를 통해 제1사용자의 위치를 추출한다. 상기 컨트롤러(20)는 후술하는 바와 같이 제1사용자의 움직임을 인식하기도 하고, 제1사용자에게 피드백을 제공할 수도 있다. 이에 상기 컨트롤러(20)는 가속도 센서 및 자이로 센서 중 적어도 어느 하나 이상 포함하여 제1사용자의 모션을 인식할 수 있다. 바람직하게는 3축 이상의 가속도 센서와 3축 이상의 자이로 센서를 함께 구비하여 제1사용자의 모션을 보다 정확하게 인식할 수 있다. 또한, 상기 가속도 센서와 자이로 센서를 통해 상기 컨트롤러(20)의 원점을 설정하고 가속도 센서와 자이로 센서의 움직임을 분석하여 제1사용자의 현재 위치를 계산할 수도 있다. 또한, 제1사용자의 위치를 추출하기 위한 GPS 또는 GIS 등을 포함할 수도 있으나, 가상현실 콘텐츠는 일반적으로 실내에서 체험하므로 바람직하진 않다.
또한, 상기 컨트롤러(20)마다 고유의 아이디정보를 할당하여 상기 컨트롤러(20)의 제1사용자를 식별하고, 상기 컨트롤러(20)와 센서(30)를 통해 제1사용자의 위치를 추출할 수도 있다. 본 발명의 효과 중 하나로써, 다수의 사용자가 동시에 가상현실 콘텐츠를 제공받을 수 있는데, 다수의 사용자를 식별하기 위하여 상기 컨트롤러(20)마다 고유의 아이디정보를 할당하는 것이다. 이를 통해 각 사용자가 이동할 때도 연속적으로 가상현실 콘텐츠를 제공할 수 있다.
또한, 상기 센서(30)는 하나 이상 설치되어 제1사용자의 위치를 추적할 수 있고, 모션을 인식할 수 있는 자외선 센서, 적외선 센서, UWB 레이더 및 촬영되는 영상의 깊이정보를 분석하여 제1사용자를 인식할 수 있는 비젼세서 등을 사용할 수 있다. 상기 센서(30)들은 제1사용자를 인식할 수 있으므로, 설치되는 위치에 따라 제1사용자의 위치도 추적할 수도 있다.
상기 제3단계(S300)는 상기 제1사용자의 위치를 기준으로 룸스케일의 측정범위를 설정한다. 상기 센서(30)는 도 1에 도시된 것처럼, 상기 스크린(10)의 전면에 줄을 지어 다수 설치될 수 있다. 그러나, 룸스케일로 제1사용자를 인식하기 위하여, 도 2에 도시된 바와 같이 상기 센서(30)는 둘 이상이 한 조를 이루어 설치되되, 인식범위가 중첩되도록 설치되고 상기 제1사용자의 위치를 기준으로, 룸스케일의 측정범위를 설정하여 제1사용자의 모션을 인식할 수 있다. 룸스케일이란, 가상현실 환경에 적합한 현실 공간을 가상에 할당하는 기능을 의미한다. 보다 상세하게는, 룸스케일로 설정된 현실의 공간자체를 가상현실로 바로 이식할 수 있어, 해당공간에서 제1사용자의 움직임을 가상현실에 직접적으로 적용할 수 있음을 의미한다. 따라서 도 3에 도시된 것처럼 둘 이상의 센서(30)가 가상의 직육면체의 공간을 모두 인식할 수 있도록 상기 가상의 직육면체의 공간의 대향하는 모서리에 각각 설치될 수 있다.
상기 제4단계(S400)는 상기 룸스케일의 측정범위에 대응하는 스크린(10)을 제1사용자에게 제1할당영역으로 할당한다. 상기 제1사용자의 위치를 기준으로 룸스케일의 측정범위를 설정하는데, 상기 제1사용자의 위치에서 바로 가상현실 콘텐츠를 체험할 수 있도록 도 1에 도시된 바와 같이 제1사용자의 위치에 대응되는 스크린(10)을 제1사용자에게 제1할당영역으로 할당하여 바로 가상현실 콘텐츠를 제공하기 위함이다.
상기 제5단계(S500)는 상기 룸스케일의 측정범위에서 상기 컨트롤러(20)와 센서(30)를 통해 제1사용자의 모션을 추출한다. 상술한 바와 같이 상기 컨트롤러(20)는 가속도 센서 또는 자이로 센서 중 적어도 어느 하나로 구성되어 있고, 센서(30) 또한 제1사용자의 모션을 감지할 수 있도록 자외선 센서, 적외선 센서, UWB 레이더 및 비젼센서 등으로 구성되어 제1사용자의 모션을 추출할 수 있다.
상기 제6단계(S600)는 상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하고, 상기 제1단계(S100)로 돌아가 가상현실 콘텐츠를 스크린(10)에 출력한다. 제1사용자의 모션과 대응되도록 가상현실 콘텐츠를 제어하여 가상현실과 제1사용자가 상호작용할 수 있도록 하기 위함이다. 예를 들어 제1사용자가 가상현실 낚시 시뮬레이터를 체험하는 경우, 제1사용자가 임의의 장소에서 컨트롤러(20)를 상하로 흔들면 캐스팅하는 동작을 하면, 상기 컨트롤러(20)와 센서(30)를 통해 사용자의 캐스팅 모션을 추출하고, 이에 따라 가상현실 콘텐츠도 캐스팅된 상황으로 제어될 수 있다.
또한, 상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하되, 상기 가상현실 콘텐츠에 대응하는 피드백을 상기 컨트롤러(20)를 통해 제1사용자에게 제공할 수 있다. 상기 컨트롤러(20)에 피드백을 제공하는 구성을 포함하여, 제1사용자의 오감을 자극할 수 있다. 피드백이란 제1사용자의 오감을 자극하여 상기 가상현실 콘텐츠에 몰입감을 향상시키는 작용을 의미한다. 이에 진동부재, 전기자극부재(저주파자극 등), 스피커 또는 내부에서 위치가 변하는 무게추 등 제1사용자의 오감을 자극할 수 있는 모든 피드백 제공 부재를 포함할 수 있다.
또한, 상기 제6단계는 상기 추출된 제1사용자의 위치에 대응되는 스크린(10)을 제1할당영역으로 제1사용자에게 할당하되, 다른 제2사용자에게 할당된 제2할당영역과 중첩되지 않도록 할당하고, 상기 제1사용자에 대한 가상현실 콘텐츠는 할당된 제1할당영역 내에서만 출력될 수 있도록 제어하여 출력할 수 있다. 대형 스크린(10)을 다수의 사용자가 함께 사용한다고 하더라도, 각각의 사용자에게 제공되는 가상현실 콘텐츠는 독립적으로 운영되어야 하므로, 각각의 사용자에게 제공되는 가상현실 콘텐츠는 각각의 할당영역 내에서만 출력될 수 있도록 제어되어야 한다.
또한, 상기 가상현실 콘텐츠가 타사용자의 할당영역에 침범하지 않고, 각각의 할당영역 내에서만 출력되도록 하되, 경계선을 기준으로 자연스럽게 움직여야 한다. 경계선을 기준으로 가상현실 콘텐츠가 잘리거나, 벽에 막힌 것처럼 움직인다면, 대형 스크린(10)을 다수의 사용자가 공유한다는 목적에 다소 어긋날 수 있기 때문이다. 따라서 이를 위하여, 상기 통합제어서버(50)는 상기 제1사용자에게 할당되는 제1할당영역에 가상현실 콘텐츠를 출력하되, 상기 가상현실 콘텐츠가 상기 제1할당영역과 상기 제2할당영역의 경계선에 인접할 수록 동작하는 속도를 감소시키고, 상기 가상현실 콘텐츠가 상기 경계선에 닿으면 상기 가상현실 콘텐츠가 이동하는 방향을 제1할당영역 방향으로 전환시킬 수 있다.
가상현실 낚시 시뮬레이터로 예를 들면, 상기 가상현실 콘텐츠는 사용자와 상호작용하는 물고기일 수 있다. 후술하는 바와 같이, 본 명세서에 개시된 발명은 가상현실 낚시 시뮬레이터에 적용할 수 있는데, 이 경우 사용자의 낚시 컨트롤러에 대응되도록 가상현실 물고기를 가상현실 콘텐츠로써, 스크린(10)에 출력할 수 있다. 이 때, 상기 가상현실 물고기는 어신활성화 데이터에 따라 움직이도록 프로그래밍을 하여 자연스러운 움직임을 재현할 수 있다. 다만, 이 경우 각 사용자와 상호작용하는 가상현실 물고기가 타 사용자의 할당영역과의 경계선에 인접할 수록 이동하는 속도를 감소시킬 수 있다. 상기 가상현실 물고기는 경계선과 거의 닿게되면 이동하는 속도는 0으로 수렴하게 되고, 자연스럽게 상호작용하는 사용자의 할당영역 내측으로 방향을 전환하여 이동하도록 제어할 수 있다.
본 명세서에 개시된 발명은 전술한 바와 같이 가상현실 낚시 시뮬레이터에 사용될 수 있다. 이하에서는 가상현실 낚시 시뮬레이터에 사용되는 실시 예로 설명한다.
일 실시 예로써, 가상현실 낚시 시뮬레이터는 하나의 넓은 공간에, 일측벽에는 대형 스크린(10)이 설치될 수 있고, 상기 스크린(10)에 대향하는 다수의 빔프로젝터(40)가 천장에 설치될 수 있다. 또한, 스크린(10) 앞에서 가상현실 낚시 시뮬레이터를 체험하는 사용자를 인식할 수 있는 모션인식센서(30)가 설치될 수도 있다.
상기 스크린(10)과 빔프로젝터(40), 모션인식센서(30) 및 후술하는 컨트롤러(20)를 통합적으로 제어하는 통합제어서버(50)를 더 포함할 수 있다.
상기 빔프로젝터(40)에 의해 상기 스크린(10)에는 낚시터의 전경이 출력된다. 상기 스크린(10)은 다수의 사용자가 공유하여 사용할 수 있을 정도로 대형으로 제작됨이 바람직하다.
상기 가상현실 낚시 시뮬레이터를 체험하는 사용자는 낚시대 형상의 컨트롤러(20)를 소지하고, 원하는 스크린(10) 앞에 위치를 잡는다. 그 후 상기 컨트롤러(20)와 상기 모션인식센서(30)를 통해 사용자가 스크린(10) 앞 중 어느 위치에 있는지를 추출한다.
그리고, 상기 모션인식센서(30)는 상기 가상의 공간 중 대향하는 모서리에 2개 이상 설치되어 사용자의 위치를 중심으로 룸스케일의 측정범위를 설정할 수 있다. 상기 룸스케일의 측정범위가 설정되면, 상기 측정범위에 대응하는 스크린(10)을 사용자에게 할당영역으로 할당할 수 있다. 상기 측정범위에 대응하는 스크린(10)이란, 상기 룸스케일의 측정범위 전방에 위치하는 스크린(10)으로써, 그 범위는 수용하는 인원에 따라 상기 시뮬레이터를 제공하는 사람이 거리를 설정해둘 수도 있다. 이 때 주위에 다른 사용자가 이미 자신의 할당영역을 할당받아 가상현실 낚시 시뮬레이터를 체험하고 있는 중이라며, 상기 사용자의 할당영역은 다른 사용자의 할당영역과 중첩되지 않도록 할당하는 것이 바람직하다.
사용자는 자신의 할당영역 안에서 가상현실 낚시를 체험하는데, 이때 상기 컨트롤러(20)와 센서(30)를 통해 사용자의 모션을 추출할 수 있다. 낚시 바늘을 낚시터에 던지는 동작부터, 낚시줄을 회수하는 동작 및 물고기를 채는 동작 등 낚시에 필요한 동작을 미리 설정해두어 상기 컨트롤러(20)와 센서(30)를 통해 사용자의 모션을 추출할 수 있다.
상기 추출된 모션을 상기 통합제어서버(50)로 전달하여, 상기 통합제어서버(50)는 사용자에 모션에 대응되도록 가상현실 콘텐츠를 제어하고, 이렇게 제어된 가상현실 콘텐츠를 상기 빔프로젝터(40)를 통해 스크린(10)에 출력한다.
상기 스크린(10)은 다수의 사용자와 함께 공유를 하고 있으므로, 사용자와 상호작용하는 가상현실 물고기는 사용자의 할당영역 내에서만 동작하도록 제어하는 것이 바람직하다. 또한, 상기 가상현실 물고기는 어신활성화 데이터에 따라 움직이도록 프로그래밍을 하여 자연스러운 움직임을 재현하되, 상기 가상현실 물고기가 다른 사용자의 할당영역과의 경계선에 인접할 수록 이동하는 속도를 감소시킬 수 있다. 상기 가상현실 물고기는 경계선과 거의 닿게되면 이동하는 속도는 0으로 수렴하게 되고, 자연스럽게 상호작용하는 사용자의 할당영역 내측으로 방향을 전환하여 이동하도록 제어할 수 있다.
개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시 예에 한정되지 않는다.
10 : 스크린
20 : 컨트롤러
30 : 모션인식센서, 센서
40 : 빔프로젝터
50 : 통합제어서버

Claims (13)

  1. 다수 사용자를 위한 가상현실 영상처리 시스템에 있어서,
    가상현실 콘텐츠를 투영하는 스크린;
    제1사용자의 모션을 인식하고, 피드백을 제공하는 컨트롤러;
    하나 이상 설치되어, 사용자의 위치를 추적하고, 룸스케일로 사용자의 모션을 인식하는 모션인식센서;
    상기 스크린의 전면에 하나 이상 설치되어, 가상현실 콘텐츠를 상기 스크린에 출력하는 빔프로젝터; 및
    상기 컨트롤러와 모션인식센서를 통해 제1사용자의 위치를 추출하고, 상기 추출된 제1사용자의 위치에 대응되는 스크린을 제1할당영역으로 제1사용자에게 할당하여, 상기 제1할당영역에 대응하는 빔프로젝터에 가상현실 콘텐츠를 출력하는 통합제어서버; 를 포함하는 가상현실 영상처리 시스템.
  2. 청구항 1에 있어서,
    상기 컨트롤러는 고유의 아이디정보를 보유하고, 상기 통합제어서버로 상기 아이디정보를 전달하여 상기 컨트롤러의 제1사용자를 식별하는 것을 특징으로 하는 가상현실 영상처리 시스템.
  3. 청구항 1에 있어서,
    상기 모션인식센서는 둘 이상이 한 조를 이루어 설치되되, 인식범위가 중첩되도록 설치되어 룸스케일로 제1사용자의 모션을 인식하는 것을 특징으로 하는 가상현실 영상처리 시스템.
  4. 청구항 1에 있어서,
    상기 빔프로젝터는 가상현실 콘텐츠를 이웃하는 빔프로젝터와 일부 중첩하여 출력하도록 설치되고, 상기 통합제어서버는 상기 중첩된 영역에 콘텐츠가 중복되어 출력되도록 제어하는 것을 특징으로 하는 가상현실 영상처리 시스템.
  5. 청구항 1에 있어서,
    상기 통합제어서버는 상기 추출된 제1사용자의 위치에 대응되는 스크린을 제1할당영역으로 제1사용자에게 할당하되, 다른 제2사용자에게 할당된 제2할당영역과 중첩되지 않도록 할당하고, 상기 제1사용자에 대한 가상현실 콘텐츠는 할당된 제1할당영역 내에서만 출력될 수 있도록 제어하여 출력하는 것을 특징으로 하는 가상현실 영상처리 시스템.
  6. 청구항 5에 있어서,
    상기 통합제어서버는 상기 제1사용자에게 할당되는 제1할당영역에 가상현실 콘텐츠를 출력하되, 상기 가상현실 콘텐츠가 상기 제1할당영역과 상기 제2할당영역의 경계선에 인접할 수록 동작하는 속도를 감소시키고, 상기 가상현실 콘텐츠가 상기 경계선에 닿으면 상기 가상현실 콘텐츠가 이동하는 방향을 제1할당영역 방향으로 전환시키는 것을 특징으로 하는 가상현실 영상처리 시스템.
  7. 다수 사용자를 위한 가상현실 영상처리 방법에 있어서,
    가상현실 콘텐츠를 스크린에 출력하는 제1단계;
    컨트롤러와 센서를 통해 제1사용자의 위치를 추출하는 제2단계;
    상기 제1사용자의 위치를 기준으로 룸스케일의 측정범위를 설정하는 제3단계;
    상기 룸스케일의 측정범위에 대응하는 스크린을 제1사용자에게 제1할당영역으로 할당하는 제4단계;
    상기 룸스케일의 측정범위에서 상기 컨트롤러와 센서를 통해 제1사용자의 모션을 추출하는 제5단계; 및
    상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하고, 상기 제1단계로 돌아가 가상현실 콘텐츠를 스크린에 출력하는 제6단계; 를 포함하는 가상현실 영상처리 방법.
  8. 청구항 7에 있어서,
    상기 제1단계는 하나 이상의 빔프로젝터를 통해 가상현실 콘텐츠를 스크린에 출력하되, 상기 빔프로젝터는 가상현실 콘텐츠를 이웃하는 빔프로젝터와 일부 중첩하여 출력하는 것을 특징으로 하는 가상현실 영상처리 방법.
  9. 청구항 7에 있어서,
    상기 제2단계는 컨트롤러마다 고유의 아이디정보를 할당하여 상기 컨트롤러의 제1사용자를 식별하고, 상기 컨트롤러와 센서를 통해 제1사용자의 위치를 추출하는 것을 특징으로 하는 가상현실 영상처리 방법.
  10. 청구항 7에 있어서,
    상기 제3단계는 상기 제1사용자의 위치를 기준으로, 인식범위가 중첩되도록 설치된 둘 이상의 센서를 통해 룸스케일의 측정범위를 설정하는 것을 특징으로 하는 가상현실 영상처리 방법.
  11. 청구항 7에 있어서,
    상기 제6단계는 상기 추출된 제1사용자의 모션에 따라 상기 가상현실 콘텐츠를 제어하되, 상기 가상현실 콘텐츠에 대응하는 피드백을 상기 컨트롤러를 통해 제1사용자에게 제공하고, 상기 제1단계로 돌아가 가상현실 콘텐츠를 스크린에 출력하는 것을 특징으로 하는 가상현실 영상처리 방법.
  12. 청구항 7에 있어서,
    상기 제6단계는 상기 제1사용자에게 할당된 제1할당영역에 가상현실 콘텐츠를 출력하되, 다른 제2사용자에게 할당된 제2할당영역과 중첩되지 않도록 할당하고, 상기 제1사용자에 대한 가상현실 콘텐츠는 할당된 제1할당영역에 대응하는 스크린 내에서만 출력하는 것을 특징으로 하는 가상현실 영상처리 방법.
  13. 청구항 12에 있어서,
    상기 제6단계는 상기 제1사용자에게 할당되는 제1할당영역에 가상현실 콘텐츠를 출력하되, 상기 가상현실 콘텐츠가 상기 제1할당영역과 상기 제2할당영역의 경계선에 인접할 수록 동작하는 속도를 감소시키고, 상기 가상현실 콘텐츠가 상기 경계선에 닿으면 상기 가상현실 콘텐츠가 이동하는 방향을 제1할당영역 방향으로 전환시키는 것을 특징으로 하는 가상현실 영상처리 방법.
KR1020190104394A 2019-08-26 2019-08-26 가상현실 영상처리 시스템 및 방법 KR102250021B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190104394A KR102250021B1 (ko) 2019-08-26 2019-08-26 가상현실 영상처리 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190104394A KR102250021B1 (ko) 2019-08-26 2019-08-26 가상현실 영상처리 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20210024793A true KR20210024793A (ko) 2021-03-08
KR102250021B1 KR102250021B1 (ko) 2021-05-11

Family

ID=75184985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190104394A KR102250021B1 (ko) 2019-08-26 2019-08-26 가상현실 영상처리 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102250021B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110055868A (ko) * 2009-11-20 2011-05-26 엘지전자 주식회사 이동 단말기, dtv 및 dtv의 제어 방법
KR20150068187A (ko) * 2013-12-11 2015-06-19 동서대학교산학협력단 모션 센서 기반 사용자 움직임 반응을 이용한 대형 벽면 스크린 활용형 디스플레이 시스템 및 방법
KR20160132683A (ko) * 2015-05-11 2016-11-21 (주)젠트정보기술 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템
KR20170064026A (ko) 2015-11-30 2017-06-09 (주)포디비전 가상현실, 증강현실 기반의 3차원 실감형 천체교육용 스마트 교육서비스 제공방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110055868A (ko) * 2009-11-20 2011-05-26 엘지전자 주식회사 이동 단말기, dtv 및 dtv의 제어 방법
KR20150068187A (ko) * 2013-12-11 2015-06-19 동서대학교산학협력단 모션 센서 기반 사용자 움직임 반응을 이용한 대형 벽면 스크린 활용형 디스플레이 시스템 및 방법
KR20160132683A (ko) * 2015-05-11 2016-11-21 (주)젠트정보기술 모션 인식 및 특수 효과 제어기술을 이용한 체감형 게임 콘텐츠 제공 시스템
KR20170064026A (ko) 2015-11-30 2017-06-09 (주)포디비전 가상현실, 증강현실 기반의 3차원 실감형 천체교육용 스마트 교육서비스 제공방법

Also Published As

Publication number Publication date
KR102250021B1 (ko) 2021-05-11

Similar Documents

Publication Publication Date Title
US10751609B2 (en) Mapping arena movements into a 3-D virtual world
JP2023018097A (ja) 人間とロボットの相互作用の拡張現実調整
CN109671118B (zh) 一种虚拟现实多人交互方法、装置及系统
US9779550B2 (en) Augmented reality system
US9704267B2 (en) Interactive content control apparatus and method
US9311742B1 (en) Navigating an avatar through a virtual world in a motion capture simulation environment
US20170150108A1 (en) Autostereoscopic Virtual Reality Platform
KR102051309B1 (ko) 지능형 인지기술기반 증강현실시스템
KR102258381B1 (ko) 복수의 로봇들을 관제하는 인공 지능 서버 및 그 방법
US20200066054A1 (en) Method of displaying virtual content based on markers
KR102034021B1 (ko) 헬스케어 유닛 기반 시뮬레이터 및 이를 이용한 시뮬레이션 방법
CN110969905A (zh) 混合现实的远程教学互动、教具互动系统及其互动方法
US8941654B2 (en) Virtual flashlight for real-time scene illumination and discovery
US20170371410A1 (en) Dynamic virtual object interactions by variable strength ties
KR20200025960A (ko) 지능형 인지기술기반 제조현장의 증강현실시스템
KR102250021B1 (ko) 가상현실 영상처리 시스템 및 방법
US11587284B2 (en) Virtual-world simulator
RU2758036C1 (ru) Способ и система для оптико-инерциального трекинга подвижного объекта
WO2022023142A1 (en) Virtual window
CN103927778A (zh) 一种虚拟人环境感知的仿真方法及系统
KR101905272B1 (ko) 체감형 컨텐츠 제공 장치와 연계된 비콘 기반의 사용자 방향 인식 장치 및 그 방법
KR20190095849A (ko) 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법
Liu et al. A versatile vision-pheromone-communication platform for swarm robotics
KR102063149B1 (ko) 협업에 따라 대기위치를 변경하는 방법 및 로봇
WO2022145105A1 (ja) 個別ナビゲーションシステムおよび個別ナビゲーション方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant