KR20200083747A - Vr 영상 구동 방법 - Google Patents

Vr 영상 구동 방법 Download PDF

Info

Publication number
KR20200083747A
KR20200083747A KR1020180172175A KR20180172175A KR20200083747A KR 20200083747 A KR20200083747 A KR 20200083747A KR 1020180172175 A KR1020180172175 A KR 1020180172175A KR 20180172175 A KR20180172175 A KR 20180172175A KR 20200083747 A KR20200083747 A KR 20200083747A
Authority
KR
South Korea
Prior art keywords
image
information
user
video
driving
Prior art date
Application number
KR1020180172175A
Other languages
English (en)
Inventor
윤영범
김치훈
Original Assignee
경남정보대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경남정보대학교 산학협력단 filed Critical 경남정보대학교 산학협력단
Priority to KR1020180172175A priority Critical patent/KR20200083747A/ko
Publication of KR20200083747A publication Critical patent/KR20200083747A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 VR 영상 구동 방법에 관한 것으로서, 본 발명에 따른 VR 영상 구동 방법은 VR 영상 장치에 저장된 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보를 결정하는 모드 결정 단계와, VR 영상 장치를 통해서 VR 영상을 구동시키는 VR 영상 구동 단계와, VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선 정보에 따라 VR 영상 중 대응하는 시야 영역을 VR 영상 장치의 표시부에 표시하는 표시 단계와, 상기 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보와 사용자의 시선 정보에 기초하여, 상기 특정된 객체에 대한 객체 정보를 VR 영상 내에 구현하는 객체 정보 구현 단계와, 사용자의 선택에 따라 VR 영상 장치의 네트워크를 통해서 상기 특정된 객체에 대한 부가 정보가 저장된 VR 영상 서버를 통해서 VR 영상과 동시에 부가 정보를 구현하는 부가 정보 구현 단계를 포함하는 것을 특징으로 한다.

Description

VR 영상 구동 방법{method of processing VR video}
본 발명은 VR 영상에 관한 것으로서, VR 영상을 활용하여 사용자가 요구하는 정보를 제공할 수 있는 VR 영상 구동 방법에 관한 것이다.
Virtual Reality(이하 'VR') 영상 중 360도 파노라마 영상은 전체 영상 내에서 사용자가 보고 싶은 방향이나 지점을 선택해 감상할 수 있다.
이러한 VR 영상은 HMD(head mount display)와 같은 VR 전용 영상 장치를 통해 감상할 수 있다.
그런데, 종래의 VR 영상은 360도 동영상을 가상의 3차원 공간에서 원형으로 펼쳐 사용자가 보고 싶은 방향이나 지점을 단순히 표시 처리하는 일반적인 표시 처리 방식이 적용되고 있었다.
이러한 VR 영상 처리 기술에 대한 선행기술에는 출원번호 제10-2017-00106호22(출원일: 2017.01.23) 등이 있다.
그러나, VR 기술의 특징이라 할 수 있는 사용자와 VR 영상 간의 향상된 인터랙티브(상호작용)환경 시스템을 구축하여, 사용자가 보고자 하는 정보를 제공할 수 있는 영상 구동 기술의 개발이 요구되고 있다.
본 발명에 따른 VR 영상 구동 방법은 사용자와 VR 영상 간의 향상된 인터랙티브 환경을 제공하는 VR 영상 구동 방법을 제공하는 데 그 목적이 있다.
본 발명에 따른 VR 영상 구동 방법은 VR 영상 장치에 저장된 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보를 결정하는 모드 결정 단계와, VR 영상 장치를 통해서 VR 영상을 구동시키는 VR 영상 구동 단계와, VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선 정보에 따라 VR 영상 중 대응하는 시야 영역을 VR 영상 장치의 표시부에 표시하는 표시 단계와, 상기 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보와 사용자의 시선 정보에 기초하여, 상기 특정된 객체에 대한 객체 정보를 VR 영상 내에 구현하는 객체 정보 구현 단계와, 사용자의 선택에 따라 VR 영상 장치의 네트워크를 통해서 상기 특정된 객체에 대한 부가 정보가 저장된 VR 영상 서버를 통해서 VR 영상과 동시에 부가 정보를 구현하는 부가 정보 구현 단계를 포함하는 것을 특징으로 한다.
여기서, 상기 객체 정보는 특정된 객체의 위치 정보, 거리 정보, 교통 정보, 역사 정보, 인기 정보 등을 포함하는 것을 특징으로 한다.
또한, 상기 부가 정보는 특정된 객체에 대한 영상 정보, 리뷰 정보, 검색 정보 등을 포함하는 것을 특징으로 한다.
본 발명에 따른
도 1은 본 발명의 바람직한 일실시예에 따른 VR 영상 구동 시스템을 도시하는 개념도.
도 2는 본 발명의 바람직한 일실시예에 따른 VR 영상 구동 방법을 도시하는 순서도.
도 3은 본 발명의 바람직한 일실시예에 따른 사용자 시선정보에 따라 VR 영상 장치의 표시부에 VR 영상이 표시되는 예시도.
도 4는 본 발명의 바람직한 일실시예에 따른 사용자 시선정보와 객체 정보에 따라 VR 영상 장치의 표시부에 객체 정보가 VR 영상 내에 구현 표시되는 예시도.
이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 일 실시 예를 상세하게 설명하고자 한다.
도 1은 본 발명의 바람직한 일실시예에 따른 VR 영상 구동 시스템을 도시하는 개념도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 VR 영상 처리 방법은 VR 영상 서버(10)와 VR 영상 장치(20)를 포함하여 구성될 수 있다.
먼저, VR 영상 서버(10)는 네트워크를 통해 VR 영상 장치(20)와 연결되어, VR 영상 장치(20)로 VR 영상 및 특정된 객체에 대한 부가 정보를 제공하게 된다.
즉, VR 영상 내의 미리 특정된 적어도 하나의 객체(예로서, 주요 관광지, 공공기관, 병원 등)에 대해서 설정된 객체정보를 제공할 수 있다. 이를 위해, VR 영상 서버(10)는 VR 영상 및 객체정보를 저장하는 데이터베이스를 구비할 수 있다.
구체적으로는, VR 영상 서버(10)는 VR 영상 제공 사업자의 서버 컴퓨터일 수 있으며 VR 영상 장치(20)는 휴대폰이 될 수 있다.
VR 영상 장치(20)는 VR 영상을 구동시켜 사용자의 시선에 따라 대응하는 VR 영상 내 일부 영상을 표시하는 장치로서, 예를 들면, HMD(head mount display), 컴퓨터, 스마트폰 등일 수 있으며, 또는 이들의 조합으로 이루어지게 된다.
도 2는 본 발명의 바람직한 일실시예에 따른 VR 영상 구동 방법을 도시하는 순서도이다.
도 2에 도시된 바와 같이 본 발명에 따른 VR 영상 구동 방법은 모드 결정 단계(S10), VR 영상 구동 단계(S20), 표시단계(S30), 객체정보 구현 단계(S40) 및 부가정보 구현 단계(S50)을 포함하여 이루어진다.
먼저, 모드 결정 단계(S10)는 VR 영상 장치에 저장된 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보를 결정하게 된다.
여기서, 객체정보는 주요 관광지, 공공기관, 병원 등의 시설물에 대해서 위치 정보, 거리 정보, 교통 정보, 역사 정보, 인기 정보 등을 포함한 데이타이며, 이를 사용자가 VR 영상을 보기 이전에 어떤 모드를 통해서 찾고자 하는 시설물에 대한 정보를 제공하는 것이다.
즉, 기본적으로, 사용자가 VR 영상을 통해서 시설물까지를 거리정보를 알고 싶은 경우 모드 결정 단계에서는 1차적으로 객체정보를 거리정보에 대한 데이타로 변환하게 된다.
다음으로, VR 영상 구동 단계는 VR 영상 장치를 통해서 VR 영상을 구동시키게 된다. 즉, 사용자는 HMD를 이용하여 VR 영상을 시청하는 경우 HMD를 착용한 상태에서 VR 영상을 시청하게 된다.
이러한 VR 영상이 구동되면, VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선 정보에 따라 VR 영상 중 대응하는 시야 영역을 VR 영상 장치의 표시부에 표시하게 되는 표시 단계(S30)이 진행된다.
도 3은 본 발명의 바람직한 일실시예에 따른 사용자 시선정보에 따라 VR 영상 장치의 표시부에 VR 영상이 표시되는 예시도이다.
도 3에 도시된 VR 영상은 부산광역시 영도구의 영도 대교에 대한 VR 영상의 캡쳐 화면이며, 시선정보의 중심점(O)를 중심으로 VR 영상 장치의 표시부에 VR 영상을 표시한다.
여기서, VR 영상은 360도 동영상으로서, 예를 들면, 복수(예컨대, 6대)의 촬영장치를 일정 각도 간격으로 배치하고 각 촬영장치를 통해 얻어지는 이미지들을 스티칭 등의 이미지 처리를 통해서 1차적으로 생성되는 구형의 360도 동영상이다.
이러한 1차 VR 영상을 생성하는 것은 공지된 것이므로 구체적인 설명은 생략하기로 한다.
이러한 표시 단계(S30)가 진행중 상기 VR 영상 내의 미리 특정된 객체(도 3에서는 영도대교(T))에 대해서 설정된 객체정보와 사용자의 시선 정보에 기초하여, 상기 특정된 객체에 대한 객체 정보를 VR 영상 내에 구현하는 객체 정보 구현 단계(S40)을 거치게 된다.
도 4는 본 발명의 바람직한 일실시예에 따른 사용자 시선정보와 객체 정보에 따라 VR 영상 장치의 표시부에 객체 정보가 VR 영상 내에 구현 표시되는 예시도이다.
도 4에 도시된 바와 같이 시선정보의 중심점(O)이 미리 특정된 객체(도 4에서는 영도대교(T))와 일치하게 되는 경우 객체 정보가 구현된다.
여기서 도 4에 도시된 객체 정보는 영도대교에 대한 연혁과 주요 정보가 제공되는 것이다.
이러한 객체 정보는 최초 모드 결정 단계(S10)에서 사용자에 의해서 선택되어 지며, 이러한 객체 정보는 사용자가 이동 거리를 알고 싶은 경우, 맛집을 찾고 싶은 경우 등 사용자 요구에 따라서 모드 결정 단계(S10)에서 선택되어 진다.
그리고, 이러한 객체 정보는 사용자의 선택에 따라 VR 영상 장치의 네트워크를 통해서 상기 특정된 객체에 대한 부가 정보가 저장된 VR 영상 서버를 통해서 VR 영상과 동시에 부가 정보를 구현하는 부가 정보 구현 단계를 포함한다.
여기서, 부가정보는 특정된 객체에 대한 영상 정보, 리뷰 정보, 검색 정보 등을 포함한다.
도 4에 도시된 바와 같이 객체 정보가 VR 영상과 같이 표시된 경우(팝업 형태로) 객체 정보의 일측에 메뉴(Menu)아이콘이 생성되고, 시선정보의 중심점이 메뉴 아이콘과 일치하게 되면 부가 정보 리스트를 보여주고, 이러한 부가 정보에서 선택된 영상 정보, 리뷰 정보(맛집 별점 등)이 VR 영상과 같이 표시부에 구현되게 된다.
이 경우 객체 정보가 표시된 경우에는 사용자의 시선 정보의 중심점에 의해서 VR 영상 중 대응하는 시야 영역이 변화되지 않도록 해야 한다. 즉, 객체 정보가 표시된 경우에도 사용자의 시선 정보의 이동에 의해서 시야 영역이 변경되면 사용자가 부가 정보를 선택하기 어려워 지게 된다.
이상과 같이 본 발명은 VR 영상 구동 방법을 제공하는 것을 주요한 기술적 사상으로 하고 있으며, 도면을 참고하여 상술한 실시 예는 단지 하나의 실시 예에 불과하므로 본 발명의 진정한 범위는 특허청구범위에 의해 결정되어야 한다.
10: VR 영상 서버
20: VR 영상 장치

Claims (3)

  1. VR 영상 장치에 저장된 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보를 결정하는 모드 결정 단계와;
    VR 영상 장치를 통해서 VR 영상을 구동시키는 VR 영상 구동 단계와;
    VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선 정보에 따라 VR 영상 중 대응하는 시야 영역을 VR 영상 장치의 표시부에 표시하는 표시 단계와;
    상기 VR 영상 내의 미리 특정된 객체에 대해서 설정된 객체정보와 사용자의 시선 정보에 기초하여, 상기 특정된 객체에 대한 객체 정보를 VR 영상 내에 구현하는 객체 정보 구현 단계와;
    사용자의 선택에 따라 VR 영상 장치의 네트워크를 통해서 상기 특정된 객체에 대한 부가 정보가 저장된 VR 영상 서버를 통해서 VR 영상과 동시에 부가 정보를 구현하는 부가 정보 구현 단계;를 포함하는 것을 특징으로 하는 VR영상 구동 방법.
  2. 제 1 항에 있어서,
    상기 객체 정보는,
    특정된 객체의 위치 정보, 거리 정보, 교통 정보, 역사 정보, 인기 정보 등을 포함하는 것을 특징으로 하는 VR영상 구동 방법.
  3. 제 1 항에 있어서,
    상기 부가 정보는,
    특정된 객체에 대한 영상 정보, 리뷰 정보, 검색 정보 등을 포함하는 것을 특징으로 하는 VR영상 구동 방법.
KR1020180172175A 2018-12-28 2018-12-28 Vr 영상 구동 방법 KR20200083747A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180172175A KR20200083747A (ko) 2018-12-28 2018-12-28 Vr 영상 구동 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180172175A KR20200083747A (ko) 2018-12-28 2018-12-28 Vr 영상 구동 방법

Publications (1)

Publication Number Publication Date
KR20200083747A true KR20200083747A (ko) 2020-07-09

Family

ID=71602517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180172175A KR20200083747A (ko) 2018-12-28 2018-12-28 Vr 영상 구동 방법

Country Status (1)

Country Link
KR (1) KR20200083747A (ko)

Similar Documents

Publication Publication Date Title
AU2020202551B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US10547798B2 (en) Apparatus and method for superimposing a virtual object on a lens
US9361283B2 (en) Method and system for projecting text onto surfaces in geographic imagery
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
US20090319178A1 (en) Overlay of information associated with points of interest of direction based data services
US20160063671A1 (en) A method and apparatus for updating a field of view in a user interface
US10445772B1 (en) Label placement based on objects in photographic images
US20180089869A1 (en) System and Method For Previewing Indoor Views Using Augmented Reality
US11334156B2 (en) Postponing the state change of an information affecting the graphical user interface until during the condition of inattentiveness
EP3437076A1 (en) Digital model optimization responsive to orientation sensor data
JP2017211811A (ja) 表示制御プログラム、表示制御方法および表示制御装置
CN110622110A (zh) 提供沉浸式现实内容的方法和装置
WO2015152951A1 (en) Media navigation recommendations
JP2014203175A (ja) 情報処理装置、情報処理方法及びプログラム。
JP5705793B2 (ja) 拡張現実表示装置、拡張現実表示システム、拡張現実表示方法、及び拡張現実表示プログラム
KR20200083747A (ko) Vr 영상 구동 방법
KR101925181B1 (ko) 증강/가상 현실 기반 동적 정보 처리 방법 및 시스템
KR101899465B1 (ko) 위치 정보를 활용한 여행지 정보 제공 장치
KR102033587B1 (ko) 증강현실을 이용한 길안내 방법, 장치 및 컴퓨터 프로그램
KR102443049B1 (ko) 전자 장치 및 그 동작 방법
JP5965515B2 (ja) 情報処理装置、拡張現実感提供方法、及びプログラム
KR20200127107A (ko) 증강현실을 이용한 지역 상권 데이터 가시화 시스템
KR102398280B1 (ko) 관심 영역에 대한 영상을 제공하기 위한 장치 및 방법
US11726740B2 (en) Immersive audio tours
JP2014225782A (ja) 情報処理装置、通信端末およびデータ取得方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application