KR101949261B1 - Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템 - Google Patents

Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템 Download PDF

Info

Publication number
KR101949261B1
KR101949261B1 KR1020170010622A KR20170010622A KR101949261B1 KR 101949261 B1 KR101949261 B1 KR 101949261B1 KR 1020170010622 A KR1020170010622 A KR 1020170010622A KR 20170010622 A KR20170010622 A KR 20170010622A KR 101949261 B1 KR101949261 B1 KR 101949261B1
Authority
KR
South Korea
Prior art keywords
information
image
user
specified
processing
Prior art date
Application number
KR1020170010622A
Other languages
English (en)
Other versions
KR20180088538A (ko
Inventor
고범준
Original Assignee
고범준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고범준 filed Critical 고범준
Priority to KR1020170010622A priority Critical patent/KR101949261B1/ko
Priority to PCT/KR2017/012090 priority patent/WO2018135730A1/ko
Publication of KR20180088538A publication Critical patent/KR20180088538A/ko
Application granted granted Critical
Publication of KR101949261B1 publication Critical patent/KR101949261B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 VR 영상 생성 방법, VR 영상 처리 방법 및 VR 영상 처리 시스템에 관한 것으로, 본 발명의 일 실시예에 따른 VR 영상 생성 방법은, VR 영상을 3차원 좌표계에 매칭시키는 단계; VR 영상을 구동 제어하면서, 매칭된 3차원 좌표계에 기초하여 영상 내의 적어도 하나의 객체를 특정하는 단계; 특정된 객체에 대해 좌표값에 기반한 위치정보, 발현시간정보, 출력정보를 포함하는 객체정보를 설정하는 단계; 및 객체정보가 부가된 VR 영상 데이터를 생성하는 단계를 포함한다.

Description

VR 영상 생성 방법, VR 영상 처리 방법 및 VR 영상 처리 시스템{method for generating VR video, method for processing VR video, and system for processing VR video}
본 발명은 3차원 좌표계를 기반으로 한 VR 영상 생성 방법, VR 영상 처리 방법 및 VR 영상 처리 시스템에 관한 것이다.
VR(virtual reality) 영상 중 360도 파노라마 영상은 전체 영상 내에서 사용자가 보고 싶은 방향이나 지점을 선택해 감상할 수 있다. 이러한 VR 영상은 HMD(head mount display)와 같은 영상 표시 장치를 통해 감상할 수 있다.
그런데, 종래의 VR 영상 처리 기술은 360도 동영상을 가상의 3차원 공간에서 원형으로 펼쳐 사용자가 보고 싶은 방향이나 지점을 단순히 표시 처리하는 일반적인 표시 처리 방식이 적용되고 있었다.
이에 따라, VR(virtual reality) 기술의 특징이라 할 수 있는 사용자와 영상 간의 향상된 인터랙티브(상호작용) 환경 시스템을 구축하여, 사용자에게 보다 현실감 있고 흥미로운 VR 영상을 제공할 수 있는 영상 생성 기술 및 영상 처리 기술의 개발이 요구되었다.
본 발명은 3차원 좌표계를 기반으로 VR 영상 내에 설정된 적어도 하나의 객체정보를 이용하여 다양한 영상 처리를 수행할 수 있는 VR 영상 생성 방법, VR 영상 처리 방법 및 VR 영상 처리 시스템을 제공하는 데 목적이 있다.
상기 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 VR 영상 생성 방법은, VR 영상을 3차원 좌표계에 매칭시키는 단계; VR 영상을 구동 제어하면서, 매칭된 3차원 좌표계에 기초하여 영상 내의 적어도 하나의 객체를 특정하는 단계; 특정된 객체에 대해 좌표값에 기반한 위치정보, 발현시간정보, 출력정보를 포함하는 객체정보를 설정하는 단계; 및 객체정보가 부가된 VR 영상 데이터를 생성하는 단계를 포함한다.
여기서, 객체를 특정하는 단계는, VR 영상 내에서 해당 객체가 발현되는 시간동안, 사용자에 의해 선택되는 적어도 하나의 특정 좌표값으로부터 이루어지는 영역을 특정하거나, 또는 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정할 수 있다.
출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함할 수 있다.
또한, 부가정보는 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함할 수 있다.
일례로, 객체를 특정하는 단계에서, 특정하려는 객체가 VR영상 내에서 위치 이동하는 경우, 특정된 영역을 해당 객체를 따라 위치 이동시킬 수 있다.
또한, 본 발명의 다른 실시예에 따른 VR 영상 처리 방법은, 3차원 좌표계에 매칭된 VR 영상을 구동시키는 단계; VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시부에 표시하는 단계; 및 VR 영상 내의 미리 특정된 적어도 하나의 객체에 대해서 설정된 객체정보, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리하는 단계를 포함한다.
여기서, 객체정보는 좌표값에 기반한 위치정보, 발현시간정보 및 출력정보를 포함한다.
일례로, 특정된 객체에 대한 출력정보를 처리하는 단계에서, 특정된 객체가 시야 영역 밖의 영역에 위치하는 경우, 객체가 발현되는 시간동안 특정된 객체의 위치를 지시하는 방향정보와 출력정보 중 적어도 하나를 표시부의 시야 영역 내에 출력할 수 있다.
또한, 특정된 객체에 대한 출력정보를 처리하는 단계는, 표시부의 시야 영역 내에 특정된 객체가 위치하는 경우, 객체별로 가상 타이머를 동작시켜 측정된 시간 길이에 따라 객체별 관심도를 측정하는 단계를 더 포함할 수 있다. 이때, 특정된 객체에 대한 출력정보를 처리하는 단계에서, 측정된 관심도가 설정된 조건을 만족하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다.
또한, 특정된 객체에 대한 출력정보를 처리하는 단계는, 측정된 객체별 관심도에 따라 이용자별로 관심도를 업데이트하는 단계; 및 관심도에 따라 출력정보를 업데이트하는 단계를 더 포함할 수 있다.
또한, 특정된 객체에 대한 출력정보를 처리하는 단계에서, 사용자의 시선 이동에 연동되는 포인터가 어느 하나의 특정된 객체 영역 내에서 설정된 시간동안 위치하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다.
한편, 본 발명의 또 다른 실시예에 따른 VR 영상 처리 시스템은, 네트워크를 통해 VR 영상 및 VR 영상 내의 미리 특정된 적어도 하나의 객체에 대해서 설정된 객체정보를 제공하는 VR 영상 서버; 및 VR 영상을 3차원 좌표계에 매칭시켜 구동시키는 단계와, VR 영상의 원점에서 사용자의 회전이나 눈의 움직임에 기초하여 사용자의 시선을 감지하는 단계와, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시하는 단계와, 사용자로부터 선택신호를 입력받는 단계와, 객체정보, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리하는 단계를 실행시키는 저장 매체에 저장된 어플리케이션을 포함할 수 있다.
일례로, VR 영상 서버는 VR 영상 및 객체정보를 실시간 스트리밍 전송방식으로 제공할 수 있다.
본 발명에 따르면, 3차원 좌표계를 기반으로 VR 영상 내에 설정된 적어도 하나의 객체정보를 이용하여 다양한 영상 처리를 수행할 수 있으므로, 사용자와 영상 간의 향상된 인터랙티브 환경을 제공하여 사용자에게 보다 현실감 있고 흥미로운 VR 영상을 제공할 수 있다.
본 발명에 의한 추가적인 효과는, 이후 실시예에 따라 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 VR 영상 처리 시스템을 나타낸 개념도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 일 실시예에 따른 VR 영상 생성 방법을 나타내는 순서도이다.
도 4는 VR 영상 내에서 특정 좌표값에 기반하여 객체를 특정하는 것을 설명하기 위한 예시도이다.
도 5는 이용자의 시선을 기준으로 방향성을 가진 각도값을 설명하기 위한 예시도이다.
도 6은 VR 영상 내에서 시야 영역을 특정하는 것을 설명하기 위한 예시도이다.
도 7은 본 발명의 일실시예에 따른 VR 영상 처리 방법을 나타내는 순서도이다.
도 8은 이용자의 시선 이동에 따른 시야 영역의 이동을 설명하는 도이다.
도 9는 관심도 측정을 설명하기 위한 도이다.
도 10은 시야 영역의 표시 화면 내에 출력되는 출력정보를 설명하기 위한 예시도이다.
도 11은 사용자 장치의 선택신호를 통해 출력되는 출력정보를 설명하기 위한 예시도이다.
도 12는 본 발명의 일 실시예에 따른 측정된 관심도에 기초한 출력정보 출력방법을 나타내는 순서도이다.
도 13은 본 발명의 일 실시예에 따른 사용자 선택신호에 기초한 출력정보 출력방법을 나타내는 순서도이다.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다.
먼저, 도 1은 본 발명의 일 실시예에 따른 VR 영상 처리 시스템을 나타낸 개념도이다.
도 1에 도시된 바와 같이, 본 발명에 따른 VR 영상 처리 시스템은, VR 영상 서버(100)와 사용자 장치(200)를 포함하여 구성될 수 있다.
먼저, VR 영상 서버(100)는 네트워크를 통해 사용자 장치(200)와 연결되어, 사용자 장치(200)로 VR 영상 및 VR 영상 내의 미리 특정된 적어도 하나의 객체(예로서, 인물 또는 사물)에 대해서 설정된 객체정보를 제공할 수 있다. 이를 위해, VR 영상 서버(100)는 VR 영상 및 객체정보를 저장하는 데이터베이스를 구비할 수 있다. 일례로, VR 영상 서버(100)는 VR 영상 제공 사업자의 서버 컴퓨터일 수 있다.
사용자 장치(200)는 VR 영상을 구동시켜 사용자의 시선에 따라 대응하는 VR 영상 내 일부 영상을 출력하는 장치로서, 예를 들면, HMD(head mount display), 컴퓨터, 스마트폰 등일 수 있으며, 또는 이들의 조합으로 이루어지는 구성일 수도 있다.
일례로, 도 2에 도시된 바와 같이, 사용자 장치(200)는, 구동부(210), 감지부(220), 표시부(230), 입력부(240), 제어부(250)를 포함할 수 있다.
구동부(210)는 VR 영상을 3차원 좌표계에 매칭시켜 구동시키는 구성이다.
감지부(220)는 VR 영상의 원점을 기준으로 사용자의 회전(즉, 장치의 회전)이나 눈의 움직임에 기초하여 사용자의 시선을 감지하는 구성이다. 이러한 감지부(220)는 장치의 회전을 감지하기 위해 각속도 센서, 자이로 센서 등을 구비할 수 있으며, 또한, 감지부(220)는 눈의 방향(시선)이나 움직임을 감지하는 아이트래킹 센서 등을 구비할 수 있다.
표시부(230)는 감지된 시선에 따라 VR 영상 구동 중 대응하는 시야 영역을 표시하는 구성이다.
입력부(240)는 사용자로부터 선택신호, 조작신호 등을 입력받는 구성으로서, 다양한 조작버튼, 선택버튼 등을 구비할 수 있다. 일례로, 마우스, 키보드 등의 입력수단이 이용될 수 있다.
제어부(250)는 구동부(210), 감지부(220), 표시부(230) 및 입력부(240)를 제어하는 구성으로서, VR 영상 구동 중 객체정보, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리할 수 있다.
일례로, 사용자 장치(200)는 구동부(210), 감지부(220), 표시부(230), 입력부(240) 및 제어부(250)의 기능을 실행시키는 저장 매체에 저장된 어플리케이션을 통해 실현될 수 있다. 물론 각 기능을 구현하는 하드웨어의 조합으로 구현될 수도 있다.
또한, 사용자 장치(200)는 VR 영상 서버(100)와 통신하기 위한 통신부(260)를 더 포함할 수도 있다. 추가적으로, VR 영상의 음성 신호를 출력하기 위한 스피커 등을 더 포함할 수 있다.
한편, VR 영상 서버(100)는 VR 영상 저작도구를 이용하여 VR 영상 데이터를 제작하고 편집할 수 있다. 일례로, 객체에 대한 영역을 특정할 때에는, VR 영상 서버(100)에 접속된 관리자 컴퓨터에서 마우스, 키보드 등의 입력장치를 이용하여 객체 영역을 특정할 수 있으며, 또는 입력장치로서 관리자 컴퓨터에 연결된 HMD를 구비해서, HMD의 사용자 시선과 연동되는 포인터 등을 이용하여 객체 영역을 특정할 수도 있다.
이어서, 도 3 내지 도 6을 이용하여, 본 발명에 따른 VR 영상 생성 방법을 설명하기로 한다. 도 3은 본 발명의 일 실시예에 따른 VR 영상 생성 방법의 순서도를 나타내며, 도 4는 VR 영상 내에서 특정 좌표값에 기반하여 객체를 특정하는 것을 설명하기 위한 예시도이며, 도 5는 이용자의 시선을 기준으로 방향성을 가진 각도값을 설명하기 위한 예시도이며, 도 6은 VR 영상 내에서 시야 영역을 특정하는 것을 설명하기 위한 예시도이다.
도 3에 도시된 바와 같이, 본 발명에 따른 VR 영상 생성 방법은, 먼저, VR 영상을 3차원 좌표계에 매칭시킨다(S10). 여기서, VR 영상은 360도 동영상으로서, 예를 들면, 복수(예컨대, 6대)의 촬영장치를 일정 각도 간격으로 배치하고 각 촬영장치를 통해 얻어지는 이미지들을 스티칭 등의 이미지 처리를 통해서 1차적으로 생성되는 구형의 360도 동영상이다. 이러한 1차 VR 영상을 생성하는 것은 공지된 것이므로 구체적인 설명은 생략하기로 한다.
이어서, VR 영상을 구동 제어하면서, 매칭된 3차원 좌표계에 기초하여 VR 영상 내의 적어도 하나의 객체를 특정한다(S20).
여기서, 객체를 특정하는 것(S20)은, VR 영상 내에서 해당 객체가 발현되는 시간동안, 사용자에 의해 선택되는 적어도 하나의 특정 좌표값으로부터 이루어지는 영역을 특정하거나, 또는 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정할 수 있다.
일례로, 객체를 특정할 때, 도 4와 같이, 객체를 특정할 수 있다. 도 4는 VR 영상에서 일부의 시야 영역을 나타내는 화면이다. 사용자는 VR 영상 내에서 특정하고자 하는 객체에 대한 특정 좌표값을 선택하여 특정 좌표값에 의해 이루어지는 영역을 특정할 수 있다. 도 4에서는 두 개의 객체(사람)에 대해서 영역을 특정하고 있다. 예를 들어, 도 4에서 우측 객체를 특정할 때에는, 2개 이상의 특정점(예로써, (x1, y1, z1) 및 (x4, y4, z4))을 선택하여 이루어지는 4각형의 영역을 특정할 수 있다. 마찬가지로, 좌측 객체를 특정할 때에도, 2개 이상의 특정점(예로써, (x6, y6, z6) 및 (x7, y7, z7))을 선택하여 이루어지는 4각형의 영역을 특정할 수 있다. 여기서, 특정점에 의해 형성되는 영역은 4각형으로 한정되는 것이 아니라, 3개 이상의 특정점으로 이루어지는 다각형 형상을 가질 수 있고, 또는 하나의 특정점으로부터 일정 거리를 갖는 원형이나, 특정점을 중심으로 하는 미리 정해진 크기의 다각형 영역을 특정할 수도 있다.
본 실시 예에서는 특정점을 직교 좌표계로 특정하는 경우를 설명하고 있으나 이에 한정되는 것은 아니며, 예로써, 구면 좌표계로 특정점을 특정할 수도 있다.
일례로, 구면 좌표계에 의한 좌표(r, θ, φ) 중 θ값(양의 방향의 z축과 시선방향의 특정점이 이루는 직선까지의 각, 즉 수직방향 성분의 각) 및 φ값(양의 방향의 x축과, 원점과 특정점이 이루는 직선을 xy 평면에 투영시킨 직선까지의 각, 즉 수평방향 성분의 각)을 기초로 4개의 특정점을 특정하여 이루어지는 영역을 특정할 수 있다. 여기서, r은 원점(즉, 이용자의 눈)에서 VR 영상까지의 거리로서 일정한 값이 된다. 이와 같이, 구면 좌표계에서 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 특정점을 이용하여 특정하고자 하는 객체의 영역을 특정할 수 있다.
또는, 도 5와 같이, 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정할 수도 있다. 예로써, 도 5(a)에서와 같이, 이용자의 눈(즉, 가상 카메라)과 VR 영상을 측면 방향에서 바라봤을 때, 이용자의 시선을 기준으로 설정된 방향성을 가진 각도값(θ1)이 상하로 결정되고, 또한, 도 5(b)에서와 같이, 이용자의 눈(즉, 가상 카메라)과 VR 영상을 상면 방향에서 바라봤을 때, 이용자의 시선을 기준으로 설정된 방향성을 가진 각도값(φ1)이 좌우로 결정된다. 이에 따라, 상하의 각도값(θ1)에 의해 이루어지는 VR 영상에서의 수평방향의 2개의 직선 성분과, 좌우의 각도값(φ1)에 의해 이루어지는 VR 영상에서의 수직방향의 2개의 직선 성분에 의해 이루어지는 직사각형 형상의 영역이 특정될 수 있다.
또는, 객체를 특정할 때, VR 영상에서 특정 이미지(얼굴 모양, 사물 모양 등)를 추적하는 기능을 통해 객체에 대한 영역을 특정할 수도 있다.
일례로, 객체를 특정하는 단계(S20)에서, 특정하려는 객체가 시간에 따라 VR 영상 내에서 위치 이동하는 경우, 특정된 영역을 해당 객체를 따라 위치 이동시키면서 객체를 특정할 수도 있다.
또한, VR 영상 내에서 시야 영역(즉, 표시부에 표시되는 표시 화면 영역)을 특정할 때, 도 6과 같이, 시야 영역을 특정할 수도 있다. 도 6의 (a)는 이용자의 눈(예로써, 가상 카메라)이 바라보는 구형상의 VR 영상 내의 시야 영역을 특정하는 것을 나타내고, 도 6의 (b)는 특정된 시야 영역을 나타낸다. 객체 영역을 특정할 때와 유사하게, 이용자는 VR 영상 감상 중 이용자가 바라보는 VR 영상의 시야 영역을 3차원 좌표계 상에서 2개 이상의 좌표값을 특정하여 이루어지는 영역을 시야 영역으로 특정할 수 있다. 또는 방향성을 가진 각도값에 기초하여 이루어지는 영역을 시야 영역으로 특정할 수도 있다.
이어서, 도 3에서와 같이, 특정된 객체에 대해 좌표값에 기반한 위치정보, 객체가 발현되는 시작시간과 종료시간을 포함하는 발현시간정보, 객체에 대한 부가적인 출력정보를 포함하는 객체정보를 설정한다(S30).
출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함할 수 있다. 여기서, 자막정보는 인물 객체가 말하는 대사에 대한 자막이거나 사물 객체를 설명하기 위한 자막 등일 수 있다. 음성정보는 객체에 대한 추가적인 음향정보를 포함할 수 있다. 또한, 부가정보는 특정된 객체를 다양하게 활용하기 위해 설정되는 것으로서, 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함할 수 있다.
태그정보는 키워드 등을 통해 검색되거나 카테고리별로 분류될 수 있도록 하기 위한 객체의 종류정보나 이름정보를 포함할 수 있다. 설명정보는 객체를 설명하기 위한 정보로서 객체가 인물인 경우 직업, 나이, 신체, 회사, 학력, 대표작품 등의 정보를 포함하며, 객체가 사물인 경우 제품 사양, 가격 등의 정보를 포함할 수 있다. 또한, 객체관련 영상 정보는 객체와 관련된 추천 영상 정보를 포함할 수 있으며, 광고정보는 객체가 출연한 광고 영상 정보를 포함할 수 있다. 또한, 링크정보는 객체에 대한 페이스북, 트위터 등의 관련 사이트 링크 정보를 포함할 수 있다.
또한, 각 객체의 출력정보는 3차원 좌표계를 기반으로 하여 VR 영상 내에서 발현 시간 정보(즉, 발현 시작 시간 및 발현 종료 시간 포함) 및 발현될 위치 정보를 더 포함할 수 있다.
이어서, 도 3에서와 같이, 설정된 객체정보가 부가된 VR 영상 데이터를 생성한다(S40). 생성된 VR 영상 데이터는 VR 영상 서버(100) 상에 저장될 수 있다. VR 영상 서버(100)는 VR 영상과 객체정보를 하나의 통합된 데이터 파일로 저장하여 사용자 장치(200)로 제공할 수 있으며, 또는 VR 영상과 객체 정보를 구분한 데이터 파일로 저장하여 VR 영상과 객체 정보를 선택적으로 사용자 장치(200)에 제공할 수 있다.
이와 같은, VR 영상 생성 방법에 의해 생성된 객체정보가 부가된 VR 영상 데이터는 영상 처리를 통해서 사용자에게 다양한 서비스를 제공하도록 이용될 수 있다.
이어서, 도 7을 이용하여 본 발명에 따른 VR 영상 처리 방법을 설명하기로 한다. 도 7은 본 발명의 일실시예에 따른 VR 영상 처리 방법을 나타내는 순서도이다.
도 7에 도시된 바와 같이, 본 발명에 따른 VR 영상 처리 방법은, 먼저, 사용자 장치의 구동부를 통해 3차원 좌표계에 매칭된 VR 영상을 구동시킨다(S110). 이어서, 감지부를 통해 VR 영상 구동 중 VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시부에 표시한다(S120). 이어서, 제어부는 VR 영상 내의 미리 특정된 적어도 하나의 객체에 대해서 미리 설정된 객체정보, 사용자의 시선 정보 및 입력부를 통한 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리한다(S130). 상술한 바와 같이, 객체정보는 좌표값에 기반한 위치정보, 발현시간정보 및 출력정보를 포함하며, 출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함할 수 있다. 또한, 부가정보는 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함할 수 있다.
일례로, 특정된 객체에 대한 출력정보를 처리하는 단계(S130)에서, 특정된 객체(현재 말하는 사람)가 시야 영역 밖의 영역에 위치하는 경우, 해당 객체가 발현되는 시간동안(예로써, 객체가 말하는 시간 동안) 객체의 위치를 지시하는 방향정보(예로써, 화살표시)와 출력정보(예로써, 자막) 중 적어도 하나를 표시부의 시야 영역 내의 설정된 위치에 출력할 수 있다.
또한, 특정된 객체에 대한 출력정보를 처리하는 단계(S130)는, 도 8 및 도 9에 도시된 바와 같이, 표시부의 시야 영역 내에 특정된 객체가 위치하는 경우, 객체별로 가상 타이머를 동작시켜 측정된 시간 길이에 따라 객체별 관심도를 측정할 수 있다. 예를 들어, 도 8에서와 같이, 먼저 "이용자 시선이동-1"일 때 시야영역 내에 객체가 포함되어 있다. 이어서, "이용자 시선이동-2"일 때, 시선이 이동하였으나 객체는 여전히 시야영역 내에 포함된다. 이어서, "이용자 시선이동-3"일 때, 시선이 이동하여, 객체는 시야 영역 내에 일부만 포함된다. 이어서, "이용자 시선이동 -4"일 때, 시선이 이동하여, 객체는 시야 영역 밖에 위치한다. 이때, 도 9(a)에서와 같이, 시야 영역 내에 객체가 포함된다고 판단될 때, 가상의 타이머를 작동시켜 객체가 시야 영역 내에 위치하는 시간 길이를 측정한다. 이때, 시간 길이는 도 9(b)에서와 같이, 시야 영역 내에 객체의 적어도 일부가 포함되지 않을 때까지 측정하거나, 또는 시야 영역 내에 객체의 전부가 포함되지 않을 때까지 측정하도록 설정할 수 있다.
만일, 측정된 관심도가 설정된 조건(예로써, 일정 시간)을 만족하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다.
또한, 도 10에 도시된 바와 같이, 출력정보는 관심도가 높은 객체관련 영상 정보로서 추천 영상 정보 및 객체관련 광고정보로서 관심상품 정보를 VR 영상 구동 중 시야 영역의 표시 화면상에 표시할 수도 있고, 또는, VR 영상 구동 종료 후 가장 관심도가 높은 하나의 객체에 대해서 출력정보를 출력할 수도 있다. 예를 들면, 관심도가 높은 객체에 대해서 객체의 명칭(제품의 이름, 인물의 이름 등)이 제목(예로써, 태그 정보)에 들어가 있는 영상을 추천하거나 또는 해당 객체에 대해 미리 설정된 영상 분류 카테고리에 포함된 관련 영상을 추천할 수도 있다.
또한, 특정된 객체에 대한 출력정보를 처리할 때, 측정된 객체별 관심도에 따라 이용자별로 관심도를 업데이트하고, 그 관심도에 따라 출력정보를 업데이트할 수 있다. 이를 위해, 이용자 관리를 위해, VR 영상 서버(100)는 이용자별 회원가입을 통해 이용자 정보를 저장한 후, 사용자 장치(200)를 통해 VR 영상 서버(100)에 접속하여 로그인하는 과정을 거칠 수 있다. 만일, 회원가입 되지 않은 비로그인 이용자의 경우는 재생된 VR 영상에서의 측정된 객체별 관심도에 따라 출력정보를 출력할 수 있다.
이어서, 도 12를 이용하여, 측정된 관심도에 따른 출력정보를 출력하는 방법을 설명하기로 한다. 도 12는 본 발명의 일 실시예에 따른 측정된 관심도에 기초한 출력정보 출력방법을 나타내는 순서도이다.
도 12에 도시된 바와 같이, 본 발명에 따른 측정된 관심도에 따른 출력정보 출력 방법은, 먼저, 사용자 장치(200)는 VR 영상 서버(100)에 접속하여 VR 영상에 대한 객체정보를 요청하여, 요청한 객체정보를 전송받을 수 있다. 또는 사용자 장치(200)는 VR 영상 서버(100)로부터 객체정보가 포함된 VR 영상 데이터를 요청하여, 요청한 VR 영상 데이터를 전송받을 수도 있다. 일례로, VR 영상 서버(100)는 VR 영상 및 객체정보를 접속된 사용자 장치(200)로 실시간 스트리밍 전송방식으로 제공할 수 있다.
이어서, 사용자 장치(200)는 해당 VR 영상을 실행한다(S211). 이어서, 사용자 장치(200)는 VR 영상 실행 중 사용자 시선을 감지하여 시야부 범위(즉, 시야 영역의 표시화면)를 확인하고(S212), 또한, 객체정보를 이용하여 객체부 범위(즉, 객체로 특정된 영역)를 확인한다(S213). 이어서, 시야부 내 객체부 범위가 포함되는지 판단한다(S214). 만일, 포함된 경우(Yes)는 가상타이머를 작동하기 시작한다(S215). 만일, 포함되지 않는 경우(No)는 가상타이머는 작동을 정지한다(S216). 이어서, 가상타이머에 의해 측정된 객체별 측정 시간에 따라 객체별 관심도를 측정한다(S217). 이어서, 해당 VR 영상의 실행이 종료되면(S218), 로그인 여부에 따라 관심도가 높은 관심 객체에 대한 출력정보를 출력할 수 있다(S219).
만일, 로그인이 된 이용자의 경우, 사용자 장치(200)는 측정된 관심도 정보 및 이용자 정보를 VR 영상 서버(100)로 전송하여, VR 영상 서버(100)로부터 출력정보로서 이용자별 누적영상 관심객체기반의 추천영상정보 및 광고정보를 제공받을 수 있다. 예를 들어, 사용자 장치(100)는, 객체별 기설정된 태그에 측정된 관심도 정보를 기초로 점수를 가산한다. 이때, VR 영상에 관련된 분류 키워드를 태그로 지정될 수 있다. 객체별 태그는 VR 영상 내에 여러 개 존재할 수 있다. 예로써, 객체별 태그 점수는 (객체별 타이머시간/전체 VR 영상시간)×태그 보정값으로 계산할 수도 있다. 여기서, 태그 보정값은 태그별 관련도가 높을수록 큰 보정값을 갖도록 설정되는 값이다. 이와 같이 사용자 장치(200)는 측정된 관심도 정보로서 객체별 태그 점수를 이용자 정보와 함께 VR 영상 서버(100)로 전송할 수 있다. 한편, VR 영상 서버(100)는 이용자별로 과거에 본 영상의 태그값을 더해 보정된 누적 태그정보를 이용하여 사용자 장치(200)에 출력정보를 전송할 수 있다. 이에 따라, 사용자 장치(200)는 이용자의 누적된 관심도에 기초하여 관심객체에 대한 추천영상정보 및 광고정보를 출력할 수 있다. 한편, 만일, 로그인 되지 않은 이용자의 경우, 사용자 장치(200)는 해당 VR 영상의 실행에 따라 측정된 관심도가 높은 객체에 대해 객체정보의 출력정보로서 추천영상정보 및 광고정보를 출력할 수도 있다(S220).
또한, 도 7에서 특정된 객체에 대한 출력정보를 처리할 때(S130), 사용자의 시선 이동에 연동되는 포인터를 이용하여 선택된 객체에 대한 출력정보를 출력할 수도 있다. 예를 들면, 사용자의 시선 이동에 연동되는 포인터가 어느 하나의 특정된 객체 영역 내에서 설정된 시간동안 위치하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력할 수 있다. 일례로, 도 11의 (a)에서와 같이, 객체 영역 내에 포인터가 위치할 때, 사용자 장치의 입력부를 통해 선택신호를 입력받음으로써, 도 11의 (b)에서와 같이, 출력정보로서 객체에 대한 설명정보 및 링크정보를 표시할 수 있다.
이어서, 도 13을 이용하여, 사용자 시선에 연동되는 포인터를 이용하여 선택된 객체의 출력정보를 출력하는 방법을 설명하기로 한다. 도 13은 본 발명의 일 실시예에 따른 사용자 선택신호에 기초한 출력정보 출력방법을 나타내는 순서도이다.
도 13에 도시된 바와 같이, 본 발명에 따른 사용자 선택신호에 기초한 출력정보 출력 방법은, 먼저, 사용자 장치(200)는 VR 영상 서버(100)에 접속하여 VR 영상에 대한 객체정보를 요청하여, 요청한 객체정보를 전송받을 수 있다. 또는 사용자 장치(200)는 VR 영상 서버(100)로부터 객체정보가 포함된 VR 영상 데이터를 요청하여, 요청한 VR 영상 데이터를 전송받을 수도 있다.
이어서, 사용자 장치(200)는 해당 VR 영상을 실행한다(S231). 이어서, 사용자 장치(200)는 사용자 시선에 연동되는 기기 포인터의 점 좌표를 확인하여(S232), 시야 영역의 표시 화면과 함께 포인터를 출력한다. 이때, 사용자 장치(200)는 객체부 범위(즉, 객체로 특정된 영역)를 확인한다(S233). 이어서, 객체부 범위 내 포인터가 위치하는지 판단한다(S234). 만일, 객체부 범위 내 포인터가 위치하지 않는 경우에는 해당 판단단계(S234)를 지속적으로 반복한다. 만일, 객체부 범위 내 포인터가 위치하는 경우, 사용자 장치(200)는 선택신호로서 특정 버튼이 입력되었는지 판단한다(S235). 만일, 특정 버튼이 입력된 경우, 해당 객체에 대한 출력정보를 표시 화면 내에 출력한다(S236). 만일, 특정 버튼이 입력되지 않은 경우에는 단계 S234 부터 다시 반복한다. 이때, 사용자 장치는 입력부로서 특정버튼을 구비한다.
여기서, 특정 버튼 입력단계(S235)는, 객체부 범위 내 포인터가 설정된 시간 동안 위치하는지 판단하는 단계로 대체될 수도 있다. 즉, 객체부 범위 내 포인터가 설정된 시간 동안 위치하는 경우 객체에 대한 출력정보를 출력하고, 설정된 시간 동안 위치하지 않는 경우 단계 S234 부터 다시 반복할 수 있다.
이와 같은, 본 발명에 따르면, 3차원 좌표계를 기반으로 VR 영상 내에 설정된 적어도 하나의 객체정보를 이용하여 다양한 영상 처리를 수행할 수 있으므로, 사용자와 영상 간의 향상된 인터랙티브 환경을 제공하여 사용자에게 보다 현실감 있고 흥미로운 VR 영상을 제공할 수 있다.
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.
100: VR 영상 서버 200: 사용자 장치
210: 구동부 220: 감지부
230: 표시부 240: 입력부
250: 제어부

Claims (14)

  1. 미리 촬영된 VR 영상을 3차원 좌표계 상의 구면에 매칭시키는 단계;
    상기 VR 영상을 구동 제어하면서, 매칭된 3차원 좌표계에 기초하여 상기 VR 영상 내에서 구동 시간에 따라서 발현되는 인물 또는 사물 객체에 대응하는 일부 영역을 특정하여 상기 인물 또는 사물 객체 중 적어도 하나의 객체를 특정하는 단계;
    특정된 객체에 대해 좌표값에 기반한 위치정보, 발현시간정보, 출력정보를 포함하는 객체정보를 설정하는 단계; 및
    상기 VR 영상 내의 인물 또는 사물 객체와 대응하여 설정된 상기 객체정보가 부가된 VR 영상 데이터를 생성하는 단계를 포함하며,
    상기 객체를 특정하는 단계는, 상기 VR 영상 내에서 해당 객체가 발현되는 시간동안, 상기 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역을 특정하여 수행되며,
    상기 객체정보는 상기 VR 영상 데이터가 구동될 때 사용자 선택신호 또는 사용자의 시선 정보에 대응하여 발현되도록 구성되는 정보인 것을 특징으로 하는 VR 영상 생성 방법.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 출력정보는 자막정보, 음성정보, 부가정보 중 적어도 하나를 포함하는 VR 영상 생성 방법.
  4. 청구항 3에 있어서,
    상기 부가정보는 태그정보, 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 포함하는 VR 영상 생성 방법.
  5. 청구항 1에 있어서,
    상기 객체를 특정하는 단계에서,
    상기 특정하려는 객체가 상기 VR영상 내에서 위치 이동하는 경우, 상기 특정된 영역을 해당 객체를 따라 위치 이동시키는 VR 영상 생성 방법.
  6. 미리 촬영된 VR 영상을 3차원 좌표계 상의 구면에 매칭하여 구동시키는 단계;
    VR 영상의 원점을 기준으로 사용자의 시선을 감지하고, 감지된 시선에 따라 VR 영상 중 대응하는 시야 영역을 표시부에 표시하는 단계; 및
    상기 VR 영상의 구동 시간에 따라서 상기 VR 영상 내에서 발현되는 인물 또는 사물 객체에 대응하는 일부 영역을 특정함으로써 미리 특정된 적어도 하나의 객체에 대한 객체정보와 함께, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 출력정보를 처리하는 단계를 포함하며,
    상기 객체정보는 설정된 좌표값에 기반한 위치정보, 발현시간정보 및 상기 출력정보를 포함하며,
    상기 특정된 객체는, 상기 VR 영상 내에서 해당 객체가 발현되는 시간동안, 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역으로 특정된 것을 특징으로 하는 VR 영상 처리 방법.
  7. 삭제
  8. 청구항 6에 있어서,
    상기 특정된 객체에 대한 출력정보를 처리하는 단계에서,
    상기 특정된 객체가 상기 시야 영역 밖의 영역에 위치하는 경우, 상기 객체가 발현되는 시간동안 상기 특정된 객체의 위치를 지시하는 방향정보와 출력정보 중 적어도 하나를 상기 표시부의 시야 영역 내에 출력하는 VR 영상 처리 방법.
  9. 청구항 6에 있어서,
    상기 특정된 객체에 대한 출력정보를 처리하는 단계는,
    상기 표시부의 시야 영역 내에 특정된 객체가 위치하는 경우, 객체별로 가상 타이머를 동작시켜 측정된 시간 길이에 따라 객체별 관심도를 측정하는 단계를 더 포함하는 VR 영상 처리 방법.
  10. 청구항 9에 있어서,
    상기 특정된 객체에 대한 출력정보를 처리하는 단계는,
    상기 측정된 관심도가 설정된 조건을 만족하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력하는 VR 영상 처리 방법.
  11. 청구항 10에 있어서,
    상기 특정된 객체에 대한 출력정보를 처리하는 단계에서,
    측정된 객체별 관심도에 따라 이용자별로 관심도를 업데이트하는 단계; 및
    상기 관심도에 따라 출력정보를 업데이트하는 단계를 더 포함하는 VR 영상 처리 방법.
  12. 청구항 6에 있어서,
    상기 특정된 객체에 대한 출력정보를 처리하는 단계에서,
    상기 사용자의 시선 이동에 연동되는 포인터가 어느 하나의 특정된 객체 영역 내에서 설정된 시간동안 위치하는 경우, 출력정보로서 객체에 대한 설명정보, 객체관련 영상 정보, 객체관련 광고정보, 링크정보 중 적어도 하나를 출력하는 VR 영상 처리 방법.
  13. 네트워크를 통해 VR 영상, 및 상기 VR 영상의 구동 시간에 따라서 상기 VR 영상 내에서 발현되는 인물 또는 사물 객체에 대응하는 일부 영역을 특정함으로써 미리 특정된 적어도 하나의 객체에 대해서 설정된, 좌표값에 기반한 위치정보와 발현시간정보와 출력정보를 포함하는, 객체정보를 제공하는 VR 영상 서버; 및
    VR 영상을 3차원 좌표계 상의 구면에 매칭시켜 구동시키는 단계와, 상기 VR 영상의 원점에서 사용자의 회전이나 눈의 움직임에 기초하여 사용자의 시선을 감지하는 단계와, 감지된 시선에 따라 상기 VR 영상 중 대응하는 시야 영역을 표시하는 단계와, 사용자로부터 선택신호를 입력받는 단계와, 상기 객체정보와 함께, 사용자의 시선 정보 및 사용자 선택신호 중 적어도 하나에 기초하여, 각각의 특정된 객체에 대한 상기 출력정보를 처리하는 단계를 실행시키는 저장 매체에 저장된 어플리케이션;
    을 포함하며,
    상기 미리 특정된 적어도 하나의 객체는, 상기 VR 영상 내에서 해당 객체가 발현되는 시간동안, 상기 3차원 좌표계 상의 원점을 기준으로 방향성을 가진 각도값에 기초하여 이루어지는 영역으로 특정된 것을 특징으로 하는 VR 영상 처리 시스템.
  14. 청구항 13에 있어서,
    상기 VR 영상 서버는 상기 VR 영상 및 객체정보를 실시간 스트리밍 전송방식으로 제공하는 VR 영상 처리 시스템.
KR1020170010622A 2017-01-23 2017-01-23 Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템 KR101949261B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170010622A KR101949261B1 (ko) 2017-01-23 2017-01-23 Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템
PCT/KR2017/012090 WO2018135730A1 (ko) 2017-01-23 2017-10-30 Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170010622A KR101949261B1 (ko) 2017-01-23 2017-01-23 Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템

Publications (2)

Publication Number Publication Date
KR20180088538A KR20180088538A (ko) 2018-08-06
KR101949261B1 true KR101949261B1 (ko) 2019-02-18

Family

ID=62908832

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170010622A KR101949261B1 (ko) 2017-01-23 2017-01-23 Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템

Country Status (2)

Country Link
KR (1) KR101949261B1 (ko)
WO (1) WO2018135730A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102200115B1 (ko) * 2018-12-06 2021-01-08 (주)포스트미디어 다시점 360도 vr 컨텐츠 제공 시스템
KR102212405B1 (ko) * 2019-02-20 2021-02-04 ㈜브이리얼 Vr 영상 컨텐츠 제작 방법, 장치 및 프로그램
KR102148379B1 (ko) * 2019-07-24 2020-08-26 신용강 원격 의류매장 서비스 방법
KR102270852B1 (ko) * 2019-09-30 2021-06-28 한국항공대학교산학협력단 뷰포트 탐색 가능한 디바이스를 이용한 360도 비디오 서비스 제공 장치 및 방법
KR102231381B1 (ko) * 2019-11-18 2021-03-23 김현수 다수의 2차원 영상을 이용한 가상 현실용 영상 제작 시스템 및 방법
KR102181648B1 (ko) * 2020-08-20 2020-11-24 신용강 원격 의류매장 플랫폼 제공 방법 및 장치
KR102181647B1 (ko) * 2020-08-20 2020-11-23 신용강 오프라인 의류매장과 동일한 환경을 제공하는 원격 의류매장 서비스 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016537903A (ja) * 2013-08-21 2016-12-01 ジョーント・インコーポレイテッドJaunt Inc. バーチャルリアリティコンテンツのつなぎ合わせおよび認識

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020025301A (ko) * 2000-09-28 2002-04-04 오길록 다중 사용자를 지원하는 파노라믹 이미지를 이용한증강현실 영상의 제공 장치 및 그 방법
KR100716973B1 (ko) * 2004-02-21 2007-05-10 삼성전자주식회사 Av 데이터에 동기된 텍스트 서브 타이틀 데이터를기록한 정보저장매체, 재생방법 및 장치
US9111287B2 (en) * 2009-09-30 2015-08-18 Microsoft Technology Licensing, Llc Video content-aware advertisement placement
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
KR101639275B1 (ko) * 2015-02-17 2016-07-14 서울과학기술대학교 산학협력단 다중 실시간 영상 획득 카메라를 활용한 360도 구형 렌더링 영상 표출 장치 및 이를 통한 자동 영상 분석 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016537903A (ja) * 2013-08-21 2016-12-01 ジョーント・インコーポレイテッドJaunt Inc. バーチャルリアリティコンテンツのつなぎ合わせおよび認識

Also Published As

Publication number Publication date
KR20180088538A (ko) 2018-08-06
WO2018135730A1 (ko) 2018-07-26

Similar Documents

Publication Publication Date Title
KR101949261B1 (ko) Vr 영상 생성 방법, vr 영상 처리 방법 및 vr 영상 처리 시스템
US11381758B2 (en) System and method for acquiring virtual and augmented reality scenes by a user
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
EP4105878A1 (en) Image acquisition device and method of controlling the same
JP6470356B2 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
CN102270041A (zh) 通过图像分析来选择便携式设备中的视图取向
CN115311422A (zh) 用于设备定位的多重集成模型
CN105339867A (zh) 使用视觉逼真的对象显示
US9875546B1 (en) Computer vision techniques for generating and comparing three-dimensional point clouds
US9672588B1 (en) Approaches for customizing map views
JP6656382B2 (ja) マルチメディア情報を処理する方法及び装置
EP3422145B1 (en) Provision of virtual reality content
US11821751B2 (en) Verifying map data using challenge questions
KR101980297B1 (ko) 3차원 vr 영상 처리 장치, 방법 및 프로그램
KR20180088005A (ko) Vr 영상 저작 도구 및 vr 영상 저작 장치
JPWO2017037952A1 (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
US10057321B2 (en) Image management apparatus and control method capable of automatically creating comment data relevant to an image
JP6820038B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2017134492A (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP2017097854A (ja) プログラム、記録媒体、コンテンツ提供装置及び制御方法
JP6680886B2 (ja) マルチメディア情報を表示する方法及び装置
JPWO2020045254A1 (ja) 表示システム、サーバ、表示方法及び装置
US20240143083A1 (en) Interactive simulation system with stereoscopic image and method for operating the same
WO2023275919A1 (ja) ウェアラブル端末装置、プログラムおよび表示方法
WO2024034248A1 (ja) 情報処理装置、方法、システム、コンテンツ作成プログラム、およびコンテンツ再生プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant