KR102190388B1 - 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 - Google Patents

복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 Download PDF

Info

Publication number
KR102190388B1
KR102190388B1 KR1020190057434A KR20190057434A KR102190388B1 KR 102190388 B1 KR102190388 B1 KR 102190388B1 KR 1020190057434 A KR1020190057434 A KR 1020190057434A KR 20190057434 A KR20190057434 A KR 20190057434A KR 102190388 B1 KR102190388 B1 KR 102190388B1
Authority
KR
South Korea
Prior art keywords
sub
image
displayed
main
augmented reality
Prior art date
Application number
KR1020190057434A
Other languages
English (en)
Other versions
KR20200132241A (ko
Inventor
우승원
박현구
Original Assignee
주식회사 삼십구도씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 삼십구도씨 filed Critical 주식회사 삼십구도씨
Priority to KR1020190057434A priority Critical patent/KR102190388B1/ko
Priority to PCT/KR2020/006409 priority patent/WO2020231215A1/ko
Publication of KR20200132241A publication Critical patent/KR20200132241A/ko
Application granted granted Critical
Publication of KR102190388B1 publication Critical patent/KR102190388B1/ko
Priority to US17/526,204 priority patent/US20220078524A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43079Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of additional data with content streams on multiple devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Databases & Information Systems (AREA)
  • Architecture (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • Environmental & Geological Engineering (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 태양에 따르면, 복수의 디바이스를 이용하여 증강 현실(Augmented Reality) 객체가 포함된 콘텐츠를 제공하기 위한 방법으로서, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 상기 모델링 정보가 메인 디바이스 및 상기 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 단계, 상기 모델링 정보와 상기 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 메인 디바이스에 의해 촬영되는 영상에 상기 증강 현실 객체가 표시된 메인 영상을 상기 메인 디바이스에 표시되도록 하고, 상기 모델링 정보와 상기 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 상기 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 상기 적어도 하나의 서브 디바이스에 표시되도록 하는 단계, 상기 적어도 하나의 서브 영상에 관한 프레임 데이터가 상기 메인 디바이스에게 전달되도록 하는 단계, 및 상기 메인 디바이스를 통해 입력되는 사용자 명령에 따라 상기 메인 영상 및 상기 적어도 하나의 서브 영상 중 적어도 하나를 상기 콘텐츠에 포함시키는 단계를 포함하는 방법이 제공된다.

Description

복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체{METHOD, SYSTEM AND NON-TRANSITORY COMPUTER-READABLE RECORDING MEDIUM FOR PROVIDING CONTENTS INCLUDING AUGMENTED REALITY OBJECT USING MULTI-DEVICES}
본 발명은 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
근래에 들어 네트워크 환경 및 모바일 기기가 발달하면서 사람들이 시청하는 동영상 플랫폼이 TV에서 모바일로 변화하고 있고, 유튜브, 트위치, 아프리카 TV 등 다수의 동영상 플랫폼이 누구나 방송 가능한 라이브 채널을 제공하면서 방송을 하는 주체 또한 방송국에서 BJ, 인플루언서 등 일반 개인들로 변화하고 있다.
하지만, 지금까지 소개된 기술에 의하면, 위와 같은 환경의 변화에도 불구하고 별도의 방송 장비를 이용해야만 방송 등의 콘텐츠를 제공하는 서비스를 영위할 수 있는 실정이었다.
한편, 기술의 발달로 인하여 증강 현실을 이용한 콘텐츠를 제공하는 서비스가 증가하고 있으나, 지금까지 소개된 기술에 의하면, 사용자가 증강 현실을 이용한 콘텐츠를 전문적으로 제작할 수 있는 플랫폼의 부재로 인해 위와 같은 서비스를 효과적으로 제공하는 것이 어려운 실정이었다.
공개특허공보 제10-2018-0080783호 (2018. 7. 13)
본 발명은 전술한 종래 기술의 문제점을 모두 해결하는 것을 그 목적으로 한다.
또한, 본 발명은, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 위의 모델링 정보가 메인 디바이스 및 위의 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하고, 위의 모델링 정보와 위의 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 위의 메인 디바이스에 의해 촬영되는 영상에 위의 증강 현실 객체가 표시된 메인 영상을 위의 메인 디바이스에 표시되도록 하고, 위의 모델링 정보와 위의 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 위의 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 위의 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 위의 적어도 하나의 서브 디바이스에 표시되도록 하고, 위의 적어도 하나의 서브 영상에 관한 프레임 데이터가 위의 메인 디바이스에게 전달되도록 하고, 위의 메인 디바이스를 통해 입력되는 사용자 명령에 따라 위의 메인 영상 및 위의 적어도 하나의 서브 영상 중 적어도 하나를 위의 콘텐츠에 포함시킴으로써, 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하는 것을 또 다른 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.
본 발명의 일 태양에 따르면, 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법으로서, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 상기 모델링 정보가 메인 디바이스 및 상기 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 단계, 상기 모델링 정보와 상기 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 메인 디바이스에 의해 촬영되는 영상에 상기 증강 현실 객체가 표시된 메인 영상을 상기 메인 디바이스에 표시되도록 하고, 상기 모델링 정보와 상기 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 상기 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 상기 적어도 하나의 서브 디바이스에 표시되도록 하는 단계, 상기 적어도 하나의 서브 영상에 관한 프레임 데이터가 상기 메인 디바이스에게 전달되도록 하는 단계, 및 상기 메인 디바이스를 통해 입력되는 사용자 명령에 따라 상기 메인 영상 및 상기 적어도 하나의 서브 영상 중 적어도 하나를 상기 콘텐츠에 포함시키는 단계를 포함하는 방법이 제공된다.
본 발명의 다른 태양에 따르면, 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 시스템으로서, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 상기 모델링 정보가 메인 디바이스 및 상기 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 모델링 정보 공유부, 상기 모델링 정보와 상기 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 메인 디바이스에 의해 촬영되는 영상에 상기 증강 현실 객체가 표시된 메인 영상을 상기 메인 디바이스에 표시되도록 하고, 상기 모델링 정보와 상기 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 상기 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 상기 적어도 하나의 서브 디바이스에 표시되도록 하는 영상 표시부, 상기 적어도 하나의 서브 영상에 관한 프레임 데이터가 상기 메인 디바이스에게 전달되도록 하는 데이터 전달부, 및 상기 메인 디바이스를 통해 입력되는 사용자 명령에 따라 상기 메인 영상 및 상기 적어도 하나의 서브 영상 중 적어도 하나를 상기 콘텐츠에 포함시키는 콘텐츠 관리부를 포함하는 시스템이 제공된다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명에 의하면, 증강 현실 객체를 이용한 콘텐츠를 별도의 방송 장비 없이 복수의 모바일 기기만을 이용하여 제공이 가능하게 되므로, 누구나 증강 현실 콘텐츠를 이용한 서비스를 제공할 수 있게 된다.
또한, 본 발명에 의하면, 교육, 광고 제작, 라이브 방송, 기업 마케팅, 컨퍼런스, 강연 등에 활용할 수 있는 증강 현실 콘텐츠를 별도의 장비를 이용하지 않고 다양한 연출 방법으로 제작할 수 있게 되므로 비용이 절감되는 효과가 발생한다.
도 1은 본 발명의 일 실시예에 따라 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템의 내부 구성을 상세하게 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따라 메인 디바이스에 의해 촬영되는 영상에 콘텐츠에 포함될 증강 현실 객체가 표시되는 상황을 예시적으로 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따라 복수의 디바이스가 증강 현실 객체가 포함된 콘텐츠를 촬영하는 상황을 예시적으로 나타내는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 바람직한 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
전체 시스템의 구성
도 1은 본 발명의 일 실시예에 따라 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 전체 시스템의 개략적인 구성을 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 전체 시스템은 통신망(100), 콘텐츠 제공 시스템(200) 및 디바이스(300)를 포함할 수 있다.
먼저, 본 발명의 일 실시예에 따른 통신망(100)은 유선 통신이나 무선 통신과 같은 통신 양태를 가리지 않고 구성될 수 있으며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN; Metropolitan Area Network), 광역 통신망(WAN; Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 바람직하게는, 본 명세서에서 말하는 통신망(100)은 공지의 인터넷 또는 월드 와이드 웹(WWW; World Wide Web)일 수 있다. 그러나, 통신망(100)은, 굳이 이에 국한될 필요 없이, 공지의 유무선 데이터 통신망, 공지의 전화망 또는 공지의 유무선 텔레비전 통신망을 그 적어도 일부에 있어서 포함할 수도 있다.
다음으로, 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)은 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 위의 모델링 정보가 메인 디바이스 및 위의 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하고, 위의 모델링 정보와 위의 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 위의 메인 디바이스에 의해 촬영되는 영상에 위의 증강 현실 객체가 표시된 메인 영상을 위의 메인 디바이스에 표시되도록 하고, 위의 모델링 정보와 위의 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 위의 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 위의 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 위의 적어도 하나의 서브 디바이스에 표시되도록 하고, 위의 적어도 하나의 서브 영상에 관한 프레임 데이터가 위의 메인 디바이스에게 전달되도록 하고, 위의 메인 디바이스를 통해 입력되는 사용자 명령에 따라 위의 메인 영상 및 위의 적어도 하나의 서브 영상 중 적어도 하나를 위의 콘텐츠에 포함시키는 기능을 수행할 수 있다.
본 발명에 따른 콘텐츠 제공 시스템(200)의 구성과 기능에 관하여는 이하의 상세한 설명을 통하여 자세하게 알아보기로 한다.
다음으로, 본 발명의 일 실시예에 따른 디바이스(300)는 콘텐츠 제공 시스템(200)에 접속한 후 통신할 수 있도록 하는 기능을 포함하는 디지털 기기로서, 스마트폰, 태블릿, 스마트 워치, 스마트 밴드, 스마트 글래스, 데스크탑 컴퓨터, 노트북 컴퓨터, 워크스테이션, PDA, 웹 패드, 이동 전화기 등과 같이 영상 촬영 모듈 및 메모리 수단 중 적어도 하나를 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 디지털 기기라면 얼마든지 본 발명에 따른 디바이스(300)로서 채택될 수 있다. 또한, 디바이스(300)는 본 명세서에서 사용되는 단어인 메인 디바이스, 서브 디바이스 및 시청자 디바이스를 모두 포함하는 개념임을 밝혀 둔다.
특히, 디바이스(300)는, 콘텐츠 제공 시스템(200)으로부터 중계 방송 등의 서비스를 제작 또는 제공받을 수 있도록 지원하는 애플리케이션(미도시됨)을 포함할 수 있다. 이와 같은 애플리케이션은 콘텐츠 제공 시스템(200) 또는 공지의 웹 서버(미도시됨)로부터 다운로드된 것일 수 있다.
콘텐츠 제공 시스템의 구성
이하에서는, 본 발명의 구현을 위하여 중요한 기능을 수행하는 콘텐츠 제공 시스템(200)의 내부 구성과 각 구성요소의 기능에 대하여 살펴보기로 한다.
도 2는 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)의 내부 구성을 상세하게 도시하는 도면이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 콘텐츠 제공 시스템(200)은, 모델링 정보 공유부(210), 영상 표시부(220), 데이터 전달부(230), 콘텐츠 관리부(240), 통신부(250) 및 제어부(260)를 포함하여 구성될 수 있다. 본 발명의 일 실시예에 따르면, 모델링 정보 공유부(210), 영상 표시부(220), 데이터 전달부(230), 콘텐츠 관리부(240), 통신부(250) 및 제어부(260)는 그 중 적어도 일부가 외부의 시스템과 통신하는 프로그램 모듈일 수 있다. 이러한 프로그램 모듈은 운영 시스템, 응용 프로그램 모듈 또는 기타 프로그램 모듈의 형태로 콘텐츠 제공 시스템(200)에 포함될 수 있고, 물리적으로는 여러 가지 공지의 기억 장치에 저장될 수 있다. 또한, 이러한 프로그램 모듈은 콘텐츠 제공 시스템(200)과 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트, 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.
한편, 콘텐츠 제공 시스템(200)에 관하여 위와 같이 설명되었으나, 이러한 설명은 예시적인 것이고, 콘텐츠 제공 시스템(200)의 구성요소 또는 기능 중 적어도 일부가 필요에 따라 외부 시스템(미도시됨) 내에서 실현되거나 외부 시스템 내에 포함될 수도 있음은 당업자에게 자명하다.
먼저, 본 발명의 일 실시예에 따른 모델링 정보 공유부(210)는, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 그 모델링 정보가 메인 디바이스 및 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 모델링 정보 공유부(210)는, 위의 생성된 모델링 정보를 메인 디바이스 및 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 할 수 있다. 이러한 공유는 Wi-Fi Direct, Bluetooth 등 공지의 통신 기술을 이용하여 메인 디바이스 및 위의 적어도 하나의 서브 디바이스 사이에서 직접적으로 이루어질 수 있고, LTE, 5G 등의 이동 통신 기술과 외부 시스템(미도시됨) 또는 애플리케이션(미도시됨)을 이용하여 간접적으로 이루어질 수도 있다. 한편, 본 발명의 일 실시예에 따른 모델링 정보에는, 콘텐츠에 포함될 증강 현실 객체에 관한 3D 이미지 정보(객체 자체에 대한 정보, 메인 디바이스에서 그 객체가 표시되는 모습에 대한 정보 등) 및 그 객체가 표시될 공간에 대한 정보(객체가 표시될 위치, 객체의 표시와 연관되는 물체에 대한 정보 등)가 포함될 수 있으나 이에 한정되지는 않는다.
도 3은 본 발명의 일 실시예에 따라 메인 디바이스에 의해 촬영되는 영상에 콘텐츠에 포함될 증강 현실 객체가 표시되는 상황을 예시적으로 나타내는 도면이다.
예를 들면, 도 3을 참조하면, 본 발명의 일 실시예에 따른 모델링 정보 공유부(210)는, 콘텐츠에 포함시킬 증강 현실 객체(즉, 안드로이드 인형)가 결정되고, 메인 디바이스에서 그 객체의 특정 일면(즉, 안드로이드 인형의 정면)이 표시되는 것으로 결정되고, 그 객체가 특정 공간에 존재하는 특정 물체 위의 특정 위치(즉, 책상 위에 놓인 책 위의 중앙)에 표시되는 것으로 결정되면, 위와 같은 모델링 정보를 메인 디바이스 및 메인 디바이스 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 기능을 수행할 수 있다.
한편, 본 발명의 일 실시예에 따르면, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보는 콘텐츠 제공 시스템(200)에서 제공될 수도 있지만, 메인 디바이스 및 메인 디바이스 주변에 존재하는 적어도 하나의 서브 디바이스를 이용하여 콘텐츠를 제작하는 사용자가 원하는 증강 현실 객체에 관한 모델링 정보를 콘텐츠에 포함시키는 것도 가능하다.
예를 들면, 본 발명의 일 실시예에 따르면, 메인 디바이스 및 메인 디바이스 주변에 존재하는 적어도 하나의 서브 디바이스를 이용하여 콘텐츠를 제작하는 사용자는 콘텐츠 제공 시스템(200)에서 제공되는 증강 현실 객체에 관한 모델링 정보를 선택하여 콘텐츠에 포함시킬 수 있지만, 위의 사용자가 직접 생성한 증강 현실 객체(예를 들면, 3D 브랜드 캐릭터)에 관한 모델링 정보를 콘텐츠에 포함시킬 수도 있다.
또한, 본 발명의 일 실시예에 따른 모델링 정보 공유부(210)는, 증강 현실 객체가 메인 디바이스의 사용자 또는 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스의 사용자에 의해 조작되는 경우, 그 조작된 결과가 반영된 모델링 정보를 위의 메인 디바이스 및 위의 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 메인 디바이스 또는 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스의 사용자는 증강 현실 객체를 디바이스의 디스플레이를 터치 또는 드래그 하는 방식 등으로 조작할 수 있고, 이러한 조작에는 증강 현실 객체의 크기 또는 위치를 조정하거나, 증강 현실 객체의 동작을 제어하거나, 증강 현실 객체를 회전시키는 등의 행위가 포함될 수 있다. 그리고, 본 발명의 일 실시예에 따른 모델링 정보 공유부(210)는, 사용자에 의해 증강 현실 객체가 조작된 결과가 반영된 모델링 정보를 메인 디바이스 및 위의 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 기능을 수행할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 모델링 정보 공유부(210)는, 메인 디바이스의 사용자의 조작에 의해 증강 현실 객체의 위치가 오른쪽으로 소정의 거리만큼 이동되고, 위 사용자의 조작에 의해 증강 현실 객체가 180도 회전되어 본래 표시되던 모습의 반대편이 메인 디바이스에 표시되도록 변경된 경우, 위치가 오른쪽으로 소정의 거리만큼 이동되고 180도 회전된 증강 현실 객체에 대한 모델링 정보를 메인 디바이스 및 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 기능을 수행할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보와 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 위의 메인 디바이스에 의해 촬영되는 영상에 위의 증강 현실 객체가 표시된 메인 영상을 위의 메인 디바이스에 표시되도록 하고, 위의 모델링 정보와 위의 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 위의 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 위의 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 위의 적어도 하나의 서브 디바이스에 표시되도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보, 메인 디바이스의 위치 정보에 포함되는 메인 디바이스의 촬영 위치 및 메인 디바이스의 자세 정보에 포함되는 메인 디바이스의 촬영 각도와 촬영 방향을 참조하여, 위의 메인 디바이스에 의해 촬영되는 영상에 위의 증강 현실 객체가 표시되도록 하고, 위의 영상에 위의 증강 현실 객체가 표시된 메인 영상이 위의 메인 디바이스에 의해 표시되도록 하는 기능을 수행할 수 있다.
또한, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보, 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스의 위치 정보에 포함되는 위의 적어도 하나의 서브 디바이스의 촬영 위치 및 위의 적어도 하나의 서브 디바이스의 자세 정보에 포함되는 위의 적어도 하나의 서브 디바이스의 촬영 각도와 촬영 방향을 참조하여, 위의 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 위의 증강 현실 객체가 표시되도록 하고, 위의 적어도 하나의 영상에 위의 증강 현실 객체가 표시된 적어도 하나의 서브 영상이 위의 적어도 하나의 서브 디바이스에 의해 표시되도록 하는 기능을 수행할 수 있다.
도 4는 본 발명의 일 실시예에 따라 복수의 디바이스가 증강 현실 객체가 포함된 콘텐츠를 촬영하는 상황을 예시적으로 나타내는 도면이다.
예를 들면, 도 4를 참조하면, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 콘텐츠에 포함될 증강 현실 객체(411)인 책상에 관한 모델링 정보, 메인 디바이스(410)의 촬영 위치 및 메인 디바이스(410)의 촬영 각도와 촬영 방향을 참조하여, 메인 디바이스(410)에 의해 촬영되는 영상에 증강 현실 객체(411)가 표시되도록 하고, 위의 영상에 증강 현실 객체(411)가 표시된 메인 영상(412)이 메인 디바이스(410)에 의해 표시되도록 하는 기능을 수행할 수 있다. 또한, 콘텐츠에 포함될 증강 현실 객체(411)인 책상에 관한 모델링 정보, 메인 디바이스(410)의 주변에 존재하는 서브 디바이스(420 및 430)의 촬영 위치 및 서브 디바이스(420 및 430)의 촬영 각도와 촬영 방향을 참조하여, 서브 디바이스(420 및 430)에 의해 촬영되는 영상에 증강 현실 객체(421 및 431)가 표시되도록 하고, 위의 영상에 증강 현실 객체(421 및 431)가 표시된 서브 영상(422 및 432)이 서브 디바이스(420 및 430)에 의해 표시되도록 하는 기능을 수행할 수 있다.
또 다른 예를 들면, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 메인 디바이스 또는 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스가 증강 현실 객체가 표시되는 위치와 다른 위치를 촬영하는 경우, 메인 영상 또는 적어도 하나의 서브 영상에 증강 현실 객체의 일부만 표시되거나 증강 현실 객체가 전혀 표시되지 않도록 하는 기능을 수행할 수 있다.
한편, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 적어도 하나의 서브 영상에 표시되는 증강 현실 객체의 모습과 메인 영상에 표시되는 증강 현실 객체의 모습을 서로 다르게 표시되도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 메인 영상에서 증강 현실 객체의 특정 일면이 표시되고 있는 경우, 적어도 하나의 서브 영상에서 위의 증강 현실 객체의 위의 특정 일면과 다른 일면이 표시되도록 하는 기능을 수행할 수 있다.
예를 들면, 도 4를 참조하면, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 메인 영상(412)에서 증강 현실 객체인 책상의 정면(411)이 표시되고 있는 경우, 메인 디바이스(410)의 왼쪽에서 촬영하는 서브 디바이스(420)에 의해 표시되는 서브 영상(422)에는 책상의 좌측면(421)이 표시되도록 하고, 메인 디바이스(410)의 오른쪽에서 촬영하는 서브 디바이스(430)에 의해 표시되는 서브 영상(432)에는 책상의 우측면(431)이 표시되도록 할 수 있다.
또한, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 메인 디바이스의 사용자 또는 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스의 사용자에 의해 증강 현실 객체가 조작되는 경우, 그 조작된 결과가 반영된 메인 영상 및 적어도 하나의 서브 영상이 각각 위의 메인 디바이스 및 위의 적어도 하나의 서브 디바이스에 표시되도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 전술한 바와 같이, 메인 디바이스의 사용자 또는 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스의 사용자에 의해 증강 현실 객체가 조작되는 경우, 그 조작된 결과가 반영된 모델링 정보가 위의 메인 디바이스 및 위의 적어도 하나의 서브 디바이스 사이에서 공유되고, 영상 표시부(220)는 위의 모델링 정보를 참조하므로, 조작된 결과가 반영된 메인 영상 및 적어도 하나의 서브 영상을 각각 위의 메인 디바이스 및 적어도 하나의 서브 디바이스에 표시되도록 하는 기능을 수행할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 영상 표시부(220)는, 메인 영상에 증강 현실 객체의 정면이 표시되고 있고, 제1 서브 영상에 위의 증강 현실 객체의 좌측면이 표시되고 있고, 제2 서브 영상에 위의 증강 현실 객체의 우측면이 표시되고 있는 상황에서 메인 디바이스의 사용자의 조작에 의해 위의 증강 현실 객체가 180도 회전됨에 따라 메인 영상에 위의 증강 현실 객체의 후면이 표시되게 된 경우, 이러한 조작 결과가 반영되어 제1 서브 영상에 위의 증강 현실 객체의 우측면이 표시되고, 제2 서브 영상에 위의 증강 현실 객체의 좌측면이 표시되도록, 즉, 제1 및 제2 서브 영상의 증강 현실 객체도 180도 회전되도록, 변경될 수 있다.
다음으로, 본 발명의 일 실시예에 따른 데이터 전달부(230)는, 적어도 하나의 서브 영상에 관한 프레임 데이터가 메인 디바이스에게 전달되도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 데이터 전달부(230)는, 적어도 하나의 서브 영상에 관한 프레임이 추출되고 압축된 이미지가 생성되면, 메인 디바이스에게 소정의 빈도(예를 들면, 1초당 30 프레임)로 전달되도록 하는 기능을 수행할 수 있다. 이러한 전달은 Wi-Fi Direct, Bluetooth 등 공지의 통신 기술을 이용하여 메인 디바이스 및 위의 적어도 하나의 서브 디바이스 사이에서 직접적으로 이루어질 수 있고, LTE, 5G 등의 이동 통신 기술과 외부 시스템(미도시됨) 또는 애플리케이션(미도시됨)을 이용하여 간접적으로 이루어질 수도 있다.
다음으로, 본 발명의 일 실시예에 따른 콘텐츠 관리부(240)는, 메인 디바이스를 통해 입력되는 사용자 명령에 따라 메인 영상 및 적어도 하나의 서브 영상 중 적어도 하나를 콘텐츠에 포함시키는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따른 콘텐츠 관리부(240)는, 메인 디바이스를 통해 디스플레이를 터치 또는 드래그하는 방식, 음성 인식 방식 등으로 입력되는 사용자 명령이 있는 경우, 그 사용자 명령에 의해 선택되는 메인 영상 및 적어도 하나의 서브 영상 중 적어도 하나를 콘텐츠에 포함시키는 기능을 수행할 수 있다.
예를 들면, 본 발명의 일 실시예에 따른 콘텐츠 관리부(240)는, 후술할 메인 표시 영역에 메인 영상이 표시되고 있는 상황에서 사용자가 메인 디바이스의 디스플레이를 터치 또는 드래그하는 방식, 음성 인식 방식 등으로 적어도 하나의 서브 영상 중 적어도 하나를 선택하여 그 영상이 메인 표시 영역에 표시되도록 명령하는 경우, 메인 표시 영역에 표시되는 영상을 선택된 적어도 하나의 서브 영상으로 전환되도록 하고, 위의 선택된 적어도 하나의 서브 영상을 콘텐츠에 포함시키는 기능을 수행할 수 있다. 한편, 본 발명의 일 실시예에 따른 콘텐츠 관리부(240)는, 위의 적어도 하나의 서브 영상으로 전환되기 전에 메인 표시 영역에서 표시되고 있던 위의 메인 영상을 후술할 서브 표시 영역에 표시되도록 하는 기능을 수행할 수 있다.
또한, 본 발명의 일 실시예에 따른 콘텐츠 관리부(240)는, 메인 디바이스를 통해 입력되는 사용자 명령이 메인 표시 영역 또는 적어도 하나의 서브 표시 영역을 통해 입력될 수 있도록 하는 기능을 수행할 수 있다.
구체적으로, 본 발명의 일 실시예에 따르면, 메인 표시 영역은 제공되는 콘텐츠에 포함되는 영상이 메인 디바이스에 표시되는 영역을 의미하고, 적어도 하나의 서브 표시 영역은 제공되는 콘텐츠에 포함되지 않는 영상이 메인 디바이스에 표시되는 영역을 의미한다. 한편, 본 발명의 일 실시예에 따르면, 적어도 하나의 서브 표시 영역은 메인 표시 영역과 분리된 다른 영역이 될 수 있고, 도 4에 나타난 바와 같이 메인 표시 영역의 일부가 될 수도 있다.
예를 들어 본 발명의 일 실시예에 따르면, 도 4를 참조하면, 제공되는 콘텐츠에 포함되는 영상이 메인 디바이스(410)에 표시되는 영역인 메인 표시 영역(412) 및 메인 표시 영역(412)의 일부로서 제공되는 콘텐츠에 포함되지 않는 영상이 메인 디바이스(410)에 표시되는 영역인 서브 표시 영역(413)을 확인할 수 있다. 한편, 전술한 바와 같이 메인 표시 영역(412)에는 메인 디바이스(410)의 사용자의 입력에 따라 메인 영상뿐만 아니라 서브 영상이 표시될 수도 있으므로, 메인 표시 영역(412)과 메인 영상은 서로 구분되는 개념인 것으로 이해되어야 한다. 즉, 본 발명의 일 실시예에 따르면, 메인 표시 영역(412)에 메인 영상 또는 적어도 하나의 서브 영상이 표시되고 있는 상황에서 메인 디바이스(410)의 사용자가 서브 표시 영역(413)에 표시되는 적어도 하나의 영상을 선택하는 경우, 메인 표시 영역(412)에는 위의 선택된 적어도 하나의 영상이 표시되고 서브 표시 영역(413)에는 기존에 메인 표시 영역(412)에서 표시되던 영상이 표시되는 것으로 전환될 수 있다.
한편, 본 발명의 일 실시예에 따르면, 콘텐츠 제공 시스템(200)에 의해 제공되는 콘텐츠는 실시간 중계 방송 콘텐츠일 수도 있다. 예를 들면, 메인 디바이스 및 메인 디바이스 주변에 존재하는 적어도 하나의 서브 디바이스를 이용하여 실시간 중계 방송을 제작하는 사용자는 메인 표시 영역에 표시될 영상을 선택함으로써 제공될 중계 방송 영상을 결정할 수 있고, 시청자는 시청자 디바이스를 이용하여 위의 결정된 영상을 실시간으로 시청할 수 있다.
다음으로, 본 발명의 일 실시예에 따른 통신부(250)는 모델링 정보 공유부(210), 영상 표시부(220), 데이터 전달부(230) 및 콘텐츠 관리부(240)로부터의/로의 데이터 송수신이 가능하도록 하는 기능을 수행할 수 있다.
마지막으로, 본 발명의 일 실시예에 따른 제어부(260)는 모델링 정보 공유부(210), 영상 표시부(220), 데이터 전달부(230), 콘텐츠 관리부(240) 및 통신부(250) 간의 데이터의 흐름을 제어하는 기능을 수행할 수 있다. 즉, 본 발명에 따른 제어부(260)는 콘텐츠 제공 시스템(200)의 외부로부터의/로의 데이터 흐름 또는 콘텐츠 제공 시스템(200)의 각 구성요소 간의 데이터 흐름을 제어함으로써, 모델링 정보 공유부(210), 영상 표시부(220), 데이터 전달부(230), 콘텐츠 관리부(240) 및 통신부(250)에서 각각 고유 기능을 수행하도록 제어할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항과 한정된 실시예 및 도면에 의하여 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위하여 제공된 것일 뿐, 본 발명이 상기 실시예에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정과 변경을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 통신망
200: 콘텐츠 제공 시스템
210: 모델링 정보 공유부
220: 영상 표시부
230: 데이터 전달부
240: 콘텐츠 관리부
250: 통신부
260: 제어부
300: 디바이스

Claims (6)

  1. 복수의 디바이스를 이용하여 증강 현실(Augmented Reality) 객체가 포함된 콘텐츠를 제공하기 위한 방법으로서,
    콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 상기 모델링 정보가 메인 디바이스 및 상기 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 단계,
    상기 모델링 정보와 상기 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 메인 디바이스에 의해 촬영되는 영상에 상기 증강 현실 객체가 표시된 메인 영상을 상기 메인 디바이스에 표시되도록 하고, 상기 모델링 정보와 상기 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 상기 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 상기 적어도 하나의 서브 디바이스에 표시되도록 하는 단계,
    상기 적어도 하나의 서브 영상에 관한 프레임 데이터가 상기 메인 디바이스에게 전달되도록 하는 단계, 및
    상기 메인 디바이스를 통해 입력되는 사용자 명령에 따라 상기 메인 영상 및 상기 적어도 하나의 서브 영상 중 적어도 하나를 상기 콘텐츠에 포함시키는 단계를 포함하고,
    상기 포함 단계에서, 적어도 하나의 서브 표시 영역에 표시되는 영상 중에서 상기 사용자 명령에 따라 선택되는 적어도 하나의 영상을 메인 표시 영역에 표시되도록 하고, 상기 메인 표시 영역에 표시되는 적어도 하나의 영상을 상기 콘텐츠에 포함시키고,
    상기 메인 표시 영역은 상기 콘텐츠에 포함되는 적어도 하나의 영상이 상기 메인 디바이스에 표시되는 영역이고, 상기 적어도 하나의 서브 표시 영역은 상기 콘텐츠에 포함되지 않는 적어도 하나의 영상이 상기 메인 디바이스에 표시되는 영역인
    방법.
  2. 제1항에 있어서,
    상기 증강 현실 객체는 상기 메인 디바이스의 사용자 또는 상기 적어도 하나의 서브 디바이스의 사용자에 의해 조작될 수 있는
    방법.
  3. 제1항에 있어서,
    상기 포함 단계에서, 상기 메인 표시 영역 또는 상기 적어도 하나의 서브 표시 영역을 통해 상기 사용자 명령이 입력되는
    방법.
  4. 제1항에 있어서,
    상기 표시 단계에서, 상기 적어도 하나의 서브 영상에 표시되는 상기 증강 현실 객체의 모습과 상기 메인 영상에 표시되는 상기 증강 현실 객체의 모습은 서로 다른
    방법.
  5. 제1항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 비일시성의 컴퓨터 판독 가능 기록 매체.
  6. 복수의 디바이스를 이용하여 증강 현실(Augmented Reality) 객체가 포함된 콘텐츠를 제공하기 위한 시스템으로서,
    콘텐츠에 포함될 증강 현실 객체에 관한 모델링 정보가 생성되면, 상기 모델링 정보가 메인 디바이스 및 상기 메인 디바이스의 주변에 존재하는 적어도 하나의 서브 디바이스 사이에서 공유되도록 하는 모델링 정보 공유부,
    상기 모델링 정보와 상기 메인 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 메인 디바이스에 의해 촬영되는 영상에 상기 증강 현실 객체가 표시된 메인 영상을 상기 메인 디바이스에 표시되도록 하고, 상기 모델링 정보와 상기 적어도 하나의 서브 디바이스의 위치 정보 및 자세 정보를 참조하여, 상기 적어도 하나의 서브 디바이스에 의해 촬영되는 적어도 하나의 영상에 상기 증강 현실 객체가 표시된 적어도 하나의 서브 영상을 상기 적어도 하나의 서브 디바이스에 표시되도록 하는 영상 표시부,
    상기 적어도 하나의 서브 영상에 관한 프레임 데이터가 상기 메인 디바이스에게 전달되도록 하는 데이터 전달부, 및
    상기 메인 디바이스를 통해 입력되는 사용자 명령에 따라 상기 메인 영상 및 상기 적어도 하나의 서브 영상 중 적어도 하나를 상기 콘텐츠에 포함시키는 콘텐츠 관리부를 포함하고,
    상기 콘텐츠 관리부는, 적어도 하나의 서브 표시 영역에 표시되는 영상 중에서 상기 사용자 명령에 따라 선택되는 적어도 하나의 영상을 메인 표시 영역에 표시되도록 하고, 상기 메인 표시 영역에 표시되는 적어도 하나의 영상을 상기 콘텐츠에 포함시키고,
    상기 메인 표시 영역은 상기 콘텐츠에 포함되는 적어도 하나의 영상이 상기 메인 디바이스에 표시되는 영역이고, 상기 적어도 하나의 서브 표시 영역은 상기 콘텐츠에 포함되지 않는 적어도 하나의 영상이 상기 메인 디바이스에 표시되는 영역인
    시스템.
KR1020190057434A 2019-05-16 2019-05-16 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 KR102190388B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190057434A KR102190388B1 (ko) 2019-05-16 2019-05-16 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
PCT/KR2020/006409 WO2020231215A1 (ko) 2019-05-16 2020-05-15 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US17/526,204 US20220078524A1 (en) 2019-05-16 2021-11-15 Method, system, and non-transitory computer-readable recording medium for providing content comprising augmented reality object by using plurality of devices

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190057434A KR102190388B1 (ko) 2019-05-16 2019-05-16 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Publications (2)

Publication Number Publication Date
KR20200132241A KR20200132241A (ko) 2020-11-25
KR102190388B1 true KR102190388B1 (ko) 2020-12-11

Family

ID=73289199

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190057434A KR102190388B1 (ko) 2019-05-16 2019-05-16 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Country Status (3)

Country Link
US (1) US20220078524A1 (ko)
KR (1) KR102190388B1 (ko)
WO (1) WO2020231215A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102549002B1 (ko) * 2021-07-21 2023-06-27 주식회사 노크 디지털 사이니지에서 제공되는 콘텐츠에 관한 증강 현실 인터페이스를 관리하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6559846B1 (en) * 2000-07-07 2003-05-06 Microsoft Corporation System and process for viewing panoramic video
JP5382191B2 (ja) * 2012-11-26 2014-01-08 船井電機株式会社 通信方法、マスター表示装置、スレーブ表示装置、及びそれらを備えた通信システム
US20160027218A1 (en) * 2014-07-25 2016-01-28 Tom Salter Multi-user gaze projection using head mounted display devices
JP2016045814A (ja) * 2014-08-25 2016-04-04 泰章 岩井 仮想現実サービス提供システム、仮想現実サービス提供方法
US10390064B2 (en) * 2015-06-30 2019-08-20 Amazon Technologies, Inc. Participant rewards in a spectating system
KR20170099234A (ko) * 2016-02-23 2017-08-31 한국전자통신연구원 증강현실 콘텐츠를 제공하는 디바이스 및 방법
KR20190006553A (ko) * 2016-06-16 2019-01-18 센소모토릭 인스트루멘츠 게젤샤프트 퓌어 이노바티브 센소릭 엠베하 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품
KR101894955B1 (ko) 2017-01-05 2018-09-05 주식회사 미디어프론트 가상 휴먼 인식 및 실시간 증강 합성 기술을 이용한 라이브 소셜 미디어 시스템 및 증강 합성 서버
US10204392B2 (en) * 2017-02-02 2019-02-12 Microsoft Technology Licensing, Llc Graphics processing unit partitioning for virtualization
US10284888B2 (en) * 2017-06-03 2019-05-07 Apple Inc. Multiple live HLS streams

Also Published As

Publication number Publication date
WO2020231215A1 (ko) 2020-11-19
KR20200132241A (ko) 2020-11-25
US20220078524A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
US11460970B2 (en) Meeting space collaboration in augmented reality computing environments
CN105306868B (zh) 视频会议系统及方法
JP2017536715A (ja) 立体空間の物理的な対話の発現
US20150172634A1 (en) Dynamic POV Composite 3D Video System
KR102644833B1 (ko) Vr 스트림의 지연을 보상하는 방법 및 시스템
US10493360B2 (en) Image display device and image display system
US11589027B2 (en) Methods, systems, and media for generating and rendering immersive video content
US20220301270A1 (en) Systems and methods for immersive and collaborative video surveillance
US20200220907A1 (en) Method, system, and non-transitory computer readable record medium for enhancing video quality of video call
US20220172440A1 (en) Extended field of view generation for split-rendering for virtual reality streaming
CN109104632A (zh) 一种电视终端ar场景的实现方法及系统
KR102190388B1 (ko) 복수의 디바이스를 이용하여 증강 현실 객체가 포함된 콘텐츠를 제공하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US20230368464A1 (en) Information processing system, information processing method, and information processing program
CN113014960B (zh) 一种在线制作视频的方法、装置及存储介质
US20100246605A1 (en) Enhanced visual experience for a participant in a streaming event
EP3654099A2 (en) Method for projecting immersive audiovisual content
CN116744027A (zh) 一种元宇宙直播系统
JP5818326B2 (ja) 映像視聴履歴解析方法、映像視聴履歴解析装置及び映像視聴履歴解析プログラム
CN102612205A (zh) 一种控制可视光源的方法、终端及视频会议系统
WO2020248682A1 (zh) 一种显示设备及虚拟场景生成方法
CN104410670A (zh) 一种能够在实时互动沟通平台中共享自身屏幕概况和鼠标位置的辅助交流方法
KR20210081104A (ko) 홀로그램 영상을 제공하는 엣지 서버, 방법 및 홀로그램 영상을 출력하는 다면 디스플레이 장치
US20240007593A1 (en) Session transfer in a virtual videoconferencing environment
KR102540516B1 (ko) AR(Augmented Reality) 컨텐츠를 제공하는 장치, 사용자 단말 및 방법
US11776227B1 (en) Avatar background alteration

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant