KR102456134B1 - 발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템 - Google Patents

발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102456134B1
KR102456134B1 KR1020220089366A KR20220089366A KR102456134B1 KR 102456134 B1 KR102456134 B1 KR 102456134B1 KR 1020220089366 A KR1020220089366 A KR 1020220089366A KR 20220089366 A KR20220089366 A KR 20220089366A KR 102456134 B1 KR102456134 B1 KR 102456134B1
Authority
KR
South Korea
Prior art keywords
image
time point
space
user
image information
Prior art date
Application number
KR1020220089366A
Other languages
English (en)
Inventor
임성하
Original Assignee
이아이피커뮤니케이션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이아이피커뮤니케이션 주식회사 filed Critical 이아이피커뮤니케이션 주식회사
Priority to KR1020220089366A priority Critical patent/KR102456134B1/ko
Application granted granted Critical
Publication of KR102456134B1 publication Critical patent/KR102456134B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일실시예에 따르면, 장치에 의해 수행되는, 발표자 참여형의 3D 콘텐츠를 생성하는 방법에 있어서, 발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소로 선택되면, 상기 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어하는 단계; 상기 제1-1 영상 정보를 통해 상기 제1 공간이 상기 제1 장소로 구현되면, 상기 제1 공간에 대한 촬영을 수행하고 있는 제1 카메라로부터 상기 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득하는 단계; 상기 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 추출하는 단계; 상기 제1 이미지를 분석한 결과, 상기 제1 이미지에 상기 제1 사용자가 있는 것으로 인식되면, 상기 제1 시점을 발표 시작 시점으로 설정하는 단계; 상기 제2 영상 정보에서 상기 제1 시점의 이후 시점인 제2 시점에 획득된 영상의 이미지를 제2 이미지로 추출하는 단계; 상기 제2 이미지를 분석한 결과, 상기 제2 이미지에 상기 제1 사용자가 없는 것으로 인식되면, 상기 제2 시점의 직전 시점인 제3 시점을 발표 종료 시점으로 설정하는 단계; 및 상기 제1 시점부터 상기 제3 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1 콘텐츠를 생성하는 단계를 포함하는, 발표자 참여형 3D 콘텐츠 생성 방법이 제공된다.

Description

발표자 참여형 3D 콘텐츠 생성 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR CREATING 3D CONTENT OF PRESENTER PARTICIPATION TYPE}
아래 실시예들은 발표자 참여형의 3D 콘텐츠를 생성하기 위한 기술에 관한 것이다.
발표자는 발표를 수행할 때, 설명과 몸짓, 표정 등을 통해 정보 전달 과정을 지원할 수 있고, 시청자와의 즉각적인 인터랙션이 가능하며, 의사전달 과정을 돕기 위해 분위기 조성 및 맥락적인 정보를 제공할 수 있다.
종래에는 발표자가 화면에 표시된 정보를 보며 설명하는 방식이었으나, 최근 들어, 시청자에게 더 몰입적이고 효과적인 프리젠테이션을 제공하기 위해서, 시각화와 발표자 간의 경계를 허무는 여러 가지 시도가 있었다.
특히, 크로마키를 통해 발표자와 배경을 합성한 기술이 많이 사용되고 있다. 여기서, 크로마키는 색조의 차이를 이용하여 어떤 피사체를 뽑아내어 다른 화면에 끼워 넣는 방식으로, 배경이나 인물을 하나의 화면에 합성하는 기술이다.
이러한 크로마키 기능을 사용하기 위해서는 초록색, 파란색 등을 배경으로 하는 스튜디오가 별도로 필요한 문제가 있다.
따라서, 크로마키 기술을 활용하지 않으면서, 발표자 참여형의 3D 콘텐츠를 생성하고자 하는 요구가 증대되고 있어, 이와 관련된 기술에 대한 연구가 요구된다.
한국등록특허 제10-1860680호 한국등록특허 제10-1270780호 한국공개특허 제10-2020-0043658호 한국공개특허 제10-2018-0092469호
일실시예에 따르면, 발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소로 선택되면, 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어하고, 제1-1 영상 정보를 통해 제1 공간이 제1 장소로 구현되면, 제1 공간에 대한 촬영을 수행하고 있는 제1 카메라로부터 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득하고, 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 추출하고, 제1 이미지를 분석한 결과, 제1 이미지에 제1 사용자가 있는 것으로 인식되면, 제1 시점을 발표 시작 시점으로 설정하고, 제2 영상 정보에서 제1 시점의 이후 시점인 제2 시점에 획득된 영상의 이미지를 제2 이미지로 추출하고, 제2 이미지를 분석한 결과, 제2 이미지에 제1 사용자가 없는 것으로 인식되면, 제2 시점의 직전 시점인 제3 시점을 발표 종료 시점으로 설정하고, 제1 시점부터 제3 시점까지 획득된 제2 영상 정보를 이용하여 제1 콘텐츠를 생성하는, 발표자 참여형 3D 콘텐츠 생성 방법, 장치 및 시스템을 제공하는 것을 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 발표자 참여형의 3D 콘텐츠를 생성하는 방법에 있어서, 발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소로 선택되면, 상기 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어하는 단계; 상기 제1-1 영상 정보를 통해 상기 제1 공간이 상기 제1 장소로 구현되면, 상기 제1 공간에 대한 촬영을 수행하고 있는 제1 카메라로부터 상기 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득하는 단계; 상기 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 추출하는 단계; 상기 제1 이미지를 분석한 결과, 상기 제1 이미지에 상기 제1 사용자가 있는 것으로 인식되면, 상기 제1 시점을 발표 시작 시점으로 설정하는 단계; 상기 제2 영상 정보에서 상기 제1 시점의 이후 시점인 제2 시점에 획득된 영상의 이미지를 제2 이미지로 추출하는 단계; 상기 제2 이미지를 분석한 결과, 상기 제2 이미지에 상기 제1 사용자가 없는 것으로 인식되면, 상기 제2 시점의 직전 시점인 제3 시점을 발표 종료 시점으로 설정하는 단계; 및 상기 제1 시점부터 상기 제3 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1 콘텐츠를 생성하는 단계를 포함하는, 발표자 참여형 3D 콘텐츠 생성 방법이 제공된다.
상기 발표자 참여형 3D 콘텐츠 생성 방법은, 상기 제2 영상 정보를 획득하는 단계 이후, 상기 제1 공간에 설치되어 있는 제1 센서로부터, 상기 제1 공간에 위치하고 있는 상기 제1 사용자의 손을 감지하여 생성된 감지 신호를 획득하는 단계; 상기 감지 신호를 기초로, 상기 제1 사용자의 손 이동을 추적하여, 상기 제1 사용자의 손이 상기 제1 공간에서 어느 지점에 위치하고 있는지에 대해 분석하는 단계; 상기 제2 영상 정보를 기초로, 상기 제1 사용자의 손모양에 대한 변화를 추적하여, 상기 제1 사용자의 손이 어느 제스처 동작을 취하는지에 대해 분석하는 단계; 및 상기 제1 사용자의 손모양에 대한 변화를 추적하여 분석한 결과, 상기 제1 사용자가 제4 시점에 제1 제스처 동작을 취한 것으로 분석되고, 상기 제1 사용자의 손 이동을 추적하여 분석한 결과, 상기 제4 시점에 상기 제1 사용자의 손이 제1 지점에 위치한 것으로 분석되면, 상기 제4 시점의 직후 시점인 제5 시점에 상기 제1 제스처 동작과 대응되는 홀로그램 영상이 상기 제1 지점의 위치에 표시되도록 제어하는 단계를 더 포함할 수 있다.
상기 발표자 참여형 3D 콘텐츠 생성 방법은, 상기 제1 시점을 발표 시작 시점으로 설정하는 단계 이후, 제6 시점에 상기 제1 사용자의 요청으로 발표 장소가 제2 장소로 변경되면, 상기 제6 시점의 직후 시점인 제7 시점에 상기 제2 장소에 대해 3D 모델링을 수행하여 생성된 제1-2 영상 정보가 상기 제1 공간의 3면에 표시되도록 제어하는 단계; 및 상기 제1-2 영상 정보를 통해 상기 제1 공간이 상기 제2 장소로 구현되면, 상기 제1 카메라로부터 상기 제2 영상 정보를 획득하는 단계를 더 포함할 수 있다.
상기 제1 콘텐츠를 생성하는 단계는, 상기 제1 시점부터 상기 제6 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1-1 콘텐츠를 생성하고, 상기 제7 시점부터 상기 제3 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1-2 콘텐츠를 생성하는 단계를 포함할 수 있다.
일실시예에 따르면, 발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소로 선택되면, 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어하고, 제1-1 영상 정보를 통해 제1 공간이 제1 장소로 구현되면, 제1 공간에 대한 촬영을 수행하고 있는 제1 카메라로부터 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득하고, 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 추출하고, 제1 이미지를 분석한 결과, 제1 이미지에 제1 사용자가 있는 것으로 인식되면, 제1 시점을 발표 시작 시점으로 설정하고, 제2 영상 정보에서 제1 시점의 이후 시점인 제2 시점에 획득된 영상의 이미지를 제2 이미지로 추출하고, 제2 이미지를 분석한 결과, 제2 이미지에 제1 사용자가 없는 것으로 인식되면, 제2 시점의 직전 시점인 제3 시점을 발표 종료 시점으로 설정하고, 제1 시점부터 제3 시점까지 획득된 제2 영상 정보를 이용하여 제1 콘텐츠를 생성함으로써, 발표자 참여형의 3D 콘텐츠를 용이하게 생성할 수 있는 효과가 있다.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 제1 공간을 발표 공간으로 구현하는 방식을 설명하기 위한 도면이다.
도 3은 일실시예 따른 발표자 참여형의 3D 콘텐츠를 생성하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 제1 시점, 제2 시점 및 제3 시점을 설명하기 위한 도면이다.
도 5는 일실시예 따른 발표자의 제스처를 통해 홀로그램 영상을 표시하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제4 시점 및 제5 시점을 설명하기 위한 도면이다.
도 7은 일실시예에 따른 장소 별로 콘텐츠를 생성하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 제6 시점 및 제7 시점을 설명하기 위한 도면이다.
도 9는 일실시예에 따른 복수의 카메라로 구성된 제1 카메라가 제1 공간을 촬영하는 방식을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 사용자 위치에 따라 영상 정보를 조합하여 생성하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 콘텐츠의 발표 자료 이미지를 설정하여 등록하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 제8 시점을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 제1 출력 기기(100), 제1 카메라(200) 및 장치(300)를 포함할 수 있다.
제1 출력 기기(100)는 제1 공간에 영상을 출력하는 기기로, 예를 들면, 제1 출력 기기(100)는 제1 공간에 3D 영상을 출력하는 빔 프로젝터 등으로 구현될 수 있다.
제1 출력 기기(100)는 장치(300)와 네트워크를 통해 연결될 수 있으며, 장치(300)로부터 수신된 제어 신호에 의해 동작할 수 있다.
제1 카메라(200)는 제1 공간에 대한 촬영을 수행하여 영상 정보를 생성하는 기기로, 예를 들면, 제1 카메라(200)는 제1 공간에 대한 촬영을 수행하여 3D 영상 정보를 생성하는 3D 카메라 등으로 구현될 수 있다.
제1 카메라(200)는 장치(300)와 네트워크를 통해 연결될 수 있으며, 장치(300)로부터 수신된 제어 신호에 의해 동작할 수 있다.
장치(300)는 장치(300)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(300)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다.
장치(300)는 제1 출력 기기(100)와 유무선으로 통신하도록 구성될 수 있으며, 제1 출력 기기(100)를 통해 어느 정보를 제1 공간에 표시할 것인지에 대해 제어할 수 있고, 제1 출력 기기(100)의 전체적인 동작을 제어할 수 있다.
장치(300)는 제1 카메라(200)와 유무선으로 통신하도록 구성될 수 있으며, 제1 카메라(200)를 통해 어느 구역을 촬영하여 영상 정보를 생성할 것인지에 대해 제어할 수 있고, 제1 카메라(200)의 전체적인 동작을 제어할 수 있다.
도 1에서는 설명의 편의를 위해 제1 출력 기기(100) 및 제1 카메라(200) 만을 도시하였으나, 출력 기기 및 카메라의 수는 실시예에 따라 얼마든지 달라질 수 있으며, 장치(300)의 처리 용량이 허용하는 한, 출력 기기 및 카메라의 수는 특별한 제한이 없다.
예를 들어, 장치(300)는 제1 공간에 영상을 출력하는 제1 출력 기기(100)와 제1 공간에 대한 촬영을 수행하는 제1 카메라(200)와 연결될 수 있으며, 이외에도, 제1 공간에 출력하는 제1 출력 기기와 제2 공간에 대한 촬영을 수행하는 제2 카메라와 연결될 수도 있다.
즉, 스튜디오에 복수의 공간이 형성되어 있는 경우, 공간 별로 출력 기기 및 카메라가 배치되어 있고, 장치(300)는 공간 별로 배치되어 있는 출력 기기 및 카메라와 유무선을 통해 연결되어, 공간 별로 배치되어 있는 출력 기기 각각에 대한 전체적인 동작을 제어하고, 공간 별로 배치되어 있는 카메라 각각에 대한 전체적인 동작을 제어할 수 있다.
도 2는 일실시예에 따른 제1 공간을 발표 공간으로 구현하는 방식을 설명하기 위한 도면이다.
도 2를 참조하면, 제1 출력 기기(100)는 3D 모델링을 수행하여 생성된 3D 영상을 3D 공간인 제1 공간에 출력할 수 있다. 이때, 제1 출력 기기(100)는 제1 공간의 전면, 좌측면 및 우측면에 3D 영상을 출력할 수 있다. 여기서, 3D 영상은 특정 장소에 대해 3D 모델링을 수행하여 생성된 영상으로, 예를 들면, 사무실, 공장, 병원 등의 특정 장소에 대한 3D 영상일 수 있다.
제1 출력 기기(100)는 하나의 기기로 구현되어, 하나의 기기가 제1 공간의 3면에 3D 영상을 출력할 수 있고, 3개의 기기로 구현되어, 각각의 기기가 1면에 3D 영상을 출력할 수도 있다.
제1 출력 기기(100)가 3D 영상을 제1 공간에 출력하면, 제1 공간은 3D 영상을 통해 발표 공간으로 구현될 수 있다. 예를 들어, 제1 출력 기기(100)가 제1 장소에 대한 3D 영상을 제1 공간에 출력하면, 제1 공간은 제1 장소로 구현되어, 제1 공간에 발표자가 들어가면, 발표자가 제1 장소에 있는 것과 같은 효과를 줄 수 있다.
제1 출력 기기(100)가 3D 영상을 제1 공간에 출력하여, 제1 공간이 3D 영상을 통해 발표 공간으로 구현되면, 제1 카메라(200)는 제1 공간에 대한 촬영을 수행할 수 있다.
도 3은 일실시예 따른 발표자 참여형의 3D 콘텐츠를 생성하는 과정을 설명하기 위한 순서도이고, 도 4는 일실시예에 따른 제1 시점, 제2 시점 및 제3 시점을 설명하기 위한 도면이다.
도 3을 참조하면, 먼저, S301 단계에서, 장치(300)는 발표 장소를 제1 장소로 선택한 발표 장소 선택 요청을 수신할 수 있다. 여기서, 발표 장소 선택 요청은 발표 장소를 특정 장소로 선택하기 위한 요청으로, 발표 장소를 선택하기 위한 사용자 단말을 통해 요청될 수 있다.
예를 들어, 사용자 단말은 발표 장소 선택 요청을 위해, 장치(300)와 유무선을 통해 연결될 수 있고, 발표자인 제1 사용자가 사용자 단말을 통해 발표 장소를 제1 장소로 선택하면, 장치(300)는 사용자 단말로부터 발표 장소를 제1 장소로 선택한 발표 장소 선택 요청을 수신할 수 있다.
S302 단계에서, 장치(300)는 발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소로 선택되면, 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보를 획득할 수 있다. 이때, 제1-1 영상 정보는 제1 장소에 대해 3D 모델링을 수행하여 생성된 3D 영상이다. 이를 위해, 장치(300)의 데이터베이스에는 복수의 장소 각각에 대해 3D 모델링을 수행하여 생성된 영상 정보가 장소 별로 구분되어 저장되어 있으며, 장치(300)는 데이터베이스를 조회하여, 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보를 획득할 수 있다.
S303 단계에서, 장치(300)는 제1-1 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어할 수 있다.
즉, 장치(300)는 제1-1 영상 정보가 획득되면, 제1 출력 기기(100)에서 제1-1 영상 정보가 출력되도록 제어할 수 있으며, 제1 공간의 전면, 좌측면 및 우측면에 제1-1 영상 정보가 3D 영상으로 표시될 수 있다.
S304 단계에서, 장치(300)는 제1-1 영상 정보가 제1 공간의 3면에 표시되어 제1-1 영상 정보를 통해 제1 공간이 제1 장소로 구현되면, 제1 카메라(200)로부터 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득할 수 있다. 이때, 제2 영상 정보는 제1 장소로 구현된 제1 공간의 촬영을 통해 3D 영상으로 생성될 수 있다.
즉, 장치(300)는 제1-1 영상 정보를 통해 제1 공간이 제1 장소로 구현되면 제1 카메라(200)가 동작하도록 제어할 수 있으며, 제1 카메라(200)는 제1 공간에 대한 촬영을 수행하여 제2 영상 정보를 생성할 수 있다.
S305 단계에서, 장치(300)는 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 추출할 수 있다. 여기서, 제1 시점은 제2 영상 정보가 획득된 시점부터 미리 설정된 시간이 지난 후의 시점을 의미할 수 있다.
S306 단계에서, 장치(300)는 제1 이미지를 분석하여, 제1 이미지에 제1 사용자가 있는 것으로 인식되는지 여부를 확인할 수 있다. 즉, 장치(300)는 제1 이미지 상에서 사람 형태의 객체가 인식되는지 여부를 확인하여, 제1 이미지에 제1 사용자가 있는지 여부를 확인할 수 있다.
S306 단계에서 제1 이미지를 분석한 결과, 제1 이미지에 제1 사용자가 없는 것으로 인식되면, S305 단계로 되돌아가, 장치(300)는 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 다시 추출할 수 있다. 여기서, 제1 시점은 최초 제1 이미지가 추출된 시점부터 미리 설정된 시간이 지난 후의 시점을 의미할 수 있다.
즉, 장치(300)는 제1 이미지에 제1 사용자가 있는 것으로 인식될 때까지, S305 단계 및 S306 단계를 반복 수행할 수 있다.
S306 단계에서 제1 이미지를 분석한 결과, 제1 이미지에 제1 사용자가 있는 것으로 인식되면, S307 단계에서, 장치(300)는 제1 시점을 발표 시작 시점으로 설정할 수 있다.
즉, 장치(300)는 제1 시점에 제1 사용자가 제1 공간 내에 들어온 경우, 제2 영상 정보 정보를 기초로, 제1 시점에 제1 사용자가 제1 공간 내에 들어온 것을 인식할 수 있으며, 제1 시점에 제1 사용자가 제1 공간 내에 들어온 것으로 인식되면, 제1 시점을 발표 시작 시점으로 설정할 수 있다.
S308 단계에서, 장치(300)는 제2 영상 정보에서 제2 시점에 획득된 영상의 이미지를 제2 이미지로 추출할 수 있다. 여기서, 제2 시점은 제1 시점부터 미리 설정된 시간이 지난 후의 시점을 의미할 수 있다.
S309 단계에서, 장치(300)는 제2 이미지를 분석하여, 제2 이미지에 제1 사용자가 없는 것으로 인식되는지 여부를 확인할 수 있다. 즉, 장치(300)는 제2 이미지 상에서 사람 형태의 객체가 인식되는지 여부를 확인하여, 제2 이미지에 제1 사용자가 없는지 여부를 확인할 수 있다.
S309 단계에서 제2 이미지를 분석한 결과, 제2 이미지에 제1 사용자가 있는 것으로 인식되면, S308 단계로 되돌아가, 장치(300)는 제2 영상 정보에서 제2 시점에 획득된 영상의 이미지를 제2 이미지로 다시 추출할 수 있다. 여기서, 제2 시점은 최초 제2 이미지가 추출된 시점부터 미리 설정된 시간이 지난 후의 시점을 의미할 수 있다.
즉, 장치(300)는 제2 이미지에 제1 사용자가 없는 것으로 인식될 때까지, S308 단계 및 S309 단계를 반복 수행할 수 있다.
S309 단계에서 제2 이미지를 분석한 결과, 제2 이미지에 제1 사용자가 없는 것으로 인식되면, S310 단계에서, 장치(300)는 제2 시점의 직전 시점인 제3 시점을 발표 종료 시점으로 설정할 수 있다.
구체적으로, 장치(300)는 제2 시점에 제1 사용자가 제1 공간 내에서 밖으로 나간 경우, 제2 영상 정보 정보를 기초로, 제2 시점에 제1 사용자가 제1 공간 내에서 밖으로 나간 것을 인식할 수 있으며, 제2 시점에 제1 사용자가 제1 공간 내에서 밖으로 나간 것으로 인식되면, 제2 시점인 직전 시점인 제3 시점을 발표 종료 시점으로 설정할 수 있다.
즉, 도 4에 도시된 바와 같이, 장치(300)는 제2 영상 정보가 획득될 때, 제2 영상 정보를 기초로, 제1 시점(401)에 제1 사용자가 제1 공간 내에 들어온 것으로 인식되면, 제1 시점(401)을 발표 시작 시점으로 설정할 수 있고, 제2 시점(402)에 제1 사용자가 제1 공간 내에서 밖으로 나간 것으로 인식되면, 제2 시점(402)의 직전 시점인 제3 시점(403)을 발표 종료 시점으로 설정할 수 있다.
S310 단계에서, 장치(300)는 제1 시점부터 제3 시점까지 획득된 제2 영상 정보를 이용하여 제1 콘텐츠를 생성할 수 있다. 이때, 장치(300)는 제1 콘텐츠를 3D 콘텐츠로 생성할 수 있다.
즉, 장치(300)는 제1 시점부터 제3 시점까지 제1 사용자가 제1 공간 내에 머물렀기 때문에, 제1 시점부터 제3 시점까지 제1 공간을 촬영한 영상 정보를 기초로, 발표자 참여형의 3D 콘텐츠를 생성할 수 있다.
도 5는 일실시예 따른 발표자의 제스처를 통해 홀로그램 영상을 표시하는 과정을 설명하기 위한 순서도이고, 도 6은 일실시예에 따른 제4 시점 및 제5 시점을 설명하기 위한 도면이다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(300)는 제1 센서로부터 제1 공간에 위치하고 있는 제1 사용자의 손을 감지하여 생성된 감지 신호를 획득할 수 있다.
일실시예에 따르면, 제1 센서는 라이다 센서(LIDAR Sensor)로 구성되어, 제1 공간의 내부에 설치될 수 있으며, 제1 공간 내에서 사람의 손이 어디에 위치하고 있는지를 감지하여, 감지 신호를 생성할 수 있다.
제1 센서는 하나의 센서로 구현될 수 있고, 복수의 센서로 구현될 수도 있으며, 장치(300)와 유무선으로 통신하도록 구성될 수 있다.
제1 센서는 제1 사용자가 제1 공간 내에 있는 경우, 제1 사용자의 손이 제1 공간 내에서 어디에 위치하고 있는지 여부를 감지하여 감지 신호를 생성할 수 있으며, 장치(300)는 제1 센서로부터 감지 신호를 획득하고, 감지 신호를 기초로, 제1 사용자의 손이 제1 공간 내에서 어디에 위치하고 있는지 확인할 수 있다.
S503 단계에서, 장치(300)는 제1 센서로부터 획득된 감지 신호를 기초로, 제1 사용자의 손 이동을 추적하여, 제1 사용자의 손이 제1 공간에서 어느 지점에 위치하고 있는지에 대해 분석할 수 있다.
구체적으로, 제1 센서는 제1 사용자의 손의 위치가 변경될 때마다 제1 사용자의 손의 위치를 감지하여 감지 신호를 생성할 수 있으며, 장치(300)는 감지 신호가 생성될 때마다 제1 센서로부터 감지 신호를 획득하고, 계속적으로 획득되는 감지 신호를 기초로, 제1 사용자의 손에 대한 위치 이동을 분석하여, 제1 사용자의 손 이동을 추적할 수 있다.
장치(300)는 제1 사용자의 손 이동을 추적한 결과, 제1 사용자의 손이 제1 공간에서 어느 지점에 위치하고 있는지에 대해 실시간으로 분석할 수 있다.
한편, S502 단계에서, 장치(300)는 제1 카메라(200)로부터 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득할 수 있다. 이때, 장치(300)는 제2 영상 정보를 통해 제1 사용자가 제1 공간 내에 있는 것을 인식할 수 있다.
S504 단계에서, 장치(300)는 제2 영상 정보를 기초로, 제1 사용자의 손모양에 대한 변화를 추적하여, 제1 사용자의 손이 어느 제스처 동작을 취하는지에 대해 분석할 수 있다.
즉, 장치(300)는 제2 영상 정보를 기초로, 제1 사용자의 손을 인식하고, 제1 사용자의 손모양에 대한 변화를 추적할 수 있으며, 제1 사용자의 손이 어느 제스처 동작을 취하는지에 대해 실시간으로 분석할 수 있다.
예를 들어, 장치(300)는 제1 사용자의 손모양에 대한 변화를 추적한 결과, 제1 사용자의 손모양이 주먹을 쥐고 있는 상태에서 손가락을 전부 핀 상태로 변경된 것으로 확인되면, 제1 사용자의 손이 손가락을 전부 펼치는 제스처 동작을 취한 것으로 분석할 수 있다.
S505 단계에서, 장치(300)는 제1 사용자의 손모양에 대한 변화를 추적한 결과, 제1 사용자가 제4 시점에 제1 제스처 동작을 취한 것으로 분석할 수 있고, 제1 사용자의 손 이동을 추적하여 분석한 결과, 제4 시점에 제1 사용자의 손이 제1 지점에 위치한 것으로 분석할 수 있다.
S506 단계에서, 장치(300)는 제4 시점의 직후 시점인 제5 시점에 제1 제스처 동작과 대응되는 홀로그램 영상이 제1 지점의 위치에 표시되도록 제어할 수 있다. 이를 위해, 제1 공간의 바닥에는 홀로그램 영상을 출력하는 홀로그램 출력 기기가 격자 방식으로 배치되어 설치되어 있다. 제1 공간에 설치되어 있는 복수의 홀로그램 출력 기기는 설치되어 있는 지점의 바닥에서 위로 홀로그램 영상을 출력하도록 구현될 수 있고, 장치(300)와 유무선으로 통신하도록 구성될 수 있다. 장치(300)의 데이터베이스에는 제스처 동작과 대응되는 홀로그램 영상이 제스처 별로 구분되어 저장되어 있다.
예를 들어, 홀로그램 출력 기기는 제2-1 출력 기기, 제2-2 출력 기기, 제2-3 출력 기기 및 제2-4 출력 기기를 포함하고, 제2-1 출력 기기는 제1 공간에서 A 지점에 설치되어 있고, 제2-2 출력 기기는 제1 공간에서 B 지점에 설치되어 있고, 제2-3 출력 기기는 제1 공간에서 C 지점엔 설치되어 있고, 제2-4 출력기기는 제1 공간에서 D 지점에 설치되어 있고, 제1 제스처 동작과 대응되는 홀로그램 영상으로 제1 영상이 저장되어 있는 경우, 장치(300)는 제1 사용자의 손이 A 지점의 위치에서 제1 제스처 동작을 취한 것으로 분석되면, 제2-1 출력 기기를 통해 제1 영상이 출력되어 A 지점의 위치에 제1 영상이 표시되도록 제어할 수 있고, 제1 사용자의 손이 B 지점의 위치에서 제1 제스처 동작을 취한 것으로 분석되면, 제2-2 출력 기기를 통해 제1 영상이 출력되어 B 지점의 위치에 제1 영상이 표시되도록 제어할 수 있고, 제1 사용자의 손이 C 지점의 위치에서 제1 제스처 동작을 취한 것으로 분석되면, 제2-3 출력 기기를 통해 제1 영상이 출력되어 C 지점의 위치에 제1 영상이 표시되도록 제어할 수 있고, 제1 사용자의 손이 D 지점의 위치에서 제1 제스처 동작을 취한 것으로 분석되면, 제2-4 출력 기기를 통해 제1 영상이 출력되어 D 지점의 위치에 제1 영상이 표시되도록 제어할 수 있다.
장치(300)는 제4 시점에 제1 사용자의 손이 제1 지점의 위치에서 제1 제스처 동작을 취한 것으로 분석되면, 제4 시점의 직후 시점인 제5 시점에 제1 제스처 동작과 대응되는 홀로그램 영상이 제1 지점의 위치에 표시되도록 제어할 수 있다.
즉, 도 6에 도시된 바와 같이, 장치(300)는 제2 영상 정보가 획득될 때, 제2 영상 정보를 기초로, 제1 시점(401)을 발표 시작 시점으로 설정할 수 있고, 제3 시점(403)을 발표 종료 시점으로 설정할 수 있으며, 제1 시점(401)과 제3 시점(403) 사이의 시점인 제4 시점(404)에 제1 사용자의 손이 제1 지점의 위치에서 제1 제스처 동작을 취한 것으로 분석되면, 제5 시점(405)에 제1 제스처 동작과 대응되는 홀로그램 영상이 제1 지점의 위치에 표시되도록 제어할 수 있다.
도 7은 일실시예에 따른 장소 별로 콘텐츠를 생성하는 과정을 설명하기 위한 순서도이고, 도 8은 일실시예에 따른 제6 시점 및 제7 시점을 설명하기 위한 도면이다.
도 7을 참조하면, 먼저, S701 단계에서, 장치(300)는 제6 시점에 발표 장소를 제2 장소로 변경한 발표 장소 변경 요청을 수신할 수 있다. 여기서, 발표 장소 변경 요청은 발표 장소를 제1 장소에서 제2 장소로 변경하기 위한 요청으로, 발표 장소를 변경하기 위한 사용자 단말을 통해 요청될 수 있다.
예를 들어, 발표자인 제1 사용자가 사용자 단말을 통해 발표 장소를 제1 장소로 선택한 이후, 제6 시점에 사용자 단말을 통해 발표 장소가 제2 장소로 변경되어 선택되면, 장치(300)는 제6 시점에 사용자 단말로부터 발표 장소를 제2 장소로 변경한 발표 장소 변경 요청을 수신할 수 있다.
S702 단계에서, 장치(300)는 발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소에서 제2 장소로 변경되는 것이 선택되면, 제2 장소에 대해 3D 모델링을 수행하여 생성된 제1-2 영상 정보를 획득할 수 있다. 이때, 제1-2 영상 정보는 제2 장소에 대해 3D 모델링을 수행하여 생성된 3D 영상이다.
S703 단계에서, 장치(300)는 제6 시점 이후의 직후 시점인 제7 시점에 제1-2 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어할 수 있다.
즉, 장치(300)는 제1-2 영상 정보가 획득되면, 제1 출력 기기(100)에서 제1-2 영상 정보가 출력되도록 제어할 수 있으며, 제1 공간의 전면, 좌측면 및 우측면에 제1-2 영상 정보가 3D 영상으로 표시될 수 있다.
장치(300)는 제6 시점까지 제1-1 영상 정보가 제1 공간의 3면에 표시되도록 제어한 후, 제7 시점부터 제1-2 영상 정보가 제1 공간의 3면에 표시되도록 제어할 수 있다.
S704 단계에서, 장치(300)는 제1-2 영상 정보가 제1 공간의 3면에 표시되어 제1-2 영상 정보를 통해 제1 공간이 제2 장소로 구현되면, 제1 카메라(200)로부터 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득할 수 있다. 이때, 제2 영상 정보는 제2 장소로 구현된 제1 공간의 촬영을 통해 3D 영상으로 생성될 수 있다.
제1 카메라(200)는 제6 시점까지 제1-1 영상 정보가 제1 공간의 3면에 표시되고 있기 때문에, 제6 시점까지 제1 장소로 구현된 제1 공간의 촬영을 통해 제2 영상 정보를 생성할 수 있고, 제7 시점부터 제1-2 영상 정보가 제1 공간의 3면에 표시되고 있기 때문에, 제7 시점부터 제2 장소로 구현된 제1 공간의 촬영을 통해 제2 영상 정보를 생성할 수 있다.
즉, 장치(300)는 제1 카메라(200)로부터 제6 시점까지 제1 장소로 구현된 제1 공간의 촬영을 통해 생성된 제2 영상 정보를 획득하고, 제7 시점부터 제2 장소로 구현된 제1 공간의 촬영을 통해 생성된 제2 영상 정보를 획득할 수 있다.
장치(300)는 제1 시점부터 제6 시점까지 획득된 제2 영상 정보를 이용하여 제1-1 콘텐츠를 생성하고, 제7 시점부터 제3 시점까지 획득된 제2 영상 정보를 이용하여 제1-2 콘텐츠를 생성할 수 있다. 여기서, 제1-1 콘텐츠는 제1 장소를 배경으로 발표하는 3D 콘텐츠이고, 제1-2 콘텐츠는 제2 장소를 배경으로 발표하는 3D 콘텐츠이다.
즉, 도 8에 도시된 바와 같이, 장치(300)는 제2 영상 정보가 획득될 때, 제2 영상 정보를 기초로, 제1 시점(401)을 발표 시작 시점으로 설정할 수 있고, 제3 시점(403)을 발표 종료 시점으로 설정할 수 있으며, 제1 시점(401)과 제3 시점(403) 사이의 시점인 제6 시점(406)에 발표 장소를 제2 장소로 변경하는 것이 요청되면, 제1 시점(401)부터 제6 시점(406)까지 제1-1 영상 정보가 제1 공간의 3면에 표시될 수 있고, 장치(300)는 제1 시점(401)부터 제6 시점(406)까지 제1-1 영상 정보를 통해 제1 공간이 제1 장소로 구현되면, 제1 시점(401)부터 제6 시점(406)까지 제1 카메라(200)로부터 제1 장소로 구현된 제1 공간의 촬영을 통해 생성된 제2 영상 정보를 획득할 수 있고, 제1 시점(401)부터 제6 시점(406)까지 획득된 제2 영상 정보를 이용하여 제1-1 콘텐츠를 생성할 수 있다.
제6 시점(406)에 발표 장소를 제2 장소로 변경하는 것이 요청되면, 제6 시점(406)의 직후 시점인 제7 시점(407)부터 제3 시점(403)까지 제1-2 영상 정보가 제1 공간의 3면에 표시될 수 있고, 장치(300)는 제7 시점(407)부터 제3 시점(403)까지 제1-2 영상 정보를 통해 제1 공간이 제2 장소로 구현되면, 제7 시점(407)부터 제3 시점(403)까지 제1 카메라(200)로부터 제2 장소로 구현된 제1 공간의 촬영을 통해 생성된 제2 영상 정보를 획득할 수 있고, 제7 시점(407)부터 제3 시점(403)까지 획득된 제2 영상 정보를 이용하여 제1-2 콘텐츠를 생성할 수 있다.
도 9는 일실시예에 따른 복수의 카메라로 구성된 제1 카메라가 제1 공간을 촬영하는 방식을 설명하기 위한 도면이다.
도 9를 참조하면, 제1 카메라(200)는 제1-1 카메라(210), 제1-2 카메라(220) 및 제1-3 카메라(230)를 포함할 수 있다.
제1-1 카메라(210)는 제1 공간의 중앙 구역과 대응되는 위치에 설치되어 있어, 제1 공간의 중앙 구역과 대응되는 위치에서 제1 공간의 정면 방향에 대한 촬영을 수행하는 것으로, 촬영 각도가 설정되어 있다.
제1-2 카메라(220)는 제1 공간의 좌측 구역과 대응되는 위치에 설치되어 있어, 제1 공간의 좌측 구역과 대응되는 위치에서 제1 공간의 우측 방향에 대한 촬영을 수행하는 것으로, 촬영 각도가 설정되어 있다.
제1-3 카메라(230)는 제1 공간의 우측 구역과 대응되는 위치에 설치되어 있어, 제1 공간의 우측 구역과 대응되는 위치에서 제1 공간의 좌측 방향에 대한 촬영을 수행하는 것으로, 촬영 각도가 설정되어 있다.
도 10은 일실시예에 따른 사용자 위치에 따라 영상 정보를 조합하여 생성하는 과정을 설명하기 위한 순서도이다.
도 10을 참조하면, 먼저, S1001 단계에서, 장치(300)는 제1-1 영상 정보를 통해 제1 공간이 제1 장소로 구현되면, 제1 카메라(200) 중 제1-1 카메라(210)만 동작하여 촬영을 수행하도록 제어할 수 있다.
S1002 단계에서, 장치(300)는 제1-1 카메라(210)가 동작하여 촬영을 수행하고 있는 경우, 제1-1 카메라(210)로부터 제1 공간의 정면 방향을 촬영하여 생성된 제2-1 영상 정보를 획득할 수 있다.
S1003 단계에서, 장치(300)는 제2-1 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1-1 이미지로 추출할 수 있다.
S1004 단계에서, 장치(300)는 제1-1 이미지를 분석하여, 제1-1 이미지에 제1 사용자가 있는 것으로 인식되는지 여부를 확인할 수 있다.
S1004 단계에서 제1-1 이미지를 분석한 결과, 제1-1 이미지에 제1 사용자가 없는 것으로 인식되면, S1003 단계로 되돌아가, 장치(300)는 제2-1 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1-1 이미지로 다시 추출할 수 있다. 여기서, 제1 시점은 최초 제1-1 이미지가 추출된 시점부터 미리 설정된 시간이 지난 후의 시점을 의미할 수 있다.
S1004 단계에서 제1-1 이미지를 분석한 결과, 제1-1 이미지에 제1 사용자가 있는 것으로 인식되면, S1005 단계에서, 장치(300)는 제1-1 이미지를 분석하여, 제1 사용자가 제1 공간에서 좌측 구역 및 우측 구역 중 어느 구역에 있는지 여부를 확인할 수 있다.
S1006 단계에서, 장치(300)는 제1-1 이미지를 분석한 결과, 제1 사용자가 제1 공간의 우측 구역에 있는 것으로 인식되는지 여부를 확인할 수 있다.
S1006 단계에서 제1 사용자가 제1 공간의 우측 구역에 있는 것으로 확인되면, S1007 단계에서, 장치(300)는 제1 카메라(200) 중 제1-1 카메라(210) 및 제1-2 카메라(220)가 동작하여 촬영을 수행하도록 제어할 수 있다.
즉, 장치(300)는 제1-1 카메라(210)만 동작하여 촬영을 수행하고 있는 상태에서, 제1-2 카메라(220)가 추가로 동작하여 촬영을 수행하도록 제어할 수 있다.
S1006 단계에서 제1 사용자가 제1 공간의 좌측 구역에 있는 것으로 확인되면, S1008 단계에서, 장치(300)는 제1 카메라(200) 중 제1-1 카메라(210) 및 제1-3 카메라(230)가 동작하여 촬영을 수행하도록 제어할 수 있다.
즉, 장치(300)는 제1-1 카메라(210)만 동작하여 촬영을 수행하고 있는 상태에서, 제1-3 카메라(230)가 추가로 동작하여 촬영을 수행하도록 제어할 수 있다.
S1009 단계에서, 장치(300)는 제1-1 카메라(210) 및 제1-2 카메라(220)가 동작하여 촬영을 수행하고 있는 경우, 제1-1 카메라(210)로부터 제1 공간의 정면 방향을 촬영하여 생성된 제2-1 영상 정보를 획득하고, 제1-2 카메라(220)로부터 제1 공간의 우측 방향을 촬영하여 생성된 제2-2 영상 정보를 획득할 수 있다.
장치(300)는 제2-1 영상 정보 및 제2-2 영상 정보가 획득된 경우, 제2-1 영상 정보 및 제2-2 영상 정보를 조합하여, 제2 영상 정보를 생성할 수 있다.
S1010 단계에서, 장치(300)는 제1-1 카메라(210) 및 제1-3 카메라(230)가 동작하여 촬영을 수행하고 있는 경우, 제1-1 카메라(210)로부터 제1 공간의 정면 방향을 촬영하여 생성된 제2-1 영상 정보를 획득하고, 제1-3 카메라(230)로부터 제1 공간의 좌측 방향을 촬영하여 생성된 제2-3 영상 정보를 획득할 수 있다.
장치(300)는 제2-1 영상 정보 및 제2-3 영상 정보가 획득된 경우, 제2-1 영상 정보 및 제2-3 영상 정보를 조합하여, 제2 영상 정보를 생성할 수 있다.
S1009 단계 및 S1010 단계 이후 S1003 단계로 되돌아가, 장치(300)는 제2-1 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1-1 이미지로 다시 추출할 수 있다. 여기서, 제1 시점은 최초 제1-1 이미지가 추출된 시점부터 미리 설정된 시간이 지난 후의 시점을 의미할 수 있다.
도 11은 일실시예에 따른 콘텐츠의 발표 자료 이미지를 설정하여 등록하는 과정을 설명하기 위한 순서도이고, 도 12는 일실시예에 따른 제8 시점을 설명하기 위한 도면이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(300)는 제1 시점부터 제3 시점까지 획득된 제2 영상 정보를 이용하여 제1 콘텐츠를 생성할 수 있다.
S1102 단계에서, 장치(300)는 제1 콘텐츠에서 제3 시점의 영상 이미지를 제3 이미지로 추출할 수 있다. 즉, 장치(300)는 제1 콘텐츠에서 제3 시점의 영상을 캡처하여, 캡처한 이미지를 제3 이미지로 추출할 수 있다.
S1103 단계에서, 장치(300)는 제3 이미지에서 발표 자료가 차지하고 있는 영역을 제1 영역으로 구분할 수 있다.
구체적으로, 장치(300)는 제3 이미지를 분석하여, 제3 이미지 상에 있는 글자를 모두 인식할 수 있으며, 제3 이미지 상에서 가장 좌측에 위치하는 글자의 위치를 제1 위치로 확인하고, 제3 이미지 상에서 가장 상측에 위치하는 글자의 위치를 제2 위치로 확인하고, 제3 이미지 상에서 가장 우측에 위치하는 글자의 위치를 제3 위치로 확인하고, 제3 이미지 상에서 가장 하측에 위치하는 글자의 위치를 제4 위치로 확인할 수 있다.
이후, 장치(300)는 제1 위치를 기준으로 상하 방향으로 확장한 제1 직선을 생성하고, 제2 위치를 기준으로 좌우 방향으로 확장한 제2 직선을 생성하고, 제3 위치를 기준으로 상하 방향으로 확장한 제3 직선을 생성하고, 제4 위치를 기준으로 좌우 방향으로 확장한 제4 직선을 생성할 수 있다.
이후, 장치(300)는 제1 직선, 제2 직선, 제3 직선 및 제4 직선을 연결한 영역을 제1 영역으로 설정한 후, 제3 이미지에서 제1 영역을 구분할 수 있다.
S1104 단계에서, 장치(300)는 제3 이미지에서 제1 영역이 있는 부분을 분할하여, 분할된 이미지를 제3-1 이미지로 추출할 수 있다.
S1105 단계에서, 장치(300)는 제3-1 이미지에 제1 사용자가 있는 것으로 인식되는지 여부를 확인할 수 있다. 즉, 장치(300)는 제3-1 이미지 상에서 글자 이외에 사람 형태의 객체가 인식되는지 여부를 확인하여, 지3-1 이미지에 제1 사용자가 있는지 여부를 확인할 수 있다.
S1105 단계에서 제3-1 이미지에 제1 사용자가 있는 것으로 확인되면, S1106 단계에서, 장치(300)는 제3-1 이미지에서 제1 사용자가 차지하고 있는 영역을 제2 영역으로 구분할 수 있다. 이때, 장치(300)는 제3 이미지에서 제1 영역을 구분하는 방식과 동일한 방식을 통해, 제3-1 이미지에서 제2 영역을 구분할 수 있다.
S1107 단계에서, 장치(300)는 제1 콘텐츠를 제3 시점으로부터 시간상 역순으로 재생하여 분석할 수 있다.
S1108 단계에서, 장치(300)는 제1 콘텐츠를 제3 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제8 시점에 제2 영역 내에 제1 사용자가 없는 것을 확인할 수 있다.
즉, 도 12에 도시된 바와 같이, 제1 콘텐츠는 제1 시점(401)부터 먼저 재생된 후, 제8 시점(408) 및 제3 시점(403) 순으로 재생되는데, 장치(300)는 제1 콘텐츠를 제3 시점(403)으로부터 시간상 역순으로 재생하여 제2 영역 내에 있는 제1 사용자가 역으로 움직이는 것을 모니터링 할 수 있으며, 제2 영역 내에 있는 제1 사용자가 제2 영역을 벗어난 것으로 확인되는 시점을 제8 시점(408)으로 설정할 수 있다.
S1109 단계에서, 장치(300)는 제1 콘텐츠에서 제8 시점의 영상 이미지를 제4 이미지로 추출할 수 있다. 즉, 장치(300)는 제1 콘텐츠에서 제8 시점의 영상을 캡처하여, 캡처한 이미지를 제4 이미지로 추출할 수 있다.
S1110 단계에서, 장치(300)는 제4 이미지에서 제2 영역이 있는 부분을 분할하여 제4-1 이미지를 추출할 수 있다.
S1111 단계에서, 장치(300)는 제3-1 이미지에서 제2 영역이 있는 부분을 제4-1 이미지로 교체할 수 있다.
구체적으로, 장치(300)는 제3-1 이미지에 제1 사용자가 있는 것으로 확인되면, 제3-1 이미지에서 제1 사용자가 차지하고 있는 영역을 제2 영역으로 구분할 수 있고, 제3-1 이미지에서 제2 영역이 있는 부분을 삭제하고, 삭제된 위치에 제4-1 이미지를 삽입하여, 제3-1 이미지와 제4-1 이미지가 결합된 제3-1 이미지를 생성할 수 있다. 즉, 제3-1 이미지에서 제2 영역이 있는 부분이 제4-1 이미지로 교체되어, 제3-1 이미지에 있었던 제1 사용자가 삭제되고, 삭제된 자리에 제1 사용자가 없는 부분이 추가되어, 제3-1 이미지에서는 더 이상 제1 사용자가 인식되지 않을 수 있다.
S1105 단계에서 제3-1 이미지에 제1 사용자가 없는 것으로 인식되거나, S1111 단계를 통해 제3-1 이미지에서 제2 영역이 있는 부분이 제4-1 이미지로 교체되면, S1112 단계에서, 장치(300)는 제3-1 이미지를 제1 콘텐츠의 발표 자료 이미지로 설정하여 등록할 수 있다.
도 13은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(300)는 프로세서(310) 및 메모리(320)를 포함한다. 프로세서(310)는 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 12를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(300)를 이용하는 자 또는 단체는 도 1 내지 도 12를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(320)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(320)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(310)는 프로그램을 실행하고, 장치(300)를 제어할 수 있다. 프로세서(310)에 의하여 실행되는 프로그램의 코드는 메모리(320)에 저장될 수 있다. 장치(300)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 발표자 참여형의 3D 콘텐츠를 생성하는 방법에 있어서,
    발표자인 제1 사용자의 요청으로 발표 장소가 제1 장소로 선택되면, 상기 제1 장소에 대해 3D 모델링을 수행하여 생성된 제1-1 영상 정보가 실제 발표 공간인 제1 공간의 3면에 표시되도록 제어하는 단계;
    상기 제1-1 영상 정보를 통해 상기 제1 공간이 상기 제1 장소로 구현되면, 상기 제1 공간에 대한 촬영을 수행하고 있는 제1 카메라로부터 상기 제1 공간의 촬영으로 생성된 제2 영상 정보를 획득하는 단계;
    상기 제2 영상 정보에서 제1 시점에 획득된 영상의 이미지를 제1 이미지로 추출하는 단계;
    상기 제1 이미지를 분석한 결과, 상기 제1 이미지에 상기 제1 사용자가 있는 것으로 인식되면, 상기 제1 시점을 발표 시작 시점으로 설정하는 단계;
    상기 제2 영상 정보에서 상기 제1 시점의 이후 시점인 제2 시점에 획득된 영상의 이미지를 제2 이미지로 추출하는 단계;
    상기 제2 이미지를 분석한 결과, 상기 제2 이미지에 상기 제1 사용자가 없는 것으로 인식되면, 상기 제2 시점의 직전 시점인 제3 시점을 발표 종료 시점으로 설정하는 단계; 및
    상기 제1 시점부터 상기 제3 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1 콘텐츠를 생성하는 단계를 포함하고,
    상기 제2 영상 정보를 획득하는 단계 이후,
    상기 제1 공간에 설치되어 있는 제1 센서로부터, 상기 제1 공간에 위치하고 있는 상기 제1 사용자의 손을 감지하여 생성된 감지 신호를 획득하는 단계;
    상기 감지 신호를 기초로, 상기 제1 사용자의 손 이동을 추적하여, 상기 제1 사용자의 손이 상기 제1 공간에서 어느 지점에 위치하고 있는지에 대해 분석하는 단계;
    상기 제2 영상 정보를 기초로, 상기 제1 사용자의 손모양에 대한 변화를 추적하여, 상기 제1 사용자의 손이 어느 제스처 동작을 취하는지에 대해 분석하는 단계; 및
    상기 제1 사용자의 손모양에 대한 변화를 추적하여 분석한 결과, 상기 제1 사용자가 제4 시점에 제1 제스처 동작을 취한 것으로 분석되고, 상기 제1 사용자의 손 이동을 추적하여 분석한 결과, 상기 제4 시점에 상기 제1 사용자의 손이 제1 지점에 위치한 것으로 분석되면, 상기 제4 시점의 직후 시점인 제5 시점에 상기 제1 제스처 동작과 대응되는 홀로그램 영상이 상기 제1 지점의 위치에 표시되도록 제어하는 단계를 더 포함하는,
    발표자 참여형 3D 콘텐츠 생성 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 제1 시점을 발표 시작 시점으로 설정하는 단계 이후,
    제6 시점에 상기 제1 사용자의 요청으로 발표 장소가 제2 장소로 변경되면, 상기 제6 시점의 직후 시점인 제7 시점에 상기 제2 장소에 대해 3D 모델링을 수행하여 생성된 제1-2 영상 정보가 상기 제1 공간의 3면에 표시되도록 제어하는 단계; 및
    상기 제1-2 영상 정보를 통해 상기 제1 공간이 상기 제2 장소로 구현되면, 상기 제1 카메라로부터 상기 제2 영상 정보를 획득하는 단계를 더 포함하며,
    상기 제1 콘텐츠를 생성하는 단계는,
    상기 제1 시점부터 상기 제6 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1-1 콘텐츠를 생성하고, 상기 제7 시점부터 상기 제3 시점까지 획득된 상기 제2 영상 정보를 이용하여 제1-2 콘텐츠를 생성하는 단계를 포함하는,
    발표자 참여형 3D 콘텐츠 생성 방법.
KR1020220089366A 2022-07-20 2022-07-20 발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템 KR102456134B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220089366A KR102456134B1 (ko) 2022-07-20 2022-07-20 발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220089366A KR102456134B1 (ko) 2022-07-20 2022-07-20 발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102456134B1 true KR102456134B1 (ko) 2022-10-18

Family

ID=83803552

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220089366A KR102456134B1 (ko) 2022-07-20 2022-07-20 발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102456134B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101270780B1 (ko) 2011-02-14 2013-06-07 김영대 가상 강의실 강의 방법 및 장치
KR20170029725A (ko) * 2015-09-07 2017-03-16 주식회사 다림비젼 영상 합성을 이용한 강의 영상 생성 방법 및 그 장치
KR101860680B1 (ko) 2017-09-01 2018-06-29 한국과학기술원 3d 증강 프리젠테이션 구현 방법 및 장치
KR20180092469A (ko) 2017-02-09 2018-08-20 한국기술교육대학교 산학협력단 3d카메라와 웹 실시간 통신을 이용한 실시간 프레젠테이션 방송 방법
KR20200043658A (ko) 2018-10-18 2020-04-28 주식회사 지엔아이씨티 Vr 발표 및 면접 훈련 시스템
KR102359253B1 (ko) * 2021-02-10 2022-02-28 (주)에듀슨 360도 xr 디지털 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101270780B1 (ko) 2011-02-14 2013-06-07 김영대 가상 강의실 강의 방법 및 장치
KR20170029725A (ko) * 2015-09-07 2017-03-16 주식회사 다림비젼 영상 합성을 이용한 강의 영상 생성 방법 및 그 장치
KR20180092469A (ko) 2017-02-09 2018-08-20 한국기술교육대학교 산학협력단 3d카메라와 웹 실시간 통신을 이용한 실시간 프레젠테이션 방송 방법
KR101860680B1 (ko) 2017-09-01 2018-06-29 한국과학기술원 3d 증강 프리젠테이션 구현 방법 및 장치
KR20200043658A (ko) 2018-10-18 2020-04-28 주식회사 지엔아이씨티 Vr 발표 및 면접 훈련 시스템
KR102359253B1 (ko) * 2021-02-10 2022-02-28 (주)에듀슨 360도 xr 디지털 영상을 이용한 비대면 영어 교육 컨텐츠 제공 방법

Similar Documents

Publication Publication Date Title
KR102225802B1 (ko) 반응형 영상 생성방법 및 생성프로그램
CN109905592B (zh) 根据用户的交互控制或者合成的内容的提供方法及装置
KR20160112898A (ko) 증강현실 기반 동적 서비스 제공 방법 및 장치
JP6949612B2 (ja) 動画再生装置およびその制御方法、並びにプログラム
JP2016136699A (ja) 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
US10732706B2 (en) Provision of virtual reality content
WO2017187196A1 (en) Augmented media
WO2022252688A1 (zh) 增强现实数据呈现方法、装置、电子设备及存储介质
KR102456134B1 (ko) 발표자 참여형 3d 콘텐츠 생성 방법, 장치 및 시스템
WO2020137994A1 (ja) 映像配信装置、映像配信システム、映像配信方法及び映像配信プログラム
JP7249637B2 (ja) 映像配信装置、映像配信システム、映像配信方法及び映像配信プログラム
KR101839018B1 (ko) 컷 단위로 구성된 컨텐츠를 제어하는 컨텐츠 제공 시스템
KR102491104B1 (ko) 비디오 입출력 스위칭 제어 방법 및 장치
JP2020074108A (ja) 情報処理システム、その制御方法、及びプログラム
JP6638326B2 (ja) 情報処理システム、その制御方法、及びプログラム
US20240177405A1 (en) Image processing apparatus, image processing method, and storage medium
KR102257442B1 (ko) 사용자의 상황에 반응하는 증강현실 서비스 제공 방법 및 그 시스템
KR102533209B1 (ko) 다이나믹 확장현실(xr) 콘텐츠 생성 방법 및 시스템
KR101875049B1 (ko) 컷 단위로 구성된 컨텐츠를 제어하는 컨텐츠 제공 시스템
KR101759297B1 (ko) 동영상 처리 장치, 및 방법
KR101722681B1 (ko) 동영상 처리 장치, 및 방법
KR20240049182A (ko) 조작패턴 기반 반응형 영상 재생 장치 및 방법
KR20230029233A (ko) 아바타 촬영 모드 전환을 위한 인터페이스 제공 방법, 장치, 및 컴퓨터 프로그램
JP6877105B2 (ja) 画像処理装置、制御方法、及びプログラム
CN113064587A (zh) 组件操控方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant