KR102034277B1 - 행사 실시간 스트리밍 방송 시스템 - Google Patents

행사 실시간 스트리밍 방송 시스템 Download PDF

Info

Publication number
KR102034277B1
KR102034277B1 KR1020170166304A KR20170166304A KR102034277B1 KR 102034277 B1 KR102034277 B1 KR 102034277B1 KR 1020170166304 A KR1020170166304 A KR 1020170166304A KR 20170166304 A KR20170166304 A KR 20170166304A KR 102034277 B1 KR102034277 B1 KR 102034277B1
Authority
KR
South Korea
Prior art keywords
gesture
unit
event
presentation
smart
Prior art date
Application number
KR1020170166304A
Other languages
English (en)
Other versions
KR20190066660A (ko
Inventor
박구만
양지희
김영애
전지혜
남진솔
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020170166304A priority Critical patent/KR102034277B1/ko
Publication of KR20190066660A publication Critical patent/KR20190066660A/ko
Application granted granted Critical
Publication of KR102034277B1 publication Critical patent/KR102034277B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에서는 종래 세미나 또는 학회 등 행사에서, 참석자가 행사장 외의 다른 장소에 있을 경우 원하는 주제의 발표에 참관하기 어려운 문제점과, 일부 행사에서는 참석하지 못한 이용자들을 위한 VOD 서비스가 이용자들이 실제로 원하는 행사 발표 내용에 대한 영상이 아닌 행사 개회식, 폐회식 또는 주변 영상 등 일부만 제공을 하거나 행사가 끝난 후 오랜 시간이 지나서야 해당 서비스를 제공되는 문제점과, 세미나 또는 학회 등 행사에서 발표자가 발표 자료를 제어하는 방식으로손이나 바디 제스처가 아닌 포인터 방식으로 이루어져, 참석자들의 흥미와 관심을 떨어뜨리는 문제점을 개선하고자, 다채널 360도 카메라부(100), 모션인터랙션용 디스플레이부(200), 제스처인식용 웹카메라부(300), 스마트제어부(400)로 구성됨으로서, 세미나, 학회로 이루어진 발표 장소에 다채널 360도 카메라부를 설치하고 원하는 행사 참석자들에게 내/외부 네트워크 접속을 통하여 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시킬 수 있어, 기존에 비해, 2배~4배 빠른 VOD 업로딩 서비스와 함께, 80% 향상된 애프터형 양질의 VOD 서비스를 수행할 수 있고, UI/UX 제스처 인식 기술을 기반으로 발표자에게 추가적인 디바이스 없이 원거리에서도 발표 자료를 제어할 수 있어, 원격 실시간 발표 분위기를 형성할 수 있고, 이로 인해, 제스처인식용 웹카메라부가 설치된 PC를 비롯한 일반 소형 스크린뿐만 아니라 대형 스크린에서의 제스처 인식이 가능하여 장비 응용력과 사용범위를 기존에 비해 80% 높일 수 있으며, 무엇보다, 제스처에 따라 발표 자료 포인터의 색깔 또는 모양을 다르게 변경함으로써 시청자 및 참석자들에게, 기존에 비해 내용 전달력과 집중도 90% 향상시킬 수 있는 행사 실시간 스트리밍 방송 시스템을 제공하는데 그 목적이 있다.

Description

행사 실시간 스트리밍 방송 시스템{THE SYSTEM OF CONFERENCE LIVE STREAMING BROADCASTING}
본 발명에서는 세미나, 학회로 이루어진 발표 장소에 다채널 360도 카메라부를 설치하고 원하는 행사 참석자들에게 내/외부 네트워크 접속을 통하여 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시킬 수 있고, UI/UX 제스처 인식 기술을 기반으로 발표자에게 추가적인 디바이스 없이 원거리에서도 발표 자료를 제어할 수 있는 행사 실시간 스트리밍 방송 시스템에 관한 것이다.
일반적으로 세미나 또는 학회 등 행사에서는 동일한 시간대에 각각 다른 장소에서 다른 주제에 대한 발표들이 진행된다.
뿐만 아니라 참석자가 행사장 외의 다른 장소에 있을 경우 원하는 주제의 발표에 참관하기 어려울 수 있다.
일부 행사에서는 참석하지 못한 이용자들을 위해 영상을 촬영하여 홈페이지를 통해 VOD 서비스로 제공하고 있지만, 이는 이용자들이 실제로 원하는 행사 발표 내용에 대한 영상이 아닌 행사 개회식, 폐회식 또는 주변 영상 등 일부만 제공을 하거나 행사가 끝난 후 오랜 시간이 지나서야 해당 서비스를 제공하는 한계를 보이고 있다.
또한 사용자의 제스처 인식하여 인터랙션 제어하는 것에 대한 연구는 꾸준히 진행되어오고 있지만, 세미나 또는 학회 등 행사에서 발표자가 발표 자료를 제어하는 방식으로는 오래전부터 포인터 방식만을 사용하고 있어서, 속도가 느리고, 인터랙션기능이 없어, 참석자들의 흥미와 관심을 떨어뜨리는 문제점이 있었다.
등록특허공보 제10-1114989호(2012년03월06일 공고)
상기의 문제점을 해결하기 위해 본 발명에서는 세미나, 학회로 이루어진 발표 장소에 다채널 360도 카메라부를 설치하고 원하는 행사 참석자들에게 내/외부 네트워크 접속을 통하여 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시킬 수 있고, UI/UX 제스처 인식 기술을 기반으로 발표자에게 추가적인 디바이스 없이 원거리에서도 발표 자료를 제어할 수 있는 행사 실시간 스트리밍 방송 시스템을 제공하는데 그 목적이 있다.
상기의 목적을 달성하기 위해 본 발명에 따른 행사 실시간 스트리밍 방송 시스템은
세미나, 학회로 이루어진 발표 장소 일측에 다채널로 설치되어, 발표 현장의 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시키는 다채널 360도 카메라부(100)와,
스마트 제어부의 제어신호에 따라 구동되어, 발표자료내용을 표출시키다가, 발표자의 제스처 인식에 따라 화면 상에서 액션이벤트 또는 미디어컨텐츠연동을 수행시키는 모션인터랙션용 디스플레이부(200)와,
모션인터랙션용 디스플레이부 및 특정 디스플레이 기기 일측에 위치되어, 사람의 움직임에 따른 제스처이미지를 획득시키는 제스처인식용 웹카메라부(300)와,
다채널 360도 카메라부에서 촬영된 360도 영상데이터를 채널별로 모아서 하나의 360도 현장영상데이터를 생성시킨 후, 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시키도록 제어하면서, 제스처인식용 웹카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨 후, 추출시킨 제스처영역에다가 기준제스처모델과 비교·분석하여 특정 제스처를 인식시켜 모션인터랙션용 디스플레이부의 구동을 제어시키는 스마트제어부(400)으로 구성됨으로서 달성된다.
이상에서 설명한 바와 같이, 본 발명에서는
첫째, 세미나, 학회로 이루어진 발표 장소에 다채널 360도 카메라부를 설치하고 원하는 행사 참석자들에게 내/외부 네트워크 접속을 통하여 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시킬 수 있어, 기존에 비해, 2배~4배 빠른 VOD 업로딩 서비스와 함께, 80% 향상된 애프터형 양질의 VOD 서비스를 수행할 수 있다.
둘째, UI/UX 제스처 인식 기술을 기반으로 발표자에게 추가적인 디바이스 없이 원거리에서도 발표 자료를 제어할 수 있어, 원격 실시간 발표 분위기를 형성할 수 있고, 이로 인해, 제스처인식용 웹카메라부가 설치된 PC를 비롯한 일반 소형 스크린뿐만 아니라 대형 스크린에서의 제스처 인식이 가능하여 장비 응용력과 사용범위를 기존에 비해 80% 높일 수 있다.
셋째, 제스처에 따라 발표 자료 포인터의 색깔 또는 모양을 다르게 변경함으로써 시청자 및 참석자들에게, 기존에 비해 내용 전달력과 집중도 90% 향상시킬 수 있다.
도 1은 본 발명에 따른 행사 실시간 스트리밍 방송 시스템(1)의 구성요소를 도시한 블럭도,
도 2는 본 발명에 따른 행사 실시간 스트리밍 방송 시스템(1)의 구성요소를 도시한 구성도,
도 3은 본 발명에 따른 다채널 360도 카메라부의 구성요소를 도시한 블럭도,
도 4는 본 발명에 따른 제스처인식용 웹카메라부의 구성요소를 도시한 블럭도,
도 5는 본 발명에 따른 스마트제어부의 구성요소를 도시한 블럭도,
도 6은 본 발명에 따른 스마트제스처인식부의 구성요소를 도시한 블럭도,
도 7은 본 발명에 따른 RGB히스토그램엔진모듈를 통해 배경영역을 제외한 제스처영역만을 추출시키는 것을 도시한 일실시예도,
도 8은 본 발명에 따른 기준제스처모델링설정부를 통해 사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 것을 도시한 일실시예도.
이하, 본 발명에 따른 바람직한 실시예를 도면을 첨부하여 설명한다.
도 1은 본 발명에 따른 행사 실시간 스트리밍 방송 시스템(1)의 구성요소를 도시한 블럭도에 관한 것이고, 도 2는 본 발명에 따른 행사 실시간 스트리밍 방송 시스템(1)의 구성요소를 도시한 구성도에 관한 것으로, 이는 다채널 360도 카메라부(100), 모션인터랙션용 디스플레이부(200), 제스처인식용 웹카메라부(300), 스마트제어부(400)로 구성된다.
먼저, 본 발명에 따른 다채널 360도 카메라부(100)에 관해 설명한다.
상기 다채널 360도 카메라부(100)는 세미나, 학회로 이루어진 발표 장소 일측에 다채널로 설치되어, 발표 현장의 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시키는 역할을 한다.
이는 도 3에 도시한 바와 같이, 제1 채널 360도 카메라부(110), 제2 채널 360도 카메라부(120), 제3 채널 360도 카메라부(130)로 구성된다.
상기 제1 채널 360도 카메라부(110)는 발표 장소의 발표자를 기준으로 정면방향 일측에 설치되어, 발표자의 정면방향을 기준으로, 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시키는 역할을 한다.
이는 회전모터부의 회전력을 전달받아 0°~360°로 회전된다.
상기 제2 채널 360도 카메라부(120)는 발표 장소의 발표자를 기준으로 후면방향 일측에 설치되어, 발표자의 후면방향을 기준으로, 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시키는 역할을 한다.
이는 회전모터부의 회전력을 전달받아 0°~360°로 회전된다.
상기 제3 채널 360도 카메라부(130)는 발표 장소의 발표자를 기준으로 좌우측면방향 일측에 설치되어, 발표자의 좌우측면방향을 기준으로, 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시키는 역할을 한다.
이는 회전모터부의 회전력을 전달받아 0°~360°로 회전된다.
다음으로, 본 발명에 따른 모션인터랙션용 디스플레이부(200)에 관해 설명한다.
상기 모션인터랙션용 디스플레이부(200)는 스마트 제어부의 제어신호에 따라 구동되어, 발표자료내용을 표출시키다가, 발표자의 제스처 인식에 따라 화면 상에서 액션이벤트 또는 미디어컨텐츠연동을 수행시키는 역할을 한다.
이는 PC를 비롯한 일반 소형 스크린, 대형 스크린, 디지털사이니지를 모두 포함하여 구성된다.
다음으로, 본 발명에 따른 제스처인식용 웹카메라부(300)에 관해 설명한다.
상기 제스처인식용 웹카메라부(300)는 모션인터랙션용 디스플레이부 및 특정 디스플레이 기기 일측에 위치되어, 사람의 움직임에 따른 제스처이미지를 획득시키는 역할을 한다.
이는 도 4에 도시한 바와 같이, 깊이카메라(310), 적외선센서부(320)로 구성된다.
상기 깊이카메라는 입체 영상을 제작하려고 촬영하는 장면 또는 물체의 깊이 정보를 획득하는 장치로서,적외선센서부에서 발생된 적외선이 물체에 반사되어 돌아오는 시간을 계산하여 물체의 깊이를 산출한다.
이때, 획득한 깊이 정보는 스테레오 정합 방법으로 얻은 깊이 정보보다 정확도가 높은 특성을 가진다.
본 발명에 따른 제스처인식용 웹카메라부는 도 에 도시한 바와 같이, 3D좌표설정부(210)가 포함되어 구성된다.
상기 3D좌표설정부는 사람의 움직임에 따른 제스처이미지를 획득시, 제스처 위치 중 X축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 앞뒤의 제스처로 설정시키고, 제스처 위치 중 Z축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 좌우의 제스처로 설정시키며, 제스처 위치 중 Y축은 -값부터 +값까지 좌표를 표출하여 카메라 정면을 기준으로 상하의 제스처로 설정시키는 역할을 한다.
이로 인해, 제스처이미지에 발생되는 잡음을 제거하고, X축, Y축, Z축으로 이루어진 정확한 제스처이미지를 획득할 수가 있다.
다음으로, 본 발명에 따른 스마트제어부(400)에 관해 설명한다.
상기 스마트제어부(400)는 다채널 360도 카메라부에서 촬영된 360도 영상데이터를 채널별로 모아서 하나의 360도 현장영상데이터를 생성시킨 후, 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시키도록 제어하면서, 제스처인식용 웹카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨 후, 추출시킨 제스처영역에다가 기준제스처모델과 비교·분석하여 특정 제스처를 인식시켜 모션인터랙션용 디스플레이부의 구동을 제어시키는 역할을 한다.
이는 도 5에 도시한 바와 같이, 제스처영역추출부(410), HSV 히스토그램생성부(420), 기준제스처모델링설정부(430), 스마트제스처인식부(440), 액션이벤트제어부(450), 실감미디어컨텐츠인터페이스부(460)로 구성된다.
첫째, 본 발명에 따른 제스처영역추출부(410)에 관해 설명한다.
상기 제스처영역추출부(410)는 제스처인식용 웹카메라부로부터 획득한 제스처이미지에서 미리 설정된 RGB 히스토그램을 이용하여 배경영역을 제외한 제스처영역만을 추출시키는 역할을 한다.
이는 RGB히스토그램엔진모듈(411)이 포함되어 구성된다.
상기 RGB히스토그램엔진모듈(411)은 도 7에 도시한 바와 같이, RGB 히스토그램을 통해 배경영역을 제외한 제스처영역만을 추출시킨다.
상기 RGB 히스토그램엔진모듈은 피부색의 사전 정보로서, 피부색과 배경색상에 대하여 각각 X축, Y축, Z축의 3차원 히스토그램을 구축하도록 구성된다.
즉, RGB 색상을 이용하여 지속적인 피부색 검출을 할 경우에 제스처인식용 웹카메라부로부터 획득한 제스처이미지를 그대로 사용할 수 있어 수행속도를 향상시킬 수가 있다.
상기 RGB 히스토그램엔진모듈은 다음과 같은 과정을 통해 수행된다.
먼저, 입력되는 제스처이미지 영역을 RGB히스토그램을 통해 배경영역을 제외한 제스처영역만을 마스크한다.
이때, 마스크는 반원형상으로 설정한다.
이어서, 마스크한 제스처영역에 발생된 노이즈를 필터링부를 통해 필터링시켜 제거한다.
끝으로, 필터링된 RGB 제스처영역을 HSV 히스토그램설정부로 전달시킨다.
둘째, 본 발명에 따른 HSV 히스토그램생성부(420)에 관해 설명한다.
상기 HSV 히스토그램생성부(420)는 제스처영역추출부에서 추출된 제스처 영역에서 색상정보를 이용하여 HSV 히스토그램을 생성시키는 역할을 한다.
이는 제스처영역추출부에서 생성된 RGB 제스처영역을 HSV 제스처영역으로 변환시킨다.
상기 HSV 히스토그램생성부는 H(색상), S(채도), V(명도)를 기반으로 X축, Y축, Z축의 3차원 히스토그램을 생성시킨다.
셋째, 본 발명에 따른 기준제스처모델링설정부(430)에 관해 설명한다.
상기 기준제스처모델링설정부(430)는 사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 역할을 한다.
이는 사람의 몸인 얼굴, 팔, 손가락, 몸통, 다리에서 움직이는 것을 모두 제스처모델링시킨다.
본 발명에서는 얼굴, 손가락을 기준제스처모델로 설정시킨다.
즉, 제스처 영역에 해당하는 픽셀(흰색)은 1로 , 배경영역에 해당하는 픽셀(검은색)은 0으로 하여 모든 픽셀에 대해 이진화 이미지
Figure 112017121416210-pat00001
를 구성한다.
J개의 제스처 패턴 각각에 Ni개의 이미지를 구성한 후, 다음의 수학식 1과 같이 평균을 구하여 기준제스처모델을 만든다.
Figure 112017121416210-pat00002
여기서, DMi ,j는 i번째 사용자의 j번째 제스처 패턴에 대한 모델이다.
Figure 112017121416210-pat00003
은 i번째 사용자의 제스처 패턴에 대한 n번째 제스처이미지를 나타내며, 픽셀(x,y)가 제스처 영역에 속하는 경우에는 1, 배경영역에 속하는 경우에는 0의 값을 가진다.
DMi ,j는 사용자에 따라 다른 모델이 만들어지므로 사용자 종속모델에 해당한다.
이에 다음의 수학식 2와 같이 사용자 독립모델을 구성한다.
Figure 112017121416210-pat00004
상기 IMj는 사용자 독립모델로서, 각 사용자의 제스처이미지를 모두 사용하여 평균을 연산시킨다.
넷째, 본 발명에 따른 스마트제스처인식부(440)에 관해 설명한다.
상기 스마트제스처인식부(440)는 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시키는 역할을 한다.
이는 도 6에 도시한 바와 같이, 제스처분류부(441), 제스처비교분석부(442), 제스처인식부(443)로 구성된다.
상기 제스처분류부(441)는 추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시키는 역할을 한다.
이는 제스처분류기준을 얼굴움직임, 팔움직임, 손 움직임, 손가락 움직임, 몸통움직임, 다리움직임으로 나누어 분류시킨 후, 움직이지 않고 정지된 상태를 정적 제스처 영역으로 설정시키고, 움직이고 활동된 상태를 동적 제스처 영역으로 설정시킨다.
상기 제스처비교분석부(442)는 제스처분류부를 통해 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하는 역할을 한다.
여기서, 기준제스처모델은 사람의 몸인 얼굴, 팔, 손가락, 몸통, 다리에서 움직이는 것을 모두 제스처모델링시킨다.
상기 제스처인식부(443)는 제스처비교분석부에서 비교분석된 특정 제스처를 기준으로 어떠한 제스처 유형인지를 매칭하여 인식시키는 역할을 한다.
여기서, 제스처 유형은 제스처 종류(얼굴움직임, 팔움직임, 손 움직임, 손가락 움직임, 몸통움직임, 다리움직임), 제스처 개수에 맞게 셋업(SETUP)테이블화시켜 미리 저장시킨다.
다섯째, 본 발명에 따른 액션이벤트제어부(450)에 관해 설명한다.
상기 액션이벤트제어부(450)는 스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 모션인터랙션용 디스플레이부쪽으로 액션이벤트제어신호를 출력시키는 역할을 한다.
이는 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "한 점 클릭"이면, "한 점 클릭"의 비접촉식 특정 제스처에 맞는 "위치를 선택하기"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "한 점 더블 클릭"이면, "한 점 더블 클릭"의 비접촉식 특정 제스처에 맞는 "크게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "두 점 클릭"이면, "두 점 클릭"의 비접촉식 특정 제스처에 맞는 "작게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "두 점 더블 클릭"이면, "두 점 더블 클릭"의 비접촉식 특정 제스처에 맞는 "크게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "세 점 클릭"이면, "세 점 클릭"의 비접촉식 특정 제스처에 맞는 "작게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "네 점 클릭"이면, "네 점 클릭"의 비접촉식 특정 제스처에 맞는 "작게하기(고정수치)"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "한 점 이동"이면, "한 점 이동"의 비접촉식 특정 제스처에 맞는 "이동하기"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "세 점 위로 이동"이면, "세 점 위로 이동"의 비접촉식 특정 제스처에 맞는 "3D 공간 앞으로 회전"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키고, 스마트제스처인식부에서 인식된 비접촉식 특정 제스처가 "세 점 아래로 이동"이면, "세 점 아래로 이동"의 비접촉식 특정 제스처에 맞는 "3D공간 뒤로 회전"라는 액션이벤트를 불러와서, 기기쪽으로 액션이벤트제어신호를 출력시키도록 구성된다.
도 8은 본 발명에 따른 기준제스처모델링설정부를 통해 사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 것을 도시한 것으로, 이러한 제스처유형은 비접촉식 특정 제스처로서, 제스처인식용 웹카메라부 상에서 사용자의 움직임에 의해 형성되는 제스처를 말한다.
여섯째, 본 발명에 따른 실감미디어컨텐츠인터페이스부(460)에 관해 설명한다.
상기 실감미디어컨텐츠인터페이스부(460)는 스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 모션인터랙션용 디스플레이부쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시키는 역할을 한다.
이는 제스처유저인터페이스(Gestural User Interface)가 포함되어 구성된다.
상기 제스처유저인터페이스(Gestural User Interface)(461)는 몸의 움직임을 이용해 디스플레이 기능을 갖는 기기쪽에 실감미디어컨텐츠를 인터페이스시켜 표출시키는 역할을 한다.
일예로, 포인팅 디바이스로 손가락을 쓴다거나 몸짓을 이용하기 때문에 상당히 직과적이라는 장점이 있다.
친숙한 동작들을 제스처로 사용하기 때문에, 처음 접하는 사람도 쉽게 적용할 수가 있다.
본 발명에 따른 제스처유저인터페이스는 터치스크린이나 자유롭게 신체의 움직임을 이용하는 형태의 모든 범주에 속하도록 구성된다.
그리고, 전후 맥락(Context)에 따라 구성되고, 제스처유저인터페이스 제어는 사용자의 예정된 움직임에 근거하여 구성된다.
또한, 각각의 제스처 방식이 어떤 점에서 최선이고 어떤 점에서 최악인지를 알도록 구성된다. 사용자는 주어진 상황에서 최소한의 노력으로 입력방법을 선택한다.
그리고, 새로운 인터랙션이 추가되거나 업데이트되도록 구성된다.
상기 실감미디어컨텐츠는 애니메이션 발표 컨텐츠, 아바타, 게임 발표 컨텐츠 등을 모두 포함한다.
본 발명에 따른 실감미디어컨텐츠인터페이스부(460)는 표 1에서 도시한 바와 같이, 특정 제스처에 맞는 실감미디어컨텐츠DB부(462)가 포함되어 구성된다.
상기 실감미디어컨텐츠인터페이스부(460)는 스마트제스처인식부에서 인식된 특정 제스처가 "앞으로 한발 이동, 뒤로 한발 이동"이면, "앞으로 한발 이동, 뒤로 한발 이동"의 특정 제스처에 맞는 "발표 컨텐츠 전진, 후진"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 전진, 후진"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "오른손 움직임"이면, "오른손 움직임"의 특정 제스처에 맞는 "발표 컨텐츠 시야 변경"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 시야 변경"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "점프"이면, "점프"의 특정 제스처에 맞는 "발표 컨텐츠 페이지 맨위로 올라가기"이라는 실감미디어컨텐츠를 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 페이지 맨위로 올라가기"이라는 실감미디어컨텐츠를 표출시키며, 스마트제스처인식부에서 인식된 특정 제스처가 "앉기"이면, "앉기"의 특정 제스처에 맞는 "발표 컨텐츠 페이지 맨아래로 내려가기"이라는 실감미디어컨텐츠를 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 페이지 맨아래로 내려가기"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "오른손 내밀기"이면, "오른손 내밀기"의 특정 제스처에 맞는 "공격 모션"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "공격 모션"이라는 실감미디어컨텐츠를 표출시키며, 스마트제스처인식부에서 인식된 특정 제스처가 "왼손 내밀고 ↓ 움직임"이면, "왼손 내밀고 ↓ 움직임"의 특정 제스처에 맞는 "발표 컨텐츠 일시종료"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 일시종료"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "오른손 내밀고 ↑ 움직임"이면, "오른손 내밀고 ↑ 움직임"의 특정 제스처에 맞는 "발표 컨텐츠 발표종료"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 발표종료"이라는 실감미디어컨텐츠를 표출시킨다.
또한, 스마트제스처인식부에서 인식된 특정 제스처가 "스파링자세(왼손, 오른손 겹친 움직임)"이면, "스파링자세(왼손, 오른손 겹친 움직임)"의 특정 제스처에 맞는 "발표 컨텐츠 숨기기"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 숨기기"이라는 실감미디어컨텐츠를 표출시키고, 스마트제스처인식부에서 인식된 특정 제스처가 "왼손과 오른손을 "X"자형으로 크로싱 움직임"이면, "왼손과 오른손을 "X"자형으로 크로싱 움직임"의 특정 제스처에 맞는 "발표 컨텐츠 지우기"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 지우기"이라는 실감미디어컨텐츠를 표출시키며, 스마트제스처인식부에서 인식된 특정 제스처가 "왼손을 쫙펴고 일자형 움직임"이면, "왼손을 쫙펴고 일자형 움직임"의 특정 제스처에 맞는 "발표 컨텐츠 일렬로 나열하기"이라는 실감미디어컨텐츠를 실감미디어컨텐츠DB부(462)에서 불러와, 인터페이스시켜 기기쪽에 "발표 컨텐츠 일렬로 나열하기"이라는 실감미디어컨텐츠를 표출시킨다.
제스처유형 실감미디어컨텐츠
앞으로 한발 이동, 뒤로 한발 이동 발표 컨텐츠 전진, 후진
오른손 움직임 발표 컨텐츠 시야 변경
점프 발표 컨텐츠 페이지 맨위로 올라가기
앉기 발표 컨텐츠 페이지 맨아래로 내려가기
오른손 내밀기 발표 컨텐츠 앞으로 확대되기
왼손 내밀고 ↓움직임 일시종료
오른손 내밀고 ↑움직임 발표종료
스파링자세(왼손, 오른손 겹친 움직임) 발표 컨텐츠 숨기기
왼손과 오른손을 "X"자형으로 크로싱 움직임 발표 컨텐츠 지우기
왼손을 쫙펴고 일자형 움직임 발표 컨텐츠 일렬로 나열하기
이하, 본 발명에 따른 행사 실시간 스트리밍 방송 시스템의 구체적인 동작과정에 관해 설명한다.
먼저, 다채널 360도 카메라부가 세미나, 학회로 이루어진 발표 장소 일측에 다채널로 설치되어, 발표 현장의 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시킨다.
일예로, 학회의 발표 세션이 3군데에서 동시에 진행될 경우, 각각의 세션 장소에 360도 카메라를 1대씩 설치하고 이를 통해 행사 현장의 전반적인 영상을 촬영함으로써 총 3개의 발표 세션 영상을 취득한다.
획득한 모든 영상들은 네트워크를 통해 하나의 가상 서버로 모여 저장된다.
저장된 영상은 행사 참석자 개인의 이동통신 단말기인 스마트폰 또는 PC를 통해 요청되는 데이터에 따라 선택적으로 스트리밍 된다.
개의 360도 영상 중 사용자가 원하는 장소의 영상을 선택하고, 해당 영상에서 사용자가 원하는 대로 영상을 회전시키며 발표자 또는 발표 자료, 청중 등 시청 가능하도록 구성되낟.
다음으로, 스마트제어부에서 다채널 360도 카메라부에서 촬영된 360도 영상데이터를 채널별로 모아서 하나의 360도 현장영상데이터를 생성시킨 후, 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시키도록 제어한다.
이는 기본적으로 스마트폰 어플리케이션(앱) 형태를 통해 제공되며, PC에서는 URL 주소를 입력함으로써 해당 시스템 정보가 제공하도록 구성된다.
접속 시 해당 세미나 또는 학회 등 행사를 주최하는 기관의 정보가 제공되며, 앞서 설명된 행사 장소의 실시간 영상 또는 녹화된 VOD를 제공받을 수 있다.
뿐만 아니라, 일예로, 학회의 경우에는 발표된 논문 또는 포스터와 같은 자료를 조회 및 공유 가능하다.
원하는 주제명 또는 발표 제목을 리스트 형태로 구분하여 제공하며, 그 중 사용자가 원하는 주제를 클릭하면 해당 영상 스트리밍 또는 자료 파일이 화면에 업로드 된다.
실시간 영상 스트리밍의 경우 발표자와 발표 자료를 실시간 영상으로 시청하다가 해당 발표 자료 또는 관련 참고 자료, 발표자 정보 등에 대한 자세한 내용이 보고 싶을 경우 오른쪽 탭의 추가적으로 구성된 버튼을 클릭할 경우 해당 정보만 화면에 업로드 되는 형태로 제공된다.
다음으로, 모션인터랙션용 디스플레이부가 스마트 제어부의 제어신호에 따라 구동되어, 발표자료내용을 표출시킨다.
다음으로, 제스처인식용 웹카메라부에서 사람의 움직임에 따른 제스처이미지를 획득시킨다.
이는 발표자의 손 모양 정보와 몸 골격 정보를 획득하고 각각 정보의 변화에 따라 연결된 프로젝터에 발표 자료 UI/UX 결과를 표출한다.
몸 골격 정보를 인식하여 포인터의 색깔이나 모양을 다르게 적용하여 표출한다.
일예로, 오른팔을 곧게 펴서 수직으로 들면 포인터의 색깔을 변경하고, 왼팔을 곧게 펴서 수직으로 들면 포인터의 모양을 변경한다.
포인터의 기본 색깔은 검정색, 기본 모양은 원으로 설정하며, 각각 바디 제스처를 1회씩 인식하게 될 경우 붉은색, 파란색, 초록색 순서로 1번씩 변경하거나 별모양, 이중 밑줄선, 체크 모양 순서로 1번씩 변경한다.
손 모양 정보는 인식하여 손가락의 개수에 따라 1~4개는 포인터 모양의 크기를 변경하고, 다섯 손가락을 모두 편 상태의 경우에는 손바닥의 이동 궤적에 따라 설정된 포인터의 색깔과 모양을 적용한 포인터를 발표 자료 프로젝터에 표출하여 준다.
발표자가 발표 도중 위치를 이동할 경우 위치 정보를 추적하며 카메라 각도를 회전함으로써 놓침 없이 발표자 영상을 획득하고 위의 제스처 인식을 수행한다.
다음으로, 스마트제어부에서 제스처인식용 웹카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨 후, 추출시킨 제스처영역에다가 기준제스처모델과 비교·분석하여 특정 제스처를 인식시켜 모션인터랙션용 디스플레이부의 구동을 제어시킨다.
끝으로, 모션인터랙션용 디스플레이부가 스마트제어부의 제어신호에 따라 구동되어, 발표자의 제스처 인식에 따라 화면 상에서 액션이벤트 또는 미디어컨텐츠연동을 수행시킨다.
1 : 행사 실시간 스트리밍 방송 시스템
100 : 다채널 360도 카메라부
200 : 모션인터랙션용 디스플레이부
300 : 제스처인식용 웹카메라부
400 : 스마트제어부

Claims (5)

  1. 세미나, 학회로 이루어진 발표 장소 일측에 다채널로 설치되어, 발표 현장의 360도 전반적인 영상을 촬영시켜 영상을 획득시킨 후, 스마트제어부로 전달시키는 다채널 360도 카메라부(100)와,
    스마트 제어부의 제어신호에 따라 구동되어, 발표자료내용을 표출시키다가, 발표자의 제스처 인식에 따라 화면 상에서 액션이벤트 또는 미디어컨텐츠연동을 수행시키는 모션인터랙션용 디스플레이부(200)와,
    모션인터랙션용 디스플레이부 및 특정 디스플레이 기기 일측에 위치되어, 사람의 움직임에 따른 제스처이미지를 획득시키는 제스처인식용 웹카메라부(300)와,
    다채널 360도 카메라부에서 촬영된 360도 영상데이터를 채널별로 모아서 하나의 360도 현장영상데이터를 생성시킨 후, 실시간(Live) 또는 녹화된 VOD 형태로 발표 장소 참석자들의 스마트 디바이스 또는 원격지의 PC로 전송시키도록 제어하면서, 제스처인식용 웹카메라부로부터 획득한 제스처이미지에서 배경영역을 제외한 제스처영역만을 추출시킨 후, 추출시킨 제스처영역에다가 기준제스처모델과 비교·분석하여 특정 제스처를 인식시켜 모션인터랙션용 디스플레이부의 구동을 제어시키는 스마트제어부(400)로 구성되는 행사 실시간 스트리밍 방송 시스템에 있어서,
    상기 스마트제어부(400)는
    제스처인식용 웹카메라부로부터 획득한 제스처이미지에서 미리 설정된 RGB 히스토그램을 이용하여 배경영역을 제외한 제스처영역만을 추출시키는 제스처영역추출부(410)와,
    제스처영역추출부에서 추출된 제스처 영역에서 색상정보를 이용하여 HSV 히스토그램을 생성시키는 HSV 히스토그램생성부(420)와,
    사람의 움직임에 따른 제스처패턴을 DB화시켜 기준제스처모델로 미리 설정시키는 기준제스처모델링설정부(430)와,
    추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시킨 후, 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하여 특정 제스처가 어디에 매칭되는지를 인식시키는 스마트제스처인식부(440)와,
    스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 액션이벤트를 불러와서 모션인터랙션용 디스플레이부쪽으로 액션이벤트제어신호를 출력시키는 액션이벤트제어부(450)와,
    스마트제스처인식부에서 인식된 특정 제스처를 기준으로, 특정 제스처에 맞게 미리 설정된 실감미디어컨텐츠를 인터페이스시켜 모션인터랙션용 디스플레이부쪽에 특정 제스처에 따른 실감미디어컨텐츠를 표출시키는 실감미디어컨텐츠인터페이스부(460)로 구성되는 것을 특징으로 하는 행사 실시간 스트리밍 방송 시스템.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 스마트제스처인식부(440)는
    추출시킨 제스처영역을 정적 제스처 영역 또는 동적 제스처 영역으로 세분화하여 분류시키는 제스처분류부(441)와,
    제스처분류부를 통해 분류시킨 정적 제스처 영역 및 동적 제스처 영역에다가 기준제스처모델과 비교·분석하는 제스처비교분석부(442)와,
    제스처비교분석부에서 비교분석된 특정 제스처를 기준으로 어떠한 제스처 유형인지를 매칭하여 인식시키는 제스처인식부(443)로 구성되는 것을 특징으로 하는 행사 실시간 스트리밍 방송 시스템.
  5. 제1항에 있어서, 상기 실감미디어컨텐츠인터페이스부(460)는
    몸의 움직임을 이용해 디스플레이 기능을 갖는 모션인터랙션용 디스플레이부쪽에 실감미디어컨텐츠를 인터페이스시켜 표출시키는 제스처유저인터페이스(Gestural User Interface)(461)로 구성되는 것을 특징으로 하는 행사 실시간 스트리밍 방송 시스템.
KR1020170166304A 2017-12-06 2017-12-06 행사 실시간 스트리밍 방송 시스템 KR102034277B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170166304A KR102034277B1 (ko) 2017-12-06 2017-12-06 행사 실시간 스트리밍 방송 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170166304A KR102034277B1 (ko) 2017-12-06 2017-12-06 행사 실시간 스트리밍 방송 시스템

Publications (2)

Publication Number Publication Date
KR20190066660A KR20190066660A (ko) 2019-06-14
KR102034277B1 true KR102034277B1 (ko) 2019-10-18

Family

ID=66846349

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170166304A KR102034277B1 (ko) 2017-12-06 2017-12-06 행사 실시간 스트리밍 방송 시스템

Country Status (1)

Country Link
KR (1) KR102034277B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191403A (zh) * 2021-04-16 2021-07-30 上海戏剧学院 一种剧场动态海报的生成与展示系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101693951B1 (ko) * 2011-12-05 2017-01-06 알까뗄 루슨트 제스처 인식 방법 및 제스처 검출기

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101114989B1 (ko) 2010-11-11 2012-03-06 (주)유비쿼터스통신 전자발찌 감응형 cctv용 카메라를 이용한 성폭력범죄자 감시 시스템
KR101350996B1 (ko) * 2012-06-11 2014-01-13 재단법인 실감교류인체감응솔루션연구단 아이콘텍이 가능한 3차원 원격회의 장치 및 이를 이용한 방법
KR101564259B1 (ko) * 2014-03-21 2015-10-29 숭실대학교산학협력단 비접촉 방식의 인터페이스를 제공하는 이동 단말 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101693951B1 (ko) * 2011-12-05 2017-01-06 알까뗄 루슨트 제스처 인식 방법 및 제스처 검출기

Also Published As

Publication number Publication date
KR20190066660A (ko) 2019-06-14

Similar Documents

Publication Publication Date Title
US11488363B2 (en) Augmented reality conferencing system and method
US11736756B2 (en) Producing realistic body movement using body images
CN112243583B (zh) 多端点混合现实会议
CN104777991B (zh) 一种基于手机的远程互动投影系统
WO2015192631A1 (zh) 视频会议系统及方法
US8902280B2 (en) Communicating visual representations in virtual collaboration systems
US11443560B1 (en) View layout configuration for increasing eye contact in video communications
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
WO2022227393A1 (zh) 图像拍摄方法及装置、电子设备和计算机可读存储介质
US20180307754A1 (en) Presenter/viewer role swapping during zui performance with video background
CN112862859A (zh) 一种人脸特征值创建方法、人物锁定追踪方法及显示设备
CN110168630A (zh) 增强视频现实
CN113315927B (zh) 视频处理方法和装置、电子设备和存储介质
KR102034277B1 (ko) 행사 실시간 스트리밍 방송 시스템
CN108320331B (zh) 一种生成用户场景的增强现实视频信息的方法与设备
Gao et al. Real-time visual representations for mixed reality remote collaboration
US20230043683A1 (en) Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
CN209748700U (zh) 一种异地视频会议系统
CN115086594A (zh) 虚拟会议处理方法、装置、设备和存储介质
WO2022151687A1 (zh) 合影图像生成方法、装置、设备、存储介质、计算机程序及产品
CN114915852B (zh) 视频通话交互方法、装置、计算机设备和存储介质
US20230334790A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20240185546A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US11756302B1 (en) Managing presentation of subject-based segmented video feed on a receiving device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant