KR20210000170A - 브레인 브이알 시스템 - Google Patents

브레인 브이알 시스템 Download PDF

Info

Publication number
KR20210000170A
KR20210000170A KR1020190075148A KR20190075148A KR20210000170A KR 20210000170 A KR20210000170 A KR 20210000170A KR 1020190075148 A KR1020190075148 A KR 1020190075148A KR 20190075148 A KR20190075148 A KR 20190075148A KR 20210000170 A KR20210000170 A KR 20210000170A
Authority
KR
South Korea
Prior art keywords
brain
ability
processor
content
area
Prior art date
Application number
KR1020190075148A
Other languages
English (en)
Other versions
KR102281232B1 (ko
Inventor
이용국
이교석
차우람
Original Assignee
주식회사 디지믹스
(주)세이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디지믹스, (주)세이 filed Critical 주식회사 디지믹스
Priority to KR1020190075148A priority Critical patent/KR102281232B1/ko
Publication of KR20210000170A publication Critical patent/KR20210000170A/ko
Application granted granted Critical
Publication of KR102281232B1 publication Critical patent/KR102281232B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

브레인 브이알 시스템이 개시된다. 본 시스템은 소정 영역 상에 배치되고 하나 이상의 오브젝트를 촬영하는 하나 이상의 카메라를 구비한 입력부 및 카메라에 의해 촬영된 오브젝트를 인식하고, 뇌교육 콘텐츠 영상을 선택하여 소정 영역 상에 제공하는 프로세서를 포함하며, 프로세서는 선택된 뇌교육 콘텐츠 영상이 요구하는 상황에 관련된 오브젝트의 수행 정도에 기초하여, 오브젝트의 운동 능력 및 뇌 능력에 관한 레벨을 산출한다. 이에 따라, 뇌발달에 도움이 되는 운동이 활발하게 수행될 수 있다.

Description

브레인 브이알 시스템{BRAIN VIRTUAL REALITY SYSTEM}
본 발명은 브레인 브이알 시스템에 관한 것으로 더 상세하게는 바디 활동을 통해 브레인 능력을 향상시키는 브레인 브이알 시스템에 관한 것이다.
4차 산업 혁명 세대에서 학습을 보다 효과적으로 하는 방법이 다양하게 제시되고 있으며, 피학습자가 학습에 흥미를 느끼게 하는 것이 가장 중요한 당면 과제라 할 것이다.
이에 뇌발달을 위한 교육을 보다 효과적으로 수행하는 방법이 필요하다고 할 것이다.
한편, 상기와 같은 정보는 본 발명의 이해를 돕기 위한 백그라운드(background) 정보로서만 제시될 뿐이다. 상기 내용 중 어느 것이라도 본 발명에 관한 종래 기술로서 적용 가능할지 여부에 관해, 어떤 결정도 이루어지지 않았고, 또한 어떤 주장도 이루어지지 않는다.
공개특허공보 10-2015-0101343호(공개일: 2015.9.3)
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명이 해결하고자하는 일 과제는 신체 활동을 동반한 뇌교육 컨텐츠를 제공하는 브레인 브이알 시스템을 제공하는 것이다.
또한, 본 발명의 다른 과제는 피학습자의 운동 능력 및 뇌 능력을 향상시키는 브레인 브이알 시스템을 제공하는 것이다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기한 과제를 실현하기 위한 본 발명의 일 실시 예와 관련된 브레인 브이알 시스템은 소정 영역 상에 배치되고 하나 이상의 오브젝트를 촬영하는 하나 이상의 카메라를 구비한 입력부; 및 상기 카메라에 의해 촬영된 오브젝트를 인식하고, 뇌교육 콘텐츠 영상을 선택하여 상기 소정 영역 상에 제공하는 프로세서를 포함하며, 상기 프로세서는, 선택된 뇌교육 콘텐츠 영상이 요구하는 상황에 관련된 상기 오브젝트의 수행 정도에 기초하여, 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 레벨을 산출할 수 있다.
상기 브레인 브이알 시스템은 오브젝트 인식부를 더 포함하며, 하나 이상의 상기 카메라는 상기 소정 영역의 상부에 위치하며, 상기 프로세서는, 상기 오브젝트가 사람인 경우, 상기 오브젝트의 머리, 어깨, 손의 활동범위에 대해 비트연산을 통해 객체를 추출하고, 추출된 객체를 백색으로 분리하며 분리된 객체의 신체부위마다 외곽선을 추출하며, 추출된 외곽선마다의 최외각 상하좌우의 포인트에 대해 머리를 중심으로 로우 데이터(Raw data) 좌표를 추출하고, 어깨의 양끝 좌표를 추출하며, 손이 향하는 방향을 기준으로 상하좌우를 판단하여 양 손끝을 추출하도록 상기 오브젝트 인식부를 제어할 수 있다.
상기 소정 영역은 복수의 구분 영역으로 구분되고, 상기 복수의 구분 영역 각각에 서로 다른 뇌교육 콘텐츠 영상이 표시가능하며, 상기 프로세서는, 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 상기 레벨에 기초하여, 상기 오브젝트가 배치된 구분 영역에 상기 오브젝트의 능력에 대응되는 뇌교육 콘텐츠 영상을 표시하며, 상기 오브젝트가 이동할 다음 구분 영역을 상기 오브젝트에게 가이드하도록 상기 입력부를 제어할 수 있다.
상기 프로세서는, 상기 오브젝트가 배치된 구분 영역에서의 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 수행 정도에 기초하여, 상기 오브젝트가 이동할 다음 구분 영역에서의 운동 강도 및 콘텐츠 난이도를 결정할 수 있다.
상기 프로세서는, 상기 오브젝트의 뇌 부분 영역 각각을 발달시키는 뇌교육 콘텐츠 영상을 상기 오브젝트가 위치하는 구분 영역에서 서로 다르게 표시할 수 있다.
상기 브레인 브이알 시스템은 외부 시스템과 통신하는 통신부를 더 포함하며,
상기 프로세서는, 상기 오브젝트의 운동 능력 및 뇌 능력에 관련된 레벨 상승 정보 또는 건강 상태에 관한 정보를 상기 통신부를 통해 상기 외부 시스템에 공유할 수 있다.
상기 브레인 브이알 시스템은 디스플레이를 더 포함하며, 상기 프로세서는, 상기 오브젝트의 운동 능력 및 뇌 능력의 발달 추이에 관한 정보를 소정 주기로 상기 디스플레이에 표시할 수 있다.
상기 브레인 브이알 시스템은 상기 오브젝트의 운동 능력 및 뇌 능력에 기초하여, 상기 오브젝트의 질병 또는 건강에 대한 처방 프로세스를 수행하며, 상기 처방 프로세스에 기초하여 처방 콘텐츠를 상기 디스플레이에 표시할 수 있다.
본 발명에서 이루고자 하는 기술적 과제들의 해결 수단은 이상에서 언급한 해결 수단들로 제한되지 않으며, 언급하지 않은 또 다른 해결 수단들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 다양한 실시예에 따르면 운동 능력을 향상시키면서 뇌 능력을 향상시키는 시스템이 제공될 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 브레인 브이알 시스템이 적용되는 환경을 개략적으로 설명하기 위한 도면,
도 2는 본 발명의 일 실시 예에 따른 브레인 브이알 시스템의 구성을 나타내는 블록도,
도 3 및 도 4는 본 발명의 일 실시 예에 따른 하나의 오브젝트 인식부를 이용하여 오브젝트를 인식하는 방법을 나타내는 도면들,
도 5 및 도 6은 본 발명의 일 실시 예에 따른 복수의 구분 영역에서 오브젝트에 맞춤형으로 콘텐츠를 제공하는 것을 설명하기 위한 도면들,
도 7은 본 발명의 일 실시 예에 따른 외부 기기와 통신하는 브레인 브이알 시스템을 설명하기 위한 도면, 그리고,
도 8은 본 발명의 일 실시 예에 따른 다양한 뇌교육 콘텐츠를 오브젝트 맞춤형으로 제공하는 브레인 브이알 시스템을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시 예에 따른 브레인 브이알 시스템(100)이 적용되는 환경을 개략적으로 설명하기 위한 도면이다.
브레인 브이알 시스템(100)은 소정 공간(PLACE)을 구비할 수 있다. 상기 소정 공간(PLACE)은 유저(USER)가 운동할 수 있도록 소정 공간(PLACE)의 일 영역(가령, 저면, 또는 측면 등)에 운동 능력 또는 뇌 능력을 향상시킬 수 있는 컨텐츠를 표시할 수 있다.
유저(USER)는 제공되는 컨텐츠(가령, 게임, 퀴즈 등)가 요구하는 입력, 모션 등을 함으로써 수행 점수를 획득할 수 있다. 수행 점수가 기 설정된 임계값을 넘는 경우 해당 컨텐츠가 요구하는 것을 수행한 것으로 평가받을 수 있다.
브레인 브이알 시스템(100)은 소정 공간(PLACE)의 상부에 배치될 수 있으며, 콘텐츠를 상기 소정 공간에 표시하는 콘텐츠 표시 모듈을 포함할 수 있으며, 상기 콘텐츠 표시 모듈은 빔 프로젝터나 디스플레이로 구현될 수 있다. 상기 콘텐츠 표시 모듈은 복수로 하여 구현될 수 있다.
상기 브레인 브이알 시스템(100)은 카메라(121)를 구비하여 유저(USER)가 사람인지 여부를 인식하기 위해 유저(USER)를 촬영할 수 있다. 브레인 브이알 시스템(100)은 유저(USER)를 딥러닝 알고리즘을 이용하여 기 저장된 인체 정보에 기초하여 유저(USER)가 사람임을 인식할 수 있다.
이하에서는, 도 2를 참고하여 브레인 브이알 시스템(100)의 구성을 살펴보고자 한다. 도면 부호는 도 1 및 후술할 도면들을 함께 참고하여 설명하기로 한다.
브레인 브이알 시스템(100)은 소정 공간(PLACE)에 배치되어 소정 공간(PLACE)의 오브젝트들을 인식하며, 오브젝트가 운동할 수 있도록 운동 콘텐츠를 제공할 수 있으며, 오브젝트의 뇌 발달을 향상시키는 뇌교육 콘텐츠를 오브젝트에 제공할 수 있다.
브레인 브이알 시스템(100)은 통신부(110), 입력부(120), 오브젝트 인식부(130), 출력부(140), 콘텐츠 스토리지(150) 및 프로세서(190)를 포함한다. 도 2에 도시된 구성요소들은 브레인 브이알 시스템(100)을 구현하는데 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 브레인 브이알 시스템(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
우선, 통신부(110)는 이동 통신 모듈을 포함할 수 있다. 여기서, 이동 통신 모듈은 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등) 및 5G(Generation) 통신에 따라 구축된 이동 통신망 상에서 기지국 및 외부의 단말 중 적어도 하나와 무선 신호를 송수신한다.
또한, 통신부(110)는 근거리 통신 모듈을 포함할 수 있다. 여기서, 근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여 근거리 통신을 수행할 수 있다.
입력부(120)는 소정 영역(PLACE)에 배치되고 하나 이상의 오브젝트를 촬영하는 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있는데,. 카메라(121)는 복수 개로 구현될 수 있다.
오브젝트 인식부(130)는 프로세서(190)의 제어를 받으며, 오브젝트(130)가 사람인지 동물인지 등을 인식할 수 있다. 오브젝트 인식부(130)는 신경망 알고리즘을 탑재하여 오브젝트를 인식할 수 있다. 특히, 오브젝트 인식부(130)는 딥러닝 알고리즘을 이용하여 오브젝트를 인식할 수 있다.
구체적으로, 오브젝트 인식부(130)는 오브젝트가 사람인 경우, 상기 오브젝트의 머리, 어깨, 손의 활동범위에 대해 비트연산을 통해 객체를 추출할 수 있다. 오브젝트 인식부(130)는 추출된 객체를 백색으로 분리하며 분리된 객체의 신체부위마다 외곽선을 추출하며, 추출된 외곽선마다의 최외각 상하좌우의 포인트에 대해 머리를 중심으로 로우 데이터(Raw data) 좌표를 추출할 수 있다.
또한, 프로세서(190)는 오브젝트 인식부(130)를 제어하여 어깨의 양끝 좌표를 추출하며, 손이 향하는 방향을 기준으로 상하좌우를 판단하여 양 손끝을 추출할 수 있다.
또한, 브레인 브이알 시스템(100)은 오브젝트 인식부(130)를 통해 오브젝트(예를 들면, 체험 콘텐츠의 서비스를 제공받는 사용자)를 인식하고 인식된 오브젝트를 공간 좌표(가령, 선형 XYZ 좌표)로 변환하고 콘텐츠의 공간 좌표와 동기화한 후, 콘텐츠 표시 모듈(141)을 통해 동기화된 체험 콘텐츠를 제공할 수 있으나, 실시 예는 상기 예에 국한되지는 않는다.
상기 브레인 브이알 시스템(100)은 복수 개의 오브젝트 인식부(130)를 포함할 수 있으며, 복수의 오브젝트 인식부(130)은 오브젝트의 상부면(예를 들면, 천정)에 배치되어 오브젝트를 인식할 수 있다. 복수 개의 오브젝트 인식부(130) 각각은 서로 인식 정보를 공유하고, 외부 서버(미도시)와 통신할 수 있으나, 실시 예는 이에 국한되지 않는다.
여기서, 복수의 오브젝트 인식부(130)는 소정 공간에 배치된 오브젝트를 인식할 수 있다. 소정 공간은 복수의 구분 영역으로 가상적으로 구분될 수 있으며, 구분 영역마다 오브젝트 인식부 하나가 대응될 수 있다. 즉, 특정 구분 영역에 오브젝트가 위치하는 경우, 특정 구분 영역을 인식하는 오브젝트 인식부가 오브젝트를 인식할 수 있다.
다만, 상기의 구분 영역은 중첩하도록 배치될 수 있다. 만약, 구분 영역이 중첩되도록 구현되는 경우, 오브젝트 인식부들은 오브젝트를 인식하는데 있어 가장 최적화된 간격으로 배치될 수 있다. 가령, 오브젝트 인식부들이 카메라를 포함하는 경우, 카메라가 오브젝트를 인식하는 거리에 기초하여 오브젝트 인식부들이 배치되도록 구현될 수 있다. 또한, 하나의 구분 영역에 위치한 오브젝트를 다수의 오브젝트 인식부가 인식하도록 구현될 수 있으나, 실시 예는 이에 국한되지 않는다.
출력부(140)는 콘텐츠를 소정 공간의 일 영역에 표시하는 콘텐츠 표시 모듈(141)을 포함할 수 있다.
콘텐츠 스토리지(200)는 운동 능력 또는 뇌 능력을 향상시킬 수 있는 콘텐츠를 저장할 수 있다. 콘텐츠 스토리지(200)는 콘텐츠가 디스플레이될 공간 좌표정보, 체험 콘텐츠의 속성 정보 등을 저장할 수 있다. 콘텐츠 스토리지(200)는 동기화 서버(미도시) 또는 후술할 프로세서(190)에 콘텐츠의 정보(좌표 정보, 표시 정보 등) 및 오브젝트 인식부(130)에 의해 인식된 오브젝트의 속성 및 거동 정보(움직임 속도 정보, 공간 좌표 정보 등)를 제공할 수 있다.
콘텐츠 스토리지(150)는 다양한 뇌교육 콘텐츠를 저장할 수 있다.
구체적으로 콘텐츠 스토리지(150)는 청각, 시각과 종합적인 사고를 통한 빠른 움직임을 통해 뇌 영역의 회백질과 백질, 전두엽의 발달시킬 수 있는 BFB(Brain Fusion Plus) 콘텐츠를 저장할 수 있다. 또한, 콘텐츠 스토리지(150)는 영어의 친숙함과 융합적 판단, 청각, 시각과 종합적인 사고를 통한 빠른 움직임을 통해 뇌 영역의 회백질과 백질, 전두엽의 발달시킬 수 있는 BFE(Brain Fusion English) 콘텐츠를 저장할 수 있다.
또한, 콘텐츠 스토리지(150)는 수학의 친숙함과 융합적 판단 뇌 영역의 시냅스의 발달과 회백질, 백질, 전두엽의 발달을 돕는 BFM(Brain Fusion Math) 콘텐츠를 저장할 수 있으며, 콘텐츠 스토리지(150)는 최고의 속도와 최고의 판단력을 동원하여 뇌의 기억력 영역의 확장과 빠른 판단력을 향상시키는 BAI(Brain Artificial Intelligence) 콘텐츠를 저장할 수 있다.
또한, 콘텐츠 스토리지(150)는 사이드의 움직임, 대각선의 움직임, 고유 수용성 움직임을 동원하여 근골격의 바른 성장과 뇌세포를 자극시킬 수 있는 BAS(Brain Activity Speed) 콘텐츠를 저장할 수 있으며, 콘텐츠 스토리지(150)는 스포츠맨쉽과 사회성 발달 전문 프로그램을 포함하는 BF(Brain Football) 콘텐츠를 저장할 수 있다.
또한, 콘텐츠 스토리지(150)는 색과 과일의 커팅을 통한 스트레스 매니지먼트를 통해 학습량이 많은 아이들의 뇌영역을 관리할 수 있는 BC(Brain Color) 콘텐츠를 저장할 수 있으며, 콘텐츠 스토리지(150)는 움직임을 통한 자신감 극복과 시작의 두려움을 극복시킬 수 있는 BCP(Brain Courage Power) 콘텐츠를 저장할 수 있다.
프로세서(190)는 브레인 브이알 시스템(100)을 전반적으로 제어하는 모듈에 해당된다. 프로세서(190)는 카메라(121)에 의해 촬영된 오브젝트를 인식하고, 뇌교육 콘텐츠 영상을 선택하여 소정 영역 상에 제공할 수 있다.
프로세서(190)는 선택된 뇌교육 콘텐츠 영상이 요구하는 상황에 관련된 오브젝트의 수행 정도에 기초하여, 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 레벨을 산출할 수 있다.
프로세서(190)는 산출된 능력이 해당 콘텐츠가 다음 레벨로 진입할 수 있는 소정의 점수를 오브젝트가 취득한 경우, 이에 대응되는 운동 능력 및 뇌 능력에 대한 레벨을 산출할 수 있다.
프로세서(190)는 오브젝트 각각이 성취한 레벨에 기초하여, 추후 콘텐츠 제공시 더 높은 레벨의 콘텐츠를 오브젝트에 제공할 수 있으며, 오브젝트의 뇌의 각 부위(전두엽, 회백질, 밸질 등)를 발전시키기 위한 콘텐츠를 오브젝트의 성취 여부에 대응되는 레벨에 따라 점진적으로 오브젝트에 제공할 수 있다.
프로세서(190)는 오브젝트 좌표 변환부(191), 오브젝트/콘텐츠 동기화부(193) 등을 포함할 수 있다.
오브젝트 좌표 변환부(191)는 인식된 오브젝트를 삼차원 공간의 좌표(선행 XYZ 좌표)로 변환할 수 있다. 상기 오브젝트 좌표 변환부(191)는 오브젝트 인식부에 포함될 수도 있으나, 실시 예는 이에 국한되지 않는다.
오브젝트 좌표 변환부(191)는 인식된 오브젝트의 좌표 정보를 실시간으로 체험 콘텐츠 스토리지(150)에 저장할 수 있고, 직접 콘텐츠 정보를 오브젝트/체험 콘텐츠 동기화부(193)에 제공할 수 있다.
오브젝트/콘텐츠 동기화부(193)는 콘텐츠 영상에 오브젝트가 특정 거동을 한 경우(가령, 모래성을 표시하는 콘텐츠 영상에 사용자가 모래를 쌓는 동작을 수행), 콘텐츠 영상이 사용자의 거동에 의해 변경될 수 있도록 콘텐츠 영상을 변경할 수 있다.
이하에서는 하나의 오브젝트 인식부(130)를 통해 오브젝트를 인식하는 방법을 도 3 및 도 4를 참고하여 설명하기로 한다.
도 3를 참고하면 오브젝트 인식부(130)는 사용자(u)의 상부면에 배치(Top-View)된다. 오브젝트 인식부(130)는 인식 가능한 영역에서 사용자(u)의 헤드부분(210), 양 어깨의 끝부분(220a, 220b) 및 양손등(230a, 230b)를 인식하고 소정의 시간 동안 인식된 부분(210, 220a, 220b, 230a, 230b)를 트래킹할 수 있다. 이에 관한 구동 순서를 도 4를 참고하여 설명한다.
먼저, 브레인 브이알 시스템(100)은 오브젝트 인식부(130)를 통해 깊이 영상을 입력받는다(S310).
오브젝트 인식부(130)는 깊이(depth) 센서 또는 RGB 센서를 구비하여 오브젝트를 3차원적으로 인식할 수 있다. 오브젝트 인식부(130)는 소정의 시간 동안 연속적으로 오브젝트를 추적할 수 있다.
브레인 브이알 시스템(100)은 입력된 영상에서 배경을 제거하고 오브젝트만 추출한다(S320).
프로세서(190)은 타겟 오브젝트(u)가 사람인 경우, 상기 타겟 오브젝트의 머리 어깨, 손의 활동 범위에 대해 비트연산을 통해 객체를 추출할 수 있다. 즉, 프로세서(190)는 오브젝트 인식부(130)을 통해 인식되는 신체 부위가 움직일 때, 외부를 0 내부를 1로 설정(실시 예는 이에 한정되지 않음)하여 객체를 추출할 수 있다. 프로세서(190)는 추출된 객체를 백색(흰색)을 이용하여 분리할 수 있다.
그 다음으로, 브레인 브이알 시스템(100)은 오브젝트의 부위 별 외곽선을 추출한다(S330).
프로세서(190)는 분리된 객체의 신체부위마다 외곽선을 추출하며, 추출된 외곽선마다의 최외각 상하좌우의 포인트를 설정할 수 있다
그 후에 브레인 브이알 시스템(100)은 외곽선의 상/하/좌/우 포인트를 추출한다(S340).
그런 다음, 브레인 브이알 시스템(100)은 오브젝트가 사람인 경우 머리, 어깨, 손등의 좌표를 추출한다(S350).
마지막으로 브레인 브이알 시스템(100)은 좌표에 기초한 뼈대인 스켈레톤의 raw data를 생성한다(S360).
즉, 프로세서(190)는 추출된 외곽선마다의 최외각 상하좌우의 포인트에 대해 머리를 중심으로 Raw data 좌표를 추출하고, 어깨의 양끝 좌표를 추출하며, 손이 향하는 방향을 기준으로 상하좌우를 판단하여 양 손끝을 추출할 수 있다. 상기의 추출은 하나의 스테레오 카메라로 수행될 수 있다.
한편, 이하에서는 도 5 및 도 6을 참고하여, 본 발명의 일 실시 예에 따른 복수의 구분 영역에서 오브젝트(u)에 맞춤형으로 콘텐츠를 제공하는 것을 설명하기로 한다.
소정 공간(PLACE)은 제1(300a) 내지 제6(300f)의 영역으로 구분될 수 있다. 6개의 구분 영역(300a~300f) 각각은 복수의 오브젝트 인식부(130a~130f) 각각과 일대일로 대응될 수 있으나, 하나의 영역이 복수의 오브젝트 인식부에 의해 대응될 수도 있다.
소정 공간(PLACE)의 각 구분 영역(300a~300f)에는 “A”(600a~600f)라는 콘텐츠 영상이 표시될 수 있다. 상기 콘텐츠 영상(600a~600f)은 프로젝터에 의해 투사되는 영상일 수 있다. “A”(600a~600f) 콘텐츠 영상은 연속성을 갖는 콘텐츠로 제1 영역(300a)의 “A” 영상은 제2 영역 등(300b~300f)의 영상과 차이가 있을 수 있다.
상기 “A”(600a~600f) 콘텐츠 영상은 신체활동을 통한 뇌교육 콘텐츠 영상일 수 있다. 상기 프로세서(190)는 오브젝트(u)의 운동 능력 및 뇌 능력에 관한 레벨을 평가할 수 있다. 프로세서(190)는 평가된 레벨에 기초하여 오브젝트(u)가 배치된 구분 영역에 상기 오브젝트의 능력에 대응되는 뇌교육 콘텐츠 영상을 표시하며, 상기 오브젝트가 이동할 다음 구분 영역을 상기 오브젝트에게 가이드하도록 상기 입력부를 제어할 수 있다.
즉, 프로세서(190)는 오브젝트(u)가 제1 구분 영역(300a), 제2 구분 영역(300b), 제5 구분 영역(300e)로 이동할지 카메라(121)를 통해 영상 투사 또는 빛 투사, 스피커를 통해 소리 출력 등을 수행하여 오브젝트(u)를 다음 구분 영역으로 이동시킬 수 있다.
다만, 프로세서(190)는 오브젝트(u)가 이동할 가능성이 있는 영역에는 오브젝트(u)의 현재 레벨 또는 다음 레벨에 대응되는 영상을 동시에 표시할 수 있다. 이에 따라, 콘텐츠의 영상이 연속적으로 표시될 수 있다.
프로세서(190)는 오브젝트(u)가 배치된 구분 영역(도 5의 300f)에서의 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 수행 정도에 기초하여, 상기 오브젝트(u)가 이동할 다음 구분 영역(300b)에서의 운동 강도 및 콘텐츠 난이도를 결정할 수 있다.
특히, 프로세서(190)는 뇌 영역으로 고른 발달을 위해 뇌 부분 영역 각각을 발달시키는 뇌교육 콘텐츠 영상을 구분 영역 각각에 다르게 표시할 수 있다.
또한, 제 6의 영역(300f)에 위치한 오브젝트(u)는 제6 오브젝트 인식부(100f)에 의해 인식될 수 있다. 제6 오브젝트 인식부(100f)는 오브젝트(u)의 움직임을 인식하여 공간좌표로 오브젝트(u)의 움직임을 나타내어 프로세서(190)에 제공할 수 있다. 프로세서(190)는 현재 제공되는 “A”영상에 오브젝트(u)의 움직임을 반영하여 콘텐츠 영상을 구분 영역에 제공할 수 있다.
한편, 제6 영역(300f)에 인접한 제1 영역(300a), 제2 영역(300b), 제5 영역(300e)에 배치된 복수의 오브젝트 인식부(100a, 100b, 100e)는 오브젝트(u)의 안면을 인식(실시 예가 이에 국한되는 것은 아님)하여 오브젝트(u)가 누군지 식별할 수 있다.
이때, 프로세서(190)는 식별된 오브젝트(u)가 이전에 이용했던 콘텐츠 영상 및 선호도 등을 고려하여 콘텐츠 영상을 교체하거나 다양한 조치를 수행할 수 있다. 만약, 오브젝트(u)가 이전에 총 7 시리즈의 3 시리즈에 해당되는 콘텐츠 영상을 이용하였다면 3 시리즈에 이은 4 시리즈의 콘텐츠 영상을 오브젝트(u)에 제공할 수 있고, 프로세서(190)는 오브젝트(u)가 선호하는 게임, 영상 등을 선택하도록 가이드할 수 있다. 프로세서(190)는 오브젝트(u)가 이전에 이용한 콘텐츠 영상 정보를 콘텐츠 스토리지(150)에 저장할 수 있다.
또한, 프로세서(190)는 식별된 오브젝트(u)의 반응도를 고려하여 콘텐츠 영상을 구분 영역 상에 제공할 수 있으나, 실시 예는 이에 국한되지 않는다.
도 6에 따르면, 오브젝트(u)가 제6영역(300f)에서 제2 영역(300b)으로 이동한다.
프로세서(190)는 제6 영역(300f) 상에서 오브젝트(u)의 속성 및 거동 등을 모니터링하고, 제2 영역(300b)에서 이를 반영한 콘텐츠 영상을 제공할 수 있다. 가령, 제어 모듈(400)은 제2 영역(300b)에 “B”(600b) 영상을 제공할 수 있다. 제어 모듈(400)은 제6 영역(300f)에서 오브젝트(u)의 나이(가령, 입력된 나이 또는 식별된 나이), 성별(가령, 입력된 성별 또는 식별된 성별), 움직임 속도 및 보폭 중 적어도 하나에 기초하여 제2 영역(300b)에서 제공될 콘텐츠 영상을 제공할 수 있다.
이때, 프로세서(190)는 오브젝트(u)가 움직일만한 영역(300a, 300f, 300e)에 대해서도 “B”(600a, 600e, 600f)로 변경할 수 있다. 이는 오브젝트(u)가 위치했던 영역 및 앞으로 위치할 가능성이 높은 영역에 변경된 콘텐츠를 제공할 수 있다.
또한, 프로세서(190)는 복수의 오브젝트가 움직이는 경우, 복수의 오브젝트를 각각 분석하여 구분 영역에 포함된 오브젝트 속성 및 거동에 기초하여 콘텐츠 영상을 제공할 수 있다.
또한, 프로세서(190)는 오브젝트(u)가 움직일 때마다, 콘텐츠의 공간 좌표 및 오브젝트(u)의 공간 좌표를 실시간으로 동기화하고, 동기화된 공간 좌표가 반영된 콘텐츠 영상이 제공될 수 있게 한다.
또한, 프로세서(190)는 특정 구분 영역에서의 오브젝트(u) 이동 방향, 오브젝트(u) 이동 분포도 등을 고려하여 다른 구분 영역에서의 콘텐츠 영상을 제공할 수 있다.
또한, 프로세서(190)는 복수의 오브젝트들이 체험 영역 상에 배치된 경우, 복수의 오브젝트들의 군집 상태를 고려하여 콘텐츠 영상을 제공할 수 있다. 가령, 프로세서(190)는 군집도가 높은 구분 영역에서 제공하는 동일한 콘텐츠 영상을 군집도가 낮은 구분 영역에도 동일하게 제공하여, 복수의 오브젝트들이 분산될 수 있도록 가이드할 수 있다. 이때, 프로세서(190)는 오브젝트들이 이동할 수 있도록 소리(가령, 사용자 음성)를 제공할 수 있으나, 실시 예는 이에 국한되지 않는다.
아울러, 프로세서(190)는 콘텐츠 표시 모듈(141)의 일종인 디스플레이를 통해 오브젝트의 운동 능력 및 뇌 능력의 발달 추이에 관한 정보를 소정 주기로 상기 디스플레이에 표시할 수 있다.
또한, 프로세서(190)는 오브젝트의 측정된 운동 능력 및 뇌 능력에 기초하여 상기 오브젝트의 건강 및/또는 질병에 대한 처방 프로세스를 진행할 수 있으며, 처방 프로세스에 기초하여 처방 콘텐츠를 콘텐츠 표시 모듈(141)을 통해 표시할 수 있다.
예를 들면, 프로세서(190)는 콘텐츠 표시 모듈(141)을 이용하여 오브젝트의 건강 상태를 측정하고, 측정된 건강 상태에 대응되는 처방 콘텐츠를 표시할 수 있다.
또한, 상기 브레인 브이알 시스템(100)은 오브젝트가 착용할 수 있는 VR(Virtual Reality) 글래스를 착용하면, 오브젝트의 글래스 착용을 인식하고, 상기 오브젝트의 글래스로 오브젝트가 수행해야하거나 운동 능력을 향상시키고, 뇌 능력을 향상시킬 수 있는 콘텐츠를 VR 글래스로 전송할 수 있다.
이때, 브레인 브이알 시스템(100)은 상기 VR 글래스에 증강 현실 기능도 탑재하여 상기 오브젝트가 배치된 영역을 함께 이용할 수 있도록 제공할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 외부 기기와 통신하는 브레인 브이알 시스템을 설명하기 위한 도면이다.
브레인 브이알 시스템(100)은 외부 이동 단말(500) 및 외부 시스템(400)과 통신할 수 있다. 외부 이동 단말(500)은 오브젝트가 소지하는 단말일 수 있으며, 외부 시스템(400)은 병원 시스템일 수 있다.
먼저, 브레인 브이알 시스템(100)은 오브젝트의 운동 능력 및 뇌 능력에 관련된 레벨 상승 정보 또는 건강 상태에 관한 정보를 외부 이동 단말(500) 또는 외부 시스템(400)에 제공할 수 있다.
만약, 이동 단말(500)이 오브젝트가 소지한 단말인 경우, 브레인 브이알 시스템(100)은 현재 오브젝트의 운동 능력 및 뇌 능력의 발달 추이 정보, 훈련 시간 정보 등을 이동 단말(500)로 제공할 수 있으며, 이동 단말(500)은 해당 정보를 화면에 표시할 수 있다. 표시된 화면에는 통계적인 데이터가 표시될 수 있다.
또한, 브레인 브이알 시스템(100)은 외부 시스템(400)에 오브젝트의 운동 능력 및 뇌 능력에 대한 정보를 전송할 수 있으며, 외부 시스템(400)은 오브젝트에 필요한 건강 진단, 운동 처방 등을 오브젝트에 제공할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 다양한 뇌교육 콘텐츠를 오브젝트 맞춤형으로 제공하는 브레인 브이알 시스템(100)을 설명하기 위한 도면이다.
브레인 브이알 시스템(100)은 BFP(810), BFM(820), BAS(830), BC(840), BFE(850), BAI(860), BF(870) 및 BCP(880) 등을 소정 공간(PLACE)에 구분하여 표시할 수 있다. 이에 따라, 오브젝트의 다양한 뇌 영역들이 전반적으로 발달될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 상기 컴퓨터는 브레인 브이알 시스템(100)의 프로세서(190)를을 포함할 수도 있다.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.

Claims (7)

  1. 브레인 브이알 시스템(Brain VR System)으로서,
    소정 영역 상에 배치되고 하나 이상의 오브젝트를 촬영하는 하나 이상의 카메라를 구비한 입력부; 및
    상기 카메라에 의해 촬영된 오브젝트를 인식하고, 뇌교육 콘텐츠 영상을 선택하여 상기 소정 영역 상에 제공하는 프로세서를 포함하며,
    상기 프로세서는,
    선택된 뇌교육 콘텐츠 영상이 요구하는 상황에 관련된 상기 오브젝트의 수행 정도에 기초하여, 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 레벨을 산출하는, 브레인 브이알 시스템.
  2. 제1항에 있어서,
    오브젝트 인식부를 더 포함하며,
    하나 이상의 상기 카메라는 상기 소정 영역의 상부에 위치하며,
    상기 프로세서는,
    상기 오브젝트가 사람인 경우, 상기 오브젝트의 머리, 어깨, 손의 활동범위에 대해 비트연산을 통해 객체를 추출하고, 추출된 객체를 백색으로 분리하며 분리된 객체의 신체부위마다 외곽선을 추출하며, 추출된 외곽선마다의 최외각 상하좌우의 포인트에 대해 머리를 중심으로 로우 데이터(Raw data) 좌표를 추출하고, 어깨의 양끝 좌표를 추출하며, 손이 향하는 방향을 기준으로 상하좌우를 판단하여 양 손끝을 추출하도록 상기 오브젝트 인식부를 제어하는, 브레인 브이알 시스템.
  3. 제1항에 있어서,
    상기 소정 영역은 복수의 구분 영역으로 구분되고,
    상기 복수의 구분 영역 각각에 서로 다른 뇌교육 콘텐츠 영상이 표시가능하며,
    상기 프로세서는,
    상기 오브젝트의 운동 능력 및 뇌 능력에 관한 상기 레벨에 기초하여, 상기 오브젝트가 배치된 구분 영역에 상기 오브젝트의 능력에 대응되는 뇌교육 콘텐츠 영상을 표시하며, 상기 오브젝트가 이동할 다음 구분 영역을 상기 오브젝트에게 가이드하도록 상기 입력부를 제어하는, 브레인 브이알 시스템.
  4. 제3항에 있어서,
    상기 프로세서는,
    상기 오브젝트가 배치된 구분 영역에서의 상기 오브젝트의 운동 능력 및 뇌 능력에 관한 수행 정도에 기초하여, 상기 오브젝트가 이동할 다음 구분 영역에서의 운동 강도 및 콘텐츠 난이도를 결정하는, 브레인 브이알 시스템.
  5. 제3항에 있어서,
    상기 프로세서는,
    상기 오브젝트의 뇌 부분 영역 각각을 발달시키는 뇌교육 콘텐츠 영상을 상기 오브젝트가 위치하는 구분 영역에서 서로 다르게 표시하는, 브레인 브이알 시스템.
  6. 제5항에 있어서,
    외부 시스템과 통신하는 통신부를 더 포함하며,
    상기 프로세서는,
    상기 오브젝트의 운동 능력 및 뇌 능력에 관련된 레벨 상승 정보 또는 건강 상태에 관한 정보를 상기 통신부를 통해 상기 외부 시스템에 공유하는, 브레인 브이알 시스템.
  7. 제5항에 있어서,
    디스플레이를 더 포함하며,
    상기 프로세서는,
    상기 오브젝트의 운동 능력 및 뇌 능력의 발달 추이에 관한 정보를 소정 주기로 상기 디스플레이에 표시하며,
    상기 오브젝트의 운동 능력 및 뇌 능력에 기초하여, 상기 오브젝트의 질병 또는 건강에 대한 처방 프로세스를 수행하며, 상기 처방 프로세스에 기초하여 처방 콘텐츠를 상기 디스플레이에 표시하는, 브레인 브이알 시스템.
KR1020190075148A 2019-06-24 2019-06-24 브레인 브이알 시스템 KR102281232B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190075148A KR102281232B1 (ko) 2019-06-24 2019-06-24 브레인 브이알 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190075148A KR102281232B1 (ko) 2019-06-24 2019-06-24 브레인 브이알 시스템

Publications (2)

Publication Number Publication Date
KR20210000170A true KR20210000170A (ko) 2021-01-04
KR102281232B1 KR102281232B1 (ko) 2021-07-23

Family

ID=74127393

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190075148A KR102281232B1 (ko) 2019-06-24 2019-06-24 브레인 브이알 시스템

Country Status (1)

Country Link
KR (1) KR102281232B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008591A1 (en) * 2021-07-26 2023-02-02 Antt Robotics Ltd. Educational robot learning system
KR20230055820A (ko) 2021-10-19 2023-04-26 장영환 릴 낚싯대용 낚싯줄을 전동으로 자동 권취하는 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150101343A (ko) 2014-02-26 2015-09-03 숭실대학교산학협력단 영상 투사 시스템
KR20170099773A (ko) * 2016-02-24 2017-09-01 이용국 신체 능력의 측정 및 증진을 위한 스마트 기기
KR101824079B1 (ko) * 2017-04-14 2018-01-31 주식회사 디지믹스 오브젝트 인식형 기반 체험 콘텐츠를 제공하는 시스템
KR101837717B1 (ko) * 2016-11-23 2018-03-14 주식회사 스튜디오매크로그래프 가상현실 콘텐츠를 이용하여 저항장치의 움직임의 난이도를 조절할 수 있는 가상현실 체험장치와 이를 이용한 서비스 제공방법
KR20180058286A (ko) * 2016-11-23 2018-06-01 주식회사 스튜디오매크로그래프 가상현실 체험장치 컨트롤러, 이의 작동 방법, 및 콘텐츠 실행장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150101343A (ko) 2014-02-26 2015-09-03 숭실대학교산학협력단 영상 투사 시스템
KR20170099773A (ko) * 2016-02-24 2017-09-01 이용국 신체 능력의 측정 및 증진을 위한 스마트 기기
KR101837717B1 (ko) * 2016-11-23 2018-03-14 주식회사 스튜디오매크로그래프 가상현실 콘텐츠를 이용하여 저항장치의 움직임의 난이도를 조절할 수 있는 가상현실 체험장치와 이를 이용한 서비스 제공방법
KR20180058286A (ko) * 2016-11-23 2018-06-01 주식회사 스튜디오매크로그래프 가상현실 체험장치 컨트롤러, 이의 작동 방법, 및 콘텐츠 실행장치
KR101824079B1 (ko) * 2017-04-14 2018-01-31 주식회사 디지믹스 오브젝트 인식형 기반 체험 콘텐츠를 제공하는 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008591A1 (en) * 2021-07-26 2023-02-02 Antt Robotics Ltd. Educational robot learning system
KR20230055820A (ko) 2021-10-19 2023-04-26 장영환 릴 낚싯대용 낚싯줄을 전동으로 자동 권취하는 장치

Also Published As

Publication number Publication date
KR102281232B1 (ko) 2021-07-23

Similar Documents

Publication Publication Date Title
US10488659B2 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
US10717001B2 (en) System and method for saving tracked data in the game server for replay, review and training
US20180136461A1 (en) Virtual reality methods and systems
TW202004421A (zh) 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染
CN102419631B (zh) 虚拟内容到现实内容中的融合
CN204952205U (zh) 一种头戴式组合健身系统
Marquardt et al. Comparing non-visual and visual guidance methods for narrow field of view augmented reality displays
CN105992965A (zh) 响应于焦点移位的立体显示
CN110890140A (zh) 基于虚拟现实的自闭症康复训练及能力评估系统及方法
CN109817031B (zh) 一种基于vr技术的肢体运动教学方法
CN105264548A (zh) 用于生成增强现实体验的难以察觉的标签
CN106484115A (zh) 用于增强和虚拟现实的系统和方法
US10108855B2 (en) Fitness device-based simulator and simulation method using the same
US10482670B2 (en) Method for reproducing object in 3D scene and virtual reality head-mounted device
CN108334832A (zh) 一种基于生成对抗网络的视线估计方法
KR102281232B1 (ko) 브레인 브이알 시스템
Zhao et al. An intelligent augmented reality training framework for neonatal endotracheal intubation
CN106471523A (zh) 使用红外成像的颜色标识
KR102585311B1 (ko) 360도 영상과 hmd를 활용하고, 메타버스 공간 내에서 진행되는 비대면 실시간 교육 방법
CN115525144A (zh) 一种基于虚拟现实的多对象交互设备及其交互方法
WO2019246613A1 (en) Method and system for performing eye tracking using an off-axis camera
Zhou Role of human body posture recognition method based on wireless network Kinect in line dance aerobics and gymnastics training
KR101824079B1 (ko) 오브젝트 인식형 기반 체험 콘텐츠를 제공하는 시스템
Figueiredo et al. Fishtank everywhere: Improving viewing experience over 3D content
JP2021157386A (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant