KR20220048350A - 효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스 - Google Patents

효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스 Download PDF

Info

Publication number
KR20220048350A
KR20220048350A KR1020200131407A KR20200131407A KR20220048350A KR 20220048350 A KR20220048350 A KR 20220048350A KR 1020200131407 A KR1020200131407 A KR 1020200131407A KR 20200131407 A KR20200131407 A KR 20200131407A KR 20220048350 A KR20220048350 A KR 20220048350A
Authority
KR
South Korea
Prior art keywords
avatar
lecturer
virtual
movement
displaying
Prior art date
Application number
KR1020200131407A
Other languages
English (en)
Other versions
KR102561352B1 (ko
Inventor
홍진기
Original Assignee
홍진기
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍진기 filed Critical 홍진기
Priority to KR1020200131407A priority Critical patent/KR102561352B1/ko
Publication of KR20220048350A publication Critical patent/KR20220048350A/ko
Application granted granted Critical
Publication of KR102561352B1 publication Critical patent/KR102561352B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Educational Technology (AREA)
  • Computer Hardware Design (AREA)
  • Educational Administration (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상의 강의 공간을 제공하는 방법에 있어서, 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타를 디스플레이하는 단계; 상기 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이하는 단계; 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타를 디스플레이하는 단계; 상기 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이하는 단계; 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 단계;를 포함하는, 방법이 개시된다.

Description

효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스{Method and device for providing virtual lecture space}
본 개시는 가상의 강의 공간을 제공하는 방법 및 디바이스에 관한 것이다.
인터넷, 통신 기술의 발달과 함께 기존의 각종 강의, 회의, 학회, 실험, 실습 등 다자 간 상호 의사 소통이 필요한 환경에 대해 시간과 공간의 제약을 최소화하며 물리적 한계를 극복할 수 있는 가상 공간에 대한 니즈는 지속적으로 증대되어 왔으며, 그에 따른 다양한 기술의 개발 역시 활발하게 이루어지고 있다.
이에 따라, 세계 여러 기업에서는 다자간 화상 통화를 이용하여 의사 소통을 수행할 수 있는 서비스를 제공하고 있으나, 이와 같은 종래의 서비스는 현재 자신의 영상을 다수의 사람들이 지켜보고 있는 환경에 따른 심리적 불안, 상대방의 비언어적 단서를 이해하기 위한 과도한 정신적 피로 및 기술적 통신 지연에 따른 집중도 하락 등 화상 통화 환경에서 발생되는 다양한 문제점들이 존재한다.
또한, 다자간 화상 통화와 같은 종래의 서비스를 이용 중에는, 진행 중인 강의 또는 회의 등에 관련된 자료(예: 참고 영상 또는 이미지 등)를 참여자들이 디스플레이하여 진행 중인 강의 또는 회의 등에 활용할 수 있는 기능 및 참여자들의 모션 또는 제스쳐 등을 센싱하여 결정된 현재 상태(예: 졸음 상태 또는 녹음 기능 실행 상태 등)를 디스플레이함으로써 참여자들의 현재 상태를 용이하게 파악할 수 있는 다양한 목적의 소통을 위한 기능들은 종래의 서비스를 통해 제공되고 있지 않아 참여자들 간 원활한 소통이 어렵다는 문제점이 존재한다.
이에 따라, 참여자들 간 관련 자료를 디스플레이하여 제공함으로써 더욱 효율적인 강의 또는 회의가 진행될 수 있고, 참여자들의 현재 상태와 관련된 이미지를 디스플레이함으로써 참여자들 간에 상호 현재 상태를 더욱 용이하게 인지할 수 있는 효율적인 소통 환경이 구현된 가상의 공간을 제공하는 방법 및 디바이스가 요구되고 있다.
이러한 종래의 문제점을 해결하기 위한 본 개시의 일 실시 예에 따른 목적은, 가상의 강의 공간에 참여한 다수의 참여자들의 움직임을 센싱하여 동작하는 아바타를 디스플레이하고, 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이 함으로써 실제 사용자의 화상 영상을 통해 참석하는 종래의 방법에서 유발되는 정신적/신체적 부담을 최소화하는 가상의 강의 공간을 제공하는 방법 및 디바이스를 제공하는 데에 있다.
본 개시의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재들로부터 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면에 따르면, 가상의 강의 공간을 제공하는 방법에 있어서, 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타를 디스플레이하는 단계; 상기 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이하는 단계; 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타를 디스플레이하는 단계; 상기 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이하는 단계; 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 단계;를 포함하는, 방법을 제공할 수 있다.
또한, 상기 제 2 디바이스에서 녹음 기능이 실행되는 경우, 상기 제 2 아바타와 인접한 영역에 상기 녹음 기능이 실행 중임을 나타내는 이미지를 디스플레이하는 단계;를 더 포함할 수 있다.
또한, 상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하는 단계; 및 상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이하는 단계;를 더 포함할 수 있다.
또한, 상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 3D로 디스플레이될 수 있다.
또한, 상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고, 상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행될 수 있다.
또한, 상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고, 상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이될 수 있다.
또한, 상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이하는 단계;를 더 포함할 수 있다.
또한, 상기 제 2 아바타를 디스플레이하는 단계는 상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이할 수 있다.
또한, 상기 제 2 아바타를 디스플레이하는 단계는 상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이할 수 있다.
본 개시의 제 2 측면에 따르면, 가상의 강의 공간을 제공하는 디바이스에 있어서, 강의자 계정과 연동하여 동작하는 제 1 디바이스 및 수강자 계정과 연동하여 동작하는 제 2 디바이스로부터 강의 제공 데이터를 수신하여 처리하는 프로세서; 및 상기 강의 제공 데이터에 기초하여, 상기 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타, 상기 강의자 계정의 로그인에 이용된 상기 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 상기 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타, 상기 수강자 계정의 로그인에 이용된 상기 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 디스플레이;를 포함하는, 디바이스를 제공할 수 있다.
또한, 상기 디스플레이는 상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고, 상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다.
또한, 상기 디스플레이는 상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 2D로 디스플레이할 수 있다.
또한, 상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고, 상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행될 수 있다.
또한, 상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고, 상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이될 수 있다.
또한, 상기 디스플레이는 상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이할 수 있다.
또한, 상기 디스플레이는 상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이할 수 있다.
또한, 상기 디스플레이는 상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이할 수 있다.
본 개시의 제 3 측면에 따르면, 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
본 개시의 일 실시 예에 따르면, 참여자들의 움직임을 센싱하여 동작하는 아바타를 디스플레이할 수 있어 종래의 화상 통화 방식에 비해 심리적 불안감을 최소화할 수 있다.
또한, 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고, 가상 실험용 대상물의 형상을 강의자 및 수강자의 움직임에 따라 갱신하여 디스플레이 함으로써 능동적이며 효율적인 가상 강의 기회를 제공할 수 있다.
또한, 수강자의 안구 모니터링 결과를 기초로 현재 수강자의 수강 상태를 나타내는 이미지를 디스플레이 함으로써
본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스의 구성을 개략적으로 도시한 블록도이다.
도 2는 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스를 통해 가상의 강의 공간이 제공되는 각 단계를 나타낸 흐름도이다.
도 3은 본 개시의 일 실시 예에 따라 가상의 강의 공간이 제공되는 일 예를 개략적으로 도시한 도면이다.
도 4는 본 개시의 일 실시 예에 따라 디스플레이되는 각 아바타의 일 예를 개략적으로 도시한 도면이다.
도 5는 본 개시의 일 실시 예에서 제 3 디바이스의 이용자의 움직임에 따라 각 아바타를 디스플레이하는 일 예를 개략적으로 도시한 도면이다.
도 6은 본 개시의 일 실시 예에 따라 가상 실험용 대상물을 디스플레이하는 일 예를 도시한 개략적으로 도면이다.
도 7은 본 개시의 일 실시 예에 따라 가상 실험용 대상물을 디스플레이하는 일 예를 도시한 개략적으로 도면이다.
도 8은 본 개시의 일 실시 예에 따른 가상의 강의 공간의 맞춤형 디자인을 개략적으로 도시한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 가상의 강의 공간의 맞춤형 디자인을 개략적으로 도시한 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시 예로 한정되는 것은 아니다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 구비할 수 있다는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명의 실시 예들을 상세히 설명하기로 한다.
이하의 본 명세서에서는 가상의 강의 공간에서 수행되는 모든 활동들을 '강의'로 한정하여 실시 예들을 설명하지만, 반드시 이에 국한되지는 않는다. 예를 들어, 실시 예들에서 설명하는 가상의 강의 공간에서 수행되는 모든 활동은 강의 외에 회의, 업무, 학회, 세미나, 실험, 실습 등 다양한 활동들을 포함할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)의 구성을 개략적으로 도시한 블록도이다.
도 1을 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 계정과 연동하여 동작하는 제 1 디바이스 및 수강자 계정과 연동하여 동작하는 제 2 디바이스로부터 강의 제공 데이터를 수신하여 처리하는 프로세서(110) 및 상기 강의 제공 데이터에 기초하여, 상기 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310), 상기 강의자 계정의 로그인에 이용된 상기 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 상기 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320), 상기 수강자 계정의 로그인에 이용된 상기 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 디스플레이(120)를 포함할 수 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 가상의 강의 공간을 맞춤형 강의실 디자인으로 구현할 수 있다. 예를 들어, 도 8및 도 9를 참조하면 강의실 또는 회의실을 비롯한 임의의 장소의 6면에 대한 디지털 사진을 가상의 강의 공간에 적용함으로써 해당 장소를 가상의 강의 공간에서 구현할 수 있다. 그러나, 반드시 실재하는 장소의 이미지로 제한되는 것은 아니며, 가상의 강의 공간에서 표현될 수 있는 이미지로도 구현될 수 있다. 이에 따라, 효율적인 강의 환경을 위한 다양한 형태의 가상 강의실 제작이 가능해진다.
일 실시 예에 따른 강의자 계정은 가상의 강의 공간에서 강의를 진행하기 위한 각종 권한(예: 강의자의 움직임에 기초하여 가상 실험용 대상물(610) 생성 및 변형 등)이 부여될 수 있으며, 이러한 권한은 수강자와 상이하게 부여될 수 있다. 가상의 강의 공간 내에서 강의를 진행하기 위한 강의자 권한으로 접속하는 데 이용될 수 있다. 또한, 강의자 계정은 강의를 진행하는 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310)와 연동될 수 있다. 이와 같은 강의자의 권한은 수강자와 상이하게 부여됨으로써 더욱 원활하고 효율적인 강의가 가능하다.
일 실시 예에 따른 제 1 아바타(310)는 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작할 수 있다. 예를 들어, 제 1 아바타(310)는 센싱된 강의자의 형상을 통해3D 모델링된 아바타의 형태로 디스플레이될 수 있으며, 사람의 형상 외에도 동물 아바타, 만화 아바타 등 2D, 3D로 표현되는 아바타를 모두 포함하여 디스플레이될 수 있다. 다른 실시 예에서 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 형상을 통해 3D 모델링된 아바타에 대한 선택 입력에 기초하여 3D 모델링 아바타를 커스터마이징할 수 있다. 이 경우 강의에 따른 아바타를 커스터마이징하거나 자신의 기호에 맞는 아바타를 커스터마이징할 수 있어 가상 강의의 활용 범위가 넓어질 수 있다.
또한, 제 1 아바타(310)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 가상의 강의 공간을 제공하는 디바이스(100)로부터 강의자의 움직임이 센싱되어 동작할 수 있다. 이에 따라 가상의 강의 공간 내 강의자 및 수강자의 자연스러운 움직임 구현이 가능하다.
일 실시 예에 따른 제 1 디바이스는 강의자 계정의 로그인에 이용될 수 있으며, 또한 가상의 강의 공간에서 수행되는 다양한 활동(예: 가상 칠판 디스플레이, 동영상 재생 및 이미지 불러오기 등)에 이용될 수 있다. 즉, 가상의 강의 공간을 이용하기 위해 사용되는 PC, 스마트 디바이스 등일 수 있다.
일 실시 예에 따른 제 1 프로그램은 제 1 디바이스에서 실행될 수 있고, 제 1 디바이스를 포함하는 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 프로그램의 실행 화면을 디스플레이할 수 있다. 제 1 프로그램은, 예를 들어 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램일 수 있다.
일 실시 예에 따른 수강자 계정은 가상의 강의 공간에서 강의를 수강하기 위한 수강자의 계정일 수 있으며, 가상의 강의 공간에서 부여된 각종 권한(예: 강의자의 움직임에 기초하여 가상 실험용 대상물(610) 일부 변형)이 부여될 수 있다. 또한, 수강자 계정은 강의를 수강하는 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320)와 연동될 수 있다. 이와 같은 수강자의 권한은 강의자와 상이하게 부여됨으로써 강의에 더욱 협조적으로 적용될 수 있다.
일 실시 예에 따른 제 2 아바타(320)는 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작할 수 있다. 예를 들어, 제 2 아바타(320)는 센싱된 수강자의 형상을 통해3D 모델링된 아바타의 형태로 디스플레이될 수 있으며, 사람의 형상 외에도 동물 아바타, 만화 아바타 등 2D, 3D로 표현되는 아바타를 모두 포함하여 디스플레이될 수 있다. 다른 실시 예에서 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 형상을 통해 3D 모델링된 아바타에 대한 선택 입력에 기초하여 3D 모델링 아바타를 커스터마이징할 수 있다. 이 경우 강의에 따른 아바타를 커스터마이징하거나 자신의 기호에 맞는 아바타를 커스터마이징할 수 있어 가상 강의의 활용 범위가 넓어질 수 있다.
또한, 제 2 아바타(320)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 가상의 강의 공간을 제공하는 디바이스(100)로부터 수강자의 움직임이 센싱되어 동작할 수 있다. 이에 따라 가상의 강의 공간 내 강의자 및 수강자의 자연스러운 움직임 구현이 가능하다.
일 실시 예에 따른 제 2 디바이스는 수강자 계정의 로그인에 이용될 수 있으며, 또한 가상의 강의 공간에서 수행되는 다양한 활동(예: 가상 칠판 디스플레이, 동영상 재생 및 이미지 불러오기 등)에 이용될 수 있다. 즉, 가상의 강의 공간을 이용하기 위해 사용되는 PC, 스마트폰 등일 수 있다.
일 실시 예에서, 제 1 디바이스 및 제 2 디바이스는 통신 환경(예: 와이파이, 블루투스 또는 각종 근/장거리 네트워크 환경 등)을 통해 상호 연결되어 통신할 수 있다.
일 실시 예에서, 제 1 아바타(310) 및 제 2 아바타(320)는 가상의 강의 공간 내에서 의사 소통을 위한 상호 작용을 수행할 수 있다. 예를 들어 상호 작용은 인사, 하이파이브, 고개 젓기 등을 포함하는 감정 표현부터 아바타 간 거리에 따른 대화 기능, 질의 요청 및 휴식 요청 등 강의 환경에서 필요한 상호 작용들을 모두 포함할 수 있다. 이에 따라, 강의자 및 수강자는 실제 강의 환경에서 수행되는 상호 작용을 수행함과 동시에 가상 현실에서 구현되는 상호 작용을 활용할 수 있어 더욱 효율적인 강의 환경이 제공될 수 있다.
일 실시 예에 따른 제 2 프로그램은 제 2 디바이스에서 실행될 수 있고, 제 2 디바이스를 포함하는 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 프로그램의 실행 화면을 디스플레이할 수 있다. 제 2 프로그램은, 예를 들어 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램일 수 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이할 수 있다. 이러한 가상 칠판은 가상의 강의 공간에서 강의자의 움직임에 기초하여 획득되는 이미지인 점, 선, 면, 입체 도형 등의 0, 1, 2, 3차원 이미지를 디스플레이할 수 있고, 제 1 프로그램의 실행 화면 및 제 1 디바이스에 대한 강의자의 터치 입력에 따라 획득된 이미지을 디스플레이할 수도 있다. 이외에도, 가상 칠판은 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면 및 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이할 수 있다.
일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 및 수강자를 포함하는 참여자들의 접속 현황과 접속 시간 정보를 강의자 계정에 제공할 수 있다. 또한, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자 계정의 숙제, 과제의 제출 및 관련 소통 시스템을 강의자 계정에 제공할 수 있다. 이에 따라, 강의자는 제공된 숙제, 과제의 제출 현황 및 제출 알림과 이에 대응하는 소통 시스템(예: 상세 과제 내용 전달)을 통해 용이한 가상 강의 관리가 가능해지며, 제공된 참여자들의 접속 현황 및 접속 시간 정보를 통해 강의자는 팀 프로젝트를 위한 회의실 및 토의실, 실험을 위한 실험실 운영 및 가상 강의실 운영을 보다 효율적으로 수행할 수 있다.
일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 이공계 실험 및 실습을 위한 특수 목적 강의실을 구축하여 제공할 수 있다. 구체적으로 도 6 및 도 7을 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 각종 실험 및 실습을 위한 시뮬레이션 소프트웨어를 통해 특수 목적 강의실을 제공할 수 있다. 이에 필요한 실험 장치, 도구 등은 렌더링을 통해 구현하여 제공할 수 있다.
다른 실시 예에서, 가상의 강의 공간을 제공하는 디바이스(100)는 세미나 및 학회를 위한 가상 공간을 제공할 수 있다. 세미나 및 학회를 위한 가상 공간은 가상의 강의실에 제공되는 모든 기능(예: 가상 공간 맞춤형 디자인, 가상 칠판, 소프트웨어 프로그램 연계, 하드웨어 연계 및 참여자 정보 확인 등)을 활용할 수 있으며 투표, 포스터, 총회, 세미나, 실제 외부 장소 등에 대한 최적화된 공간(예: 세미나 및 행사장, 포스터 발표장, 토론 장소, 지역 컨벤션 센터, 후원사의 로고와 홍보를 기반으로 한 장소 등)을 구현하여 제공할 수 있다.
또한, 가상의 강의 공간을 제공하는 디바이스(100)는 세미나 및 학회 운영에 이용되는 회원제, 결제 시스템 및 로그인/아웃 기능을 통해 회원으로 등록된 참여자 계정만 해당 세미나 및 학회 등 행사에 참여하도록 할 수 있으며, 실시간 접속 참여자 정보, 질의 응답 및 소통 기능 및 기업 홍보 목적으로 가상 공간을 이용할 경우 이에 대한 가상 기업 홍보 부스 및 가상 모니터를 제공할 수 있다. 특히, 기업 홍보 목적의 가상 공간을 이용할 경우 홍보 기업들의 홍보 부스, 팜플렛, 제품 등을 3D 및 동영상으로 구현하여 제공할 수 있고, 3D 제품의 수와 동영상 모니터의 크기와 개수에 따라 참여 기업 부스의 크기 및 가격 조절이 가능하도록 구현할 수 있다.
전술한 내용들은 아래의 도면들을 참조하여 보다 상세히 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)를 통해 가상의 강의 공간이 제공되는 각 단계를 나타낸 흐름도이다.
단계 S210에에 대해 도 3을 참조하면, 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310)를 도면에 도시된 바와 같이 디스플레이할 수 있다.
일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 도3에 도시된 바와 같이 제 1 아바타(310)를 강의자의 실제 모습을 3D 렌더링하여 디스플레이할 수도 있지만, 도 4에 도시된 바와 같이 강의자의 실제 모습이 아닌 임의의 아바타를 디스플레이할 수 있다. 이러한 임의의 아바타는 강의자 계정 또는 수강자 계정을 통해 가상의 강의 공간을 제공하는 디바이스(100)에 등록된 아바타일 수 있으며, 가상의 강의 공간을 제공하는 디바이스(100)가 기본적으로 제공하는 기본 아바타일 수도 있다.
일 실시 예에 따르면, 도 4에서 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 아바타(310)가 강의자임을 나타내는 2차원 또는 3차원의 추과 외곽선(410)을 디스플레이할 수 있다. 이러한 추과 외곽선(410)은 제 1 아바타(310)의 외곽선을 따라 형성되며, 다른 수강자들이 제 1 아바타(310)가 강의자의 아바타임을 인지하기에 용이한 색상, 형태를 포함할 수 있다.
단계 S220에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이할 수 있다.
이러한 제 1 프로그램은 강의자의 움직임을 센싱하여 실행될 수 있다. 구체적으로, 가상의 강의 공간을 제공하는 디바이스(100)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 센싱된 강의자의 움직임을 획득할 수 있고, 획득된 강의자의 움직임(예: 제스쳐)을 통해 제 1 디바이스에서 실행되는 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램을 포함하는 제 1 프로그램은 강의자의 움직임을 센싱하여 실행될 수 있다. 또한, 제 1 프로그램의 실행 화면은 가상 칠판을 포함하는 제 1 아이템(330)에서 디스플레이될 수 있다. 이에 따라, 수강자는 강의에 대한 내용을 참여자들에게 보다 용이하게 전달할 수 있다.
또한, 제 1 프로그램의 실행 화면은 제 1 아바타(310)와 연동하여 동작하는 제 1 아이템(330)에서 디스플레이될 수 있다. 구체적으로, 일 실시 예에 따른 제 1 아이템(330)은 도 3에 도시된 바와 같이 가상 칠판을 포함하며, 가상 모니터 등 가상의 강의 공간에서 구현될 수 있는 아이템을 포함할 수 있으며, 강의자의 움직임을 센싱하여 생성되거나 삭제될 수 있다. 즉, 제 1 아이템(330)은 제 1 프로그램의 실행 화면을 디스플레이할 수 있는 형태의 가상 아이템일 수 있다.
단계 S230에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는, 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320)를 디스플레이할 수 있다.
일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 도 3에 도시된 바와 같이 제 2 아바타(320)를 수강자의 실제 모습을 3D 렌더링하여 디스플레이할 수도 있지만, 도 4에 도시된 바와 같이 수강자의 실제 모습이 아닌 임의의 아바타를 디스플레이할 수 있다. 이러한 임의의 아바타는 수강자 계정을 통해 가상의 강의 공간을 제공하는 디바이스(100)에 등록된 아바타일 수 있으며, 가상의 강의 공간을 제공하는 디바이스(100)가 기본적으로 제공하는 기본 아바타일 수도 있다.
일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 가상의 강의 공간을 제공하는 제 3 디바이스를 더 포함할 수 있다. 이러한 제 3 디바이스는 수강자 계정의 로그인에 이용되는 디바이스일 수 있다.
또한 일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 제 3 디바이스의 이용자(510)의 움직임에 따라 결정된 뷰 포인트(520)에 기초하여 제 1 아바타(310) 또는 제 2 아바타(320)를 디스플레이할 수 있다.
구체적으로, 제 3 디바이스의 이용자(510)의 움직임에 따라 결정된 뷰 포인트(520)는 제 3 디바이스의 이용자(510)가 가상의 강의 공간에서 움직임(또는, 시점)에 기초하여 결정될 수 있다. 이에 대해 도 5를 참조하면, 뷰 포인트(520)는 도면에 도시된 바와 같이 제 3 디바이스의 이용자(510)의 시점인 1인칭 관찰자 시점으로 이해될 수 있으며, 제 3 디바이스의 이용자(510)의 움직임(1인칭 관찰자 시점의 움직임)에 따라 결정될 수 있고, 이러한 뷰 포인트(520)에 기초하여 제 1 아바타(310) 또는 제 2 아바타(320)가 디스플레이될 수 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스와 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임을 디스플레이할 수 있다.
구체적으로, 도 4를 참조하면 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스 및 제 3 디바이스로부터 연속적으로 데이터가 송수신되는지 여부에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임을 디스플레이할 수 있다. 예를 들면, 도면에 도시된 바와 같이 제 2 아바타(320)가 토끼 형상인 경우, 기설정 신체 부위인 토끼 귀의 움직임을 반복적으로 디스플레이함으로써 강의 중 침묵이 발생될 경우 제 2 아바타(320)의 반복적인 움직임을 통해 기술적인 문제 발생 여부를 판단할 수 있게 된다. 다른 예로, 제 2 아바타(320)가 수강자의 형상을 포함하는 사람의 형상인 경우, 기설정 신체 부위인 어깨의 움직임(숨을 쉴 때 나타나는 움직임)을 반복적으로 디스플레이할 수도 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 제 2 아바타(320)와 인접한 영역에 수강자의 수강 상태를 나타내는 이미지(360)를 디스플레이할 수 있다.
구체적으로, 수강자의 안구 모니터링 결과는 제 2 디바이스 또는 가상의 강의 공간을 제공하는 디바이스(100)에 포함된 카메라로부터 획득될 수 있고, 획득된 안구 모니터링 결과에 따라 결정된 수강자의 시선 방향이 기설정 방향으로 결정된 경우, 수강자의 현재 상태는 강의에 대한 집중도가 비교적 낮은 것으로 이해될 수 있다. 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 수강자의 수강 상태를 결정할 수 있고, 수강자의 수강 상태를 나타내는 이미지(360)를 제 2 아바타(320)와 인접한 영역에 디스플레이할 수 있다.
더욱 자세하게, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과에 따라 결정된 수강자의 시선 방향이 기설정 방향으로 결정된 횟수인 기설정 횟수에 기초하여 제 2 아바타(320)의 수강 상태를 기설정 상태로 결정할 수 있고, 결정된 수강 상태에 기초하여 수강자의 수강 상태를 나타내는 이미지(360)를 디스플레이할 수 있다. 이를 통해 현재 수강자의 수강 상태를 다른 참여자가 용이하게 파악할 수 있다.
예를 들면, 수강자의 시선 방향이 기설정 방향으로 결정된 횟수가 제 1 횟수 이하인 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 제 1 상태로 결정할 수 있다. 또한, 시선 방향이 기설정 방향으로 결정된 횟수가 제 2 횟수 이상 제 3 횟수 미만인 경우, 수강자의 수강 상태는 제 2 상태로 결정될 수 있고, 시선 방향이 기설정 방향으로 결정된 횟수가 제 3 횟수 이상인 경우, 수강자의 수강 상태는 제 3 상태로 결정될 수 있다. 여기서, 제 1 횟수는 제 2 횟수보다 작고 제 2 횟수는 제 3 횟수보다 작으며, 제 1 횟수는 0보다 큰 값일 수 있다. 또한, 제 1 상태는 예를 들어 해당 강의에 적절하게 집중하고 있는 상태일 수 있으며 그에 따라 '집중도 높음' 상태일 수 있다. 제 2 상태는 '집중도 높음' 상태에 비해 비교적 집중도가 낮은 상태일 수 있으며 그에 따라 '집중도 보통' 상태일 수 있고, 제 3 상태는 집중도가 '집중도 보통' 상태에 비해 비교적 집중도가 낮은 상태일 수 있어 그에 따라 '집중도 낮음' 상태를 나타낼 수 있다.
즉, 수강자의 시선 방향이 기설정 방향으로 결정되는 횟수가 많을수록 수강자의 집중도는 낮은 상태로 이해될 수 있어, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 시선 방향이 기설정 방향으로 결정되는 횟수에 기초하여 수강자의 수강 상태를 기설정 상태로 결정할 수 있고, 결정된 수강자의 수강 상태에 기초하여, 수강자의 수강 상태를 나타내는 이미지(360)를 제 2 아바타(320)와 인접한 영역에 디스플레이할 수 있다.
다른 실시 예에서, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자로부터 획득된 안구 모니터링 결과, 안구가 센싱되지 않는 시간이 기 설정된 시간 이상으로 결정된 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 '부재중' 상태로 결정할 수 있고, 이에 기초하여 제 2 아바타(320)와 인접한 영역에 부재중 상태를 나타내는 이미지를 디스플레이할 수 있다.
다른 실시 예에서, 수강자의 안구 모니터링 결과, 안구가 센싱되는 시간에 따른 패턴이 기설정 패턴으로 결정된 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 졸음 상태로 결정할 수 있다. 이러한 기설정 패턴은 안구의 깜빡임 패턴이 통상적인 졸음 상태에서 나타나는 패턴일 수 있다. 가상의 강의 공간을 제공하는 디바이스(100)는 안구 센싱 결과에 기초하여 수강자의 수강 상태를 결정할 수 있고, 결정된 수강자의 수강 상태에 기초하여 제 2 아바타(320)와 인접한 영역에 졸음 상태를 나타내는 이미지를 디스플레이할 수 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스의 카메라에서 수강자의 안구를 모니터링 하고, 모니터링에 따라 결정된 시선 방향에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도(또는, 신체를 표현하는 부위의 움직임 속도)를 결정할 수 있다.
구체적으로, 도 4를 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 안구 모니터링 결과, 수강자가 제 2 디바이스(또는, 가상의 강의 공간 내 모니터, 가상 칠판, 제 1 아이템(330))를 바라보지 않는 경우, 즉, 수강자의 시선 방향이 강의와 관련도가 낮은 방향인 기설정 방향으로 결정된 시간이 기설정 시간 범위로 결정된 경우, 이에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 기설정 속도로 결정할 수 있다. 기설정 신체 부위(420)는 인간에게 존재하는 신체 부위(예: 어깨, 다리 등)일 수도 있으나, 인간에게 존재하지 않는 신체 부위(예: 꼬리)일 수도 있다. 인간에게 존재하지 않는 신체 부위를 기설정 신체 부위(420)를 로 이용하는 경우, 가상의 강의 공간을 제공하는 디바이스(100)는 보다 용이하고 흥미롭게 사용자의 집중 정도를 나타낼 수 있다.
예를 들어, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 기설정 시간 범위인 제 1 시간 이상 제 2 시간 미만인 경우, 제 2 아바타의 기설정 신체 부위(420)(예: 어깨, 꼬리 등)의 반복적인 움직임의 속도를 제 1 속도로 결정할 수 있고, 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 기설정 시간 범위인 제 2 시간 이상 제 3 시간 미만인 경우, 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 제 3 속도로 결정할 수 있고, 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 기설정 시간 범위인 제 3 시간 이상인 경우, 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 제 3 속도로 결정할 수 있다. 여기서, 제 1 시간은 제 2 시간보다 작고, 제 2 시간은 제 3 시간보다 작으며, 제 1 시간은 0보다 큰 값일 수 있다. 또한, 제 1 속도는 제 2 속도보다 빠르고, 제 2 속도는 제 3 속도보다 빠를 수 있다.
즉, 수강자의 시선 방향이 기설정 방향으로 결정된 시간이 길수록 수강자의 현재 강의 집중 정도를 나타내는 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임의 속도를 느리게 결정함으로써 강의자가 수강자의 강의 집중 정도를 용이하게 인지할 수 있다.
단계 S240에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이할 수 있다.
이러한 제 2 프로그램은 수강자의 움직임을 센싱하여 실행될 수 있다. 구체적으로, 가상의 강의 공간을 제공하는 디바이스(100)는 VR 디바이스, AR 환경, 모션 센서 등 사람의 움직임을 센싱할 수 있는 통상의 수단을 통해 센싱된 수강자의 움직임을 획득할 수 있고, 획득된 수강자의 움직임(예: 제스쳐)을 통해 제 2 디바이스에서 실행되는 Word 문서 작성 프로그램을 비롯한 문서 작성 프로그램, 영상 재생 프로그램, 이미지 로드 프로그램 등 PC 및 스마트 디바이스 등에서 사용되는 모든 소프트웨어 프로그램인 제 2 프로그램은 수강자의 움직임을 센싱하여 실행될 수 있다. 또한, 제 2 프로그램의 실행 화면은 가상 칠판을 포함하는 제 2 아이템(340)에서 디스플레이될 수 있다. 이에 따라, 수강자는 강의에 대한 발표 내용 등을 참여자들에게 움직임 만으로 제 2 아이템(340)에 디스플레이하여 제공할 수 있어, 불필요한 시간 지연 없는 효율적이고 효과적인 소통이 가능한 가상 강의가 이루어질 수 있다.
또한, 제 2 프로그램의 실행 화면은 제 2 아바타(320)와 연동하여 동작하는 제 2 아이템(340)에서 디스플레이될 수 있다. 구체적으로, 일 실시 예에 따른 제 2 아이템(340)은 도 3에 도시된 바와 같이 가상 칠판을 포함하며, 가상 모니터 등 가상의 강의 공간에서 구현될 수 있는 아이템을 포함할 수 있으며, 수강자의 움직임을 센싱하여 생성되거나 삭제될 수 있다. 즉, 제 2 아이템(340)은 제 2 프로그램의 실행 화면을 디스플레이할 수 있는 형태의 가상 아이템일 수 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스에서 녹음 기능이 실행되는 경우, 제 2 아바타(320)와 인접한 영역에 녹음 기능이 실행 중임을 나타내는 이미지(350)를 디스플레이할 수 있다.
구체적으로, 도 3을 참조하면, 제 2 아바타(320)와 인접한 영역에 녹음 기능이 실행 중임을 나타내는 이미지(350)는 도면에 도시된 바와 같이 디스플레이될 수 있다. 이에 따라, 강의자는 수강자가 현재 녹음 중인지 여부를 보다 용이하게 판단할 수 있게 된다.
단계 S250에서 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이할 수 있다.
일 실시 예에 따른 가상 칠판은 가상의 강의 공간에서 강의자의 움직임에 기초하여 획득되는 이미지인 점, 선, 면, 입체 도형 등의 0, 1, 2, 3차원 이미지를 디스플레이할 수 있고, 제 1 프로그램의 실행 화면 및 제 1 디바이스에 대한 강의자의 터치 입력을 통해 획득되는 이미지를 디스플레이할 수 있다.
일 실시 예에 따르면 제 1 아바타(310), 제 1 프로그램의 실행 화면, 제 2 아바타(320), 제 2 프로그램의 실행 화면 및 가상 칠판은 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 3D로 디스플레이될 수 있다. 이에 따라, 가상의 강의 공간이 제공되는 디바이스의 환경에 적절하도록 각 요소들이 디스플레이될 수 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물(610)을 디스플레이할 수 있고, 가상 실험용 대상물(610)의 형상을 강의자의 움직임 및 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다.
구체적으로, 도 6 및 도 7을 참조하면, 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물(610)에 대해 강의자의 움직임 및 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다. 예를 들어, 도 6에서는 강의자의 움직임에 기초하여 가상 실험용 대상물(610)인 분자 구조 모형이 생성되어 디스플레이되고, 강의자의 움직임에 따라 분자 구조 모형이 일부 변형되거나 분리되는 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 또한 도 7에서는 강의자의 움직임에 기초하여 생성된 분자 구조 모형인 가상 실험용 대상물(610)이 디스플레이 되고, 강의자 및 수강자의 움직임에 따라 회전, 이동 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 일 예로, 가상 실험용 대상물(610)은 확대, 축소, 분리, 결합과 같은 형태의 변형 외에도 복사, 편집, 시뮬레이션 등 가상 현실에서 구현 가능한 모든 변형이 가능할 수 있다.
또한, 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 가상 실험용 대상물(610)의 갱신 가능 범위를 강의자의 움직임 및 수강자의 움직임에 따라 각각 상이하도록 결정할 수 있다. 예를 들어, 강의자의 움직임에 따른 갱신 가능 범위는 가상 실험용 대상물(610)의 형상에 대한 전체 범위로 결정될 수 있으나, 수강자의 움직임에 따른 갱신 가능 범위는 가상 실험용 대상물(610)의 형상에 대한 기설정 범위로 결정될 수 있다. 이에 따라, 가상 실험용 대상물(610)을 이용한 강의자의 원활한 강의 및 실습 환경을 제공할 수 있다.
또한, 일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 따라 가상 실험용 대상물(610)의 형상을 갱신하는 동안 수강자의 움직임에 따라 가상 실험용 대상물(610)의 형상을 갱신하는 동작에 대한 허용 여부를 결정할 수 있다. 이러한 경우 강의자가 가상 실험용 대상물(610)을 이용한 강의 도중 수강자의 동작에 따라 가상 실험용 대상물(610)의 형상이 갱신되는 상황을 용이하게 제어할 수 있다.
도 3은 본 개시의 일 실시 예에 따라 가상의 강의 공간이 제공되는 일 예를 개략적으로 도시한 도면이다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 도면에 도시된 바와 같이, 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타(310), 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타(320), 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이할 수 있다.
또한, 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 아바타(310)와 연동하여 동작하는 제 1 아이템(330)에서 제 1 프로그램의 실행 화면을 디스플레이할 수 있다.
또한, 가상의 강의 공간을 제공하는 디바이스(100)는 수강자의 수강 상태를 나타내는 이미지(360)를 제 2 아바타(320)의 인접한 영역에 디스플레이할 수 있고, 제 2 아바타(320)와 연동하여 동작하는 제 2 아이템(340)에서 제 2 프로그램의 실행 화면들 디스플레이할 수 있다.
실시 예들에서, 강의자 및 수강자는 1인칭 시점으로 가상의 강의 공간이 제공될 수 있으나, 도면에서는 이해를 돕기 위해 3인칭 관찰자 시점으로 표현되었다.
도 4는 본 개시의 일 실시 예에 따라 디스플레이되는 각 아바타의 일 예를 개략적으로 도시한 도면이다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 실제 모습이 아닌 임의의 아바타를 디스플레이할 수 있다. 이러한 임의의 아바타는 강의자 계정 또는 수강자 계정을 통해 가상의 강의 공간을 제공하는 디바이스(100)에 등록된 아바타일 수 있으며, 가상의 강의 공간을 제공하는 디바이스(100)가 기본적으로 제공하는 기본 아바타일 수도 있다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 제 1 아바타(310)가 강의자임을 나타내는 2차원 또는 3차원의 추과 외곽선(410)을 디스플레이할 수 있다. 이러한 추과 외곽선(410)은 제 1 아바타(310)의 외곽선을 따라 형성되며, 다른 수강자들이 제 1 아바타(310)가 강의자의 아바타임을 인지하기에 용이한 색상, 형태를 포함할 수 있다.
또한, 가상의 강의 공간을 제공하는 디바이스(100)는 제 2 디바이스 및 제 3 디바이스로부터 연속적으로 데이터가 송수신되는지 여부에 기초하여 제 2 아바타의 기설정 신체 부위(420)의 반복적인 움직임을 디스플레이할 수 있다. 도면에 도시된 바와 같이, 제 2 아바타(320)가 토끼 형상인 경우, 기설정 신체 부위인 토끼 귀의 움직임을 반복적으로 디스플레이함으로써 강의 중 침묵이 발생될 경우 제 2 아바타(320)의 반복적인 움직임을 통해 기술적인 문제 발생 여부를 판단할 수 있게 된다. 다른 예로, 제 2 아바타(320)가 수강자의 형상을 포함하는 사람의 형상인 경우, 기설정 신체 부위인 어깨의 움직임(숨을 쉴 때 나타나는 움직임)을 반복적으로 디스플레이할 수도 있다.
도 5는 본 개시의 일 실시 예에서 제 3 디바이스의 이용자(510)의 움직임에 따라 각 아바타를 디스플레이하는 일 예를 개략적으로 도시한 도면이다.
일 실시 예에서, 제 3 디바이스의 이용자(510)의 움직임에 따라 결정된 뷰 포인트(520)는 제 3 디바이스의 이용자(510)(또는, 제 2 아바타(320))가 가상의 강의 공간에서 움직임(또는, 시점)에 기초하여 결정될 수 있다. 이에 대해 도면을 참조하면, 뷰 포인트(520)는 도면에 도시된 바와 같이 제 3 디바이스의 이용자(510)의 시점인 1인칭 관찰자 시점으로 이해될 수 있으며, 제 3 디바이스의 이용자(510)의 움직임(1인칭 관찰자 시점의 움직임)에 따라 결정될 수 있고, 이러한 뷰 포인트(520)에 기초하여 제 1 아바타(310) 또는 제 2 아바타(320)가 디스플레이될 수 있다.
도6 및 도 7은 본 개시의 일 실시 예에 따라 가상 실험용 대상물(610)을 디스플레이하는 일 예를 도시한 개략적으로 도면이다.
가상의 강의 공간을 제공하는 디바이스(100)는 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물(610)에 대해 강의자의 움직임 및 수강자의 움직임에 따라 갱신하여 디스플레이할 수 있다. 예를 들어, 도 6에서는 강의자의 움직임에 기초하여 가상 실험용 대상물(610)인 분자 구조 모형이 생성되어 디스플레이되고, 강의자의 움직임에 따라 분자 구조 모형이 일부 변형되거나 분리되는 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 또한 도 7에서는 강의자의 움직임에 기초하여 생성된 분자 구조 모형인 가상 실험용 대상물(610)이 디스플레이 되고, 강의자 및 수강자의 움직임에 따라 회전, 이동 등 다양한 형태 변형에 따라 갱신되는 일 예가 도시되어 있다. 일 예로, 가상 실험용 대상물(610)은 확대, 축소, 분리, 결합과 같은 형태의 변형 외에도 복사, 편집, 시뮬레이션 등 가상 현실에서 구현 가능한 모든 변형이 가능할 수 있다.
도 8 및 도 9는 본 개시의 일 실시 예에 따른 가상의 강의 공간의 맞춤형 디자인을 개략적으로 도시한 도면이다.
일 실시 예에 따른 가상의 강의 공간을 제공하는 디바이스(100)는 가상의 강의 공간을 맞춤형 강의실 디자인으로 구현할 수 있다. 예를 들어, 도 8및 도 9를 참조하면 강의실 또는 회의실을 비롯한 임의의 장소의 6면에 대한 디지털 사진을 가상의 강의 공간에 적용함으로써 해당 장소를 가상의 강의 공간에서 구현할 수 있다. 그러나, 반드시 실재하는 장소의 이미지로 제한되는 것은 아니며, 가상의 강의 공간에서 표현될 수 있는 이미지로도 구현될 수 있다. 이에 따라, 효율적인 강의 환경을 위한 다양한 형태의 가상 강의실 제작이 가능해진다.
일 실시 예에 따르면, 가상의 강의 공간을 제공하는 디바이스(100)는 집중력 향상에 도움이 되는 패턴 및 색상의 배경과, 화이트노이즈, 집중력 향상에 도움이 되는 배경 음악을 제공할 수 있다. 이에 따라, 가상의 강의 공간에 참여한 참여자들의 집중력 향상과 이로 인한 원활한 소통이 가능해질 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 가상의 강의 공간을 제공하는 디바이스
110: 프로세서 120: 디스플레이
310: 제 1 아바타 320: 제 2 아바타
330: 제 1 아이템 340: 제 2 아이템
350: 녹음 기능이 실행 중임을 나타내는 이미지
360: 수강 상태를 나타내는 이미지
410: 추가 외곽선 420: 제 2 아바타의 기설정 신체 부위
510: 제 3 디바이스의 이용자
520: 뷰 포인트
610: 가상 실험용 대상물

Claims (18)

  1. 가상의 강의 공간을 제공하는 방법에 있어서,
    강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타를 디스플레이하는 단계;
    상기 강의자 계정의 로그인에 이용된 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면을 디스플레이하는 단계;
    수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타를 디스플레이하는 단계;
    상기 수강자 계정의 로그인에 이용된 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면을 디스플레이하는 단계; 및
    상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 단계;를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 제 2 디바이스에서 녹음 기능이 실행되는 경우, 상기 제 2 아바타와 인접한 영역에 상기 녹음 기능이 실행 중임을 나타내는 이미지를 디스플레이하는 단계;를 더 포함하는, 방법.
  3. 제 1 항에 있어서,
    상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하는 단계; 및
    상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이하는 단계;를 더 포함하는, 방법.
  4. 제 1 항에 있어서,
    상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 3D로 디스플레이되는, 방법.
  5. 제 1 항에 있어서,
    상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고,
    상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행되는, 방법.
  6. 제 1 항에 있어서,
    상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고,
    상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이되는, 방법.
  7. 제 1 항에 있어서,
    상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이하는 단계;를 더 포함하는, 방법.
  8. 제 7 항에 있어서,
    상기 제 2 아바타를 디스플레이하는 단계는
    상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이하는, 방법.
  9. 제 1 항에 있어서,
    상기 제 2 아바타를 디스플레이하는 단계는
    상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이하는, 방법.
  10. 가상의 강의 공간을 제공하는 디바이스에 있어서,
    강의자 계정과 연동하여 동작하는 제 1 디바이스 및 수강자 계정과 연동하여 동작하는 제 2 디바이스로부터 강의 제공 데이터를 수신하여 처리하는 프로세서; 및
    상기 강의 제공 데이터에 기초하여, 상기 강의자 계정과 연동하여 동작하고 강의자의 움직임을 센싱하여 동작하는 제 1 아바타, 상기 강의자 계정의 로그인에 이용된 상기 제 1 디바이스에서 실행되는 제 1 프로그램의 실행 화면, 상기 수강자 계정과 연동하여 동작하고 수강자의 움직임을 센싱하여 동작하는 제 2 아바타, 상기 수강자 계정의 로그인에 이용된 상기 제 2 디바이스에서 실행되는 제 2 프로그램의 실행 화면 및 상기 강의자의 움직임에 기초하여 획득되는 이미지를 제공하는 가상 칠판을 디스플레이하는 디스플레이;를 포함하는, 디바이스.
  11. 제 10 항에 있어서,
    상기 디스플레이는
    상기 강의자의 움직임에 기초하여 생성된 가상 실험용 대상물을 디스플레이하고,
    상기 가상 실험용 대상물의 형상을 상기 강의자의 움직임 및 상기 수강자의 움직임에 따라 갱신하여 디스플레이하는, 디바이스.
  12. 제 10 항에 있어서,
    상기 디스플레이는
    상기 제 1 아바타, 상기 제 1 프로그램의 실행 화면, 상기 제 2 아바타, 상기 제 2 프로그램의 실행 화면 및 상기 가상 칠판은 상기 가상의 강의 공간이 제공되는 디바이스의 환경에 따라서 2D 또는 2D로 디스플레이하는, 디바이스.
  13. 제 10 항에 있어서,
    상기 제 1 프로그램은 상기 강의자의 움직임을 센싱하여 실행되고,
    상기 제 2 프로그램은 상기 수강자의 움직임을 센싱하여 실행되는, 디바이스.
  14. 제 10 항에 있어서,
    상기 제 1 프로그램의 실행 화면은 상기 제 1 아바타와 연동하여 동작하는 제 1 아이템에서 디스플레이되고,
    상기 제 2 프로그램의 실행 화면은 상기 제 2 아바타와 연동하여 동작하는 제 2 아이템에서 디스플레이되는, 디바이스.
  15. 제 10 항에 있어서,
    상기 디스플레이는
    상기 가상의 강의 공간을 제공하는 제 3 디바이스의 이용자의 움직임에 따라 결정된 뷰 포인트에 기초하여 상기 제 1 아바타 또는 상기 제 2 아바타를 디스플레이하는, 디바이스.
  16. 제 15 항에 있어서,
    상기 디스플레이는
    상기 제 2 디바이스와 상기 제 3 디바이스가 실시간으로 송수신하는 데이터의 연속성에 기초하여 상기 제 2 아바타의 기설정 신체 부위의 반복적인 움직임을 디스플레이하는, 디바이스.
  17. 제 10 항에 있어서,
    상기 디스플레이는
    상기 수강자의 안구 모니터링 결과에 따라 결정된 시선 방향에 기초하여 상기 제 2 아바타와 인접한 영역에 상기 수강자의 수강 상태를 나타내는 이미지를 디스플레이하는, 디바이스.
  18. 제 1 항 내지 제 9 항 중 어느 한 항의 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램.

KR1020200131407A 2020-10-12 2020-10-12 효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스 KR102561352B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200131407A KR102561352B1 (ko) 2020-10-12 2020-10-12 효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200131407A KR102561352B1 (ko) 2020-10-12 2020-10-12 효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스

Publications (2)

Publication Number Publication Date
KR20220048350A true KR20220048350A (ko) 2022-04-19
KR102561352B1 KR102561352B1 (ko) 2023-07-31

Family

ID=81391868

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200131407A KR102561352B1 (ko) 2020-10-12 2020-10-12 효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스

Country Status (1)

Country Link
KR (1) KR102561352B1 (ko)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010065751A (ko) * 1999-12-30 2001-07-11 박영신 3차원 인터넷 공간에서 아바타를 이용한 교육방법
KR20100016696A (ko) * 2008-08-05 2010-02-16 주식회사 리얼맨토스 가상강의의 학습상태 분석시스템 및 이를 이용한 학습코스스케줄링방법
KR20110105516A (ko) * 2010-03-19 2011-09-27 (주) 써니그라피 양방향 상호작용 가능한 강의시스템 및 이를 이용한 강의 수행, 녹화, 재생방법
KR101367260B1 (ko) * 2012-06-19 2014-02-25 김영대 강의자가 강의 중에 강의 화면을 구성할 수 있는 가상 강의실 강의 장치
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
KR20170017616A (ko) * 2015-08-07 2017-02-15 현대모비스 주식회사 운전 보조 장치 및 방법
KR20190045939A (ko) * 2016-12-05 2019-05-03 구글 엘엘씨 가상 환경에서 제스처 기반 액세스 제어
KR20200094929A (ko) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 스마트 토이 및 이를 활용한 커뮤니케이션 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010065751A (ko) * 1999-12-30 2001-07-11 박영신 3차원 인터넷 공간에서 아바타를 이용한 교육방법
KR20100016696A (ko) * 2008-08-05 2010-02-16 주식회사 리얼맨토스 가상강의의 학습상태 분석시스템 및 이를 이용한 학습코스스케줄링방법
KR20110105516A (ko) * 2010-03-19 2011-09-27 (주) 써니그라피 양방향 상호작용 가능한 강의시스템 및 이를 이용한 강의 수행, 녹화, 재생방법
KR101367260B1 (ko) * 2012-06-19 2014-02-25 김영대 강의자가 강의 중에 강의 화면을 구성할 수 있는 가상 강의실 강의 장치
JP2014225801A (ja) * 2013-05-16 2014-12-04 株式会社ニコン 会議システム、会議方法およびプログラム
KR20170017616A (ko) * 2015-08-07 2017-02-15 현대모비스 주식회사 운전 보조 장치 및 방법
KR20190045939A (ko) * 2016-12-05 2019-05-03 구글 엘엘씨 가상 환경에서 제스처 기반 액세스 제어
KR20200094929A (ko) * 2019-01-31 2020-08-10 한국기술교육대학교 산학협력단 스마트 토이 및 이를 활용한 커뮤니케이션 방법

Also Published As

Publication number Publication date
KR102561352B1 (ko) 2023-07-31

Similar Documents

Publication Publication Date Title
US11302085B2 (en) Artificial reality collaborative working environments
Tham et al. Understanding virtual reality: Presence, embodiment, and professional practice
US10721280B1 (en) Extended mixed multimedia reality platform
He et al. Collabovr: A reconfigurable framework for creative collaboration in virtual reality
De Lucia et al. Development and evaluation of a virtual campus on Second Life: The case of SecondDMI
Grønbæk et al. MirrorBlender: Supporting hybrid meetings with a malleable video-conferencing system
Rae et al. In-body experiences: embodiment, control, and trust in robot-mediated communication
Benford et al. Networked virtual reality and cooperative work
McVeigh-Schultz et al. A “beyond being there” for VR meetings: envisioning the future of remote work
Nagendran et al. AMITIES: Avatar-mediated interactive training and individualized experience system
Yoshimura et al. Evaluation and comparison of desktop viewing and headset viewing of remote lectures in vr with mozilla hubs
JP2020080154A (ja) 情報処理システム
Stahl et al. Social telepresence robots: The role of gesture for collaboration over a distance
Fink et al. Re-locations: Augmenting personal and shared workspaces to support remote collaboration in incongruent spaces
Zarraonandia et al. Augmented presentations: Supporting the communication in presentations by means of augmented reality
Song et al. Developing “Learningverse”—A 3-D Metaverse Platform to Support Teaching, Social, and Cognitive Presences
Krueger An easy entry artificial reality
KR102561352B1 (ko) 효율적인 소통 환경이 구현된 가상의 강의 공간을 제공하는 방법 및 디바이스
Mukkawar et al. Architectural view of non-face-to-face experiential learning through the immersive technologies
Jasche et al. BeamLite: diminishing ecological fractures of remote collaboration through mixed reality environments
Billinghurst Shared space: explorations in collaborative augmented reality
Thanyadit et al. Tutor In-sight: Guiding and Visualizing Students’ Attention with Mixed Reality Avatar Presentation Tools
Walkowski et al. Using a game controller for relaying deictic gestures in computer-mediated communication
He Enhancing Collaboration and Productivity for Virtual and Augmented Reality
Chang et al. SignalShare: A Secondary Two-Way Mediated Interaction Tool

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant