KR20150018664A - 실감형 상호작용 가상 실습을 이용한 교육 시스템 - Google Patents

실감형 상호작용 가상 실습을 이용한 교육 시스템 Download PDF

Info

Publication number
KR20150018664A
KR20150018664A KR20130093960A KR20130093960A KR20150018664A KR 20150018664 A KR20150018664 A KR 20150018664A KR 20130093960 A KR20130093960 A KR 20130093960A KR 20130093960 A KR20130093960 A KR 20130093960A KR 20150018664 A KR20150018664 A KR 20150018664A
Authority
KR
South Korea
Prior art keywords
unit
learning tool
operation signal
learning
virtual
Prior art date
Application number
KR20130093960A
Other languages
English (en)
Inventor
맹준희
Original Assignee
맹준희
주식회사 스마트랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 맹준희, 주식회사 스마트랩 filed Critical 맹준희
Priority to KR20130093960A priority Critical patent/KR20150018664A/ko
Publication of KR20150018664A publication Critical patent/KR20150018664A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/444Spatial browsing, e.g. 2D maps, 3D or virtual spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Databases & Information Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 실감형 상호작용 가상 실습을 이용한 교육 시스템에 관한 것으로, 더욱 상세하게는 교육 또는 학습을 위한 실감형 가상체험 콘텐츠를 제공받아 출력하며, 외부에서 입력되는 동작 신호를 인식하여 전달하는 멀티 터치 모니터부(100), 상기 멀티 터치 모니터부(100)와 네트워크로 연결되며, 상기 멀티 터치 모니터부(100)에 출력되는 상기 실감형 가상체험 콘텐츠에 따라, 이용자로부터 상기 동작 신호를 입력받아 전달하는 학습 도구부(200) 및 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)와 네트워크로 연결되며, 상기 학습 도구부(200)에 의해 입력되는 상기 동작 신호에 대응하여 상기 실감형 가상체험 콘텐츠를 제어하고, 제어한 상기 실감형 가상체험 콘텐츠를 상기 멀티 터치 모니터부(100)로 전달하는 중앙 처리부(300)를 포함하여 구성되는 것을 특징으로 하는 실감형 상호작용 가상 실습을 이용한 교육 시스템에 관한 것이다.

Description

실감형 상호작용 가상 실습을 이용한 교육 시스템{Education System using Tangible and interactive Virtual Learning}
본 발명은 실감형 상호작용 가상 실습을 이용한 교육 시스템에 관한 것으로, 더욱 상세하게는 다양한 학습 도구와 멀티 터치가 가능한 모니터를 통해서, 이용자(실습자, 교육자, 학습자)가 다양한 체험, 관찰 및 실험 등에 대한 실감형 가상체험을 수행할 수 있는 에듀테인먼트(Edutainment) 서비스를 이용하여, 스마트 교육을 통해 연결되어 있는 온라인 상의 학생들에게 학습을 지원할 수 있는 실감형 상호작용 가상 실습을 이용한 교육 시스템에 관한 것이다.
정보 통신 기술의 발달 및 컴퓨터, 스마트폰의 대중화에 따라, 종래의 대면 교육이 여러 가지 형태의 이러닝(e-Learning)으로 대체되고 있다.
초창기의 이러닝에서는 교과서와 같은 텍스트 기반 매체에 담긴 내용들을 단순히 디지털 콘텐츠로 옮기는 것과 같은 접근 방법이 많이 사용되었지만, 단순한 텍스트, 동영상 또는 플래시 기반의 일방형 교육 콘텐츠로 얻을 수 있는 교육 효과에는 여러 가지 한계점이 존재한다.
이러한 점을 극복하기 위해서, 최근 증강 현실(Augmented Reality) 또는, 혼합 현실(Mixed Reality)이라 불리는 기술에 대한 관심이 높아지고 있다.
증강 현실이란, 콘텐츠 사용자가 실제 관찰하고 있는 사물이나 장소에 대한 부가적인 정보나 의미를 함께 제공하는 기술을 의미하는데, 학습 콘텐츠에 적용할 경우, 학습 장면에 대한 맥락인식(context-awareness)을 높이고, 학습자의 실제감과 몰입감을 촉진함으로써 학습효과를 향상시킬 수 있을 것으로 기대되고 있다.
이러한 증강 현실 콘텐츠의 사용자는 종래의 학습 콘텐츠에서처럼 마우스나 키보드 등과 같은 범용 입력 장치로 콘텐츠를 조작하는 것이 아니라, 실감형 인터페이스, 즉, 현실 세계의 객체에 대한 조작을 통해 디지털 콘텐츠와 상호 작용하게 된다.
이를 학습 콘텐츠에 적용할 경우, 실감형 인터페이스를 통한 조작 활동이 학습자의 학습 경험을 증진시킬 수 있으며, 실제 교육에서는 여러 가지 감각을 통하여 학습이 이루어지기 때문에, 이러닝에서도 이와 같은 체험 또는 학습을 할 수 있는 환경을 만들어 주는 것이 중요하다.
일 예를 들자면, 실감형 인터페이스로 특정 디스플레이 장치를 머리에 쓰거나(HMD, head mounted display) 또는 손에 들고(handheld display) 실제 객체를 볼 때, 실체 객체에 가상 콘텐츠를 혼합하여 보여주는 방법이나,
또다른 예로, 카메라 등을 사용해 인식한 영상과 가상 콘텐츠를 혼합하여 일반 모니터나 스크린 위에 보여주는 방법이 있다.
하지만, 이러한 기술들을 실제 교육에 적용하는 과정에 있어, 장비의 안정성과 실시간성, 고가 장비로 인한 제한 등의 문제점이 있기 때문에, 아직까지 교육내용을 단순 시뮬레이션하는 것에 머물러 있는 현실이다.
또한, 두가지 방법 모두 주로 카메라를 통한 영상 인식을 통해 실감형 인터페이스를 구현함으로써, 조도와 같은 주변 환경에 민감하고 영상 인식의 불안정성이 있다는 문제점이 있다.
국내 공개 특허 제2009-0092565호("가상현실에서 만들어지는 프로그램이 현실에서 구동되도록 하는 가상현실과 현실을 이어주는 융합시스템", 이하 선행문헌 1)에서는 현실로 출력 가능한 스포츠 센터(메인 스타디움)를 임의의 장소에 시공하여 스포츠 센터(이하, 메인 스타디움)에 입장하는 고객들이 메인 스타디움에서 출력되어지는 스포츠의 결과물에 대한 예측을 통하여 플레이되는 경기, 경주, 오락 등을 즐기면서 소정의 금액을 이용한 베팅 시스템이 제공되는 가상현실과 현실을 이어주는 융합시스템을 개시하고 있다.
국내 공개 특허 제10-2009-0092565호(공개특허 2009.09.01.)
본 발명은 상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 다양한 학습 도구와 멀티 터치가 가능한 모니터를 통해서, 이용자(실습자, 교육자, 학습자)가 다양한 체험, 관찰 및 실험 등에 대한 실감형 가상체험을 수행할 수 있는 에듀테인먼트(Edutainment) 서비스를 이용하여, 스마트 교육을 통해 연결되어 있는 온라인 상의 학생들에게 학습을 지원할 수 있는 실감형 상호작용 가상 실습을 이용한 교육 시스템을 제공하는데 있다.
본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템은, 교육 또는 학습을 위한 실감형 가상체험 콘텐츠를 제공받아 출력하며, 외부에서 입력되는 동작 신호를 인식하여 전달하는 멀티 터치 모니터부(100), 상기 멀티 터치 모니터부(100)와 네트워크로 연결되며, 상기 멀티 터치 모니터부(100)에 출력되는 상기 실감형 가상체험 콘텐츠에 따라, 이용자로부터 상기 동작 신호를 입력받아 전달하는 학습 도구부(200) 및 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)와 네트워크로 연결되며, 상기 학습 도구부(200)에 의해 입력되는 상기 동작 신호에 대응하여 상기 실감형 가상체험 콘텐츠를 제어하고, 제어한 상기 실감형 가상체험 콘텐츠를 상기 멀티 터치 모니터부(100)로 전달하는 중앙 처리부(300)를 포함하여 구성되는 것을 특징으로 한다.
이 때, 상기 학습 도구부(200)는 상기 멀티 터치 모니터부(100)와 접촉이 이루어지는 접촉부(210)를 포함하여 구성되며, 상기 멀티 터치 모니터부(100)는 상기 학습 도구부(200)의 접촉부(210)에 따라, 상기 학습 도구부(200)의 종류를 판단하고, 상기 접촉부(210)가 상기 멀티 터치 모니터부(100)에 접촉되는 시간에 따라 상기 동작 신호를 인식하여, 상기 중앙 처리부(300)로 전달하는 것을 특징으로 한다.
또는, 상기 학습 도구부(200)는 이용자로부터 상기 학습 도구부(200)의 종류 및 상기 동작 신호를 입력하는 신호 입력부(220)를 포함하여 구성되며, 상기 멀티 터치 모니터부(100)는 상기 학습 도구부(200)의 신호 입력부(220)로부터 이용자에 의해서 입력되는 상기 학습 도구부(200)의 종류 및 상기 동작 신호를 상기 중앙 처리부(300)로 전달하는 것을 특징으로 한다.
더불어, 상기 중앙 처리부(300)는 상기 학습 도구부(200)에 의해 입력되는 상기 동작 신호 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 데이터베이스화하여 저장하는 데이터베이스부(310)를 포함하여 구성되며, 외부의 요청에 따라, 상기 데이터베이스부(310)에 저장되어 있는 상기 동작 신호 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 제공하는 것을 특징으로 한다.
게다가, 상기 실감형 상호작용 가상 실습을 이용한 교육 시스템은 상기 중앙 처리부(300)와 무선 통신망을 통해서 연결되는 학습자 단말기(400)를 더 포함하여 구성되며, 상기 학습자 단말기(400)는 상기 중앙 처리부(300)로부터 상기 실감형 가상체험 콘텐츠 및 상기 동작 신호 정보를 전달받아, 출력하는 것을 특징으로 한다.
상기와 같은 구성에 의한 본 발명의 실감형 상호작용 가상 실습을 이용한 교육 시스템은 다양한 학습 도구와 멀티 터치가 가능한 모니터를 통해서, 이용자(실습자, 교육자, 학습자)가 다양한 체험, 관찰 및 실험 등에 대한 실감형 가상체험을 수행할 수 있는 에듀테인먼트(Edutainment) 서비스를 이용하여, 스마트 교육을 통해 연결되어 있는 온라인 상의 학습자의 학습을 지원함과 동시에, 학습자들의 흥미와 몰입도를 높일 수 있는 효과가 있다.
이에 따라, 학습효과를 극대화할 수 있는 장점이 있다.
더불어, 실제 교육 과정을 수행함에 있어서, 요구될 수 있는 많은 비용, 긴 시간 또는, 위험물질에 의한 단점을 극복할 수 있는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템을 간략하게 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템을 상세하게 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템의 또다른 예시도이다.
이하 첨부한 도면들을 참조하여 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템을 상세히 설명한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
이 때, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다.
본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템은 멀티 터치가 가능한 모니터에서 제공되는 실감형 가상체험 콘텐츠에 따라, 이용자(실습자, 교육자, 학습자)가 다양한 학습 도구 중 알맞은 학습 도구를 선택하여 다양한 체험, 관찰 및 실험 등을 수행할 수 있는 에듀테인먼트(Edutainment) 서비스를 이용하여, 스마트 교육을 통해 연결되어 있는 온라인 상의 학습자들의 학습을 지원할 수 있다.
이 때, 상기 에듀테인먼트란, 교육(Education)과 오락(Entertainment)의 합성어로, 교육용 소프트웨어에 오락성을 가미하여 이용자(실습자, 교육자, 학습자)가 싫증을 느끼지 않고, 즐기면서 높은 교육적 효과를 얻을 수 있는 서비스이다.
도 1은 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템을 간략하게 도시한 도면이며, 도 2는 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템을 상세하게 도시한 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템의 예시도이다.
도 1 및 도 2를 참조로 하여 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템을 상세히 설명한다.
본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템은 멀티 터치 모니터부(100), 상기 멀티 터치 모니터부(100)와 네트워크를 통해서 연결되어 있는 학습 도구부(200), 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)와 네트워크를 통해서 연결되어 있는 중앙 처리부(300) 및 상기 중앙 처리부(300)와 무선 통신망을 통해서 연결되는 학습자 단말기(400)로 이루어질 수 있다.
각 구성에 대해서 자세히 설명하자면,
상기 멀티 터치 모니터부(100)는 다중접촉을 인식할 수 있는 i-Touch Table로서, 상기 중앙 처리부(300)로부터 교육 또는 학습을 위한 실감형 가상체험 콘텐츠(Content)를 제공받아 이를 출력할 수 있다.
또한, 상기 학습 도구부(200)로부터 입력되는 동작 신호를 인식하여, 상기 동작 신호를 상기 중앙 처리부(300)로 전달할 수 있다.
이 때, 상기 멀티 터치 모니터부(100)에서 출력되는 상기 실감형 가상체험 콘텐츠는 상기 중앙 처리부(300)에서 임의로, 미리 저장되어 있는 순서에 맞추어 상기 실감형 가상체험 콘텐츠이거나, 또는 이용자(실습자, 교육자, 학습자)에 의해 선택된 특정 상기 실감형 가상체험 콘텐츠이다.
이러한 상기 실감형 가상체험 콘텐츠에 따라, 이용자(실습자, 교육자, 학습자)가 상기 학습 도구부(200)를 선택 및 조작하여 상기 동작 신호를 상기 멀티 터치 모니터부(100)로 전달하고, 상기 중앙 처리부(300)에서 상기 동작 신호에 대응하여 상기 실감형 가상체험 콘텐츠를 제어하게 된다.
상기 학습 도구부(200)는 상술한 바와 같이, 상기 멀티 터치 모니터부(100)와 네트워크로 연결되어 있으며, 상기 멀티 터치 모니터부(100)에서 출력되는 상기 실감형 가상체험 콘텐츠에 따라, 상기 실감형 상호작용 가상 실습을 이용한 교육 시스템의 이용자(실습자, 교육자, 학습자)로부터 상기 동작 신호를 입력받을 수 있으며, 입력받은 상기 동작 신호를 상기 멀티 터치 모니터부(100)로 전달할 수 있다.
이 때, 상기 학습 도구부(200)는 이용자(실습자, 교육자, 학습자)로부터 상기 동작 신호를 입력받기 위해서, 도 2에 도시된 바와 같이, 접촉부(210) 및 신호 입력부(220)를 더 포함하여 구성될 수 있다.
이용자(실습자, 교육자, 학습자)의 조작에 따라, 상기 학습 도구부(200)의 상기 접촉부(210)가 다중접촉이 가능한 상기 멀티 터치 모니터부(100)와 실제로 접촉이 이루어질 수 있다.
즉, 이용자(실습자, 교육자, 학습자)가 직접 상기 학습 도구부(200)의 접촉부(210)로 상기 멀티 터치 모니터부(100)를 터치, 즉, 접촉시킴으로써 상기 멀티 터치 모니터부(100)에서 상기 학습 도구부(200)의 종류를 판단하게 된다. 또한, 상기 학습 도구부(200)가 상기 멀티 터치 모니터부(100)에 접촉되는 시간에 따라 상기 동작 신호를 인식하여, 판단한 상기 학습 도구부(200)의 종류 및 상기 동작 신호를 상기 중앙 처리부(300)로 전달할 수 있다.
일 예를 들자면, 도 3은 상기 멀티 터치 모니터부(100)에 상기 실감형 가상체험 콘텐츠 중에서 '화학 실험 콘텐츠'를 출력하고, 이에 따라 이용자(실습자, 교육자, 학습자)가 상기 학습 도구부(200)를 조작하여 가상의 화학 실험을 수행할 수 있다.
자세히 알아보자면,
물과 나트륨의 반응을 관찰하는 가상의 화학 실험을 수행하기 위해서는 스포이트, 핀셋, 비커, 물병 및 점화기의 상기 학습 도구부(200)가 사용되게 되며,
상기 멀티 터치 모니터부(100)는 상기 학습 도구부(200)를 이용하여 상기 멀티 터치 모니터부(100)를 터치할 경우, 인식되는 넓이에 따라 상기 학습 도구부(200)의 종류를 판단할 수 있다.
다시 말하자면, 가상의 화학 실험 콘텐츠를 수행하는 이용자(실습자, 교육자, 학습자)가 상기 학습 도구부(200) 중에서 상기 비커를 이용하여 상기 멀티 터치 모니터부(100)를 터치할 경우, 상기 멀티 터치 모니터부(100)에서 인식되는 넓이에 따라 현재 이용자(실습자, 교육자, 학습자)가 사용하고 있는 상기 학습 도구부(200)가 비커인 것을 판단하게 된다.
이를 상기 중앙 처리부(300)로 전달하며, 상기 중앙 처리부(300)에서는 상기 비커의 동작에 대응하여 상기 실감형 가상체험 콘텐츠를 제어할 준비를 하게 된다.
이용자(실습자, 교육자, 학습자)가 상기 비커를 상기 멀티 터치 모니터부(100)의 원하는 위치에서 소정시간동안 터치할 경우, 상기 멀티 터치 모니터부(100)는 상기 비커가 인식되는 시간을 상기 동작 신호로 인식하여, 상기 중앙 처리부(300)로 상기 동작 신호를 전달하게 된다.
이에 따라, 상기 중앙 처리부(300)는 상기 동작 신호에 따라, 상기 소정시간 동안 상기 비커로 수행할 수 있는 화학 실험을 수행되도록 상기 실감형 가상체험 콘텐츠를 제어한 후, 상기 멀티 터치 모니터부(100)로 전달하여 이용자(실습자, 교육자, 학습자)가 스스로 수행한 실험에 따른 결과를 실시간으로 확인할 수 있도록 한다.
이를 통해서, 실제로 물과 나트륨의 반응을 관찰하는 화학 실험의 경우, 어느 정도 폭발이나 화재와 같은 위험성이 있으나, 이를 상기 실감형 가상체험 콘텐츠를 통해서 수행함으로써, 이러한 위험성으로부터 이용자(실습자, 교육자, 학습자)의 안전을 보장할 수 있게 되는 장점이 있다.
상기 신호 입력부(220)는 상기 멀티 터치 모니터부(100)를 접촉, 즉 터치할 수 없는 상기 학습 도구부(200)의 경우, 이용자(실습자, 교육자, 학습자)가 직접 조작을 통해서 상기 학습 도구부(200)의 종류 및 상기 동작 신호를 입력할 수 있다.
즉, 이용자(실습자, 교육자, 학습자)가 직접 상기 신호 입력부(220)를 통해서, 상기 실감형 가상체험 콘텐츠를 수행하기 위해서 이용자(실습자, 교육자, 학습자)가 이용하는 특정 상기 학습 도구부(200)의 종류 및 이의 동작 신호를 입력하게 된다.
이에 상기 멀티 터치 모니터부(100)는 상기 신호 입력부(220)로부터 입력되는 상기 학습 도구부(200)의 종류 및 상기 학습 도구부(200)이 동작 신호를 상기 중앙 처리부(300)로 전달할 수 있다.
일 예를 들자면, 도 4는 상기 멀티 터치 모니터부(100)에서 상기 실감형 가상체험 콘텐츠 중에서 '물리 실험 콘텐츠'를 출력하고, 이에 따라 이용자(실습자, 교육자, 학습자)가 상기 학습 도구부(200)를 조작하여 가상의 물리 실험을 수행할 수 있다.
자세히 알아보자면,
비행기의 비행 원리를 파악하고자 하는 가상의 물리 실험을 수행하기 위해서는 수평 날개 및 수직 날개의 상기 학습 도구부(200)가 사용된다.
이용자(실습자, 교육자, 학습자)는 상기 학습 도구부(200)의 신호 입력부(220)를 조작하여, 현재 사용하고자 하는 상기 학습 도구부(200)의 종류가 수평 날개 및 수직 날개임을 상기 학습 도구부(200)와 네트워크로 연결되어 있는 상기 멀티 터치 모니터부(100)로 전달할 수 있다.
상기 멀티 터치 모니터부(100)는 상기 학습 도구부(200)의 신호 입력부(220)를 통해서 입력되는 상기 학습 도구부(200)의 종류를 판단하여 상기 중앙 처리부(300)로 전달하고,
상기 중앙 처리부(300)는 상기 학습 도구부(200), 즉, 수평 날개 및 수직 날개의 동작에 대응하여 상기 실감형 가상체험 콘텐츠를 제어할 준비를 하게 된다.
이용자(실습자, 교육자, 학습자)가 상기 학습 도구부(200)의 수평 날개 및 수직 날개의 기울임을 조작할 경우, 상기 학습 도구부(200)와 네트워크를 통해서 입력되는 상기 멀티 터치 모니터부(100)에서 상기 학습 도구부(200)에 미리 구비되어 있는 가속도 센서를 통해서 기울기 정보를 전달받아, 이를 동작 신호로 인식할 수 있다.
이에 따라, 상기 중앙 처리부(300)는 상기 동작 신호에 따라, 상기 기울기 정보에 대응하는 물리 실험이 수행되도록 상기 실감형 가상체험 콘텐츠를 제어한 후, 상기 멀티 터치 모니터부(100)로 전달하여 이용자(실습자, 교육자, 학습자)가 실험 결과를 시리간으로 확인할 수 있도록 한다.
이를 통해서, 실제로는 경험하기 힘든 비행기의 날개 조작을 가상으로 해봄으로써 학습 효과를 향상시킬 수 있는 효과가 있다.
상기 중앙 처리부(300)는 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)와 네트워크로 연결되어 있으며,
상기 학습 도구부(200)에 의해 입력되는 상기 동작 신호에 대응하여 상기 실감형 가상체험 콘텐츠를 제어하고, 제어한 상기 실감형 가상체험 콘텐츠를 상기 멀티 터치 모니터부(100)로 전달할 수 있다.
이를 통해서, 이용자(실습자, 교육자, 학습자)가 상기 학습 도구부(200)를 통해서 입력한 상기 동작 신호에 대응한 실험 결과를 실시간으로 확인할 수 있는 장점이 있다.
상기 중앙 처리부(300)는 도 2에 도시된 바와 같이, 상기 학습 도구부(200)에 의해서 입력되는 상기 동작 신호 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 데이터베이스화하여 저장 및 관리하는 데이터베이스부(310)를 포함하여 구성될 수 있다.
이를 통해서 이용자(실습자, 교육자, 학습자)가 가상 체험, 관찰 및 실험한 내용을 용이하게 확인할 수 있으며, 다른 이용자(실습자, 교육자, 학습자)가 가상 체험, 관찰 및 실험한 내용을 또한 확인할 수 있기 때문에, 이를 통해서 동일한 실수나 불필요한 체험, 관찰 및 실험을 줄일 수 있는 장점이 있다.
또한, 상기 중앙 처리부(300)는 외부의 요청에 따라, 상기 데이터베이스부(310)에 저장되어 있는 상기 동작 신호 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠, 즉, 동작 신호의 결과 콘텐츠를 제공할 수 있다.
상기 학습자 단말기(400)는 상기 중앙 처리부(300)와 무선 통신망을 통해 연결되어 있으며, 상기 무선 통신망으로는 블루투스(Bluetooth), 지그비(Zigbee),RF(Radio Frequency), Wi-fi(Wireless-Fidelity) 등 무선 통신이 가능한 모든 무선 통신 매체를 이용할 수 있다.
상기 학습자 단말기(400)는 상기 중앙 처리부(300)로부터 상기 실감형 가상체험 콘텐츠 및 상기 동작 신호 정보를 전달받아 출력할 수 있다.
자세히 알아보자면,
본 발명의 일 실시예에 따른 상기 실감형 상호작용 가상 실습을 이용한 교육 시스템은 상술한 바와 같이, 상기 멀티 터치 모니터부(100)는 상기 중앙 처리부(300)로부터 교육 또는 학습을 위한 상기 실감형 가상체험 콘텐츠를 제공받아 이를 출력할 수 있으며,
상기 멀티 터치 모니터부(100)는 상기 학습 도구부(200)로부터 입력되는 동작 신호를 인식하여 상기 동작 신호를 상기 중앙 처리부(300)로 전달하여 상기 중앙 처리부(300)에서 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 상기 멀티 터치 모니터부(100)로 다시 전달할 수 있다.
이 경우, 이용자(실습자, 학습자)가 직접 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)를 이용하여 상기 실감형 가상체험 콘텐츠를 수행함으로써, 학습 효과를 누릴 수 있다.
그러나, 학습하고자 하는 학습자가 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)를 이용할 수 없는 경우, 학습자가 구비하고 있는 상기 학습자 단말기(400)를 통해서, 상기 멀티 터치 모니터부(100)로 제공되는 상기 실감형 가상체험 콘텐츠를 제공받을 수 있다.
이 때, 이용자(교육자)가 실제로 상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)를 이용하여 상기 실감형 가상체험 콘텐츠를 수행하게 되고,
그에 따른 상기 동작 신호 정보 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 상기 학습자 단말기(400)로 전달하여 상기 중앙 처리부(300)로 무선 통신망을 통해서 원거리에 위치하고 있는 다수의 학습자에게 교육 효과를 제공할 수 있다.
더불어, 상기 학습자 단말기(400)를 구비하고 있는 학습자는 무선 통신망을 통해서 연결되어 있는 상기 중앙 처리부(300)에 상기 동작 신호를 입력할 수도 있으며,
이용자(실습자, 교육자)는 상기 학습자 단말기(400)를 통해서 입력된 상기 동작 신호를 전달받아, 상기 학습 도구부(200)를 조작하여 그에 맞는 상기 동작 신호를 상기 멀티 터치 모니터부(100)로 입력하게 된다.
이에 따라, 상기 멀티 터치 모니터부(100)는 상기 동작 신호를 인식하여, 상기 동작 신호를 상기 중앙 처리부(300)로 전달하고,
상기 중앙 처리부(300)는 상기 실감형 가상체험 콘텐츠를 제어하여 상기 멀티 터치 모니터부(100) 및 상기 학습자 단말기(400)로 전달하게 된다.
이를 통해서, 상기 중앙 처리부(300)와 무선 통신망을 통해 연결되어 있는 상기 학습자 단말기(400)로도 이용자(실습자, 교육자)에 의해서 수행되는 다양한 체험, 관찰 및 실험 등에 대한 실감형 가상체험 수행 결과를 전달받아 높은 교육 효과를 기대할 수 있다.
즉, 다시 말하자면, 본 발명의 일 실시예에 따른 실감형 상호작용 가상 실습을 이용한 교육 시스템은 실제로 체험, 관찰 및 실험하기 어려운 다양한 학습 콘텐츠를 상기 중앙 관리부(300)에서 상기 실감형 가상체험 콘텐츠로 저장 및 관리하면서, 이를 상기 멀티 터치 모니터부(100)로 제공할 수 있다.
이용자(실습자, 교육자, 학습자)는 상기 멀티 터치 모니터부(100)에 출력되는 상기 실감형 가상체험 콘텐츠에 따라, 해당하는 상기 학습 도구부(200)의 조작을 통해서 상기 멀티 터치 모니터부(100)로 상기 동작 신호를 전달할 수 있다.
이 때, 이용자(실습자, 교육자, 학습자)는 상기 학습 도구부(200)의 접촉부(210) 또는, 신호 입력부(220)의 조작을 통해서, 상기 동작 신호를 입력하고 이를 상기 멀티 터치 모니터부(100)로 전달할 수 있다.
상기 멀티 터치 모니터부(100)는 상기 동작 신호를 상기 중앙 처리부(300)로 재전송할 수 있으며,
상기 중앙 처리부(300)는 상기 동작 신호에 대응하여 상기 실감형 가상체험 콘텐츠를 제어하여, 제어한 상기 실감형 가상체험 콘텐츠, 즉, 이용자(실습자, 교육자, 학습자)에 의해 체험, 관찰 및 실험한 결과를 추가한 상기 실감형 가상체험 콘텐츠를 상기 멀티 터치 모니터부(100)로 전달할 수 있다.
이를 통해서, 이용자(실습자, 교육자, 학습자)는 실제로 수행하기 어려운 다앙한 체험, 관찰 및 실험을 상기 실감형 가상체험 콘텐츠를 통해서 가상 체험, 관찰 및 실험할 수 있으며, 그 결과를 실시간으로 확인할 수 있기 때문에 손쉽게 다양한 상기 실감형 가상체험 콘텐츠를 체험할 수 있는 장점이 있으며, 이에 따른 학습 효과가 뛰어난 효과가 있다.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한 정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술되는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100 : 멀티 터치 모니터부
200 : 학습 도구부
210 : 접촉부 220 : 신호 입력부
300 : 중앙 처리부
310 : 데이터베이스부
400 : 학습자 단말기

Claims (5)

  1. 교육 또는 학습을 위한 실감형 가상체험 콘텐츠를 제공받아 출력하며, 외부에서 입력되는 동작 신호를 인식하여 전달하는 멀티 터치 모니터부(100);
    상기 멀티 터치 모니터부(100)와 네트워크로 연결되며,
    상기 멀티 터치 모니터부(100)에 출력되는 상기 실감형 가상체험 콘텐츠에 따라, 이용자로부터 상기 동작 신호를 입력받아 전달하는 학습 도구부(200); 및
    상기 멀티 터치 모니터부(100) 및 상기 학습 도구부(200)와 네트워크로 연결되며,
    상기 학습 도구부(200)에 의해 입력되는 상기 동작 신호에 대응하여 상기 실감형 가상체험 콘텐츠를 제어하고, 제어한 상기 실감형 가상체험 콘텐츠를 상기 멀티 터치 모니터부(100)로 전달하는 중앙 처리부(300);
    를 포함하여 구성되는 것을 특징으로 하는 실감형 상호작용 가상 실습을 이용한 교육 시스템.
  2. 제 1항에 있어서,
    상기 학습 도구부(200)는
    상기 멀티 터치 모니터부(100)와 접촉이 이루어지는 접촉부(210);
    를 포함하여 구성되며,
    상기 멀티 터치 모니터부(100)는
    상기 학습 도구부(200)의 접촉부(210)에 따라, 상기 학습 도구부(200)의 종류를 판단하고, 상기 접촉부(210)가 상기 멀티 터치 모니터부(100)에 접촉되는 시간에 따라 상기 동작 신호를 인식하여, 상기 중앙 처리부(300)로 전달하는 것을 특징으로 하는 실감형 상호작용 가상 실습을 이용한 교육 시스템.
  3. 제 1항에 있어서,
    상기 학습 도구부(200)는
    이용자로부터 상기 학습 도구부(200)의 종류 및 상기 동작 신호를 입력하는 신호 입력부(220);
    를 포함하여 구성되며,
    상기 멀티 터치 모니터부(100)는
    상기 학습 도구부(200)의 신호 입력부(220)로부터 이용자에 의해서 입력되는 상기 학습 도구부(200)의 종류 및 상기 동작 신호를 상기 중앙 처리부(300)로 전달하는 것을 특징으로 하는 실감형 상호작용 가상 실습을 이용한 교육 시스템.
  4. 제 1항에 있어서,
    상기 중앙 처리부(300)는
    상기 학습 도구부(200)에 의해 입력되는 상기 동작 신호 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 데이터베이스화하여 저장하는 데이터베이스부(310);
    를 포함하여 구성되며,
    외부의 요청에 따라, 상기 데이터베이스부(310)에 저장되어 있는 상기 동작 신호 및 상기 동작 신호에 대응하여 제어한 상기 실감형 가상체험 콘텐츠를 제공하는 것을 특징으로 하는 실감형 상호작용 가상 실습을 이용한 교육 시스템.
  5. 제 1항에 있어서,
    상기 실감형 상호작용 가상 실습을 이용한 교육 시스템은
    상기 중앙 처리부(300)와 무선 통신망을 통해서 연결되는 학습자 단말기(400);
    를 더 포함하여 구성되며,
    상기 학습자 단말기(400)는
    상기 중앙 처리부(300)로부터 상기 실감형 가상체험 콘텐츠 및 상기 동작 신호 정보를 전달받아, 출력하는 것을 특징으로 하는 실감형 상호작용 가상 실습을 이용한 교육 시스템.
KR20130093960A 2013-08-08 2013-08-08 실감형 상호작용 가상 실습을 이용한 교육 시스템 KR20150018664A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130093960A KR20150018664A (ko) 2013-08-08 2013-08-08 실감형 상호작용 가상 실습을 이용한 교육 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130093960A KR20150018664A (ko) 2013-08-08 2013-08-08 실감형 상호작용 가상 실습을 이용한 교육 시스템

Publications (1)

Publication Number Publication Date
KR20150018664A true KR20150018664A (ko) 2015-02-24

Family

ID=52578084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130093960A KR20150018664A (ko) 2013-08-08 2013-08-08 실감형 상호작용 가상 실습을 이용한 교육 시스템

Country Status (1)

Country Link
KR (1) KR20150018664A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124606A1 (ko) * 2017-12-22 2019-06-27 한국교육학술정보원 가상현실 및 증강현실 콘텐츠에서 학습 데이터를 추출하여 데이터 형식으로 변환하는 시스템 및 방법
KR20210088337A (ko) 2020-01-06 2021-07-14 서울대학교병원 수술실 화재 훈련 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019124606A1 (ko) * 2017-12-22 2019-06-27 한국교육학술정보원 가상현실 및 증강현실 콘텐츠에서 학습 데이터를 추출하여 데이터 형식으로 변환하는 시스템 및 방법
KR20210088337A (ko) 2020-01-06 2021-07-14 서울대학교병원 수술실 화재 훈련 장치 및 방법

Similar Documents

Publication Publication Date Title
KR101921579B1 (ko) 모바일 증강현실 기반 화재 소화 훈련 시스템 및 방법
Bowman et al. Evaluating effectiveness in virtual environments with MR simulation
CN108028906B (zh) 信息处理系统和信息处理方法
CN108805766B (zh) 一种ar体感沉浸式教学系统和方法
CN106205250A (zh) 授课系统和授课方法
CN108780611A (zh) 为重型设备的操作提供模拟和训练的装置、引擎、系统和方法
KR20130122406A (ko) 프로그래밍 학습장치 및 방법
WO2019024745A1 (zh) 基于互动课件的交互方法和系统
CN109686168A (zh) 一种基于混合现实的空勤训练系统
WO2023231989A1 (zh) 线上课堂的教学互动方法、装置、设备及介质
CN110544399A (zh) 图形化远程教学系统以及图形化远程教学方法
KR102189882B1 (ko) 드론 조종 교육을 위한 드론 시뮬레이션 시스템
KR101824083B1 (ko) 가상현실의 훈련용 소화기
CN111127968A (zh) Vr教师辅助多人协作培训考核系统
KR20150018664A (ko) 실감형 상호작용 가상 실습을 이용한 교육 시스템
Marougkas et al. Virtual reality in education: reviewing different technological approaches and their implementations
CN206421641U (zh) 一种虚拟现实安全体验馆
CN109979262B (zh) 人身安全vr教育系统
Szklanny et al. Creating an interactive and storytelling educational physics app for mobile devices
CN114743422B (zh) 一种答题方法及装置和电子设备
Evans Gestural interfaces in learning
Damaševičius et al. Designing metaverse escape rooms for microlearning in STEM education
Jung Virtual reality for ESL students
US20050148392A1 (en) System and method for configuring the system to provide multiple touchscreen inputs
KR20200062436A (ko) 실감형 상호작용을 이용한 교육 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application