KR20130042219A - 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법 - Google Patents

혼합 객체, 실감 과학실험 시스템 및 그 제공 방법 Download PDF

Info

Publication number
KR20130042219A
KR20130042219A KR1020110106393A KR20110106393A KR20130042219A KR 20130042219 A KR20130042219 A KR 20130042219A KR 1020110106393 A KR1020110106393 A KR 1020110106393A KR 20110106393 A KR20110106393 A KR 20110106393A KR 20130042219 A KR20130042219 A KR 20130042219A
Authority
KR
South Korea
Prior art keywords
experiment
digital
information
module
experimental
Prior art date
Application number
KR1020110106393A
Other languages
English (en)
Other versions
KR101291602B1 (ko
Inventor
김건희
송교현
하성도
박지형
한인규
김형년
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020110106393A priority Critical patent/KR101291602B1/ko
Publication of KR20130042219A publication Critical patent/KR20130042219A/ko
Application granted granted Critical
Publication of KR101291602B1 publication Critical patent/KR101291602B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 혼합 객체로 형성되는 실험 기구와, 실험 기구에 대응하는 가상 객체를 활용하여 가상 공간에서 진행되는 과학실험을 실제 실험과 유사한 방법으로 수행할 수 있도록 하는 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법에 관한 것이다. 이를 위해 본 발명의 일실시예에 따른 실감 과학실험 시스템은 물리 객체로 형성되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 실험기구와, 사용자의 실험 조작 상황에 대응되는 정보를 표시하는 디지털 실험대와, 실험기구로부터 인터랙션 정보를 수신하여 사용자의 실험 조작 상황을 판단하고, 판단된 실험 조작 상황을 기초로 실험 기구에 대응하는 가상 객체를 디지털 실험대에 표시하는 제어부를 포함한다.

Description

혼합 객체, 실감 과학실험 시스템 및 그 제공 방법{Mixed Object, Tangible Science Experiment System and Providing Method Thereof}
본 발명은 가상의 과학실험 시스템 및 그 제공 방법에 관한 것으로, 특히 만질 수 있는 물리 객체를 활용하여 가상 공간에서 진행되는 과학실험을 실제 실험과 유사한 방법으로 수행할 수 있도록 하는 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법에 관한 것이다.
사람-컴퓨터 인터랙션(Human-Computer Interaction, HCI)은 사용자와 컴퓨터 간의 의사소통을 제공하는 방법으로, 사용자가 새로운 인터페이스를 통해 가상 공간의 컨텐츠와 인터랙션을 손쉽고 직관적으로 수행할 수 있도록 해준다.
일반적으로, 사람-컴퓨터 인터랙션은 현실 공간에 존재하며 컨트롤러 역할을 하는 키보드 또는 마우스 등으로부터의 컨트롤에 의해 가상 공간, 즉 화면 상에 존재하는 객체가 반응하여 변화를 표현할 수 있도록 해주는 사용자 인터페이스를 제공하고 있다.
그러나, 이러한 사용자 인터페이스는 키보드 또는 마우스 등과 같은 컨트롤러를 사용함에 있어 사용자가 컨트롤러의 조작 방법 등을 별도로 숙지하여 익숙해져야 하며, 특정한 모양 및 조작 형태로 제작된 하나의 컨트롤러가 여러 기능을 수행해야 하기 때문에, 사용자가 각 기능에 연관된 실제 물체를 만지거나 조작하는 느낌을 경험할 수 없는 문제점이 있다.
최근에는 이러한 문제점을 해결하기 위해 사용자에게 실제 물체를 조작하는 경험을 느낄 수 있도록 하기 위해 실감형 사용자 인터페이스(Tangible User Interface, TUI)에 대한 연구가 활발히 이루어지고 있다.
실감형 사용자 인터페이스는 키보드, 마우스 또는 펜 모양 마우스 등의 원격 컨트롤러를 사용하지 않고 실제 조작해야 할 가상 공간, 즉 화면 상에 존재하는 대상의 위치에서 특정한 물리적 객체를 활용하는 인터페이스를 말한다. 예를 들어, 붓 형태의 디바이스를 사용하여 화면 상에 직접 그림을 그리는 인터페이스가 대표적이라 할 수 있다.
위험하고 번거로운 실제 과학실험을 대신하기 위해, 컴퓨터를 활용하여 가상의 실험을 수행하고 결과를 살펴볼 수 있는 과학실험 시뮬레이션 소프트웨어들이 개발되어 왔다. 하지만, 이러한 소프트웨어들은 모든 실험기구들이 가상의 컨텐츠로 존재하기 때문에 실제 실험과 같은 물리적 경험을 제공할 수 없다. 따라서, 사용자들은 실제 실험을 수행하고 있다는 느낌을 받는데 한계가 있으며, 실제 실험을 통해 얻을 수 있는 실험 경험을 학습하는데 제한이 많다.
한국공개특허 제10-2007-0041790호 “실험장치와 연동시키는 가상실험 인터페이스” 역시 실험계측 장치로부터 얻어지는 데이터를 기초로 데이터 출력부를 통하여 이미지 등으로 출력시키는 시뮬레이션 방법을 개시하고 있으나, 역시 기존의 가상 이미지를 이용함으로써 실감이 떨어진다.
한국공개특허 제10-2007-0041790호
본 발명은 전술한 바와 같은 문제점을 해결하기 위해 안출된 것으로, 손으로 직접 잡고 조작할 수 있는 실감 과학기구를 사용하여 가상의 과학실험을 실제 과학실험과 유사한 방법으로 수행하여 실제 비슷한 경험을 제공하는 실감 과학실험 시스템 및 그 제공 방법을 제시하는데 그 목적이 있다.
이를 위해 본 발명의 일실시예에 따른 실감 과학실험 시스템은 물리 객체로 형성되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 실험기구와, 사용자의 실험 조작 상황에 대응하는 정보를 표시하는 디지털 실험대와, 실험기구로부터 인터랙션 정보를 수신하여 사용자의 실험 조작 상황을 판단하고, 상기 판단된 실험 조작 상황을 기초로 상기 실험 기구에 대응하는 가상 객체를 생성하고, 상기 생성된 가상 객체를 상기 디지털 실험대에 표시하는 제어부를 포함한다.
이때, 상기 제어부는 상기 판단된 실험 조작 상황을 기초로 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 상기 디지털 실험대에 더 표시할 수 있다.
또한, 실감 과학실험 시스템은 사용자의 상기 실험 기구의 조작 및 상기 디지털 실험대를 촬영하여 영상 정보를 생성하는 촬영부를 더 포함하고, 상기 제어부는 상기 촬영부에서 생성된 상기 영상 정보를 이용하여 실험 조작 상황을 판단할 수 있다.
이때, 상기 실험 기구, 상기 디지털 실험대, 상기 제어부, 상기 촬영부는 각각 유선 또는 무선 통신을 수행하는 통신 모듈을 구비하며, 상기 구비된 통신 모듈을 통해 상호간에 정보를 송수신할 수 있다.
또한, 상기 제어부는 상기 통신 모듈을 통하여 상기 실험 기구의 ID 정보를 수신함으로써 상기 실험 기구를 인식할 수 있다.
상기 실험 기구는 가속도, 기울기, 압력, 온도 중 어느 하나 이상을 센싱할 수 있는 센서 모듈과, 출력 모듈을 더 포함하고, 상기 제어부는 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 출력 모듈을 통하여 출력시킬 수 있다.
또한, 상기 디지털 실험대는 터치스크린 장치를 포함하여 형성되며, 상기 제어부는 상기 실험 기구와 상기 터치스크린 장치와의 접촉 위치를 감지하고, 상기 접촉 위치에 상기 가상 객체를 표시할 수 있다.
또한, 실감 과학실험 시스템은 상기 디지털 실험대에 가상 객체가 표시되도록 영상을 투영하는 프로젝션 장치를 더 포함할 수 있다.
또한, 상기 디지털 실험대는 사운드 출력부를 더 포함하고, 상기 제어부는 상기 판단된 실험 조작 상황을 기초로 상기 사운드 출력부를 통하여 안내 음성을 제공할 수 있다.
또한, 상기 실험 기구와 상기 가상 객체는 하나의 물체를 구성할 수 있다.
본 발명의 다른 일실시예에 따른 실감 과학실험 시스템은 물리 객체와, 상기 물리 객체에 설치되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 센서 모듈과, 상기 물리 객체에 설치되는 출력 모듈을 포함하는 실험 기구와, 상기 실험 기구로부터 상기 인터랙션 정보를 수신하여, 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 출력 모듈을 통하여 출력시키는 제어부를 포함할 수 있다.
이때, 실감 과학실험 시스템은 사용자의 실험 조작 상황에 대응하는 정보를 표시하는 디지털 실험대를 더 포함하고, 상기 제어부는 상기 판단된 실험 조작 상황을 기초로 상기 실험 기구에 대응하는 가상 객체를 생성하고, 상기 생성된 가상 객체를 상기 디지털 실험대에 표시할 수 있다.
또한, 상기 제어부는 상기 판단된 실험 조작 상황을 기초로 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 상기 디지털 실험대에 더 표시할 수 있다.
또한, 본 발명의 일실시예에 따른 혼합 객체는 물리객체와, 상기 물리 객체에 설치되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 센서 모듈과, 상기 물리 객체에 설치되는 출력 모듈과, 상기 센서 모듈에서 생성된 상기 인터랙션 정보를 수신하여, 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 출력 모듈을 통하여 출력시키는 마이크로 컨트롤러 유닛을 포함할 수 있다.
이때, 상기 센서 모듈은 통신 모듈, 가속도 센서 모듈, 기울기 센서 모듈, 압력 센서 모듈, 온도 센서 모듈 중 하나일 수 있다.
또한, 상기 출력 모듈은 디스플레이 모듈, 사운드 출력 모듈, 발광 모듈, 액츄에이터 모듈 중 하나 일 수 있다.
또한, 본 발명의 일실시예에 따른 실감 과학실험 제공 방법은 사용자의 실험기구 조작에 따른 인터랙션 정보를 실험 기구로부터 수신하는 단계와, 상기 인터랙션 정보로부터 사용자의 실험 조작 상황을 판단하는 단계와, 상기 판단된 실험 조작 상황을 기초로 상기 실험 기구에 대응하는 가상 객체를 생성하는 단계와, 상기 가상 객체를 디지털 실험대에 표시하는 단계를 포함한다.
또한, 실감 과학실험 제공 방법은, 상기 판단된 실험 조작 상황을 기초로 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 상기 디지털 실험대에 표시하는 단계와, 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 실험 기구의 출력 모듈을 통하여 출력시키는 단계를 더 포함할 수 있다.
이때, 상기 인터랙션 정보를 상기 실험기구에 부착된 센서 모듈로부터 센싱되는 가속도, 기울기, 압력, 온도 중 하나 이상의 정보일 수 있다.
또한, 실감 과학실험 제공 방법은 사용자의 상기 실험 기구의 조작 및 상기 디지털 실험대를 촬영하여 영상 정보를 생성하는 단계와, 상기 영상 정보를 이용하여 실험 조작 상황을 판단하는 단계와, 상기 실험 기구의 ID 정보를 수신함으로써 상기 실험 기구를 인식하는 단계를 더 포함할 수 있다.
이때, 상기 가상 객체를 생성하는 단계는, 상기 실험 기구와 상기 디지털 실험대에 형성되는 터치스크린 장치와의 접속 위치에 상기 가상 객체를 표시하는 단계를 포함할 수 있다.
또한, 실감 과학실험 제공 방법은, 상기 판단된 실험 조작 상황을 기초로 사운드 출력부를 통하여 안내 음성을 제공하는 단계를 더 포함할 수 있으며, 상기 실험 기구와 상기 가상 객체를 하나의 물체를 구성할 수 있다.
본 발명에 따른 실감 과학실험 시스템 및 그 제공 방법에 의하면, 실제 실험과 유사한 과학실험 경험을 제공하면서도 눈에 보이지 않는 실험 과정을 디지털로 가시화함으로써 실험자가 물리적, 이론적 경험을 모두 배울 수 있는 효과가 있다. 특히, 위험하거나 비용이 많이 발생하는 실험, 그리고 실험 준비가 복잡한 실험의 경우, 실감 과학실험 시스템 도입을 통하여 보다 안전하고, 가격이 저렴하며, 간단한 준비를 통해 다양한 실험을 경험할 수 있는 장점이 있다.
도 1은 본 발명의 일실시예에 따른 혼합 객체의 개략 구성도이다.
도 2는 본 발명의 일실시예에 따른 혼합 객체의 예로서 비커를 도시한 도면이다.
도 3는 도 2의 비커를 기울인 경우 출력되는 디지털 피드백을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 혼합 객체의 동작을 설명하는 순서도이다.
도 5은 본 발명의 일실시예에 따른 실감 과학실험 시스템의 개략 구성도이다.
도 6는 본 발명의 일실시예에 따른 실감 과학실험 시스템의 상세 구성도이다.
도 7은 본 발명의 일실시예에 따른 실감 과학실험 제공 방법을 설명하는 순서도이다.
도 8는 본 발명의 일실시예에 따른 실감 과학실험 시스템을 이용한 과학실험의 예를 나타내는 도면이다.
도 9는 본 발명의 일실시예에 따른 실감 과학실험 시스템에 사용되는 스포이트를 나타내는 도면이다.
도 10는 도 5의 스포이트를 이용하여 과학실험을 하는 경우 디지털 실험대에 생성되는 가상 객체를 나타내는 도면이다.
도 11은 비커를 이용하여 과학실험은 하는 경우 가상 객체 및 이벤트 정보가 표시된 디지털 실험대를 나타내는 도면이다.
도 12은 본 발명의 일실시예에 따른 실감 과학실험 시스템을 이용하여 과학실험을 수행한 경우 디지털 실험대에 최종 결과가 도시된 상태를 나타내는 도면이다.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다. 그러나, 첨부도면 및 이하의 설명은 본 발명에 따른 실감 과학실험 시스템 및 그 제공 방법의 가능한 일실시예에 불과하며, 본 발명의 기술적 사상은 아래의 내용에 의해 한정되지 아니한다.
도 1은 본 발명의 일실시예에 따른 혼합 객체의 개략 구성도이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 혼합 객체(1)는 물리 객체(2)와, 센서 모듈(3)과, 출력 모듈(4)과, 통신 모듈(5)과, 마이크로 컨트롤러 유닛(6)을 포함하여 구성된다.
물리 객체(2)는 특정 물체의 전체 또는 일부를 구성하도록 형성된다. 예를 들어, 물리 객체(2)는 과학실험 기구의 한 종류가 될 수 있으며, 스포이트를 예로 드는 경우 고무 손잡이 부분만 물리 객체(2)로 형성될 수 있으며, 나머지 부분은 후술할 가상 객체로 표현될 수 있다.
센서 모듈(3)은 물리 객체(2)에 설치되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 역할을 한다. 여기서 ‘인터랙션 정보(Interaction Information)’라 함은 사용자가 물리 객체(2)를 조작하는 경우 사용자의 물리 객체(2) 조작과 관련되는 일련의 정보를 의미한다. 자세한 내용은 후술하기로 한다.
이때, 센서 모듈(3)는 통신 모듈(블루투스 모듈, RFID 센서 모듈, GPS 센서 모듈 등)과, 가속도 센서 모듈, 기울기 센서 모듈, 압력 센서 모듈, 온도 센서 모듈 등이 될 수 있다. 이러한 센서 모듈(3)로부터 센싱되는 정보는 후술할 마이크로 컨트롤러 유닛(MCU: 6)로 전달되어 물리 객체(2)의 조작 상황을 판단하는데 이용된다.
출력 모듈(4)은 물리 객체(2)에 설치되어 물리 객체(2)의 조작 상황에 맞는 디지털 피드백을 출력하는 역할을 한다. 여기서 ‘디지털 피드백(Digital Feedback)을 출력한다’라 함은 물리 객체(2)의 조작 상황에 맞는 화면 정보, 소리 정보, 진동 등의 정보를 사용자에게 제공하는 것을 의미한다.
출력 모듈(4)은 디스플레이 모듈, 사운드 출력 모듈, 발광 모듈, 액츄에이터 모듈 등이 될 수 있다. 디스플레이 모듈은 LCD 패널과 같은 것으로 구성되어 각종 정보를 영상으로 사용자에게 제공할 수 있다. 사운드 출력 모듈은 상황에 맞는 특정 소리 정보를 사용자에게 제공할 수 있으며, 발광 모듈은 상황에 맞는 색깔의 빛을 사용자에게 제공할 수 있다. 액츄에이터 모듈은 진동 등의 움직임 정보를 사용자게 제공할 수 있다.
마이크로 컨트롤러 유닛(MCU: 6)은 센서 모듈(3)에서 생성된 인터랙션 정보를 수신하여, 인터랙션 정보에 대응하는 디지털 피드백을 출력 모듈(4)를 통하여 출력시키는 역할을 한다. 즉, MCU(6)는 수신된 인터랙션 정보를 이용하여 현재 물리 객체(2)의 조작 상황에 맞는 디지털 피드백의 종류를 결정하여 상기 출력 모듈(4)를 통해 출력시킨다.
도 2는 본 발명의 일실시예에 따른 혼합 객체의 예로서 비커를 도시한 도면이며, 도 3은 도 2의 비커를 기울인 경우 출력되는 디지털 피드백을 나타내는 도면이다.
도 2를 참조하면, 혼합 객체의 예인 비커(1)는 유리 또는 플라스틱으로 형성되는 물리 객체(2)와, 기울기 또는 가속도 등의 동작 센서의 하나인 센서 모듈(3)과, 발광 모듈로 이루어지는 출력 모듈(4)과, 외부와 정보를 송수신할 수 있는 통신 모듈(5)과, 출력할 디지털 피드백을 결정하여 출력 모듈(4)를 통하여 디지털 피드백을 출력시키는 MCU(6)를 포함하여 구성된다.
비커(1)가 이와 같은 방식으로 구성되는 경우, 도 3에 도시된 바와 같이 사용자가 비커(1)를 기울이면, 센서 모듈(3)는 비커(1)의 기울기를 감지하여, 이 기울기 정보를 MCU(6)로 전송한다. MCU(6)는 기울기 정보를 입력 받아 비커(1)의 하단부에 설치된 다수의 발광 모듈(4)을 이용하여 실제 용액이 기울어진 모양을 형성하도록 LED 등의 빛을 발광하여 사용자에게 제공한다. 도 3을 참조하면, 실제 용액의 색깔로서 용액이 기울어져 비커(1)에 담겨 있는 형상이 나타나 있음을 확인할 수 있다.
만약, 별도의 외부 컨트롤러가 존재하는 경우에는 센서 모듈(4)에서 센싱된 정보는 통신 모듈(5)을 통하여 외부 컨트롤러로 전송될 수 있으며, 외부 컨트롤러가 제어 신호를 전송하면, 통신 모듈(5)을 통하여 수신하여 MCU(6)는 출력 모듈(6)을 통하여 디지털 피드백을 출력시킬 수도 있다.
도 4는 본 발명의 일실시예에 따른 혼합 객체의 동작을 설명하는 순서도이다.
본 발명에 따른 혼합 객체(1)의 MCU(6)는 센서 모듈(3)로부터 인터랙션 정보를 수신한다(100). MCU(6)는 인터랙션 정보를 수신하여 사용자의 물리 객체(2)의 조작 상황을 판단하고(120), 출력할 디지털 피드백의 종류 및 방법을 결정한다(140). 출력할 디지털 피드백이 결정되면 MCU(6)는 출력 모듈(4)를 통하여 디지털 피드백을 출력시킨다(160)
본 발명에 따른 혼합 객체(1)는 이와 같은 방식으로 사용자에게 실제 실험 하는 것과 같은 유사한 환경을 제공하게 된다. 이렇게, 혼합 객체(1)에 설치된 MCU(6)를 통하여 출력할 디지털 피드백을 제어할 수도 있지만, 앞에서 언급한 바와 같이 외부 컨트롤러에 의해 제어될 수도 있음은 물론이다. 아래에서는 외부 컨트롤러와, 가상 객체를 표시할 수 있는 별도의 출력부를 구비하는 과학실험 시스템과 함께 혼합 객체(1)가 동작하는 경우를 상세히 설명하기로 한다.
도 5은 본 발명의 일실시예에 따른 실감 과학실험 시스템의 개략 구성도이다.
도 5을 참조하면, 본 발명의 일실시예에 따른 실감 과학실험 시스템은 촬영부(10)와, 실험 기구(20)와, 디지털 실험대(30)와, 제어부(40)를 포함하여 구성된다.
실험 기구(20)는 물리 객체로 형성되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 역할을 한다. 실험 기구(20)는 앞에서 언급한 혼합 객체(1)와 같이 내부에 센서 모듈, 출력 모듈, 통신 모듈, MCU가 존재한다. 실감 과학실험의 예로 화학실험을 구현하는 경우, 물리적 실험 기구(20)는 비커, 스포이트, 피펫, 뷰렛, 스푼, 유리막대 등이 될 수 있으며, ‘인터랙션 정보’는 ‘사용자가 비커를 기울이는 정도’, ‘사용자가 스포이트의 고무 손잡이를 누르는 압력 정보’ 등이 될 수 있다.
디지털 실험대(30)는 사용자의 실험 조작 상황에 대응하는 정보를 표시하는 역할을 한다. 이때, 디지털 실험대(30)는 자체적으로 실험 조작 상황을 시각적으로 표시하는 디스플레이부(미도시)와, 실험 조작 상황을 청각적으로 안내하는 사운드 출력부(미도시)를 포함할 수 있다. 이때, 디스플레이부는 터치스크린 장치로 이루어질 수 있으며 실험 기구(20)가 터치스크린 장치에 놓여지는 경우, 터치되는 좌표를 후술할 제어부(40)로 전송할 수 있다.
촬영부(10)는 사용자의 실험 기구의 조작 및 디지털 실험대(30)의 디스플레이부을 촬영하여 영상 정보를 생성하는 역할을 한다. 촬영부(10)는 카메라로 이루어질 수 있으며, 자세하게는 RGB 정보를 그대로 활용하는 일반 카메라와 또는 적외선(IR) 카메라로 이루어질 수 있다. 또한, 촬영부(10)는 하나의 카메라로 이루어질 수 도 있지만, 보다 정확한 인식을 위해 다수의 스테레오 카메라로 이루어질 수 있다. 또한, 촬영부(10)는 디지털 실험대(30)와 일체로 결합되어 설치되거나, 디지털 싫머대(30)와 분리되어 사용자의 실험 조작 및 디지털 실험대(30)의 디시플레이부를 촬영할 수 있도록 디지털 실험대(30)의 상부 또는 하부에 별도로 설치될 수 있다.
제어부(40)는 실험 기구(30)로부터 수신되는 인터랙션 정보 및 촬영부(10)로부터 수신되는 영상 정보를 이용하여 사용자의 실험 조작 상황을 판단하고, 판단된 실험 조작 상황을 기초로 실험 기구(30)에 대응하는 가상 객체와 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 생성하고, 생성된 가상 객체와 이벤트 정보를 디지털 실험대(30)에 표시하는 역할을 한다. 제어부(40)는 혼합 객체인 실험 기구(30) 내부에 존재하는 MCU와는 별도로 존재하여 전체 시스템을 제어하는 외부 컨트롤러에 해당한다.
이때, 실험 기구(20) 및 가상 객체는 하나의 특정 물체를 구성할 수 있다. 즉, 물리 객체로 형성되는 실험 기구(20)는 특정 물체의 일부분에 해당하며, 가상 객체는 특정 물체에서 실험 기구(20)에 해당하는 부분을 제외한 나머지 부분에 해당한다. 예를 들어, 실험 기구(20)는 스포이트나, 비커, 또는 플라스크 등의 손잡이 부분, 가상 객체는 스포이트나 비커 또는 플라스크 등의 손잡이 부분을 제외한 나머지 부분에 해당한다.
본 발명의 실감 과학실험 시스템은 특정 물체의 일부분에 해당하고, 고정되는 물리 객체를 실험 기구(20)로 구성하고, 사용자의 실험 조작에 따라 가변되는 가상 객체를 디지털 실험대(30)에 표시하고, 실험 기구(20)에 구비된 출력 모듈을 통하여 다양한 디지털 피드백을 사용자에게 제공함으로써 실제 실험과 유사한 방법으로 과학실험을 수행할 수 있도록 한다.
예를 들어, 비커는 실제 비커의 상단 부분의 모양을 취할 수 있으며, 사용자는 실제 비커를 사용하는 것과 같이 비커를 손으로 잡고 들고, 이동하고, 기울이고, 흔들 수 있다. 사용자가 비커를 디지털 실험대(30)에 올려 놓으면 비커의 하단 부분이 디지털 실험대(30)의 디스플레이부에 표시되어 하나의 온전한 비커 모양 형태를 가지게 되며, 인터랙션 결과로 담긴 용액이 색깔 정보와 함께 표현될 수 있다. 또한, 앞에서 도 2 내지 도 3과 관련하여 설명한 바와 같이 비커를 기울이는 경우 LED 발광 모듈을 통하여 용액이 기울어진 모양의 디지털 피드백을 사용자에게 제공할 수 있다.
이하 도 6를 참조하여 본 발명의 동작에 대해서 상세히 설명한다.
도 6는 본 발명의 일실시예에 따른 실감 과학실험 시스템의 상세 구성도이다.
도 6에서 볼 수 있듯이, 촬영부(10)는 카메라로 형성되며, 실험 기구(20)는 비커 등의 물체로 형성될 수 있으며, 디지털 실험대(30)는 터치스크린 장치로 이루어지는 테이블탑 디스플레이 장치로 형성될 수 있다.
실험 기구(20)에는 블루투스 등의 통신 모듈과, 가속도, 기울기, 압력, 온도 증을 센싱할 수 있는 센서 모듈이 부착될 수 있다. 또한, 출력 모듈로서 디스플레이 모듈, 사운드 출력 모듈, 발광 모듈, 액츄에이터 모듈 등도 설치될 수 있다. 각 센서 모듈의 역할에 대해서는 제어부(40)의 동작과 관련하여 후술하기로 한다.
촬영부(10)는 사용자의 실험 기구(20)의 조작 및 디지털 실험대(30)의 디스플레이부를 촬영하여 영상 정보를 생성하여 제어부(40)의 영상 처리 모듈(41)로 전송한다. 즉, 촬영부(10)는 사용자의 실험 기구(20)의 조작, 즉 인터랙션 영상 정보를 촬영하며, 디지털 실험대(30)의 디스플레이부의 디스플레이 영상 정보를 촬영한다.
이렇게 촬영부(10)에서 생성된 영상 정보는 제어부(40)의 영상 처리 모듈(41)로 전송된다. 영상 처리 모듈(41)은 영상 인식 기술 등을 통해 영상 정보 내의 실험 기구(20)의 위치 및 동작을 인식한다. 즉, 제어부(40)는 실험 기구(20)의 조작 영상 정보와 디지털 실험대(30)의 디스플레이부의 영상 정보를 비교하여 그 차이값을 통해 실험 기구(20)의 위치 및 동작을 트래킹한다.
또한, 제어부(40)는 이와 더불어 실험 기구(20)에 설치될 수 있는 RFID 센서 모듈, GPS 센서 모듈 등의 각종 센서 모듈로부터 ID 정보, 위치 정보를 추가적으로 수신하여 실험 기구(20)의 보다 정확한 상태 정보를 인식할 수도 있다.
실험 기구(20)에 부착된 각종 센서 모듈에서 센싱되는 인터랙션 센서 정보는 제어부(40)의 센서 처리 모듈(43)로 전송된다. 이때, 인터랙션 센서 정보에는 실험 기구(20)의 위치, 상태(놓여짐, 손에 잡힘, 기울여짐, 움직임 등) 정보일 수 있다. 센서 처리 모듈(43)은 이러한 인터랙션 센서 정보를 수신하여 실험 기구(20)의 종류, 위치, 동작 등을 인식할 수 있다.
예를 들어 센서 처리 모듈(43)은 가속도 센서 모듈로부터 수신되는 정보를 이용하여 실험 기구(20)의 동작 상태를 인식할 수 있으며, 기울기 센서 모듈로부터 수신되는 정보를 이용하여 비커와 같은 실험 기구(20)의 기울여진 상태를 인식할 수 있으며, 압력 센서 모듈로부터 수신되는 정보를 이용하여 스포이트 고문 손잡이 등의 압력 상태를 인식할 수 있으며, 온도 센서 모듈로부터 수신되는 정보를 이용하여 실험 기구(20)의 온도를 인식할 수 있다. 영상 처리 모듈(41)과 센서 처리 모듈(43)은 상호보완적이며 환경에 따라 같이 사용할 수도 있으며, 어느 하나만 단독으로 사용할 수도 있다.
이러한 방식으로 영상 처리 모듈(41)과 센서 처리 모듈(43)이 각각 영상 정보와 인터랙션 센서 정보로부터 실험 기구(20)의 종류, 위치, 동작 등을 인식하고 이 정보들을 상황 인식 모듈(45)로 전달한다.
도 6를 참조하면, 본 발명의 일실시예에 따른 실감 과학실험 시스템의 제어부(40)는 영상 처리 모듈(41)과, 센서 처리 모듈(43)과, 상황 인식 모듈(45)과, 의사 결정 모듈(47)과, 출력 제어 모듈(49)를 포함하여 구성된다.
상황 인식 모듈(45)은 영상 처리 모듈(41)과 센서 처리 모듈(43)로부터 수신한 정보를 바탕으로 사용자의 실험 조작 상황을 종합적으로 판단한다. 또한, 상황 인식 모듈은 디지털 실험대(30)로부터 실험 기구(20)와 디지털 실험대(30)의 디스플레이부와의 접촉 지점인 터치 위치 정보를 수신하여 이를 실험 조작 상황 판단에 이용할 수 있다.
예를 들어, 사용자가 비커를 기울이거나 스포이트의 고무 부분을 누르는 등의 실험 조작을 수행하면, 비커에 부착된 기울기 센서 모듈과 스포이트에 부착된 공기압 센서 모듈로부터 기울기 정보 및 공기압 정보가 센서 처리 모듈(43)로 전송된다. 또한, 사용자의 비커 또는 스포이트 조작 상황에 대한 영상 정보와 디지털 실험대(30)에 출력되는 디스플레이 정보는 촬영부(10)를 통하여 영상 처리 모듈(41)로 전달되고, 비커 또는 스포이트가 디지털 실험대(30)의 디스플레이부와 접촉하는 경우 터치 위치 정보는 상황 인식 모듈(45)로 전송된다. 물론, 이 경우 디지털 실험대(30)의 터치 위치 정보는 센서 처리 모듈(43)로 전송되어 처리될 수도 있다. 비커 또는 스포이트에 블루투스 통신 모듈이 설치된 경우에는 센서 처리 모듈(43) 또는 제어부(40)에 설치된 통신 모듈(미도시)은 블루투스 통신 모듈로부터 비커 또는 스포이트의 ID 정보를 수신하여 비커 또는 스포이트를 인식할 수 있다. 또한, 비커 또는 스포이트에 RFID 센서 모듈 또는 GPS 센서 모듈이 설치된 경우에는 센서 처리 모듈(43)은 이 센서 모듈로부터 비커 또는 스포이트의 위치, 동작 상태에 관한 정보를 얻을 수도 있다.의사 결정 모듈(47)은 상황 인식 모듈(45)로부터 수신한 실험 조작 상황 정보를 기초로 디지털 실험대(30)의 디스플레이부에 표현할 가상 객체 및 이벤트 정보와 실험 기구(20)에 출력할 디지털 피드백을 결정하고, 이를 출력 제어 모듈(49)로 전달하는 역할을 한다. 이때, 가상 객체는 앞에서 언급한 바와 같이 실험 기구(20)와 결합하여 하나의 물체를 구성하는 디지털 출력 부분에 해당하며, 이벤트 정보는 이 가상 객체와 더불어 실험 조작의 결과, 실험 관련 정보를 표시하는 출력 정보를 의미한며, 디지털 피드백은 실험 기구(20)를 통하여 사용자에게 제공할 출력 정보에 해당한다. 이때, 이벤트 정보는 필요에 따라 글자, 그림 등으로 현재 진행중인 실험에 대한 관련 정보를 표현할 수 있다.
출력 제어 모듈(49)은 의사 결정 모듈(47)로부터 가상 객체, 이벤트 정보 및를 디지털 피드백 정보를 수신하여 디지털 실험대(30)의 디스플레이부 및 실험 기구(20)에 출력시키는 역할을 한다. 이때, 출력 제어 모듈(49)은 상기 실험 기구(20)가 디지털 실험대(30)의 디스플레이부와 접촉하는 경우 상기 접촉하는 터치 위치에 가상 객체를 출력시킬 수 있다. 물론, 실험 기구(20)가 디지털 실험대(30)의 디스플레이부와 접촉하지 않는 경우라 하더라도, 실험 기구(20)의 수직 아래 쪽 위치에 대응하는 디지털 실험대(30)의 디스플레이 부분에 가상 객체를 표시할 수 있다.
예를 들어, 비커나 스포이트를 디지털 실험대(30)의 디스플레이부에 놓아 두는 경우, 비커나 스포이트와 디스플레이부와의 접촉 지점에 비커에 담긴 용액을 포함하는 가상 객체와 스포이트의 아래 유리관 부분과 거치대 부분의 가상 객체가 표시될 수 있다. 한편, 비커를 또 다른 비커 위에서 기울이는 동작을 수행하거나, 스포이트를 이용하여 비커 위에서 용액을 흡수하기 위해 스포이트의 고무 손잡이를 누르는 동작을 수행하는 경우에는 실험 기구(20)가 디스플레이부와 접촉하지 않는 경우에도 디스플레이부에 실험 조작 상황에 대응하는 가상 객체를 출력시킬 수 있다. 이때는 실험 기구(20)의 실제 위치를 촬영부(10)의 영상 정보 또는 실험 기구(20)에 부착된 RFID 센서 모듈, GPS 센서 모듈로부터 알아 내어 특정 위치에 진입하는 경우에 가상 객체를 출력시키도록 설정하는 방식을 이용할 수 있다.
도 7은 본 발명의 일실시예에 따른 실감 과학실험 제공 방법을 설명하는 순서도로써, 도 7을 참조하여 본 발명에 따른 실감 과학실험 시스템의 동작을 설명하면 다음과 같다.
본 발명의 일실시예에 따른 실감 과학실험 시스템의 제어부(40)는 촬영부(10)의 인터랙션 영상 정보와 실험 기구(20)의 인터랙션 센서 정보를 포함하는 인터랙션 정보를 수신한다(200). 제어부(40)의 상황 인식 모듈(45)는 이 인터랙션 센서 종보를 기초로 하여 사용자의 실험 조작 상황을 종합적으로 판단한다(220).
제어부(40)의 의사 결정 모듈(47)은 사용자의 실험 조작 상황을 기초로 디지털 실험대(30)의 디스플레이부에 표시할 가상 객체 및 이벤트 정보와 실험 기구(20)에 출력할 디지털 피드백 정보를 생성한다(240). 출력 제어 모듈(49)은 이 가상 객체 및 이벤트 정보와 출력 인터페이스 정보를 수신하여 디지털 실험대(30)의 디스플레이부 및 실험 기구(20)의 출력 모듈에 표시한다(260).
이러한 방법으로 본 발명에 따른 실감 과학실험 시스템은 물리 객체 부분인 실험 기구(20)와 디지털 출력 부분인 가상 객체를 이용하여 실제 실험하는 것과 유사한 과학실험을 사용자에게 제공한다. 이하, 도 8 내지 도 12을 기초로 본 발명의 일실시예에 따른 실감 과학실험 시스템을 이용한 과학실험을 예를 들어 설명하기로 한다.
도 8는 본 발명의 일실시예에 따른 과학실험 시스템을 이용하여 사용자들이 과학실험을 수행하고 있는 개략도이다.
터치스크린 장치가 설치된 테이블탑 디스플레이 장치 위에 사용자들이 물리 객체로 형성되는 각종 실험 기구들을 올려 놓고 실험을 수행하고 있음을 확인할 수 있다. 각 실험 기구들과 디스플레이 장치가 접촉하는 부분에는 각 실험 기구에 대응하는 가상 객체가 표현되어 하나의 특정 물체를 형성하고 있으며, 실험 관련 정보인 이벤트 정보 또한 표시되어 있음을 알 수 있다.
도 9는 본 발명의 일실시예에 따른 과학실험 시스템에 사용되는 스포이트(25)를 나타내는 도면이다.
스포이트(25)는 실험 기구(20)의 한 예로서, 고무 손잡이(25a)와, 공기압 센서 모듈(25b)과, 통신 모듈(25c)와 마이크로 컨트롤러 유닛(MCU, 25d)과, 배터리(25e)를 포함하여 구성된다. 사용자는 고무 손잡이(25a)를 누르는 동작을 수행함으로써, 비커 속의 용액을 흡수하거나, 흡수한 용액을 비커에 배출하게 된다. 이때, 공기압 센서 모듈(25b)는 사용자가 스포이트(25)의 고무 손잡이(25a)를 눌렀는지 떼었는지를 판단할 수 있으며, 이러한 공기압 정보는 블루투스 통신 모듈 등으로 구성되는 통신 모듈(25c)를 통하여 제어부(40)로 전달되게 된다.
이러한, 방법은 스포이트를 구현하는 하나의 예이며, 비전 시스템만을 사용하여 스포이트의 위치를 트래킹하고 고무부분을 눌렀는지를 판단하는 방법을 사용할 수도 있다. 후술하겠지만, 스포이트(25)의 거치대 부분과 유리관 부분은 가상 객체로 디지털 실험대(30)에 디지털 출력으로 표시된다.
도 10은 도 5의 스포이트(25)를 이용하여 과학실험을 하는 경우 디지털 실험대(30)에 생성되는 가상 객체를 나타내는 도면이다.
도 10을 참조하면 물리 객체 부분으로 형성되는 스포이트(25)를 사용자가 손가락으로 집어서 디지털 실험대(30)의 디스플레이부에 놓으면 유리관 모양의 가상 객체가 표시된다. 이때, 사용자가 스포이트(25)의 고무 손잡이(25a) 부분을 눌렀다가 때면 용액이 스포이트(25)의 유리관 모양에 흡입되는 것이 가상 객체로 표시된다.
도 10에는 비커가 도시되지는 않았지만, 비커에 용액이 담겨져 있는 경우에 사용자가 스포이트(25)를 비커 위에 올려 놓고 위와 같이 고무 손잡이(25a) 부분을 눌렀다가 떼면 용액이 스포이트(25)의 유리관에 흡입되는 것이 가상 객체로 디지털 실험대(30)의 디스플레이부에 표시되게 된다.
도 11은 비커를 이용하여 과학실험을 하는 경우 가상 객체 및 이벤트 정보가 표시된 디지털 실험대와 디지털 피드백이 출력되는 실험 기구를 나타내는 도면이다.
디지털 실험대(30)의 디스플레이부 위에는 비커가 놓여져 있으며 비커와 디스플레이부가 접촉하는 지점에 비커에 담긴 용액이 표시된 비커 모양으로 가상 객체가 표시되어 있는 것을 확인할 수 있다. 이때, 사용자가 손으로 다른 비커를 들어 이 비커 위에서 기울이는 동작을 하면, 이 기울기 정보가 제어부(40)로 전송되어 디스플레이부에 놓여진 비커에 다른 비커의 용액이 첨가되는 상황임을 인식하게 된다. 그러면, 제어부(40)는 디스플레이부에 표시된 비커의 용액이 증가하고, 또한 서로 다른 용액의 혼합으로 인해 색깔의 변화가 발생하는 경우 색 정보도 함께 표시하게 한다. 이때, 실험 기구(20)의 LED 발광부 등의 출력 모듈을 통하여 용액의 기울기 및 양의 정보가 변화되도록 표현될 수 있다.
또한, 용액의 혼합과 관련하여 화학 결합 구조, Ph 정보, 온도 정보, 화학식 정보 등을 포함하는 이벤트 정보가 디스플레이부의 상단에 표시되어 사용자에게 실험에 대한 결과 및 실험 관련 정보를 제공하게 된다.
도 12은 본 발명의 일실시예에 따른 실감 과학실험 시스템을 이용하여 과학실험을 수행한 경우 디지털 실험대에 최종 결과가 도시된 상태를 나타내는 도면이다.
즉, 디스플레이부 좌측에 표시된 가상 객체인 3개의 용액을 비커를 이용하여 혼합한 경우의 결과를 도시하고 있다. 화학 반응이 끝난 후의 결과를 가상 객체 및 예시 도면 및 설명 문구를 포함한 이벤트 정보를 이용하여 사용자에게 제공하고 있음을 확인할 수 있다.
본 발명의 일실시예에 따른 실감과학시스템은 이러한 방법으로 사용자에게 실제 실험을 하는 것과 같은 직관적인 과학실험 인터페이스를 제공할 수 있다.
1: 혼합 객체 2: 물리 객체
3: 센서 모듈 4: 출력 모듈
5: 통신 모듈 6: MCU
10: 촬영부 20: 실험 기구
25 : 스포이트 25a: 고무 손잡이
25b: 공기압 센서 25c: 통신 모듈
25d: MCU 25e: 배터리
30: 디지털 실험대 40: 제어부
41: 영상 처리 모듈 43: 센서 처리 모듈
45: 상황 인식 모듈 47: 의사 결정 모듈
49: 출력 제어 모듈

Claims (26)

  1. 물리 객체로 형성되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 실험기구;
    사용자의 실험 조작 상황에 대응하는 정보를 표시하는 디지털 실험대;
    상기 실험기구로부터 상기 인터랙션 정보를 수신하여 사용자의 실험 조작 상황을 판단하고, 상기 판단된 실험 조작 상황을 기초로 상기 실험 기구에 대응하는 가상 객체를 생성하고, 상기 생성된 가상 객체를 상기 디지털 실험대에 표시하는 제어부를 포함하는 것을 특징으로 하는 실감 과학실험 시스템.
  2. 제1항에 있어서,
    상기 제어부는 상기 판단된 실험 조작 상황을 기초로 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 상기 디지털 실험대에 더 표시하는 것을 특징으로 하는 실감 과학실험 시스템.
  3. 제1항에 있어서,
    사용자의 상기 실험 기구의 조작 및 상기 디지털 실험대를 촬영하여 영상 정보를 생성하는 촬영부를 더 포함하고,
    상기 제어부는 상기 촬영부에서 생성된 상기 영상 정보를 이용하여 실험 조작 상황을 판단하는 것을 특징으로 하는 실감 과학실험 시스템.
  4. 제3항에 있어서,
    상기 실험 기구, 상기 디지털 실험대, 상기 제어부, 상기 촬영부는 각각 유선 또는 무선 통신을 수행하는 통신 모듈을 구비하며, 상기 구비된 통신 모듈을 통해 상호간에 정보를 송수신하는 것을 특징으로 하는 실감 과학실험 시스템.
  5. 제4항에 있어서,
    상기 제어부는 상기 통신 모듈을 통하여 상기 실험 기구의 ID 정보를 수신함으로써 상기 실험 기구를 인식하는 것을 특징으로 하는 실감 과학실험 시스템.
  6. 제1항에 있어서,
    상기 실험 기구는 가속도, 기울기, 압력, 온도 중 어느 하나 이상을 센싱할 수있는 센서 모듈을 포함하는 것을 특징으로 하는 실감 과학실험 시스템.
  7. 제6항에 있어서,
    상기 실험기구는 출력 모듈을 더 포함하고,
    상기 제어부는 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 출력 모듈을 통하여 출력시키는 것을 특징으로 하는 실감 과학실험 시스템.
  8. 제1항에 있어서,
    상기 디지털 실험대는 터치스크린 장치를 포함하여 형성되며,
    상기 제어부는 상기 실험 기구와 상기 터치스크린 장치와의 접촉 위치를 감지하고, 상기 접촉 위치에 상기 가상 객체를 표시하는 것을 특징으로 하는 실감 과학실험 시스템.
  9. 제1항에 있어서,
    상기 디지털 실험대에 상기 가상 객체가 표시되도록 영상을 투영하는 프로젝션 장치를 더 포함하는 것을 특징으로 하는 실감 과학실험 시스템.
  10. 제1항에 있어서,
    상기 디지털 실험대는 사운드 출력부를 더 포함하고,
    상기 제어부는 상기 판단된 실험 조작 상황을 기초로 상기 사운드 출력부를 통하여 안내 음성을 제공하는 것을 특징으로 하는 실감 과학실험 시스템.
  11. 제1항에 있어서,
    상기 실험 기구와 상기 가상 객체는 하나의 물체를 구성하는 것을 특징으로 하는 실감 과학실험 시스템.
  12. 물리 객체와, 상기 물리 객체에 설치되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 센서 모듈과, 상기 물리 객체에 설치되는 출력 모듈을 포함하는 실험 기구; 및
    상기 실험 기구로부터 상기 인터랙션 정보를 수신하여, 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 출력 모듈를 통하여 출력시키는 제어부를 포함하는 실감 과학실험 시스템.
  13. 제12항에 있어서,
    사용자의 실험 조작 상황에 대응하는 정보를 표시하는 디지털 실험대를 더 포함하고,
    상기 제어부는 상기 판단된 실험 조작 상황을 기초로 상기 실험 기구에 대응하는 가상 객체를 생성하고, 상기 생성된 가상 객체를 상기 디지털 실험대에 표시하는 것을 특징으로 하는 실감 과학실험 시스템.
  14. 제13항에 있어서,
    상기 제어부는 상기 판단된 실험 조작 상황을 기초로 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 상기 디지털 실험대에 더 표시하는 것을 특징으로 하는 실감 과학실험 시스템.
  15. 물리 객체;
    상기 물리 객체에 설치되어 사용자의 조작에 따른 인터랙션 정보를 생성하는 센서 모듈;
    상기 물리 객체에 설치되는 출력 모듈; 및
    상기 센서 모듈에서 생성된 상기 인터랙션 정보를 수신하여, 상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 출력 모듈를 통하여 출력시키는 마이크로 컨트롤러 유닛을 포함하는 것을 특징으로 하는 혼합 객체.
  16. 제15항에 있어서,
    상기 센서 모듈은 통신 모듈, 가속도 센서 모듈, 기울기 센서 모듈, 압력 센서 모듈, 온도 센서 모듈 중 하나인 것을 특징으로 하는 혼합 객체.
  17. 제15항에 있어서,
    상기 출력 모듈는 디스플레이 모듈, 사운드 출력 모듈, 발광 모듈, 액츄에이터 모듈 중 하나인 것을 특징으로 하는 혼합 객체.
  18. 사용자의 실험기구 조작에 따른 인터랙션 정보를 실험 기구로부터 수신하는 단계;
    상기 인터랙션 정보로부터 사용자의 실험 조작 상황을 판단하는 단계;
    상기 판단된 실험 조작 상황을 기초로 상기 실험 기구에 대응하는 가상 객체를 생성하는 단계; 및
    상기 가상 객체를 디지털 실험대에 표시하는 단계를 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  19. 제18항에 있어서,
    상기 판단된 실험 조작 상황을 기초로 실험 결과 또는 실험 관련 정보를 포함하는 이벤트 정보를 상기 디지털 실험대에 표시하는 단계를 더 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  20. 제18항에 있어서,
    상기 인터랙션 정보에 대응하는 디지털 피드백을 상기 실험 기구의 출력 모듈을 통하여 출력시키는 단계를 더 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  21. 제18항에 있어서,
    상기 인터랙션 정보는 상기 실험기구에 부착된 센서 모듈로부터 센싱되는 가속도, 기울기, 압력, 온도 중 하나 이상의 정보인 것을 특징으로 하는 실감 과학실험 제공 방법.
  22. 제18항에 있어서,
    사용자의 상기 실험 기구의 조작 및 상기 디지털 실험대를 촬영하여 영상 정보를 생성하는 단계; 및
    상기 영상 정보를 이용하여 실험 조작 상황을 판단하는 단계를 더 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  23. 제18항에 있어서,
    상기 실험 기구의 ID 정보를 수신함으로써 상기 실험 기구를 인식하는 단계를 더 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  24. 제18에 있어서,
    상기 가상 객체를 생성하는 단계는,
    상기 실험 기구와 상기 디지털 실험대에 형성되는 터치스크린 장치와의 접속 위치에 상기 가상 객체를 표시하는 단계를 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  25. 제18에 있어서,
    상기 판단된 실험 조작 상황을 기초로 사운드 출력부를 통하여 안내 음성을 제공하는 단계를 더 포함하는 것을 특징으로 하는 실감 과학실험 제공 방법.
  26. 제18있어서,
    상기 실험 기구와 상기 가상 객체는 하나의 물체를 구성하는 것을 특징으로 하는 실감 과학실험 제공 방법.
KR1020110106393A 2011-10-18 2011-10-18 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법 KR101291602B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110106393A KR101291602B1 (ko) 2011-10-18 2011-10-18 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110106393A KR101291602B1 (ko) 2011-10-18 2011-10-18 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법

Publications (2)

Publication Number Publication Date
KR20130042219A true KR20130042219A (ko) 2013-04-26
KR101291602B1 KR101291602B1 (ko) 2013-07-30

Family

ID=48440977

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110106393A KR101291602B1 (ko) 2011-10-18 2011-10-18 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법

Country Status (1)

Country Link
KR (1) KR101291602B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101360999B1 (ko) * 2013-08-09 2014-02-10 코리아디지탈 주식회사 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기
CN106781797A (zh) * 2016-12-24 2017-05-31 深圳市虚拟现实技术有限公司 虚拟现实教学方法和头戴式虚拟现实设备
CN110398925A (zh) * 2019-08-19 2019-11-01 上海应用技术大学 一种基于Zigbee技术的化学实验智能车系统
KR102236256B1 (ko) * 2020-04-29 2021-04-05 주식회사 비엠티 과학 전시관용 흄후드 체험장치
CN113588859A (zh) * 2021-06-24 2021-11-02 同济大学 一种提高化学实验体验的化学实验装置及方法
KR20220062868A (ko) * 2020-11-09 2022-05-17 김종훈 인공지능을 이용한 실험 정보 제공 방법 및 이를 이용하는 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101360999B1 (ko) * 2013-08-09 2014-02-10 코리아디지탈 주식회사 증강현실 기반의 실시간 데이터 제공 방법 및 이를 이용한 휴대단말기
CN106781797A (zh) * 2016-12-24 2017-05-31 深圳市虚拟现实技术有限公司 虚拟现实教学方法和头戴式虚拟现实设备
CN110398925A (zh) * 2019-08-19 2019-11-01 上海应用技术大学 一种基于Zigbee技术的化学实验智能车系统
CN110398925B (zh) * 2019-08-19 2024-01-30 上海应用技术大学 一种基于Zigbee技术的化学实验智能车系统
KR102236256B1 (ko) * 2020-04-29 2021-04-05 주식회사 비엠티 과학 전시관용 흄후드 체험장치
KR20220062868A (ko) * 2020-11-09 2022-05-17 김종훈 인공지능을 이용한 실험 정보 제공 방법 및 이를 이용하는 장치
CN113588859A (zh) * 2021-06-24 2021-11-02 同济大学 一种提高化学实验体验的化学实验装置及方法

Also Published As

Publication number Publication date
KR101291602B1 (ko) 2013-07-30

Similar Documents

Publication Publication Date Title
KR101291602B1 (ko) 혼합 객체, 실감 과학실험 시스템 및 그 제공 방법
KR101338043B1 (ko) 실감 인터랙션을 이용한 인지재활 시스템 및 방법
KR101872426B1 (ko) 깊이 기반 사용자 인터페이스 제스처 제어
KR101200030B1 (ko) 터치펜 및 그를 이용한 터치 스크린 장치
EP2352112B1 (en) Remote control system for electronic device and remote control method thereof
US20120105312A1 (en) User Input Device
CN102033702A (zh) 影像显示装置及其显示控制方法
US20120256835A1 (en) Motion control used as controlling device
JP2013037675A (ja) 近距離動作のトラッキングのシステムおよび方法
KR101019254B1 (ko) 공간 투영 및 공간 터치 기능이 구비된 단말 장치 및 그 제어 방법
KR20100106203A (ko) 멀티 텔레포인터, 가상 객체 표시 장치, 및 가상 객체 제어 방법
KR101080803B1 (ko) 실감 인터랙션 시스템 및 방법
KR20140058860A (ko) 다수의 사용자를 위한 터치 테이블 탑 디스플레이장치
CN105353904B (zh) 互动显示系统及其触控互动遥控器和互动触控方法
KR20110044391A (ko) 입력 장치 및 방법
TWI567629B (zh) 顯示裝置之控制方法及裝置
KR20170016695A (ko) 상호작용 컨트롤러, 상호작용 컨트롤러를 이용한 햅틱 피드백 제공 시스템 및 방법
KR20100009023A (ko) 움직임을 인식하는 장치 및 방법
TW201439813A (zh) 顯示設備及其控制系統和方法
KR20110130951A (ko) 3차원 가상 리모콘을 포함한 전자기기 및 그의 구동 방법
Zand et al. TiltWalker: operating a telepresence robot with one-hand by tilt controls on a smartphone
Butnariu et al. DEVELOPMENT OF A NATURAL USER INTERFACE FOR INTUITIVE PRESENTATIONS IN EDUCATIONAL PROCESS.
KR101815973B1 (ko) 3차원 공유 공간에서 메뉴 공유 시스템 및 방법
KR20170021888A (ko) 터치형 제어기
KR102023187B1 (ko) 디스플레이 장치에 설치되는 착탈식 터치 패널 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170703

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee