KR101758198B1 - 다중 지능 검사 시스템 및 방법 - Google Patents

다중 지능 검사 시스템 및 방법 Download PDF

Info

Publication number
KR101758198B1
KR101758198B1 KR1020160130661A KR20160130661A KR101758198B1 KR 101758198 B1 KR101758198 B1 KR 101758198B1 KR 1020160130661 A KR1020160130661 A KR 1020160130661A KR 20160130661 A KR20160130661 A KR 20160130661A KR 101758198 B1 KR101758198 B1 KR 101758198B1
Authority
KR
South Korea
Prior art keywords
user
information
inspection
content
intelligence
Prior art date
Application number
KR1020160130661A
Other languages
English (en)
Other versions
KR20170042255A (ko
Inventor
김태일
Original Assignee
(주)라온스퀘어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)라온스퀘어 filed Critical (주)라온스퀘어
Priority to PCT/KR2016/011318 priority Critical patent/WO2017061841A1/ko
Publication of KR20170042255A publication Critical patent/KR20170042255A/ko
Application granted granted Critical
Publication of KR101758198B1 publication Critical patent/KR101758198B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances

Abstract

본 발명은 다중 지능 검사 시스템 및 방법에 관한 것이다. 본 발명의 제 1 측면에 따르면 다중 지능을 측정하는 시스템에 있어서, 사용자에 대한 신체정보를 획득하는 사용자단말 및 상기 다중 지능의 측정에 이용되는 사용자반응정보를 유도하는 검사콘텐츠를 제공하고, 상기 신체정보 및 상기 사용자반응정보 중 적어도 하나에 기초하여 상기 사용자의 다중 지능을 측정하는 다중지능검사서버를 포함할 수 있다.

Description

다중 지능 검사 시스템 및 방법 {SYSTEM AND METHOD FOR DETECTING MULTIPLE-INTELLIGENCE}
본 발명은 다중 지능 검사 시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자단말을 통해 다중 지능 검사를 위한 오브젝트에 대한 사용자의 반응정보를 감지하고, 감지된 사용자의 반응정보를 분석함으로써 사용자의 다중 지능발달 정도를 검사하는 방법 및 장치에 관한 것이다.
과거 사람의 다중 지능을 측정을 위한 방법으로 일정한 문제를 나열하고 제한시간 내에 해결하는 정도를 검사하는 방법을 이용하는 것이 일반적이었다.
최근 들어, 많은 연구를 통해 사람의 다중 지능은 획일적인 방법으로 측정하는 것은 사람의 정확한 다중 지능을 측정할 수 없다는 것이 알려지면서 사람의 다중 지능을 다양한 영역으로 분리 판단하여 측정해야 한다는 주장이 늘어나고 있다.
이와 같이 사람의 다중 지능을 판단하기 위해 피검사자에게 각 지능영역 별로 특화된 설문조사를 수행하고, 설문조사에 포함된 각 문항에 따른 피검사자의 답변에 기초하여, 피검사자의 다중 지능을 각 지능영역 별로 나누어 분석하는 것이 일반적이다.
하지만, 이러한 설문조사 방식을 통한 방법의 경우, 청소년 또는 성인에 대해서 수행할 수 있지만, 언어적인 발달이 부족한 어린이에 대해서는 수행할 수 없거나 수행하더라도 설문조사의 문항에 대한 답변이 왜곡될 확률이 높아 검사의 신뢰도가 낮다는 문제점이 있다.
이와 관련하여 한국공개특허공보 제10-2000-0063641호는 인성 및 적성검사에 의한 진학진로 안내 시스템에 관한 것으로 인적성 검사 및 모의고사를 통해 지원 가능한 대학의 계열 및 학과에 대한 정보 및 학습 자료 등을 제공할 수 있을 뿐, 다중 지능을 검사하기 위한 검사방법을 제공할 수 없다.
따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 일실시예는 다중 지능을 측정할 사용자에게 다중 지능을 측정하기 위해 각 지능영역 별로 다중 지능검사를 위한 검사콘텐츠를 제공하고, 검사콘텐츠에 대한 사용자의 사용자반응정보를 수집하여 다중 지능을 검사하는 데에 목적이 있다.
또한, 본 발명의 일실시예는 검사콘텐츠를 통해 다중 지능을 측정 중인 사용자의 신체정보를 수집하고, 검사콘텐츠에 대한 사용자의 신체반응에 기초하여 다중 지능을 검사하는 데에 목적이 있다.
아울러 본 발명의 일실시예는 사용자단말을 통해 검사콘텐츠에 대한 흥미를 유도할 수 있는 보조콘텐츠를 제공함으로써 사용자가 보다 적극적으로 검사콘텐츠에 반응하도록 하는 데에 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따르면 다중 지능을 측정하는 시스템에 있어서, 사용자에 대한 신체정보를 획득하는 사용자단말 및 상기 다중 지능의 측정에 이용되는 사용자반응정보를 유도하는 검사콘텐츠를 제공하고, 상기 신체정보 및 상기 사용자반응정보 중 적어도 하나에 기초하여 상기 사용자의 다중 지능을 측정하는 다중지능검사서버를 포함할 수 있다.
본 발명의 제 2 측면에 따르면, 다중지능검사시스템이 다중 지능을 측정하는 방법에 있어서, 사용자반응정보를 유도하여 사용자의 다중 지능을 측정하는 검사콘텐츠를 사용자에게 제공하는 단계, 상기 사용자에 대한 신체정보 및 상기 검사콘텐츠에 대한 사용자반응정보 중 적어도 하나를 획득하는 단계 및 상기 신체정보 및 상기 사용자반응정보 중 적어도 하나에 기초하여 상기 사용자의 다중 지능을 측정하는 단계를 포함할 수 있다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일실시예는 다중 지능을 측정할 사용자에게 다중 지능을 측정하기 위한 검사콘텐츠를 제공하고, 검사콘텐츠에 대한 사용자의 반응을 측정하여 다중 지능을 측정할 수 있다.
또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 검사콘텐츠를 통해 다중 지능을 검사 중인 사용자의 신체정보를 수집하고, 검사콘텐츠에 대한 사용자의 신체반응에 기초하여 다중 지능을 측정할 수 있다.
아울러, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 사용자의 신체반응과 검사콘텐츠에 대한 반응을 종합하여 다중 지능을 판단함으로써 왜곡되지 않은 진정한 다중 지능 측정결과를 측정할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1 은 본 발명의 일실시예에 따른 다중지능검사시스템의 구성도이다.
도 2 는 본 발명의 일실시예에 따른 다중지능검사시스템을 도시한 블록도이다.
도 3 은 본 발명의 일실시예에 따른 다중지능검사방법을 설명하기 위한 순서도이다.
도 4 내지 도 5 는 본 발명의 일실시예에 따른 다중지능검사방법을 설명하기 위한 예시도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.
이하에서 ‘다중 지능’이란 사물이나 현상을 받아들이고 생각하는 능력이다. 그리고 ‘지능영역’은 다중 지능이 발현되는 형태에 따라 구분하기 위한 것으로 사용자의 다중 지능은 복수의 ‘지능영역’에 따라 각각 측정될 수 있다.
‘검사콘텐츠’는 사용자의 다중 지능을 측정하기 위해 사용자의 반응을 유도하는 콘텐츠로 사용자의 감각기관을 통해 인지될 수 있다.
예를 들어, 검사콘텐츠는 사용자가 시각 및 청각을 통해 인지할 수 있는 소리, 영상 또는 사진과 같은 형태이거나 또는 사용자가 손, 입 등을 촉각을 통해 감지될 수 있는 물리적인 형태일 수 있다.
도 1은 본 발명의 일실시예에 따른 다중지능검사시스템(100)을 설명하기 위한 구성도이다.
다중지능검사시스템(100)에 포함되는 각 구성은 네트워크(N)를 통해 통신할 수 있다. 이때, 네트워크(N)는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 개인 근거리 무선통신(Personal Area Network; PAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet), Mobile WiMAX, HSDPA(High Speed Downlink Packet Access) 또는 위성 통신망 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.
다중지능검사시스템(100)에 포함되는 사용자단말(10) 및 관찰자단말(11)은 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
이러한 사용자단말(10)은 사용자를 식별할 수 있도록 사용자의 식별정보를 제공할 수 있으며, 다중지능검사시스템(100)의 타 구성으로 사용자의 식별정보를 제공하기 위한 통신수단을 포함할 수 있다. 예를 들어, 사용자단말(10)은 RFID태그, NFC 또는 블루투스 등과 같은 통신모듈을 포함할 수 있고, 통신모듈을 통해 사용자의 식별정보를 제공하거나 수신할 수 있다.
그리고 사용자단말(10)은 적어도 하나의 센서를 구비할 수 있고, 구비된 센서를 이용하여 사용자의 신체정보를 측정할 수 있다. 예를 들어, 사용자단말(10)은 사용자의 움직임을 감지할 수 있도록 자이로센서를 포함할 수 있으며, 사용자의 심박수 또는 체온을 측정하기 위한 센서가 포함될 수 있고, 사용자의 얼굴의 표정을 감지하기 위한 카메라가 포함될 수 있다.
또한, 사용자단말(10)은 후술할 검사콘텐츠단말(30)에서 제공되는 검사콘텐츠를 기초로 보조콘텐츠를 제공할 수 있다. 예를 들어, 사용자단말(10)은 제공되는 검사콘텐츠에 따라 사용자반응정보를 입력하는 방법을 알려주는 캐릭터를 보조콘텐츠로 사용자에게 제공할 수 있다.
그리고 관찰자단말(11)은 사용자단말(10)이 후술할 다중지능검사서버(20)에 포함되는 검사장치(21)와의 지능검사과정에서 검사과정에 참여하는 정도를 수치화할 수 있고, 수치화된 관찰정보를 다중지능검사서버(20)로 제공할 수 있다.
한편, 다중지능검사시스템(100)은 다중지능검사서버(20)를 포함할 수 있다. 다중지능검사서버(20)는 서버-클라이언트 시스템으로 구현될 수 있으며, 서버-클라이언트 시스템으로 다중지능검사서버(20)가 구현된다면 다중지능검사서버(20)는 사용자와의 인터랙션을 통한 다중 지능검사에 이용되는 사용자반응정보를 유도하는 검사콘텐츠를 제공하는 클라이언트가 설치된 장치인 검사장치(21)를 검사할 사용자의 지능영역의 수에 따라 적어도 하나 이상을 포함할 수 있다.
이때 검사장치(21)는 사용자와 인터랙션을 수행할 수 있도록 검사인터페이스를 제공할 수 있는 컴퓨터나 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있으며, 검사인터페이스를 통해 제공되는 검사콘텐츠에 따라 유도되는 사용자반응정보를 획득하기 위한 카메라 또는 센서 등을 포함할 수 있다.
또한, 검사장치(21)는 검사인터페이스를 통해 제공되는 검사콘텐츠에 따라 유용하게 사용자로부터 사용자반응정보를 받기 위해 검사콘텐츠에 특화된 형상을 가지거나 또는 제 3 의 장치를 구비할 수 있다.
그리고 다중지능검사서버(20)에서 서버-클라이언트 시스템의 다중지능측정서버(22)는, 클라이언트가 설치된 장치인 적어도 하나의 검사장치(21)와 네트워크(N)를 통해 통신이 가능한 컴퓨팅장치로 구현될 수 있으며, 데이터를 저장할 수 있는 저장장치가 포함될 수 있거나 또는 제 3 의 서버(미도시)를 통해 데이터를 저장할 수도 있다.
이러한 다중지능측정서버(22)는 다중 지능검사서비스를 제공할 수 있는 웹서버일 수 있거나 또는 예를 들어, 설문조사 서비스 제공 서버 등 다양한 웹 검사콘텐츠 프로바이더의 서버 시스템일 수 있으며, 웹서버를 포함하여 로드밸런싱 서버, 데이터베이스 서버 등 일군의 서버 시스템으로 구현될 수도 있다.
그리고 다중지능측정서버(22)는 사용자단말(10)로부터 사용자의 신체정보를 수신할 수 있으며, 검사장치(21)를 통해 검사콘텐츠에 대한 사용자반응정보를 획득할 수 있고, 다중지능측정서버(22)는 수신된 신체정보 및 사용자반응정보 중 적어도 하나에 기초하여 사용자의 다중 지능을 측정할 수 있다.
아울러 다중지능측정서버(22)는 관잘자단말(11)로부터 사용자의 반응에 대한 관찰정보를 수신할 수 있고, 신체정보 및 사용자반응정보와 함께 관찰정보를 반영하여 사용자의 다중 지능을 측정할 수 있다.
한편, 다중지능검사서버(20)는 사용자의 다중 지능을 측정하기 위해 지능영역 별로 할당된 복수의 검사장치(21)를 포함할 수 있으나 설명의 편의를 위해 하나의 검사장치(21)만을 포함하는 것으로 가정하여 설명한다.
이하에서는 다중지능검사시스템(100)을 구성하는 사용자단말(10) 및 다중지능검사서버(20)를 설명하기 위해, 도 2 를 참조하여 다중지능검사시스템(100)의 각 구성부를 설명한다.
우선, 사용자단말(10)은 사용자정보제공부(110)를 포함할 수 있다. 사용자정보제공부(110)는 다중지능검사서버(20)에 등록된 사용자의 식별정보를 검사장치(21)로 제공할 수 있다.
실시예에 따라, 사용자정보제공부(110)는 사용자단말(10)의 식별번호를 다중지능측정서버(22)로 제공하여 사용자의 개인정보와 매치되도록 하거나 또는 다중지능측정서버(22)로부터 제공되는 사용자의 식별정보를 수신하여 저장할 수 있다.
예를 들어, 사용자정보제공부(110)는 사용자단말(10)에 구비되는 NFC에 다중지능측정서버(22)로부터 수신된 사용자의 식별정보를 기록할 수 있고, 사용자가 검사장치(21)에 구비되는 NFC 리더기에 사용자단말(10)을 태깅하면, 사용자정보제공부(110)는 사용자의 식별정보를 제공할 수 있다.
또는 예를 들어, 검사장치(21)가 일정한 영역에 구비된 압력센서를 통해 사용자의 위치를 인지하여 NFC리더기를 동작시키면, 사용자정보제공부(110)는 저장된 사용자의 식별정보를 NFC리더기를 통해 검사장치(21)에 제공할 수 있다.
한편, 사용자단말(10)은 신체정보획득부(120)를 포함할 수 있다. 신체정보획득부(120)는 검사콘텐츠에 대한 사용자의 신체정보를 측정하여 기록할 수 있다.
즉, 신체정보획득부(120)는 사용자단말(10)에 구비된 적어도 하나의 센서를 이용하여 사용자의 신체정보를 측정할 수 있다.
예를 들어, 신체정보획득부(120)는 센서를 이용하여 사용자의 심박수를 측정하거나 자이로센서를 이용하여 사용자의 움직임을 감지하여 활동량을 측정할 수 있다.
또는 예를 들어, 신체정보획득부(120)는 사용자의 동공을 추적하는 센서를 이용하여 사용자의 시선을 추적함으로써 집중도를 측정하거나 또는 압력센서를 이용하여 사용자의 이동거리, 속도를 측정하거나 무게, 움직임 등을 측정할 수 있다.
그리고 예를 들어, 신체정보획득부(120)는 미세한 전류를 흘려 사용자의 피부전도도를 측정하거나 온도센서를 이용하여 사용자의 체온을 측정할 수 있다.
이때, 실시예에 따라 신체정보획득부(120)는 측정된 사용자의 신체정보를 측정 시간 또는 측정된 검사콘텐츠에 따라 구분하여 저장할 수 있다.
예를 들어, 신체정보획득부(120)는 사용자의 신체정보를 일정한 시간간격으로 측정할 수 있고, 측정된 신체정보에 측정이 시작된 시간을 매칭할 수 있다.
또는 예를 들어, 신체정보획득부(120)는 사용자의 식별정보가 제공되는 시점으로부터 사용자의 신체정보를 측정할 수 있고, 후술할 검사콘텐츠식별부(130)가 획득한 검사장치(21)의 식별정보와 매칭하여 저장할 수 있다.
한편, 사용자단말(10)은 검사콘텐츠식별부(130)를 포함할 수 있다. 검사콘텐츠식별부(130)는 검사콘텐츠를 식별할 수 있다.
즉, 검사콘텐츠식별부(130)는 사용자의 식별정보를 제공한 검사장치(21)의 식별정보를 획득할 수 있다.
예를 들어, 사용자가 NFC리더기에 사용자단말(10)을 태깅하면, 검사콘텐츠식별부(130)는 태깅된 검사장치(21)의 시리얼번호를 획득할 수 있다.
그리고 검사콘텐츠식별부(130)는 획득된 검사장치(21)의 식별정보를 사용자정보제공부(110) 및 신체정보획득부(120) 중 적어도 하나로 제공할 수 있다.
한편, 다중지능검사시스템(100)은 다중지능검사서버(20)를 포함할 수 있으며, 다중지능검사서버(20)는 검사장치(21)와 다중지능측정서버(22)로 구성될 수 있다.
우선, 검사장치(21)는 사용자식별부(210)를 포함할 수 있다. 사용자식별부(210)는 사용자단말(10)로부터 제공되는 사용자의 식별정보에 기초하여 사용자를 식별할 수 있다.
하나의 실시예에 따라, 검사장치(21)에 구비된 리더기에 사용자단말(10)이 접촉되면, 사용자식별부(210)는 사용자단말(10)로부터 사용자의 식별정보를 획득할 수 있다.
예를 들어, 사용자단말(10)이 검사장치(21)의 NFC 리더기에 접촉되면, 사용자식별부(210)는 사용자단말(10)의 NFC로부터 사용자의 식별정보를 리딩할 수 있다.
다른 실시예에 따라, 일정한 영역 내에 사용자단말(10)이 위치하여 사용자단말(10)이 감지되면, 사용자식별부(210)는 사용자단말(10)로부터 사용자의 식별정보를 획득할 수 있다.
예를 들어, 압력센서가 구비된 일정 영역내에 사용자가 사용자단말(10)을 착용하고 진입하면, 사용자식별부(210)는 사용자단말(10)의 NFC를 리딩할 수 있는 NFC리더기를 동작시켜 사용자의 식별정보를 리딩할 수 있다.
이때, 실시예에 따라, 사용자식별부(210)는 사용자의 식별정보와 함께 사용자단말(10)의 식별정보를 수신할 수 있고, 사용자단말(10)의 식별정보를 후술할 검사인터페이스제공부(220)에 전달함으로써 보조콘텐츠가 제공되도록 할 수 있다.
그리고 실시예에 따라, 사용자식별부(210)는 사용자의 식별정보에 매칭된 사용자의 개인정보와 사용자단말(10)의 사용자가 동일인인지 여부를 판단할 수 있다.
예를 들어, 사용자식별부(210)는 사용자를 촬영한 영상을 기초로 성별, 안경유무, 나이를 판별하고, 사용자의 표정으로부터 웃음강도를 측정하여 사용자의 식별정보에 매칭된 사용자의 개인정보와 촬영된 사용자가 동일인인지 여부를 판단할 수 있다.
한편, 검사장치(21)는 검사인터페이스제공부(220)를 포함할 수 있다. 검사인터페이스제공부(220)는 검사콘텐츠를 제공하여, 제공된 검사콘텐츠에 따라 입력되는 사용자반응정보를 획득하는 검사인터페이스를 사용자에게 제공할 수 있다.
즉, 검사인터페이스제공부(220)는 검사인터페이스를 통해 사용자의 다중 지능을 측정하기 위한 검사콘텐츠를 검사장치(21)에 구비된 출력장치를 통해 사용자에게 제공하거나 또는 사용자단말(10)을 통해 제공할 수 있다.
이때, 검사인터페이스제공부(220)는 검사콘텐츠에 따라 사용자반응정보를 획득하기 위한 입력수단을 함께 제공할 수 있다.
예를 들어, 검사인터페이스제공부(220)는 각 지능영역의 발달정도를 측정할 수 있는 영상과 함께 영상과 관련된 질문을 제공할 수 있고, 제공된 질문에 따라 사용자반응정보를 획득할 수 있는 입력버튼을 제공할 수 있다.
또는 예를 들어, 검사인터페이스제공부(220)는 사용자에게 종이접기를 하도록 도안을 출력하여 제공할 수 있고, 완성된 종이접기의 완성도를 확인하기 위해 카메라 또는 코드리더기 등과 같은 검증수단을 제공할 수 있다.
이때, 실시예에 따라 검사인터페이스제공부(220)는 제공되는 검사콘텐츠와 관련된 보조콘텐츠를 사용자단말(10)을 통해 제공할 수 있으며, 이를 위해, 사용자단말(10)의 식별정보에 기초하여 사용자단말(10)로 보조콘텐츠를 제공할 수 있다.
예를 들어, 검사인터페이스제공부(220)는 제공되는 검사콘텐츠를 가이드하기 위해 사용자단말(10)로 사용자반응정보 방법을 설명하는 보조콘텐츠를 제공할 수 있다.
또는 예를 들어, 검사인터페이스제공부(220)는 제공되는 검사콘텐츠와 연동되어 검사를 수행할 수 있는 보조콘텐츠를 사용자단말(10)로 제공할 수 있다.
한편, 검사장치(21)는 사용자반응정보획득부(230)를 포함할 수 있다. 사용자반응정보획득부(230)는 검사인터페이스를 통해 사용자반응정보를 획득할 수 있다.
하나의 실시예에 따라 사용자반응정보획득부(230)는 검사콘텐츠를 제공받는 사용자의 신체적 반응을 사용자반응정보로써 획득할 수 있다.
예를 들어, 사용자반응정보획득부(230)는 검사인터페이스를 통해 제공되는 검사콘텐츠에 대해 반응하는 사용자의 얼굴표정을 검사장치(21)에 구비된 카메라를 통해 촬영하거나 또는 검사콘텐츠에 반응하는 사용자의 음성을 사용자반응정보로 획득할 수 있다.
또는 예를 들어, 사용자반응정보획득부(230)는 검사콘텐츠에 대한 사용자의 시선을 추적하여 시선의 이동경로를 사용자반응정보로 획득할 수 있다.
그리고 사용자반응정보획득부(230)는 사용자가 기재한 문자 또는 이미지코드가 인쇄된 도안을 기초로 사용자가 제작한 물체에서 인쇄된 이미지 코드의 인식가능 여부 등을 사용자반응정보로 획득할 수 있다.
다른 실시예에 따라, 사용자반응정보획득부(230)는 사용자에게 제공된 입력수단을 통해 사용자반응정보를 획득할 수 있다.
예를 들어, 사용자반응정보획득부(230)는 터치패널을 통해 복수의 입력버튼을 제공할 수 있고, 버튼에 대해 입력속도, 입력횟수 등을 사용자반응정보로써 획득할 수 있다.
한편, 다중지능측정서버(22)는 사용자정보저장부(240)를 포함할 수 있다. 사용자정보저장부(240)는 사용자를 식별하는 식별정보를 저장하고, 사용자의 식별정보를 사용자단말(10)로 제공할 수 있다.
이에 앞서 사용자정보저장부(240)는 사용자로부터 사용자의 개인정보를 입력받을 수 있고, 이를 위해 적어도 하나의 항목으로 구성된 인터페이스를 제공할 수 있다.
예를 들어, 사용자정보저장부(240)는 사용자에게 사용자의 인적사항 및 사용자의 행동에 대한 설문조사를 제공할 수 있고, 입력된 정보를 사용자의 개인정보로써 저장할 수 있다.
그리고 사용자정보저장부(240)는 사용자의 식별정보를 생성할 수 있고, 생성된 사용자의 식별정보를 사용자의 개인정보에 매칭할 수 있다.
예를 들어, 사용자정보저장부(240)는 사용자의 개인정보를 기초로 일련의 문자열로 변환하거나 또는 무작위로 일련의 문자열을 생성하여 사용자의 식별정보써 할당할 수 있다.
이후, 사용자정보저장부(240)는 사용자단말(10)로 사용자의 식별정보를 제공할 수 있다. 예를 들어, 사용자정보저장부(240)는 사용자단말(10)로 블루투스 또는 NFC 등을 통해 사용자의 식별정보를 제공할 수 있다.
한편, 다중지능측정서버(22)는 신체정보수집부(250)를 포함할 수 있다. 신체정보수집부(250)는 사용자단말(10)을 통해 획득되는 신체정보를 수집할 수 있다.
하나의 실시예에 따라 신체정보수집부(250)는 실시간으로 사용자단말(10)로부터 사용자의 신체정보를 수집할 수 있다.
예를 들어, 신체정보수집부(250)는 사용자단말(10)과 통신연결을 유지하면서 실시간으로 사용자의 신체정보를 수신할 수 있다.
다른 실시예에 따라 신체정보수집부(250)는 검사장치(21)를 통해 다중 지능 측정을 종료한 사용자단말(10)로부터 저장된 사용자의 신체정보를 수신할 수 있다.
예를 들어, 사용자가 사용자단말(10)을 장착하고 검사장치(21)를 통해 다중 지능측정의 수행을 종료하면, 신체정보수집부(250)는 사용자단말(10)에 접속하여 사용자단말(10)에 획득되어 저장된 사용자의 신체정보를 다운로드할 수 있다.
그리고 신체정보수집부(250)는 수집된 신체정보에 사용자단말(10)에서 획득된 시간정보를 매칭할 수 있다.
예를 들어, 신체정보수집부(250)는 신체정보가 수집된 시간 또는 신체정보가 수집될 때 제공되는 검사콘텐츠를 신체정보에 매칭할 수 있다.
한편, 다중지능측정서버(22)는 사용자반응정보수집부(260)를 포함할 수 있다. 사용자반응정보수집부(260)는 제공되는 검사콘텐츠에 따른 사용자반응정보를 검사장치(21)로부터 수집할 수 있다.
예를 들어, 사용자반응정보수집부(260)는 각 지능영역에 대응되는 검사장치(21)로부터 사용자반응정보를 실시간으로 수신할 수 있으며, 이와 함께 사용자의 식별정보와 해당 사용자반응정보가 획득될 때의 검사콘텐츠에 대한 정보를 함께 수신할 수 있다.
한편, 다중지능측정서버(22)는 다중지능측정부(270)를 포함할 수 있다. 다중지능측정부(270)는 적어도 하나의 지능영역 각각에 대한 측정기준에 기초하여 신체정보 및 사용자반응정보 중 적어도 하나를 기초로 다중 지능을 측정할 수 있다.
이를 위해, 다중지능측정부(270)는 수집된 신체정보 및 사용자반응정보를 매칭할 수 있다.
예를 들어, 다중지능측정부(270)는 신체정보에 태깅된 시간정보와 사용자반응정보에 발생된 시간정보를 비교하여 동일한 시간대의 사용자반응정보와 신체정보를 매칭할 수 있다.
이후, 다중지능측정부(270)는 검사콘텐츠에 대한 사용자반응정보 및 신체정보를 기초로 검사콘텐츠가 측정하는 지능영역에 대한 사용자의 다중 지능을 측정할 수 있다.
이때, 다중지능측정부(270)는 검사콘텐츠가 제공된 사용자의 표정을 함께 분석하여 다중 지능을 측정할 수 있다.
예를 들어, 다중지능측정부(270)는 사용자의 얼굴을 분석하여 사용자의 감정상태를 화남, 경멸, 혐오, 무서움, 행복, 무표정, 슬픔 등으로 구분할 수 있으며, 사용자의 웃음의 강도를 측정할 수 있다.
이와 같이 검사콘텐츠에 제공받는 사용자의 표정을 분석함으로써 검사콘텐츠가 측정하려는 지능영역에 대한 사용자의 흥미를 측정할 수 있다.
그리고 다중지능측정부(270)는 음성의 높낮이, 사용하는 단어 또는 억양 등을 이용하여 사용자의 상태 및 감정을 분석할 수 있다.
예를 들어, 다중지능측정부(270)는 검사콘텐츠를 제공받는 사용자가 무의식적으로 말한 단어를 분석하여 긍정 또는 부정의 감정상태를 측정할 수 있으며, 체험과정에서 나오는 단어 또는 문장을 기 저장된 데이터를 이용하여 검사콘텐츠에 대한 사용자의 흥미를 5가지 감정으로 측정할 수 있다.
이때, 다중지능측정부(270)는 음성을 분석할 때 심박수 등과 같은 신체정보를 함께 매칭하여 분석함으로써 사용자가 말한 문장의 분석의 정확성을 높일 수 있으며, 검사콘텐츠에 대한 사용자의 태도를 보다 정밀하게 측정할 수 있다.
또한, 다중지능측정부(270)는 사용자의 시선을 추적하여 사용자가 어떠한 검사콘텐츠에 관심이 높은지 분석할 수 있다.
예를 들어, 다중지능측정부(270)는 사용자의 시선의 움직임과 검사콘텐츠의 흐름을 대조하여 사용자의 집중도를 분석할 수 있으며, 시선이 머무는 시간에 따라 사용자의 사물인지 또는 학습행태 등을 분석할 수 있다.
그리고 다중지능측정부(270)는 사용자의 신체정보 중 맥박, 피부전도도 또는 체온을 통해 검사콘텐츠에 대한 사용자의 스트레스지수를 분석하여 검사콘텐츠에 대한 사용자의 몰입도를 측정할 수 있다.
또한, 다중지능측정부(270)는 사용자의 움직임을 기초로 검사콘텐츠에 대한 사용자의 흥미도를 측정할 수 있다.
예를 들어, 다중지능측정부(270)는 측정된 사용자의 움직임을 통해 사용자의 신체발달 정도를 분석할 수 있고, 동시에 특정 검사콘텐츠에 머무르는 시간을 기초로 흥미가 높은 검사콘텐츠를 식별하여 사용자의 다중 지능을 측정할 수 있다.
그리고 다중지능측정부(270)는 사용자가 제작한 물체를 인지하여 사용자에 대한 과업의 완성도에 따라 사용자의 다중 지능을 측정할 수 있다.
예를 들어, 다중지능측정부(270)는 사용자가 제작한 물체를 카메라 측정하여 도안에 따른 제작의 충실도 및 도색의 완성도를 분석하여 사용자의 다중 지능을 측정할 수 있다.
한편, 다중지능측정서버(22)는 측정결과제공부(280)를 포함할 수 있다. 측정결과제공부(280)는 신체정보 및 사용자반응정보 중 적어도 하나를 분석하여 측정된 사용자의 다중 지능을 제공할 수 있다.
그리고 측정결과제공부(280)는 각 지능영역 중 가장 높은 다중 지능을 보이는 지능영역에 대한 정보를 사용자단말(10)로 실시간으로 제공할 수 있고, 사용자단말(10)에서 해당 지능영역을 표시되도록 할 수 있다.
예를 들어, 측정결과제공부(280)는 사용자가 가장 높은 다중 지능을 보이는 수리영역에 대한 정보를 사용자단말(10)로 제공할 수 있고, 수리영역을 나타내는 색인 보라색이 사용자단말(10)에 표시되도록 할 수 있다.
이를 통해 사용자가 현재 자신의 다중 지능이 가장 높은 지능영역이 무엇인지 즉각적으로 인지하도록 할 수 있다.
도 3 에 도시된 실시예에 따른 다중지능검사방법은 도 2 에 도시된 다중지능검사시스템(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 2 에 도시된 다중지능검사시스템(100)에 관하여 이상에서 기술한 내용은 도 3에 도시된 실시예에 따른 다중지능검사방법에도 적용될 수 있다.
우선, 다중지능검사서버(20)의 다중지능측정서버(22)는 사용자의 식별정보를 등록할 수 있다(S3001).
이를 위해, 다중지능측정서버(22)는 사용자의 개인정보를 수집할 수 있다. 예를 들어, 다중지능측정서버(22)는 사용자에게 개인정보를 수집하기 위한 복수의 질문이 포함된 설문조사를 제공할 수 있고, 사용자의 답변에 기초하여 사용자의 개인정보를 수집할 수 있다.
이때, 설문조사에는 사용자의 다중 지능을 측정하기 위한 성격, 행동 등에 대한 질문이 포함될 수 있으며, 질문에 대한 답변은 후술할 S3008단계에서 사용자의 다중 지능을 측정하는데 이용될 수 있다.
이후, 다중지능측정서버(22)는 다중 지능 측정시 사용자를 식별하기 위한 사용자 식별정보를 생성하여 사용자단말(10)과 매칭할 수 있다.
예를 들어, 사용자가 사용자단말(10)을 NFC 리더기에 접촉하면, 다중지능측정서버(22)는 생성된 식별정보를 사용자단말(10)에 구비된 NFC 칩에 기록함으로써 사용자의 개인정보를 제공할 수 있다.
그리고 사용자가 다중 지능측정을 위해 검사장치(21)에 접근하면, 검사장치(21)는 사용자의 식별정보를 제공받아 사용자를 식별할 수 있다(S3002).
즉, 사용자가 검사장치(21)에 구비된 NFC 리더기에 사용자단말(10)을 접촉하면, 검사장치(21)는 사용자단말(10)로부터 사용자의 식별정보를 리딩할 수 있다.
이때, 실시예에 따라 검사장치(21)는 사용자의 얼굴을 촬영할 수 있고, 사용자의 얼굴을 분석하여 사용자의 식별정보에 매칭된 사용자의 개인정보와 비교할 수 있다.
이를 통해, 특정 지능영역을 측정하는 검사장치(21)에 접근하는 복수의 사용자 중 검사인터페이스를 통해 획득된 사용자반응정보가 어떤 사용자의 것인지 정확하게 식별할 수 있다.
이후, 검사장치(21)는 다중 지능을 측정하는 검사콘텐츠를 제공하고, 제공된 검사콘텐츠를 따라 입력되는 사용자반응정보를 획득하는 검사인터페이스를 사용자에게 제공할 수 있다(S3003).
예를 들어, 검사장치(21)는 검사장치(21)에 구비된 터치디스플레이를 통해 검사인터페이스를 출력할 수 있거나 또는 사용자단말(10)로 검사인터페이스를 송신할 수도 있다.
이때, 검사장치(21)는 사용자단말(10)로 제공될 검사콘텐츠와 관련된 보조콘텐츠가 표시되도록 하여 사용자의 참여를 유도하도록 할 수 있도록 사용자단말(10)과 연동될 수 있다.
예를 들어, 검사장치(21)는 사용자에게 제공될 검사콘텐츠에 대한 정보를 사용자단말(10)에 제공할 수 있고, 사용자단말(10)에 사용자를 가이드하는 캐릭터를 통해 검사콘텐츠에 참여하는 방법을 제공하거나 또는 사용자의 흥미를 유도할 수 있다.
도 4 는 보조콘텐츠가 표시되는 사용자단말(10)을 도시한 예시도이다. 이를 참조하면, 사용자단말(10)은 검사장치(21)에서 제공하는 검사콘텐츠와 관련된 가상의 개를 사용자단말(10)의 디스플레이(401)에 표시할 수 있다.
또는 실시예에 따라 검사장치(21)는 사용자에게 사용자반응정보를 위한 보조 도구의 이용을 요청할 수 있다.
예를 들어, 검사장치(21)는 사용자에게 검사콘텐츠 체험을 위한 물리적인 도구를 선택할 것을 요청할 수 있고, 해당 도구에 의해서만 사용자반응정보를 입력받을 수 있는 검사인터페이스를 제공할 수 있다.
이때, 물리적인 도구는 실제 도구 모양을 가진 물체이거나 또는 도구의 모양이 그려진 카드, 칩(chip)일 수 있다.
이를 통해, 사용자가 검사콘텐츠를 이용하기 위해 필요한 도구를 직접 선택하도록 함으로써 다중 지능 발달을 유도할 수 있다.
이후, 검사장치(21)는 사용자반응을 유도하여 사용자의 다중 지능을 측정하는 검사콘텐츠를 사용자에게 제공할 수 있다.
그리고 검사장치(21)는 검사콘텐츠에 대한 사용자반응정보를 수집할 수 있다(S3004).
즉, 검사장치(21)는 검사콘텐츠가 제공되는 동안의 사용자의 반응을 수집할 수 있다.
예를 들어, 검사장치(21)는 검사콘텐츠를 제공받는 사용자의 표정, 체온 또는 사용자의 움직임을 촬영할 수 있다. 또는 검사장치(21)는 검사콘텐츠를 제공받는 사용자의 음성을 녹음할 수 있다.
또는 예를 들어, 검사장치(21)는 사용자로부터 터치스크린을 통해 입력되는 사용자반응정보를 수집할 수 있다.
도 5 는 검사장치(21)에서 검사콘텐츠에 따라 사용자가 다중 지능을 측정하는 모습을 도시한 예시도이다. 이를 참조하면, 검사장치(21)는 디스플레이(501)를 통해 검사콘텐츠를 제공할 수 있고, 사용자(502)의 동작을 카메라(503)를 통해 수집할 수 있다.
이때, 사용자단말(10)은 검사콘텐츠에 대한 사용자의 신체정보를 획득할 수 있다(S3005).
예를 들어, 사용자의 손목에 착용되는 사용자단말(10)은 사용자의 심박수, 체온, 움직임 또는 피부전도도 등을 획득할 수 있다.
또는 예를 들어, 운동화 형태의 사용자단말(10)은 압력센서를 이용하여 사용자의 동작, 균형, 움직이는 속도, 거리 등을 획득할 수 있다.
도 5 를 참조하면, 신발 형태인 사용자단말(10)은 압력센서를 이용하여 사용자(502)의 운동량 또는 균형감각발달정도 등을 획득할 수 있다.
그리고 다중지능측정서버(22)는 검사장치(21)로부터 사용자반응정보를 수신할 수 있고(S3006), 사용자단말(10)로부터 신체정보를 수신할 수 있다(S3007).
이후, 다중지능측정서버(22)는 신체정보 및 사용자반응정보 중 적어도 하나에 기초하여 사용자의 다중 지능을 측정할 수 있다(S3008).
이에 앞서 다중지능측정서버(22)는 S3006단계 내지 S3007단계를 통해 수집된 사용자의 신체정보와 사용자반응정보를 매칭시킬 수 있고, 각 검사콘텐츠에 대한 사용자의 신체정보 및 사용자반응정보를 분석할 수 있다.
예를 들어, 다중지능측정서버(22)는 검사장치(21)의 키넥트를 이용하여 사용자의 움직임을 인식해서 검사콘텐츠로 제공된 동작이나 글자 모양을 맞추었는지 분석할 수 있고, 이를 통해 사용자의 직관적인 다중 지능활동을 측정할 수 있다.
또는 예를 들어, 다중지능측정서버(22)는 색칠하는 검사콘텐츠에 따라 사용자가 색칠한 그림을 스캔할 수 있고, 스캔된 그림을 기초로 색채를 분석하여 아이의 감정상태를 측정할 수 있다.
그리고 예를 들어, 다중지능측정서버(22)는 사용자가 특정 위치에서 움직임 없이 위치를 유지하는 시간에 기초하여 사용자의 인내심 등을 측정할 수 있다.
이때, 다중지능측정서버(22)는 검사콘텐츠에 대해 사용자반응정보가 발생된 시점의 사용자의 감정상태를 분석하여 사용자의 다중 지능의 측정할 수 있다.
즉, 다중지능측정서버(22)는 검사콘텐츠에 대한 사용자의 감정상태에 따라 사용자반응정보에 가중치를 부가하여 검사콘텐츠가 검사하는 지능영역에 대한 사용자의 다중 지능을 측정할 수 있다.
예를 들어, 수리영역을 검사하는 검사콘텐츠에 대해 사용자의 감정이 화남인 경우, 다중지능측정서버(22)는 사용자의 감정에 1보다 낮은 가중치를 부여하여 수리영역에 대한 사용자의 다중 지능을 측정할 수 있다.
또는 이와 달리, 언어영역을 검사하는 검사콘텐츠에 대해 사용자의 감정이 신남인 경우, 다중지능측정서버(22)는 사용자의 감정에 1보다 큰 가중치를 부여하여 언어영역에 대한 사용자의 다중 지능을 측정할 수 있다.
이후, 다중지능측정서버(22)는 측정된 사용자의 다중 지능을 사용자단말(10)로 제공할 수 있고(S3009), 사용자단말(10)을 통해 측정결과가 출력되도록 할 수 있다(S3010).
즉, 다중지능측정서버(22)는 S3008단계를 통해 분석된 사용자의 다중 지능에 기초하여, 사용자의 지능영역 중 가장 다중 지능이 높은 지능영역에 대한 정보를 실시간으로 결정할 수 있다.
그리고 다중지능측정서버(22)는 분석된 사용자의 다중 지능을 사용자단말(10)로 제공할 수 있고, 사용자의 지능영역 중 다중 지능이 가장 높은 지능영역이 사용자단말(10)을 통해 표시되도록 할 수 있다.
예를 들어, 다중지능측정서버(22)는 사용자에 대해 각 지능영역 별 다중 지능을 측정할 수 있고, 다중 지능이 높은 음악영역의 색인 보라색이 사용자단말(10)에 표시되도록 할 수 있다.
도 3 을 통해 설명된 실시예에 따른 다중지능검사방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
또한 본 발명의 일실시예에 따르는 다중지능검사방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive))에 기록될 수 있다.
따라서 본 발명의 일실시예에 따르는 다중지능검사방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 다중지능검사시스템
10: 사용자단말
11: 관찰자단말
20: 다중지능검사서버
21: 검사장치
22: 다중지능측정서버

Claims (14)

  1. 다중 지능을 측정하는 시스템에 있어서,
    사용자에 대한 신체정보를 획득하는 사용자단말; 및
    상기 다중 지능의 측정에 이용되는 사용자반응정보를 유도하는 검사콘텐츠를 제공하고, 상기 신체정보 및 상기 사용자반응정보 중 적어도 하나에 기초하여 상기 사용자의 다중 지능을 측정하는 다중지능검사서버를 포함하고,
    상기 사용자단말은,
    상기 사용자가 위치하는 검사장치에 대응되는 상기 검사콘텐츠에 따른 사용자반응정보의 입력을 지시하는 보조콘텐츠를 제공하고,
    상기 다중지능검사서버는,
    상기 사용자단말을 통해 획득되는 신체정보를 수집하고, 수집되는 신체정보에 대해 획득된 시간정보를 매칭하는 신체정보수집부;
    상기 검사콘텐츠에 대한 상기 사용자의 사용자반응정보를 획득하는 적어도 하나의 검사장치를 통해 사용자반응정보를 수집하는 사용자반응정보수집부; 및
    상기 적어도 하나의 검사장치 각각으로부터 수집되는 사용자반응정보와 상기 신체정보를 상기 시간정보에 기초하여 매칭하고, 상기 신체정보 및 상기 사용자반응정보 중 적어도 하나에 기초하여 적어도 하나의 지능영역별로 다중 지능을 측정하는 다중지능측정부를 포함하는, 다중지능검사시스템.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 다중지능검사서버는,
    상기 사용자를 식별하는 식별정보를 저장하고, 상기 사용자의 식별정보를 상기 사용자단말로 제공하는 사용자정보저장부; 및
    상기 적어도 하나의 지능영역 별로 측정된 측정결과를 제공하는 측정결과제공부를 더 포함하는, 다중지능검사시스템.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 다중지능측정부는,
    수집된 사용자의 신체정보에 기초하여 상기 사용자의 감정상태를 측정하는, 다중지능검사시스템.
  6. 제 5 항에 있어서,
    상기 다중지능측정부는,
    상기 검사콘텐츠별로 상기 수집된 사용자의 신체정보를 분류하고, 상기 검사콘텐츠별로 상기 사용자의 감정상태를 측정하는, 다중지능검사시스템.
  7. 제 3 항에 있어서,
    상기 다중지능검사서버는,
    상기 검사콘텐츠에 대한 사용자반응정보를 획득하여 상기 사용자반응정보수집부로 제공하는 검사장치를 포함하고,
    상기 사용자단말은,
    상기 다중지능검사서버에 등록된 상기 사용자의 식별정보를 상기 검사장치로 제공하는 사용자정보제공부;
    상기 검사콘텐츠에 대한 사용자의 신체정보를 측정하여 저장하는 신체정보획득부; 및
    상기 검사콘텐츠를 식별하는 검사콘텐츠식별부를 포함하는, 다중지능검사시스템.
  8. 제 1 항에 있어서,
    상기 검사장치는,
    상기 사용자단말로부터 제공되는 상기 사용자의 식별정보에 기초하여 상기 사용자를 식별하는 사용자식별부;
    상기 검사콘텐츠를 제공하여, 제공된 검사콘텐츠에 대한 사용자반응정보를 획득하는 검사인터페이스를 제공하는 검사인터페이스제공부; 및
    상기 검사콘텐츠에 대한 사용자반응정보를 획득하는 사용자반응정보획득부를 포함하는, 다중지능검사시스템.
  9. 제 8 항에 있어서,
    상기 검사인터페이스제공부는,
    상기 사용자에 대해 측정할 지능영역에 따라 제공하는 검사콘텐츠를 달리 제공하는, 다중지능검사시스템.
  10. 다중지능검사시스템이 다중 지능을 측정하는 방법에 있어서,
    상기 다중 지능의 측정에 이용되는 사용자반응정보를 유도하는 검사콘텐츠를 사용자에게 제공하는 단계;
    상기 사용자가 위치하는 검사장치에 대응되는 상기 검사콘텐츠에 따른 사용자반응정보의 입력을 지시하는 보조콘텐츠를 사용자단말을 통해 제공하는 단계;
    상기 사용자단말을 통해 사용자에 대한 신체정보를 수집하고, 수집되는 신체정보에 대해 획득된 시간정보를 매칭하는 단계;
    상기 검사콘텐츠에 대한 상기 사용자의 사용자반응정보를 획득하는 적어도 하나의 검사장치 각각으로부터 사용자반응정보를 수집하는 단계;
    상기 적어도 하나의 검사장치를 통해 수집되는 사용자반응정보와 상기 신체정보를 상기 시간정보에 기초하여 매칭하는 단계; 및
    상기 신체정보 및 상기 사용자반응정보 중 적어도 하나에 기초하여 상기 사용자의 다중 지능을 측정하는 단계를 포함하는, 다중지능검사방법.
  11. 제 10 항에 있어서,
    상기 검사콘텐츠를 사용자에게 제공하는 단계는,
    상기 사용자의 식별정보에 기초하여 상기 사용자를 식별하는 단계;
    상기 검사콘텐츠를 제공하고, 제공된 검사콘텐츠를 대한 상기 사용자반응정보를 획득하는 검사인터페이스를 제공하는 단계를 더 포함하는, 다중지능검사방법.
  12. 제 10 항에 있어서,
    상기 사용자의 다중 지능을 측정하는 단계는,
    수집된 사용자의 신체정보 중 상기 검사콘텐츠에 대한 사용자의 신체정보를 특정하는 단계; 및
    특정된 신체정보에 기초하여 상기 검사콘텐츠에 대한 사용자의 감정상태를 식별하는 단계를 더 포함하는, 다중지능검사방법.
  13. 제 12 항에 있어서
    상기 다중 지능검사방법은,
    상기 감정상태 및 상기 사용자반응정보 중 적어도 하나에 기초하여, 상기 검사콘텐츠가 검사하는 지능영역에 대한 사용자의 다중 지능을 측정하는 단계를 더 포함하는, 다중지능검사방법.
  14. 상기 제 10 항 내지 제 13 항 중 어느 한 항에 기재된 방법을 수행하기 위해 기록매체에 저장된 컴퓨터 프로그램.
KR1020160130661A 2015-10-08 2016-10-10 다중 지능 검사 시스템 및 방법 KR101758198B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/011318 WO2017061841A1 (ko) 2015-10-08 2016-10-10 다중 지능 검사 시스템 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150141478 2015-10-08
KR20150141478 2015-10-08

Publications (2)

Publication Number Publication Date
KR20170042255A KR20170042255A (ko) 2017-04-18
KR101758198B1 true KR101758198B1 (ko) 2017-07-14

Family

ID=58703773

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160130661A KR101758198B1 (ko) 2015-10-08 2016-10-10 다중 지능 검사 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR101758198B1 (ko)
CN (1) CN108140226A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116298799B (zh) * 2023-03-10 2024-03-19 深圳市晶存科技有限公司 芯片测试多界面联动显示方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1420683A4 (en) * 2001-06-15 2009-08-05 Univ Pennsylvania FUNCTIONAL BRAIN IMAGING FOR PROOFING AND ASSESSING DECEPTION AND HIDDEN DETECTION AND COGNITIVE / EMOTIONAL REACTIONS ON INFORMATION
US8938390B2 (en) * 2007-01-23 2015-01-20 Lena Foundation System and method for expressive language and developmental disorder assessment
CN101419758B (zh) * 2008-12-12 2011-05-04 天津师范大学 学习能力测试设备
US20110065078A1 (en) * 2009-09-16 2011-03-17 Duffy Charles J Method and system for quantitative assessment of social interactions nulling testing
KR20110055215A (ko) * 2009-11-19 2011-05-25 정효경 다중지능을 이용한 적성 검사 방법 및 이를 이용한 온라인 직업 적성 검사 방법 및 시스템
CN102737281A (zh) * 2011-04-06 2012-10-17 中国矿业大学(北京) 个体应急处置能力测评系统
KR101403393B1 (ko) * 2012-04-18 2014-06-03 강동화 재능 검사 장치 및 그의 재능 검사 방법
JP2015533559A (ja) * 2012-09-28 2015-11-26 ザ レジェンツ オブ ザ ユニヴァーシティー オブ カリフォルニア 知覚および認知プロファイリングのためのシステムおよび方法
KR101878359B1 (ko) * 2012-12-13 2018-07-16 한국전자통신연구원 정보기술을 이용한 다중지능 검사 장치 및 방법
KR20140120591A (ko) * 2013-04-03 2014-10-14 한국과학기술원 인지 발달 상태 증진 장치 및 방법
KR20150078057A (ko) * 2013-12-30 2015-07-08 (주) 엄마나무 학습 프로그램을 이용한 다중지능 검사 방법

Also Published As

Publication number Publication date
KR20170042255A (ko) 2017-04-18
CN108140226A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
Zhang et al. Data-driven online learning engagement detection via facial expression and mouse behavior recognition technology
Schmid Mast et al. Social sensing for psychology: Automated interpersonal behavior assessment
Lin Exploring the relationship between technology acceptance model and usability test
Bombari et al. Emotion recognition: The role of featural and configural face information
KR101880159B1 (ko) 스마트폰 어플리케이션 연계 그림 심리검사 전용 검사지 및 그 검사지와 스마트폰 어플리케이션을 이용한 그림 심리검사 서비스 제공시스템과 방법
Alshammari et al. When to ask participants to think aloud: A comparative study of concurrent and retrospective think-aloud methods
US20180060757A1 (en) Data annotation method and apparatus for enhanced machine learning
KR20130082839A (ko) 사용자 맞춤형 콘텐츠 제공 장치 및 그 방법
McBrien et al. Social–emotional expertise (SEE) scale: development and initial validation
KR102041259B1 (ko) 전자책을 이용하는 독서 교육 서비스 제공 장치 및 방법
KR101731561B1 (ko) 성격 검사 장치 및 그 방법
KR101612782B1 (ko) 사용자 독서 관리 시스템 및 방법
Kamikubo et al. Sharing practices for datasets related to accessibility and aging
Marquart Eye-tracking methodology in research on visual politics
Revilla How to enhance web survey data using metered, geolocation, visual and voice data?
KR101758198B1 (ko) 다중 지능 검사 시스템 및 방법
Tunçer et al. Data-driven thinking for measuring the human experience in the built environment
Salmi et al. Automatic facial expression analysis as a measure of user-designer empathy
Jiang et al. Understand system’s relative effectiveness using adapted confusion matrix
Scherr et al. Detecting user emotions with the true-depth camera to support mobile app quality assurance
Mahmud et al. To read or not to read: Modeling online newspaper reading satisfaction and its impact on revisit intention and word-of-mouth
Nguyen et al. KTFEv2: multimodal facial emotion database and its analysis
Ohnishi et al. Toward interest estimation from head motion using wearable sensors: A case study in story time for children
Guhan et al. Developing an effective and automated patient engagement estimator for telehealth: A machine learning approach
Genç Knowledge Co-creation Through Eye-Tracking in Tourism

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant