KR101878359B1 - 정보기술을 이용한 다중지능 검사 장치 및 방법 - Google Patents

정보기술을 이용한 다중지능 검사 장치 및 방법 Download PDF

Info

Publication number
KR101878359B1
KR101878359B1 KR1020120145578A KR20120145578A KR101878359B1 KR 101878359 B1 KR101878359 B1 KR 101878359B1 KR 1020120145578 A KR1020120145578 A KR 1020120145578A KR 20120145578 A KR20120145578 A KR 20120145578A KR 101878359 B1 KR101878359 B1 KR 101878359B1
Authority
KR
South Korea
Prior art keywords
intelligence
information
user
emotion
unit
Prior art date
Application number
KR1020120145578A
Other languages
English (en)
Other versions
KR20140076964A (ko
Inventor
박찬규
윤우한
김도형
윤호섭
김재홍
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020120145578A priority Critical patent/KR101878359B1/ko
Priority to US13/929,741 priority patent/US20140170628A1/en
Publication of KR20140076964A publication Critical patent/KR20140076964A/ko
Application granted granted Critical
Publication of KR101878359B1 publication Critical patent/KR101878359B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/06Electrically-operated teaching apparatus or devices working with questions and answers of the multiple-choice answer-type, i.e. where a given question is provided with a series of answers and a choice has to be made from the answers

Abstract

본 발명의 실시 예에 따른 다중지능 검사 장치는 사용자로부터 다중지능 평가를 위한 영상을 수신하는 영상 감지 장치, 상기 영상 감지 장치로부터 상기 영상 정보를 수신하여, 제 1 반응 및 제 2 반응 중 어느 하나를 선택하는 방식의 상기 다중지능 평가를 수행하는 다중지능 측정 모델부, 상기 다중지능 측정 모델부로부터 상기 평가된 다중지능 결과를 수신하고, 상기 수신된 결과에 기반하여 개인별 포트폴리오를 생성하는 컨텐츠부를 포함하되, 상기 다중지능 측정 모델부는 상기 사용자의 감정 및 행동 패턴에 따른 기준 반응에 기반하여 상기 제 1 및 상기 제 2 반응 중 어느 하나를 선택한다.

Description

정보기술을 이용한 다중지능 검사 장치 및 방법{SYSTEM AND METHOD FOR DETECTING MUTIPLE-INTELLIGENCE USING INFORMATION TECHNOLOGY}
본 발명은 다중지능 검사 장치에 관한 것으로, 더욱 상세하게는 IT(Information Technonlgy) 기술을 이용하여 사용자의 다중지능을 검사하기 위한 장치를 제공하는 것이다.
일반적으로, 사용자의 지능을 검사하기 위한 수단으로써 IQ(Intelligence Quotient) 검사 방식이 대표적으로 사용되어 왔다. IQ 지수는 사용자의 지능 발달 정도를 수치의 결과로써 보여주며, 계산력, 어휘력 등 일련의 테스트를 통해 검사된다. 그리고 IQ 검사 방식은 사용자의 IQ 테스트 점수를 기초로 하여, 사용자의 지능이 전체 집단에서 어느 지점에 위치하는지를 상대적으로 보여준다.
그러나, 이러한 IQ 검사 방식은 사용자에게 잠재되어 있는 지능 또는 재능을 정확히 파악하지 못한다는 문제점을 갖는다. 이에 따라, 사용자의 다양한 자질과 특성을 파악하기 위해, 인간의 지능을 8 가지의 영역으로 분리하고, 각 영역에 대한 검사를 수행하는 다중지능 검사 방식이 제임스 가드너(James Gadner )에 의해 소개되었다.
특히, 최근 들어, 다중지능 측정 방식에 기반한 개인별 포트폴리오(Portfolio)의 사용도가 증가되고 있다. 이러한 포트폴리오는 인간의 8 가지 영역에 대한 다중지능에 기반하여, 각 영역별로의 사용자의 잘함 또는 못함이 평가된다. 이로 인해, 사용자는 자신의 포트폴리오를 참조하여 자신의 특성 및 재능을 보다 쉽게 살펴볼 수 있다.
또한, 이러한 다중지능 검사는 사용자가 각 영역의 다중지능에 대한 컨텐츠를 수행하거나 전문가와의 상담을 통해 수행된다. 그러나, 각 영역별로 사용자의 다중지능을 파악하기 위해서는 많은 수의 전문가와, 시간, 그리고 비용이 필요하다는 문제점이 발생한다.
따라서, 본 발명은 상술한 기술적 과제를 해결하기 위한 것으로, 다중지능 검사 시스템은 카메라 센싱 기반의 장치를 통해 사용자의 다중지능을 검사하고, 검사된 사용자의 다중지능을 전문가를 통해 분석하는 것이 아닌, IT 기술을 이용하여 분석하는 다중지능 검사 장치를 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명에 따른 다중지능 검사 장치는 사용자로부터 다중지능 평가를 위한 영상을 수신하는 영상 감지 장치, 상기 영상 감지 장치로부터 상기 영상 정보를 수신하여, 제 1 반응 및 제 2 반응 중 어느 하나를 선택하는 방식의 상기 다중지능 평가를 수행하는 다중지능 측정 모델부, 상기 다중지능 측정 모델부로부터 상기 평가된 다중지능 결과를 수신하고, 상기 수신된 결과에 기반하여 개인별 포트폴리오를 생성하는 컨텐츠부를 포함하되, 상기 다중지능 측정 모델부는 상기 사용자의 감정 및 행동 패턴에 따른 기준 반응에 기반하여 상기 제 1 및 상기 제 2 반응 중 어느 하나를 선택한다.
상기 목적을 달성하기 위한 본 발명에 따른 다중지능 검사 방법은 사용자를 통해 영상 정보를 측정하는 단계, 상기 측정된 영상 정보에 대해 제 1 반응 및 제 2 반응 중 어느 하나를 선택하는 방식으로 다중지능 평가를 수행하는 단계, 상기 평가된 다중영상 정보에 기반하여 개인별 포트폴리오를 생성하는 단계를 포함하되, 상기 다중지능 평가는 사용자의 감정 및 행동 패턴에 따른 기준 반응에 기반하여 상기 제 1 및 상기 제 2 반응 중 어느 하나가 결정되도록 수행한다.
본 발명의 실시 예에 따르면, 다중지능 검사 장치는 IT 기술을 이용하여 사용자의 다중지능을 분석함으로써, 검사 비용 및 검사 시간을 절약할 수 있다.
도 1은 본 발명의 실시 예에 따른 다중지능 검사 장치의 블록도를 보여주다.
도 2는 본 발명의 실시 예에 따른 영상 감지 장치의 구성 요소를 보여준다.
도 3은 도 1에 도시된 영상 감지 장치가 구현될 수 있는 일 실시예를 보여준다.
도 4는 도 1에 도시된 영상 감지 장치로 구현될 수 있는 다른 실시예를 보여준다.
도 5는 도 1에 도시된 다중지능 측정 모델부의 블록도를 보여준다.
도 6은 본 발명의 실시 예에 따른 다중지능 검사 장치의 동작 과정을 보여준다.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시 예를 첨부된 도면을 참조하여 설명하기로 한다. 동일한 구성 요소들은 동일한 참조번호를 이용하여 인용될 것이다. 유사한 구성 요소들은 유사한 참조번호들을 이용하여 인용될 것이다. 아래에서 설명될 본 발명에 따른 다중지능 검사 장치와, 그것에 의해 수행되는 동작은 예를 들어 설명한 것에 불과하며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능하다.
최근에 소개된 다중지능(The multiple inteligence) 검사는 IQ(Intelligence Quotient) 테스트만으로 인간의 재능 및 역량을 정확히 판단할 수 없다는 것에 기반하여 개발되었다. 이러한 다중지능 검사 방식은 언어, 음악, 논리수학, 공간, 신체운동, 인간친화, 자기성찰, 자연친화 등, 8 가지 영역에 대해 각 영역별로 사용자의 지능을 검사한다. 그리고 다중지능 검사 방식은 각 영역의 지능을 조합하여 사용자의 전체적인 재능 및 역량을 판단하게 된다.
그러나, 각 영역별로 사용자의 지능을 검사하기 위해서는 많은 수의 전문가와 시간이 필요하게 되는 문제점이 발생한다. 이에 따라, 검사 시간 및 검사 비용을 줄일 수 있는 다중지능 검사 방식이 요구되고 있다.
도 1은 본 발명의 실시 예에 따른 다중지능 검사 장치의 블록도를 보여주다. 도 1을 참조하면, 다중지능 검사 장치(100)는 영상 감지 장치(110), 다중지능 측정 모델부(120), 컨텐츠부(130), 및 서비스 관리부(140)를 포함한다.
영상 감지 장치(110)는 사용자로부터 다중지능 검사에 필요한 영상 정보를 측정한다. 기존의 사용자로부터 다중지능을 측정하는 방식은 문제를 통한 테스트나 전문가가 직접적으로 사용자와의 상담을 통해 수행되었다. 그러나, 문제를 통한 테스트 방식은 사용자의 흥미 또는 집중력을 감소시켜 정확한 결과 값을 얻을 수 없는 문제점을 가진다. 그리고 각 영역마다의 지능 검사를 전문가를 통해 수행하는 방식은 검사 시간이 많이 소비되는 문제점을 발생한다.
이에 반해, 영상 감지 장치(110)는 카메라 또는 센서가 구비된 전자 기기로써 제작되어, 영상, 음성, 생체 신호를 촬영할 수 있다. 그리고 영상 감지 장치(110)는 사용자와의 상호작용을 통해 영상 정보를 측정할 수 있다. 예를 들어, 스마트 기기를 통해 제공되는 컨텐츠 내용에 사용자가 반응을 하게 되면, 영상 감지 장치(110)는 사용자의 반응에 기반하여 영상 정보를 측정할 수 있다. 영상 정보에는 컨텐츠를 수행하면서 발생되는 사용자의 감정 표현 또는 행동 패턴에 대한 내용이 포함될 수 있다.
또한, 영상 감지 장치(110)에는 사용자로부터 8 가지 영역의 지능을 파악하기 위한 8 가지의 컨텐츠가 포함될 수 있다. 이러한 컨텐츠는 사용자의 연령 또는 성별에 기반하여 다양한 내용으로 제작될 수 있다. 이렇게 각 영역별로 측정된 영상 정보는 영상 감지 장치(110)를 통해 다중지능 측정 모델부(120)로 전송된다. 영상 감지 장치(110)에 대해서는 도 2를 통해 보다 자세히 설명한다.
다중지능 측정 모델부(120)는 영상 감지 장치(110)를 통해 각 영역별로 측정된 사용자의 영상 정보를 수신한다. 그리고 다중지능 측정 모델부(120)는 각 영역별로 수신된 영상 정보에 대해 사용자의 지능을 판단하기 위한 분석 과정을 수행한다. 특히, 다중지능 측정 모델부(120)는 각 영역별로 수신된 영상 정보에 대해 호불호 방식의 분석 과정을 이용하여 사용자의 지능을 판단한다. 호불호 방식의 분석 과정은 도 5를 통해 보다 자세히 설명한다. 또한, 다중지능 측정 모델부(120)는 각 영역별로의 분석 결과를 컨텐츠부(130)로 전달한다.
컨텐츠부(130)는 다중지능 측정 모델부(120)를 통해 각 영역별로 분석된 사용자의 지능 정보를 수신한다. 이렇게 각 영역마다의 분석된 지능 정보에 기초하여, 컨텐츠부(130)는 개인별 포트폴리오를 생성한다. 포트폴리오란, 사용자가 자신의 각 영역별 지능에 대한 잘함 및 못함을 파악하기 위한 자료의 형태로써, 사용자가 미래의 진로 및 인생 계획을 세우기 위해 이용될 수 있다.
또한, 컨텐츠부(130)는 각 영역별로의 지능 판단에 기반하여 사용자의 적성에 맞는 프로그램을 생성할 수도 있다. 예를 들어, 컨텐츠부(130)는 사용자의 각 영역별 지능의 판단 중 대인관계에 우월한 인간친화의 영역이 장점으로 판단되면, 인간친화 영역에 관련된 재능을 부각할 수 있는 프로그램을 생성하여 사용자에게 제공한다.
사용자는 이러한 개인별 포트폴리오를 이용하여 자신의 잘함과 못함을 파악함으로써, 자신이 잘할 수 있는 일, 즉, 재능을 조기에 파악할 수 있게 된다. 그리고 컨텐츠부(130)는 생성된 개인별 포트폴리오를 서비스 관리부(140)에 전송한다.
서비스 관리부(140)는 서버(Server)의 형태로 제작되어, 컨텐츠부(130)를 통해 생성된 개인별 포트폴리오를 수신하여 저장한다. 그리고 사용자는 자신의 스마트 기기와 서비스 관리부(140) 간의 무선 통신을 이용하여 언제든지 자신의 포트폴리오를 확인할 수 있다. 또한, 사용자가 어린 아이일 경우에는, 선생님 또는 부모님이 서비스 관리부(140)에 저장된 아이의 포트폴리오를 참조하여 아이의 지능 정보를 지속적으로 파악할 수 있다. 이를 통해, 선생님 또는 부모님은 아이의 적성 및 재능을 조기에 발견하여, 아이에 적성 및 재능에 맞는 교육 환경을 아이에게 제공해 줄 수 있다.
이와 같이, 다중지능 검사 장치(100)는 IT 기술이 구현된 다중지능 검사 방식을 통해 사용자의 지능을 검사한다. 그리고 다중지능 검사 장치(100)는 다양한 컨텐츠를 이용하여 다중지능 검사를 수행함으로써, 사용자의 흥미와 집중력을 높일 수 있다. 이로 인해, 다중지능 검사 장치(100)는 기존 다중지능 검사 방식에 비해 검사 시간 및 비용을 절감할 수 있다.
도 2는 본 발명의 실시 예에 따른 영상 감지 장치의 구성 요소를 보여준다. 도 2를 참조하면, 영상 감지 장치(110)는 카메라부(111) 및 생체정보 측정부(112)를 포함한다. 그리고 영상 감지 장치(110)는 스마트 기기 또는 사용자의 주변환경에 구비되어, 사용자로부터 각 영역별로의 영상 정보를 측정할 수 있다.
카메라부(111)는 영상 및 음성의 촬영이 가능한 카메라 기반의 전자 기기로 구현될 수 있다. 카메라부(110)는 컨텐츠 내용을 통해 각 영역에 대한 다중지능 검사를 수행하는 사용자의 음성 및 영상을 촬영한다. 그리고 카메라부(110)는 사용자의 일상 생활을 촬영하고, 촬영된 정보를 다중지능 측정 모델부(120, 도1 참조)로 전송한다. 이에 따라, 다중지능 측정 모델부(120)는 사용자의 일상 생활이 촬영된 정보에 기반하여 사용자의 행동 패턴을 파악할 수 있다.
생체정보 측정부(112)는 복수의 센서를 이용하여 사용자로부터 생체정보를 감지한다. 예를 들어, 생체정보 측정부(112)는 사용자가 컨텐츠의 내용에 응답하여 스마트 기기에 터치하였을 경우, 이에 따른 압력 세기 또는 온도를 측정하여 사용자의 반응을 감지할 수 있다.
특히, 영상 감지 장치(110)는 사용자의 연령, 성별, 및 성격에 기반한 다양한 종류의 컨텐츠를 이용하여 사용자의 다중지능 지수를 측정할 수 있다. 예를 들어, 어린 아이들의 다중지능을 검사하기 위한 경우, 영상 감지 장치(110)는 만화 종류의 컨텐츠를 이용하여 아이들의 다중지능 검사를 수행할 수 있다. 이와 같이 어린 아이들이 좋아하는 만화 종류의 컨텐츠를 이용하여 다중지능 검사를 수행함으로써, 어린 아이들의 흥미 또는 집중력이 높아질 수 있다.
또한, 영상 감지 장치(110)는 스마트 기기 등 다양한 종류의 전자 기기에 구비되어 사용자의 다중지능 검사를 수행할 수 있다.
도 3 및 도 4는 영상 감지 장치가 구현될 수 있는 실시 예를 보여준다. 먼저, 도 3을 참조하면, 영상 감지 장치(110, 도1 참조)가 로봇의 형태로써 구현된 것을 볼 수 있다. 이처럼, 다중지능 검사를 위한 컨텐츠 내용을 아이들이 좋아하는 로봇을 통해 제공함으로써, 아이들은 로봇과의 상호작용을 통해 자연스럽게 다중지능 검사를 수행하게 된다.
도 4는 카메라부(111)가 사용자의 주변 환경에 구비된 것을 볼 수 있다. 도 4를 참조하면, 카메라부(111)는 아이들의 교육 환경에 구비되어 아이들의 일상 생활을 자연스럽게 촬영한다. 이렇게 카메라부(111)를 통해 촬영된 정보에 기반하여, 다중지능 측정 모델부(120)는 아이들의 행동 패턴을 파악할 수 있다.
이와 같이, 영상 감지 장치(110)는 다양한 형태의 전자 기기로 구현될 수 있으며, 사용자와의 상호작용을 통해 사용자의 영상 정보를 측정할 수 있다.
도 5는 도 1에 도시된 다중지능 측정 모델부의 블록도를 보여준다. 도 5를 참조하면, 다중지능 측정 모델부(120)는 센싱 데이터부(121), 사용자 프로파일(122), 및 다중지능 평가부(123)를 포함한다.
센싱 데이터부(121)는 영상 감지 장치(110, 도1 참조)를 통해 각 영역별로 측정된 사용자의 영상 정보를 수신하여 저장한다. 그리고 센싱 데이터부(121)는 저장된 영상 정보를 다중지능 평가부(123)로 전송한다.
사용자 프로파일(122)은 센싱 데이터부(121)에 저장된 사용자의 각 영역별 영상 정보를 평가하기 위한 사용자의 기준 반응 정보를 저장한다. 여기서, 기준 반응 정보는 사용자의 표정, 행동, 목소리 톤, 심박수 등에 기반하여 사용자의 감정 및 행동 패턴이 어느 수치에서 좋은지 안좋지에 대한 기준치로서의 역할을 수행한다. 다시 말해, 센싱 데이터부(121)에 저장된 사용자의 영상 정보는 사용자 프로파일(122)에 기초하여 평가될 수 있다. 이러한 사용자 프로파일(122)은 선생님, 부모님, 주변 지인들을 통해 사용자의 반응 정보를 저장할 수 있다. 그리고
다중지능 평가부(123)는 센싱 데이터부(121)로부터 사용자의 영상 정보 및 사용자 프로파일(122)로부터 사용자의 기준 반응 정보를 수신한다. 다중지능 평가부(123)는 수신된 사용자의 영상 정보 및 기준 반응 정보에 기반하여 사용자의 각 영역별 지능을 판단한다.
이러한 다중지능 평가부(123)는 각 영역별 지능을 판단하기 위한 방법으로써 호불호 방식을 이용한다. 호불호 방식이란, 사용자의 기준 반응 정보에 기반하여 그 영역의 지능 수행을 잘함 또는 못함으로써 판단하는 방식이다. 예를 들어, 다중지능 평가부(123)는 영상 감지 장치(110)를 통해 측정된 사용자의 공간 지능 영역에 대한 영상 정보를 사용자의 기준 반응 정보와 비교한다. 그리고 다중지능 평가부(123)는 비교된 결과에 기반하여, 사용자가 그 영역의 지능이 잘함 또는 못함으로써 판단을 내린다.
이처럼, 다중지능 평가부(123)는 사용자 프로파일(122)에 기반하여 각 영역마다의 사용자의 지능을 판단하고, 판단된 결과를 컨텐츠(130, 도1참조)로 전송한다. 그리고 기존의 다중지능 검사를 위한 분석 과정은 전문가를 통해 직접적으로 수행됨으로써 오랜 시간이 걸린다는 문제점이 있었다. 이에 반해, 다중지능 측정 모델부(120)는 컴퓨터 등의 전자 기기를 이용하여 다중지능 검사를 수행함으로써, 검사 시간을 보다 줄일 수 있다.
도 6은 본 발명의 실시 예에 따른 다중지능 검사 장치의 동작 과정을 보여준다. 도 6을 참조하면, S110 단계에서, 사용자는 영상 감지 장치(110, 도1 참조)와의 상호작용을 통해 각 영역마다의 영상 정보를 파악하기 위한 컨텐츠를 수행한다. 영상 정보에는 컨텐츠를 수행하면서 발생되는 사용자의 감정 또는 행동 패턴에 대한 정보가 저장될 수 있다.
또한, 컨텐츠는 사용자의 특성을 고려하여 결정될 수 있다. 다시 말해, 사용자의 연령, 성별 등의 요소를 참조하여 사용자가 수행할 컨텐츠가 결정된다. 그리고 영상 감지 장치(110)는 각 영역별 컨텐츠에서 수행된 사용자의 영상 정보를 수신하여 다중지능 측정 모델부(120)로 전송한다.
S120 단계에서는, 다중지능 측정 모델부(120, 도5 참조)는 사용자 프로파일(122)에 기반하여, 각 영역별 영상 정보에 대해 호불호 방식을 통한 다중지능 평가를 수행한다. 그리고 사용자 프로파일(122)에는 사용자의 평소 감정 및 행동 상태에 대한 기준 정보가 저장된다. 예를 들어, 사용자 프로파일(122)은 사용자가 기분 좋을 때의 목소리 톤과, 안 좋을 때의 목소리 톤을 구분할 수 있는 기준치로서의 역할을 하는 반응 정보가 저장된다. 다중지능 측정 모델부(120)는 이와 같은 사용자의 반응 정보에 기반하여 각 영역에서 측정된 영상 정보에 대해 호불호 방식의 다중지능 평가를 수행할 수 있다.
S130 단계에서, 컨텐츠부(130)는 사용자의 각 영역별 지능 정보에 대한 다중지능 평가 결과를 수신한다. 그리고 컨텐츠부(130)는 수신된 사용자의 다중지능 평가 결과를 참조하여, 사용자 포트폴리오를 생성한다. 포트폴리오에는 각 영역마다의 사용자의 지능 정보에 대해 잘함 또는 못함 등의 호불호 방식으로 내용이 표현될 수 있다. 이와 같은 내용에 기반하여, 사용자는 자신이 어떤 분야에 보다 관심이 많고 잘할 수 있는지 판단할 수 있게 된다. 그리고 이러한 포트폴리오는 서버(Server) 등의 저장 매체에 저장된다.
S140 단계에서, 사용자는 서버에 저장된 자신의 포트폴리오를 스마트 기기를 이용하여 지속적으로 확인할 수 있다. 만약, 사용자가 유아 또는 어린이일 경우에는, 선생님 또는 부모님이 아이의 포트폴리오를 지속적으로 참조하여, 아이의 재능 및 성격을 관리할 수 있다.
이와 같이, 다중지능 검사 시스템(100)은 전문가를 통해 진행되던 지능 검사를 IT 기술로써 대체함으로써, 검사 시간 및 비용이 절감될 수 있다. 그리고 IT 기술이 구현된 다중지능 검사 시스템(100)을 이용함으로써, 지속적으로 아이의 재능 및 자질이 선생님 또는 부모님에 의해 관리될 수 있다.
이상에서와 같이 도면과 명세서에서 실시 예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허 청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허 청구범위의 기술적 사상에 의해 정해져야 할 것이다.
110: 영상 감지 장치
120: 다중지능 측정 모델부
130: 컨텐츠부
140: 서비스 관리부

Claims (14)

  1. 사용자로부터 복수의 지능 영역을 포함하는 다중지능 평가를 위한 영상 정보 및 음성 정보를 얻는 카메라부를 포함하는 영상 감지 장치;
    상기 영상 감지 장치로부터 상기 영상 정보 및 상기 음성 정보를 수신하고, 상기 영상 정보 및 상기 음성 정보에 기초하여 상기 사용자의 감정 및 행동 패턴을 추출하고, 상기 감정 및 상기 행동 패턴을 기준 반응 정보와 비교하여 복수의 지능 영역 중 적어도 하나의 영역에 대한 지능 정보를 생성하는 다중지능 측정 모델부; 및
    상기 다중지능 측정 모델부로부터 상기 지능 정보를 수신하고, 상기 수신된 지능 정보에 기반하여 개인별 포트폴리오를 생성하는 컨텐츠부를 포함하는 다중지능 검사 장치.
  2. 제 1 항에 있어서,
    상기 기준 반응 정보는 상기 복수의 지능 영역 각각에 대하여 잘함 지능 정보와 못함 지능 정보를 구분하는 기준값을 포함하고,
    상기 다중지능 측정 모델부는 상기 감정 및 상기 행동 패턴을 추출하여 수치화하고, 상기 기준값과 상기 수치화된 감정 및 행동 패턴을 비교하여 상기 복수의 지능 영역 각각에 대한 상기 잘함 지능 정보 또는 상기 못함 지능 정보 중 어느 하나를 상기 컨텐츠부에 제공하는 다중 지능 평가부를 포함하는 다중지능 검사 장치.
  3. 제 1 항에 있어서,
    상기 다중지능 측정 모델부는 상기 사용자의 기준 반응이 저장된 사용자 프로파일을 포함하는 다중지능 검사 장치.
  4. 제 1 항에 있어서,
    상기 개인별 포트폴리오에 대해 사용자 서비스를 제공하기 위한 사용자 관리부를 더 포함하는 다중지능 검사 장치.
  5. 제 4 항에 있어서,
    상기 개인별 포트폴리오는 상기 사용자의 스마트 폰 또는 태블릿 PC 형태의 전자 기기를 통해 확인되는 다중지능 검사 장치.
  6. 제 4 항에 있어서,
    상기 사용자 관리부는 서버의 형태로 제작되는 다중지능 검사 장치.
  7. 제 1 항에 있어서,
    상기 영상 감지 장치는 다중지능과 관련된 다양한 컨텐츠를 포함하는 다중지능 검사 장치.
  8. 제 7 항에 있어서,
    상기 컨텐츠는 사용자의 연령 및 성별을 고려하여 결정되는 다중지능 검사 장치.
  9. 삭제
  10. 사용자의 다중지능 검사 방법에 있어서,
    영상 감지 장치가 사용자를 통해 영상 정보 및 음성 정보를 측정하는 단계;
    다중지능 측정 모델부가 상기 측정된 영상 정보 및 상기 음성 정보에 기초하여 상기 사용자의 감정 및 행동 패턴을 추출하고, 상기 감정 및 상기 행동 패턴을 기준 반응 정보와 비교하여 지능 정보를 생성하는 다중지능 평가를 수행하는 단계; 및
    컨텐츠부가 상기 지능 정보에 기반하여 개인별 포트폴리오를 생성하는 단계를 포함하고,
    상기 지능 정보는 잘함 지능 정보 및 못함 지능 정보를 포함하고,
    상기 기준 반응 정보는 상기 잘함 지능 정보와 상기 못함 지능 정보를 구분하는 기준값을 포함하는 다중지능 검사 방법.
  11. 제 10 항에 있어서,
    상기 다중지능 평가를 수행하는 단계에서,
    상기 다중지능 측정 모델부는 상기 감정 및 상기 행동 패턴을 추출하여 수치화하고, 상기 기준값과 상기 수치화된 감정 및 행동 패턴을 비교하여 상기 잘함 지능 정보 또는 상기 못함 지능 정보 중 어느 하나를 상기 컨텐츠부에 제공하는 다중지능 검사 방법.
  12. 제 10 항에 있어서,
    상기 영상 정보를 측정하는 단계는,
    상기 영상 감지 장치가 상기 사용자와 상호작용을 통해 상기 다중지능과 관련된 컨텐츠를 수행하는 다중지능 검사 방법.
  13. 제 10 항에 있어서,
    상기 생성된 개인별 포트폴리오는 서버를 통해 저장되는 다중지능 검사 방법.
  14. 삭제
KR1020120145578A 2012-12-13 2012-12-13 정보기술을 이용한 다중지능 검사 장치 및 방법 KR101878359B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120145578A KR101878359B1 (ko) 2012-12-13 2012-12-13 정보기술을 이용한 다중지능 검사 장치 및 방법
US13/929,741 US20140170628A1 (en) 2012-12-13 2013-06-27 System and method for detecting multiple-intelligence using information technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120145578A KR101878359B1 (ko) 2012-12-13 2012-12-13 정보기술을 이용한 다중지능 검사 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20140076964A KR20140076964A (ko) 2014-06-23
KR101878359B1 true KR101878359B1 (ko) 2018-07-16

Family

ID=50931335

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120145578A KR101878359B1 (ko) 2012-12-13 2012-12-13 정보기술을 이용한 다중지능 검사 장치 및 방법

Country Status (2)

Country Link
US (1) US20140170628A1 (ko)
KR (1) KR101878359B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061841A1 (ko) * 2015-10-08 2017-04-13 (주)라온스퀘어 다중 지능 검사 시스템 및 방법
KR101758198B1 (ko) * 2015-10-08 2017-07-14 (주)라온스퀘어 다중 지능 검사 시스템 및 방법
KR20190076722A (ko) 2017-12-22 2019-07-02 (주)엑스오비스 모바일 기기를 이용한 vr/ar 기반 다중지능 검사방법 및 다중지능 검사시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661140B1 (ko) * 2005-11-01 2006-12-26 길양수 다중지능 검사 시스템 및 방법
KR100986109B1 (ko) * 2007-07-24 2010-10-07 주식회사 엔텔리전트 게임즈 웹 서비스 기반의 인지능력 개발 시스템, 그 방법 및 이를기록한 기록매체
US20100266213A1 (en) * 2009-04-16 2010-10-21 Hill Daniel A Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US20100291527A1 (en) * 2009-05-12 2010-11-18 Jennifer Baldi Kit and process for diagnosing multiple intelligences profile
KR20110036984A (ko) * 2009-10-05 2011-04-13 이재민 지문 스캐너를 이용한 다중 지능 검사 시스템
KR20110055215A (ko) * 2009-11-19 2011-05-25 정효경 다중지능을 이용한 적성 검사 방법 및 이를 이용한 온라인 직업 적성 검사 방법 및 시스템
US20120002848A1 (en) * 2009-04-16 2012-01-05 Hill Daniel A Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
KR20120043845A (ko) * 2010-10-27 2012-05-07 삼성에스디에스 주식회사 사용자 장치 및 그의 사용자의 상황 인지 방법
KR20120089114A (ko) * 2011-02-01 2012-08-09 장승희 사용자의 피드백을 이용한 적성 발견 서비스 제공 방법

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6427063B1 (en) * 1997-05-22 2002-07-30 Finali Corporation Agent based instruction system and method
US6003020A (en) * 1997-10-30 1999-12-14 Sapient Health Network Intelligent profiling system
GB0110480D0 (en) * 2001-04-28 2001-06-20 Univ Manchester Metropolitan Methods and apparatus for analysing the behaviour of a subject
US7003139B2 (en) * 2002-02-19 2006-02-21 Eastman Kodak Company Method for using facial expression to determine affective information in an imaging system
AU2003248540A1 (en) * 2002-05-21 2003-12-12 Solutions 9, Llc Learning system
US20040115597A1 (en) * 2002-12-11 2004-06-17 Butt Thomas Giles System and method of interactive learning using adaptive notes
US20050096973A1 (en) * 2003-11-04 2005-05-05 Heyse Neil W. Automated life and career management services
US20050131697A1 (en) * 2003-12-10 2005-06-16 International Business Machines Corporation Speech improving apparatus, system and method
CA2622365A1 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology A/S System and method for determining human emotion by analyzing eye properties
US20070065795A1 (en) * 2005-09-21 2007-03-22 Erickson Ranel E Multiple-channel learner-centered whole-brain training system
US20070213111A1 (en) * 2005-11-04 2007-09-13 Peter Maclver DVD games
US20090111082A1 (en) * 2006-05-22 2009-04-30 Richard Jorgensen Learning system
US20080254434A1 (en) * 2007-04-13 2008-10-16 Nathan Calvert Learning management system
US8202095B2 (en) * 2007-12-14 2012-06-19 Medical Care Corporation Cognitive function index
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
US20100330541A1 (en) * 2009-01-26 2010-12-30 Andrew Charles Krakowski For study, learning and review of educational materials
US8515897B2 (en) * 2011-01-04 2013-08-20 International Business Machines Corporation Automatically generating reports matching user interests represented in a dynamically adjusted user interest analytic model
US20120330869A1 (en) * 2011-06-25 2012-12-27 Jayson Theordore Durham Mental Model Elicitation Device (MMED) Methods and Apparatus
US9401097B2 (en) * 2012-06-29 2016-07-26 Jong-Phil Kim Method and apparatus for providing emotion expression service using emotion expression identifier
US20150079578A1 (en) * 2012-08-10 2015-03-19 Dario Nardi Neurological performance quotient
US20140242560A1 (en) * 2013-02-15 2014-08-28 Emotient Facial expression training using feedback from automatic facial expression recognition
US9395754B2 (en) * 2014-06-04 2016-07-19 Grandios Technologies, Llc Optimizing memory for a wearable device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661140B1 (ko) * 2005-11-01 2006-12-26 길양수 다중지능 검사 시스템 및 방법
KR100986109B1 (ko) * 2007-07-24 2010-10-07 주식회사 엔텔리전트 게임즈 웹 서비스 기반의 인지능력 개발 시스템, 그 방법 및 이를기록한 기록매체
US20100266213A1 (en) * 2009-04-16 2010-10-21 Hill Daniel A Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US20120002848A1 (en) * 2009-04-16 2012-01-05 Hill Daniel A Method of assessing people's self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
US20100291527A1 (en) * 2009-05-12 2010-11-18 Jennifer Baldi Kit and process for diagnosing multiple intelligences profile
KR20110036984A (ko) * 2009-10-05 2011-04-13 이재민 지문 스캐너를 이용한 다중 지능 검사 시스템
KR20110055215A (ko) * 2009-11-19 2011-05-25 정효경 다중지능을 이용한 적성 검사 방법 및 이를 이용한 온라인 직업 적성 검사 방법 및 시스템
KR20120043845A (ko) * 2010-10-27 2012-05-07 삼성에스디에스 주식회사 사용자 장치 및 그의 사용자의 상황 인지 방법
KR20120089114A (ko) * 2011-02-01 2012-08-09 장승희 사용자의 피드백을 이용한 적성 발견 서비스 제공 방법

Also Published As

Publication number Publication date
KR20140076964A (ko) 2014-06-23
US20140170628A1 (en) 2014-06-19

Similar Documents

Publication Publication Date Title
KR101969540B1 (ko) 인지 기능 재활 훈련 방법 및 장치
KR101880159B1 (ko) 스마트폰 어플리케이션 연계 그림 심리검사 전용 검사지 및 그 검사지와 스마트폰 어플리케이션을 이용한 그림 심리검사 서비스 제공시스템과 방법
JP6911498B2 (ja) 学習装置、学習方法、及び学習プログラム
KR20200005986A (ko) 얼굴인식을 이용한 인지장애 진단 시스템 및 방법
Turner et al. Likelihood-free Bayesian analysis of memory models.
TWI825240B (zh) 用於判定體液樣品中之分析物濃度的方法和系統及用於產生軟體實施模組的方法和系統
Savov et al. Computer vision and internet of things: Attention system in educational context
Sharma et al. Modeling observer stress for typical real environments
Dudzik et al. Context in human emotion perception for automatic affect detection: A survey of audiovisual databases
Landowska Uncertainty in emotion recognition
Liu et al. Simple model for encoding natural images by retinal ganglion cells with nonlinear spatial integration
KR101878359B1 (ko) 정보기술을 이용한 다중지능 검사 장치 및 방법
KR102030131B1 (ko) 적외선 영상을 이용한 연속적인 피부 상태 측정 방법
Buono et al. Assessing student engagement from facial behavior in on-line learning
CN109716382A (zh) 使用情绪检测评估和监测遵从性的方法和系统
Chiu et al. A bayesian classification network-based learning status management system in an intelligent classroom
Pillai Student Engagement Detection in Classrooms through Computer Vision and Deep Learning: A Novel Approach Using YOLOv4
CN113658697A (zh) 一种基于视频注视差异的心理测评系统
Salmi et al. Automatic facial expression analysis as a measure of user-designer empathy
Yeye et al. Predicting personality based on self-introduction video
Nilugonda et al. A survey on big five personality traits prediction using tensorflow
Scherr et al. On the road to enriching the app improvement process with emotions
Song et al. Deep learning-based assessment of facial periodic affect in work-like settings
JP6417232B2 (ja) 映像評価装置およびそのプログラム
Ma et al. Work engagement recognition in smart office

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant