KR20100002210A - 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법 - Google Patents

유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법 Download PDF

Info

Publication number
KR20100002210A
KR20100002210A KR1020090057392A KR20090057392A KR20100002210A KR 20100002210 A KR20100002210 A KR 20100002210A KR 1020090057392 A KR1020090057392 A KR 1020090057392A KR 20090057392 A KR20090057392 A KR 20090057392A KR 20100002210 A KR20100002210 A KR 20100002210A
Authority
KR
South Korea
Prior art keywords
learning
child
central processing
robot
processing unit
Prior art date
Application number
KR1020090057392A
Other languages
English (en)
Other versions
KR101088406B1 (ko
Inventor
신경철
박성주
이경선
현은자
김소연
장시경
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to EP09770405.0A priority Critical patent/EP2321817A4/en
Priority to CN200980125606.5A priority patent/CN102077260B/zh
Priority to PCT/KR2009/003464 priority patent/WO2009157733A1/en
Publication of KR20100002210A publication Critical patent/KR20100002210A/ko
Application granted granted Critical
Publication of KR101088406B1 publication Critical patent/KR101088406B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Toys (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Entrepreneurship & Innovation (AREA)

Abstract

본 발명은 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법에 관한 것으로서, 로봇에 의해 아동의 모습, 아동의 음성, 선택한 교재를 센서로 감지하여 신호를 입력하고, 학습하기 위한 내용을 입력하거나 학습진행 중 아동이 직접 터치하여 신호가 입력되도록 한 입력부; 상기 입력된 신호에 대응하는 행위를 판단하고, 각 구성을 제어하는 중앙처리부; 상기 중앙처리부에 의해 호출되는 제어 데이터를 제공하는 데이터 테이블; 상기 제어 데이터를 근거로 제어신호를 입력받아 로봇장치의 음향장치, 영상장치, 모터를 구동하도록 하는 구동부를 포함하는 양방향 학습 시스템 및 운영방법을 제공한다.
교육로봇, 상호작용, 양방향학습, 영상인식, 카드인식, TPR

Description

유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법{INTERACTIVE LEARNING SYSTEM USING ROBOT AND METHOD OF OPERATING THE SAME IN CHILD EDUCATION}
본 발명은 로봇을 이용한 양방향 학습 시스템 및 그 운영방법에 관한 것이다. 상세하게 본 발명은 아동이 로봇을 이용해 학습하는 과정에서 로봇이 인터넷 컨텐츠를 그대로 제시하거나, 일방적인 상호작용을 사용하는 것이 아니라 로봇의 상호작용 기능에 적합한 컨텐츠를 개발하여 로봇 - 아동간 양방향 상호작용이 이루어지는 학습 상황을 구현한다. 이렇게 로봇 - 아동간 양방향 상호작용을 통한 학습은직접적인 경험과 상호작용을 통해 학습발달이 이루어지는 유아기에 적합한 학습 방식으로 이에 대한 학습 시스템 및 운영 방법에 관한 것을 제시하고자 한다.
학습(學習)이란, 연습이나 경험의 결과로 생기는 비교적 지속적인 유기체의 행동변화로 새로운 정보와 정신의 습득을 의미한다. 이와 같은 학습은 일반적으로 학습을 실시하는 전달자와 수신자가 있고, 그 사이에 학습의 효율을 향상시키기 위한 매체가 존재한다. 상기 매체는 정보전달 과정 속에서 전달을 위해 사용되는 모 든 형태와 채널을 의미하며, 학습상황에서 사용되는 매체는 교사와 아동 간 교육적 상호작용의 통로를 의미함은 주지된 것과 같다. 특히, 상기 매체가 특정 수업목적의 달성을 위하여 내용을 전달할 때 이를 수업매체(instructional media)라 한다.
이와 같은 수업매체로 컴퓨터와 인터넷과 같은 디지털 매체의 등장은 교사의도구적인 역할을 하던 매체가 교사 독립매체로 발달적 변화를 가져왔다. 실제 이동의 편리함에 있어서도 컴퓨터가 한자리에 고정되어 있는 매체였다면 노트북과 PDA 등 이동 가능한 매체가 등장하였으며, 이젠 스스로 이동해서 움직여주는 로봇이 등장하였다.
한편, 로봇의 교육적 효과에 대해 살펴본 주요 연구의 내용을 살펴보면 로봇이 상호작용을 할 때 영아의 흥미, 지속 정도, 모방행동이 증가하였으며, 로봇에 대한 영아의 관심과 흥미는 지속적이며 상호작용적인 특성(터치)을 보였다고 한다.특히, 로봇을 이용한 교육은 읽기와 수리영역 및 문제 해결력을 신장 시키는 데 효과적인 것으로 나타났다는 보고가 있었다.
대한민국 특허출원 제10-2006-0118105호(학습보조 및 교사 도우미 로봇 시스템, 이하 기출원발명)에는 전술한 교육효과를 향상시키도록 한 로봇이 제시되고 있다.
상기 로봇 시스템은 로봇이 교실 내에서 자유로이 이동하며 학생들과 간단한 대화를 하면서 자율적이고 창의적인 학습 환경을 제공해 줄 수 있도록 함과 동시에 사람과 같은 의사 표현하며 교사를 보조할 수 있도록 함으로써 학생들의 교육효율을 높이기 위해 도입된 ICT(Information & Communication Technology) 교육을 효과 적으로 수행할 수 있게 된다.
상기와 같은 기 출원발명의 로봇 시스템은 로봇과 프로젝션 TV를 통해 학습 컨텐츠를 일방적으로 제시하고, 제시된 컨텐츠를 학생이 집중하며 학습을 수행하기 때문에 일정한 연령 이상의 학생을 대상으로 할 때 그 교육의 효과를 향상시킬 수 있지만, 일정연령 이하의 아동을 상대로 학습을 수행하기에는 아동이 학습 컨텐츠에 집중하는 시간 및 습관 등을 고려할 때 적절치 못한 단점이 있다.
즉, 상기 아동의 학습에 있어 중요시 되어야 하는 요인 중의 하나로 아동이 학습에 자연스럽게 참여할 수 있도록 해야 하지만, 전술한 기 출원발명의 로봇 시스템과 같은 학습 컨텐츠 만을 제시하는 단방향성 교육에 의해서는 이를 만족시키기 어려운 문제점이 노출된다.
본 발명은 상기 문제점을 해결하기 위해 발명한 것이다.
이에 본 발명의 목적은, 로봇에 의해 아동을 학습하는 과정에서 아동이 로봇을 놀이자로 인식하여 높은 학습의 참여도 및 학습의 지속시간을 연장시키기 위해 아동과 로봇 상호간의 양방향 작용을 구현하여서 된 학습 시스템 및 그 운영방법을 제공하는 데 있다.
본 발명의 다른 목적은, 로봇에 의해 아동을 학습하는 과정에서 교재 또는 로봇의 음성 또는 영상에 의해 출력되는 글자에 대해 아동이 글자가 쓰여진 글자판 을 들어 올리도록 유도하여 양방향 학습을 수행하므로써, 아동의 높은 학습 참여도 및 학습의 지속시간을 연장시키기 위해 아동과 로봇 상호간의 양방향 작용을 구현하여서 된 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템 및 그 운영방법을 제공하는 데 있다.
상기 목적을 달성하기 위해 본 발명은 아래의 구성을 갖는다.
본 발명은 아동의 학습을 수행하기 위해 음향, 영상이 출력되고, 모터의 구동에 의해 이동 및 모션이 수행되는 학습용 로봇장치에 있어서, 상기 로봇에 의해 학습을 수행하기 위한 아동의 모습, 아동의 음성, 아동을 학습하기 위해 선택한 교재를 감지하여 신호를 입력하고,, 아동을 학습하기 위한 내용을 입력하거나 학습진행 중 아동이 직접 터치하여 신호가 입력되도록 한 입력부와; 상기 입력부에 의해 입력된 신호에 대응하는 행위를 판단하고, 아동을 학습하기 위한 과정을 진행하기 위해 각 구성을 제어하는 중앙처리부와; 상기 중앙처리부에서 아동에 대한 신호입력이 발생된 경우, 중앙처리부에 의해 호출되는 제어 데이터를 제공하는 데이터 테이블과; 상기 중앙처리부에서 데이터 테이블에서 제공된 제어 데이터를 근거로 제어신호를 송출하면, 이를 입력받아 로봇장치의 음향장치, 영상장치, 모터를 구동시켜 학습에 요구되는 로봇장치의 활동을 수행하도록 한 구동부;를 포함하여 구성되되 상기 데이터 테이블은, 상기 교재에 의해 학습을 진행하기 위한 과정의 데이터와, 과정을 수행하는 중 로봇장치의 활동에 대한 정형화된 데이터가 입력되어 저장 된 학습데이터 테이블과; 상기 학습과정 중 발생될 수 있는 아동의 행동패턴이 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴이 입력부에 의해 관찰되어 입력, 저장되는 행동패턴 데이터 테이블과; 상기 아동의 행동패턴에 대해 로봇장치에서 수행되어야 할 활동의 데이터가 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴에 대응하는 로봇장치의 활동이 대응유사치에 의해 수행되면 이 상황이 입력되어 저장되는 대응패턴 데이터 테이블와; 상기 중앙처리부에서 로봇장치의 활동에 대한 구동을 수행하기 위한 기본 데이터가 미리 입력되어 저장된 구동 데이터 테이블;을 포함하여 구성된다.
또한, 상기 중앙처리부는, 로봇장치에 의해 수행되는 전체적인 학습과정 및 외부에서 새로운 데이터 입력이 발생되면 이를 저장하는 저장매체를 더 포함하여 구성된다.
상기 구성을 운영하기 위해 본 발명은, 아동이 출현을 입력부에서 감지하고 그 신호가 중앙처리부로 입력되면, 중앙처리부에서는 아동 스스로가 인사를 수행할 수 있도록 하기 위해 로봇장치의 활동을 통해 인사를 유도하여 인사과정을 수행한 후, 로봇장치의 활동을 통해 아동에게 학습할 교재를 제시하여 아동이 교재를 선택하도록 하는 단계와; 상기 아동이 선택한 교재를 입력부로 감지하여 감지된 데이터에 의해 중앙처리부에서는 학습데이터 테이블의 학습데이터를 호출하여, 아동이 선택한 교재에 의한 학습을 진행하기 위해 로봇장치의 음성을 통해 읽기를 수행하는 단계와; 상기 교재의 읽기를 수행하는 과정이나 읽기를 완료한 후, 중앙처리부에서는 학습데이터 테이블의 학습데이터에 의해 읽기 이외의 확장된 활동을 로봇장치의 활동을 통해 수행하는 단계와; 상기 학습과정이 완료되면, 중앙처리부에서는 로봇장치의 활동을 통해 학습이 완료되었음을 알려주는 마무리 활동의 단계와; 상기 각각의 단계를 전환할 때, 중앙처리부에서는 데이터 테이블에 저장된 데이터에 의해 아동의 주의를 환기시키기 위한 전이활동을 로봇장치의 활동을 통해 수행하는 단계;를 수행한다.
특히, 본 발명은 상기 각 단계를 수행할 때, 미리 예측된 아동의 행동이 입력부에 의해 감지되면, 중앙처리부에서는 행동패턴 데이터 테이블에서 아동의 행동패턴 데이터와 대응패턴 데이터를 호출하여 로봇장치의 활동을 통해 대응하고, 예측하지 못한 행동패턴이 입력부에 의해 감지되면, 중앙처리부에서는 행동패턴 데이터와 대응패턴 데이터에 미리 설정되어 입력된 근사패턴치를 판단하여 대응하는 활동을 수행하는 단계를 수행한다.
이 때, 상기 읽기를 수행하는 단계는, 교재의 내용을 기본적으로 읽어주도록 한 기본읽기 단계와; 상기 기본읽기 과정을 수행하며, 다시읽기, 함께읽기, 구분읽기, 강조읽기, 반복읽기 중 1이상의 과정을 수행하는 심화읽기 단계;를 포함한다.
또한, 상기 확장된 활동을 수행하는 단계는, 특정한 교재의 내용에 대해 글자를 그림으로 변환하여 읽는 과정, 읽은 글자를 그림으로 변환하는 과정, 읽은 글자를 필순에 맞추어 영상으로 출력하는 과정, 교재를 읽은 후 감상을 말하면 격려를 표현하는 과정 중 1이상의 과정을 수행한다.
상기 다른 목적을 달성하기 위해 본 발명은 아래의 구성을 갖는다.
본 발명은, 아동의 학습을 수행하기 위해 음향, 영상이 출력되고, 모터의 구 동에 의해 이동 및 모션이 수행되는 학습용 로봇장치에 있어서, 로봇장치에서 아동에게 음향 또는 영상이나 음향과 영상으로 제시될 특정의 글자가 기재된 글자판과; 상기 글자판에 기재된 글자를 인식하고, 아동이 글자판을 들어올리도록 유도하여 글자판에 표시된 글자를 판독하여 아동에게 음향, 영상, 이동, 모션 중 1이상의 활동을 통해 결과대응을 수행하는 로봇장치부;를 포함하여 구성되되, 상기 로봇장치부는 아동이 글자판을 들어올리면 글자판에 기재된 글자를 판독하는 글자판독부를 포함하며, 상기 학습을 수행하기 위한 아동의 모습, 아동의 음성, 아동을 학습하기 위해 선택한 교재를 영상 또는 특정의 신호형태로 감지하여 신호입력하고, 아동을 학습하기 위한 내용을 입력하거나 학습진행 중 아동이 직접 터치하여 신호가 입력되도록 한 입력부와; 상기 입력부에 의해 입력된 신호에 대응하는 행위를 판단하고, 아동을 학습하기 위한 과정을 진행하기 위해 각 구성을 제어하는 중앙처리부와; 상기 중앙처리부에서 아동에 대한 신호입력이 발생된 경우, 중앙처리부에 의해 호출되는 제어 데이터를 제공하는 데이터 테이블과; 상기 중앙처리부에서 데이터 테이블에서 제공된 제어 데이터를 근거로 제어신호를 송출하면, 이를 입력받아 로봇장치의 음향장치, 영상장치, 모터를 구동시켜 학습에 요구되는 로봇장치의 활동을 수행하도록 한 구동부;를 포함하여 구성된다.
여기서, 상기 데이터 테이블은 글자판에 기재된 글자를 인식하기 위해 글자에 대한 형태의 데이터가 입력되어 저장된 글자 판독데이터 테이블와; 상기 교재에 의해 학습을 진행하기 위한 과정의 데이터와, 과정을 수행하는 중 로봇장치의 활동에 대한 정형화된 데이터가 입력되어 저장된 학습데이터 테이블과; 상기 학습과정 중 발생될 수 있는 아동의 행동패턴이 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴이 입력부에 의해 관찰되어 입력, 저장되는 행동패턴 데이터 테이블과; 상기 아동의 행동패턴에 대해 로봇장치에서 수행되어야 할 활동의 데이터가 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴에 대응하는 로봇장치의 활동이 대응유사치에 의해 수행되면 이 상황이 입력되어 저장되는 대응패턴 데이터 테이블와; 상기 중앙처리부에서 로봇장치의 활동에 대한 구동을 수행하기 위한 기본 데이터가 미리 입력되어 저장된 구동 데이터 테이블;을 포함하여 구성된다.
상기 구성을 운영하기 위해 본 발명은, 음향, 영상이 출력되고, 모터의 구동에 의해 이동 및 모션이 수행되는 학습용 로봇장치를 운영하여 아동의 학습을 수행하는 과정에 있어서, 상기 학습용 로봇장치에 의해 아동의 읽기, 어휘 학습을 수행하기 위해 교재를 이용하는 학습과정을 수행하는 단계와; 상기 교재를 읽는 과정이나 읽기를 완료한 후, 중앙처리부에서는 학습데이터 테이블의 학습데이터에 의해 아동에게 음성 또는 영상이나 음성과 영상을 통해 특정의 글자가 기재된 글자판을 들어 올리도록 유도하는 단계와; 상기 아동 글자판을 들어 올리면, 글자판독부에서는 글자판에 표시된 글자를 읽고 판독하여 그 신호를 중앙처리부로 전송하고, 이 신호를 전달받은 중앙처리부에서 글자 판독데이터 테이블에서 데이터를 호출하여 아동이 선택한 글자에 대한 판단결과를 로봇의 활동을 통해 알려주는 양방향 작용의 글자판 학습을 수행하는 단계;를 수행한다.
이 때, 상기 학습을 수행하는 단계는, 아동의 출현을 입력부에서 감지하고 그 신호가 중앙처리부로 입력되면, 중앙처리부에서는 아동 스스로가 인사를 수행할 수 있도록 하기 위해 로봇장치의 활동을 통해 인사를 유도하여 인사과정을 수행한 후, 로봇장치의 활동을 통해 아동에게 학습할 교재를 제시하여 아동이 교재를 선택하도록 하는 단계와; 상기 아동이 선택한 교재를 입력부로 감지하여 감지된 데이터에 의해 중앙처리부에서는 학습데이터 테이블의 학습데이터를 호출하여, 아동이 선택한 교재에 의한 학습을 진행하기 위해 로봇장치의 음성을 통해 읽기를 수행하는 단계와; 상기 교재의 읽기를 수행하는 과정이나 읽기를 완료한 후, 중앙처리부에서는 학습데이터 테이블의 학습데이터에 의해 읽기 이외의 확장된 활동을 로봇장치의 활동을 통해 수행하는 단계와; 상기 학습과정이 완료되면, 중앙처리부에서는 로봇장치의 활동을 통해 학습이 완료되었음을 알려주는 마무리 활동의 단계와; 상기 각각의 단계를 전환할 때, 중앙처리부에서는 데이터 테이블에 저장된 데이터에 의해 아동의 주의를 환기시키기 위한 전이활동을 로봇장치의 활동을 통해 수행하는 단계;를 수행한다.
특히, 본 발명은 상기 각 단계를 수행할 때, 미리 예측된 아동의 행동이 입력부에 의해 감지되면, 중앙처리부에서는 행동패턴 데이터 테이블에서 아동의 행동패턴 데이터와 대응패턴 데이터를 호출하여 로봇장치의 활동을 통해 대응하고, 예측하지 못한 행동패턴이 입력부에 의해 감지되면, 중앙처리부에서는 행동패턴 데이터와 대응패턴 데이터에 미리 설정되어 입력된 근사패턴치를 판단하여 대응하는 활동을 수행하는 단계를 더 수행한다.
또한, 상기 확장된 활동을 수행하는 단계는 아동이 들어 올린 글자를 읽도록 한 후, 그 글자에 대응하는 동작을 아동이 행하도록 하거나, 로봇장치에서 상기 글자에 대응하는 동작을 수행한 후 아동이 이를 따라하도록 하여 전신반응교습법(TPR) 학습을 수행하도록 한다.
이상에서와 같이 본 발명은, 유아교육시 지능형 로봇을 활용한 수업설계 활동을 적용함으로써 아동이 로봇을 놀이자로 인식할 수 있도록 한 학습체계에 의해 학습이 수행되도록 하여 자연스러운 학습참여에 의한 학습의 집중시간을 연장할 수 있고, 보다 높은 학습효율을 얻을 수 있게 된다.
또한, 글자판 활용에 의한 놀이 형태의 학습은 신체의 움직임을 통해 언어학습이 수행되기 때문에 TPR(Total Physical Response: 전신반응 교습법) 학습법에 의해 더욱 높은 학습효과를 얻을 수 있게 된다.
상기 본 발명이 적용된 실시예들을 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시예에 의한 양방향 학습 시스템의 구성 블록도, 도 2는 본 발명의 일 실시예에 의한 양방향 학습시스템 중 데이터 테이블의 블록도이다.
도면을 참조하면, 본 발명에 의한 양방향 학습 시스템은 입력부(10), 중앙처 리부(20), 데이터 테이블(30), 구동부(40)로 이루어진 구성을 갖는다. 여기서, 상기 시스템은 로봇장치 내에 회로구성으로 구현되며, 이 로봇장치는 음향, 영상의 출력을 위한 스피커(1)와, 모니터(2), LED모듈(3) 및 모터의 구동에 의해 이동 및 모션을 수행하기 위한 주행장치(4)와 모션장치(5)로 된 통상의 구성을 갖는다. 이 때, 상기 주행장치(4)는 모터, 바퀴, 동력전달 등의 통상의 구성이며, 상기 모션장치(5)는 모터(또는 실린더 등의 동력수단)에 의해 팔, 다리, 눈깜박임 등의 행동을 표현하기 위한 구성으로 적용된다.
상기 모션장치(5)가 적용된 로봇장치는 도 3에 예시된 것과 같이 로봇장치에 감정표현 모듈부, 영상합성 모듈부, 구동모듈이 적용되어 구성된다. 특히, 이와 같은 로봇장치는 도 4에서와 같이 안면, 머리, 팔, 바퀴가 다양한 형태로 구동되며, 이는 후술할 주행장치(4) 및 모션장치(5)의 이동 및 모션을 수행하는 기본적인 동작을 수행하는 구성으로 적용될 수 있다.
특히, 상기 머리, 팔, 바퀴 등의 구동은 모터 등의 동력수단에 의해 각각 구동될 수 있으며, 안면의 변화는 로봇장치의 안면부에 눈의 형태로 형성된 LCD, LED 모듈에 의해 표현되도록 구성됨은 당연하다.
상기 입력부(10)는 센서(11), 마이크(12), 카메라(15), 터치스크린(16)으로 구성된다. 이와 같은 입력부(10)는 로봇장치에 의해 학습을 수행하기 위해 카메라(15)에 의한 아동의 모습, 아동을 학습하기 위해 선택한 교재를 감지하고, 마이크(12)에 의한 아동의 음성을 감지하며 센서(11)에 의해 아동의 출입, 이동 등을 감지하고, 아동이 인터페이스부(22)로 신호를 입력하게 된다.
이 때, 상기 입력부(10)의 각 구성은 로봇장치의 머리부분에서 몸체에 걸쳐 설치되는 것이 일반적이며, 유지보수의 편의를 위해 몸체에 모든 구성을 설치하여도 무방하다. 또한, 상기 센서(11)는 아동의 모습, 교재 등을 감지하기 위한 영상센서, 아동 음성의 음원위치를 감지하는 스테레오 마이크가 복합적으로 설치된 구성이다.
도면 중 센서(11)와 마이크(12)에 연결된 증폭부(13)와 컨버터(14)는 아날로그 신호를 증폭하고 디지털 신호로 변환시키기 위한 구성이다.
특히, 상기 터치스크린(16)은 아동의 보호자 또는 아동의 교육자가 아동의 학습을 위한 내용을 입력하거나, 학습진행 중 아동이 직접 터치하여 신호가 입력되도록 하기 위한 수단이다.
상기 중앙처리부(20)는 입력부(10)에 의해 입력된 신호에 대응하는 행위를 판단하고, 아동을 학습하기 위한 과정을 진행하기 위한 마이콤 또는 마이크로 프로세서 등의 구성이 적용될 수 있다.
특히, 상기 중앙처리부(20)는 PC 또는 인터넷 통신회선이나 네트워크에 접속하여 학습자료 등을 제공받으며, 나아가 데이터의 업데이트가 가능하게 구현되기 위해 USB 포트(주로, 로봇장치의 몸체에 설치됨) 등과 연결되도록 구성됨이 바람직하다.
또한, 상기 중앙처리부(20)는 로봇장치에 의해 수행되는 전체적인 학습과정 및 외부에서 새로운 데이터 입력이 발생되면 이를 저장하는 메모리, 하드디스크, 컴팩트 디스크(CD, CD플레이어의 구성을 로봇장치에 수반하게 됨) 등의 저장매체(21)를 갖추어 구성된다.
도면 중 표시된 인터페이스부(22)는 입력부(10)의 입력 테이터를 중앙처리부(20)에서 데이터 처리가 용이한 형태로 전달하기 위한 구성이다.
상기 데이터 테이블(30)은 중앙처리부(20)에서 아동에 대한 신호입력이 발생된 경우, 중앙처리부(20)에 의해 호출되는 각종 제어 데이터를 저장하여 구성된다.
보다 구체적으로, 상기 데이터 테이블(30)은 학습데이터 테이블(31), 행동패턴 데이터 테이블(32), 대응패턴 데이터 테이블(33), 구동 데이터 테이블(34)로 구분되어 구성된다.
상기 학습데이터 테이블(31)은 교재에 의해 학습을 진행하기 위한 과정의 데이터와, 과정을 수행하는 중 로봇장치의 활동에 대한 정형화된 데이터가 입력되어 저장된다.
상기 행동패턴 데이터 테이블(32)은 학습과정 중 발생될 수 있는 아동의 행동패턴이 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴이 입력부(10)의 해당 구성에 의해 관찰되어 입력, 저장된다.
상기 대응패턴 데이터 테이블(33)은 아동의 행동패턴에 대해 로봇장치에서 수행되어야 할 활동의 데이터가 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴에 대응하는 로봇장치의 활동이 대응유사치에 의해 수행되면 이 상황이 입 력되어 저장된다.
상기 구동 데이터 테이블(34)은 중앙처리부(20)에서 로봇장치의 활동에 대한 구동을 수행하기 위한 기본 데이터가 미리 입력되어 저장된다.
이와 같은 데이터 테이블(34)은 중앙처리부(20)와 함께 교육적 상호작용을 실제 처리하기 위한 제어부 또는 실제 동작 처리부의 구성이 된다. 이와 같은 데이터 테이블은 읽기 쓰기가 가능한 메모리 또는 하드디스크 등으로 적용되는 것이 바람직하다.
상기 구동부(40)는 중앙처리부(20)에서 데이터 테이블(30)에서 제공된 제어 데이터를 근거로 제어신호를 송출하면, 이를 입력받아 로봇장치의 음향장치, 영상장치, 모터를 구동시켜 학습에 요구되는 로봇장치의 음성, 영상의 출력이나 로봇장치의 이동, 모션을 수행(이하, "로봇장치의 활동"으로 기재)하도록 하기 위한 구성이다.
이 때, 상기 로봇장치의 음성, 영상의 출력은 전술한 스피커(1), 모니터(2), LED모듈(3) 등의 구성이며, 로봇장치의 이동, 모션은 주행장치(4)와 모션장치(5)에 의해 수행되는 것으로, 이들의 구동을 위해 상기 구동부(40)는 음향구동부(41), 영상구동부(42), 모터구동부(43)로 구분되어 구성된다.
상기와 같이 구성된 양방향 학습 시스템이 운영되는 로봇의 각 부분의 기능은 표 1에서와 같이 예시된다.
주 기능 내용 세부 기능 실제 프로그램에 사용한 기능
모션 컨트롤 요소별 제어 바퀴/머리/팔/표정/ 춤 제어 모두 사용
보이스 서비스 음성합성 한국어 성인/아동 한국어 구현동화 영어 성인/아동 한국어 아동 음성 사용
음성인식 음성인식/이름인식/화자인식/음원 인식/박수소리인식 터치 인식 박수소리 인식
비전 서비스 얼굴인식 움직임검출, 얼굴검출, 얼굴인식, 응시 응시 기능 사용
사물인식 사물인식 글자판 인식 사용
네비게이션 자율 주행 네비게이션 [랜드마크/장애물인식] 모두 사용
정보서비스 로봇 정보 로봇프로파일 서비스 특화 DB 리모컨/터치센서 범퍼, LCD, 충전센서 모터강제움직임정보 리모컨, 터치센서 사용 범퍼, LCD, 모터 강제 음직임경로, 서비스 특화 DB 사용
미디어 인터페이스 스피커볼륨, 마이크볼륨, 오디오 녹음, 오디오 재생, 영상녹화, 영상 재생, 영상 캡처 스피커 볼륨 사용 오디오 재생 사용
시스템 서비스 어플리케이션 핸들링 파일 입출력 어플리케이션핸들링 파일입출력 GUI 서비스 [화상키보드] 모두 사용
도 5는 본 발명에 의한 양방향 학습 시스템이 운영되는 과정 순서도이다.
도면을 참조하면, 상기 학습 시스템은 우선 아동의 출현을 입력부(10)에서 감지하고 그 신호가 중앙처리부(20)로 입력되면, 중앙처리부(20)에서는 아동 스스로가 인사를 수행할 수 있도록 하기 위해 로봇장치의 활동을 통해 인사를 유도하여 인사과정을 수행한다.(S1)
이 후, 상기 중앙처리부(20)는 로봇장치의 활동을 통해 아동에게 학습할 교재를 제시하여 아동이 교재를 선택하도록 하도록 유도하게 된다.(S2) 이 때, 교재는 그림책 등의 서적이 일반적으로 적용될 수 있으며, 이 서적의 표지, 페이지 등의 구분은 전술한 학습데이터 테이블(31)에 이미 저장되어 입력부(10)의 센서(11) 또는 카메라(15)에 의해 확인될 수 있도록 그 형태의 데이터가 저장된다.
상기와 같이 아동이 교재를 선택하게 되면 입력부(10)의 센서(11), 카메라(15) 등에서는 선택된 교재를 감지하여, 감지된 데이터에 의해 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터를 호출하여, 아동이 선택한 교재에 의한 학습을 진행하기 위해 로봇장치의 음성을 통해 읽기를 수행하게 된다.(S3-S4)
이 때, 상기 읽기과정은 교재의 내용을 모니터(2)를 통해 출력하며 아동이 서적 또는 교재의 내용이 출력되는 모니터(2)를 보며 읽기를 수행하는 것으로, 이와 같은 읽기과정은 기본적으로 읽어주도록 한 기본읽기 과정과,(S3) 상기 기본읽기 과정을 수행하며, 다시읽기, 함께읽기, 구분읽기, 강조읽기, 반복읽기 중 1이상의 과정을 수행하는 심화읽기 과정으로 구분하여 수행된다.(S4)
예로써, 상기 기본읽기는 단일의 패턴으로 교재의 내용을 읽어주는 과정이며, 함께읽기의 경우 로봇장치에서 스피커(1)를 통해 "우리 같이 읽어볼까?" 등의 음성을 출력하는 등의 과정에 의해 수행되고, 상기 구분읽기는 발음이 어렵거나 어휘표현에 도움이 되는 글자를 한자씩 표시하며 읽을 수 있도록 하는 것이며, 강조읽기는 특정의 단어를 음색 또는 영상으로 출력된 글자의 색상 등을 변환시키며 읽어주는 과정이다. 특히, 상기 심화읽기는 1이상의 과정을 같이 병행하거나 각각 별도로 수행할 수 있다.
이 후, 상기 교재의 읽기를 수행하는 과정이나 읽기를 완료한 후, 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터에 의해 읽기 이외의 확장된 활동을 로봇장치의 활동을 통해 수행하게 된다.(S5)
이와 같은 확장된 활동은 특정한 교재의 내용에 대해 글자를 그림으로 변환하여 읽는 과정, 읽은 글자를 그림으로 변환하는 과정, 읽은 글자를 필순에 맞추어 영상으로 출력하는 과정, 교재를 읽은 후 감상을 말하면 격려를 표현하는 과정 등을 수행하는 것이다. 상기와 같은 확장활동의 과정도 1이상의 과정을 병행하거나 각각 별도로 수행할 수 있다.
상기 학습과정이 완료되면 중앙처리부(20)에서는 로봇장치의 활동을 통해 학습이 완료되었음을 알려주는 마무리 활동을 수행하게 된다.(S6) 이 마무리 활동은 헤어짐에 대산 인사를 전술된 만남의 인사와 같이 유도하거나, 학습과정을 다시 하는 등의 의향을 질문하여 아동의 대답을 유도하는 등의 활동을 예시할 수 있다.
상기와 같은 학습 시스템의 운영과정에서 상기 각각의 단계를 전환할 때, 중앙처리부(20)에서는 데이터 테이블(30)에 저장된 데이터에 의해 아동의 주의를 환기시키기 위한 전이활동을 로봇장치의 활동을 통해 수행하게 된다.(S7)
이와 같은 전이활동은 스피커(1)를 통해 아동이 좋아하는 음악을 출력하거나, 모니터(2)를 통해 흥미있는 영상을 관찰하도록 하는 등의 활동을 예시할 수 있으며, 발전된 형태로 로봇장치의 주행장치(4), 모션장치(5) 등에 의해 특정한 행동을 유도하도록 하여 동작활동을 수행할 수도 있다.
또한, 본 발명에 의한 학습 시스템의 운영과정에서 상기 각 단계를 수행할 때, 미리 예측된 아동의 행동이 센서부(11)에 의해 감지되면, 중앙처리부(20)에서는 행동패턴 데이터 테이블(32)에서 아동의 행동패턴 데이터와 대응패턴 데이터를 호출하여 로봇장치의 활동을 통해 대응하게 된다.
반대로, 아동이 예측하지 못한 행동패턴이 입력부(10)에 의해 감지되면, 중앙처리부(20)에서는 행동패턴 데이터와 대응패턴 데이터에 미리 설정되어 입력된 근사패턴치를 판단하여 대응하는 활동을 수행하게 된다.
이 때, 근사패턴치는 예측하지 못한 아동의 행동패턴이 이미 입력된 행동패턴 데이터 테이블(32)의 데이터 내용과 가장 근사한 데이터를 중앙처리부(20)에서 판단하고, 이에 대응하는 대응패턴 데이터(33)를 호출하여 로봇장치의 활동을 수행하도록 한다.
특히, 본 발명에 의한 학습 시스템의 운영과정에서 상기 각 단계에서의 활동은 구동부(40)를 통한 음향, 영상, 로봇의 이동과 모션 중 적어도 1가지 이상의 구동이 복합적으로 병행되거나 단독적으로 수행될 수 있다.
<실험예1>
상기와 같은 로봇을 이용한 학습시스템의 운영에 의해 아동의 이야기 이해력이 발달되는 정도를 평가하여 표 2와 같은 실험결과를 얻었다.
이 때, 평가를 수행하기 위해 만4세의 아동을 모집하여 이들을 평가 실헙집단(본 발명에 따른 학습시스템을 운영한 집단)과 통제집단(컴퓨터를 통해 멀티미디어 형태의 학습시스템을 운영한 집단)을 구분하고, 아동이 편안함을 느낄 수 있는 공간 내에서 동일한 그림책을 도구로 하여 실험을 수행하였다.
또한, 아동이 학습하는 과정을 아동교육학 전문가 2인이 참관하고, 아동이 학습하는 과정을 촬영하여 이를 토대로 실험집단과 통제집단의 실험결과를 주지의 공인된 평가방법에 의해 결과수치를 통계로 얻었다.
이야기 이해력 사전 사후 t
M(SD) M(SD)
실험집단(17) 1.19(.90) 2.47(.86) .008*
통제집단(17) 1.28(.96) 1.31(1.28) .93
주: 실험집단과 통제집단 각각 17명
* P<.05 ** P<.001
상기와 같은 실험결과, 매체에 따른 사후 이야기 이해력 검사에서 실험집단과 통제집단의 유의도 수준(t)이 각각 .008과 .93으로 사전검사에 비해 실험집단만 이야기 이해력 능력이 유의미하게 상승한 것을 알 수 있었다.
<실험예2>
상기 실험예1과 같은 과정에 의해 아동의 이야기 구성력이 발달되는 정도를 평가하여 표 3과 같은 실험결과를 얻었다.
Figure 112009038829171-PAT00001
상기와 같은 실험결과, 매체에 따른 사후 이야기 구성력 검사에서 실험집단과 통제집단의 유의도 수준(t)이 각각 .00과 1.00으로 사전검사에 비해 실험집단만 이야기 이해력 능력이 유의미하게 대폭 상승한 것을 알 수 있었다.
<실험예3>
상기 실험예1과 같은 과정에 의해 아동의 단어읽기 능력이 발달되는 정도를 평가하여 표 4와 같은 실험결과를 얻었다.
Figure 112009038829171-PAT00002
상기와 같은 실험결과, 매체에 따른 사후 단어읽기 능력 검사에서 실험집단과 통제집단의 유의도 수준(t)이 각각 .00과 .11로 사전검사에 비해 실험집단만 이야기 이해력 능력이 유의미하게 상승한 것을 알 수 있었다.
상기와 같은 실험과정에서 로봇을 이용한 학습시스템과 멀티미디어 매체에 의한 학습시스템의 양방향 상호작용에 대한 기준을 분석하여 정리하면 표 5에서와 같다.
Figure 112009038829171-PAT00003
상기 실험예1 내지 실험예3의 결과 및 표 5의 분석내용을 참조하면, 로봇을 이용한 학습시스템을 운영하여 양방향 학습을 수행한 아동집단이 컴퓨터 등과 같이 멀티미디어에 의한 단방향 학습을 수행한 아동집단에 비해 이야기 이해능력, 이야기 구성능력, 단어읽기 능력이 대폭 향상된 것을 확인할 수 있었다.
특히, 아동의 어휘능력을 판가름하는 이야기 구성력의 경우 두 매체에 의한 학습결과 간의 검사 차이가 크고, 통제집단의 경우 실질적으로 학습에 의한 변화가 전혀 없었다. 따라서, 이야기 구성력의 경우 로봇에 의한 양방향 학습이 컴퓨터 등의 멀티미디어 매체에 의한 단방향 학습에 비해 학습능률이 대단히 높아 여러 교육기관에서 활용될 때 대단히 높은 효율을 얻을 수 있을 것이다.
다음으로, 도 7은 본 발명의 다른 실시예에 의한 양방향 학습 시스템의 구성 블록도, 도 8은 본 발명의 다른 실시예에 의한 양방향 학습시스템 중 데이터 테이블의 블록도이다.
이하에서는 도 1에 나타낸 본 발명의 일 실시예에 의한 양방향 학습 시스템의 구성 블록도와 도 2에 나타낸 본 발명의 일 실시예에 의한 양방향 학습시스템 중 데이터 테이블의 블록도에서와 동일한 내용에 대한 더 이상의 상세한 설명은 생략하고 차이점에 대해서만 설명하기로 한다.
도면을 참조하면, 본 발명에 의한 양방향 학습 시스템은 글자판 (B), 로봇장치부(R)로 이루어진다.
상기 글자판(L)은 로봇장치에서 아동에게 음향 또는 영상이나 음향과 영상으로 제시될 특정의 글자가 미리 기재되어 구성된다. 이 때, 상기 글자판(L)은 아동이 손쉽게 들어 올릴 수 있도록 가벼운 재질로 제작되고, 인체에 무해하며 특히, 모서리부분을 부드럽게 처리하여 아동이 다치는 우려를 방지하도록 제작된다. 특히, 상기 글자판(L)은 후술할 로봇장치부(R)의 글자판독부(17)에 의해 미리 기재된 글자가 영상 촬영 또는 스캔되어 인식될 수 있도록 그 바탕색상과 글자색이 설정된다.
상기 로봇장치부(R)는 글자판(L)에 기재된 글자를 인식하고, 아동이 글자판 부재(L)를 들어올리도록 유도하여 글자판(L)에 표시된 글자를 판독한 결과에 의해 아동에게 음향, 영상, 이동, 모션 중 1이상의 활동을 통해 결과대응을 수행하기 위한 구성이다.
특히, 상기와 같은 로봇장치부(R)는 전술한 기능 이외에도 아동의 학습을 수행하기 위해 요구되는 구성을 갖추게 되며, 이와 같은 구성은 입력부(10), 중앙처리부(20), 데이터 테이블(30), 구동부(40)로 이루어진다.
도 7에서, 상기 카메라(15)는 전술한 기능외에 글자판(L)에 기재된 글자영상을 입력하는 기능을 동시에 수행하여, 이 글자영상 신호에 의해 글자판독부(17)에서 글자판(L)에 기재된 글자를 판독할 수 있도록 구성된 것이다. 따라서, 상기 글자판독부(17)는 이미 기재된 글자를 인식하기 위한 영상신호 처리기 등의 구성으로 예시될 수 있다.
또한, 도 8에서 상기 데이터 테이블(30)은 중앙처리부(20)에서 아동에 대한 신호입력이 발생된 경우, 중앙처리부(20)에 의해 호출되는 각종 제어 데이터를 저장하여 구성된다.
보다 구체적으로, 상기 데이터 테이블(30)은 글자 판독데이터 테이블(35), 학습데이터 테이블(31), 행동패턴 데이터 테이블(32), 대응패턴 데이터 테이블(33), 구동 데이터 테이블(34)로 구분되어 구성된다.
상기 글자 판독데이터 테이블(15)은 글자판에 기재된 글자를 인식하기 위해 글자에 대한 형태의 데이터가 입력되어 저장된다.
상기와 같이 구성된 본 발명의 다른 실시예에 의한 양방향 학습 시스템이 운영되는 로봇의 각 부분의 기능은 본 발명의 일 실시예에서의 표 1과 동일하게 예시되지만, 표 1에서 상기 모션컨트롤은 TPR 학습법으로 적용되고, 사물인식은 글자판을 이용한 학습에서 요구되는 구성이라는 차이점이 있다.
본 발명의 다른 실시예에 의한 양방향 학습 시스템이 운영되는 과정 순서는 도 5에 나타낸 본 발명의 일 실시예에 의한 양방향 학습 시스템이 운영되는 과정 순서와 동일하므로 더 이상의 상세한 설명은 생략한다.
도 9는 본 발명의 다른 실시예에 의한 양방향 학습 시스템의 운영과정 중 글자판 학습과정을 수행하는 과정의 순서도이다. 또한, 표 6a 내지 표 6d는 상기 글자판 학습과정과 후술할 TPR(Total Physical Response: 전신반응 교습법)이 수행되는 과정을 예시한 스토리보드이다.
이 때, 표의 첫 번째 항목은 스토리 진행순서이며, 두 번째 항목은 스토리를 진행하기 위한 장면을 나타낸다. 세 번째 항목은 시나리오이며, 네 번째 항목은 각 장면에 대한 시나리오의 주기사항을 나타낸다.
Figure 112009038829171-PAT00004
Figure 112009038829171-PAT00005
Figure 112009038829171-PAT00006
Figure 112009038829171-PAT00007
도 9와 표 6a 내지 표 6d를 참조하면, 상기와 같은 양방향 학습과정 중 학습효율을 더욱 향상시키기 위해 글자판 학습과정을 수행하게 된다. 이와 같은 글자판 학습과정은 전술한 기본읽기, 심화읽기, 확장읽기의 과정 중간에 수행될 수 있다.
상기 교재를 읽는 과정이나 읽기를 완료한 후, 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터에 의해 아동에게 음성 또는 영상이나 음성과 영상을 통해 특정의 글자를 제시하게 된다.(S10)
이 후, 상기 제시된 글자에 의해 아동이 이미 기재된 글자판(L)을 들어올리도록 한다.(S11)
상기 아동이 글자판(L)을 들어 올리면, 글자판독부(17)에서는 글자판(L)에 표시된 글자를 읽고 판독하여 그 신호를 중앙처리부(20)로 전송하게 된다.(S12) 이 때, 글자판(L)에 표시된 글자의 판독은 카메라(15)에 의해 입력되는 영상신호를 글자판독부(17)에서 영상신호 처리를 수행한 후 중앙처리부(20)로 입력되어 수행될 수 있다.
상기와 같이 신호를 전달받은 중앙처리부(20)에서는 글자 판독데이터 테이블(35)에서 데이터를 호출하여 아동이 선택하거나 쓴 글자에 대한 판단결과를 로봇의 활동을 통해 알려주어 표현하게 된다.(S13) 예로써, 상기 결과표현은 로봇장치부(R)의 음성이나 영상을 통해 "참 잘 하는구나" 또는 "어? 그 글자는 아닌데, 우리 다시 한번 해볼까?" 등의 표현과 함께 로봇장치의 모션장치(5)를 구동시켜 로봇의 표정 등을 변화시켜 수행할 수 있게 된다.
이러한 로봇의 모션장치(5) 구동은 글자판 인식에 따른 TPR(Total Physical Response: 전신반응 교습법) 학습모델로 응용될 수 있다. 즉, 상기 TPR 학습모델은 로봇이 글자판에 표시된 문구에 대응하여 상기 각 표 6a 내지 표 6d에서와 같이 아동의 동작을 유도하므로써 언어 학습의 능률을 향상시키는 학습을 수행하게 되는 것이다.
보다 구체적으로, 도 10에서와 같이 아동이 글자판 부재(L)를 들어 올리게 되면 로봇장치부(R)에서는 전술한 과정에 의해 아동이 글자를 읽도록 유도하고, 읽혀진 글자에 대응하는 동작을 하도록 유도한다.
이 때, 아동이 글자에 대응하는 동작을 하도록 유도하기 위한 가장 유리한 방법으로 로봇장치부(R)에서는 모션장치(5)를 통해 글자에 대응하는 동작을 수행하여 아동이 이를 따라할 수 있도록 하게 된다.
예로써, 아동이 들어 올린 글자판 부재(L)에 "Shake Body 또는 몸을 흔들어"의 글자가 표시된 경우, 로봇장치부(R)는 전술한 과정에 의해 글자를 판독하고 모션장치(5)를 통해 몸을 흔드는 동작을 수행하여 도 11에서와 같이 아동이 이를 따라할 수 있도록 하므로써 TPR 학습을 수행할 수 있게 된다.
본 발명의 다른 실시예에 의한 양방향 학습 시스템이 운영되는 과정 순서는 도 5에 나타낸 본 발명의 일 실시예에 의한 양방향 학습 시스템이 운영되는 과정 순서와 동일하므로 더 이상의 상세한 설명은 생략한다.
또한, 본 발명의 다른 실시예에 따라 상기와 같은 로봇을 이용한 학습시스템의 운영에 의해 아동의 이야기 이해력이 발달되는 정도를 평가한 실험예1, 실험예1과 같은 과정에 의해 아동의 이야기 구성력이 발달되는 정도를 평가한 실험예2, 아동의 단어읽기 능력이 발달되는 정도를 평가한 실험예3의 실험결과는 표 3 내지 표 5 에 나타낸 본 발명의 일 실시예에서의 실험예1 내지 실험예3의 실험결과와 동일하므로 여기에서는 더 이상의 상세한 설명은 생략한다.
따라서, 본 발명의 다른 실시예에 의한 양방향 학습 시스템에서도 로봇을 이용한 학습시스템을 운영하여 양방향 학습을 수행한 아동집단이 컴퓨터 등과 같이 멀티미디어에 의한 단방향 학습을 수행한 아동집단에 비해 이야기 이해능력, 이야기 구성능력, 단어읽기 능력이 대폭 향상된 것을 확인할 수 있었고, 이야기 구성력의 경우 두 매체에 의한 학습결과 간의 검사 차이가 크고, 통제집단의 경우 실질적으로 학습에 의한 변화가 전혀 없었다.
그러므로 아동의 어휘능력을 판가름하는 이야기 구성력의 경우 로봇에 의한 양방향 학습이 컴퓨터 등의 멀티미디어 매체에 의한 단방향 학습에 비해 학습능률이 대단히 높아 여러 교육기관에서 활용될 때 대단히 높은 효율을 얻을 수 있을 것으로 전망된다.
도 1은 본 발명의 일 실시예에 의한 양방향 학습 시스템의 블록도.
도 2는 본 발명의 일 실시예에 의한 양방향 학습 시스템 중 데이터 테이블 블록도.
도 3은 도 1의 양방향 학습 시스템이 적용되기 위한 로봇장치 예시도.
도 4는 도 3의 로봇장치가 동작하는 상태의 구성표.
도 5은 본 발명의 일 실시예에 의한 양방향 학습 시스템이 운영되는 과정 순서도.
도 6은 본 발명의 일 실시예에 의한 양방향 학습 시스템의 운영과정 중 아동이 로봇을 통해 학습교재를 선택하는 과정의 예시도.
도 7은 본 발명의 다른 실시예에 의한 양방향 학습 시스템의 블록도.
도 8은 본 발명의 다른 실시예에 의한 양방향 학습 시스템 중 데이터 테이블 블록도.
도 9는 본 발명의 다른 실시예에 의한 학습 시스템의 운영과정의 글자판 학습과정 순서도.
도 10은 본 발명의 다른 실시예에 의한 학습 시스템의 운영과정의 글자판 학습과정 예시도.
도 11은 도 10 에 의한 학습과정이 수행된 결과 예시도.

Claims (12)

  1. 아동의 학습을 수행하기 위해 음향, 영상이 출력되고, 모터의 구동에 의해 이동 및 모션이 수행되는 학습용 로봇장치에 있어서,
    상기 로봇에 의해 학습을 수행하기 위한 아동의 모습, 아동의 음성, 아동을 학습하기 위해 선택한 교재를 센서로 감지하여 신호를 입력하고,, 아동을 학습하기 위한 내용을 입력하거나 학습진행 중 아동이 직접 터치하여 신호가 입력되도록 한 입력부(10)와;
    상기 입력부(10)에 의해 입력된 신호에 대응하는 행위를 판단하고, 아동을 학습하기 위한 과정을 진행하기 위해 각 구성을 제어하는 중앙처리부(20)와;
    상기 중앙처리부(20)에서 아동에 대한 신호입력이 발생된 경우, 중앙처리부(20)에 의해 호출되는 제어 데이터를 제공하는 데이터 테이블(30)과;
    상기 중앙처리부(20)에서 데이터 테이블(30)에서 제공된 제어 데이터를 근거로 제어신호를 송출하면, 이를 입력받아 로봇장치의 음향장치, 영상장치, 모터를 구동시켜 학습에 요구되는 로봇장치의 활동을 수행하도록 한 구동부(40);를 포함하여 구성되되,
    상기 데이터 테이블(30)은
    상기 교재에 의해 학습을 진행하기 위한 과정의 데이터와, 과정을 수행하는 중 로봇장치의 활동에 대한 정형화된 데이터가 입력되어 저장된 학습데이터 테이블(31)과;
    상기 학습과정 중 발생될 수 있는 아동의 행동패턴이 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴이 입력부(10)에 의해 관찰되어 입력, 저장되는 행동패턴 데이터 테이블(32)과;
    상기 아동의 행동패턴에 대해 로봇장치에서 수행되어야 할 활동의 데이터가 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴에 대응하는 로봇장치의 활동이 대응 유사치에 의해 수행되면 이 상황이 입력되어 저장되는 대응패턴 데이터 테이블(33)와;
    상기 중앙처리부(20)에서 로봇장치의 활동에 대한 구동을 수행하기 위한 기본 데이터가 미리 입력되어 저장된 구동 데이터 테이블(34);을 포함하여 이루어지는 것을 특징으로 하는 로봇을 이용한 양방향 학습 시스템.
  2. 제 1 항에 있어서,
    상기 중앙처리부(20)는
    로봇장치에 의해 수행되는 전체적인 학습과정 및 외부에서 새로운 데이터 입력이 발생되면 이를 저장하는 저장매체(21)를 더 포함하는 것을 특징으로 하는 로봇을 이용한 양방향 학습 시스템.
  3. 아동이 출현을 입력부(10)에서 감지하고 그 신호가 중앙처리부(20)로 입력되 면, 중앙처리부(20)에서는 아동 스스로가 인사를 수행할 수 있도록 하기 위해 로봇장치의 활동을 통해 인사를 유도하여 인사과정을 수행한 후, 로봇장치의 활동을 통해 아동에게 학습할 교재를 제시하여 아동이 교재를 선택하도록 하는 단계와;
    상기 아동이 선택한 교재를 입력부(10)로 감지하여 감지된 데이터에 의해 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터를 호출하여, 아동이 선택한 교재에 의한 학습을 진행하기 위해 로봇장치의 음성을 통해 읽기를 수행하는 단계와;
    상기 교재의 읽기를 수행하는 과정이나 읽기를 완료한 후, 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터에 의해 읽기 이외의 확장된 활동을 로봇장치의 활동을 통해 수행하는 단계와;
    상기 학습과정이 완료되면, 중앙처리부(20)에서는 로봇장치의 활동을 통해 학습이 완료되었음을 알려주는 마무리 활동의 단계와;
    상기 각각의 단계를 전환할 때, 중앙처리부(20)에서는 데이터 테이블(30)에 저장된 데이터에 의해 아동의 주의를 환기시키기 위한 전이활동을 로봇장치의 활동을 통해 수행하는 단계;
    를 포함하는 것을 특징으로 하는 로봇을 이용한 양방향 학습 시스템의 운영방법.
  4. 제 3 항에 있어서,
    상기 각 단계를 수행할 때, 미리 예측된 아동의 행동이 입력부(10)에 의해 감지되면, 중앙처리부(20)에서는 행동패턴 데이터 테이블(32)에서 아동의 행동패턴 데이터와 대응패턴 데이터를 호출하여 로봇장치의 활동을 통해 대응하고, 예측하지 못한 행동패턴이 입력부(10)에 의해 감지되면, 중앙처리부(20)에서는 행동패턴 데이터와 대응패턴 데이터에 미리 설정되어 입력된 근사패턴치를 판단하여 대응하는 활동을 수행하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용한 양방향 학습 시스템의 운영방법.
  5. 제 3 항에 있어서,
    상기 읽기를 수행하는 단계는
    교재의 내용을 기본적으로 읽어주도록 한 기본읽기 단계와;
    상기 기본읽기 과정을 수행하며, 다시읽기, 함께읽기, 구분읽기, 강조읽기, 반복읽기 중 1이상의 과정을 수행하는 심화읽기 단계;
    를 포함하는 것을 특징으로 하는 로봇을 이용한 양방향 학습 시스템의 운영방법.
  6. 제 3 항에 있어서,
    상기 확장된 활동을 수행하는 단계는
    특정한 교재의 내용에 대해 글자를 그림으로 변환하여 읽는 과정, 읽은 글자를 그림으로 변환하는 과정, 읽은 글자를 필순에 맞추어 영상으로 출력하는 과정, 교재를 읽은 후 감상을 질문하여 대답을 유도하고, 아동의 대답에 의해 격려를 표현하는 과정 중 1이상의 과정을 수행하는 것을 특징으로 하는 로봇을 이용한 양방향 학습 시스템의 운영방법.
  7. 아동의 학습을 수행하기 위해 음향, 영상이 출력되고, 모터의 구동에 의해 이동 및 모션이 수행되는 학습용 로봇장치에 있어서,
    로봇장치에서 아동에게 음향 또는 영상이나 음향과 영상으로 제시될 특정의 글자가 기재된 글자판(L)과;
    상기 글자판(L)에 기재된 글자를 인식하고, 아동이 글자판(L)을 들어올리도록 유도하여 글자판(L)에 표시된 글자를 판독하여 아동에게 음향, 영상, 이동, 모션 중 1이상의 활동을 통해 결과대응을 수행하는 로봇장치부(R);를 포함하는 구성되되,
    상기 로봇장치부(R)는
    아동이 글자판(L)을 들어올리면 글자판(L)에 기재된 글자를 판독하는 글자판독부(17)를 포함하며, 상기 학습을 수행하기 위한 아동의 모습, 아동의 음성, 아동을 학습하기 위해 선택한 교재를 영상 또는 특정의 신호형태로 감지하여 신호입력하고, 아동을 학습하기 위한 내용을 입력하거나 학습진행 중 아동이 직접 터치하여 신호가 입력되도록 한 입력부(10)와;
    상기 입력부(10)에 의해 입력된 신호에 대응하는 행위를 판단하고, 아동을 학습하기 위한 과정을 진행하기 위해 각 구성을 제어하는 중앙처리부(20)와;
    상기 중앙처리부(20)에서 아동에 대한 신호입력이 발생된 경우, 중앙처리부(20)에 의해 호출되는 제어 데이터를 제공하는 데이터 테이블(30)과;
    상기 중앙처리부(20)에서 데이터 테이블(30)에서 제공된 제어 데이터를 근거로 제어신호를 송출하면, 이를 입력받아 로봇장치의 음향장치, 영상장치, 모터를 구동시켜 학습에 요구되는 로봇장치의 활동을 수행하도록 한 구동부(40);
    를 포함하는 것을 특징으로 하는 로봇을 이용하여 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템.
  8. 제 7 항에 있어서,
    상기 데이터 테이블(30)은
    글자판(L)에 기재된 글자를 인식하기 위해 글자에 대한 형태의 데이터가 입력되어 저장된 글자 판독데이터 테이블(35)와;
    상기 교재에 의해 학습을 진행하기 위한 과정의 데이터와, 과정을 수행하는 중 로봇장치의 활동에 대한 정형화된 데이터가 입력되어 저장된 학습데이터 테이블(31)과;
    상기 학습과정 중 발생될 수 있는 아동의 행동패턴이 미리 입력되어 저장되 고, 실시간 발생되는 아동의 행동패턴이 입력부(10)에 의해 관찰되어 입력, 저장되는 행동패턴 데이터 테이블(32)과;
    상기 아동의 행동패턴에 대해 로봇장치에서 수행되어야 할 활동의 데이터가 미리 입력되어 저장되고, 실시간 발생되는 아동의 행동패턴에 대응하는 로봇장치의 활동이 대응유사치에 의해 수행되면 이 상황이 입력되어 저장되는 대응패턴 데이터 테이블(33)와;
    상기 중앙처리부(20)에서 로봇장치의 활동에 대한 구동을 수행하기 위한 기본 데이터가 미리 입력되어 저장된 구동 데이터 테이블(34);
    을 포함하는 것을 특징으로 하는 로봇을 이용하여 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템.
  9. 음향, 영상이 출력되고, 모터의 구동에 의해 이동 및 모션이 수행되는 학습용 로봇장치를 운영하여 아동의 학습을 수행하는 과정에 있어서,
    상기 학습용 로봇장치에 의해 아동의 읽기, 어휘 학습을 수행하기 위해 교재를 이용하는 학습과정을 수행하는 단계와;
    상기 교재를 읽는 과정이나 읽기를 완료한 후, 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터에 의해 아동에게 음성 또는 영상이나 음성과 영상을 통해 특정의 글자가 기재된 글자판(L)을 들어 올리도록 유도하는 단계와;
    상기 아동 글자판(L)을 들어 올리면, 글자판독부(17)에서는 글자판(L)에 표 시된 글자를 읽고 판독하여 그 신호를 중앙처리부(20)로 전송하고, 이 신호를 전달받은 중앙처리부(20)에서 글자 판독데이터 테이블(35)에서 데이터를 호출하여 아동이 선택한 글자에 대한 판단결과를 로봇의 활동을 통해 알려주는 양방향 작용의 글자판 학습을 수행하는 단계;
    를 포함하는 것을 특징으로 하는 로봇을 이용하여 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템의 운영방법.
  10. 제 9 항에 있어서,
    상기 학습을 수행하는 단계는,
    아동의 출현을 입력부(10)에서 감지하고 그 신호가 중앙처리부(20)로 입력되면, 중앙처리부(20)에서는 아동 스스로가 인사를 수행할 수 있도록 하기 위해 로봇장치의 활동을 통해 인사를 유도하여 인사과정을 수행한 후, 로봇장치의 활동을 통해 아동에게 학습할 교재를 제시하여 아동이 교재를 선택하도록 하는 단계와;
    상기 아동이 선택한 교재를 입력부(10)로 감지하여 감지된 데이터에 의해 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터를 호출하여, 아동이 선택한 교재에 의한 학습을 진행하기 위해 로봇장치의 음성을 통해 읽기를 수행하는 단계와;
    상기 교재의 읽기를 수행하는 과정이나 읽기를 완료한 후, 중앙처리부(20)에서는 학습데이터 테이블(31)의 학습데이터에 의해 읽기 이외의 확장된 활동을 로봇 장치의 활동을 통해 수행하는 단계와;
    상기 학습과정이 완료되면, 중앙처리부(20)에서는 로봇장치의 활동을 통해 학습이 완료되었음을 알려주는 마무리 활동의 단계와;
    상기 각각의 단계를 전환할 때, 중앙처리부(20)에서는 데이터 테이블(30)에 저장된 데이터에 의해 아동의 주의를 환기시키기 위한 전이활동을 로봇장치의 활동을 통해 수행하는 단계;
    를 포함하는 것을 특징으로 하는 로봇을 이용하여 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템의 운영방법.
  11. 제 9 항에 있어서,
    상기 각 단계를 수행할 때, 미리 예측된 아동의 행동이 입력부(10)에 의해 감지되면, 중앙처리부(20)에서는 행동패턴 데이터 테이블(32)에서 아동의 행동패턴 데이터와 대응패턴 데이터를 호출하여 로봇장치의 활동을 통해 대응하고, 예측하지 못한 행동패턴이 입력부(10)에 의해 감지되면, 중앙처리부(20)에서는 행동패턴 데이터와 대응패턴 데이터에 미리 설정되어 입력된 근사패턴치를 판단하여 대응하는 활동을 수행하는 단계를 더 포함하는 것을 특징으로 하는 로봇을 이용하여 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템의 운영방법.
  12. 제 10 항에 있어서, 상기 확장된 활동을 수행하는 단계는
    아동이 들어 올린 글자를 읽도록 한 후, 그 글자에 대응하는 동작을 아동이 행하도록 하거나, 로봇장치에서 상기 글자에 대응하는 동작을 수행한 후 아동이 이를 따라하도록 하여 TPR 학습을 수행하도록 하는 것을 특징으로 하는 로봇을 이용하여 글자판 인식과 전신반응교습법 학습모델을 활용한 양방향 학습 시스템의 운영방법.
KR20090057392A 2008-06-27 2009-06-26 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법 KR101088406B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09770405.0A EP2321817A4 (en) 2008-06-27 2009-06-26 INTERACTIVE LEARNING SYSTEM WITH A ROBOT AND METHOD FOR OPERATING THE SAME IN CHILD TRAINING
CN200980125606.5A CN102077260B (zh) 2008-06-27 2009-06-26 利用机器人的交互式学习系统和在儿童教育中操作该系统的方法
PCT/KR2009/003464 WO2009157733A1 (en) 2008-06-27 2009-06-26 Interactive learning system using robot and method of operating the same in child education

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20080062034 2008-06-27
KR20080062033 2008-06-27
KR1020080062034 2008-06-27
KR1020080062033 2008-06-27

Publications (2)

Publication Number Publication Date
KR20100002210A true KR20100002210A (ko) 2010-01-06
KR101088406B1 KR101088406B1 (ko) 2011-12-01

Family

ID=41812317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20090057392A KR101088406B1 (ko) 2008-06-27 2009-06-26 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법

Country Status (4)

Country Link
EP (1) EP2321817A4 (ko)
KR (1) KR101088406B1 (ko)
CN (1) CN102077260B (ko)
WO (1) WO2009157733A1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142532A3 (ko) * 2010-05-12 2012-02-16 (주) 퓨처로봇 지능형 로봇의 서비스 시나리오 편집기, 그 방법, 지능형 로봇 장치 및 지능형 로봇의 서비스 방법
KR101333532B1 (ko) * 2011-12-05 2013-11-28 (주)세스넷 학습 장치 및 학습 방법
WO2014109448A1 (ko) * 2013-01-14 2014-07-17 주식회사 케이티 얼굴에 기반하는 사용자 인터페이스를 제공하는 로봇 및 로봇의 제어 방법
KR20180007991A (ko) * 2016-07-15 2018-01-24 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
KR20180089667A (ko) 2017-02-01 2018-08-09 주식회사 시공미디어 코딩 교육 제공을 위한 로봇
WO2020130689A1 (ko) * 2018-12-19 2020-06-25 삼성전자 주식회사 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
KR102134189B1 (ko) * 2019-07-11 2020-07-15 주식회사 아들과딸 인공지능 로봇을 활용한 도서 콘텐츠 제공 방법 및 장치

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236981A (zh) * 2010-04-27 2011-11-09 上海以太软件有限公司 具有大尺寸液晶屏和触摸屏的数码智力开发机
CN101833884B (zh) * 2010-05-17 2011-12-07 博雅创世(北京)智能科技有限公司 一种机器人教育平台
CN201940040U (zh) * 2010-09-27 2011-08-24 深圳市杰思谷科技有限公司 家用机器人
WO2012056459A1 (en) * 2010-10-28 2012-05-03 Visionstory Ltd An apparatus for education and entertainment
US9126122B2 (en) 2011-05-17 2015-09-08 Zugworks, Inc Doll companion integrating child self-directed execution of applications with cell phone communication, education, entertainment, alert and monitoring systems
CN102522008A (zh) * 2011-11-23 2012-06-27 康佳集团股份有限公司 一种多媒体互动教学方法及其系统、一种电视机
KR101209012B1 (ko) * 2012-01-31 2012-12-24 한성대학교 산학협력단 캐릭터 로봇을 이용한 교육용 연극 인터페이스 장치
KR101344727B1 (ko) * 2012-03-02 2014-01-16 주식회사 유진로봇 지능형 로봇 제어 장치 및 방법
CN102663904A (zh) * 2012-04-20 2012-09-12 江苏奇异点网络有限公司 儿童娱乐系统
CN102819969B (zh) * 2012-08-15 2014-11-26 魔方天空科技(北京)有限公司 多媒体教育平台的实现方法及多媒体教育平台系统
KR101544044B1 (ko) 2013-09-16 2015-08-13 이호현 교육특화디바이스용 확장형 교구 로봇
CN103777595A (zh) * 2013-12-30 2014-05-07 深圳市德宝威科技有限公司 机器人系统及机器人办公、教学、设计、工程、家庭系统
CN104252287A (zh) * 2014-09-04 2014-12-31 广东小天才科技有限公司 一种交互装置和基于交互装置的提高表达能力的方法
CN104575141A (zh) * 2015-01-20 2015-04-29 三峡大学 人机互动课堂辅助教学仪
WO2016206647A1 (zh) * 2015-06-26 2016-12-29 北京贝虎机器人技术有限公司 用于控制机器装置产生动作的系统
CN105872828A (zh) * 2016-03-30 2016-08-17 乐视控股(北京)有限公司 一种电视交互学习的方法及装置
CN105719519A (zh) * 2016-04-27 2016-06-29 深圳前海勇艺达机器人有限公司 一种分等级教学功能的机器人
KR101904453B1 (ko) * 2016-05-25 2018-10-04 김선필 인공 지능 투명 디스플레이의 동작 방법 및 인공 지능 투명 디스플레이
CN105894873A (zh) * 2016-06-01 2016-08-24 北京光年无限科技有限公司 一种面向智能机器人的儿童教学方法和装置
CN106057023A (zh) * 2016-06-03 2016-10-26 北京光年无限科技有限公司 一种面向智能机器人的儿童教学方法和装置
CN106097793B (zh) * 2016-07-21 2021-08-20 北京光年无限科技有限公司 一种面向智能机器人的儿童教学方法和装置
CN107784354B (zh) 2016-08-17 2022-02-25 华为技术有限公司 机器人的控制方法及陪伴机器人
CN106295217A (zh) * 2016-08-19 2017-01-04 吕佳宁 一种孕育机器人
CN106205237A (zh) * 2016-08-31 2016-12-07 律世刚 基于动作反应和绘画反应的第二母语的训练方法及装置
WO2018044230A1 (en) * 2016-09-02 2018-03-08 Tan Meng Wee Robotic training apparatus and system
CN106297436A (zh) * 2016-09-12 2017-01-04 上海夫子云教育投资股份有限公司 一种智能机器人视频课程推送系统
CN106251717A (zh) * 2016-09-21 2016-12-21 北京光年无限科技有限公司 智能机器人语言跟读学习方法和装置
CN106393113A (zh) * 2016-11-16 2017-02-15 上海木爷机器人技术有限公司 机器人和机器人的交互控制方法
CN107067835A (zh) * 2016-11-23 2017-08-18 河池学院 一种儿童语音教育机器人
CN107030691B (zh) 2017-03-24 2020-04-14 华为技术有限公司 一种看护机器人的数据处理方法及装置
CN107369341A (zh) * 2017-06-08 2017-11-21 深圳市科迈爱康科技有限公司 教育机器人
CN107547925A (zh) * 2017-09-27 2018-01-05 刘伟平 一种视频学习监督系统
KR102191488B1 (ko) * 2017-10-27 2020-12-15 서울대학교산학협력단 전력 및 모션 감응형 교육용 로봇
CN109300341A (zh) * 2018-08-30 2019-02-01 合肥虹慧达科技有限公司 交互式早教机器人及其交互方法
CN109147433A (zh) * 2018-10-25 2019-01-04 重庆鲁班机器人技术研究院有限公司 儿童语言辅助教学方法、装置及机器人
CN109366502B (zh) * 2018-12-17 2022-04-08 广东誉丰教育科技有限公司 一种基于人工智能的网络交互式教育方法及机器人
CN110619767A (zh) * 2019-09-05 2019-12-27 顾柳泉 智能教育机器人及计算机可读介质
DE112019007598B4 (de) * 2019-09-05 2024-05-08 Mitsubishi Electric Corporation Inferenzeinrichtung, vorrichtung-steuerungssystem und lerneinrichtung
CN110751050A (zh) * 2019-09-20 2020-02-04 郑鸿 一种基于ai视觉感知技术的运动教学系统
TWI833681B (zh) * 2023-10-13 2024-02-21 國立勤益科技大學 主動式單字學習系統

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002351305A (ja) * 2001-05-23 2002-12-06 Apollo Seiko Ltd 語学研修用ロボット
CN2702391Y (zh) * 2004-02-04 2005-05-25 上海科技馆 人与机器人做算术游戏的装置
JP3923053B2 (ja) * 2004-03-31 2007-05-30 ファナック株式会社 ロボット教示装置
WO2006062274A1 (en) * 2004-12-07 2006-06-15 Rivalkorea Co., Ltd. Intelligent robot and mobile game method using the same
US20060257830A1 (en) * 2005-05-13 2006-11-16 Chyi-Yeu Lin Spelling robot
CN100559422C (zh) * 2006-12-15 2009-11-11 华南理工大学 具备认字、写字功能的教育机器人的文字识别方法
CN101411948A (zh) * 2007-10-19 2009-04-22 鸿富锦精密工业(深圳)有限公司 电子玩具
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142532A3 (ko) * 2010-05-12 2012-02-16 (주) 퓨처로봇 지능형 로봇의 서비스 시나리오 편집기, 그 방법, 지능형 로봇 장치 및 지능형 로봇의 서비스 방법
KR101119030B1 (ko) * 2010-05-12 2012-03-13 (주) 퓨처로봇 지능형 로봇 장치의 서비스 시나리오 편집 방법, 그 방법을 실행하기 위한 프로그램을 기록한 컴퓨터 판독가능한 기록매체, 지능형 로봇 장치 및 지능형 로봇의 서비스 방법
KR101333532B1 (ko) * 2011-12-05 2013-11-28 (주)세스넷 학습 장치 및 학습 방법
WO2014109448A1 (ko) * 2013-01-14 2014-07-17 주식회사 케이티 얼굴에 기반하는 사용자 인터페이스를 제공하는 로봇 및 로봇의 제어 방법
KR20180007991A (ko) * 2016-07-15 2018-01-24 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
KR20180089667A (ko) 2017-02-01 2018-08-09 주식회사 시공미디어 코딩 교육 제공을 위한 로봇
WO2020130689A1 (ko) * 2018-12-19 2020-06-25 삼성전자 주식회사 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
KR102134189B1 (ko) * 2019-07-11 2020-07-15 주식회사 아들과딸 인공지능 로봇을 활용한 도서 콘텐츠 제공 방법 및 장치

Also Published As

Publication number Publication date
CN102077260A (zh) 2011-05-25
KR101088406B1 (ko) 2011-12-01
EP2321817A1 (en) 2011-05-18
CN102077260B (zh) 2014-04-09
EP2321817A4 (en) 2013-04-17
WO2009157733A1 (en) 2009-12-30

Similar Documents

Publication Publication Date Title
KR101088406B1 (ko) 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법
US10957325B2 (en) Method and apparatus for speech interaction with children
You et al. A robot as a teaching assistant in an English class
TWI713000B (zh) 線上學習輔助方法、系統、設備以及電腦可讀取記錄媒體
JP2017173547A (ja) ロボット制御装置、ロボット、ロボット制御方法、ロボット制御システム及びプログラム
US20030134257A1 (en) Interactive learning apparatus
JP2020016880A (ja) ダイナミックストーリー指向のデジタル言語教育方法及びシステム
Chen et al. Designing long-term parent-child-robot triadic interaction at home through lived technology experiences and interviews
Hameed et al. Robots that can mix serious with fun
Parette Jr et al. Using flexible participation in technology-supported, universally designed preschool activities
So et al. Pedagogical exploration and technological development of a humanoid robotic system for teaching to and learning in young children
de Souza Jeronimo et al. Comparing social robot embodiment for child musical education
Mitra et al. Data analysis and machine learning in AI-assisted special education for students with exceptional needs
CN1279502C (zh) 教育设备
Hyun et al. Young children's perception of IrobiQ, the teacher assistive robot, with reference to speech register
CN114830208A (zh) 信息处理装置、信息处理方法和程序
Postello et al. Elementary school: Developing and refining listening skills
KR20200013962A (ko) It와 로봇이 융복합된 융복합 파닉스 학습 시스템, 이에 적합한 파닉스 학습 방법, 이에 적합한 프로그램이 기록된 컴퓨터로 읽어들일 수 있는 기록매체
Santos et al. HiZeca: A Serious Game for Emotions Recognition
CN112863267B (zh) 一种英语人机对话系统及学习方法
US20220068283A1 (en) Systems, methods, and apparatus for language acquisition using socio-neuorocognitive techniques
Shang A comparative analysis on alternative approaches to literacy instruction
Karabin Proposal for the Implementation of Humanoid Robots in Teaching English as a Foreign Language in Croatia
Lin et al. A Systematic Review on Oral Interactions in Robot-Assisted Language Learning. Electronics 2022, 11, 290
JP3013779U (ja) 教育用機器

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141105

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161101

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171101

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20191106

Year of fee payment: 9