KR20130100558A - 지능형 로봇 제어 장치 및 방법 - Google Patents

지능형 로봇 제어 장치 및 방법 Download PDF

Info

Publication number
KR20130100558A
KR20130100558A KR1020120021881A KR20120021881A KR20130100558A KR 20130100558 A KR20130100558 A KR 20130100558A KR 1020120021881 A KR1020120021881 A KR 1020120021881A KR 20120021881 A KR20120021881 A KR 20120021881A KR 20130100558 A KR20130100558 A KR 20130100558A
Authority
KR
South Korea
Prior art keywords
robot
characters
objects
control
information
Prior art date
Application number
KR1020120021881A
Other languages
English (en)
Other versions
KR101344727B1 (ko
Inventor
신경철
한정혜
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to KR1020120021881A priority Critical patent/KR101344727B1/ko
Publication of KR20130100558A publication Critical patent/KR20130100558A/ko
Application granted granted Critical
Publication of KR101344727B1 publication Critical patent/KR101344727B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 지능형 로봇 특히 교육용 로봇을 제어하는 장치 및 방법에 관한 것이다. 본 발명은 연속된 문자들이나 정렬된 객체들을 인식하고 인식된 문자들 또는 인식된 객체들에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하는 의미들을 조합하는 대상 인식부; 및 조합된 의미들을 기초로 로봇의 행위를 제어하는 로봇 제어부를 포함하는 것을 특징으로 하는 지능형 로봇 제어 장치를 제안한다. 본 발명에 따르면, 어린이 뿐만 아니라 컴퓨터 기반 프로그래밍이 어려운 사용자들도 손으로 교구재를 조립하거나 조합하여 로봇을 제어하는 것이 가능해지며, 일반적인 PC 환경이 아닌 로봇과의 상호작용을 통해 로봇을 제어하는 것이 가능해진다.

Description

지능형 로봇 제어 장치 및 방법 {Apparatus and method for controlling intelligent robot}
본 발명은 교육용 로봇 제어 장치 및 방법에 관한 것이다. 보다 상세하게는, 로봇의 인식 기술을 활용한 유아의 로봇 프로그래밍 기법이 적용된 로봇 제어 장치 및 방법에 관한 것이다. 즉, 유아가 외부 물체를 활용하여 로봇을 프로그래밍하여 제어하는 로봇 제어 장치 및 방법에 관한 것이다.
로봇은 카메라, 센서, 마이크 등 여러 종류의 디바이스 장치를 통해 영상 인식, 음성 인식, 제스처 인식, RFID 식별 등 외부 정보를 습득하고 인식하는 것이 가능하다. 로봇의 이러한 인식 기능을 활용하여 다양한 행동과 표현을 제어하기 위해서는 논리적 사고력에 기반하여 로봇 프로그래밍을 구현해야 한다.
그런데 로봇을 제어하거나 로봇과 커뮤니케이션하기 위해서는 C++과 같은 고급 프로그래밍 언어를 활용하거나 로봇 회사에서 제공하는 컴퓨터 기반의 VPL(Virtual Programming Language)를 사용해야 한다. 그러나 고급 프로그래밍 언어는 로봇 전문가만이 사용할 수 있는 수준의 것이며, VPL은 청소년을 대상으로 교육이 가능한 수준의 것이어서 유아가 사용하기에는 부적합하며, 기본 컴퓨터 활용 능력이 사전에 필요하다.
현재 유아가 로봇을 제어할 때 이용 가능한 것으로 명령어가 글자로 기재되거나 RFID 명령이 내장된 카드가 있다. 그런데 이러한 카드를 이용할 경우 카드에 미리 저장된 "전진", "후진" 등과 같은 단순 행위만 제어하는 것이 가능하며, "전진하다가 멈춰서 팔을 올리며 고개를 끄덕여라" 등 상황에 따른 다양한 프로그램 언어 연산자, 피연산자, 핵심어, 예약어 등의 스크립트가 포함된 복합적 행위를 제어하는 것은 불가능하다.
본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 유아가 컴퓨터 없이도 로봇을 제어하고자 하는 프로그래밍을 손으로 직접 만지며 조합할 수 있는 블록과 같은 물리적 교구재를 활용하여 언어의 연산자, 피연산자, 핵심어, 예약어 등의 스크립트 조합을 함으로써 로봇의 인식 기능을 이용하여 로봇을 프로그래밍하고 제어하는 로봇 제어 장치 및 방법을 제안함을 목적으로 한다.
본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 연속된 문자들이나 정렬된 객체들을 인식하고 인식된 문자들 또는 인식된 객체들에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하는 의미들을 조합하는 대상 인식부; 및 조합된 의미들을 기초로 로봇의 행위를 제어하는 로봇 제어부를 포함하는 것을 특징으로 하는 로봇 제어 장치를 제안한다.
바람직하게는, 상기 대상 인식부는 서로 다른 의미를 가진 상기 문자들이나 상기 객체들을 개별적으로 인식한다.
바람직하게는, 상기 대상 인식부는 상기 객체들로 모양이나 색깔이 서로 다른 블록들, 색깔이나 패턴이 서로 다른 이미지들, 모양과 색깔 및 패턴 중 적어도 하나가 서로 다른 코드들, 퍼즐 조각들 및 저장된 정보가 서로 다른 정보 저장 장치들 중 어느 한 그룹을 인식한다.
바람직하게는, 상기 대상 인식부는, 촬영을 통해 상기 문자들이나 상기 객체들이 포함된 영상을 획득하는 영상 획득부; 획득된 영상으로부터 상기 문자들이나 상기 객체들이 얻어지면 얻어진 문자들이나 객체들과 미리 매칭된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 추출하는 정보 추출부; 및 추출된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 기초로 상기 문자들이나 상기 객체들의 결합에 의한 시나리오를 상기 로봇의 행위를 제어하기 위한 로봇 제어 프로그램 스크립트로 생성하는 로봇 제어 스크립트 생성부를 포함한다. 더욱 바람직하게는, 상기 대상 인식부는, 상기 문자들이나 상기 객체들을 인식하지 못할 때 인식 실패 사실을 스크립트로 생성하는 인식 실패 스크립트 생성부; 인식되지 못한 문자들이나 객체들을 등록하는 문자/객체 등록부; 및 등록된 문자들이나 객체들에 대하여 로봇의 행위를 정의하는 로봇 행위 정의부를 더욱 포함한다.
바람직하게는, 상기 대상 인식부는 상기 의미들을 조합하여 상기 의미들이 포함된 문장을 생성한다.
바람직하게는, 상기 로봇 제어부는 상기 로봇의 행위로 모션(motion), 토킹(talking) 및 상기 로봇의 센서 제어를 비롯한 사용자의 명령 수행 중 적어도 하나를 제어한다. 더욱 바람직하게는, 상기 로봇 제어부는 상기 로봇의 물리적 동작을 제어하여 상기 모션을 제어하거나, 상기 로봇에 구비된 음성 장치와 음향 장치를 제어하여 상기 토킹을 제어하거나, 또는 상기 로봇의 물리적 동작, 상기 음성 장치, 상기 음향 장치, 및 상기 로봇에 장착되거나 상기 로봇과 유무선 연결된 디스플레이 장치 중 적어도 하나를 제어하여 상기 사용자의 명령 수행을 제어한다.
바람직하게는, 상기 로봇 제어 장치는 교육용 로봇에 장착된다.
또한, 본 발명은 연속된 문자들이나 정렬된 객체들을 인식하고 인식된 문자들 또는 인식된 객체들에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하는 의미들을 조합하는 대상 인식 단계; 및 조합된 의미들을 기초로 로봇의 행위를 제어하는 로봇 제어 단계를 포함하는 것을 특징으로 하는 로봇 제어 방법을 제안한다.
바람직하게는, 상기 대상 인식 단계는 서로 다른 의미를 가진 상기 문자들이나 상기 객체들을 개별적으로 인식한다.
바람직하게는, 상기 대상 인식 단계는 상기 객체들로 모양이나 색깔이 서로 다른 블록들, 색깔이나 패턴이 서로 다른 이미지들, 모양과 색깔 및 패턴 중 적어도 하나가 서로 다른 코드들, 퍼즐 조각들 및 저장된 정보가 서로 다른 정보 저장 장치들 중 어느 한 그룹을 인식한다.
바람직하게는, 상기 대상 인식 단계는, 촬영을 통해 상기 문자들이나 상기 객체들이 포함된 영상을 획득하는 영상 획득 단계; 획득된 영상으로부터 상기 문자들이나 상기 객체들이 얻어지면 얻어진 문자들이나 객체들과 미리 매칭된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 추출하는 정보 추출 단계; 및 추출된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 기초로 상기 문자들이나 상기 객체들의 결합에 의한 시나리오를 상기 로봇의 행위를 제어하기 위한 로봇 제어 프로그램 스크립트로 생성하는 로봇 제어 스크립트 생성 단계를 포함한다. 더욱 바람직하게는, 상기 대상 인식 단계는, 상기 문자들이나 상기 객체들을 인식하지 못할 때 인식 실패 사실을 스크립트로 생성하는 인식 실패 스크립트 생성 단계; 인식되지 못한 문자들이나 객체들을 등록하는 문자/객체 등록 단계; 및 등록된 문자들이나 객체들에 대하여 로봇의 행위를 정의하는 로봇 행위 정의 단계를 더욱 포함한다.
바람직하게는, 상기 대상 인식 단계는 상기 의미들을 조합하여 상기 의미들이 포함된 문장을 생성한다.
바람직하게는, 상기 로봇 제어 단계는 상기 로봇의 행위로 모션(motion), 토킹(talking) 및 상기 로봇의 센서 제어를 비롯한 사용자의 명령 수행 중 적어도 하나를 제어한다.
바람직하게는, 상기 로봇 제어 단계는 상기 로봇의 물리적 동작을 제어하여 상기 로봇의 행위로 모션(motion)을 제어하거나, 상기 로봇에 구비된 음성 장치와 음향 장치를 제어하여 상기 로봇의 행위로 토킹(talking)을 제어하거나, 또는 상기 로봇의 물리적 동작, 상기 음성 장치, 상기 음향 장치, 및 상기 로봇에 장착되거나 상기 로봇과 유무선 연결된 디스플레이 장치 중 적어도 하나를 제어하여 상기 로봇의 행위로 사용자의 명령 수행을 제어한다.
바람직하게는, 상기 로봇 제어 방법은 교육용 로봇에 의해 구현된다.
본 발명은 어린이들이 손으로 직접 만지며 조합할 수 있는 블록과 같은 물리적 교구재와 로봇의 인식 기능을 이용하여 로봇을 제어함으로써 다음 효과를 얻을 수 있다. 첫째, 어린이 뿐만 아니라 컴퓨터 기반 프로그래밍이 어려운 사용자들도 손으로 교구재를 조립하거나 조합하여 로봇을 제어하는 것이 가능해진다. 둘째, 일반적인 PC 환경이 아닌 로봇과의 상호작용을 통해 로봇을 제어하는 것이 가능해진다. 세째, 교구재를 조립하거나 조합하기 때문에 어린이의 논리력 사고를 증진시킬 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 로봇 제어 장치를 개략적으로 도시한 블록도이다.
도 2는 도 1에 도시된 로봇 제어 장치의 일 구성을 세부적으로 도시한 블록도이다.
도 3은 도 1에 도시된 로봇 제어 장치의 일실시예 개념도이다.
도 4는 객체 레이어와 행동 레이어의 예시도이다.
도 5는 도 1에 도시된 로봇 제어 장치에 의한 로봇 제어 방법의 일실시예 흐름도이다.
도 6은 본 발명의 바람직한 실시예에 따른 로봇 제어 방법을 도시한 흐름도이다.
도 7은 로봇의 인식 대상 등록과 실행 과정에 대한 예시도이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.
도 1은 본 발명의 바람직한 실시예에 따른 로봇 제어 장치를 개략적으로 도시한 블록도이다. 도 2는 도 1에 도시된 로봇 제어 장치의 일 구성을 세부적으로 도시한 블록도이다. 이하 설명은 도 1과 도 2를 참조한다.
도 1에 따르면, 로봇 제어 장치(100)는 대상 인식부(110), 로봇 제어부(120), 전원부(130) 및 주제어부(140)를 포함한다.
대상 인식부(110)는 연속된 문자들이나 정렬된 객체들을 인식하고 인식된 문자들이나 객체들에 포함된 의미들을 조합하는 기능을 수행한다. 대상 인식부(110)는 객체들을 인식할 때 객체에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하여 의미 조합 기능을 수행한다.
대상 인식부(110)는 서로 다른 의미를 가진 문자들이나 객체들을 개별적으로 인식할 수 있다. 인식 대상 객체들은 2차원 객체인 것이 보통이나 3차원 객체인 것도 가능하다. 대상 인식부(110)는 연산자들끼리 또는 피연산자들끼리 또는 핵심어들끼리 또는 예약어들끼리 조합하여 의미들이 포함된 문장을 생성할 수 있으며, 연산자와 피연산자와 핵심어 및 예약어 중에서 선택된 서로 다른 성분들을 조합하여 의미들이 포함된 문장을 생성하는 것도 가능하다.
대상 인식부(110)는 객체들로 모양이나 색깔이 서로 다른 블록들, 색깔이나 패턴이 서로 다른 이미지들, 모양과 색깔 및 패턴 중 적어도 하나가 서로 다른 코드들, 퍼즐 조각들 및 저장된 정보가 서로 다른 정보 저장 장치들 중 어느 한 그룹을 인식할 수 있다. 상기에서, 색깔이나 패턴이 서로 다른 이미지들은 카드 형태 또는 블록과 같은 3차원 물체로 구현될 수 있다. 모양이나 색깔이나 패턴이 다른 코드들은 바코드, QR코드, 컬러코드 등의 형태로 구현될 수 있으며, 저장된 정보가 다른 정보 저장 장치들은 마커, RFID 태그 등의 형태로 구현될 수 있다.
대상 인식부(110)는 도 2에 도시된 바와 같이 영상 획득부(111), 정보 추출부(112) 및 로봇 제어 스크립트 생성부(113)를 포함할 수 있다. 대상 인식부(110)는 인식 실패 스크립트 생성부(114), 문자/객체 등록부(115) 및 로봇 행위 정의부(116)를 더욱 포함할 수 있다. 영상 획득부(111)는 촬영을 통해 문자들이나 객체들이 포함된 영상을 획득하는 기능을 수행한다. 정보 추출부(112)는 획득된 영상으로부터 문자들이나 객체들이 얻어지면 얻어진 문자들이나 객체들과 미리 매칭된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 추출하는 기능을 수행한다. 로봇 제어 스크립트 생성부(113)는 추출된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 기초로 문자들이나 객체들의 결합에 의한 시나리오를 로봇의 행위를 제어하기 위한 로봇 제어 프로그램 스크립트로 생성하는 기능을 수행한다. 인식 실패 스크립트 생성부(114)는 문자들이나 객체들을 인식하지 못할 때 인식 실패 사실을 스크립트로 생성하는 기능을 수행한다. 문자/객체 등록부(115)는 인식되지 못한 문자들이나 객체들을 등록하는 기능을 수행한다. 로봇 행위 정의부(116)는 등록된 문자들이나 객체들에 대하여 로봇의 행위를 정의하는 기능을 수행한다.
로봇 제어부(120)는 조합된 의미들을 기초로 로봇의 행위를 제어하는 기능을 수행한다.
로봇 제어부(120)는 로봇의 행위로 모션(motion), 토킹(talking) 및 로봇의 센서 제어를 비롯한 사용자의 명령 수행 중 적어도 하나를 제어할 수 있다. 본 실시예에서 토킹(talking)은 혼자서 말하기, 사용자와 대화하기, 내레이션(narration) 등을 포괄하는 개념으로 정의한다. 로봇 제어부(120)는 로봇의 물리적 동작을 제어하여 모션을 제어할 수 있다. 또한, 로봇 제어부(120)는 로봇에 구비된 음성 장치와 음향 장치를 제어하여 토킹을 제어할 수 있다. 또한, 로봇 제어부(120)는 로봇의 물리적 동작, 음성 장치, 음향 장치, 및 로봇에 장착되거나 로봇과 유무선 연결된 디스플레이 장치 중 적어도 하나를 제어하여 사용자의 명령 수행을 제어할 수 있다. 상기에서, 음성 장치는 TTS(Text To Speech) 서비스를 제공하는 장치로 구현될 수 있다.
전원부(130)는 로봇 제어 장치(100)를 구성하는 각 구성부에 전원을 공급하는 기능을 수행한다.
주제어부(140)는 로봇 제어 장치(100)를 구성하는 각 구성부의 전체 작동을 제어하는 기능을 수행한다.
다음으로, 도 1에 도시된 로봇 제어 장치의 일실시예에 대해서 설명한다.
현재 교육용 로봇은 아이들과 로봇 간의 상호작용을 제공하지만, 주로 로봇이 아이들에게 제공하는 전달형 서비스가 대부분이고, 아이들이 로봇에게 음성 인식이나 터치 센서를 활용하는 서비스는 일부 존재하여 쌍방향 서비스의 불균형을 이루고 있다. 특히 아이들이 로봇과의 커뮤니케이션에 있어서 외부 물체를 활용한 프로그래밍 언어를 통하여 로봇의 행위 시나리오를 제어함으로써 논리력과 프로그래밍 능력을 기르는 서비스는 없는 실정이다. 종래 교육용 로봇의 문제점을 보다 자세하게 설명하면 다음과 같다.
첫째, 아이들의 논리적 사고력과 창의력을 기르기 위한 프로그래밍 언어로 스크래치(scratch)와 같은 비주얼 블록 언어가 있으나, 이는 컴퓨터 기반의 멀티미디어 제어용 프로그래밍 언어일 뿐이다.
둘째, 전술한 바와 같이 로봇을 제어하거나 커뮤니케이션하기 위한 방법에는 고급 프로그래밍 언어를 활용하는 방법, 컴퓨터 기반의 VPL을 사용하는 방법 등이 있다. 그러나 이러한 방법들은 기본적으로 컴퓨터 활용이 요구될 뿐만 아니라 유아들이 사용하기에는 너무 높은 수준의 것이다.
세째, 전술한 바와 같이 외부 사물을 이용하여 로봇을 제어할 수 있는 것으로 명령어가 기재된 카드, RFID 카드 등이 있다. 그런데, 이러한 카드로는 단순 행위만 제어할 수 있을 뿐이며 복합적 행위를 제어하는 것은 불가능하다. 더불어, 센서나 외부 입력값 조건문(ex. IF ~ then ~)에 의한 복합적인 로봇의 행위(ex. "앞에 장애물이 있으면 우회전하여 장애물이 없으면 전진하고, 소리가 들리면 음원을 쳐다보며 놀란 표정을 지어라")의 제어도 불가능하다.
네째, 로봇의 행위를 제어할 수 있는 리모콘 등을 활용하여 어린이들이 일부 단순한 로봇 행위의 조합을 제어할 수는 있지만, 로봇 행위를 제어하기 위한 논리력 배양과 프로그래밍 사고력 배양과는 전혀 무관하다.
일반적으로 로봇을 제어하기 위한 프로그래밍은 전문적인 프로그래밍 언어 지식과 복잡한 알고리즘의 설계와 코딩 단계가 필요하므로, 이러한 과정은 어린이들이 수행하기에는 많은 장벽과 어려움이 존재한다. 그래서, 본 실시예에서는 어린이들을 대상으로 하는 교육용 로봇의 제어를 위한 프로그래밍 기법으로 손으로 직접 만지며 조합할 수 있는 블록과 같은 물리적 교구재와 로봇 자체의 인식 기술을 활용한 프로그래밍 기법을 제안한다. 본 실시예에서는 이 프로그래밍 기법으로 어린이들이 블록, 카드, RFID 등을 조합하고 이를 로봇의 영상 인식 기능에 접목시킴으로써, 로봇의 다양한 행위 시나리오를 프로그래밍하여 로봇을 제어하거나 로봇과 단순하고 효과적으로 커뮤니케이션하는 방법을 제안한다. 도 3은 도 1에 도시된 로봇 제어 장치의 일실시예 개념도이다. 도 3에서 도면부호 310은 물리적 교구재를 의미하며, 도면부호 320은 로봇을 의미한다. 도 3에 도시된 바와 같이 어린이가 물리적 교구재(310)에 명령을 입력하면(ex. "벽에 닿으면 튕기기", "10만큼 움직이기") 로봇(320)이 이 명령을 인식하여 이행할 수 있게 된다.
본 실시예는 총 3단계로 구분할 수 있다. 제1 단계는 사용자가 로봇을 제어하기 위해 외부 사물의 조합을 이용하여 프로그래밍하는 단계이다. 제2 단계는 사용자가 외부 사물의 조합을 이용하여 프로그래밍한 물리적 객체를 로봇이 인식하는 단계이다. 로봇이 인식할 대상에는 블록, 퍼즐, 카드, 마커 등이 있다. 본 실시예에서는 로봇이 인식할 대상을 객체 레이어(Object Layer)로 정의한다. 이 객체 레이어(410)의 예시에는 도 4에 도시된 바와 같은 것들이 있다. 도 4는 객체 레이어와 행동 레이어의 예시도이다. 제3 단계는 인식 결과를 기반으로 로봇이 수행하는 단계이다. 로봇의 수행 결과에는 로봇의 감성 표현 및 행위, 주행, 내레이션, 위치 인식, 서비스 호출 등이 있다. 본 실시예에서는 로봇의 수행 결과를 행동 레이어(Behavior Layer)로 정의한다. 이 행동 레이어(420)의 예시에는 도 4에 도시된 바와 같은 것들이 있다.
각 단계별 세부 사항과 절차는 다음과 같다. 도 5는 도 1에 도시된 로봇 제어 장치에 의한 로봇 제어 방법의 일실시예 흐름도이다. 이하 설명은 도 5를 참조한다. 먼저 제1 단계(510)부터 설명한다.
제1 단계(510)는 교구재 조합을 활용한 프로그래밍 단계이다. 로봇의 행위를 제어하기 위하여, 아이들이 손으로 만질 수 있는 블록, 퍼즐, 카드 등 다양한 형태의 교구재 조합을 통해 프로그래밍을 한다. 로봇이 인식할 교구재 조합물은 입체 구조체일 수 있으며, 보드와 같은 평면에 부착된 형태일 수 있다.
- 블록 : 여러 가지 모양과 색깔을 가진 블록을 조합하여 프로그래밍할 수 있다.
- 퍼즐 : 퍼즐을 이용하여 로봇 제어를 프로그래밍할 수 있다.
- 카드 : 식별 가능한 컬러와 패턴을 가진 이미지로 영상 인식이 가능하다.
- 마커 : 영상 인식에 사용되는 마커의 조합으로 프로그래밍할 수 있다.
- RFID 태그 : 여러 가지 모양, 색깔, 기능을 가진 교구재에 RFID 태그를 붙여 이를 조합하여 프로그래밍할 수 있다.
제2 단계(520)는 인식 단계이다. 아이들이 손으로 만든 교구재 조합물을 개별 객체 영상 인식을 기반으로 조합물에 대한 최종 인식을 함으로써 아이들이 제어하기를 원하는 로봇 스크립트를 생성한다.
먼저, 개별 인식을 수행한다. 각각의 도형과 블록 등은 로봇의 인식 기능(ex. 음성 인식, 영상 인식, 외부 센서에 의한 센싱 등), 논리연산자(ex. IF ~ then ~), 산술연산자, 다양한 로봇의 출력연산자(ex. 행위, 감정, 말 등) 등과 일대일대응으로 프로토콜이 정해져 있다. 로봇은 카메라(521)를 이용하여 도형, 프로그래밍 블록, 마커, RFID 카드 등의 모양과 색상 등을 각가 개별 객체 인식한다(522).
개별 인식을 수행한 후, 조합 인식을 수행한다. 인식된 개별 객체의 조합 인식을 수행하여(523) 아이들이 교구재 조합물을 통하여 표현하고자 하는 시나리오를 로봇 제어 프로그램 스크립트로 전환한다. 이러한 전환은 조합 물체 인식 프로그램 컴파일러(524) 및 로봇 스크립트 생성기(525)에 의해 수행된다. 한편, 개별 인식이나 조합 인식이 인식 실패할 때는 인식 실패에 대한 로봇 스크립트를 생성한다.
제3 단계(530)는 실행 단계이다. 제3 단계(530)는 영상 인식을 기반으로 생성된 로봇 제어 프로그램 스크립트를 로봇이 실행하는 단계이다. 제3 단계(530)에서는 외부의 센서 값과 영상 및 음성 인식 값 등도 입력 값으로 사용될 수 있으며, 다음과 같은 출력들이 포함될 수 있다.
- 동작 : 로봇의 머리, 팔, 바퀴, 위치 등의 물리적인 동작을 컨트롤할 수 있다.
- 소리 : 로봇의 합성 음성(TTS), 음향 효과를 컨트롤할 수 있다.
- 비주얼 콘텐츠 : 로봇의 몸에 장착된 터치스크린이나 외부 보조 출력에 대한 지시를 컨트롤할 수 있다.
- 감성 : 로봇에서 요구되는 안면의 정서 등의 표현을 실행할 수 있다.
로봇을 제어하는 프로그래밍 학습은 논리력 사고 증진에 매우 중요하나, 유아를 대상으로 하며 컴퓨터를 기반으로 하지 않는 로봇 제어 프로그래밍은 존재하지 않는다. 본 발명은 컴퓨터의 프로그래밍 언어를 이용하여 로봇을 제어하지 않고, 사용자가 외부 물체들을 조합하여 만든 사물에 대하여 로봇의 영상 인식 기술을 통해 프로그래밍한다. 본 발명은 이를 통해 로봇을 직접 학습시키거나, 목적과 용도에 맞는 서비스 개발이 가능해진다.
본 발명은 어린이나 컴퓨터 기반 프로그래밍이 어려운 사용자들이 컴퓨터를 이용하지 않고도 쉽게 손으로 교구재를 조립 또는 조합하여 로봇을 제어할 수 있게 되므로, 논리력과 프로그래밍 학습력을 높일 수 있다. 특히 어린이에게 인격적 매체로 인식되는 로봇을 제어하는 것은 어린이의 논리력 사고 증진에 대한 큰 동기 유발 효과가 있을 것으로 기대되며, 향후 논리력에 기반한 소프트웨어 개발 인력 양성의 기초 교육이 될 수 있다.
본 발명은 기존의 종이 카드를 이용한 단순 행위 제어와는 다른 복합 행위 뿐만 아니라 로봇의 다른 인식 기능(센서, 음성 인식 등)을 입력으로 받아 조건문이나 연산자를 활용하여 로봇의 행위 시나리오를 출력할 수 있는 프로그래밍 방법이다. 본 발명은 일반적인 PC 환경이 아닌 로봇과 상호작용을 통해 어린이가 로봇을 쉽게 프로그래밍하여 논리력 향상 등의 교육 효과를 기대할 수 있다.
이상 도 1 내지 도 5를 참조하여 설명한 로봇 제어 장치는 교육용 로봇에 장착될 수 있다.
다음으로, 도 1에 도시된 로봇 제어 장치에 의한 로봇 제어 방법에 대해서 설명한다. 도 6은 본 발명의 바람직한 실시예에 따른 로봇 제어 방법을 도시한 흐름도이다. 이하 설명은 도 6을 참조한다.
먼저, 연속된 문자들이나 정렬된 객체들을 인식하고(S610) 인식된 문자들이나 객체들에 포함된 의미들을 조합한다(S620). S620 단계에서는 객체들을 인식할 때 객체에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하여 의미 조합 기능을 수행한다. 이하 설명에서는 S610 단계와 S620 단계를 묶어서 대상 인식 단계로 정의한다.
대상 인식 단계에서는 서로 다른 의미를 가진 문자들이나 객체들을 개별적으로 인식할 수 있다. 또한, 대상 인식 단계에서는 의미들을 조합하여 의미들이 포함된 문장을 생성할 수 있다.
대상 인식 단계에서는 객체들로 모양이나 색깔이 서로 다른 블록들, 색깔이나 패턴이 서로 다른 이미지들, 모양과 색깔 및 패턴 중 적어도 하나가 서로 다른 코드들, 퍼즐 조각들 및 저장된 정보가 서로 다른 정보 저장 장치들 중 어느 한 그룹을 인식할 수 있다.
대상 인식 단계는 영상 획득 단계, 정보 추출 단계 및 로봇 제어 스크립트 생성 단계로 구분될 수 있으며, 이에 더하여 인식 실패 스크립트 생성 단계, 문자/객체 등록 단계 및 로봇 행위 정의 단계로 더욱 구분될 수 있다. 영상 획득 단계에서는 촬영을 통해 문자들이나 객체들이 포함된 영상을 획득한다. 정보 추출 단계에서는 획득된 영상으로부터 문자들이나 객체들이 얻어지면 얻어진 문자들이나 객체들과 미리 매칭된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 추출한다. 로봇 제어 스크립트 생성 단계에서는 추출된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 기초로 문자들이나 객체들의 결합에 의한 시나리오를 로봇의 행위를 제어하기 위한 로봇 제어 프로그램 스크립트로 생성한다. 인식 실패 스크립트 생성 단계에서는 문자들이나 객체들을 인식하지 못할 때 인식 실패 사실을 스크립트로 생성한다. 인식 실패 스크립트 생성 단계는 정보 추출 단계에서 문자들이나 객체들이 얻어지지 않을 때 정보 추출 단계 이후에 수행될 수 있다. 문자/객체 등록 단계에서는 인식되지 못한 문자들이나 객체들을 등록한다. 로봇 행위 정의 단계에서는 등록된 문자들이나 객체들에 대하여 로봇의 행위를 정의한다.
대상 인식 단계 이후, 조합된 의미들을 기초로 로봇의 행위를 제어한다(로봇 제어 단계, S630).
로봇 제어 단계(S630)에서는 로봇의 행위로 모션(motion), 토킹(talking) 및 로봇의 센서 제어를 비롯한 사용자의 명령 수행 중 적어도 하나를 제어할 수 있다. 이때, 로봇 제어 단계(S630)에서는 로봇의 물리적 동작을 제어하여 로봇의 행위로 모션(motion)을 제어할 수 있다. 또한, 로봇 제어 단계(S630)에서는 로봇에 구비된 음성 장치와 음향 장치를 제어하여 로봇의 행위로 토킹(talking)을 제어할 수 있다. 또한, 로봇 제어 단계(S630)에서는 로봇의 물리적 동작, 음성 장치, 음향 장치, 및 로봇에 장착되거나 로봇과 유무선 연결된 디스플레이 장치 중 적어도 하나를 제어하여 로봇의 행위로 사용자의 명령 수행을 제어할 수 있다.
도 7은 로봇의 인식 대상 등록과 실행 과정에 대한 예시도이다. 도 7을 참조하여 로봇의 인식 대상 등록 및 실행 과정에 대해서 설명한다.
앞서 설명한 바와 같이 정보 추출 단계에서는 문자들이나 객체들이 획득되면 이로부터 사전 매칭된 기능 정보들이나 연산자 정보들을 추출한다. 그런데 사전에 등록되지 않은 문자나 객체도 존재할 수 있으며, 이 경우에는 해당 기능 정보나 연산자 정보를 추출할 수 없다. 이때에는 도 7에 도시된 절차를 따른다. 먼저, 문자들이나 객체들 즉, 그림카드, 마커, 블록 등을 프로그램 언어 연산자, 피연산자, 핵심어, 예약어 등의 스크립트로 등록한다(S710). 등록 가능한 대상은 도 4의 객체 레이어(410)를 참조한다. 이후, 등록된 각 요소에 대하여 표현하고자 하는 로봇 행위를 정의한다(S720). 정의 가능한 행위는 도 4의 행동 레이어(420)를 참조한다. 이후, 로봇을 통해 문자나 객체를 인식하며(S730), 인식된 프로그램 언어 연산자, 피연산자, 핵심어, 예약어 등의 조합 결과를 토대로 로봇의 주행이나 회전을 제어하거나(S740), 로봇을 통해 노래, 음악 등 음성 신호나 음향 신호를 출력하거나(S750), 로봇을 통해 TTS, 멘트 등 음성 신호를 출력하거나(S760), 로봇의 표정이나 감성을 표현한다(S770).
다음으로, 로봇의 일정 알림 스케줄링 기능 등록 및 실행 과정에 대해서 설명한다. 먼저, 숫자 카드를 이용하여 일정 알림을 등록한다. 일정 알림은 날짜(년, 월, 일 등), 시간, 분 단위로 등록할 수 있다. 이후, TTS나 효과음을 선택한다. 등록된 일정 알림이 발생되면 해당 서비스를 실행하며, 이와 더불어 로봇 TTS 멘트와 효과음을 실행한다.
이상 도 6 내지 도 7을 참조하여 설명한 로봇 제어 방법은 교육용 로봇에 의해 구현될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 로봇 제어 장치 110 : 대상 인식부
111 : 영상 획득부 112 : 정보 추출부
113 : 로봇 제어 스크립트 생성부 114 : 인식 실패 스크립트 생성부
115 : 문자/객체 등록부 116 : 로봇 행위 정의부
120 : 로봇 제어부 130 : 전원부
140 : 주제어부 410 : 객체 레이어
420 : 행동 레이어

Claims (14)

  1. 연속된 문자들이나 정렬된 객체들을 인식하고 인식된 문자들 또는 인식된 객체들에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하는 의미들을 조합하는 대상 인식부; 및
    조합된 의미들을 기초로 로봇의 행위를 제어하는 로봇 제어부
    를 포함하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  2. 제 1 항에 있어서,
    상기 대상 인식부는 서로 다른 의미를 가진 상기 문자들이나 상기 객체들을 개별적으로 인식하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  3. 제 1 항에 있어서,
    상기 대상 인식부는 상기 객체들로 모양이나 색깔이 서로 다른 블록들, 색깔이나 패턴이 서로 다른 이미지들, 모양과 색깔 및 패턴 중 적어도 하나가 서로 다른 코드들, 퍼즐 조각들 및 저장된 정보가 서로 다른 정보 저장 장치들 중 어느 한 그룹을 인식하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  4. 제 1 항에 있어서,
    상기 대상 인식부는,
    촬영을 통해 상기 문자들이나 상기 객체들이 포함된 영상을 획득하는 영상 획득부;
    획득된 영상으로부터 상기 문자들이나 상기 객체들이 얻어지면 얻어진 문자들이나 객체들과 미리 매칭된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 추출하는 정보 추출부; 및
    추출된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 기초로 상기 문자들이나 상기 객체들의 결합에 의한 시나리오를 상기 로봇의 행위를 제어하기 위한 로봇 제어 프로그램 스크립트로 생성하는 로봇 제어 스크립트 생성부
    를 포함하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  5. 제 4 항에 있어서,
    상기 대상 인식부는,
    상기 문자들이나 상기 객체들을 인식하지 못할 때 인식 실패 사실을 스크립트로 생성하는 인식 실패 스크립트 생성부;
    인식되지 못한 문자들이나 객체들을 등록하는 문자/객체 등록부; 및
    등록된 문자들이나 객체들에 대하여 로봇의 행위를 정의하는 로봇 행위 정의부
    를 더욱 포함하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  6. 제 1 항에 있어서,
    상기 대상 인식부는 상기 의미들을 조합하여 상기 의미들이 포함된 문장을 생성하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  7. 제 1 항에 있어서,
    상기 로봇 제어부는 상기 로봇의 행위로 모션(motion), 토킹(talking) 및 상기 로봇의 센서 제어를 비롯한 사용자의 명령 수행 중 적어도 하나를 제어하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  8. 제 7 항에 있어서,
    상기 로봇 제어부는 상기 로봇의 물리적 동작을 제어하여 상기 모션을 제어하거나, 상기 로봇에 구비된 음성 장치와 음향 장치를 제어하여 상기 토킹을 제어하거나, 또는 상기 로봇의 물리적 동작, 상기 음성 장치, 상기 음향 장치, 및 상기 로봇에 장착되거나 상기 로봇과 유무선 연결된 디스플레이 장치 중 적어도 하나를 제어하여 상기 사용자의 명령 수행을 제어하는 것을 특징으로 하는 지능형 로봇 제어 장치.
  9. 제 1 항에 있어서,
    상기 로봇 제어 장치는 교육용 로봇에 장착되는 것을 특징으로 하는 지능형 로봇 제어 장치.
  10. 연속된 문자들이나 정렬된 객체들을 인식하고 인식된 문자들 또는 인식된 객체들에 들어있는 연산자, 피연산자, 핵심어 및 예약어 중 적어도 하나를 포함하는 의미들을 조합하는 대상 인식 단계; 및
    조합된 의미들을 기초로 로봇의 행위를 제어하는 로봇 제어 단계
    를 포함하는 것을 특징으로 하는 지능형 로봇 제어 방법.
  11. 제 10 항에 있어서,
    상기 대상 인식 단계는 상기 객체들로 모양이나 색깔이 서로 다른 블록들, 색깔이나 패턴이 서로 다른 이미지들, 모양과 색깔 및 패턴 중 적어도 하나가 서로 다른 코드들, 퍼즐 조각들 및 저장된 정보가 서로 다른 정보 저장 장치들 중 어느 한 그룹을 인식하는 것을 특징으로 하는 지능형 로봇 제어 방법.
  12. 제 10 항에 있어서,
    상기 대상 인식 단계는,
    촬영을 통해 상기 문자들이나 상기 객체들이 포함된 영상을 획득하는 영상 획득 단계;
    획득된 영상으로부터 상기 문자들이나 상기 객체들이 얻어지면 얻어진 문자들이나 객체들과 미리 매칭된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 추출하는 정보 추출 단계; 및
    추출된 기능 정보들이나 연산자 정보들 또는 예약어 정보들을 기초로 상기 문자들이나 상기 객체들의 결합에 의한 시나리오를 상기 로봇의 행위를 제어하기 위한 로봇 제어 프로그램 스크립트로 생성하는 로봇 제어 스크립트 생성 단계
    를 포함하는 것을 특징으로 하는 지능형 로봇 제어 방법.
  13. 제 10 항에 있어서,
    상기 로봇 제어 단계는 상기 로봇의 물리적 동작을 제어하여 상기 로봇의 행위로 모션(motion)을 제어하거나, 상기 로봇에 구비된 음성 장치와 음향 장치를 제어하여 상기 로봇의 행위로 토킹(talking)을 제어하거나, 또는 상기 로봇의 물리적 동작, 상기 음성 장치, 상기 음향 장치, 및 상기 로봇에 장착되거나 상기 로봇과 유무선 연결된 디스플레이 장치 중 적어도 하나를 제어하여 상기 로봇의 행위로 상기 로봇의 센서 제어를 비롯한 사용자의 명령 수행을 제어하는 것을 특징으로 하는 지능형 로봇 제어 방법.
  14. 제 10 항에 있어서,
    상기 로봇 제어 방법은 교육용 로봇에 의해 구현되는 것을 특징으로 하는 지능형 로봇 제어 방법.
KR1020120021881A 2012-03-02 2012-03-02 지능형 로봇 제어 장치 및 방법 KR101344727B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120021881A KR101344727B1 (ko) 2012-03-02 2012-03-02 지능형 로봇 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120021881A KR101344727B1 (ko) 2012-03-02 2012-03-02 지능형 로봇 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20130100558A true KR20130100558A (ko) 2013-09-11
KR101344727B1 KR101344727B1 (ko) 2014-01-16

Family

ID=49451239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120021881A KR101344727B1 (ko) 2012-03-02 2012-03-02 지능형 로봇 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101344727B1 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452359B1 (ko) * 2014-02-21 2014-10-23 주식회사 베이스디 완구 조립영상 제공방법
KR101483017B1 (ko) * 2014-06-26 2015-01-16 주식회사 헬로긱스 프로그래밍 가능한 결합형 블록장치
CN105930167A (zh) * 2016-05-10 2016-09-07 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作系统
CN107009367A (zh) * 2017-03-01 2017-08-04 江苏哈工海渡工业机器人有限公司 一种指令型机器人拼图系统及拼图一体机
KR20180007991A (ko) * 2016-07-15 2018-01-24 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
CN107688802A (zh) * 2017-09-29 2018-02-13 深圳市玛塔创想科技有限公司 一种基于图像识别的简易编程方法及装置
GB2552981A (en) * 2016-08-17 2018-02-21 Univ Of Hertfordshire Higher Education Corporation Robot
WO2018097502A1 (ko) * 2016-11-23 2018-05-31 손승희 프로그램 코딩용 블록
CN109416891A (zh) * 2017-02-10 2019-03-01 Cnr技术有限公司 不插电的编码块
CN109686172A (zh) * 2017-10-19 2019-04-26 德伦玩具有限公司 一种利用机器人移动的编码教育装置
KR20190043753A (ko) * 2017-10-19 2019-04-29 주식회사 토이트론 로봇의 감정변화를 이용한 코딩 교육 장치 및 이를 이용한 코딩 교육방법
KR20200045168A (ko) * 2018-10-22 2020-05-04 씨제이올리브네트웍스 주식회사 휴머노이드 로봇 개발 프레임워크 시스템

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949322B1 (ko) * 2017-02-21 2019-05-10 주식회사 휴인텍 패턴 인식장치
KR101957251B1 (ko) * 2017-03-20 2019-03-12 주식회사 휴인텍 패턴 인식장치
KR102286781B1 (ko) 2019-09-30 2021-08-09 주식회사 로보로보 교육용 로봇의 블록 프로그래밍 시스템 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827294B1 (ko) * 2007-01-29 2008-05-07 (주)누리봄 멀티미디어 출력 장치와 방법, 및 카메라를 이용한 교육장치
WO2009157733A1 (en) * 2008-06-27 2009-12-30 Yujin Robot Co., Ltd. Interactive learning system using robot and method of operating the same in child education

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015126022A1 (ko) * 2014-02-21 2015-08-27 주식회사 베이스디 완구 조립영상 제공방법
KR101452359B1 (ko) * 2014-02-21 2014-10-23 주식회사 베이스디 완구 조립영상 제공방법
KR101483017B1 (ko) * 2014-06-26 2015-01-16 주식회사 헬로긱스 프로그래밍 가능한 결합형 블록장치
WO2015199355A1 (ko) * 2014-06-26 2015-12-30 주식회사 헬로긱스 프로그래밍 가능한 결합형 블록장치
CN105930167A (zh) * 2016-05-10 2016-09-07 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作系统
KR20180007991A (ko) * 2016-07-15 2018-01-24 주식회사 토이트론 카드를 인식하여 명령을 수행하는 스마트 토이를 운용하는 장치 및 그 방법
GB2552981A (en) * 2016-08-17 2018-02-21 Univ Of Hertfordshire Higher Education Corporation Robot
GB2552981B (en) * 2016-08-17 2020-04-01 Univ Of Hertfordshire Higher Education Corporation An Interactive Humanoid Robot using RFID Tagged Objects
WO2018097502A1 (ko) * 2016-11-23 2018-05-31 손승희 프로그램 코딩용 블록
CN109416891A (zh) * 2017-02-10 2019-03-01 Cnr技术有限公司 不插电的编码块
CN107009367A (zh) * 2017-03-01 2017-08-04 江苏哈工海渡工业机器人有限公司 一种指令型机器人拼图系统及拼图一体机
CN107688802A (zh) * 2017-09-29 2018-02-13 深圳市玛塔创想科技有限公司 一种基于图像识别的简易编程方法及装置
CN109686172A (zh) * 2017-10-19 2019-04-26 德伦玩具有限公司 一种利用机器人移动的编码教育装置
KR20190043753A (ko) * 2017-10-19 2019-04-29 주식회사 토이트론 로봇의 감정변화를 이용한 코딩 교육 장치 및 이를 이용한 코딩 교육방법
KR20190043756A (ko) * 2017-10-19 2019-04-29 주식회사 토이트론 로봇의 이동을 이용한 코딩 교육 장치
KR20200045168A (ko) * 2018-10-22 2020-05-04 씨제이올리브네트웍스 주식회사 휴머노이드 로봇 개발 프레임워크 시스템

Also Published As

Publication number Publication date
KR101344727B1 (ko) 2014-01-16

Similar Documents

Publication Publication Date Title
KR101344727B1 (ko) 지능형 로봇 제어 장치 및 방법
Wood et al. Developing kaspar: a humanoid robot for children with autism
US10157550B2 (en) Method and system for presenting interactive, three-dimensional learning tools
Amirova et al. 10 years of human-nao interaction research: A scoping review
EP3189404B1 (en) A human-computer interface device and system
Bravo et al. A review of intuitive robot programming environments for educational purposes
US20130171603A1 (en) Method and System for Presenting Interactive, Three-Dimensional Learning Tools
Heera et al. Talking hands—An Indian sign language to speech translating gloves
JP6319772B2 (ja) リアルタイムで行われる移動ロボットの脈絡ある挙動を生成する方法およびシステム
CN206021605U (zh) 智能机器人点读系统
de Albuquerque Wheler et al. Toy user interface design—tools for child–computer interaction
Iqbal et al. Exploring the real-time touchless hand interaction and intelligent agents in augmented reality learning applications
Zimina et al. The humanoid robot assistant for a preschool children
CN205540577U (zh) 虚拟教学视频直播装置
Orhani Robots Assist or Replace Teachers in the Classroom
Yashiro et al. Plugramming: A tangible programming tool for children’s collaborative learning
Ito Pictoch: A Block-based Programming Learning Environment through Pictogram Content Creation
Akter et al. Development and design of a humanoid Robot system MIRAA: intelligent & autonomous mobile assistant
Rizzo et al. UAPPI: A platform for extending app inventor towards the worlds of IoT and machine learning
Colby American sign language gesture recognition using motion tracking gloves in vr
Chou et al. A mandarin phonetic-symbol communication aid developed on tablet computers for children with high-functioning autism
Šperka Past and future of Human—Computer Interaction
KR102213354B1 (ko) 로봇과 페어링하여 코딩 교육을 제공하는 코딩펜 및 동작 방법
Polyntsev et al. ‘MEOW’–A Social Robot Platform for School
Angelini A framework for abstracting, designing and building tangible gesture interactive systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161201

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171201

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee