KR20190047640A - 전력 및 모션 감응형 교육용 로봇 - Google Patents

전력 및 모션 감응형 교육용 로봇 Download PDF

Info

Publication number
KR20190047640A
KR20190047640A KR1020180130183A KR20180130183A KR20190047640A KR 20190047640 A KR20190047640 A KR 20190047640A KR 1020180130183 A KR1020180130183 A KR 1020180130183A KR 20180130183 A KR20180130183 A KR 20180130183A KR 20190047640 A KR20190047640 A KR 20190047640A
Authority
KR
South Korea
Prior art keywords
power
motion
educational robot
user
sensitive
Prior art date
Application number
KR1020180130183A
Other languages
English (en)
Other versions
KR102191488B1 (ko
Inventor
윤주현
이민구
김우리
안지윤
이용현
홍정국
심연보
김진호
김동완
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of KR20190047640A publication Critical patent/KR20190047640A/ko
Application granted granted Critical
Publication of KR102191488B1 publication Critical patent/KR102191488B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

전력 및 모션 감응형 교육용 로봇은, 사용자가 착용한 웨어러블 디바이스로부터 사물을 촬영한 이미지를 수신하는 통신부, 상기 수신한 이미지에 포함된 사물의 종류를 인식하기 위한 제어부, 상기 인식된 사물의 종류에 대응되는 영상 및 음성을 출력하기 위한 출력부 및 상기 사용자로부터 일정 거리 이내의 범위에서 이동하도록 하기 위한 이동부를 포함하며, 상기 제어부는 상기 전력 및 모션 감응형 교육용 로봇에 전력을 공급하는 전력 공급 시스템상의 예비전력 및 수요전력에 감응하여 상기 전력 및 모션 감응형 교육용 로봇이 동작하도록 제어한다.

Description

전력 및 모션 감응형 교육용 로봇 {POWER AND MOTION SENSITIZED EDUCATION ROBOT}
본 명세서에서 개시되는 실시예들은 영유아의 인지 능력 향상 및 언어 학습을 위한 전력 및 모션 감응형 교육용 로봇에 관한 것이다.
영유아 시기는 인지적 언어적 능력이 급격하게 발달되는 시기로서 이 시기에 적절하고 충분한 교육을 제공하는 것이 중요하다. 영유아에게 교육을 제공하는 방법으로는 예를 들어, 부모가 사물들의 이름을 가르쳐주거나 영유아의 행동에 반응하여 시각적 청각적 자극을 제공함으로써 영유아가 사물의 이름이나 행동의 의미를 인지하고 그에 대응되는 언어를 학습하도록 할 수 있다.
하지만, 부모가 직접 영유아에게 교육을 제공하는 데에는 시간적으로 한계가 있고, 특히 요즘은 맞벌이를 하는 부모가 많아 영유아의 곁에 머무는 시간이 더욱 줄어든 것이 현실이다.
이러한 상황을 고려하여 부모 대신 영유아에게 교육을 제공할 수 있는 디바이스나 로봇 등의 개발에 대한 수요가 높아지고 있다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은, 영유아의 인지 능력 향상 및 언어 학습을 위한 전력 및 모션 감응형 교육용 로봇을 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 전력 및 모션 감응형 교육용 로봇은, 사용자가 착용한 웨어러블 디바이스로부터 사물을 촬영한 이미지를 수신하는 통신부, 상기 수신한 이미지에 포함된 사물의 종류를 인식하기 위한 제어부, 상기 인식된 사물의 종류에 대응되는 영상 및 음성을 출력하기 위한 출력부 및 상기 사용자로부터 일정 거리 이내의 범위에서 이동하도록 하기 위한 이동부를 포함하며, 상기 제어부는 상기 전력 및 모션 감응형 로봇 장치에 전력을 공급하는 전력 공급 시스템상의 예비전력 및 수요전력에 감응하여 상기 전력 및 모션 감응형 교육용 로봇 장치가 동작하도록 제어할 수 있다.
다른 실시예에 따르면, 전력 및 모션 감응형 교육용 로봇 및 웨어러블 디바이스를 이용한 교육 제공 방법은, 상기 웨어러블 디바이스를 착용한 사용자의 손이 가리키는 방향에 위치하는 사물을, 상기 웨어러블 디바이스에 구비된 카메라를 이용해 촬영하는 단계, 상기 촬영된 이미지를 상기 전력 및 모션 감응형 교육용 로봇에 전송하는 단계, 상기 전력 및 모션 감응형 교육용 로봇이 상기 수신한 이미지에 포함된 사물의 종류를 인식하는 단계 및 상기 전력 및 모션 감응형 교육용 로봇이 상기 인식된 사물의 종류에 대응되는 영상 및 음성을 출력하는 단계를 포함하며, 상기 전력 및 모션 감응형 교육용 로봇은, 상기 사용자로부터 일정 거리 이내의 범위에서 이동하고, 상기 전력 및 모션 감응형 교육용 로봇에 전력을 공급하는 전력 공급 시스템상의 예비전력 및 수요전력에 감응하여 동작하는 것을 특징으로 할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 사용자의 손목에 착용되는 웨어러블 디바이스에 구비된 카메라를 통해 사용자의 손이 가리키는 사물을 촬영한 후 사물의 종류를 인식하고, 사용자 주변을 이동하는 로봇을 통해 사물의 종류를 영상 및 음성으로 출력함으로써 영유아가 사물의 종류를 인식하고 언어를 학습할 수 있도록 하는 효과를 기대할 수 있다.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇이 사용되는 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 사용자의 손목에 착용 가능한 팔찌 형태의 웨어러블 디바이스를 도시한 도면이다.
도 3은 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇에 포함되는 구성들을 도시한 블록도이다.
도 4는 일 실시예에 따른 웨어러블 디바이스에 포함되는 구성들을 도시한 블록도이다.
도 5는 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇 및 웨어러블 디바이스를 이용하여 사용자에게 교육을 제공하는 과정을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇이 사용되는 환경을 설명하기 위한 도면이다.
도 1을 참조하면, 사용자(10)의 손목에는 팔찌 형태의 웨어러블 디바이스(200)가 착용된다. 이때, 사용자(10)는 일반적으로 교육을 받기 위한 영유아가 될 수 있으며, 웨어러블 디바이스(200)는 팔찌 형태인 것을 예로 들었지만 이와 다르게 사용자(10)의 머리에 착용되는 헤어 밴드나 헬멧 형태일 수도 있고 그 밖에도 다양한 형태로 구현될 수 있다.
도 2는 일 실시예에 따른 사용자의 손목에 착용 가능한 팔찌 형태의 웨어러블 디바이스를 도시한 도면이다.
도 2를 참조하면, 웨어러블 디바이스(200)에는 카메라(210)가 구비되어 있다. 따라서, 웨어러블 디바이스(200)는 사용자(10)의 손이 가리키는 방향을 카메라(210)를 통해 촬영할 수 있다.
다시 도 1로 돌아와서, 사용자(10)가 손을 들어 사물을 가리키면 웨어러블 디바이스(200)는 구비된 카메라로 사물을 촬영한다. 도 1에서는 사용자(10)가 텔레비전(20)을 손으로 가리키고 있으므로 웨어러블 디바이스(200)의 카메라가 텔레비전(20)을 촬영한다.
웨어러블 디바이스(200)가 촬영한 이미지는 딥러닝 네트워크를 통해 처리되어 이미지 내에 포함된 사물의 종류가 인식된다. 이때, 딥러닝 네트워크를 통한 이미지 처리는 웨어러블 디바이스(200) 내에서 수행될 수도 있고, 또는 전력 및 모션 감응형 교육용 로봇(100)에서 수행될 수도 있다.
웨어러블 디바이스(200)가 딥러닝 네트워크를 통한 이미지 처리를 수행하는 경우, 웨어러블 디바이스(200)는 인식된 사물의 종류에 대한 데이터를 전력 및 모션 감응형 교육용 로봇(100)에 전송할 수 있다.
반면, 전력 및 모션 감응형 교육용 로봇(100)이 딥러닝 네트워크를 통한 이미지 처리를 수행하는 경우, 웨어러블 디바이스(200)는 촬영된 이미지 데이터를 전력 및 모션 감응형 교육용 로봇(100)에 전송하고, 전력 및 모션 감응형 교육용 로봇(100)은 수신한 이미지를 딥러닝 네트워크를 통해 처리함으로써 이미지 내에 포함된 사물의 종류를 인식할 수 있다.
전력 및 모션 감응형 교육용 로봇(100)은 인식된 사물의 종류에 대응되는 영상 및 음성을 출력부(110)를 통해 출력할 수 있다. 도 1을 참조하면, 웨어러블 디바이스(200)에 의해 촬영된 사물은 텔레비전(20)이므로, 전력 및 모션 감응형 교육용 로봇(100)은 출력부(110)에 텔레비전의 외형이 표시된 영상을 표시하고, “텔레비전”이라는 음성을 출력할 수 있다. 이때, 표시되는 영상은 실제 제품의 사진이 아닌 도안화된 이미지일 수도 있으며, 출력되는 음성은 다양한 언어 중 적어도 하나일 수 있다.
전력 및 모션 감응형 교육용 로봇(100)은 이동이 가능하며, 사용자(10)로부터 일정 거리 이내의 범위에 위치하도록 이동할 수 있다. 이와 같이 전력 및 모션 감응형 교육용 로봇(100)의 이동을 제어하기 위해, 전력 및 모션 감응형 교육용 로봇(100)은 웨어러블 디바이스(200)와의 무선 통신을 통해 서로간의 거리를 파악하거나, 웨어러블 디바이스(200)로부터 위치 정보를 수신하고 자신의 위치 정보와 비교할 수도 있다.
전력 및 모션 감응형 교육용 로봇(100)은 출력부(110)가 항상 사용자(10)를 향하도록 제어할 수도 있다. 예를 들어, 전력 및 모션 감응형 교육용 로봇(100)은 구비된 카메라를 통해 출력부(110)의 전방을 촬영하고, 촬영된 영상에 사용자(10)가 포함되는지를 판단함으로써 출력부(110)의 방향 전환을 제어할 수 있다.
이와 같이, 사용자(10)가 웨어러블 디바이스(200)를 착용한 손으로 사물을 가리키면, 해당 사물의 종류에 대응되는 영상 및 음성이 사용자(10)의 주변에서 이동하는 전력 및 모션 감응형 교육용 로봇(100)을 통해 출력됨으로써 사용자(10)는 사물의 종류를 학습할 수 있다.
도 3은 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇에 포함되는 구성들을 도시한 블록도이다.
도 3을 참조하면, 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇(100)은 출력부(110), 제어부(120), 저장부(130), 통신부(140) 및 이동부(150)를 포함할 수 있다.
출력부(110)는 영상을 표시하기 위한 디스플레이부(111) 및 음성을 출력하기 위한 스피커(112)를 포함하며, 웨어러블 디바이스(200)를 통해 촬영된 이미지에 포함된 사물의 종류에 대응되는 영상 및 음성을 출력할 수 있다.
제어부(120)는 CPU 등과 같은 적어도 하나의 프로세서를 포함하는 구성으로서, 전력 및 모션 감응형 교육용 로봇(100)의 전반적인 동작을 제어한다. 특히, 제어부(120)는 저장부(130)에 저장된 프로그램을 실행함으로써, 전력 및 모션 감응형 교육용 로봇(100)의 이동을 제어하거나, 웨어러블 디바이스(200)로부터 수신한 촬영 이미지를 딥러닝 네트워크를 통해 처리하여 이미지에 포함된 사물의 종류를 인식하거나, 또는 인식된 사물의 종류에 대응되는 영상 및 음성이 출력부(110)를 통해 출력되도록 제어할 수 있다.
제어부(120)는 전력 및 모션 감응형 교육용 로봇(100)이 전력 감응형으로 동작하도록 제어할 수도 있다. 구체적으로, 제어부(120)는 전력 및 모션 감응형 교육용 로봇(100)에 전력을 공급하는 전력 공급 시스템상의 예비전력 및 현재 수요전력과 같은 전력 상태를 파악하고, 파악한 전력 상태에 따라서 전력 및 모션 감응형 교육용 로봇(100)의 동작을 제어할 수 있다.
예를 들어, 제어부(120)는 예비전력이 일정 기준 이하이거나 현재 수요전력이 일정 기준을 초과하는 경우에는 전력 및 모션 감응형 교육용 로봇(100)이 소비하는 전력이 감소하도록 제어할 수 있다. 이를 위해, 제어부(120)는 전력 및 모션 감응형 교육용 로봇(100)의 이동을 최소화하거나, 디스플레이부(111)의 화면 밝기를 줄이거나, 스피커(112)의 출력 음량을 감소시킬 수 있다.
또는 예를 들어, 제어부(120)는 예비전력이 일정 기준을 초과하거나 현재 수요전력이 일정 기준 이하인 경우에는 전력 및 모션 감응형 교육용 로봇(100)이 필요한 전력을 모두 소비하면서 동작하도록 제어하고, 더 나아가 전력 및 모션 감응형 교육용 로봇(100)에 내장된 배터리를 충전할 수도 있다. 제어부(120)는 이와 같이 전력이 충분한 상황에서 전력 및 모션 감응형 교육용 로봇(100)에 내장된 배터리를 충전했다가 전력이 부족한 상황에서 배터리에 충전된 전력을 이용하도록 제어할 수도 있다.
저장부(130)에는 다양한 종류의 프로그램 및 데이터가 저장될 수 있다. 특히, 저장부(130)에는 전력 및 모션 감응형 교육용 로봇(100)의 동작이나 이동을 제어하기 위한 프로그램이나, 딥러닝 네트워크를 이용하기 위한 데이터가 저장될 수 있으며, 사물의 종류에 대응되는 영상 및 음성 출력을 위한 데이터베이스가 저장될 수도 있다.
통신부(140)는 웨어러블 디바이스(200)와 통신을 수행하기 위한 구성으로서 블루투스 등과 같은 무선 통신을 지원하는 칩셋 등과 같은 형태일 수 있다. 전력 및 모션 감응형 교육용 로봇(100)은 통신부(140)를 통해 웨어러블 디바이스(200)로부터 촬영 이미지를 수신하거나, 또는 촬영 이미지에 포함된 사물의 종류에 대한 데이터를 수신할 수도 있다.
이동부(150)는 전력 및 모션 감응형 교육용 로봇(100)가 이동하도록 하기 위한 구성이다. 이동부(150)는 제어부(120)의 제어에 따라서 전력 및 모션 감응형 교육용 로봇(100)의 이동을 제어하며, 제어부(120)는 전력 및 모션 감응형 교육용 로봇(100)이 사용자(10)로부터 일정 거리 이내의 범위에 위치하도록 이동부(150)를 제어할 수 있다.
도 4는 일 실시예에 따른 웨어러블 디바이스에 포함되는 구성들을 도시한 블록도이다.
도 4를 참조하면, 일 실시예에 따른 웨어러블 디바이스(200)는 카메라(210), 제어부(220), 저장부(230) 및 통신부(240)를 포함할 수 있다.
카메라(210)는 웨어러블 디바이스(200)를 착용한 사용자의 손이 가리키는 방향에 있는 사물을 촬영할 수 있도록 위치가 정해질 수 있다. 카메라(210)는 전방을 계속해서 촬영하거나 또는 특정 조건을 충족할 때 촬영할 수도 있는데, 일 실시예에 따르면 웨어러블 디바이스(200)는 가속도 센서 등을 이용하여 사용자가 손을 뻗는 동작을 인식하면, 카메라(210)가 촬영을 하도록 제어할 수 있다.
제어부(220)는 CPU 등과 같은 적어도 하나의 프로세서를 포함하는 구성으로서, 웨어러블 디바이스(200)의 전반적인 동작을 제어한다. 특히, 제어부(220)는 저장부(230)에 저장된 프로그램을 실행함으로써, 특정 조건 충족시 카메라(210)가 영상을 촬영하도록 하거나, 촬영된 이미지를 딥러닝 네트워크를 통해 처리함으로써 이미지에 포함된 사물의 종류를 인식할 수 있다.
저장부(230)에는 다양한 종류의 프로그램 및 데이터가 저장될 수 있다. 특히, 저장부(230)에는 카메라(210)의 촬영을 제어하거나 딥러닝 네트워크를 이용하기 위한 데이터가 저장될 수 있다.
통신부(240)는 전력 및 모션 감응형 교육용 로봇(100)과 통신을 수행하기 위한 구성으로서 블루투스 등과 같은 무선 통신을 지원하는 칩셋 등과 같은 형태일 수 있다. 웨어러블 디바이스(200)는 통신부(240)를 통해 전력 및 모션 감응형 교육용 로봇(100)에 촬영 이미지를 전송하거나, 또는 촬영 이미지에 포함된 사물의 종류에 대한 데이터를 전송할 수도 있다.
이하에서는 상술한 바와 같은 전력 및 모션 감응형 교육용 로봇(100) 및 웨어러블 디바이스(200)를 이용하여 사용자에게 교육을 제공하는 방법을 설명한다. 도 5는 일 실시예에 따른 전력 및 모션 감응형 교육용 로봇 및 웨어러블 디바이스를 이용하여 사용자에게 교육을 제공하는 과정을 설명하기 위한 순서도이다. 도 5에 도시된 실시예에 따른 교육 제공 방법은 도 1 내지 4에 도시된 전력 및 모션 감응형 교육용 로봇 및 웨어러블 디바이스에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 내지 4에 도시된 전력 및 모션 감응형 교육용 로봇 및 웨어러블 디바이스에 관하여 이상에서 기술한 내용은 도 5에 도시된 실시예에 따른 교육 제공 방법에도 적용될 수 있다.
도 5를 참조하면, 501 단계에서 사용자가 웨어러블 디바이스를 착용한 손을 들어 사물을 가리키면, 웨어러블 디바이스에 구비된 카메라를 통해 사물을 촬영한다. 이때, 웨어러블 디바이스는 사용자가 손을 뻗는 동작을 인식하면 카메라가 전방을 촬영하도록 제어할 수도 있다.
502 단계에서는 촬영된 이미지에 포함된 사물의 종류를 인식한다. 이때, 웨어러블 디바이스가 직접 촬영 이미지를 딥러닝 네트워크를 통해 처리함으로써 이미지에 포함된 사물의 종류를 인식할 수도 있고, 또는 웨어러블 디바이스가 촬영 이미지를 전력 및 모션 감응형 교육용 로봇에 전송하면 전력 및 모션 감응형 교육용 로봇이 수신한 촬영 이미지를 딥러닝 네트워크를 통해 처리함으로써 이미지에 포함된 사물의 종류를 인식할 수도 있다.
503 단계에서는 전력 및 모션 감응형 교육용 로봇의 디스플레이부 및 스피커를 통해 앞서 502 단계에서 인식된 사물의 종류에 대응되는 영상 및 음성을 출력할 수 있다. 이때, 출력되는 영상은 실제 사물의 사진이거나 또는 도안화된 이미지일 수 있으며, 출력되는 음성은 다양한 언어 중 적어도 하나일 수 있다.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
도 5를 통해 설명된 실시예에 따른 교육 제공 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.
또한 도 5를 통해 설명된 실시예에 따른 교육 제공 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 도 5를 통해 설명된 실시예에 따른 교육 제공 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
100: 전력 및 모션 감응형 교육용 로봇 110: 출력부
111: 디스플레이부 112: 스피커
120: 제어부 130: 저장부
140: 통신부 150: 이동부
200: 웨어러블 디바이스 210: 카메라
220: 제어부 230: 저장부
240: 통신부

Claims (6)

  1. 전력 및 모션 감응형 교육용 로봇 장치에 있어서,
    사용자가 착용한 웨어러블 디바이스로부터 사물을 촬영한 이미지를 수신하는 통신부;
    상기 수신한 이미지에 포함된 사물의 종류를 인식하기 위한 제어부;
    상기 인식된 사물의 종류에 대응되는 영상 및 음성을 출력하기 위한 출력부; 및
    상기 사용자로부터 일정 거리 이내의 범위에서 이동하도록 하기 위한 이동부를 포함하며,
    상기 제어부는,
    상기 전력 및 모션 감응형 교육용 로봇 장치에 전력을 공급하는 전력 공급 시스템상의 예비전력 및 수요전력에 감응하여 상기 전력 및 모션 감응형 교육용 로봇 장치가 동작하도록 제어하는, 장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 출력부의 방향이 항상 상기 사용자를 향하도록 제어하는 것을 특징으로 하는 장치.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 수신한 이미지를 딥러닝 네트워크를 통해 처리함으로써 상기 수신한 이미지에 포함된 사물의 종류를 인식하는 것을 특징으로 하는 장치.
  4. 전력 및 모션 감응형 교육용 로봇 및 웨어러블 디바이스를 이용한 교육 제공 방법에 있어서,
    상기 웨어러블 디바이스를 착용한 사용자의 손이 가리키는 방향에 위치하는 사물을, 상기 웨어러블 디바이스에 구비된 카메라를 이용해 촬영하는 단계;
    상기 촬영된 이미지를 상기 전력 및 모션 감응형 교육용 로봇에 전송하는 단계;
    상기 전력 및 모션 감응형 교육용 로봇이 상기 수신한 이미지에 포함된 사물의 종류를 인식하는 단계; 및
    상기 전력 및 모션 감응형 교육용 로봇이 상기 인식된 사물의 종류에 대응되는 영상 및 음성을 출력하는 단계를 포함하며,
    상기 전력 및 모션 감응형 교육용 로봇은, 상기 사용자로부터 일정 거리 이내의 범위에서 이동하고, 상기 전력 및 모션 감응형 교육용 로봇에 전력을 공급하는 전력 공급 시스템상의 예비전력 및 수요전력에 감응하여 동작하는 것을 특징으로 하는, 방법.
  5. 제4항에 있어서,
    상기 전력 및 모션 감응형 교육용 로봇은,
    상기 영상 및 음성을 출력하는 출력부의 방향이 항상 상기 사용자를 향하도록 제어하는 것을 특징으로 하는 방법.
  6. 제4항에 있어서,
    상기 전력 및 모션 감응형 교육용 로봇은,
    상기 수신한 이미지를 딥러닝 네트워크를 통해 처리함으로써 상기 수신한 이미지에 포함된 사물의 종류를 인식하는 것을 특징으로 하는 방법.
KR1020180130183A 2017-10-27 2018-10-29 전력 및 모션 감응형 교육용 로봇 KR102191488B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170141541 2017-10-27
KR1020170141541 2017-10-27

Publications (2)

Publication Number Publication Date
KR20190047640A true KR20190047640A (ko) 2019-05-08
KR102191488B1 KR102191488B1 (ko) 2020-12-15

Family

ID=66580536

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180130183A KR102191488B1 (ko) 2017-10-27 2018-10-29 전력 및 모션 감응형 교육용 로봇

Country Status (1)

Country Link
KR (1) KR102191488B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223540A (zh) * 2019-06-13 2019-09-10 广东小天才科技有限公司 一种学习机器人信息互动学习方法和系统,及存储介质
CN110580827A (zh) * 2019-08-14 2019-12-17 张忠 一种具有掉落保护的教学展示智能移动机器人
CN113160629A (zh) * 2021-05-06 2021-07-23 吉林工程技术师范学院 一种具有情感识别功能的人机协同学习用教育机器人
WO2022035054A1 (ko) * 2020-08-14 2022-02-17 삼성전자주식회사 로봇 및 이의 제어 방법
WO2024043489A1 (ko) * 2022-08-24 2024-02-29 삼성전자주식회사 로봇 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
JP4512830B2 (ja) * 2006-02-20 2010-07-28 国立大学法人埼玉大学 コミュニケーションロボット
KR101088406B1 (ko) * 2008-06-27 2011-12-01 주식회사 유진로봇 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법
KR20120014854A (ko) * 2010-08-10 2012-02-20 주식회사 에듀윈 어학 학습기
KR101678292B1 (ko) 2015-02-03 2016-11-21 아주대학교산학협력단 웨어러블 디바이스를 이용한 사물 인터넷 기기의 제어 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4512830B2 (ja) * 2006-02-20 2010-07-28 国立大学法人埼玉大学 コミュニケーションロボット
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
KR101088406B1 (ko) * 2008-06-27 2011-12-01 주식회사 유진로봇 유아교육시 로봇을 이용한 양방향 학습 시스템 및 그 운영방법
KR20120014854A (ko) * 2010-08-10 2012-02-20 주식회사 에듀윈 어학 학습기
KR101678292B1 (ko) 2015-02-03 2016-11-21 아주대학교산학협력단 웨어러블 디바이스를 이용한 사물 인터넷 기기의 제어 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110223540A (zh) * 2019-06-13 2019-09-10 广东小天才科技有限公司 一种学习机器人信息互动学习方法和系统,及存储介质
CN110580827A (zh) * 2019-08-14 2019-12-17 张忠 一种具有掉落保护的教学展示智能移动机器人
CN110580827B (zh) * 2019-08-14 2021-04-27 南京浦创智谷企业管理有限公司 一种具有掉落保护的教学展示智能移动机器人
WO2022035054A1 (ko) * 2020-08-14 2022-02-17 삼성전자주식회사 로봇 및 이의 제어 방법
CN113160629A (zh) * 2021-05-06 2021-07-23 吉林工程技术师范学院 一种具有情感识别功能的人机协同学习用教育机器人
WO2024043489A1 (ko) * 2022-08-24 2024-02-29 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
KR102191488B1 (ko) 2020-12-15

Similar Documents

Publication Publication Date Title
KR20190047640A (ko) 전력 및 모션 감응형 교육용 로봇
JP6481866B2 (ja) 情報処理装置、撮像装置、情報処理方法、及び、プログラム
JP2019071048A (ja) 一人称視点でのディープラーニングベースのハンドジェスチャー認識のためのシステムおよび方法
CN108353129B (zh) 拍摄设备及其控制方法
WO2019019232A1 (zh) 基于vr头戴设备播放视频的方法及vr头戴设备
EP3743788A1 (en) Method and device for presenting synthesized reality content in association with recognized objects
WO2019015249A1 (zh) 基于虚拟现实的图像显示方法和装置、虚拟现实头盔设备
US20240054734A1 (en) Method and device for presenting an audio and synthesized reality experience
US11699270B2 (en) Computationally efficient model selection
CN106210699B (zh) 信息处理装置、信息处理装置的控制方法及图像处理系统
US20240094815A1 (en) Method and device for debugging program execution and content playback
US20210058609A1 (en) Information processor, information processing method, and program
WO2020219643A1 (en) Training a model with human-intuitive inputs
US11836842B2 (en) Moving an avatar based on real-world data
US11328456B2 (en) Method and device for presenting synthesized reality companion content
US11120612B2 (en) Method and device for tailoring a synthesized reality experience to a physical setting
US11647260B2 (en) Content event mapping
US20210201108A1 (en) Model with multiple concurrent timescales
EP3914998A1 (en) Method and device for sketch-based placement of virtual objects
US10013736B1 (en) Image perspective transformation system
CN212541342U (zh) 一种多模态的沉浸式vr体验学习平台
US20220180473A1 (en) Frame Rate Extrapolation
US11386653B2 (en) Method and device for generating a synthesized reality reconstruction of flat video content
US20220012951A1 (en) Generating Adapted Virtual Content to Spatial Characteristics of a Physical Setting
CN115802021A (zh) 体积视频生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant