KR20170055040A - 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템 - Google Patents

스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템 Download PDF

Info

Publication number
KR20170055040A
KR20170055040A KR1020150157199A KR20150157199A KR20170055040A KR 20170055040 A KR20170055040 A KR 20170055040A KR 1020150157199 A KR1020150157199 A KR 1020150157199A KR 20150157199 A KR20150157199 A KR 20150157199A KR 20170055040 A KR20170055040 A KR 20170055040A
Authority
KR
South Korea
Prior art keywords
smart
robot
module
smart robot
terminal
Prior art date
Application number
KR1020150157199A
Other languages
English (en)
Other versions
KR101864142B1 (ko
Inventor
정원민
김화진
Original Assignee
(주)이산솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이산솔루션 filed Critical (주)이산솔루션
Priority to KR1020150157199A priority Critical patent/KR101864142B1/ko
Publication of KR20170055040A publication Critical patent/KR20170055040A/ko
Application granted granted Critical
Publication of KR101864142B1 publication Critical patent/KR101864142B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S10/00Lighting devices or systems producing a varying lighting effect
    • F21S10/02Lighting devices or systems producing a varying lighting effect changing colors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • H05B37/0227
    • H05B37/0245
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Toys (AREA)

Abstract

본 발명은 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템에 관한 것으로, 사용자의 감성에 반응하여 빛의 색상 또는 조도를 변화하면서 동작되도록 LED 모듈이 구비되는 감성반응 스마트 로봇과, 상기 감성반응 스마트 로봇과 유/무선 통신을 통해 서로 연결되며, 스마트 로봇제어용 응용프로그램의 실행을 통해 미리 설치된 감성표현 생성엔진모듈과 연동하여, 입력된 사용자의 음성을 기반으로 사용자의 기분변화에 따른 감성을 분석하고, 상기 분석된 사용자의 감성에 따라 상기 감성반응 스마트 로봇의 LED 모듈이 동작되도록 제어하는 스마트 단말을 포함함으로써, 사용자와 감성적 친밀감을 유도할 수 있을 뿐만 아니라 사용자와의 감성교류를 통한 생활공간 내 사용자 생활수준을 보다 높일 수 있는 효과가 있다.

Description

스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템{SYSTEM FOR CONTROLING SMART ROBOT USING SMART TERMINAL}
본 발명은 스마트 단말을 이용하여 인간의 감성에 반응하고 감정표현이 가능한 감성반응 스마트 로봇(Smart Robot)을 제어하기 위한 시스템에 관한 것이다.
일반적으로, 스마트 단말(Smart Terminal)(예컨대, 스마트폰, 스마트패드 등)은 음성 통화를 기본으로 일정관리 등을 제공하였으나, 점차로 통신기술이 발전하면서 인터넷을 비롯한 데이터 통신까지 가능해졌다.
또한, 전자기기의 기술도 함께 발전하면서 대부분의 스마트 단말 내에 카메라를 내장하게 되었으며, 점차로 스마트 단말이 작은 컴퓨터의 역할까지 할 수 있게 되었다. 이처럼 다양한 작업을 할 수 있는 형태의 장치를 스마트 단말이라 한다.
즉, 스마트 단말은 기본적인 전화 기능에 손안의 컴퓨터라 불릴 정도의 다양한 기능들을 수행할 수 있는 전자기기가 되었다. 이러한 스마트 단말에서는 전화의 기능을 수행할 수 있으며, 부가적으로 다른 적어도 하나의 무선 매체와 통신이 가능하며, 카메라를 통해 사진 촬영, 동영상의 촬영은 물론 그 밖에 다양한 서비스들이 가능하다.
한편, 최근 로봇 기술이 발전하면서 다양한 분야에 로봇장치들이 사용되고 있다. 이러한 로봇장치들은 최첨단 산업분야에 사용되는 고가의 로봇장치로부터 쉽게는 아이들의 장난감 로봇까지 다양한 형태를 취하고 있다. 아이들의 장난감 또는 학습용 로봇장치도 있다.
이러한 로봇장치들은 저가형 로봇장치로 소리를 내거나 또는 로봇의 움직임 예를 들어 걷는 동작, 팔을 움직이는 동작 등의 움직임이 있고, 또 다른 형태로는 사진 또는 동영상을 재생하도록 하는 등의 기능을 갖춘 로봇 등도 있다.
다른 한편, 이러한 놀이용 또는 학습용 로봇장치를 스마트 단말과 연계하기 위한 노력들이 이루어지고 있다. 이러한 필요는 스마트 단말의 활용도를 높일 뿐 아니라 놀이용 또는 학습용 로봇장치의 역할을 증대시킬 수 있기 때문이다. 또한, 이러한 로봇장치의 역할 증대로 인해 다양한 형태의 놀이 또는 교육이 이루어질 수 있기 때문이다.
따라서, 이러한 형태의 전자기기들과 스마트 단말을 연계하기 위한 다양한 기능들이 더욱 요구되고 있다. 최근에는 스마트 단말을 장착한 상태로 이동될 수 있는 다양한 형태의 로봇들이 개발되고 있다.
그러나, 이러한 로봇들은 스마트 단말과 일체로 형성되어 있는 로봇이거나, 또는 단순히 스마트 단말을 거치하고 이동할 수 있는 로봇이거나, 또는 전용 스마트 단말 만이 이용 가능한 로봇 형태로 제작되고 있기 때문에, 현재 이용 가능한 모든 스마트 단말에 범용적으로 이용될 수 없으며, 스마트 단말의 각종 기능들 또는 응용프로그램들을 이용할 수 없다는 한계를 가지고 있다.
우선, 스마트 단말과 일체로 형성되어 있는 로봇은 상기한 바와 같이 다른 종류의 스마트 단말이 적용될 수 없다는 한계를 가지고 있고, 스마트 단말을 거치하고 이동하는 로봇은 스마트 단말의 각종 기능들 또는 응용프로그램들을 이용할 수 없다는 한계를 가지고 있으며, 전용 스마트 단말을 이용한 로봇의 경우에는 이용 가능한 스마트 단말에 한계가 있을 뿐만 아니라, 각종 응용프로그램이 로봇 자체에 내장되어 있기 때문에 로봇을 위한 별도의 응용프로그램이 개발되어야 한다는 한계를 가지고 있다.
즉, 상기한 바와 같은 종래의 로봇들은 스마트 단말과의 연계성이 미흡하다는 단점을 가지고 있다. 부연하여 설명하면, 종래의 로봇은 다양한 기능을 수행하기 위해 요구되는 응용프로그램(Application)이 스마트 단말의 응용프로그램과는 별도로 개발이 진행되어야 하는 것으로서, 스마트 단말에 탑재되어 있거나, 또는 스마트 단말에 탑재가 가능한 각종 응용프로그램들을 이용하지 못하고 있다는 한계를 가지고 있다.
한편, 요즘에는 감성기반 사회로 패러다임이 바뀌어 가고 있음에 따라 감성기반 시대의 패러다임에 맞춰 인간의 동반자 역할을 위한 로봇기술의 개발과 연구가 활발해지고 있다.
더불어 시장의 사용자들 또한 이러한 감성기반의 로봇을 통해 공존하고 로봇이 사람의 감정을 이해하고 사람에게 맞는 정서적 서비스를 제공받고자하는 욕구가 증가하고 있다. 이러한 시대의 욕구를 만족시킬 수 있는 대중적이고 혁신적인 감성반응 로봇 개발이 필요한 실정이다.
국내특허등록 제10-1053875호
본 발명은 전술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 스마트 단말에 구비된 다양한 센서 정보와 기능들을 두뇌와 입력장치로 활용하여 사용자의 감성변화에 따라 감성반응 스마트 로봇이 상황에 맞는 감성을 표현하도록 함으로써, 사용자와 감성적 친밀감을 유도할 수 있을 뿐만 아니라 사용자와의 감성교류를 통한 생활공간 내 사용자 생활수준을 보다 높일 수 있도록 한 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템을 제공하는데 있다.
본 발명의 다른 목적은 오픈소스(Open Source)의 그래픽 사용자 인터페이스(Graphical User Interface, GUI) 기반의 응용프로그램(Application)을 이용하여 전문가가 아니더라도 일반 사용자가 손쉽게 사용자 맞춤형 프로젝트(Project)를 제작하여 스마트 단말과 유/무선 통신을 통해 서로 연결된 감성반응 스마트 로봇을 사용자의 니즈(needs)에 따라 다양하게 제어할 수 있도록 한 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템을 제공하는데 있다.
본 발명의 또 다른 목적은 오픈소스의 그래픽 사용자 인터페이스(GUI) 기반의 응용프로그램을 통해 제작된 사용자 맞춤형 프로젝트의 콘텐츠 파일을 스마트 단말에 탑재된 스마트 로봇제어용 응용프로그램에서 실행되도록 제어함으로써, 스마트 단말의 각종 센서와 기능들을 이용하여 감성반응 스마트 로봇과 연동되도록 제어할 수 있는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템을 제공하는데 있다.
전술한 목적을 달성하기 위하여 본 발명의 일 측면은, 사용자의 감성에 반응하여 빛의 색상 또는 조도를 변화하면서 동작되도록 LED 모듈이 구비되는 감성반응 스마트 로봇; 및 상기 감성반응 스마트 로봇과 유/무선 통신을 통해 서로 연결되며, 스마트 로봇제어용 응용프로그램의 실행을 통해 미리 설치된 감성표현 생성엔진모듈과 연동하여, 입력된 사용자의 음성 또는 영상을 기반으로 사용자의 기분변화에 따른 감성을 분석하고, 상기 분석된 사용자의 감성에 따라 상기 감성반응 스마트 로봇의 LED 모듈이 동작되도록 제어하는 스마트 단말을 포함하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템을 제공하는 것이다.
여기서, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 푸시(push)알림 서비스 기능을 갖는 적어도 하나의 특정 애플리케이션과 연동하여, 각 특정 애플리케이션의 푸시알림 발생 시 사용자에 의해 미리 설정된 빛의 색상으로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어함이 바람직하다.
바람직하게, 상기 특정 애플리케이션은, 소셜네트워크서비스(SNS)관련 애플리케이션, 문자메시지관련 애플리케이션, 메신저관련 애플리케이션 및 통화관련 애플리케이션 중 적어도 어느 하나로 이루어질 수 있다.
바람직하게, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 날씨관련 애플리케이션과 연동하여, 상기 날씨관련 애플리케이션으로부터 실시간 날씨 정보를 제공받아 현재 날씨상황에 따라 미리 설정된 빛의 색상 및 조도로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 사용자의 심박수 측정 애플리케이션과 연동하여, 상기 심박수 측정 애플리케이션으로부터 측정된 사용자의 심박수를 분석하고, 상기 분석된 사용자의 심박수에 따라 미리 설정된 빛의 색상 또는 조도로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 스마트 단말은, 상기 심박수 측정 애플리케이션으로부터 측정된 사용자의 심박수를 분석하고, 상기 분석된 사용자의 심박수 정보를 별도의 메모리부에 저장함과 동시에 미리 설정된 사용자 단말로 전송할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 음성인식모듈과 연동하여, 외부로부터 입력된 음악의 장르와 템포를 분석하고, 상기 분석된 음악의 장르와 템포에 따라 미리 설정된 빛의 색상이 변화하면서 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어함과 동시에 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 중력 센서모듈, 가속도 센서모듈, 자이로 센서모듈 및 근접 센서모듈 중 적어도 어느 하나의 센서모듈과 연동하여, 각 센서모듈로부터 검출된 센싱 값을 이용하여 사용자의 동작 패턴을 분석하고, 상기 분석된 사용자의 동작 패턴에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 구비된 터치입력모듈과 연동하여, 상기 터치입력모듈로부터 검출된 터치입력 값을 이용하여 사용자의 동작 패턴을 분석하고, 상기 분석된 사용자의 동작 패턴에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 음성인식모듈과 연동하여, 외부로부터 입력된 사용자의 음성을 분석하고, 상기 분석된 사용자의 음성에 따라 빛의 색상 또는 조도로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어하거나, 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 게임관련 애플리케이션과 연동하여, 상기 게임관련 애플리케이션으로부터 사용자의 게임객체 이동을 분석하고, 상기 분석된 사용자의 게임객체 이동에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 음악관련 애플리케이션과 연동하여, 상기 분석된 사용자의 감성에 따라 상기 음악관련 애플리케이션을 통해 음악을 선곡하고, 상기 선곡된 음악의 장르와 템포를 분석하여, 상기 분석된 음악의 장르와 템포에 따라 미리 설정된 빛의 색상이 변화하면서 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어함과 동시에 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 여러 가지 색상을 인식하기 위한 컬러인식 센서모듈 및 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 감성반응 스마트 로봇의 컬러인식 센서모듈로부터 인식된 색상에 대한 정보를 제공받아 이를 바탕으로 상기 인식된 색상을 따라 상기 감성반응 스마트 로봇이 이동되도록 상기 액츄에이터 모듈의 동작을 제어하거나, 상기 인식된 색상과 동일한 색상으로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어할 수 있다.
바람직하게, 상기 액츄에이터 모듈은, 상기 감성반응 스마트 로봇의 전체적인 몸체를 이루는 본체 내부에 고정결합되는 모듈 하우징; 각각의 회전축이 서로 대향되게 배치되도록 상기 모듈 하우징에 장착되는 한 쌍의 모터; 각각의 외주면에 실리콘 링이 장착되며, 각 모터의 회전축에 접촉되어 회전마찰에 의해 회전되도록 상기 모듈 하우징의 양측에 결합되는 한 쌍의 미들 휠; 및 각각의 외주면에 실리콘 링이 장착되며, 각 미들 휠에 구비된 회전축의 길이방향으로 연장된 원기둥형의 돌출부와 접촉되어 회전마찰에 의해 회전되도록 상기 모듈 하우징의 양측에 결합되는 한 쌍의 구동 휠로 이루어지되, 각 구동 휠의 회전에 따라 상기 감성반응 스마트 로봇의 전체적인 몸체를 이루는 본체가 이동될 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 음성 신호를 출력하는 음성출력모듈이 더 구비되고, 상기 스마트 단말은, 상기 분석된 사용자의 감성에 따라 미리 설정된 음성 신호가 출력되도록 상기 음성출력모듈의 동작을 제어할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇의 오픈 API 라이브러리를 제공받아 미리 정의된 포맷으로 변환 및 가공하여 상기 감성반응 스마트 로봇의 제어를 위한 GUI 기반의 응용프로그램에 필요한 기능블록 설명정보와 기능블록 실행엔진을 생성하는 개발자 서버; 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 설명정보를 제공받아 스마트 로봇별로 데이터베이스화하여 저장 및 관리하는 블록관리서버; 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받아 운영체제 환경별로 데이터베이스화하여 저장 및 관리하는 실행엔진 관리서버; 및 상기 블록관리서버로부터 감성반응 스마트 로봇의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 편집된 사용자 맞춤형 프로젝트에 대한 콘텐츠 파일을 생성하는 사용자 단말이 더 포함되되, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램을 통해 해당 감성반응 스마트 로봇을 식별하여 상기 실행엔진 관리서버로부터 해당 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받아 이를 바탕으로 상기 사용자 단말로부터 생성된 콘텐츠 파일의 실행 로직에 따라 해당 감성반응 스마트 로봇의 동작을 제어할 수 있다.
바람직하게, 상기 GUI 기반의 응용프로그램은, 오픈소스의 스크래치(Scratch) 프로그램으로 이루어질 수 있다.
바람직하게, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보는, 응용프로그램 패키지(Application Package, APK) 파일 형태로 이루어지며, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진과 연결되도록 링크 정보를 포함할 수 있다.
바람직하게, 상기 블록관리서버는, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 설명정보를 제공받아 이를 별도의 블록관리 웹서버에 등록하고, 상기 사용자 단말을 통해 상기 블록관리 웹서버에 등록된 감성반응 스마트 로봇의 기능블록 설명정보를 다운로드받을 수 있도록 웹서비스를 제공할 수 있다.
바람직하게, 상기 실행엔진 관리서버는, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받아 이를 별도의 엔진관리 웹서버에 등록하고, 상기 스마트 단말을 통해 상기 엔진관리 웹서버에 등록된 각 스마트 로봇의 기능블록 실행엔진에 대한 정보를 다운로드받을 수 있도록 웹서비스를 제공할 수 있다.
바람직하게, 상기 사용자 단말로부터 생성된 콘텐츠 파일은, '*.sbx'의 확장자를 가진 파일 형태로 이루어질 수 있다.
바람직하게, 상기 감성반응 스마트 로봇은, 상기 사용자 단말로부터 생성된 콘텐츠 파일의 실행 로직에 따라 상기 스마트 단말에서 지시한 명령을 수행하고, 적어도 하나의 로봇 센서로부터 취득한 정보를 상기 스마트 단말로 제공할 수 있다.
바람직하게, 상기 스마트 단말은, 상기 사용자 단말로부터 생성된 콘텐츠 파일을 제공받아 상기 스마트 로봇제어용 응용프로그램을 이용하여 상기 콘텐츠 파일의 실행 로직에 따라 모션 또는 빛의 발광 수행을 위한 제어신호를 발생시켜 유/무선 통신을 통해 해당 감성반응 스마트 로봇으로 전송하고, 상기 감성반응 스마트 로봇은, 상기 스마트 단말로부터 전송되는 제어신호를 수신하고, 상기 수신된 제어신호에 대응하는 모션 또는 빛의 발광을 수행할 수 있다.
바람직하게, 상기 스마트 단말은, 상기 실행엔진 관리서버로부터 자신의 운영체제 환경에 맞으면서 상기 식별된 감성반응 스마트 로봇과 동일한 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받을 수 있다.
바람직하게, 상기 개발자 서버는, 상기 스마트 단말의 오픈 API 라이브러리를 제공받아 미리 정의된 포맷으로 변환 및 가공하여 상기 스마트 단말의 제어를 위한 GUI 기반의 응용프로그램에 필요한 기능블록 설명정보와 기능블록 실행엔진을 생성하고, 상기 블록관리서버는, 상기 개발자 서버로부터 생성된 상기 스마트 단말의 기능블록 설명정보를 제공받아 스마트 단말별로 데이터베이스화하여 저장 및 관리하고, 상기 실행엔진 관리서버는, 상기 개발자 서버로부터 생성된 상기 스마트 단말의 기능블록 실행엔진에 대한 정보를 제공받아 운영체제 환경별 및 스마트 단말별로 데이터베이스화하여 저장 및 관리하고, 상기 사용자 단말은, 상기 블록관리서버로부터 상기 스마트 단말의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 편집된 사용자 맞춤형 프로젝트에 대한 콘텐츠 파일을 생성하고, 상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램을 통해 상기 실행엔진 관리서버로부터 자신의 운영체제 환경에 맞는 스마트 단말의 기능블록 실행엔진에 대한 정보를 제공받아 이를 바탕으로 상기 사용자 단말로부터 생성된 콘텐츠 파일의 실행 로직에 따라 해당 스마트 단말의 기능과 연동하여 해당 스마트 로봇의 동작을 제어할 수 있다.
바람직하게, 상기 유선 통신은, USB(Universal Serial Bus) 데이터 통신을 이용하며, 상기 무선 통신은, 근거리무선통신(NFC), 무선식별(RFID), 블루투스(Bluetooth), 지그비(Zigbee) 중 선택된 어느 하나를 이용할 수 있다.
바람직하게, 상기 감성반응 스마트 로봇의 전체적인 몸체를 이루도록 형성된 본체는, 상기 본체의 외측면에 사용자들이 선호하는 별도의 캐릭터를 입히거나 부착물을 붙이거나, 필기도구나 채색도구를 이용하여 꾸밀 수 있도록 투명 또는 반투명의 플라스틱 재질로 형성됨과 아울러 큐브(Cube) 형태로 이루어질 수 있다.
이상에서 설명한 바와 같은 본 발명의 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템에 따르면, 스마트 단말에 구비된 다양한 센서 정보와 기능들을 두뇌와 입력장치로 활용하여 사용자의 감성변화에 따라 감성반응 스마트 로봇이 상황에 맞는 감성을 표현하도록 함으로써, 사용자와 감성적 친밀감을 유도할 수 있을 뿐만 아니라 사용자와의 감성교류를 통한 생활공간 내 사용자 생활수준을 보다 높일 수 있으며, 개인이 자신의 감성을 담아 로봇과 교감하여 애완로봇으로 활용하거나, 연인 또는 친구에게 자신의 감성을 전달하는 아바타 또는 메신저 역할을 하는 로봇으로 활용할 수 있는 이점이 있다.
또한, 본 발명에 따르면, 감성반응 스마트 로봇에 구비된 LED 모듈 및/또는 액츄에이터 모듈을 이용하여 사용자의 기분변화에 따른 감성을 분석하고, 분석된 사용자의 감성에 따라 빛의 색상 및/또는 조도를 변화하면서 동작시키거나 춤을 추는 것과 같은 특정 모션을 수행하도록 함으로써, 사용자의 기분 전환 즉, 사용자는 로봇을 통해 우울할 땐 감정을 달래고, 기쁠 땐 마치 로봇이 함께 기뻐해주는 듯한 기분을 느낄 수 있는 이점이 있다.
또한, 본 발명에 따르면, 오픈소스(Open Source)의 그래픽 사용자 인터페이스(Graphical User Interface, GUI) 기반의 응용프로그램(Application)을 이용하여 전문가가 아니더라도 일반 사용자가 손쉽게 사용자 맞춤형 프로젝트(Project)를 제작하여 스마트 단말과 유/무선 통신을 통해 서로 연결된 감성반응 스마트 로봇을 사용자의 니즈(needs)에 따라 다양하게 제어할 수 있는 이점이 있다.
또한, 본 발명에 따르면, 오픈소스의 그래픽 사용자 인터페이스(GUI) 기반의 응용프로그램을 통해 제작된 사용자 맞춤형 프로젝트의 콘텐츠 파일을 스마트 단말에 탑재된 스마트 로봇제어용 응용프로그램에서 실행되도록 제어함으로써, 스마트 단말의 각종 센서와 기능들(예컨대, 음성인식, 비전인식, 가속도 센서, 기울기 센서, 조도 센서, 근접 센서, 문자, 카카오톡, 알람 등)을 이용하여 감성반응 스마트 로봇과 연동되도록 제어할 수 있는 이점이 있다.
도 1은 본 발명의 일 실시예에 따른 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템을 설명하기 위한 전체적인 블록 구성도이다.
도 2는 본 발명의 일 실시예에 적용된 스마트 단말을 설명하기 위한 구체적인 블록 구성도이다.
도 3은 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇을 설명하기 위한 구체적인 블록 구성도이다.
도 4는 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇을 설명하기 위한 사시도이다.
도 5 및 도 6은 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇의 액츄에이터 모듈을 설명하기 위한 분리 사시도 및 결합 사시도이다.
도 7은 본 발명의 일 실시예에 적용된 오픈소스의 그래픽 사용자 인터페이스(GUI) 기반의 응용프로그램을 나타낸 도면이다.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되어지는 것이다.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.
도 1은 본 발명의 일 실시예에 따른 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템을 설명하기 위한 전체적인 블록 구성도이고, 도 2는 본 발명의 일 실시예에 적용된 스마트 단말을 설명하기 위한 구체적인 블록 구성도이고, 도 3은 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇을 설명하기 위한 구체적인 블록 구성도이며, 도 4는 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇을 설명하기 위한 사시도이며, 도 5 및 도 6은 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇의 액츄에이터 모듈을 설명하기 위한 분리 사시도 및 결합 사시도이며, 도 7은 본 발명의 일 실시예에 적용된 오픈소스의 그래픽 사용자 인터페이스(GUI) 기반의 응용프로그램을 나타낸 도면이다.
도 1 내지 도 7을 참조하면, 본 발명의 일 실시예에 따른 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템은, 크게 스마트 단말(100) 및 감성반응 스마트 로봇(200) 등을 포함하여 이루어진다. 또한, 본 발명의 일 실시예에 따른 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템은, 개발자 서버(300), 블록관리서버(400), 실행엔진 관리서버(500) 및 사용자 단말(600) 등을 더 포함할 수 있다.
여기서, 스마트 단말(100)은 감성반응 스마트 로봇(200)과 유선 또는 무선 통신을 통해 서로 연결되어 있으며, 통신망(10)을 통해 개발자 서버(300), 블록관리서버(400), 실행엔진 관리서버(500) 및 사용자 단말(600) 중 적어도 어느 하나와 서로 연결되어 있다.
이때, 통신망(10)은 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 와이파이(Wi-Fi), 와이기그(WiGig), 와이브로(Wireless Broadband Internet, Wibro), 와이맥스(World Interoperability for Microwave Access, Wimax) 등을 포함하는 차세대 무선망일 수 있다.
상기 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(Hyper Text Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service) 등을 제공하는 전 세계적인 개방형 컴퓨터 네트워크 구조를 의미하며, 스마트 단말(100)이 개발자 서버(300), 블록관리서버(400), 실행엔진 관리서버(500) 및 사용자 단말(600) 중 적어도 어느 하나에 접속될 수 있게 하는 환경을 제공한다. 한편, 상기 인터넷은 유선 또는 무선 인터넷일 수도 있고, 이외에도 유선 공중망, 무선 이동 통신망, 또는 휴대 인터넷 등과 통합된 코어망 일 수도 있다.
만약, 통신망(10)이 이동 통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 상기 비동기식 이동 통신망의 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 상기 이동 통신망은 예컨대, RNC(Radio Network Controller) 등을 포함할 수 있다. 한편, 상기 WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망, 5G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP 망일 수 있다. 이러한 통신망(10)은 스마트 단말(100)과 개발자 서버(300), 블록관리서버(400), 실행엔진 관리서버(500) 및 사용자 단말(600) 중 적어도 어느 하나와의 신호 및 데이터를 상호 전달하는 역할을 수행한다.
또한, 스마트 단말(100)은 미리 탑재된 스마트 로봇제어용 응용프로그램(예컨대, smartROS Player)의 실행을 통해 스마트 단말(100)에 미리 설치된 감성표현 생성엔진모듈(미도시)과 연동하여, 스마트 단말(100)에 입력된 사용자의 음성 및/또는 영상 등을 기반으로 사용자의 기분변화에 따른 감성을 분석하고, 상기 분석된 사용자의 감성에 따라 감성반응 스마트 로봇(200)의 LED 모듈(210)이 동작되도록 제어하는 기능을 수행한다.
이때, 상기 감성표현 생성엔진모듈은 사용자와의 인터랙션 기반으로 로봇이 표현하고자 하는 감성을 생성하는 엔진모듈로서, 한국과학기술원(KAIST)에서 콘텐츠 애플리케이션 형태로 개발된 감성로봇 감성표현 생성엔진으로 구현됨이 바람직하다.
즉, 한국과학기술원(KAIST)에서 개발된 감성로봇 감성표현 생성엔진은 예컨대, 'Deliberative Emotion' 기술 및 'Eckman 6 감성매칭(예컨대, 사용자 목소리 분석, 48감성으로부터 Eckman 6 감성매칭, 표준12감성 추출 등) ' 기술 등을 적용하고, 'Russell'의 "circumplex model of affection" 모델을 이용하여 사용자와의 감정 상호작용에 맞는 아홉가지 감정으로 모델을 변형하며, 현재의 상황을 'arousal'과 'valence' 값으로 치환하여 감정을 생성한다. 그러나, 본 발명의 일 실시예에서는 이에 한정하지는 않을 것이며, 사용자의 음성을 비롯하여 사용자의 얼굴 검출 등을 이용하여 사용자의 감성표현을 생성할 수 있는 것이라면 어느 것이든 상관없다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 푸시(push)알림 서비스 기능을 갖는 적어도 하나의 특정 애플리케이션과 연동하여, 각 특정 애플리케이션의 푸시알림 발생 시 사용자에 의해 미리 설정된 빛의 색상으로 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어할 수 있다.
이때, 상기 특정 애플리케이션은 예컨대, 소셜네트워크서비스(SNS)관련 애플리케이션(예컨대, 카페, 블로그, 페이스북(Facebook), 트위터(Twitter), 싸이월드 등), 문자메시지관련 애플리케이션(예컨대, SMS, MMS 등), 메신저관련 애플리케이션(예컨대, 카카오톡, 픽톡, 네이트 등) 및 통화관련 애플리케이션(예컨대, 음성통화, 영상통화 등) 중 적어도 어느 하나로 이루어짐이 바람직하다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 날씨관련 애플리케이션과 연동하여, 상기 날씨관련 애플리케이션으로부터 실시간 날씨 정보를 제공받아 현재 날씨상황(예컨대, 맑음, 구름조금, 구름많음, 흐림, 연무, 비, 천둥/번개 등)에 따라 미리 설정된 빛의 색상 및/또는 조도로 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어할 수 있다. 이에 따라 사용자는 로봇을 통해 날씨예고 정보를 얻을 수 있으며, 로봇이 세팅한 그 날의 모드에 어울리는 실내 분위기를 느낄 수 있는 효과가 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 사용자의 심박수 측정 애플리케이션과 연동하여, 상기 심박수 측정 애플리케이션으로부터 측정된 사용자의 심박수를 분석하고, 상기 분석된 사용자의 심박수에 따라 미리 설정된 빛의 색상 및/또는 조도로 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어할 수 있다. 이에 따라 심장박동을 시각화하여 감정의 표현을 극대화할 수 있는 효과가 있다.
또한, 스마트 단말(100)은 상기 심박수 측정 애플리케이션으로부터 측정된 사용자의 심박수를 분석하고, 상기 분석된 사용자의 심박수 정보를 별도의 저장모듈(160)에 저장함과 동시에 미리 설정된 클라이언트 단말(미도시)로 전송할 수 있다.
이때, 상기 클라이언트 단말은 예컨대, 데스크탑 PC(Personal Computer), 노트북 PC 등 컴퓨터인 것이 일반적이지만, 이에 한정되는 것은 아니며, 모든 종류의 유무선 통신 장치일 수 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 음성인식모듈(미도시)과 연동하여, 외부로부터 입력된 음악의 장르와 템포를 분석하고, 상기 분석된 음악의 장르와 템포에 따라 미리 설정된 빛의 색상 및/또는 조도가 변화하면서 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어함과 동시에 미리 설정된 로봇의 특정 모션이 수행되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어할 수 있다.
이때, 상기 음성인식모듈은 소프트웨어, 하드웨어 또는 이들의 조합된 것으로 구현될 수 있으며, A/V 입력모듈(120)과 연결되어 마이크부(122)를 통해 입력된 음성 또는 음악 등을 제공받아 이를 바탕으로 사용자의 음성 또는 음악의 장르와 템포 등을 분석할 수 있다. 이러한 음성인식모듈은 통상적인 음성인식 기술을 통해 쉽게 구현될 수 있는 것으로서, 이에 대한 구체적인 설명은 생략하기로 한다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 중력 센서모듈, 가속도 센서모듈, 자이로 센서모듈 및 근접 센서모듈 중 적어도 어느 하나의 센서모듈을 구비한 센싱모듈(140)과 연동하여, 각 센서모듈로부터 검출된 센싱 값을 이용하여 사용자의 동작 패턴을 분석하고, 상기 분석된 사용자의 동작 패턴에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어할 수 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 구비된 터치입력모듈 즉, 사용자 입력모듈(130)과 연동하여, 상기 터치입력모듈로부터 검출된 터치입력 값을 이용하여 사용자의 동작 패턴을 분석하고, 상기 분석된 사용자의 동작 패턴에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어할 수 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 음성인식모듈(미도시)과 연동하여, 외부로부터 입력된 사용자의 음성을 분석하고, 상기 분석된 사용자의 음성에 따라 빛의 색상 및/또는 조도로 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어하거나, 로봇의 특정 모션이 수행되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어할 수 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 게임관련 애플리케이션과 연동하여, 상기 게임관련 애플리케이션으로부터 사용자의 게임객체 이동을 분석하고, 상기 분석된 사용자의 게임객체 이동에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어할 수 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 스마트 단말(100)에 미리 설치된 음악관련 애플리케이션과 연동하여, 상기 감성표현 생성엔진모듈로부터 분석된 사용자의 감성에 따라 상기 음악관련 애플리케이션을 통해 음악을 선곡하고, 상기 선곡된 음악의 장르와 템포를 분석하여, 상기 분석된 음악의 장르와 템포에 따라 미리 설정된 빛의 색상 및/또는 조도가 변화하면서 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어함과 동시에 미리 설정된 로봇의 특정 모션이 수행되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어할 수 있다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 감성반응 스마트 로봇(200)에 구비된 컬러인식 센서모듈(230)로부터 인식된 색상에 대한 정보를 제공받아 이를 바탕으로 상기 인식된 색상을 따라 감성반응 스마트 로봇(200)이 이동되도록 감상반응 스마트 로봇(200)에 구비된 액츄에이터 모듈(220)의 동작을 제어하거나, 상기 인식된 색상과 동일한 색상으로 발광되도록 감성반응 스마트 로봇(200)에 구비된 LED 모듈(210)의 동작을 제어할 수 있다.
또한, 스마트 단말(600)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 해당 감성반응 스마트 로봇(200)을 식별하여 실행엔진 관리서버(500)로부터 해당 감성로봇 스마트 로봇(200)의 기능블록 실행엔진에 대한 정보를 제공받아 이를 바탕으로 사용자 단말(600)로부터 생성된 콘텐츠 파일의 실행 로직에 따라 해당 감성반응 스마트 로봇(200)의 동작을 제어할 수 있다.
또한, 스마트 단말(100)은 사용자 단말(600)로부터 생성된 콘텐츠 파일을 제공받아 상기 스마트 로봇제어용 응용프로그램을 이용하여 상기 콘텐츠 파일의 실행 로직에 따라 모션 및/또는 빛의 발광 수행을 위한 제어신호를 발생시켜 유/무선 통신을 통해 해당 감성반응 스마트 로봇(200)으로 전송할 수 있다. 이때, 감성반응 스마트 로봇(200)은 스마트 단말(100)로부터 전송되는 제어신호를 수신하고, 상기 수신된 제어신호에 대응하는 모션 및/또는 빛의 발광을 수행할 수 있다.
또한, 스마트 단말(100)은 실행엔진 관리서버(500)로부터 자신의 운영체제(OS) 환경에 맞으면서 상기 식별된 감성반응 스마트 로봇(200)과 동일한 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받을 수 있도록 하는 것이 바람직하다.
또한, 스마트 단말(100)은 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 실행엔진 관리서버(500)로부터 자신의 운영체제(OS) 환경에 맞는 스마트 단말(100)의 기능블록 실행엔진에 대한 정보를 제공받아 이를 바탕으로 사용자 단말(600)로부터 생성된 콘텐츠 파일의 실행 로직에 따라 해당 스마트 단말(100)의 기능과 연동하여 해당 감성반응 스마트 로봇(200)의 동작을 제어할 수 있다.
즉, 스마트 단말(100)에는 감성반응 스마트 로봇(200)을 제어하는데 이용되는 애플리케이션 형태의 소프트웨어 즉, 상기 스마트 로봇제어용 응용프로그램이 저장된다. 상기 스마트 로봇제어용 응용프로그램은 예컨대, 구글 플레이 스토어(Play Store), 애플 앱 스토어(App Store), 안드로이드 마켓(Market), 마켓 플레이스(Market Place) 등) 등을 통해 배포될 수 있다.
상기 스마트 로봇제어용 응용프로그램은 감성반응 스마트 로봇(200)을 제어하기 위해 이용되는 인터프리터 엔진(Interpreter Engine)을 포함할 수 있다. 상기 인터프리터 엔진은 스마트 단말(100)로부터 수신된 스크립트 언어를 해석할 수 있으며, 또한 주변 상황 정보를 인지하기 위해 이용되는 센서형 기기들에 의해 감지된 데이터를 센서 API(Application Program Interface)를 통해 수신하여 해석할 수 있다.
또한, 스마트 단말(100)은 상기 인터프리터 엔진을 이용하여 해석한 실행 로직을 감성반응 스마트 로봇(200)에 전달하여 해당 감성반응 스마트 로봇(200)의 동작을 제어한다. 또한, 스마트 단말(100)은 상기 센서 API를 통해 수신하여 해석된 결과에 따라 상술한 실행 로직 하에서 감성반응 스마트 로봇(200)을 제어할 수 있다.
이러한 스마트 단말(100)은 예컨대, 스마트폰(Smart Phone), 스마트 패드(Smart Pad), 스마트 노트(Smart Note) 등과 같은 이동단말장치를 포함한다. 이동성 및 편의성 등을 감안하면 본 발명의 일 실시예에 적용된 스마트 단말(100)은 스마트폰이 가장 바람직하다. 그러나, 본 발명의 일 실시예에서는 이에 한정하지는 않을 것이며, 휴대가능하고 이동 가능한 장치라면 어떠한 장치이어도 무관하다.
만약, 스마트 단말(100)이 통상의 스마트폰으로 구현될 경우, 상기 스마트폰은 일반 핸드폰(일명 피처폰(feature phone))과는 달리 사용자가 원하는 다양한 애플리케이션(Application) 프로그램을 다운로드받아 자유롭게 사용하고 삭제가 가능한 오픈 운영체제를 기반으로 한 폰(Phone)으로서, 일반적으로 사용되는 음성/영상통화, 인터넷 데이터통신 등의 기능뿐만 아니라, 모바일 오피스 기능을 갖춘 모든 모바일 폰 또는 음성통화 기능이 없으나 인터넷 접속 가능한 모든 인터넷폰 또는 테블릿(Tablet) PC를 포함하는 통신기기로 이해함이 바람직하다.
이러한 상기 스마트폰은 다양한 개방형 운영체제를 탑재한 스마트폰으로 구현될 수 있으며, 상기 개방형 운영체제로는 예컨대, 노키아(NOKIA)사의 심비안, 림스(RIMS)사의 블랙베리, 애플(Apple)사의 아이폰, 마이크로소프트사(MS)의 윈도즈 모바일, 구글(Google)사의 안드로이드, 삼성전자의 바다 등으로 이루어질 수 있다.
이와 같이 상기 스마트폰은 개방형 운영체제를 사용하므로 폐쇄적인 운영체제를 가진 휴대폰과 달리 사용자가 임의로 다양한 애플리케이션 프로그램을 설치하고 관리할 수 있다.
전술한 본 발명의 일 실시예에 적용된 스마트 단말(100)은 도 2에 도시된 바와 같이, 크게 무선 통신모듈(110), A/V(Audio/Video) 입력모듈(120), 사용자 입력모듈(130), 센싱모듈(140), 출력모듈(150), 저장모듈(160), 인터페이스모듈(170), 제어모듈(180) 및 전원모듈(190) 등을 포함할 수 있다. 도 2에 도시된 구성요소들이 필수적인 것은 아니어서, 스마트 단말(100)은 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 가질 수도 있다.
이하, 스마트 단말(100)의 구성요소들에 대해 구체적으로 살펴보면 다음과 같다.
무선 통신모듈(110)은 스마트 단말(100)과 무선 통신시스템 사이 또는 스마트 단말(100)과 감성반응 스마트 로봇(200)이 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예컨대, 무선 통신모듈(110)은 방송수신모듈(111), 이동통신모듈(112), 무선망 통신모듈(113), 근거리통신모듈(114) 및 위치정보모듈(115) 등을 포함할 수 있다.
방송수신모듈(111)은 방송채널(예컨대, 위성채널, 지상파채널 등)을 통하여 외부의 방송관리서버(미도시)로부터 방송신호(예컨대, TV 방송신호, 라디오 방송신호, 데이터 방송신호 등) 및/또는 방송관련 정보를 수신한다.
이동통신모듈(112)은 이동통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선신호를 송수신한다. 상기 무선신호는 음성 콜(call) 신호, 화상 통화 콜 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선망 통신모듈(113)은 무선 통신을 연결하는 통신 구성의 총칭으로서, 스마트 단말(100)에 내장되거나 외장될 수 있고, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 제어모듈(180)과 버스로 연결되어 제어모듈(180)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신을 통해 전송하거나, 또는 무선 통신을 통해 데이터를 수신하여 제어모듈(180)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 유지한다.
또한, 무선망 통신모듈(113)은 CDMA/WCDMA 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함할 수 있다. 한편, 당업자의 의도에 따라 무선망 통신모듈(113)은 IEEE 802.16 규격에 따라 휴대인터넷(예컨대, WLAN(Wi-Fi), Wibro, Wimax, HSDPA, LTE 등)에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 무선망 통신모듈(113)이 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 또한, 무선망 통신모듈(113)은 이동통신모듈(112)과 통합될 수 있다.
근거리통신모듈(114)은 일정 거리 이내에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하는 근거리 무선 통신모듈로 구성되며, 바람직하게는 ISO 180000 시리즈 규격의 블루투스(Bluetooth) 통신, RFID(Radio Frequency Identification) 통신, 적외선(IrDA, infrared Data Association) 통신, UWB(Ultra Wideband) 통신, 지그비(ZigBee) 통신 중 적어도 하나를 포함할 수 있다. 또한, 근거리통신모듈(114)은 무선망 통신모듈(113)과 통합될 수 있다.
위치정보모듈(115)은 스마트 단말(100)의 위치를 확인하거나 얻기 위한 모듈로서, GPS(Global Position System) 등을 이용하여 위치정보를 획득할 수 있다.
A/V 입력모듈(120)은 오디오신호 또는 비디오신호 입력을 위한 것으로, 이에는 카메라부(121)와 마이크부(122) 등이 포함될 수 있다. 카메라부(121)는 화상통화모드 또는 촬영모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다.
즉, 카메라부(121)는 도면에 도시되진 않았지만, 광학부와 CCD(Charge Coupled Device)와 이를 구동하는 카메라 모듈로 구성되며, 상기 광학부를 통해 상기 CCD에 입력된 비트맵 데이터를 획득한다. 상기 비트맵 데이터는 정지 영상의 이미지 데이터와 동영상 데이터를 모두 포함할 수 있다.
마이크부(122)는 도면에 도시되진 않았지만, 사운드 신호를 입력받는 마이크로폰과 상기 마이크로폰을 구동하는 사운드 모듈로 구성되며, 통화모드 또는 녹음모드, 음성인식모드 등에서 상기 마이크로폰에 의해 외부의 음향신호를 입력받아 전기적인 음성데이터로 처리하여 제어모듈(180)로 전달한다. 상기 사운드 모듈은 상기 마이크로폰을 통해 입력되는 사운드 신호를 엔코딩(Encoding)하여 부호화한다.
사용자 입력모듈(130)은 사용자가 스마트 단말(100)의 동작 제어를 위한 입력 데이터를 발생시키는 것으로서, 예컨대, 키 패드 돔 스위치, 터치입력모듈(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
이러한 사용자 입력모듈(130)은 도면에 도시되진 않았지만, 적어도 하나의 키 버튼을 구비한 키 입력장치(또는 화면출력부(151)와 연동하는 터치입력모듈)와 이를 구동하는 입력 모듈로 구성되며, 제어모듈(180)과 버스로 연결되어 제어모듈(180)의 각종 연산을 명령하는 명령을 입력하거나, 또는 제어모듈(180)의 연산에 필요한 데이터를 입력한다.
센싱모듈(140)은 다수의 센서모듈들(예컨대, 중력 센서모듈, 가속도 센서모듈, 자이로 센서모듈, 근접 센서모듈 등)을 통해 스마트 단말(100)의 개폐 상태, 스마트 단말(100)의 위치, 사용자 접촉 유무, 특정 부위에 대한 사용자의 터치 동작, 스마트 단말(100)의 방위, 스마트 단말(100)의 가속/감속 등과 같이 스마트 단말(100)의 현 상태를 감지하여 스마트 단말(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 이러한 센싱 신호는 제어모듈(180)에 전달되어, 제어모듈(180)이 특정 기능을 수행하는 기초가 될 수 있다.
출력모듈(150)은 예컨대, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 화면출력부(151), 음향출력부(152), 알람부(153) 및 햅틱모듈(154) 등이 포함될 수 있다.
화면출력부(151)는 스마트 단말(100)에서 처리되는 정보를 표시 출력한다. 예컨대, 스마트 단말(100)이 통화모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphical User Interface)를 표시하고, 화상통화모드 또는 촬영모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
이러한 화면출력부(151)는 도면에 도시되진 않았지만, 화면출력 장치(예컨대, LCD(Liquid Crystal Display) 장치)와 이를 구동하는 출력 모듈로 구성되며, 제어모듈(180)과 버스로 연결되어 제어모듈(180)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력 장치로 출력한다.
음향출력부(152)는 예컨대, 콜 신호수신, 통화모드 또는 녹음모드, 음성인식모드, 방송수신모드 등에서 무선 통신모듈(110)로부터 수신되거나 저장모듈(160)에 저장된 오디오 데이터를 출력할 수도 있다.
이러한 음향출력부(152)는 도면에 도시되진 않았지만, 사운드 신호를 출력하는 스피커와 상기 스피커를 구동하는 사운드 모듈로 구성되며, 제어모듈(180)과 버스로 연결되어 제어모듈(180)의 각종 연산 결과 중 사운드 출력에 대응하는 연산 결과를 상기 스피커를 통해 출력한다. 상기 사운드 모듈은 기 스피커를 통해 출력할 사운드 데이터를 디코딩(Decoding)하여 사운드 신호로 변환한다.
알람부(153)는 스마트 단말(100)의 이벤트 발생을 알리기 위한 신호를 출력할 수 있다. 스마트 단말(100)에서 발생되는 이벤트의 예로는 콜 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다.
햅틱모듈(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다.
저장모듈(160)은 스마트 단말(100)의 동작을 위한 다양한 프로그램들을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 저장모듈(160)은 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
또한, 저장모듈(160)은 스마트 단말(100)에 구비되는 비휘발성 메모리의 총칭으로서, 제어모듈(180)을 통해 실행되는 적어도 하나의 프로그램 코드와, 상기 프로그램 코드가 이용하는 적어도 하나의 데이터 셋트를 저장하여 유지한다. 저장모듈(160)은 기본적으로 스마트 단말(100)의 운영체계에 대응하는 시스템 프로그램 코드와 시스템 데이터 셋트, 스마트 단말(100)의 무선 통신 연결을 처리하는 통신 프로그램 코드와 통신 데이터 셋트 및 적어도 하나의 응용프로그램(Application) 코드와 응용 데이터 셋트를 저장하며, 본 발명을 구현하기 위한 프로그램 코드와 데이터 셋트 역시 저장모듈(160)에 저장된다.
이러한 저장모듈(160)은 예컨대, 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM), SRAM, 롬(ROM), EEPROM, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
인터페이스모듈(170)은 스마트 단말(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스모듈(170)은 외부기기로부터 데이터를 전송받거나 전원을 공급받아 스마트 단말(100) 내부의 각 구성요소에 전달하거나 스마트 단말(100) 내부의 데이터가 외부기기로 전송되도록 한다.
제어모듈(180)은 스마트 단말(100)의 전반적인 동작을 제어하는 것으로서, 적어도 하나의 프로세서(processors)와 실행 메모리를 포함하고, 스마트 단말(100)에 구비된 각 기능 구성부와 버스(BUS)를 통해 연결되며, 예컨대, 음성통화, 데이터통신, 화상통화 등을 위한 관련된 제어 및 처리를 수행한다.
또한, 제어모듈(180)은 상기 프로세서를 통해 스마트 단말(100)에 구비되는 적어도 하나의 프로그램 코드를 상기 실행 메모리에 로딩(loading)하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 기능 구성부로 전달하여 스마트 단말(100)의 동작을 제어한다.
또한, 제어모듈(180)은 배터리부(192)의 충전 전류와 충전 전압을 상시적으로 모니터링하고, 모니터링 값을 저장모듈(160)에 임시 저장할 수 있다. 이때, 저장모듈(160)은 모니터링 된 충전 전류와 충전 전압과 같은 배터리 충전상태정보뿐만 아니라 배터리 사양정보(제품 코드, 정격 등)도 함께 저장함이 바람직하다.
전원모듈(190)은 제어모듈(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원모듈(190)은 내장되어 있는 배터리부(Battery)(192)의 전원을 각 구성요소들로 공급하여 동작하도록 하며, 충전단자(미도시)를 사용하여 배터리의 충전이 가능하다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 그러한 실시예들이 제어모듈(180)에 의해 구현될 수 있다.
소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션에 의해 구현될 수 있다. 또한, 소프트웨어 코드는 저장모듈(160)에 저장되고, 제어모듈(180)에 의해 실행될 수 있다.
이와 같이 구성된 스마트 단말(100)은 무선 통신이 가능한 단말기를 의미하며, 스마트 단말(100) 이외에도 인터넷을 포함한 네트워크를 통하여 데이터의 송수신이 가능한 단말기라면 어떠한 장치라도 적용이 가능할 것이다. 즉, 스마트 단말(100)은 단문 메시지 전송 기능과 네트워크 접속 기능을 가지는 노트북 PC, 태블릿 PC, 그 외에도 휴대 및 이동이 가능한 휴대 단말을 적어도 하나 이상을 포함할 수 있다.
그리고, 감성반응 스마트 로봇(200)은 오픈소스(Open Source) 하드웨어 플랫폼(Platform)(예컨대, 아두이노(Arduino) 플랫폼 등) 기반으로 동작되는 다양한 형태의 로봇(Robot) 장치로서, 유선 또는 무선 통신 방식을 통해 스마트 단말(100)과 서로 연결되어 있으며, 스마트 단말(100)로부터 전송되는 제어신호를 수신하고, 상기 수신된 제어신호에 대응하는 빛의 발광 및/또는 모션(Motion)(예컨대, 걷기, 뛰기, 차기, 들기, 전/후/좌/우 이동, 구르기 등)을 수행할 수 있다.
이때, 상기 유선 통신 방식은 예컨대, USB(Universal Serial Bus) 데이터 통신을 이용함이 바람직하지만, 이에 국한하지 않으며, 스마트 단말(100)에 구비된 이어폰용 단자 또는 케이블 통신 등을 통해 이용하여 연결될 수도 있다.
상기 무선 통신 방식은 예컨대, 근거리무선통신(Near Field Communication, NFC), 무선식별(Radio Frequency IDentification, RFID), 블루투스(Bluetooth), 지그비(Zigbee) 중 선택된 어느 하나를 이용함이 바람직하지만, 이에 국한하지 않으며, 무선 통신을 사용하는 경우라면 현재 널리 사용되고 있는 와이파이(Wi-Fi) 통신, 와이기그(WiGig) 통신, 와이브로(Wireless Broadband Internet, WiBro) 통신, 와이맥스(World Interoperability for Microwave Access, WiMAX) 통신, HSPA(High Speed Packet Access) 통신, 적외선(IrDA, infrared Data Association) 통신, UWB(Ultra Wideband) 통신 등 다양한 통신 방식 중 어느 하나의 통신 방식을 사용할 수도 있다.
또한, 감성반응 스마트 로봇(200)은 사용자 단말(600)로부터 생성된 콘텐츠 파일의 실행 로직에 따라 스마트 단말(100)에서 지시한 명령을 수행할 수 있으며, 자체 구비된 적어도 하나의 로봇 센서(예컨대, 이미지 센서, 가속도 센서, 기울기 센서, 조도 센서, 음성 센서, 근접 센서, 컬러인식 센서 등)로부터 취득한 정보를 스마트 단말(100)로 제공할 수 있다.
이러한 감성반응 스마트 로봇(200)은 특정 용도나 기능으로 제한되지 않는다. 감성반응 스마트 로봇(200)은 이동 기능, 센서 기능, 지각 기능, 보안 기능, 교육 기능, 놀이 기능, 원격 제어 기능 등 다양한 기능의 입력, 처리 및 출력이 정의되는 휴먼화(Hominization) 된 머신(Machine)으로서 사용자에게 기능별 서비스를 제공할 수 있다.
즉, 본 발명의 일 실시예에 적용된 감성반응 스마트 로봇(200)은 도 3 내지 도 6에 도시된 바와 같이, 크게 본체(210), LED 모듈(220), 액츄에이터 모듈(230), 컬러인식 센서모듈(240), 음성출력모듈(250), 통신모듈(260), 저장모듈(270), 로봇 제어모듈(280) 및 전원공급모듈(290) 등을 포함하여 이루어진다. 도 3 내지 도 6에 도시된 구성요소들이 필수적인 것은 아니어서, 감성반응 스마트 로봇(200)은 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 가질 수도 있다.
이하, 감성반응 스마트 로봇(200)의 구성요소들에 대해 구체적으로 살펴보면 다음과 같다.
본체(210)는 감성반응 스마트 로봇(200)의 전체적인 몸체를 이루는 것으로서, 본 발명의 일 실시예에서는 투명 또는 반투명의 플라스틱 재질로 형성됨과 아울러 큐브(Cube) 형태로 이루어지며, 그 내측에 각종 기능적인 구성요소들 예컨대, LED 모듈(220), 액츄에이터 모듈(230), 컬러인식 센서모듈(240), 음성출력모듈(250), 통신모듈(260), 저장모듈(270), 로봇 제어모듈(280) 및 전원공급모듈(290) 등을 탑재할 수 있도록 소정의 공간부가 형성되어 있다.
이와 같이 본체(210)를 큐브 형태로 단순하게 형성함으로써, 사용자에게 저가 보급형의 감성반응 스마트 로봇을 구현할 수 있고, 다양한 스티커와 코스튬(costume) 재료를 이용하여 나만의 로봇 디자인이 가능하며, 사용자와 감성적 친밀감을 유도할 수 있을 뿐만 아니라 사용자와의 감성교류를 통한 생활공간 내 사용자 생활수준을 보다 높일 수 있으며, 개인이 자신의 감성을 담아 로봇과 교감하여 애완로봇으로 활용하거나, 연인 또는 친구에게 자신의 감성을 전달하는 아바타 또는 메신저 역할을 하는 로봇으로 활용할 수 있다.
또한, 감성반응 스마트 로봇(200)의 전체적인 몸체를 이루도록 형성된 본체(210)가 감성형 로봇에 대한 개인적인 감성을 극대화시키기 위해서 투명 또는 반투명의 플라스틱 재질의 큐브(Cube) 형태로 이루어짐으로써, 본체(210)의 외측면에 사용자들이 선호하는 별도의 캐릭터를 입히거나, 스티커종류의 부착물을 붙이거나, 실제로 필기도구나 채색도구를 이용하여 다양하게 꾸밀 수 있는 효과가 있다.
한편, 전술한 본 발명의 일 실시예에서와 같이 본체(210)를 큐브 형태로 단순하게 형성함이 바람직하지만, 이에 국한하지 않으며, 다양한 기능 및 목적을 가진 로봇 형태로 구현될 수도 있다.
LED 모듈(220)은 본체(210)의 내부 및/또는 외부에 장착되는 바, 도면에 도시되진 않았지만, 기본적으로 적어도 하나의 LED(Light Emitting Diode) 및 LED 구동부 등을 포함하고, 로봇 제어모듈(280)의 PWM(Pulse Width Modulation) 제어에 의해 각각의 LED가 사용자의 감성에 반응하여 빛의 색상 및/또는 조도를 변화하면서 동작되도록 상기 LED 구동부를 구동시킨다.
액츄에이터 모듈(230)은 본체(210)의 내부 및/또는 외부에 장착되는 바, 적어도 하나로 이루어질 수 있으며, 액츄에이터 모듈(230)에는 적어도 하나의 모터(Motor)(미도시)가 제공되며, 상기 모터의 회전각도 및 회전방향에 따라 액츄에이터 모듈(230)이 구동하여 전체적인 로봇의 모션이 수행될 수 있다.
즉, 상기 모터는 감성반응 스마트 로봇(200)을 구성하는 적어도 하나의 액츄에이터 모듈(230)에 각각 형성된다. 이러한 각각의 모터는 로봇 제어모듈(280)의 제어에 따라 회전하게 되는데, 이때 각 모터의 회전방향 및 회전각도에 따라 각 액츄에이터 모듈(230)이 구동하게 되며, 이로써 감성반응 스마트 로봇(200)의 전체적인 모션이 수행될 수 있다.
일 예로, 도 4 내지 도 6에 도시된 바와 같이, 액츄에이터 모듈(230)은 감성반응 스마트 로봇(200)의 전체적인 몸체를 이루는 본체(210) 내부에 고정결합되는 모듈 하우징(231)과, 각각의 회전축이 서로 대향되게 배치되도록 모듈 하우징(231)에 장착되는 한 쌍의 모터(232a 및 232b)와, 각각의 외주면에 실리콘 링(R1)이 장착되며, 각 모터(232a 및 232b)의 회전축(A)에 접촉되어 회전마찰에 의해 회전되도록 모듈 하우징(231)의 양측에 결합되는 한 쌍의 미들 휠(233a 및 233b)과, 각각의 외주면에 실리콘 링(R2)이 장착되며, 각 미들 휠(233a 및 233b)에 구비된 회전축(B)의 길이방향으로 연장된 원기둥형의 돌출부(C)와 접촉되어 회전마찰에 의해 회전되도록 모듈 하우징(231)의 양측에 결합되는 한 쌍의 구동 휠(234a 및 234b)로 이루어질 수 있으며, 각 구동 휠(234a 및 234b)의 회전에 따라 감성반응 스마트 로봇(200)의 전체적인 몸체를 이루는 본체(210)가 이동될 수 있다.
즉, 감성반응 스마트 로봇(200)이 이동할 때 발생하는 모터소음은 감성을 저해할 수 있는 바, 기존에는 소형모터를 사용하여 구동토크를 만들어내기 위해서 감속기를 사용하게 되는데, 이 감속기에 발생하는 기어 소음이 모터소음의 큰 비중을 차지하고, 상기 기어 소음은 치차와 치차가 맞물려 회전하면서 소음을 발생시킨다.
이러한 기어 소음을 최소화하기 위하여 기어 대신에 본 발명의 일 실시예에서는 실리콘 링으로 모터의 회전축과 마찰에 의하여 동력을 전달하는 방식을 사용한다. 즉, 각 모터(232a 및 232b)의 회전축(A)에서 각 미들 휠(233a 및 233b)의 실리콘 링(R1)에 1차 동력이 전달되고, 각 미들 휠(233a 및 233b)에 구비된 회전축(B)의 길이방향으로 연장된 원기둥형의 돌출부(C)에서 각 구동 휠(234a 및 234b)의 실리콘 링(R2)에 2차 동력전달이 되는 구조이다.
컬러인식 센서모듈(240)은 본체(210)의 내부 및/또는 외부에 장착되는 바, 로봇 제어모듈(280)의 제어에 따라 동작되고, 여러 가지 색상을 인식하기 위한 적어도 하나의 컬러인식 센서(미도시)를 구비하고 있으며, 상기 컬러인식 센서를 통해 인식된 센싱 값을 로봇 제어모듈(280)로 전송한다.
음성출력모듈(250)은 본체(210)의 내부 및/또는 외부에 장착되는 바, 로봇 제어모듈(280)의 제어에 따라 동작되고, 미리 저장된 음성 신호 또는 외부로부터 전송된 음성 신호를 출력하는 기능을 수행한다. 이러한 음성출력모듈(250)은 통상적인 스피커(Speaker)로 구현됨이 바람직하다.
이때, 스마트 단말(100)은 미리 설치된 감성표현 생성엔진모듈(미도시)을 통해 분석된 사용자의 감성에 따라 미리 설정된 음성 신호가 출력되도록 음성출력모듈(250)의 동작을 제어함이 바람직하다.
통신모듈(260)은 본체(210)의 내부 및/또는 외부에 장착되는 바, 스마트 단말(100)과 데이터 통신을 수행하기 위한 모듈로 무선 또는 유선의 방식 중 어느 것을 선택해도 무방하며, 어떠한 방식으로든 스마트 단말(100)로부터 데이터가 수신되면 이를 로봇 제어모듈(280)로 제공한다.
저장모듈(270)은 감성반응 스마트 로봇(200)의 구동에 필요한 다수의 데이터 및 프로그램 등을 저장한다. 특히, 저장모듈(270)은 사용자의 명령에 대응하는 각종 빛의 발광 및/또는 모션 정보들을 저장한다. 이는 스마트 단말(100)로부터 전송되는 제어신호에 포함된 사용자 명령에 따라 해당되는 빛의 발광 및/또는 모션을 수행할 수 있도록 하기 위한 것이다.
이러한 저장모듈(270)은 예컨대, 플래시 메모리 타입(Flash Memory type), 하드디스크 타입(Hard Disk type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
로봇 제어모듈(280)은 저장모듈(270)에 저장된 데이터 및 프로그램을 이용하여 감성반응 스마트 로봇(200)의 전반적인 동작을 제어한다. 특히, 로봇 제어모듈(280)은 스마트 단말(100)로부터 제어신호를 수신하도록 통신모듈(260)을 제어하고, 상기 수신된 제어신호를 해석하여 상기 제어신호에 포함된 고유번호(ID)에 해당하는 LED 모듈(220)의 각 LED를 상기 제어신호에 포함된 빛의 색상 및/또는 조도에 맞게 구동하거나, 액츄에이터 모듈(230)의 모터를 상기 제어신호에 포함된 회전각도 및 회전방향에 맞게 구동할 수 있다. 이는 스마트 단말(100)을 통해 요구하는 명령에 맞게 LED 모듈(220) 내 각 LED 및/또는 액츄에이터 모듈(230) 내 모터를 구동하기 위한 것이다.
전원공급모듈(290)은 감성반응 스마트 로봇(200)이 동작될 수 있도록 각 구성요소에 필요한 전원을 공급하는 것으로서, 통상의 상용전원 또는 배터리(Battery) 전원을 이용할 수 있다.
그리고, 개발자 서버(300)는 통신망(10)을 통해 블록관리서버(400) 및 실행엔진 관리서버(500)와 서로 연결되어 있으며, 감성반응 스마트 로봇(200)의 오픈(Open) 응용프로그램 인터페이스(Open Application Program Interface, 이하, 'API'라 칭함) 라이브러리(library) 정보를 제공받아 미리 정의된 포맷(Format)으로 변환 및 가공하여 감성반응 스마트 로봇(200)의 제어를 위한 그래픽 사용자 인터페이스(Graphical User Interface, 이하, 'GUI'라 칭함) 기반의 응용프로그램(Application)에 필요한 기능블록(Function Block) 설명정보와 기능블록 실행엔진(Implement Engine)을 생성하는 기능을 수행한다.
이때, 상기 GUI 기반의 응용프로그램은 예컨대, 오픈소스(Open Source) 기반의 스크래치(Scratch) 프로그램 또는 스냅(Snap) 프로그램 등으로 이루어짐이 바람직하며, 상기 스크래치 프로그램은, 도 7에 도시된 바와 같이, 아이들과 프로그래밍 초보자들에게 그래픽 환경을 통해 컴퓨터 프로그래밍에 관한 경험을 쌓게 하기 위한 목적으로 설계된 프로그래밍 환경으로 코딩을 주로 하는 C++, C# 등과 달리 기능을 명령하는 블록(Block)을 끌어당겨 하나하나 쌓아가면서 프로그래밍을 하기에 프로그래밍을 처음 해보는 입문자들에게 큰 어려움 없이 프로그램을 개발하게 할 수 있다.
또한, 개발자 서버(300)는 스마트 단말(100)의 오픈 API 라이브러리를 제공받아 미리 정의된 포맷으로 변환 및 가공하여 스마트 단말(100)의 제어를 위한 GUI 기반의 응용프로그램에 필요한 기능블록 설명정보와 기능블록 실행엔진을 생성하는 기능을 수행할 수 있다.
그리고, 블록관리서버(400)는 통신망(10)을 통해 개발자 서버(300) 및 사용자 단말(600)과 서로 연결되어 있으며, 개발자 서버(300)로부터 생성된 감성반응 스마트 로봇(200)의 기능블록 설명정보를 제공받아 스마트 로봇별로 데이터베이스(DB)화하여 저장 및 관리하는 기능을 수행한다.
또한, 블록관리서버(400)는 개발자 서버(300)로부터 생성된 스마트 단말(100)의 기능블록 설명정보를 제공받아 스마트 단말별로 데이터베이스(DB)화하여 저장 및 관리하는 기능을 수행할 수 있다.
또한, 블록관리서버(400)는 개발자 서버(300)로부터 생성된 감성반응 스마트 로봇(200)의 기능블록 설명정보 및/또는 스마트 단말(100)의 기능블록 설명정보를 제공받아 이를 별도의 블록관리 웹서버(Web Server)(미도시)에 등록(Registration)하고, 사용자 단말(600)을 통해 상기 블록관리 웹서버에 등록된 감성반응 스마트 로봇(200)의 기능블록 설명정보 및/또는 스마트 단말(100)의 기능블록 설명정보를 다운로드(Download)받을 수 있도록 웹서비스(Web Service)를 제공할 수 있다.
그리고, 실행엔진 관리서버(500)는 통신망(10)을 통해 개발자 서버(300) 및 스마트 단말(100)과 서로 연결되어 있으며, 개발자 서버(300)로부터 생성된 감성반응 스마트 로봇(200)의 기능블록 실행엔진에 대한 정보를 제공받아 운영체제(Operating System, OS) 환경별 및/또는 스마트 로봇별로 데이터베이스(DB)화하여 저장 및 관리하는 기능을 수행한다.
또한, 실행엔진 관리서버(500)는 개발자 서버(300)로부터 생성된 스마트 단말(100)의 기능블록 실행엔진에 대한 정보를 제공받아 운영체제(OS) 환경별 및 스마트 단말별로 데이터베이스(DB)화하여 저장 및 관리하는 기능을 수행할 수 있다.
또한, 실행엔진 관리서버(500)는 개발자 서버(300)로부터 생성된 감성반응 스마트 로봇(200)의 기능블록 실행엔진에 대한 정보 및/또는 스마트 단말(100)의 기능블록 실행엔진에 대한 정보를 제공받아 이를 별도의 엔진관리 웹서버(Wen Server)(예컨대, 구글 플레이 스토어(Play Store), 애플 앱 스토어(App Store), 안드로이드 마켓(Market), 마켓 플레이스(Market Place) 등)(미도시)에 등록(Registration)하고, 스마트 단말(100)을 통해 상기 엔진관리 웹서버에 등록된 감성반응 스마트 로봇(200)의 기능블록 실행엔진에 대한 정보 및/또는 스마트 단말(100)의 기능블록 실행엔진에 대한 정보를 다운로드(Download)받을 수 있도록 웹서비스(Web Service)를 제공할 수 있다.
한편, 개발자 서버(300)로부터 생성된 감성반응 스마트 로봇(200)의 기능블록 실행엔진에 대한 정보 및/또는 스마트 단말(100)의 기능블록 실행엔진에 대한 정보는 예컨대, 응용프로그램 패키지(Application Package, APK) 파일 형태로 이루어짐이 바람직하며, 개발자 서버(300)로부터 생성된 감성반응 스마트 로봇(200)의 기능블록 실행엔진 및/또는 스마트 단말(100)의 기능블록 실행엔진과 연결되도록 링크(Link) 정보 등을 포함할 수 있다.
이때, 상기 "응용프로그램 패키지(APK)"라는 용어는 스마트 단말(100)에 응용프로그램(Application)을 제공하기 위하여 생성되는 것으로, '*.apk'의 확장자를 가질 수 있으며, 응용프로그램 설치 파일, 응용프로그램 정보 파일 등을 포함하는 데이터를 의미할 수 있다. 상기 응용프로그램 패키지는 다양한 공급자에 의하여 생성되며, 서버, 웹 브라우저, 응용프로그램 패키지를 제공하기 위한 별도의 응용프로그램 등을 통하여 스마트 단말(100)에 제공될 수 있다.
이때, 상기 응용프로그램 설치 파일은 예컨대, c, c++, java 등의 언어로 작성된 파일을 라이브러리와 결합하여 설치 가능한 형태의 실행 파일로 컴파일(compile) 또는 압축함으로써 생성될 수 있다. 이러한 응용프로그램 설치 파일은 스마트 단말(100)에서 응용프로그램이 사용 가능한 형태로 동작할 수 있도록 설치 동작에 의하여 디컴파일(decompile) 또는 압축 해제될 수 있다.
상기 응용프로그램 정보 파일은 응용프로그램의 각종 정보를 포함하고 있는 파일로 매니페스트(manifest)로 명명될 수 있으며, xml 언어로 작성될 수 있다. 이러한 응용프로그램 정보 파일은 예컨대, 응용프로그램의 이름, 버전, 응용프로그램에 포함되는 아이콘에 대한 정의, 액티비티(activity), 서비스, 제공자(provider) 등의 응용프로그램 구성 요소, 사용 권한, 외부 라이브러리 등의 정보를 포함할 수 있다.
그리고, 사용자 단말(600)은 통신망(10)을 통해 블록관리서버(400) 및/또는 스마트 단말(100)과 서로 연결되어 있으며, 블록관리서버(400)로부터 감성반응 스마트 로봇(200)의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 편집된 사용자 맞춤형 프로젝트(Project)에 대한 콘텐츠 파일을 생성하는 기능을 수행한다.
또한, 사용자 단말(600)은 블록관리서버(400)로부터 스마트 단말(100)의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 편집된 사용자 맞춤형 프로젝트에 대한 콘텐츠 파일을 생성하는 기능을 수행할 수 있다.
즉, 사용자 단말(600)은 블록관리서버(400)로부터 감성반응 스마트 로봇(200)의 기능블록 설명정보 및/또는 스마트 단말(100)의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 감성반응 스마트 로봇(200)의 기능블록과 스마트 단말(100)의 기능블록을 조합하여 편집된 사용자 맞춤형 프로젝트(Project)에 대한 콘텐츠 파일을 생성할 수 있다. 한편, 사용자 단말(600)로부터 생성된 콘텐츠 파일은 예컨대, '*.sbx'의 확장자를 가진 파일 형태로 이루어짐이 바람직하다.
이러한 사용자 단말(600)은 예컨대, 데스크탑 PC(Personal Computer), 노트북 PC 등 컴퓨터인 것이 일반적이지만, 이에 한정되는 것은 아니며, 모든 종류의 유무선 통신 장치일 수 있다.
예를 들어, 사용자 단말(600)은 무선 인터넷 또는 휴대 인터넷을 통하여 통신하는 다양한 이동 단말을 포함하고, 이외에도 팜(Palm) PC, 스마트폰(Smart phone), 모바일 게임기(Mobile play-station), 통신 기능이 있는 DMB(Digital Multimedia Broadcasting)폰, 태블릿 PC, 아이패드(iPad) 등 블록관리서버(400) 및/또는 스마트 단말(100)에 접속하기 위한 사용자 인터페이스를 갖는 모든 유무선 가전/통신 장치를 포괄적으로 의미할 수 있다.
전술한 본 발명에 따른 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템에 대한 바람직한 실시예에 대하여 설명하였지만, 본 발명은 이에 한정되는 것이 아니고 특허청구범위와 발명의 상세한 설명 및 첨부한 도면의 범위 안에서 여러 가지로 변형하여 실시하는 것이 가능하고 이 또한 본 발명에 속한다.
100 : 스마트 단말,
200 : 감성반응 스마트 로봇,
300 : 개발자 서버,
400 : 블록관리서버,
500 : 실행엔진 관리서버,
600 : 사용자 단말

Claims (27)

  1. 사용자의 감성에 반응하여 빛의 색상 또는 조도를 변화하면서 동작되도록 LED 모듈이 구비되는 감성반응 스마트 로봇; 및
    상기 감성반응 스마트 로봇과 유/무선 통신을 통해 서로 연결되며, 스마트 로봇제어용 응용프로그램의 실행을 통해 미리 설치된 감성표현 생성엔진모듈과 연동하여, 입력된 사용자의 음성 또는 영상을 기반으로 사용자의 기분변화에 따른 감성을 분석하고, 상기 분석된 사용자의 감성에 따라 상기 감성반응 스마트 로봇의 LED 모듈이 동작되도록 제어하는 스마트 단말을 포함하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  2. 제1 항에 있어서,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 푸시(push)알림 서비스 기능을 갖는 적어도 하나의 특정 애플리케이션과 연동하여, 각 특정 애플리케이션의 푸시알림 발생 시 사용자에 의해 미리 설정된 빛의 색상으로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  3. 제2 항에 있어서,
    상기 특정 애플리케이션은, 소셜네트워크서비스(SNS)관련 애플리케이션, 문자메시지관련 애플리케이션, 메신저관련 애플리케이션 및 통화관련 애플리케이션 중 적어도 어느 하나로 이루어진 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  4. 제1 항에 있어서,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 날씨관련 애플리케이션과 연동하여, 상기 날씨관련 애플리케이션으로부터 실시간 날씨 정보를 제공받아 현재 날씨상황에 따라 미리 설정된 빛의 색상 및 조도로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  5. 제1 항에 있어서,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 사용자의 심박수 측정 애플리케이션과 연동하여, 상기 심박수 측정 애플리케이션으로부터 측정된 사용자의 심박수를 분석하고, 상기 분석된 사용자의 심박수에 따라 미리 설정된 빛의 색상 또는 조도로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  6. 제5 항에 있어서,
    상기 스마트 단말은, 상기 심박수 측정 애플리케이션으로부터 측정된 사용자의 심박수를 분석하고, 상기 분석된 사용자의 심박수 정보를 별도의 메모리부에 저장함과 동시에 미리 설정된 사용자 단말로 전송하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  7. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 음성인식모듈과 연동하여, 외부로부터 입력된 음악의 장르와 템포를 분석하고, 상기 분석된 음악의 장르와 템포에 따라 미리 설정된 빛의 색상이 변화하면서 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어함과 동시에 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  8. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 중력 센서모듈, 가속도 센서모듈, 자이로 센서모듈 및 근접 센서모듈 중 적어도 어느 하나의 센서모듈과 연동하여, 각 센서모듈로부터 검출된 센싱 값을 이용하여 사용자의 동작 패턴을 분석하고, 상기 분석된 사용자의 동작 패턴에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  9. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 구비된 터치입력모듈과 연동하여, 상기 터치입력모듈로부터 검출된 터치입력 값을 이용하여 사용자의 동작 패턴을 분석하고, 상기 분석된 사용자의 동작 패턴에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  10. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 음성인식모듈과 연동하여, 외부로부터 입력된 사용자의 음성을 분석하고, 상기 분석된 사용자의 음성에 따라 빛의 색상 또는 조도로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어하거나, 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  11. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 게임관련 애플리케이션과 연동하여, 상기 게임관련 애플리케이션으로부터 사용자의 게임객체 이동을 분석하고, 상기 분석된 사용자의 게임객체 이동에 따라 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  12. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 스마트 단말에 미리 설치된 음악관련 애플리케이션과 연동하여, 상기 분석된 사용자의 감성에 따라 상기 음악관련 애플리케이션을 통해 음악을 선곡하고, 상기 선곡된 음악의 장르와 템포를 분석하여, 상기 분석된 음악의 장르와 템포에 따라 미리 설정된 빛의 색상이 변화하면서 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어함과 동시에 미리 설정된 로봇의 특정 모션이 수행되도록 상기 액츄에이터 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  13. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 여러 가지 색상을 인식하기 위한 컬러인식 센서모듈 및 적어도 하나의 액츄에이터 모듈이 더 구비되고, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며, 각 액츄에이터 모듈은 적어도 하나의 모터의 회전각도 및 회전방향에 따라 구동하여 로봇의 특정 모션이 수행되며,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램의 실행을 통해 상기 감성반응 스마트 로봇의 컬러인식 센서모듈로부터 인식된 색상에 대한 정보를 제공받아 이를 바탕으로 상기 인식된 색상을 따라 상기 감성반응 스마트 로봇이 이동되도록 상기 액츄에이터 모듈의 동작을 제어하거나, 상기 인식된 색상과 동일한 색상으로 발광되도록 상기 감성반응 스마트 로봇에 구비된 LED 모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  14. 제7 항 내지 청구항 13 중 어느 한 항에 있어서,
    상기 액츄에이터 모듈은,
    상기 감성반응 스마트 로봇의 전체적인 몸체를 이루는 본체 내부에 고정결합되는 모듈 하우징;
    각각의 회전축이 서로 대향되게 배치되도록 상기 모듈 하우징에 장착되는 한 쌍의 모터;
    각각의 외주면에 실리콘 링이 장착되며, 각 모터의 회전축에 접촉되어 회전마찰에 의해 회전되도록 상기 모듈 하우징의 양측에 결합되는 한 쌍의 미들 휠; 및
    각각의 외주면에 실리콘 링이 장착되며, 각 미들 휠에 구비된 회전축의 길이방향으로 연장된 원기둥형의 돌출부와 접촉되어 회전마찰에 의해 회전되도록 상기 모듈 하우징의 양측에 결합되는 한 쌍의 구동 휠로 이루어지되,
    각 구동 휠의 회전에 따라 상기 감성반응 스마트 로봇의 전체적인 몸체를 이루는 본체가 이동되는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  15. 제1 항에 있어서,
    상기 감성반응 스마트 로봇은, 음성 신호를 출력하는 음성출력모듈이 더 구비되고,
    상기 스마트 단말은, 상기 분석된 사용자의 감성에 따라 미리 설정된 음성 신호가 출력되도록 상기 음성출력모듈의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  16. 제1 항에 있어서,
    상기 감성반응 스마트 로봇의 오픈 API 라이브러리를 제공받아 미리 정의된 포맷으로 변환 및 가공하여 상기 감성반응 스마트 로봇의 제어를 위한 GUI 기반의 응용프로그램에 필요한 기능블록 설명정보와 기능블록 실행엔진을 생성하는 개발자 서버;
    상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 설명정보를 제공받아 스마트 로봇별로 데이터베이스화하여 저장 및 관리하는 블록관리서버;
    상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받아 운영체제 환경별로 데이터베이스화하여 저장 및 관리하는 실행엔진 관리서버; 및
    상기 블록관리서버로부터 감성반응 스마트 로봇의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 편집된 사용자 맞춤형 프로젝트에 대한 콘텐츠 파일을 생성하는 사용자 단말이 더 포함되되,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램을 통해 해당 감성반응 스마트 로봇을 식별하여 상기 실행엔진 관리서버로부터 해당 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받아 이를 바탕으로 상기 사용자 단말로부터 생성된 콘텐츠 파일의 실행 로직에 따라 해당 감성반응 스마트 로봇의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  17. 제16 항에 있어서,
    상기 GUI 기반의 응용프로그램은, 오픈소스의 스크래치(Scratch) 프로그램으로 이루어진 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  18. 제16 항에 있어서,
    상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보는, 응용프로그램 패키지(Application Package, APK) 파일 형태로 이루어지며, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진과 연결되도록 링크 정보를 포함하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  19. 제16 항에 있어서,
    상기 블록관리서버는, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 설명정보를 제공받아 이를 별도의 블록관리 웹서버에 등록하고, 상기 사용자 단말을 통해 상기 블록관리 웹서버에 등록된 감성반응 스마트 로봇의 기능블록 설명정보를 다운로드받을 수 있도록 웹서비스를 제공하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  20. 제16 항에 있어서,
    상기 실행엔진 관리서버는, 상기 개발자 서버로부터 생성된 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받아 이를 별도의 엔진관리 웹서버에 등록하고, 상기 스마트 단말을 통해 상기 엔진관리 웹서버에 등록된 각 스마트 로봇의 기능블록 실행엔진에 대한 정보를 다운로드받을 수 있도록 웹서비스를 제공하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  21. 제16 항에 있어서,
    상기 사용자 단말로부터 생성된 콘텐츠 파일은, '*.sbx'의 확장자를 가진 파일 형태로 이루어진 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  22. 제16 항에 있어서,
    상기 감성반응 스마트 로봇은, 상기 사용자 단말로부터 생성된 콘텐츠 파일의 실행 로직에 따라 상기 스마트 단말에서 지시한 명령을 수행하고, 적어도 하나의 로봇 센서로부터 취득한 정보를 상기 스마트 단말로 제공하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  23. 제16 항에 있어서,
    상기 스마트 단말은, 상기 사용자 단말로부터 생성된 콘텐츠 파일을 제공받아 상기 스마트 로봇제어용 응용프로그램을 이용하여 상기 콘텐츠 파일의 실행 로직에 따라 모션 또는 빛의 발광 수행을 위한 제어신호를 발생시켜 유/무선 통신을 통해 해당 감성반응 스마트 로봇으로 전송하고,
    상기 감성반응 스마트 로봇은, 상기 스마트 단말로부터 전송되는 제어신호를 수신하고, 상기 수신된 제어신호에 대응하는 모션 또는 빛의 발광을 수행하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  24. 제16 항에 있어서,
    상기 스마트 단말은, 상기 실행엔진 관리서버로부터 자신의 운영체제 환경에 맞으면서 상기 식별된 감성반응 스마트 로봇과 동일한 감성반응 스마트 로봇의 기능블록 실행엔진에 대한 정보를 제공받는 것을 특징으로 하는 스마트 단말을 감성반응 스마트 로봇의 제어 시스템.
  25. 제16 항에 있어서,
    상기 개발자 서버는, 상기 스마트 단말의 오픈 API 라이브러리를 제공받아 미리 정의된 포맷으로 변환 및 가공하여 상기 스마트 단말의 제어를 위한 GUI 기반의 응용프로그램에 필요한 기능블록 설명정보와 기능블록 실행엔진을 생성하고,
    상기 블록관리서버는, 상기 개발자 서버로부터 생성된 상기 스마트 단말의 기능블록 설명정보를 제공받아 스마트 단말별로 데이터베이스화하여 저장 및 관리하고,
    상기 실행엔진 관리서버는, 상기 개발자 서버로부터 생성된 상기 스마트 단말의 기능블록 실행엔진에 대한 정보를 제공받아 운영체제 환경별 및 스마트 단말별로 데이터베이스화하여 저장 및 관리하고,
    상기 사용자 단말은, 상기 블록관리서버로부터 상기 스마트 단말의 기능블록 설명정보를 제공받아 이를 바탕으로 상기 GUI 기반의 응용프로그램을 이용하여 사용자에 의해 편집된 사용자 맞춤형 프로젝트에 대한 콘텐츠 파일을 생성하고,
    상기 스마트 단말은, 상기 스마트 로봇제어용 응용프로그램을 통해 상기 실행엔진 관리서버로부터 자신의 운영체제 환경에 맞는 스마트 단말의 기능블록 실행엔진에 대한 정보를 제공받아 이를 바탕으로 상기 사용자 단말로부터 생성된 콘텐츠 파일의 실행 로직에 따라 해당 스마트 단말의 기능과 연동하여 해당 스마트 로봇의 동작을 제어하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  26. 제1 항에 있어서,
    상기 유선 통신은, USB(Universal Serial Bus) 데이터 통신을 이용하며, 상기 무선 통신은, 근거리무선통신(NFC), 무선식별(RFID), 블루투스(Bluetooth), 지그비(Zigbee) 중 선택된 어느 하나를 이용하는 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
  27. 제1 항에 있어서,
    상기 감성반응 스마트 로봇의 전체적인 몸체를 이루도록 형성된 본체는,
    상기 본체의 외측면에 사용자들이 선호하는 별도의 캐릭터를 입히거나 부착물을 붙이거나, 필기도구나 채색도구를 이용하여 꾸밀 수 있도록 투명 또는 반투명의 플라스틱 재질로 형성됨과 아울러 큐브(Cube) 형태로 이루어진 것을 특징으로 하는 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템.
KR1020150157199A 2015-11-10 2015-11-10 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템 KR101864142B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150157199A KR101864142B1 (ko) 2015-11-10 2015-11-10 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150157199A KR101864142B1 (ko) 2015-11-10 2015-11-10 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템

Publications (2)

Publication Number Publication Date
KR20170055040A true KR20170055040A (ko) 2017-05-19
KR101864142B1 KR101864142B1 (ko) 2018-06-05

Family

ID=59049554

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150157199A KR101864142B1 (ko) 2015-11-10 2015-11-10 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템

Country Status (1)

Country Link
KR (1) KR101864142B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107883266A (zh) * 2017-12-07 2018-04-06 岭南师范学院 一种基于Arduino平台的智能医疗照明系统
EP3418008A1 (en) * 2017-06-14 2018-12-26 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium
CN109238361A (zh) * 2018-09-20 2019-01-18 宁波水表股份有限公司 一种智能水务终端
GB2566318A (en) * 2017-09-11 2019-03-13 Fantastec Sports Tech Ltd Wearable device
KR20190071987A (ko) * 2017-12-15 2019-06-25 한국전자통신연구원 블록 프로그램을 이용한 단말 제어 장치 및 방법
KR101997072B1 (ko) * 2018-02-21 2019-10-02 한성대학교 산학협력단 자연어를 이용한 로봇 제어시스템 및 그 동작 방법
CN110815234A (zh) * 2018-08-07 2020-02-21 圈乐斯株式会社 交互机器人的控制方法及控制服务器
KR20200107202A (ko) * 2019-03-06 2020-09-16 울산과학기술원 온라인 학습에서의 학습자 동기 부여 시스템
CN117250883A (zh) * 2022-12-06 2023-12-19 北京小米机器人技术有限公司 智能设备控制方法、装置、存储介质与芯片

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108908339A (zh) * 2018-08-02 2018-11-30 常州大学 一种用于区域配送的物流机器人系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053875B1 (ko) 2008-07-14 2011-08-03 삼성전자주식회사 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법
KR101281806B1 (ko) * 2012-12-28 2013-07-04 (주) 퓨처로봇 퍼스널 로봇
KR20130094058A (ko) * 2012-02-15 2013-08-23 주식회사 케이티 커뮤니케이션 시스템, 장치 및 기록 매체
KR20150029153A (ko) * 2013-09-09 2015-03-18 엘지전자 주식회사 이동 단말기 및 이의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053875B1 (ko) 2008-07-14 2011-08-03 삼성전자주식회사 휴대 단말기와 동기화된 로봇의 이벤트 실행 방법 및 그시스템
KR101178847B1 (ko) * 2008-12-08 2012-08-31 한국전자통신연구원 가상공간과 연계된 다중 로봇 제어 장치 및 방법
KR20130094058A (ko) * 2012-02-15 2013-08-23 주식회사 케이티 커뮤니케이션 시스템, 장치 및 기록 매체
KR101281806B1 (ko) * 2012-12-28 2013-07-04 (주) 퓨처로봇 퍼스널 로봇
KR20150029153A (ko) * 2013-09-09 2015-03-18 엘지전자 주식회사 이동 단말기 및 이의 제어 방법

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733992B2 (en) 2017-06-14 2020-08-04 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium
EP3418008A1 (en) * 2017-06-14 2018-12-26 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium
RU2696307C1 (ru) * 2017-06-14 2019-08-01 Тойота Дзидося Кабусики Кайся Коммуникационное устройство, коммуникационный робот и машиночитаемый носитель данных
GB2566318A (en) * 2017-09-11 2019-03-13 Fantastec Sports Tech Ltd Wearable device
CN107883266B (zh) * 2017-12-07 2024-04-16 岭南师范学院 一种基于Arduino平台的智能医疗照明系统
CN107883266A (zh) * 2017-12-07 2018-04-06 岭南师范学院 一种基于Arduino平台的智能医疗照明系统
KR20190071987A (ko) * 2017-12-15 2019-06-25 한국전자통신연구원 블록 프로그램을 이용한 단말 제어 장치 및 방법
KR101997072B1 (ko) * 2018-02-21 2019-10-02 한성대학교 산학협력단 자연어를 이용한 로봇 제어시스템 및 그 동작 방법
CN110815234A (zh) * 2018-08-07 2020-02-21 圈乐斯株式会社 交互机器人的控制方法及控制服务器
US11123873B2 (en) * 2018-08-07 2021-09-21 Circulus Inc. Method and server for controlling interaction robot
CN109238361A (zh) * 2018-09-20 2019-01-18 宁波水表股份有限公司 一种智能水务终端
KR20200107202A (ko) * 2019-03-06 2020-09-16 울산과학기술원 온라인 학습에서의 학습자 동기 부여 시스템
CN117250883A (zh) * 2022-12-06 2023-12-19 北京小米机器人技术有限公司 智能设备控制方法、装置、存储介质与芯片

Also Published As

Publication number Publication date
KR101864142B1 (ko) 2018-06-05

Similar Documents

Publication Publication Date Title
KR101864142B1 (ko) 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템
US10922890B1 (en) Multi-user virtual and augmented reality tracking systems
KR102498451B1 (ko) 전자 장치 및 전자 장치에서의 정보 제공 방법
KR102498364B1 (ko) 전자 장치 및 전자 장치에서의 정보 제공 방법
US11148296B2 (en) Engaging in human-based social interaction for performing tasks using a persistent companion device
US10391636B2 (en) Apparatus and methods for providing a persistent companion device
US20150230022A1 (en) Wearable electronic system
US20160134737A1 (en) System having a miniature portable electronic device for command and control of a plurality of wireless devices
US20160080855A1 (en) Jewelry Having Electronic Modules
CA3019535A1 (en) Persistent companion device configuration and deployment platform
CN106462196A (zh) 用户可穿戴设备和个人计算系统
KR20170110919A (ko) 지능형 전자 장치 및 그 동작 방법
US20240162983A1 (en) Low power light wave communication for mobile and wearable devices
KR102140740B1 (ko) 이동단말기, 이동단말기용 거치대 그리고 이들의 구동방법
CN109328096B (zh) 信息处理设备、信息处理方法和程序
US10551871B2 (en) Interactive multimedia assistant device with a swappable personality customizable skin
CN111816168A (zh) 一种模型训练的方法、语音播放的方法、装置及存储介质
WO2020166373A1 (ja) 情報処理装置および情報処理方法
WO2018132364A1 (en) A method for performing emotional gestures by a device to interact with a user
CN112579037A (zh) 音频控制方法、装置、存储介质及电子设备
KR102184691B1 (ko) 상황 인식 기반의 정보 기록 방법, 이를 위한 장치 및 단말기
Valizadeh A Survey of Smartwatch Platforms from a Developer’s Perspective
US11899899B2 (en) Techniques for adjusting a detachable display capsule of a wrist-wearable device to operationally complement a wearable-structure attachment, and wearable devices and systems for performing those techniques
KR20200077936A (ko) 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
JP6471694B2 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant