KR20130094058A - 커뮤니케이션 시스템, 장치 및 기록 매체 - Google Patents

커뮤니케이션 시스템, 장치 및 기록 매체 Download PDF

Info

Publication number
KR20130094058A
KR20130094058A KR1020120015407A KR20120015407A KR20130094058A KR 20130094058 A KR20130094058 A KR 20130094058A KR 1020120015407 A KR1020120015407 A KR 1020120015407A KR 20120015407 A KR20120015407 A KR 20120015407A KR 20130094058 A KR20130094058 A KR 20130094058A
Authority
KR
South Korea
Prior art keywords
robot
emotion
menu
attribute information
user terminal
Prior art date
Application number
KR1020120015407A
Other languages
English (en)
Inventor
이영훈
강찬휘
김종철
김현호
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020120015407A priority Critical patent/KR20130094058A/ko
Publication of KR20130094058A publication Critical patent/KR20130094058A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B5/00Near-field transmission systems, e.g. inductive or capacitive transmission systems
    • H04B5/40Near-field transmission systems, e.g. inductive or capacitive transmission systems characterised by components specially adapted for near-field transmission
    • H04B5/48Transceivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Toys (AREA)

Abstract

커뮤니케이션 시스템, 장치 및 기록 매체가 제공된다. 사용자 단말기와 로봇을 포함하는 커뮤니케이션 시스템은, 상기 사용자 단말기의 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보와 상기 사용자의 감성과 관련된 콘텐츠를 포함하는 메시지를 전송하는 사용자 단말기 및 상기 사용자 단말기로부터 상기 메시지를 수신하고, 상기 동작 속성 정보에 따라서 동작하며, 상기 메시지에 포함된 콘텐츠를 재생하는 로봇을 포함하되, 상기 동작 속성 정보는 상기 사용자의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.

Description

커뮤니케이션 시스템, 장치 및 기록 매체{COMMUNICATION SYSTEM, APPARATUS AND COMPUTER-READABLE STORAGE MEDIUM}
본 발명은 커뮤니케이션 시스템, 장치 및 기록 매체에 관한 것으로서, 보다 상세하게는 감성 커뮤니케이션을 제공하는 시스템, 장치 및 기록 매체에 관한 것이다.
미래에는 홈로봇이 각 가정마다 보급되어 각 가정에서 홈로봇이 다양하게 이용되게 되는데, 그 하나의 분야가 홈로봇이 수신된 이메일을 자신의 내장 표시 장치에 표시해 주는 기능이다.
이러한 기술에서는 각각의 홈로봇이 일종의 인터넷 가능 PC 역할을 하여 IP주소가 부여되어 있어, 이 IP주소로 이메일이 수신되면 저장하고 있다가 사용자가 수신된 이메일을 보여주기를 원하는 경우 또는 수신 즉시 이메일을 보여주도록 설정되어 있는 경우에 홈로봇은 화면에 수신된 이메일을 표시해 주게 된다.
그런데, 이러한 홈로봇에서는 이메일을 시각적으로 표시해 줄 뿐 읽어주는 기능(문자를 음성으로 변환해 주는 기능; TTS(Text To Speech)기능)이 없고, 읽어주는 기능이 있다고 하여도 문장을 읽어주는 정도에 그치고 이 문장의 내용에 따른 아무런 동작도 실행하지 않아, 무미건조한 읽어주는 기능에 불과하여 흥미를 유발시키지 못한다.
이에, 한국공개특허 제2007-0008477호(감성 전달 기능을 가진 동작 포함 로봇 채팅 시스템)에서는 메신저 등을 사용하여 채팅을 하는 양 당사자가 채팅 시에 문장뿐만 아니라, 감성(감정)에 대응하는 동작명이나 이모티콘을 넣어서 채팅을 수행하면, 로봇이 문장 부분을 음성으로 읽어주면서 감성 대응 동작명이나 이모티콘에 대응하는 동작이 로봇에서 실행되게 하는 기술을 개시하였다.
그러나 상기한 기술은 발신자의 감성과 관련된 다양한 콘텐츠를 제작하여 로봇으로 전송할 수 없고, 로봇의 동작 역시 발신자의 감성에 대응하는 다양한 동작을 실행하는 것이 아니라, 로봇 채팅 시스템을 제공하는 업체에서 미리 정한 동작만을 수행하는 한계가 있어, 사용자의 감성을 수신자에게 제대로 전달할 수 없는 문제점이 있다.
한국공개특허 제2007-0008477호, ‘감성 전달 기능을 가진 동작 포함 로봇 채팅 시스템’
상술한 종래 기술의 문제점을 해결하기 위해, 본 발명은 사용자의 감성과 관련된 다양한 콘텐츠를 제작하여 로봇으로 제공하는 커뮤니케이션 시스템, 장치 및 기록 매체를 제공한다.
또한, 본 발명은 사용자의 감성에 대응하여 로봇이 동작할 수 있도록, 사용자 단말기에서 로봇의 동작 속성을 설정할 수 있는 커뮤니케이션 시스템, 장치 및 기록 매체를 제공한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 로봇과 커뮤니케이션을 제공하는 장치는, 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부, 상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 동작 속성 정보 생성부 및 상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 원격 제어부를 포함하되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 상기 인터페이스 제공부는 음성, 이미지 및 영상 중 어느 하나를 선택하도록 하는 제 1 인터페이스 및 상기 제 1 인터페이스를 통해 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 제공한다.
또한, 본 발명의 일 측면에서, 상기 동작 속성 정보 생성부는 상기 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성한다.
또한, 본 발명의 일 측면에서, 상기 동작 속성 정보 생성부는 상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값에 따라서 상기 동작 속성 정보를 생성한다.
또한, 본 발명의 일 측면에서, 상기 각 동작에 대한 속성 값은 상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함한다.
또한, 본 발명의 일 측면에서, 상기 로봇과 커뮤니케이션을 제공하는 장치는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 로봇과 통신하는 통신부를 더 포함한다.
또한, 본 발명의 일 측면에서 상기 원격 제어부는 상기 로봇에 저장된 콘텐츠의 목록을 요청하여 상기 콘텐츠의 목록을 화면에 표시하고, 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송한다.
상기 목적을 달성하기 위하여, 본 발명의 다른 측면에 따른 사용자 단말기와 커뮤니케이션을 제공하는 로봇은, 상기 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 동작 속성 정보 추출부, 상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 상기 로봇의 각 동작을 제어하는 동작 제어부, 상기 수신된 메시지로부터 콘텐츠를 추출하는 콘텐츠 추출부 및 상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 콘텐츠 실행부
를 포함하되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 각 동작에 대한 속성 값을 포함한다.
본 발명의 다른 측면에서, 상기 동작 속성 정보 추출부는 상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 사용자의 감성에 대한 정보에 대응하는 각 동작에 대한 속성 값을 추출한다.
또한, 본 발명의 다른 측면에서, 상기 사용자 단말기와 커뮤니케이션을 제공하는 로봇은, 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부 및 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 외부 장치로 전송하는 원격 제어부를 더 포함한다.
또한, 본 발명의 다른 측면에서, 상기 각 동작에 대한 속성 값은 상기 사용자의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함한다.
또한, 본 발명의 다른 측면에서, 상기 동작 제어부는 상기 표정을 화면에 표시하고, 상기 화면에 표시된 표정 중 특정 영역이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행한다.
또한, 본 발명의 다른 측면에서, 상기 동작 제어부는 상기 로봇의 특정 부분이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행한다.
또한, 본 발명의 다른 측면에서, 상기 사용자 단말기와 커뮤니케이션을 제공하는 로봇은, 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 사용자 단말기 또는 외부 장치와 통신하는 통신부를 더 포함한다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 커뮤니케이션 시스템은, 상기 사용자 단말기의 사용자의 감성에 대응하여 로봇이 동작하도록 하는 동작 속성 정보와 상기 사용자의 감성과 관련된 콘텐츠를 포함하는 메시지를 전송하는 사용자 단말기 및 상기 사용자 단말기로부터 상기 메시지를 수신하고, 상기 동작 속성 정보에 따라서 동작하며, 상기 메시지에 포함된 콘텐츠를 재생하는 로봇을 포함하되, 상기 동작 속성 정보는 상기 사용자의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 상기 사용자 단말기는 감성 종류에 따른 상기 로봇의 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 상기 로봇의 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성한다.
또한, 본 발명의 일 측면에서, 상기 사용자 단말기는 상기 동작 속성 정보를 설정하는 인터페이스를 제공하여 동작 설정 정보를 입력 받는다.
또한, 본 발명의 일 측면에서, 상기 동작 속성 정보는 상기 사용자의 감성을 나타내는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함한다.
또한, 본 발명의 일 측면에서, 상기 로봇은 상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성 종류에 따른 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 각 동작에 대한 속성 값을 추출하고, 상기 추출된 각 동작에 대한 속성 값에 따라서 상기 각 동작을 수행한다.
또한, 본 발명의 일 측면에서, 상기 사용자 단말기와 로봇은 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 서로 통신한다.
상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 로봇과 커뮤니케이션을 제공하는 장치에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (a) 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하는 단계, (b) 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 단계, (c) 상기 선택된 제 1 메뉴의 감성에 대응하여 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 단계 및 (d) 상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 단계를 실행시키되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 로봇과 커뮤니케이션을 제공하는 장치에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (e) 로봇에 저장된 콘텐츠의 목록을 요청하고, 상기 요청된 콘텐츠의 목록을 화면에 표시하는 단계 및 (f) 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송하는 단계를 더 실행시킨다.
상기 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (a) 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 단계, (b) 상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 로봇의 각 동작을 제어하는 단계, (c) 상기 수신된 메시지로부터 콘텐츠를 추출하는 단계 및 (d) 상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 단계를 실행시키되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 로봇의 각 동작에 대한 속성 값을 포함한다.
본 발명의 다른 측면에서, 상기 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (e) 상기 사용자 단말기로부터 콘텐츠의 목록이 요청되면, 상기 로봇에 저장된 콘텐츠를 검색하고, 상기 검색된 콘텐츠의 목록을 상기 사용자 단말기로 전송하는 단계 및 (f) 상기 사용자 단말기로부터 상기 전송된 콘텐츠의 목록 중 어느 하나에 대한 선택 정보가 수신되면, 상기 선택된 콘텐츠를 재생하는 단계를 더 실행시킨다.
상기 목적을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술된 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 실시예들은 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
전술한 본 발명의 커뮤니케이션 시스템, 장치 및 기록 매체의 과제 해결 수단 중 하나에 의하면, 사용자의 감성과 관련된 다양한 콘텐츠를 제작하여 로봇으로 제공함으로써, 사용자의 감성을 효율적으로 전달할 수 있다.
또한, 사용자 단말기에서 로봇의 동작 속성을 직접 설정함으로써, 로봇이 사용자(사용자 단말기의 사용자)의 감성에 대응하는 다양한 감성 표현을 표현할 수 있다.
따라서, 사용자 단말기의 사용자와 로봇의 사용자 간에 효과적인 감성 커뮤니케이션이 이루어질 수 있다.
도 1은 본 발명의 일 실시예에 따른 감성 커뮤니케이션 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 제 1 로봇의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 사용자 단말기의 동작을 도시한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 제 1 로봇의 동작을 도시한 흐름도이다.
도 6a 내지 도 6g는 본 발명의 일 실시예에 따른 사용자 단말기의 화면을 도시한 도면이다.
도 7a 내지 도 7h는 본 발명의 일 실시예에 따른 제 1 로봇의 화면을 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
참고로, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, 그 중간에 다른 구성 요소를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다.
또한 어떤 부분이 어떤 구성 요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 감성 커뮤니케이션 시스템의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 감성 커뮤니케이션 시스템(100)은 사용자 단말기(110), 제 1 로봇(120) 및 제 2 로봇(130)을 포함한다.
각 구성 요소를 설명하면, 사용자 단말기(110)는 사용자의 감성에 대응하여 제 1 로봇(120)이 동작하도록 하는 동작 속성 정보를 생성하고, 사용자의 감성과 관련된 콘텐츠를 제작하여, 동작 속성 정보 및 제작된 콘텐츠를 포함하는 메시지를 제 1 로봇(120)으로 전송한다.
여기서, 사용자의 ‘감성’은 기쁨, 슬픔, 애교, 화남, 분노 및 환호 중 하나 이상을 포함하며, ‘콘텐츠’는 음성, 이미지(사진) 및 동영상 중 하나 이상을 포함할 수 있다.
물론, 본 발명의 ‘감성’과 ‘콘텐츠’는 상기한 예로만 한정되지 않으며, 상기한 감성과 콘텐츠의 종류 이외에도 다양한 감성과 콘텐츠의 종류가 포함될 수 있다.
또한, ‘동작 속성 정보’는 사용자 단말기(110)에 입력된 사용자의 감성에 대한 정보 및 발신자의 감성에 대응하여 제 1 로봇(120)이 동작하도록 하는 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
여기서, 제 1 로봇(120)의 ‘동작’은 동작 속성 정보에 따라서 사용자 단말기(110)의 사용자의 감성을 나타내는 표정을 화면에 표시하고, 사용자 단말기(110)에 입력된 사용자의 음성을 출력하며, 제 1 로봇(120)에 배치된 점등부의 점등 색상이나 점등 속도를 조절하여 발신자의 감성을 나타내는 것을 의미한다.
참고로, 동작 속성 정보에 제 1 로봇(120)의 이동(예를 들어, 한 바퀴 회전, 두 바퀴 회전 또는 일정 거리를 반복으로 왕복하는 등)에 관한 속성 값이 포함된 경우, 상기한 ‘동작’은 ‘이동’의 의미를 더 포함할 수 있다.
사용자 단말기(110)는 감성의 종류에 따른 제 1 로봇(120)의 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 사용자의 감성에 대응하는 각 동작에 대한 속성 값을 추출할 수 있다.
또한, 사용자 단말기(110)는 감성의 종류에 따른 제 1 로봇(120)의 각 동작에 대한 속성 값을 발신자가 직접 설정할 수 있는 인터페이스를 제공하여, 사용자의 감성이 제 1 로봇(120)를 통해 더욱 잘 표현되도록 할 수 있다.
또한, 사용자 단말기(110)는 제 1 로봇(120)에 저장된 콘텐츠의 목록을 요청하는 메시지를 제 1 로봇(120)으로 전송하고, 제 1 로봇(120)로부터 콘텐츠의 목록을 수신하여 화면에 표시할 수 있다.
이후, 화면에 표시된 콘텐츠 중 어느 하나가 선택되면, 사용자 단말기(110)는 선택된 콘텐츠가 제 1 로봇(120)에서 재생될 수 있도록, 선택된 콘텐츠에 대한 재생 요청 메시지를 제 1 로봇(120)으로 전송할 수 있다.
즉, 사용자 단말기(110)는 제 1 로봇(120)의 콘텐츠 재생을 원격으로 제어할 수 있다.
참고로, 사용자 단말기(110)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제 1 로봇(120)과 통신할 수 있으며, 사용자 단말기(110)는 와이파이(Wi-Fi) 또는 블루투스(Bluetooth)를 이용할 수 있는 스마트폰, 핸드폰, PDA 및 PMP 중 하나 이상을 포함하는 이동 통신 단말기와 노트북 컴퓨터를 포함할 수 있다.
이 밖에도 사용자 단말기(110)는 인터넷을 이용하여 제 1 로봇(120)과 통신할 수 있는 데스크탑 컴퓨터와, 셋탑 박스를 포함하는 IPTV를 더 포함할 수도 있다.
사용자 단말기(110)의 구성에 대한 상세한 설명은 도 2를 참조하여 후술하도록 한다.
한편, 제 1 로봇(120)은 사용자 단말기(110)로부터 메시지를 수신하고, 수신된 메시지로부터 동작 속성 정보와 콘텐츠를 추출한다.
이후, 제 1 로봇(120)은 동작 속성 정보의 각 동작에 대한 속성 값에 따라서 동작을 수행하고, 사용자 단말기(110)의 사용자가 선택한 콘텐츠를 재생할 수 있다.
또한, 제 1 로봇(120)은, 사용자 단말기(110)와 같이, 제 1 로봇(120)의 사용자의 감성에 대응하는 콘텐츠를 제작하여 제 2 로봇(130) 또는 그 이외의 다른 통신 단말기로 전송함으로써, 제 1 로봇(120)의 사용자의 감성을 상대방에게 전달할 수 있다.
즉, 제 1 로봇(120)은 사용자 단말기(110) 뿐만 아니라, 제 2 로봇(120)과 감성 커뮤니케이션이 가능하다.
참고로, 제 1 로봇(120)는 어린이들이 친근함을 느낄 수 있는 형상의 로봇을 포함할 수 있다.
이 로봇은 몸체의 일 측면에 디스플레이부(화면)를 포함할 수 있으며, 몸체의 특정 위치에 점등부가 하나 이상 배치될 수 있고, 이동을 위한 복수개의 바퀴(wheel)와 각 바퀴에 동력을 전달하는 구동 수단(예를 들어, 전기 모터 등)를 포함할 수도 있다.
한편, 제 2 로봇(130)은 전술한 제 1 로봇(120)과 동일한 장치이므로 제 2 로봇(130)에 대한 상세한 설명은 생략하도록 한다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기(110)의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 따른 사용자 단말기(110)는 인터페이스 제공부(111), 동작 속성 정보 생성부(112), 동작 속성 DB(113), 원격 제어부(114) 및 통신부(115)를 포함한다.
각 구성 요소를 설명하면, 인터페이스 제공부(111)는 감성의 종류를 각각 나타내는 제 1 메뉴를 화면에 표시한다.
여기서 제 1 메뉴는 각각의 감성(예를 들어, 기쁨, 슬픔, 애교, 화남, 분노 및 환호 등)을 나타내는 버튼이나 아이콘을 포함할 수 있다.
이후, 제 1 메뉴 중 어느 하나가 선택되면, 인터페이스 제공부(111)는 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 화면에 표시한다.
여기서 제 2 메뉴는 콘텐츠를 제작하기 위해 음성, 이미지 및 영상 중 어느 하나를 선택하도록 하는 제 1 인터페이스와, 제 1 인터페이스를 통해 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 포함한다.
또한, 제 2 메뉴는 각 동작에 대한 속성 값을 사용자가 직접 설정하도록 하는 제 3 인터페이스를 포함한다.
제 2 메뉴, 즉 제 1 인터페이스, 2 인터페이스 및 제 3 인터페이스에 대한 설명은 도 6a 내지 도 6g를 참조하여 후술하도록 한다.
한편, 동작 속성 정보 생성부(112)는 사용자로부터 선택된 제 1 메뉴의 감성에 대응하는 동작 속성 정보를 생성한다.
전술한 바와 같이, 동작 속성 정보는 사용자로부터 선택된 제 1 메뉴의 감성에 대한 정보(즉, 사용자가 선택한 감성이 무엇인지에 대한 정보, 예를 들어, 각 감성 별로 부여된 식별자, 이하, ‘감성 정보’라 칭함) 및 제 1 로봇(120)이 동작하는 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
예를 들어, 사용자가 선택한 감성이 ‘즐거움’인 경우, 동작 속성 정보 생성부(112)는 제 1 로봇(120)이 ‘즐거움’이라는 감성에 대응하여 동작하도록 하는 동작 속성 값을 동작 속성 DB(113)로부터 추출한다.
여기서, 동작 속성 DB(113)는 감성의 종류에 따른 각 동작에 대한 속성 값을 저장한다.
만일, 동작 속성 DB(113)에 ‘즐거움’이라는 감성과 매칭된 동작 속성 값이 제 1 로봇(120)의 머리와 팔에 배치된 ‘점등부의 색상 - 노란색’, 머리에 부착된 ‘점등부의 점등 속도 - 3’ 및 팔에 부착된 ‘점등부의 점등 속도 - 1’로 설정된 경우, 동작 속성 정보 생성부(112)는 상기한 동작 속성 값을 추출하여 동작 속성 정보에 포함시킬 수 있다.
또한, 동작 속성 DB(113)의 동작 속성 값에는 사용자가 선택한 감성 정보와 대응되는 음성에 대한 속성 값이 포함될 수 있다.
즉, 사용자가 사용자 단말기(110)에 텍스트 형태의 문자를 입력하는 경우, 해당 문자는 제 1 로봇(120)에서 음성으로 출력될 수 있는데, 이때, 출력되는 음성의 형태(예를 들어, 아기 목소리, 만화 캐릭터 목소리 및 편집 목소리 등), 음속도, 음높이 및 음량 중 하나 이상의 속성 값이 동작 속성 DB(113)에 포함될 수 있다.
또한, 동작 속성 정보 생성부(112)는 동작 속성 값을 사용자가 직접 설정할 수 있는 인터페이스를 통해 입력된 동작 속성 값에 따라서 동작 속성 정보를 생성할 수도 있다.
참고로, 상기한 동작 속성 DB가 제 1 로봇(120)에 존재하는 경우, 동작 속성 정보 생성부(112)는 상기한 동작 속성 값을 추출하지 않을 수 있으며, 감성 정보(상기한 예에서, ‘즐거움’의 식별자)만을 포함하는 동작 속성 정보를 생성할 수 있다.
이 경우, 제 1 로봇(120)은 사용자 단말기(110)로부터 동작 속성 정보를 수신하여 감성 정보를 추출한 후, 추출된 감성 정보에 대응되는 동작 속성 값을 동작 속성 DB로부터 추출할 수 있다.
한편, 원격 제어부(114)는 제 1 로봇(120)에 저장된 콘텐츠의 목록을 요청하는 메시지를 제 1 로봇(120)으로 전송하고, 제 1 로봇(120)으로부터 콘텐츠의 목록을 수신하여 화면에 표시한다.
이후, 원격 제어부(114)는 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 선택된 콘텐츠에 대한 정보를 포함하는 재생 요청 메시지를 제 1 로봇(120)으로 전송하여, 해당 콘텐츠가 제 1 로봇(120)에서 재생되도록 할 수 있다.
한편, 통신부(115)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 사용자 단말기(110)가 제 1 로봇(120)과 통신하도록 할 수 있다.
도 3은 본 발명의 일 실시예에 따른 제 1 로봇(120)의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 따른 제 1 로봇(120)은 동작 속성 정보 추출부(121), 동작 속성 DB(122), 동작 제어부(123), 콘텐츠 추출부(124), 콘텐츠 실행부(125), 인터페이스 제공부(126), 원격 제어부(127), 터치 감지부(128) 및 통신부(129)를 포함한다.
참고로, 본 발명의 실시예에서 제 1 로봇(120)은 머리, 몸체 및 팔을 포함하며, 머리, 몸체 및 팔에는 복수의 LED 발광부가 배치되어 있다.
각 구성 요소를 설명하면, 동작 속성 정보 추출부(121)는 사용자 단말기(110)로부터 메시지가 수신되면, 수신된 메시지로부터 동작 속성 정보를 추출하고, 동작 속성 정보에 포함된 감성 정보와 감성 정보에 대응하는 동작 속성 값을 추출한다.
만일, 수신된 동작 속성 정보에 동작 속성 값이 포함되지 않은 경우, 동작 속성 정보 추출부(121)는 동작 속성 정보에 포함된 감성 정보를 이용하여 동작 속성 DB(122)로부터 해당 감성 정보에 대응하는 동작 속성 값을 추출할 수도 있다.
한편, 동작 제어부(123)는 동작 속성 정보 추출부(121)로부터 추출된 동작 속성 값에 따라서 제 1 로봇(120)의 각 동작을 제어한다.
예를 들어, 감성 정보가 ‘즐거움’이고, 동작 속성 값이 머리와 팔에 부착된 ‘점등부의 색상 - 노란색’, 머리에 부착된 ‘점등부의 점등 속도(초당 점등 속도) - 3’ 및 팔에 부착된 ‘점등부의 점등 속도(초당 점등 속도) - 1’인 경우, 동작 제어부(123)는 즐거움에 해당하는 표정을 화면에 표시하고, 머리와 팔에 배치된 점등부의 색상을 노란색으로 점등시키며, 머리와 팔에 부착된 점등부의 속도를 해당 값에 따라서 조절할 수 있다.
또한, 텍스트 형태의 문자가 메시지에 포함된 경우, 동작 제어부(123)는 동작 속성 값에 포함된 음성의 형태, 음속도, 음높이 및 음량 값에 따라서 해당 문자를 음성으로 출력할 수 있다.
또한, 동작 제어부(123)는 제 1 로봇(120)의 미리 정해진 부분(영역)에 터치가 감지되면, 해당 부분(영역)의 터치에 대응하는 미리 정해진 동작을 수행할 수 있다.
여기서 미리 정해진 부분(영역)은 제 1 로봇(120)의 머리, 몸체, 팔 및 화면을 포함할 수 있고, 미리 정해진 동작은 호(call) 발신, 콘텐츠 제작과 발송, 수신된 메시지 및 콘텐츠 확인 중 하나 이상을 포함할 수 있다.
예를 들어, 사용자 단말기(110)로부터 메시지가 수신된 경우, 제 1 로봇(120)은 “메시지가 도착했어~ 메시지를 확인하려면 내 머리를 쓰다듬어줘~”라는 음성을 출력하고, 제 1 로봇(120)의 사용자가 제 1 로봇(120)의 머리를 터치하는 경우, 동작 제어부(123)는 사용자 단말기(110)로부터 수신된 메시지를 화면에 출력하거나, 동작 속성 값에 따른 음성으로 해당 메시지를 출력할 수 있다.
한편, 콘텐츠 추출부(124)는 사용자 단말기(110)로부터 메시지가 수신되면, 수신된 메시지로부터 콘텐츠를 추출한다.
여기서, 콘텐츠는 발신자의 감성에 대응하여 제작된 음성, 이미지(사진) 및 동영상 중 하나 이상을 포함할 수 있다.
한편, 콘텐츠 실행부(125)는 콘텐츠 추출부(124)로부터 추출된 콘텐츠에 관한 정보를 화면에 표시하고, 표시된 콘텐츠 중 어느 하나가 선택되면, 선택된 콘텐츠를 재생할 수 있다.
한편, 인터페이스 제공부(126)는 제 1 로봇(120)의 사용자가 자신의 감성을 나타내는 메뉴(아이콘)를 선택하도록 하는 인터페이스와, 음성, 이미지(사진) 및 동영상을 제작할 수 있는 인터페이스를 화면에 표시할 수 있다.
한편, 원격 제어부(127)는 인터페이스 제공부(126)로부터 제공되는 인터페이스를 통해서 제 1 로봇(120)의 사용자가 선택한 감성에 대한 정보 및 제작된 콘텐츠를 포함하는 메시지를 사용자 단말기(110), 제 2 로봇(130) 또는 그 이외의 외부 장치로 전송할 수 있다.
이때, 메시지에는 동작 속성 정보가 포함될 수도 있고, 동작 속성 정보가 포함되지 않을 수도 있다.
즉, 원격 제어부(127)로부터 상기한 메시지를 수신하는 대상이 제 1 로봇(120)이나 제 2 로봇(130)과 같이 사용자의 감성에 대응하여 동작할 수 있는 단말기라면 메시지에 동작 속성 정보가 포함될 수 있고, 그렇지 않은 일반적인 통신 단말기라면 동작 속성 정보가 메시지에 포함되지 않을 수도 있다.
이를 위해, 전술한 인터페이스 제공부(126)는 사용자의 감성에 대응하여 동작할 수 있는 로봇이나 지인들의 이동 통신 단말기를 등록할 수 있는 인터페이스를 제공할 수 있다.
한편, 터치 감지부(128)는 제 1 로봇(120)의 미리 정해진 부분(영역)에 터치가 감지되면, 이를 알리는 신호를 동작 제어부(123)로 전송할 수 있다.
이를 위해, 상기한 미리 정해진 부분(영역)에는 외부로부터의 터치를 감지하는 터치 센서가 삽입될 수 있다.
한편, 통신부(129)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제 1 로봇(120)이 사용자 단말기(110) 또는 제 2 로봇(130)과 통신할 수 있도록 할 수 있다.
참고로, 본 발명의 실시예에 따른 도 2 및 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.
그렇지만 ‘구성 요소들’은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자 단말기(110)의 동작을 도시한 흐름도이다.
먼저, 사용자 단말기(110)는 감성의 종류를 각각 나타내는 제 1 메뉴를 화면에 표시한다(S401).
S401 후, 사용자 단말기(110)의 사용자(이하, ‘발신자’라 칭함)에 의해 제 1 메뉴 중 어느 하나가 선택되면, 사용자 단말기(110)는 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 제작하기 위한 제 1 인터페이스를 화면에 표시한다(S402).
여기서, 제 1 인터페이스는 음성, 이미지(사진) 및 영상 중 어느 하나에 대한 사용자의 선택을 입력 받을 수 있다.
S402 후, 사용자 단말기(110)는 S402에서 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 화면에 표시하고, 제 2 인터페이스를 통해 콘텐츠를 생성한다(S403).
여기서, 제 2 인터페이스는 S402에서 선택된 콘텐츠가 ‘음성’인 경우, 음성 메시지를 녹음하도록 하며, S402에서 선택된 콘텐츠가 ‘이미지(사진)’인 경우, 사용자 단말기(110)에 포함된 카메라를 이용하여 사진을 촬영하도록 할 수 있다.
또한, 제 2 인터페이스는 S402에서 선택된 콘텐츠가 ‘동영상’인 경우, 사용자 단말기(110)에 포함된 카메라를 이용하여 동영상을 촬영하도록 하며, 그 외에도 내부(또는 외부)의 저장소에 저장된 이미지(사진)나 동영상을 선택하도록 할 수도 있다.
S403 후, 사용자 단말기(110)는 S402에서 선택된 제 1 메뉴의 감성에 대응하여 제 1 로봇(120)이 동작하는 각 동작에 대한 속성 값을 포함하는 동작 속성 정보를 생성한다(S404).
이때, 사용자 단말기(110)는 S402에서 선택된 제 1 메뉴의 감성에 대응하는 각 동작에 대한 속성 값을 동작 속성 DB(113)로부터 추출할 수 있다.
또한, 사용자 단말기(110)는 S402에서 선택된 제 1 메뉴의 감성에 대응하는 제 1 로봇(120)의 각 동작에 대한 속성 값을 발신자가 설정하도록 인터페이스를 제공하고, 발신자가 설정한 동작 속성 값을 포함하는 동작 속성 정보를 생성할 수도 있다.
S404 후, 사용자 단말기(110)는 S404에서 생성된 동작 속성 정보와 S403에서 생성된 콘텐츠를 포함하는 메시지를 제 1 로봇(120)으로 전송한다(S405).
이때, 사용자 단말기(110)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제 1 로봇(120)으로 메시지를 전송할 수 있다.
도 5는 본 발명의 일 실시예에 따른 제 1 로봇(120)의 동작을 도시한 흐름도이다.
먼저, 제 1 로봇(120)은 사용자 단말기(110)로부터 메시지가 수신되면, 수신된 메시지로부터 동작 속성 정보를 추출한다(S501).
S501 후, 제 1 로봇(120)은 추출된 동작 속성 정보에 각 동작에 대한 속성 값의 포함 여부를 확인한다(S502).
확인 결과, 추출된 동작 속성 정보에 각 동작에 대한 속성 값이 포함되지 않은 경우, 제 1 로봇(120)은 발신자의 감성에 대응하는 제 1 로봇(120)의 각 동작에 대한 속성 값을 동작 속성 DB로부터 추출한다(S503).
S503 후, 제 1 로봇(120)은 추출된 동작 속성 값에 따라서 각 동작을 제어한다(S504).
만일 S502 결과, 동작 속성 정보에 각 동작에 대한 속성 값이 포함된 경우, 제 1 로봇(120)은 각 동작에 대한 속성 값에 따라서 각 동작을 제어한다(S505).
이때, 제 1 로봇(120)은 발신자의 감성에 대응하는 표정을 화면에 표시할 수 있으며, 화면에 표시된 표정 중 특정 영역이 터치되면, 미리 정해진 동작을 수행할 수 있다.
또한, 제 1 로봇(120)은 제 1 로봇(120)의 머리나 팔과 같은 특정 부분이 터치되면, 해당 터치에 대응되는 미리 정해진 동작을 수행할 수 있다.
S505 후, 제 1 로봇(120)은 S501에서 수신된 메시지로부터 콘텐츠를 추출하여 화면에 표시한다(S506).
S506 후, 화면에 표시된 콘텐츠 중 어느 하나가 선택되면, 제 1 로봇(120)은 선택된 콘텐츠를 실행한다(S507).
참고로, 제 1 로봇(120)은 제 1 로봇(120)의 사용자의 감성 정보 및 직접 제작한 콘텐츠를 포함하는 메시지를 제 2 로봇(130)으로 전송할 수 있으며, 이를 위해, 감성의 종류를 각각 나타내는 제 1 메뉴를 화며에 표시하고, 제 1 메뉴 중 어느 하나가 선택되면, 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 화면에 표시할 수 있다.
도 6a 내지 도 6g는 본 발명의 일 실시예에 따른 사용자 단말기(110)의 화면을 도시한 도면이다.
도 6a는 사용자 단말기(110)에서 제 1 로봇(120)과의 네트워크를 연결하는 화면으로서, 검색된 Wi-Fi에서 제 1 로봇(120)이 위치한 장소의 Wi-Fi 액세스포인트(Access Point, 이하 AP라 칭함)를 선택할 수 있다.
도 6b는 감성의 종류(기쁨, 슬픔, 애교, 화남, 분노 및 환호)를 각각 나타내는 제 1 메뉴가 화면에 표시되어 있으며, 그 중 ‘기쁨’이 선택된 경우이다.
화면의 상단에는 발신자의 감성인 ‘기쁨’에 대응하는 표정(이미지)이 표시될 수 있다.
도 6c는 발신자의 감성과 관련된 콘텐츠를 제작하기 위한 제 1 인터페이스와 제 2 인터페이스로서, 도 6b에 도시된 제 1 메뉴 중 어느 하나가 선택되면 도 6c에 도시된 바와 같이 제 1 인터페이스가 화면에 팝업(pop-up)되어 표시될 수 있다.
제 1 인터페이스는 음성, 사진 및 영상 중 어느 하나에 대한 선택을 입력 받을 수 있으며, 내부(또는 외부) 저장소에 저장된 콘텐츠에 대한 선택을 입력 받을 수도 있다.
도 6c와 같이, 제 1 인터페이스에서 ‘음성’이 선택된 경우, 음성 메시지를 녹음할 수 있는 제 2 인터페이스가 화면에 표시될 수 있다.
음성 메시지를 녹음하기 위한 제 2 인터페이스는 녹음 버튼이 클릭될 때 녹음이 시작되며, 이때 녹음 버튼은 정지 버튼으로 변경될 수 있다.
녹음 버튼의 하단에는 녹음 경과 시간이 bar 형태로 표시되어 있고, 좌측 부분에는 녹화 시간이, 우측 부분에는 제한 시간(30초)이 표시되어 있다.
이후, 녹음 경과 시간 bar의 하단에 위치한 추가 버튼이 클릭되면 녹음이 완료된 음성 파일을 포함하는 메시지가 생성될 수 있다.
도 6d는 제 1 인터페이스에서 ‘사진/영상’이 선택된 경우이며, 사진/영상을 촬영할 수 있는 제 2 인터페이스가 화면에 표시될 수 있다.
참고로, 도 6d에 도시된 제 2 인터페이스는 이동 통신 단말기의 기본 기능인 사진/동영상 촬영 애플리케이션과 연동될 수도 있다.
사진/영상의 촬영이 완료되면 도 6d에 도시된 바와 같은 팝업 메시지가 표시될 수 있으며, ‘O’를 클릭하면 촬영이 완료된 이미지/동영상 파일을 포함하는 메시지가 생성될 수 있다.
도 6e는 제 1 인터페이스에서 ‘갤러리’가 선택된 경우이며, 내부(또는 외부)의 저장소에 저장된 사진이나 동영상에 대한 선택을 입력 받을 수 있는 제 2 인터페이스가 화면에 표시될 수 있다.
참고로, 제 2 인터페이스를 통해 사진이나 동영상이 다중 선택될 수도 있으며, 추가 버튼이 선택되면, 선택된 사진이나 동영상을 포함하는 메시지가 생성될 수 있다.
도 6f는 발신자의 감성에 대응하는 동작 속성 값을 설정하기 위한 인터페이스로서, 감성에 대응하는 표정이 선택되면, 선택된 감성에 대응하는 동작 속성 값을 설정할 수 있는 화면이 표시될 수 있다.
이때, 제 1 로봇(120)의 전체 모습이 화면에 표시될 수 있으며, 제 1 로봇(120)의 얼굴에는 이전 화면에서 선택된 표정이 적용될 수 있다.
발신자는 도 6f에 도시된 바와 같이, 제 1 로봇(120)의 점등부 LED 색상, 머리의 점등부(뿔 형태) 및 팔의 점등부(원 형태)에 대한 점등 속도를 설정할 수 있다.
참고로, 도 6f에 도시된 점등 속도는 초당 점등 속도로서, 각 부분별로 초당 3회 그리고 1회 점등될 수 있음을 의미한다.
만일 점등 속도가 ‘0’으로 설정되면 별도의 점등 없이 LED의 색상만을 적용할 수 있다.
도 6g는 발신자의 감성에 대응하는 동작 속성 값을 설정하기 위한 인터페이스로서, 제 1 로봇(120)의 목소리를 설정하기 위한 화면이다.
제 1 로봇(120)의 목소리로 사용할 수 있는 사용 가능 목소리 리스트가 화면에 표시될 수 있으며, 수정 버튼이 선택되면 기존에 설정된 목소리가 수정될 수 있고, 추가 버튼이 선택되면 신규 목소리를 추가할 수도 있다.
또한, 텍스트를 입력한 후 미리 듣기 버튼이 선택하면, 입력된 텍스트가 설정된 목소리로 출력될 수 있으며, 음속도, 음높이, 음량도 조절될 수 있다.
도 7a 내지 도 7h는 본 발명의 일 실시예에 따른 제 1 로봇(120)의 화면을 도시한 도면이다.
도 7a는 사용자 단말기(110)로부터 메시지를 수신한 제 1 로봇(120)의 상태로서, 제 1 로봇(120)이 절전 모드인 경우, Power on인 경우 및 조작 중인 경우가 각각 도시되어 있다.
제 1 로봇(120)이 절전 모드인 상태에서 메시지가 수신되면, 머리의 점등부와 팔의 점등부가 초당 수회 깜박일 수 있으며, 이때 머리가 터치되면 메시지가 도착했음을 알리는 음성이 출력되고, 메시지 확인 화면이 표시될 수 있다.
또한, 제 1 로봇(120)이 Power on인 상태에서 메시지가 수신되면, “OO아, OO에게 연락이 왔어. 확인해볼래? 내 머리를 쓰다듬어 주면 내가 전해줄께!”라는 음성이 출력될 수 있으며, 이후 머리가 터치되면 메시지 확인 화면이 표시될 수 있다.
또한, 제 1 로봇(120)이 조작 중인 상태에서 메시지가 수신되면, “OO아, OO에게 연락이 왔어. 확인해볼래? 내 머리를 쓰다듬어 주면 내가 전해줄께! 나중에 확인하려면 내 발을 만져줘~”라는 음성이 출력될 수 있으며, 터치에 따라서 메시지 확인 화면이 표시되거나 메시지 확인이 취소될 수 있다.
참고로, 아직 확인하지 않은 메시지가 존재하는 경우에는, 상기한 상황에서 점등부의 LED가 초당 수회 깜박일 수 있다.
도 7b는 메시지 확인 시 발신자의 감성을 나타내는 표정이 제 1 로봇(120)의 화면에 표시된 도면이다.
도 7b는 발신자의 감성이 ‘즐거움’인 경우이며, 그 외에도 ‘놀람’이나 ‘삐짐’과 같은 발신자의 감성을 나타내는 표정이 화면에 표시될 수 있다.
또한, 화면에 표시된 표정의 특정 영역(도 7b에서는 입)이 터치되면 메시지에 포함된 콘텐츠 정보가 화면에 표시될 수 있다.
이를 위해, 제 1 로봇(120)은 “OO에게 온 메시지가 더 있어! 확인해볼까? 확인하고 싶으면 내 입을 만져줘~”라는 음성을 출력하여, 제 1 로봇(120)의 사용자의 터치를 유도할 수 있다.
도 7c는 메시지에 포함된 콘텐츠 정보가 제 1 로봇(120)의 화면에 표시된 도면이다.
사용자 단말기(110)로부터 사진, 음성 및 동영상을 포함하는 메시지가 수신되면, 제 1 로봇(120)은 도 7c와 같이 화면에 표시하고, 제 1 로봇(120)의 사용자가 그 중 어느 하나를 선택하면, 제 1 로봇(120)은 선택된 콘텐츠를 화면에서 재생할 수 있다.
또한, 모든 콘텐츠를 미리 정해진 시간 간격을 가지고 순서대로 자동 재생할 수 있다.
예를 들어, 각 사진당 10초, 동영상 30초, 음성 30초와 같이 순서대로 재생함으로써, 제 1 로봇(120)의 사용자가 첨부된 파일의 개수를 인지하도록 하는 교육의 효과도 있다.
참고로, 발신자의 사진이 제 1 로봇(120)에 등록된 경우, 메시지 수신 시 등록된 사진이 화면에 표시될 수 있으며, 사진이 등록되지 않은 경우는 별도의 아이콘으로 표시될 수 있다.
도 7d는 제 1 로봇(120)에서 타 단말기로 메시지를 전송하기 위한 인터페이스를 도시한 도면이다.
제 1 로봇(120)은 도 7d에 도시된 화면을 표시하면서 “누구한테 보낼까?”라는 음성을 출력할 수 있으며, 이때, 연락처가 등록된 캐릭터 아이콘이나 사진이 화면에 표시될 수 있다.
제 1 로봇(120)의 사용자는 화면에 표시된 수신 대상 중 어느 하나를 선택할 수 있다.
도 7e는 제 1 로봇(120)에서 타 단말기로 메시지 전송 시, 감성을 나타내는 표정을 선택하기 위한 인터페이스를 도시한 도면이다.
제 1 로봇(120)은 도 7e에 도시된 화면을 표시하면서 “지금 기분이 어때?”라는 음성을 출력할 수 있으며, 제 1 로봇(120)의 사용자는 화면에 표시된 표정 중 자신의 감성과 일치하거나 유사한 표정을 선택할 수 있다.
표정이 선택되면 제 1 로봇(120)은 도 7f에 도시된 화면을 표시한다.
도 7f는 제 1 로봇(120)에서 타 단말기로 메시지 전송 시, 감성과 대응하는 콘텐츠를 제작하기 위한 인터페이스를 도시한 도면이다.
제 1 로봇(120)의 사용자는 도 7f에 도시된 화면을 통해서, 사진, 음성, 동영상 중 어느 하나를 선택하여 해당 콘텐츠를 제작할 수 있으며, 내부(또는 외부)의 저장소에 저장된 콘텐츠를 선택할 수도 있다.
참고로, 도 7f에 도시된 화면을 통해 각 콘텐츠를 순차적으로 제작함으로써, 복수의 콘텐츠를 상대방에게 전송할 수 있다.
예를 들어, ‘음성 녹음’을 선택하여 음성을 녹음한 후, 다시 도 7f에 도시된 화면으로 복귀하여 ‘갤러리’를 선택하여 기존에 촬영했던 동영상을 선택함으로써, 상대방에게 음성 파일과 동영상 파일을 함께 전송할 수 있다.
도 7g에 도시된 팝업 화면은 도 7f에서 각 콘텐츠가 선택됐을 때 표시되는 인터페이스를 도시한 도면이다.
도 7g에 도시된 팝업 화면이 표시되면서, 해당 콘텐츠에 해당하는 음성도 함께 출력될 수 있다.
도 7h는 도 7g에 도시된 파업 화면에서 사진/동영상 촬영과 음성 녹음이 선택된 경우 제공되는 인터페이스를 도시한 도면이다.
도 7h에 도시된 인터페이스를 통해 콘텐츠의 제작이 완료되면, “다 됐군, 그럼 보내볼까?”라는 음성이 출력될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 감성 커뮤니케이션 시스템
110 : 사용자 단말기
111 : 인터페이스 제공부
112 : 동작 속성 정보 생성부
113 : 동작 속성 DB
114 : 원격 제어부
115 : 통신부
120 : 제 1 로봇
121 : 동작 속성 정보 추출부
122 : 동작 속성 DB
123 : 동작 제어부
124 : 콘텐츠 추출부
125 : 콘텐츠 실행부
126 : 인터페이스 제공부
127 : 원격 제어부
128 : 터치 감지부
129 : 통신부
130 : 제 2 로봇

Claims (24)

  1. 로봇과 커뮤니케이션을 제공하는 장치에 있어서,
    감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부,
    상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 동작 속성 정보 생성부 및
    상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 원격 제어부
    를 포함하되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함하는 것인, 커뮤니케이션 장치.
  2. 제 1 항에 있어서,
    상기 인터페이스 제공부는
    음성, 이미지 및 영상 중 어느 하나를 선택하도록 하는 제 1 인터페이스 및 상기 제 1 인터페이스를 통해 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 제공하는, 커뮤니케이션 장치.
  3. 제 1 항에 있어서,
    상기 동작 속성 정보 생성부는
    상기 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성하는, 커뮤니케이션 장치.
  4. 제 1 항에 있어서,
    상기 동작 속성 정보 생성부는
    상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값에 따라서 상기 동작 속성 정보를 생성하는, 커뮤니케이션 장치.
  5. 제 3 항 또는 제 4 항에 있어서,
    상기 각 동작에 대한 속성 값은 상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함하는 것인, 커뮤니케이션 장치.
  6. 제 1 항에 있어서,
    와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 로봇과 통신하는 통신부
    를 더 포함하는, 커뮤니케이션 장치.
  7. 제 1 항에 있어서,
    상기 원격 제어부는 상기 로봇에 저장된 콘텐츠의 목록을 요청하여 상기 콘텐츠의 목록을 화면에 표시하고, 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송하는, 커뮤니케이션 장치.
  8. 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 있어서,
    상기 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 동작 속성 정보 추출부,
    상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 상기 로봇의 각 동작을 제어하는 동작 제어부,
    상기 수신된 메시지로부터 콘텐츠를 추출하는 콘텐츠 추출부 및
    상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 콘텐츠 실행부
    를 포함하되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 각 동작에 대한 속성 값을 포함하는 것인, 커뮤니케이션 장치.
  9. 제 8 항에 있어서,
    상기 동작 속성 정보 추출부는
    상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 사용자의 감성에 대한 정보에 대응하는 각 동작에 대한 속성 값을 추출하는, 커뮤니케이션 장치.
  10. 제 8 항에 있어서,
    감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부 및
    상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 외부 장치로 전송하는 원격 제어부
    를 더 포함하는, 커뮤니케이션 장치.
  11. 제 8 항에 있어서,
    상기 각 동작에 대한 속성 값은 상기 사용자의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함하는, 커뮤니케이션 장치.
  12. 제 11 항에 있어서,
    상기 동작 제어부는
    상기 표정을 화면에 표시하고, 상기 화면에 표시된 표정 중 특정 영역이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행하는, 커뮤니케이션 장치.
  13. 제 11 항에 있어서,
    상기 동작 제어부는
    상기 로봇의 특정 부분이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행하는, 커뮤니케이션 장치.
  14. 제 10 항에 있어서,
    와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 사용자 단말기 또는 외부 장치와 통신하는 통신부
    를 더 포함하는, 커뮤니케이션 장치.
  15. 사용자 단말기와 로봇을 포함하는 커뮤니케이션 시스템에 있어서,
    상기 사용자 단말기의 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보와 상기 사용자의 감성과 관련된 콘텐츠를 포함하는 메시지를 전송하는 사용자 단말기 및
    상기 사용자 단말기로부터 상기 메시지를 수신하고, 상기 동작 속성 정보에 따라서 동작하며, 상기 메시지에 포함된 콘텐츠를 재생하는 로봇
    을 포함하되, 상기 동작 속성 정보는 상기 사용자의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함하는 것인, 커뮤니케이션 시스템.
  16. 제 15 항에 있어서,
    상기 사용자 단말기는 감성 종류에 따른 상기 로봇의 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 상기 로봇의 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성하는, 커뮤니케이션 시스템.
  17. 제 15 항에 있어서,
    상기 사용자 단말기는 상기 동작 속성 정보를 설정하는 인터페이스를 제공하여 동작 설정 정보를 입력 받는, 커뮤니케이션 시스템.
  18. 제 15 항에 있어서,
    상기 동작 속성 정보는 상기 사용자의 감성을 나타내는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함하는, 커뮤니케이션 시스템.
  19. 제 15 항에 있어서,
    상기 로봇은 상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성 종류에 따른 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 각 동작에 대한 속성 값을 추출하고, 상기 추출된 각 동작에 대한 속성 값에 따라서 상기 각 동작을 수행하는, 커뮤니케이션 시스템.
  20. 제 15 항에 있어서,
    상기 사용자 단말기와 로봇은 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 서로 통신하는, 커뮤니케이션 시스템.
  21. 로봇과 커뮤니케이션을 제공하는 장치에 설치되는 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    (a) 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하는 단계,
    (b) 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 단계,
    (c) 상기 선택된 제 1 메뉴의 감성에 대응하여 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 단계 및
    (d) 상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 단계
    를 실행시키되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  22. 제 21 항에 있어서,
    (e) 로봇에 저장된 콘텐츠의 목록을 요청하고, 상기 요청된 콘텐츠의 목록을 화면에 표시하는 단계 및
    (f) 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송하는 단계
    를 더 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  23. 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 설치되는 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    (a) 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 단계,
    (b) 상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 로봇의 각 동작을 제어하는 단계,
    (c) 상기 수신된 메시지로부터 콘텐츠를 추출하는 단계 및
    (d) 상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 단계
    를 실행시키되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 로봇의 각 동작에 대한 속성 값을 포함하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
  24. 제 23 항에 있어서,
    (e) 상기 사용자 단말기로부터 콘텐츠의 목록이 요청되면, 상기 로봇에 저장된 콘텐츠를 검색하고, 상기 검색된 콘텐츠의 목록을 상기 사용자 단말기로 전송하는 단계 및
    (f) 상기 사용자 단말기로부터 상기 전송된 콘텐츠의 목록 중 어느 하나에 대한 선택 정보가 수신되면, 상기 선택된 콘텐츠를 재생하는 단계
    를 더 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020120015407A 2012-02-15 2012-02-15 커뮤니케이션 시스템, 장치 및 기록 매체 KR20130094058A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120015407A KR20130094058A (ko) 2012-02-15 2012-02-15 커뮤니케이션 시스템, 장치 및 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120015407A KR20130094058A (ko) 2012-02-15 2012-02-15 커뮤니케이션 시스템, 장치 및 기록 매체

Publications (1)

Publication Number Publication Date
KR20130094058A true KR20130094058A (ko) 2013-08-23

Family

ID=49218039

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120015407A KR20130094058A (ko) 2012-02-15 2012-02-15 커뮤니케이션 시스템, 장치 및 기록 매체

Country Status (1)

Country Link
KR (1) KR20130094058A (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170055040A (ko) * 2015-11-10 2017-05-19 (주)이산솔루션 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템
US10289076B2 (en) 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
KR20200056378A (ko) 2017-09-22 2020-05-22 가부시끼가이샤 도꾸야마 Ⅲ족 질화물 단결정 기판
CN112338907A (zh) * 2019-08-09 2021-02-09 深圳市三宝创新智能有限公司 一种用于助教机器人的客户端
CN112698747A (zh) * 2020-12-29 2021-04-23 深圳市普渡科技有限公司 机器人触摸互动方法及机器人
CN114347061A (zh) * 2022-01-24 2022-04-15 美的集团(上海)有限公司 机器人的氛围灯设置方法、设置装置及机器人
US11325260B2 (en) 2018-06-14 2022-05-10 Lg Electronics Inc. Method for operating moving robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040044316A (ko) * 2002-11-21 2004-05-28 삼성전자주식회사 가정용 로봇을 이용한 애완동물 로봇의 제공 장치 및 그방법
JP2004237432A (ja) * 2003-02-07 2004-08-26 Navigation Networks:Kk インターネットを使ったロボット用プログラムおよびコンテンツを含むロボット番組の配信方法
KR20070099831A (ko) * 2006-04-05 2007-10-10 주식회사 케이티 소봇을 이용한 스마트한 인맥관리 및 통합 메시징 시스템및 그 서비스 제공 방법
US20090157221A1 (en) * 2007-12-14 2009-06-18 Hon Hai Precision Industry Co., Ltd. Robotic system, robot and mobile phone
KR20110086616A (ko) * 2008-11-19 2011-07-28 알까뗄 루슨트 위치지정 가능한 장소에서 사람이 경험한 감정을 나타내는 데이터를 기록하는 방법 및 장치, 그리고 그 연관 서버
US20110191516A1 (en) * 2010-02-04 2011-08-04 True Xiong Universal touch-screen remote controller

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040044316A (ko) * 2002-11-21 2004-05-28 삼성전자주식회사 가정용 로봇을 이용한 애완동물 로봇의 제공 장치 및 그방법
JP2004237432A (ja) * 2003-02-07 2004-08-26 Navigation Networks:Kk インターネットを使ったロボット用プログラムおよびコンテンツを含むロボット番組の配信方法
KR20070099831A (ko) * 2006-04-05 2007-10-10 주식회사 케이티 소봇을 이용한 스마트한 인맥관리 및 통합 메시징 시스템및 그 서비스 제공 방법
US20090157221A1 (en) * 2007-12-14 2009-06-18 Hon Hai Precision Industry Co., Ltd. Robotic system, robot and mobile phone
KR20110086616A (ko) * 2008-11-19 2011-07-28 알까뗄 루슨트 위치지정 가능한 장소에서 사람이 경험한 감정을 나타내는 데이터를 기록하는 방법 및 장치, 그리고 그 연관 서버
US20110191516A1 (en) * 2010-02-04 2011-08-04 True Xiong Universal touch-screen remote controller

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170055040A (ko) * 2015-11-10 2017-05-19 (주)이산솔루션 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템
US10289076B2 (en) 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
KR20200056378A (ko) 2017-09-22 2020-05-22 가부시끼가이샤 도꾸야마 Ⅲ족 질화물 단결정 기판
US11325260B2 (en) 2018-06-14 2022-05-10 Lg Electronics Inc. Method for operating moving robot
US11787061B2 (en) 2018-06-14 2023-10-17 Lg Electronics Inc. Method for operating moving robot
CN112338907A (zh) * 2019-08-09 2021-02-09 深圳市三宝创新智能有限公司 一种用于助教机器人的客户端
CN112698747A (zh) * 2020-12-29 2021-04-23 深圳市普渡科技有限公司 机器人触摸互动方法及机器人
CN114347061A (zh) * 2022-01-24 2022-04-15 美的集团(上海)有限公司 机器人的氛围灯设置方法、设置装置及机器人

Similar Documents

Publication Publication Date Title
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
TWI681298B (zh) 觸碰式通訊系統和方法
KR20130094058A (ko) 커뮤니케이션 시스템, 장치 및 기록 매체
TWI650977B (zh) 即時通訊過程中的表情信息處理方法及裝置
US10357881B2 (en) Multi-segment social robot
US20180160075A1 (en) Automatic Camera Selection
US20170206064A1 (en) Persistent companion device configuration and deployment platform
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
US20140351720A1 (en) Method, user terminal and server for information exchange in communications
US20150264303A1 (en) Stop Recording and Send Using a Single Action
JP6467554B2 (ja) メッセージ送信方法、メッセージ処理方法及び端末
WO2016011159A9 (en) Apparatus and methods for providing a persistent companion device
US10178346B2 (en) Highlighting unread messages
US9749585B2 (en) Highlighting unread messages
US20190246064A1 (en) Automatic camera selection
US20150264307A1 (en) Stop Recording and Send Using a Single Action
US20150264305A1 (en) Playback of Interconnected Videos
KR20080045924A (ko) 원격대화에서 감정 및 의사의 표현 방법과 이를 위한 리얼이모티콘 시스템
JP2016189121A (ja) 情報処理装置、情報処理方法およびプログラム
KR20130093186A (ko) 인터랙티브 캐릭터를 활용한 동영상 제작 장치
CN114666296A (zh) 多媒体内容生成方法、系统及计算机可读记录介质
WO2018183812A1 (en) Persistent companion device configuration and deployment platform
KR100799160B1 (ko) 메신저와 로봇 연동 방법 및 장치
US20220319134A1 (en) Contextual Message Delivery in Artificial Reality
TWI537936B (zh) 語音資料呈現方法及系統,及其電腦程式產品

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application