KR20130094058A - 커뮤니케이션 시스템, 장치 및 기록 매체 - Google Patents
커뮤니케이션 시스템, 장치 및 기록 매체 Download PDFInfo
- Publication number
- KR20130094058A KR20130094058A KR1020120015407A KR20120015407A KR20130094058A KR 20130094058 A KR20130094058 A KR 20130094058A KR 1020120015407 A KR1020120015407 A KR 1020120015407A KR 20120015407 A KR20120015407 A KR 20120015407A KR 20130094058 A KR20130094058 A KR 20130094058A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- emotion
- menu
- attribute information
- user terminal
- Prior art date
Links
- 238000004891 communication Methods 0.000 title claims abstract description 49
- 230000033001 locomotion Effects 0.000 claims abstract description 77
- 230000008451 emotion Effects 0.000 claims description 127
- 230000009471 action Effects 0.000 claims description 46
- 238000000034 method Methods 0.000 claims description 21
- 230000004044 response Effects 0.000 claims description 21
- 230000014509 gene expression Effects 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 9
- 230000008921 facial expression Effects 0.000 claims description 5
- 230000036651 mood Effects 0.000 abstract 5
- 230000000875 corresponding effect Effects 0.000 description 38
- 230000002996 emotional effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000012790 confirmation Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B5/00—Near-field transmission systems, e.g. inductive or capacitive transmission systems
- H04B5/40—Near-field transmission systems, e.g. inductive or capacitive transmission systems characterised by components specially adapted for near-field transmission
- H04B5/48—Transceivers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Toys (AREA)
Abstract
커뮤니케이션 시스템, 장치 및 기록 매체가 제공된다. 사용자 단말기와 로봇을 포함하는 커뮤니케이션 시스템은, 상기 사용자 단말기의 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보와 상기 사용자의 감성과 관련된 콘텐츠를 포함하는 메시지를 전송하는 사용자 단말기 및 상기 사용자 단말기로부터 상기 메시지를 수신하고, 상기 동작 속성 정보에 따라서 동작하며, 상기 메시지에 포함된 콘텐츠를 재생하는 로봇을 포함하되, 상기 동작 속성 정보는 상기 사용자의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
Description
본 발명은 커뮤니케이션 시스템, 장치 및 기록 매체에 관한 것으로서, 보다 상세하게는 감성 커뮤니케이션을 제공하는 시스템, 장치 및 기록 매체에 관한 것이다.
미래에는 홈로봇이 각 가정마다 보급되어 각 가정에서 홈로봇이 다양하게 이용되게 되는데, 그 하나의 분야가 홈로봇이 수신된 이메일을 자신의 내장 표시 장치에 표시해 주는 기능이다.
이러한 기술에서는 각각의 홈로봇이 일종의 인터넷 가능 PC 역할을 하여 IP주소가 부여되어 있어, 이 IP주소로 이메일이 수신되면 저장하고 있다가 사용자가 수신된 이메일을 보여주기를 원하는 경우 또는 수신 즉시 이메일을 보여주도록 설정되어 있는 경우에 홈로봇은 화면에 수신된 이메일을 표시해 주게 된다.
그런데, 이러한 홈로봇에서는 이메일을 시각적으로 표시해 줄 뿐 읽어주는 기능(문자를 음성으로 변환해 주는 기능; TTS(Text To Speech)기능)이 없고, 읽어주는 기능이 있다고 하여도 문장을 읽어주는 정도에 그치고 이 문장의 내용에 따른 아무런 동작도 실행하지 않아, 무미건조한 읽어주는 기능에 불과하여 흥미를 유발시키지 못한다.
이에, 한국공개특허 제2007-0008477호(감성 전달 기능을 가진 동작 포함 로봇 채팅 시스템)에서는 메신저 등을 사용하여 채팅을 하는 양 당사자가 채팅 시에 문장뿐만 아니라, 감성(감정)에 대응하는 동작명이나 이모티콘을 넣어서 채팅을 수행하면, 로봇이 문장 부분을 음성으로 읽어주면서 감성 대응 동작명이나 이모티콘에 대응하는 동작이 로봇에서 실행되게 하는 기술을 개시하였다.
그러나 상기한 기술은 발신자의 감성과 관련된 다양한 콘텐츠를 제작하여 로봇으로 전송할 수 없고, 로봇의 동작 역시 발신자의 감성에 대응하는 다양한 동작을 실행하는 것이 아니라, 로봇 채팅 시스템을 제공하는 업체에서 미리 정한 동작만을 수행하는 한계가 있어, 사용자의 감성을 수신자에게 제대로 전달할 수 없는 문제점이 있다.
상술한 종래 기술의 문제점을 해결하기 위해, 본 발명은 사용자의 감성과 관련된 다양한 콘텐츠를 제작하여 로봇으로 제공하는 커뮤니케이션 시스템, 장치 및 기록 매체를 제공한다.
또한, 본 발명은 사용자의 감성에 대응하여 로봇이 동작할 수 있도록, 사용자 단말기에서 로봇의 동작 속성을 설정할 수 있는 커뮤니케이션 시스템, 장치 및 기록 매체를 제공한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 로봇과 커뮤니케이션을 제공하는 장치는, 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부, 상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 동작 속성 정보 생성부 및 상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 원격 제어부를 포함하되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 상기 인터페이스 제공부는 음성, 이미지 및 영상 중 어느 하나를 선택하도록 하는 제 1 인터페이스 및 상기 제 1 인터페이스를 통해 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 제공한다.
또한, 본 발명의 일 측면에서, 상기 동작 속성 정보 생성부는 상기 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성한다.
또한, 본 발명의 일 측면에서, 상기 동작 속성 정보 생성부는 상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값에 따라서 상기 동작 속성 정보를 생성한다.
또한, 본 발명의 일 측면에서, 상기 각 동작에 대한 속성 값은 상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함한다.
또한, 본 발명의 일 측면에서, 상기 로봇과 커뮤니케이션을 제공하는 장치는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 로봇과 통신하는 통신부를 더 포함한다.
또한, 본 발명의 일 측면에서 상기 원격 제어부는 상기 로봇에 저장된 콘텐츠의 목록을 요청하여 상기 콘텐츠의 목록을 화면에 표시하고, 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송한다.
상기 목적을 달성하기 위하여, 본 발명의 다른 측면에 따른 사용자 단말기와 커뮤니케이션을 제공하는 로봇은, 상기 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 동작 속성 정보 추출부, 상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 상기 로봇의 각 동작을 제어하는 동작 제어부, 상기 수신된 메시지로부터 콘텐츠를 추출하는 콘텐츠 추출부 및 상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 콘텐츠 실행부
를 포함하되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 각 동작에 대한 속성 값을 포함한다.
본 발명의 다른 측면에서, 상기 동작 속성 정보 추출부는 상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 사용자의 감성에 대한 정보에 대응하는 각 동작에 대한 속성 값을 추출한다.
또한, 본 발명의 다른 측면에서, 상기 사용자 단말기와 커뮤니케이션을 제공하는 로봇은, 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부 및 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 외부 장치로 전송하는 원격 제어부를 더 포함한다.
또한, 본 발명의 다른 측면에서, 상기 각 동작에 대한 속성 값은 상기 사용자의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함한다.
또한, 본 발명의 다른 측면에서, 상기 동작 제어부는 상기 표정을 화면에 표시하고, 상기 화면에 표시된 표정 중 특정 영역이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행한다.
또한, 본 발명의 다른 측면에서, 상기 동작 제어부는 상기 로봇의 특정 부분이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행한다.
또한, 본 발명의 다른 측면에서, 상기 사용자 단말기와 커뮤니케이션을 제공하는 로봇은, 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 사용자 단말기 또는 외부 장치와 통신하는 통신부를 더 포함한다.
상기 목적을 달성하기 위하여, 본 발명의 일 측면에 따른 커뮤니케이션 시스템은, 상기 사용자 단말기의 사용자의 감성에 대응하여 로봇이 동작하도록 하는 동작 속성 정보와 상기 사용자의 감성과 관련된 콘텐츠를 포함하는 메시지를 전송하는 사용자 단말기 및 상기 사용자 단말기로부터 상기 메시지를 수신하고, 상기 동작 속성 정보에 따라서 동작하며, 상기 메시지에 포함된 콘텐츠를 재생하는 로봇을 포함하되, 상기 동작 속성 정보는 상기 사용자의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 상기 사용자 단말기는 감성 종류에 따른 상기 로봇의 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 상기 로봇의 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성한다.
또한, 본 발명의 일 측면에서, 상기 사용자 단말기는 상기 동작 속성 정보를 설정하는 인터페이스를 제공하여 동작 설정 정보를 입력 받는다.
또한, 본 발명의 일 측면에서, 상기 동작 속성 정보는 상기 사용자의 감성을 나타내는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함한다.
또한, 본 발명의 일 측면에서, 상기 로봇은 상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성 종류에 따른 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 각 동작에 대한 속성 값을 추출하고, 상기 추출된 각 동작에 대한 속성 값에 따라서 상기 각 동작을 수행한다.
또한, 본 발명의 일 측면에서, 상기 사용자 단말기와 로봇은 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 서로 통신한다.
상기 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 로봇과 커뮤니케이션을 제공하는 장치에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (a) 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하는 단계, (b) 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 단계, (c) 상기 선택된 제 1 메뉴의 감성에 대응하여 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 단계 및 (d) 상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 단계를 실행시키되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
본 발명의 일 측면에서, 로봇과 커뮤니케이션을 제공하는 장치에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (e) 로봇에 저장된 콘텐츠의 목록을 요청하고, 상기 요청된 콘텐츠의 목록을 화면에 표시하는 단계 및 (f) 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송하는 단계를 더 실행시킨다.
상기 목적을 달성하기 위하여, 본 발명의 다른 실시예에 따른 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (a) 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 단계, (b) 상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 로봇의 각 동작을 제어하는 단계, (c) 상기 수신된 메시지로부터 콘텐츠를 추출하는 단계 및 (d) 상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 단계를 실행시키되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 로봇의 각 동작에 대한 속성 값을 포함한다.
본 발명의 다른 측면에서, 상기 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 설치되는 컴퓨터로 읽을 수 있는 기록 매체는 (e) 상기 사용자 단말기로부터 콘텐츠의 목록이 요청되면, 상기 로봇에 저장된 콘텐츠를 검색하고, 상기 검색된 콘텐츠의 목록을 상기 사용자 단말기로 전송하는 단계 및 (f) 상기 사용자 단말기로부터 상기 전송된 콘텐츠의 목록 중 어느 하나에 대한 선택 정보가 수신되면, 상기 선택된 콘텐츠를 재생하는 단계를 더 실행시킨다.
상기 목적을 달성하기 위한 구체적인 사항들은 첨부된 도면과 함께 상세하게 후술된 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라, 서로 다른 다양한 형태로 구성될 수 있으며, 본 실시예들은 본 발명의 개시가 완전하도록 하고 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.
전술한 본 발명의 커뮤니케이션 시스템, 장치 및 기록 매체의 과제 해결 수단 중 하나에 의하면, 사용자의 감성과 관련된 다양한 콘텐츠를 제작하여 로봇으로 제공함으로써, 사용자의 감성을 효율적으로 전달할 수 있다.
또한, 사용자 단말기에서 로봇의 동작 속성을 직접 설정함으로써, 로봇이 사용자(사용자 단말기의 사용자)의 감성에 대응하는 다양한 감성 표현을 표현할 수 있다.
따라서, 사용자 단말기의 사용자와 로봇의 사용자 간에 효과적인 감성 커뮤니케이션이 이루어질 수 있다.
도 1은 본 발명의 일 실시예에 따른 감성 커뮤니케이션 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 제 1 로봇의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 사용자 단말기의 동작을 도시한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 제 1 로봇의 동작을 도시한 흐름도이다.
도 6a 내지 도 6g는 본 발명의 일 실시예에 따른 사용자 단말기의 화면을 도시한 도면이다.
도 7a 내지 도 7h는 본 발명의 일 실시예에 따른 제 1 로봇의 화면을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기의 구성을 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 제 1 로봇의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 사용자 단말기의 동작을 도시한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 제 1 로봇의 동작을 도시한 흐름도이다.
도 6a 내지 도 6g는 본 발명의 일 실시예에 따른 사용자 단말기의 화면을 도시한 도면이다.
도 7a 내지 도 7h는 본 발명의 일 실시예에 따른 제 1 로봇의 화면을 도시한 도면이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다.
그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
참고로, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, 그 중간에 다른 구성 요소를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다.
또한 어떤 부분이 어떤 구성 요소를 ‘포함’한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 감성 커뮤니케이션 시스템의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 감성 커뮤니케이션 시스템(100)은 사용자 단말기(110), 제 1 로봇(120) 및 제 2 로봇(130)을 포함한다.
각 구성 요소를 설명하면, 사용자 단말기(110)는 사용자의 감성에 대응하여 제 1 로봇(120)이 동작하도록 하는 동작 속성 정보를 생성하고, 사용자의 감성과 관련된 콘텐츠를 제작하여, 동작 속성 정보 및 제작된 콘텐츠를 포함하는 메시지를 제 1 로봇(120)으로 전송한다.
여기서, 사용자의 ‘감성’은 기쁨, 슬픔, 애교, 화남, 분노 및 환호 중 하나 이상을 포함하며, ‘콘텐츠’는 음성, 이미지(사진) 및 동영상 중 하나 이상을 포함할 수 있다.
물론, 본 발명의 ‘감성’과 ‘콘텐츠’는 상기한 예로만 한정되지 않으며, 상기한 감성과 콘텐츠의 종류 이외에도 다양한 감성과 콘텐츠의 종류가 포함될 수 있다.
또한, ‘동작 속성 정보’는 사용자 단말기(110)에 입력된 사용자의 감성에 대한 정보 및 발신자의 감성에 대응하여 제 1 로봇(120)이 동작하도록 하는 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
여기서, 제 1 로봇(120)의 ‘동작’은 동작 속성 정보에 따라서 사용자 단말기(110)의 사용자의 감성을 나타내는 표정을 화면에 표시하고, 사용자 단말기(110)에 입력된 사용자의 음성을 출력하며, 제 1 로봇(120)에 배치된 점등부의 점등 색상이나 점등 속도를 조절하여 발신자의 감성을 나타내는 것을 의미한다.
참고로, 동작 속성 정보에 제 1 로봇(120)의 이동(예를 들어, 한 바퀴 회전, 두 바퀴 회전 또는 일정 거리를 반복으로 왕복하는 등)에 관한 속성 값이 포함된 경우, 상기한 ‘동작’은 ‘이동’의 의미를 더 포함할 수 있다.
사용자 단말기(110)는 감성의 종류에 따른 제 1 로봇(120)의 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 사용자의 감성에 대응하는 각 동작에 대한 속성 값을 추출할 수 있다.
또한, 사용자 단말기(110)는 감성의 종류에 따른 제 1 로봇(120)의 각 동작에 대한 속성 값을 발신자가 직접 설정할 수 있는 인터페이스를 제공하여, 사용자의 감성이 제 1 로봇(120)를 통해 더욱 잘 표현되도록 할 수 있다.
또한, 사용자 단말기(110)는 제 1 로봇(120)에 저장된 콘텐츠의 목록을 요청하는 메시지를 제 1 로봇(120)으로 전송하고, 제 1 로봇(120)로부터 콘텐츠의 목록을 수신하여 화면에 표시할 수 있다.
이후, 화면에 표시된 콘텐츠 중 어느 하나가 선택되면, 사용자 단말기(110)는 선택된 콘텐츠가 제 1 로봇(120)에서 재생될 수 있도록, 선택된 콘텐츠에 대한 재생 요청 메시지를 제 1 로봇(120)으로 전송할 수 있다.
즉, 사용자 단말기(110)는 제 1 로봇(120)의 콘텐츠 재생을 원격으로 제어할 수 있다.
참고로, 사용자 단말기(110)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제 1 로봇(120)과 통신할 수 있으며, 사용자 단말기(110)는 와이파이(Wi-Fi) 또는 블루투스(Bluetooth)를 이용할 수 있는 스마트폰, 핸드폰, PDA 및 PMP 중 하나 이상을 포함하는 이동 통신 단말기와 노트북 컴퓨터를 포함할 수 있다.
이 밖에도 사용자 단말기(110)는 인터넷을 이용하여 제 1 로봇(120)과 통신할 수 있는 데스크탑 컴퓨터와, 셋탑 박스를 포함하는 IPTV를 더 포함할 수도 있다.
사용자 단말기(110)의 구성에 대한 상세한 설명은 도 2를 참조하여 후술하도록 한다.
한편, 제 1 로봇(120)은 사용자 단말기(110)로부터 메시지를 수신하고, 수신된 메시지로부터 동작 속성 정보와 콘텐츠를 추출한다.
이후, 제 1 로봇(120)은 동작 속성 정보의 각 동작에 대한 속성 값에 따라서 동작을 수행하고, 사용자 단말기(110)의 사용자가 선택한 콘텐츠를 재생할 수 있다.
또한, 제 1 로봇(120)은, 사용자 단말기(110)와 같이, 제 1 로봇(120)의 사용자의 감성에 대응하는 콘텐츠를 제작하여 제 2 로봇(130) 또는 그 이외의 다른 통신 단말기로 전송함으로써, 제 1 로봇(120)의 사용자의 감성을 상대방에게 전달할 수 있다.
즉, 제 1 로봇(120)은 사용자 단말기(110) 뿐만 아니라, 제 2 로봇(120)과 감성 커뮤니케이션이 가능하다.
참고로, 제 1 로봇(120)는 어린이들이 친근함을 느낄 수 있는 형상의 로봇을 포함할 수 있다.
이 로봇은 몸체의 일 측면에 디스플레이부(화면)를 포함할 수 있으며, 몸체의 특정 위치에 점등부가 하나 이상 배치될 수 있고, 이동을 위한 복수개의 바퀴(wheel)와 각 바퀴에 동력을 전달하는 구동 수단(예를 들어, 전기 모터 등)를 포함할 수도 있다.
한편, 제 2 로봇(130)은 전술한 제 1 로봇(120)과 동일한 장치이므로 제 2 로봇(130)에 대한 상세한 설명은 생략하도록 한다.
도 2는 본 발명의 일 실시예에 따른 사용자 단말기(110)의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 따른 사용자 단말기(110)는 인터페이스 제공부(111), 동작 속성 정보 생성부(112), 동작 속성 DB(113), 원격 제어부(114) 및 통신부(115)를 포함한다.
각 구성 요소를 설명하면, 인터페이스 제공부(111)는 감성의 종류를 각각 나타내는 제 1 메뉴를 화면에 표시한다.
여기서 제 1 메뉴는 각각의 감성(예를 들어, 기쁨, 슬픔, 애교, 화남, 분노 및 환호 등)을 나타내는 버튼이나 아이콘을 포함할 수 있다.
이후, 제 1 메뉴 중 어느 하나가 선택되면, 인터페이스 제공부(111)는 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 화면에 표시한다.
여기서 제 2 메뉴는 콘텐츠를 제작하기 위해 음성, 이미지 및 영상 중 어느 하나를 선택하도록 하는 제 1 인터페이스와, 제 1 인터페이스를 통해 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 포함한다.
또한, 제 2 메뉴는 각 동작에 대한 속성 값을 사용자가 직접 설정하도록 하는 제 3 인터페이스를 포함한다.
제 2 메뉴, 즉 제 1 인터페이스, 2 인터페이스 및 제 3 인터페이스에 대한 설명은 도 6a 내지 도 6g를 참조하여 후술하도록 한다.
한편, 동작 속성 정보 생성부(112)는 사용자로부터 선택된 제 1 메뉴의 감성에 대응하는 동작 속성 정보를 생성한다.
전술한 바와 같이, 동작 속성 정보는 사용자로부터 선택된 제 1 메뉴의 감성에 대한 정보(즉, 사용자가 선택한 감성이 무엇인지에 대한 정보, 예를 들어, 각 감성 별로 부여된 식별자, 이하, ‘감성 정보’라 칭함) 및 제 1 로봇(120)이 동작하는 각 동작에 대한 속성 값 중 하나 이상을 포함한다.
예를 들어, 사용자가 선택한 감성이 ‘즐거움’인 경우, 동작 속성 정보 생성부(112)는 제 1 로봇(120)이 ‘즐거움’이라는 감성에 대응하여 동작하도록 하는 동작 속성 값을 동작 속성 DB(113)로부터 추출한다.
여기서, 동작 속성 DB(113)는 감성의 종류에 따른 각 동작에 대한 속성 값을 저장한다.
만일, 동작 속성 DB(113)에 ‘즐거움’이라는 감성과 매칭된 동작 속성 값이 제 1 로봇(120)의 머리와 팔에 배치된 ‘점등부의 색상 - 노란색’, 머리에 부착된 ‘점등부의 점등 속도 - 3’ 및 팔에 부착된 ‘점등부의 점등 속도 - 1’로 설정된 경우, 동작 속성 정보 생성부(112)는 상기한 동작 속성 값을 추출하여 동작 속성 정보에 포함시킬 수 있다.
또한, 동작 속성 DB(113)의 동작 속성 값에는 사용자가 선택한 감성 정보와 대응되는 음성에 대한 속성 값이 포함될 수 있다.
즉, 사용자가 사용자 단말기(110)에 텍스트 형태의 문자를 입력하는 경우, 해당 문자는 제 1 로봇(120)에서 음성으로 출력될 수 있는데, 이때, 출력되는 음성의 형태(예를 들어, 아기 목소리, 만화 캐릭터 목소리 및 편집 목소리 등), 음속도, 음높이 및 음량 중 하나 이상의 속성 값이 동작 속성 DB(113)에 포함될 수 있다.
또한, 동작 속성 정보 생성부(112)는 동작 속성 값을 사용자가 직접 설정할 수 있는 인터페이스를 통해 입력된 동작 속성 값에 따라서 동작 속성 정보를 생성할 수도 있다.
참고로, 상기한 동작 속성 DB가 제 1 로봇(120)에 존재하는 경우, 동작 속성 정보 생성부(112)는 상기한 동작 속성 값을 추출하지 않을 수 있으며, 감성 정보(상기한 예에서, ‘즐거움’의 식별자)만을 포함하는 동작 속성 정보를 생성할 수 있다.
이 경우, 제 1 로봇(120)은 사용자 단말기(110)로부터 동작 속성 정보를 수신하여 감성 정보를 추출한 후, 추출된 감성 정보에 대응되는 동작 속성 값을 동작 속성 DB로부터 추출할 수 있다.
한편, 원격 제어부(114)는 제 1 로봇(120)에 저장된 콘텐츠의 목록을 요청하는 메시지를 제 1 로봇(120)으로 전송하고, 제 1 로봇(120)으로부터 콘텐츠의 목록을 수신하여 화면에 표시한다.
이후, 원격 제어부(114)는 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 선택된 콘텐츠에 대한 정보를 포함하는 재생 요청 메시지를 제 1 로봇(120)으로 전송하여, 해당 콘텐츠가 제 1 로봇(120)에서 재생되도록 할 수 있다.
한편, 통신부(115)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 사용자 단말기(110)가 제 1 로봇(120)과 통신하도록 할 수 있다.
도 3은 본 발명의 일 실시예에 따른 제 1 로봇(120)의 구성을 도시한 블록도이다.
본 발명의 일 실시예에 따른 제 1 로봇(120)은 동작 속성 정보 추출부(121), 동작 속성 DB(122), 동작 제어부(123), 콘텐츠 추출부(124), 콘텐츠 실행부(125), 인터페이스 제공부(126), 원격 제어부(127), 터치 감지부(128) 및 통신부(129)를 포함한다.
참고로, 본 발명의 실시예에서 제 1 로봇(120)은 머리, 몸체 및 팔을 포함하며, 머리, 몸체 및 팔에는 복수의 LED 발광부가 배치되어 있다.
각 구성 요소를 설명하면, 동작 속성 정보 추출부(121)는 사용자 단말기(110)로부터 메시지가 수신되면, 수신된 메시지로부터 동작 속성 정보를 추출하고, 동작 속성 정보에 포함된 감성 정보와 감성 정보에 대응하는 동작 속성 값을 추출한다.
만일, 수신된 동작 속성 정보에 동작 속성 값이 포함되지 않은 경우, 동작 속성 정보 추출부(121)는 동작 속성 정보에 포함된 감성 정보를 이용하여 동작 속성 DB(122)로부터 해당 감성 정보에 대응하는 동작 속성 값을 추출할 수도 있다.
한편, 동작 제어부(123)는 동작 속성 정보 추출부(121)로부터 추출된 동작 속성 값에 따라서 제 1 로봇(120)의 각 동작을 제어한다.
예를 들어, 감성 정보가 ‘즐거움’이고, 동작 속성 값이 머리와 팔에 부착된 ‘점등부의 색상 - 노란색’, 머리에 부착된 ‘점등부의 점등 속도(초당 점등 속도) - 3’ 및 팔에 부착된 ‘점등부의 점등 속도(초당 점등 속도) - 1’인 경우, 동작 제어부(123)는 즐거움에 해당하는 표정을 화면에 표시하고, 머리와 팔에 배치된 점등부의 색상을 노란색으로 점등시키며, 머리와 팔에 부착된 점등부의 속도를 해당 값에 따라서 조절할 수 있다.
또한, 텍스트 형태의 문자가 메시지에 포함된 경우, 동작 제어부(123)는 동작 속성 값에 포함된 음성의 형태, 음속도, 음높이 및 음량 값에 따라서 해당 문자를 음성으로 출력할 수 있다.
또한, 동작 제어부(123)는 제 1 로봇(120)의 미리 정해진 부분(영역)에 터치가 감지되면, 해당 부분(영역)의 터치에 대응하는 미리 정해진 동작을 수행할 수 있다.
여기서 미리 정해진 부분(영역)은 제 1 로봇(120)의 머리, 몸체, 팔 및 화면을 포함할 수 있고, 미리 정해진 동작은 호(call) 발신, 콘텐츠 제작과 발송, 수신된 메시지 및 콘텐츠 확인 중 하나 이상을 포함할 수 있다.
예를 들어, 사용자 단말기(110)로부터 메시지가 수신된 경우, 제 1 로봇(120)은 “메시지가 도착했어~ 메시지를 확인하려면 내 머리를 쓰다듬어줘~”라는 음성을 출력하고, 제 1 로봇(120)의 사용자가 제 1 로봇(120)의 머리를 터치하는 경우, 동작 제어부(123)는 사용자 단말기(110)로부터 수신된 메시지를 화면에 출력하거나, 동작 속성 값에 따른 음성으로 해당 메시지를 출력할 수 있다.
한편, 콘텐츠 추출부(124)는 사용자 단말기(110)로부터 메시지가 수신되면, 수신된 메시지로부터 콘텐츠를 추출한다.
여기서, 콘텐츠는 발신자의 감성에 대응하여 제작된 음성, 이미지(사진) 및 동영상 중 하나 이상을 포함할 수 있다.
한편, 콘텐츠 실행부(125)는 콘텐츠 추출부(124)로부터 추출된 콘텐츠에 관한 정보를 화면에 표시하고, 표시된 콘텐츠 중 어느 하나가 선택되면, 선택된 콘텐츠를 재생할 수 있다.
한편, 인터페이스 제공부(126)는 제 1 로봇(120)의 사용자가 자신의 감성을 나타내는 메뉴(아이콘)를 선택하도록 하는 인터페이스와, 음성, 이미지(사진) 및 동영상을 제작할 수 있는 인터페이스를 화면에 표시할 수 있다.
한편, 원격 제어부(127)는 인터페이스 제공부(126)로부터 제공되는 인터페이스를 통해서 제 1 로봇(120)의 사용자가 선택한 감성에 대한 정보 및 제작된 콘텐츠를 포함하는 메시지를 사용자 단말기(110), 제 2 로봇(130) 또는 그 이외의 외부 장치로 전송할 수 있다.
이때, 메시지에는 동작 속성 정보가 포함될 수도 있고, 동작 속성 정보가 포함되지 않을 수도 있다.
즉, 원격 제어부(127)로부터 상기한 메시지를 수신하는 대상이 제 1 로봇(120)이나 제 2 로봇(130)과 같이 사용자의 감성에 대응하여 동작할 수 있는 단말기라면 메시지에 동작 속성 정보가 포함될 수 있고, 그렇지 않은 일반적인 통신 단말기라면 동작 속성 정보가 메시지에 포함되지 않을 수도 있다.
이를 위해, 전술한 인터페이스 제공부(126)는 사용자의 감성에 대응하여 동작할 수 있는 로봇이나 지인들의 이동 통신 단말기를 등록할 수 있는 인터페이스를 제공할 수 있다.
한편, 터치 감지부(128)는 제 1 로봇(120)의 미리 정해진 부분(영역)에 터치가 감지되면, 이를 알리는 신호를 동작 제어부(123)로 전송할 수 있다.
이를 위해, 상기한 미리 정해진 부분(영역)에는 외부로부터의 터치를 감지하는 터치 센서가 삽입될 수 있다.
한편, 통신부(129)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제 1 로봇(120)이 사용자 단말기(110) 또는 제 2 로봇(130)과 통신할 수 있도록 할 수 있다.
참고로, 본 발명의 실시예에 따른 도 2 및 도 3에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성 요소를 의미하며, 소정의 역할들을 수행한다.
그렇지만 ‘구성 요소들’은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자 단말기(110)의 동작을 도시한 흐름도이다.
먼저, 사용자 단말기(110)는 감성의 종류를 각각 나타내는 제 1 메뉴를 화면에 표시한다(S401).
S401 후, 사용자 단말기(110)의 사용자(이하, ‘발신자’라 칭함)에 의해 제 1 메뉴 중 어느 하나가 선택되면, 사용자 단말기(110)는 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 제작하기 위한 제 1 인터페이스를 화면에 표시한다(S402).
여기서, 제 1 인터페이스는 음성, 이미지(사진) 및 영상 중 어느 하나에 대한 사용자의 선택을 입력 받을 수 있다.
S402 후, 사용자 단말기(110)는 S402에서 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 화면에 표시하고, 제 2 인터페이스를 통해 콘텐츠를 생성한다(S403).
여기서, 제 2 인터페이스는 S402에서 선택된 콘텐츠가 ‘음성’인 경우, 음성 메시지를 녹음하도록 하며, S402에서 선택된 콘텐츠가 ‘이미지(사진)’인 경우, 사용자 단말기(110)에 포함된 카메라를 이용하여 사진을 촬영하도록 할 수 있다.
또한, 제 2 인터페이스는 S402에서 선택된 콘텐츠가 ‘동영상’인 경우, 사용자 단말기(110)에 포함된 카메라를 이용하여 동영상을 촬영하도록 하며, 그 외에도 내부(또는 외부)의 저장소에 저장된 이미지(사진)나 동영상을 선택하도록 할 수도 있다.
S403 후, 사용자 단말기(110)는 S402에서 선택된 제 1 메뉴의 감성에 대응하여 제 1 로봇(120)이 동작하는 각 동작에 대한 속성 값을 포함하는 동작 속성 정보를 생성한다(S404).
이때, 사용자 단말기(110)는 S402에서 선택된 제 1 메뉴의 감성에 대응하는 각 동작에 대한 속성 값을 동작 속성 DB(113)로부터 추출할 수 있다.
또한, 사용자 단말기(110)는 S402에서 선택된 제 1 메뉴의 감성에 대응하는 제 1 로봇(120)의 각 동작에 대한 속성 값을 발신자가 설정하도록 인터페이스를 제공하고, 발신자가 설정한 동작 속성 값을 포함하는 동작 속성 정보를 생성할 수도 있다.
S404 후, 사용자 단말기(110)는 S404에서 생성된 동작 속성 정보와 S403에서 생성된 콘텐츠를 포함하는 메시지를 제 1 로봇(120)으로 전송한다(S405).
이때, 사용자 단말기(110)는 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 제 1 로봇(120)으로 메시지를 전송할 수 있다.
도 5는 본 발명의 일 실시예에 따른 제 1 로봇(120)의 동작을 도시한 흐름도이다.
먼저, 제 1 로봇(120)은 사용자 단말기(110)로부터 메시지가 수신되면, 수신된 메시지로부터 동작 속성 정보를 추출한다(S501).
S501 후, 제 1 로봇(120)은 추출된 동작 속성 정보에 각 동작에 대한 속성 값의 포함 여부를 확인한다(S502).
확인 결과, 추출된 동작 속성 정보에 각 동작에 대한 속성 값이 포함되지 않은 경우, 제 1 로봇(120)은 발신자의 감성에 대응하는 제 1 로봇(120)의 각 동작에 대한 속성 값을 동작 속성 DB로부터 추출한다(S503).
S503 후, 제 1 로봇(120)은 추출된 동작 속성 값에 따라서 각 동작을 제어한다(S504).
만일 S502 결과, 동작 속성 정보에 각 동작에 대한 속성 값이 포함된 경우, 제 1 로봇(120)은 각 동작에 대한 속성 값에 따라서 각 동작을 제어한다(S505).
이때, 제 1 로봇(120)은 발신자의 감성에 대응하는 표정을 화면에 표시할 수 있으며, 화면에 표시된 표정 중 특정 영역이 터치되면, 미리 정해진 동작을 수행할 수 있다.
또한, 제 1 로봇(120)은 제 1 로봇(120)의 머리나 팔과 같은 특정 부분이 터치되면, 해당 터치에 대응되는 미리 정해진 동작을 수행할 수 있다.
S505 후, 제 1 로봇(120)은 S501에서 수신된 메시지로부터 콘텐츠를 추출하여 화면에 표시한다(S506).
S506 후, 화면에 표시된 콘텐츠 중 어느 하나가 선택되면, 제 1 로봇(120)은 선택된 콘텐츠를 실행한다(S507).
참고로, 제 1 로봇(120)은 제 1 로봇(120)의 사용자의 감성 정보 및 직접 제작한 콘텐츠를 포함하는 메시지를 제 2 로봇(130)으로 전송할 수 있으며, 이를 위해, 감성의 종류를 각각 나타내는 제 1 메뉴를 화며에 표시하고, 제 1 메뉴 중 어느 하나가 선택되면, 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 화면에 표시할 수 있다.
도 6a 내지 도 6g는 본 발명의 일 실시예에 따른 사용자 단말기(110)의 화면을 도시한 도면이다.
도 6a는 사용자 단말기(110)에서 제 1 로봇(120)과의 네트워크를 연결하는 화면으로서, 검색된 Wi-Fi에서 제 1 로봇(120)이 위치한 장소의 Wi-Fi 액세스포인트(Access Point, 이하 AP라 칭함)를 선택할 수 있다.
도 6b는 감성의 종류(기쁨, 슬픔, 애교, 화남, 분노 및 환호)를 각각 나타내는 제 1 메뉴가 화면에 표시되어 있으며, 그 중 ‘기쁨’이 선택된 경우이다.
화면의 상단에는 발신자의 감성인 ‘기쁨’에 대응하는 표정(이미지)이 표시될 수 있다.
도 6c는 발신자의 감성과 관련된 콘텐츠를 제작하기 위한 제 1 인터페이스와 제 2 인터페이스로서, 도 6b에 도시된 제 1 메뉴 중 어느 하나가 선택되면 도 6c에 도시된 바와 같이 제 1 인터페이스가 화면에 팝업(pop-up)되어 표시될 수 있다.
제 1 인터페이스는 음성, 사진 및 영상 중 어느 하나에 대한 선택을 입력 받을 수 있으며, 내부(또는 외부) 저장소에 저장된 콘텐츠에 대한 선택을 입력 받을 수도 있다.
도 6c와 같이, 제 1 인터페이스에서 ‘음성’이 선택된 경우, 음성 메시지를 녹음할 수 있는 제 2 인터페이스가 화면에 표시될 수 있다.
음성 메시지를 녹음하기 위한 제 2 인터페이스는 녹음 버튼이 클릭될 때 녹음이 시작되며, 이때 녹음 버튼은 정지 버튼으로 변경될 수 있다.
녹음 버튼의 하단에는 녹음 경과 시간이 bar 형태로 표시되어 있고, 좌측 부분에는 녹화 시간이, 우측 부분에는 제한 시간(30초)이 표시되어 있다.
이후, 녹음 경과 시간 bar의 하단에 위치한 추가 버튼이 클릭되면 녹음이 완료된 음성 파일을 포함하는 메시지가 생성될 수 있다.
도 6d는 제 1 인터페이스에서 ‘사진/영상’이 선택된 경우이며, 사진/영상을 촬영할 수 있는 제 2 인터페이스가 화면에 표시될 수 있다.
참고로, 도 6d에 도시된 제 2 인터페이스는 이동 통신 단말기의 기본 기능인 사진/동영상 촬영 애플리케이션과 연동될 수도 있다.
사진/영상의 촬영이 완료되면 도 6d에 도시된 바와 같은 팝업 메시지가 표시될 수 있으며, ‘O’를 클릭하면 촬영이 완료된 이미지/동영상 파일을 포함하는 메시지가 생성될 수 있다.
도 6e는 제 1 인터페이스에서 ‘갤러리’가 선택된 경우이며, 내부(또는 외부)의 저장소에 저장된 사진이나 동영상에 대한 선택을 입력 받을 수 있는 제 2 인터페이스가 화면에 표시될 수 있다.
참고로, 제 2 인터페이스를 통해 사진이나 동영상이 다중 선택될 수도 있으며, 추가 버튼이 선택되면, 선택된 사진이나 동영상을 포함하는 메시지가 생성될 수 있다.
도 6f는 발신자의 감성에 대응하는 동작 속성 값을 설정하기 위한 인터페이스로서, 감성에 대응하는 표정이 선택되면, 선택된 감성에 대응하는 동작 속성 값을 설정할 수 있는 화면이 표시될 수 있다.
이때, 제 1 로봇(120)의 전체 모습이 화면에 표시될 수 있으며, 제 1 로봇(120)의 얼굴에는 이전 화면에서 선택된 표정이 적용될 수 있다.
발신자는 도 6f에 도시된 바와 같이, 제 1 로봇(120)의 점등부 LED 색상, 머리의 점등부(뿔 형태) 및 팔의 점등부(원 형태)에 대한 점등 속도를 설정할 수 있다.
참고로, 도 6f에 도시된 점등 속도는 초당 점등 속도로서, 각 부분별로 초당 3회 그리고 1회 점등될 수 있음을 의미한다.
만일 점등 속도가 ‘0’으로 설정되면 별도의 점등 없이 LED의 색상만을 적용할 수 있다.
도 6g는 발신자의 감성에 대응하는 동작 속성 값을 설정하기 위한 인터페이스로서, 제 1 로봇(120)의 목소리를 설정하기 위한 화면이다.
제 1 로봇(120)의 목소리로 사용할 수 있는 사용 가능 목소리 리스트가 화면에 표시될 수 있으며, 수정 버튼이 선택되면 기존에 설정된 목소리가 수정될 수 있고, 추가 버튼이 선택되면 신규 목소리를 추가할 수도 있다.
또한, 텍스트를 입력한 후 미리 듣기 버튼이 선택하면, 입력된 텍스트가 설정된 목소리로 출력될 수 있으며, 음속도, 음높이, 음량도 조절될 수 있다.
도 7a 내지 도 7h는 본 발명의 일 실시예에 따른 제 1 로봇(120)의 화면을 도시한 도면이다.
도 7a는 사용자 단말기(110)로부터 메시지를 수신한 제 1 로봇(120)의 상태로서, 제 1 로봇(120)이 절전 모드인 경우, Power on인 경우 및 조작 중인 경우가 각각 도시되어 있다.
제 1 로봇(120)이 절전 모드인 상태에서 메시지가 수신되면, 머리의 점등부와 팔의 점등부가 초당 수회 깜박일 수 있으며, 이때 머리가 터치되면 메시지가 도착했음을 알리는 음성이 출력되고, 메시지 확인 화면이 표시될 수 있다.
또한, 제 1 로봇(120)이 Power on인 상태에서 메시지가 수신되면, “OO아, OO에게 연락이 왔어. 확인해볼래? 내 머리를 쓰다듬어 주면 내가 전해줄께!”라는 음성이 출력될 수 있으며, 이후 머리가 터치되면 메시지 확인 화면이 표시될 수 있다.
또한, 제 1 로봇(120)이 조작 중인 상태에서 메시지가 수신되면, “OO아, OO에게 연락이 왔어. 확인해볼래? 내 머리를 쓰다듬어 주면 내가 전해줄께! 나중에 확인하려면 내 발을 만져줘~”라는 음성이 출력될 수 있으며, 터치에 따라서 메시지 확인 화면이 표시되거나 메시지 확인이 취소될 수 있다.
참고로, 아직 확인하지 않은 메시지가 존재하는 경우에는, 상기한 상황에서 점등부의 LED가 초당 수회 깜박일 수 있다.
도 7b는 메시지 확인 시 발신자의 감성을 나타내는 표정이 제 1 로봇(120)의 화면에 표시된 도면이다.
도 7b는 발신자의 감성이 ‘즐거움’인 경우이며, 그 외에도 ‘놀람’이나 ‘삐짐’과 같은 발신자의 감성을 나타내는 표정이 화면에 표시될 수 있다.
또한, 화면에 표시된 표정의 특정 영역(도 7b에서는 입)이 터치되면 메시지에 포함된 콘텐츠 정보가 화면에 표시될 수 있다.
이를 위해, 제 1 로봇(120)은 “OO에게 온 메시지가 더 있어! 확인해볼까? 확인하고 싶으면 내 입을 만져줘~”라는 음성을 출력하여, 제 1 로봇(120)의 사용자의 터치를 유도할 수 있다.
도 7c는 메시지에 포함된 콘텐츠 정보가 제 1 로봇(120)의 화면에 표시된 도면이다.
사용자 단말기(110)로부터 사진, 음성 및 동영상을 포함하는 메시지가 수신되면, 제 1 로봇(120)은 도 7c와 같이 화면에 표시하고, 제 1 로봇(120)의 사용자가 그 중 어느 하나를 선택하면, 제 1 로봇(120)은 선택된 콘텐츠를 화면에서 재생할 수 있다.
또한, 모든 콘텐츠를 미리 정해진 시간 간격을 가지고 순서대로 자동 재생할 수 있다.
예를 들어, 각 사진당 10초, 동영상 30초, 음성 30초와 같이 순서대로 재생함으로써, 제 1 로봇(120)의 사용자가 첨부된 파일의 개수를 인지하도록 하는 교육의 효과도 있다.
참고로, 발신자의 사진이 제 1 로봇(120)에 등록된 경우, 메시지 수신 시 등록된 사진이 화면에 표시될 수 있으며, 사진이 등록되지 않은 경우는 별도의 아이콘으로 표시될 수 있다.
도 7d는 제 1 로봇(120)에서 타 단말기로 메시지를 전송하기 위한 인터페이스를 도시한 도면이다.
제 1 로봇(120)은 도 7d에 도시된 화면을 표시하면서 “누구한테 보낼까?”라는 음성을 출력할 수 있으며, 이때, 연락처가 등록된 캐릭터 아이콘이나 사진이 화면에 표시될 수 있다.
제 1 로봇(120)의 사용자는 화면에 표시된 수신 대상 중 어느 하나를 선택할 수 있다.
도 7e는 제 1 로봇(120)에서 타 단말기로 메시지 전송 시, 감성을 나타내는 표정을 선택하기 위한 인터페이스를 도시한 도면이다.
제 1 로봇(120)은 도 7e에 도시된 화면을 표시하면서 “지금 기분이 어때?”라는 음성을 출력할 수 있으며, 제 1 로봇(120)의 사용자는 화면에 표시된 표정 중 자신의 감성과 일치하거나 유사한 표정을 선택할 수 있다.
표정이 선택되면 제 1 로봇(120)은 도 7f에 도시된 화면을 표시한다.
도 7f는 제 1 로봇(120)에서 타 단말기로 메시지 전송 시, 감성과 대응하는 콘텐츠를 제작하기 위한 인터페이스를 도시한 도면이다.
제 1 로봇(120)의 사용자는 도 7f에 도시된 화면을 통해서, 사진, 음성, 동영상 중 어느 하나를 선택하여 해당 콘텐츠를 제작할 수 있으며, 내부(또는 외부)의 저장소에 저장된 콘텐츠를 선택할 수도 있다.
참고로, 도 7f에 도시된 화면을 통해 각 콘텐츠를 순차적으로 제작함으로써, 복수의 콘텐츠를 상대방에게 전송할 수 있다.
예를 들어, ‘음성 녹음’을 선택하여 음성을 녹음한 후, 다시 도 7f에 도시된 화면으로 복귀하여 ‘갤러리’를 선택하여 기존에 촬영했던 동영상을 선택함으로써, 상대방에게 음성 파일과 동영상 파일을 함께 전송할 수 있다.
도 7g에 도시된 팝업 화면은 도 7f에서 각 콘텐츠가 선택됐을 때 표시되는 인터페이스를 도시한 도면이다.
도 7g에 도시된 팝업 화면이 표시되면서, 해당 콘텐츠에 해당하는 음성도 함께 출력될 수 있다.
도 7h는 도 7g에 도시된 파업 화면에서 사진/동영상 촬영과 음성 녹음이 선택된 경우 제공되는 인터페이스를 도시한 도면이다.
도 7h에 도시된 인터페이스를 통해 콘텐츠의 제작이 완료되면, “다 됐군, 그럼 보내볼까?”라는 음성이 출력될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 감성 커뮤니케이션 시스템
110 : 사용자 단말기
111 : 인터페이스 제공부
112 : 동작 속성 정보 생성부
113 : 동작 속성 DB
114 : 원격 제어부
115 : 통신부
120 : 제 1 로봇
121 : 동작 속성 정보 추출부
122 : 동작 속성 DB
123 : 동작 제어부
124 : 콘텐츠 추출부
125 : 콘텐츠 실행부
126 : 인터페이스 제공부
127 : 원격 제어부
128 : 터치 감지부
129 : 통신부
130 : 제 2 로봇
110 : 사용자 단말기
111 : 인터페이스 제공부
112 : 동작 속성 정보 생성부
113 : 동작 속성 DB
114 : 원격 제어부
115 : 통신부
120 : 제 1 로봇
121 : 동작 속성 정보 추출부
122 : 동작 속성 DB
123 : 동작 제어부
124 : 콘텐츠 추출부
125 : 콘텐츠 실행부
126 : 인터페이스 제공부
127 : 원격 제어부
128 : 터치 감지부
129 : 통신부
130 : 제 2 로봇
Claims (24)
- 로봇과 커뮤니케이션을 제공하는 장치에 있어서,
감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부,
상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 동작 속성 정보 생성부 및
상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 원격 제어부
를 포함하되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함하는 것인, 커뮤니케이션 장치.
- 제 1 항에 있어서,
상기 인터페이스 제공부는
음성, 이미지 및 영상 중 어느 하나를 선택하도록 하는 제 1 인터페이스 및 상기 제 1 인터페이스를 통해 선택된 콘텐츠를 제작하기 위한 제 2 인터페이스를 제공하는, 커뮤니케이션 장치.
- 제 1 항에 있어서,
상기 동작 속성 정보 생성부는
상기 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성하는, 커뮤니케이션 장치.
- 제 1 항에 있어서,
상기 동작 속성 정보 생성부는
상기 선택된 제 1 메뉴의 감성에 대응하는 상기 각 동작에 대한 속성 값에 따라서 상기 동작 속성 정보를 생성하는, 커뮤니케이션 장치.
- 제 3 항 또는 제 4 항에 있어서,
상기 각 동작에 대한 속성 값은 상기 선택된 제 1 메뉴의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함하는 것인, 커뮤니케이션 장치.
- 제 1 항에 있어서,
와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 로봇과 통신하는 통신부
를 더 포함하는, 커뮤니케이션 장치.
- 제 1 항에 있어서,
상기 원격 제어부는 상기 로봇에 저장된 콘텐츠의 목록을 요청하여 상기 콘텐츠의 목록을 화면에 표시하고, 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송하는, 커뮤니케이션 장치.
- 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 있어서,
상기 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 동작 속성 정보 추출부,
상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 상기 로봇의 각 동작을 제어하는 동작 제어부,
상기 수신된 메시지로부터 콘텐츠를 추출하는 콘텐츠 추출부 및
상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 콘텐츠 실행부
를 포함하되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 각 동작에 대한 속성 값을 포함하는 것인, 커뮤니케이션 장치.
- 제 8 항에 있어서,
상기 동작 속성 정보 추출부는
상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성의 종류에 따른 각 동작에 대한 속성 값을 저장하는 동작 속성 DB로부터, 상기 사용자의 감성에 대한 정보에 대응하는 각 동작에 대한 속성 값을 추출하는, 커뮤니케이션 장치.
- 제 8 항에 있어서,
감성의 종류를 각각 나타내는 제 1 메뉴를 표시하고, 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 인터페이스 제공부 및
상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 외부 장치로 전송하는 원격 제어부
를 더 포함하는, 커뮤니케이션 장치.
- 제 8 항에 있어서,
상기 각 동작에 대한 속성 값은 상기 사용자의 감성에 대응하여 상기 로봇에서 출력되는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함하는, 커뮤니케이션 장치.
- 제 11 항에 있어서,
상기 동작 제어부는
상기 표정을 화면에 표시하고, 상기 화면에 표시된 표정 중 특정 영역이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행하는, 커뮤니케이션 장치.
- 제 11 항에 있어서,
상기 동작 제어부는
상기 로봇의 특정 부분이 터치되면, 상기 터치에 대응하여 미리 정해진 동작을 수행하는, 커뮤니케이션 장치.
- 제 10 항에 있어서,
와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 상기 사용자 단말기 또는 외부 장치와 통신하는 통신부
를 더 포함하는, 커뮤니케이션 장치.
- 사용자 단말기와 로봇을 포함하는 커뮤니케이션 시스템에 있어서,
상기 사용자 단말기의 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 동작 속성 정보와 상기 사용자의 감성과 관련된 콘텐츠를 포함하는 메시지를 전송하는 사용자 단말기 및
상기 사용자 단말기로부터 상기 메시지를 수신하고, 상기 동작 속성 정보에 따라서 동작하며, 상기 메시지에 포함된 콘텐츠를 재생하는 로봇
을 포함하되, 상기 동작 속성 정보는 상기 사용자의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함하는 것인, 커뮤니케이션 시스템.
- 제 15 항에 있어서,
상기 사용자 단말기는 감성 종류에 따른 상기 로봇의 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 상기 로봇의 각 동작에 대한 속성 값을 추출하여 상기 동작 속성 정보를 생성하는, 커뮤니케이션 시스템.
- 제 15 항에 있어서,
상기 사용자 단말기는 상기 동작 속성 정보를 설정하는 인터페이스를 제공하여 동작 설정 정보를 입력 받는, 커뮤니케이션 시스템.
- 제 15 항에 있어서,
상기 동작 속성 정보는 상기 사용자의 감성을 나타내는 표정, 목소리, 상기 로봇에 배치된 발광부의 점등 색상 및 점등 속도에 대한 값 중 하나 이상을 포함하는, 커뮤니케이션 시스템.
- 제 15 항에 있어서,
상기 로봇은 상기 동작 속성 정보에 상기 각 동작에 대한 속성 값이 포함되지 않은 경우, 감성 종류에 따른 각 동작에 대한 속성 값이 저장된 DB로부터, 상기 사용자의 감성에 대응하는 각 동작에 대한 속성 값을 추출하고, 상기 추출된 각 동작에 대한 속성 값에 따라서 상기 각 동작을 수행하는, 커뮤니케이션 시스템.
- 제 15 항에 있어서,
상기 사용자 단말기와 로봇은 와이파이(Wi-Fi) 및 블루투스(Bluetooth) 중 어느 하나를 이용하여 서로 통신하는, 커뮤니케이션 시스템.
- 로봇과 커뮤니케이션을 제공하는 장치에 설치되는 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
(a) 감성의 종류를 각각 나타내는 제 1 메뉴를 표시하는 단계,
(b) 상기 제 1 메뉴 중 어느 하나가 선택되면, 상기 선택된 제 1 메뉴의 감성과 관련된 콘텐츠를 입력 받기 위한 제 2 메뉴를 표시하는 단계,
(c) 상기 선택된 제 1 메뉴의 감성에 대응하여 로봇이 동작하도록 하는 동작 속성 정보를 생성하는 단계 및
(d) 상기 생성된 동작 속성 정보와 상기 제 2 메뉴를 통해 입력된 콘텐츠를 포함하는 메시지를 상기 로봇으로 전송하는 단계
를 실행시키되, 상기 동작 속성 정보는 상기 선택된 제 1 메뉴의 감성에 대한 정보 및 상기 로봇의 각 동작에 대한 속성 값 중 하나 이상을 포함하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
- 제 21 항에 있어서,
(e) 로봇에 저장된 콘텐츠의 목록을 요청하고, 상기 요청된 콘텐츠의 목록을 화면에 표시하는 단계 및
(f) 상기 화면에 표시된 콘텐츠의 목록 중 어느 하나가 선택되면, 상기 선택된 콘텐츠가 상기 로봇에서 재생되도록 상기 로봇으로 메시지를 전송하는 단계
를 더 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
- 사용자 단말기와 커뮤니케이션을 제공하는 로봇에 설치되는 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
(a) 사용자 단말기로부터 메시지가 수신되면, 상기 수신된 메시지로부터 동작 속성 정보를 추출하는 단계,
(b) 상기 동작 속성 정보의 각 동작에 대한 속성 값에 따라서, 로봇의 각 동작을 제어하는 단계,
(c) 상기 수신된 메시지로부터 콘텐츠를 추출하는 단계 및
(d) 상기 추출된 콘텐츠의 정보를 화면에 표시하고, 상기 표시된 콘텐츠 중 어느 하나가 선택되면, 상기 선택된 콘텐츠를 실행하는 단계
를 실행시키되, 상기 동작 속성 정보는 상기 사용자 단말기에 입력된 사용자의 감성에 대한 정보 및 상기 사용자의 감성에 대응하여 상기 로봇이 동작하도록 하는 상기 로봇의 각 동작에 대한 속성 값을 포함하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
- 제 23 항에 있어서,
(e) 상기 사용자 단말기로부터 콘텐츠의 목록이 요청되면, 상기 로봇에 저장된 콘텐츠를 검색하고, 상기 검색된 콘텐츠의 목록을 상기 사용자 단말기로 전송하는 단계 및
(f) 상기 사용자 단말기로부터 상기 전송된 콘텐츠의 목록 중 어느 하나에 대한 선택 정보가 수신되면, 상기 선택된 콘텐츠를 재생하는 단계
를 더 실행시키는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120015407A KR20130094058A (ko) | 2012-02-15 | 2012-02-15 | 커뮤니케이션 시스템, 장치 및 기록 매체 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120015407A KR20130094058A (ko) | 2012-02-15 | 2012-02-15 | 커뮤니케이션 시스템, 장치 및 기록 매체 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130094058A true KR20130094058A (ko) | 2013-08-23 |
Family
ID=49218039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120015407A KR20130094058A (ko) | 2012-02-15 | 2012-02-15 | 커뮤니케이션 시스템, 장치 및 기록 매체 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130094058A (ko) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170055040A (ko) * | 2015-11-10 | 2017-05-19 | (주)이산솔루션 | 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템 |
US10289076B2 (en) | 2016-11-15 | 2019-05-14 | Roborus Co., Ltd. | Concierge robot system, concierge service method, and concierge robot |
KR20200056378A (ko) | 2017-09-22 | 2020-05-22 | 가부시끼가이샤 도꾸야마 | Ⅲ족 질화물 단결정 기판 |
CN112338907A (zh) * | 2019-08-09 | 2021-02-09 | 深圳市三宝创新智能有限公司 | 一种用于助教机器人的客户端 |
CN112698747A (zh) * | 2020-12-29 | 2021-04-23 | 深圳市普渡科技有限公司 | 机器人触摸互动方法及机器人 |
CN114347061A (zh) * | 2022-01-24 | 2022-04-15 | 美的集团(上海)有限公司 | 机器人的氛围灯设置方法、设置装置及机器人 |
US11325260B2 (en) | 2018-06-14 | 2022-05-10 | Lg Electronics Inc. | Method for operating moving robot |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040044316A (ko) * | 2002-11-21 | 2004-05-28 | 삼성전자주식회사 | 가정용 로봇을 이용한 애완동물 로봇의 제공 장치 및 그방법 |
JP2004237432A (ja) * | 2003-02-07 | 2004-08-26 | Navigation Networks:Kk | インターネットを使ったロボット用プログラムおよびコンテンツを含むロボット番組の配信方法 |
KR20070099831A (ko) * | 2006-04-05 | 2007-10-10 | 주식회사 케이티 | 소봇을 이용한 스마트한 인맥관리 및 통합 메시징 시스템및 그 서비스 제공 방법 |
US20090157221A1 (en) * | 2007-12-14 | 2009-06-18 | Hon Hai Precision Industry Co., Ltd. | Robotic system, robot and mobile phone |
KR20110086616A (ko) * | 2008-11-19 | 2011-07-28 | 알까뗄 루슨트 | 위치지정 가능한 장소에서 사람이 경험한 감정을 나타내는 데이터를 기록하는 방법 및 장치, 그리고 그 연관 서버 |
US20110191516A1 (en) * | 2010-02-04 | 2011-08-04 | True Xiong | Universal touch-screen remote controller |
-
2012
- 2012-02-15 KR KR1020120015407A patent/KR20130094058A/ko not_active Application Discontinuation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040044316A (ko) * | 2002-11-21 | 2004-05-28 | 삼성전자주식회사 | 가정용 로봇을 이용한 애완동물 로봇의 제공 장치 및 그방법 |
JP2004237432A (ja) * | 2003-02-07 | 2004-08-26 | Navigation Networks:Kk | インターネットを使ったロボット用プログラムおよびコンテンツを含むロボット番組の配信方法 |
KR20070099831A (ko) * | 2006-04-05 | 2007-10-10 | 주식회사 케이티 | 소봇을 이용한 스마트한 인맥관리 및 통합 메시징 시스템및 그 서비스 제공 방법 |
US20090157221A1 (en) * | 2007-12-14 | 2009-06-18 | Hon Hai Precision Industry Co., Ltd. | Robotic system, robot and mobile phone |
KR20110086616A (ko) * | 2008-11-19 | 2011-07-28 | 알까뗄 루슨트 | 위치지정 가능한 장소에서 사람이 경험한 감정을 나타내는 데이터를 기록하는 방법 및 장치, 그리고 그 연관 서버 |
US20110191516A1 (en) * | 2010-02-04 | 2011-08-04 | True Xiong | Universal touch-screen remote controller |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170055040A (ko) * | 2015-11-10 | 2017-05-19 | (주)이산솔루션 | 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템 |
US10289076B2 (en) | 2016-11-15 | 2019-05-14 | Roborus Co., Ltd. | Concierge robot system, concierge service method, and concierge robot |
KR20200056378A (ko) | 2017-09-22 | 2020-05-22 | 가부시끼가이샤 도꾸야마 | Ⅲ족 질화물 단결정 기판 |
US11325260B2 (en) | 2018-06-14 | 2022-05-10 | Lg Electronics Inc. | Method for operating moving robot |
US11787061B2 (en) | 2018-06-14 | 2023-10-17 | Lg Electronics Inc. | Method for operating moving robot |
CN112338907A (zh) * | 2019-08-09 | 2021-02-09 | 深圳市三宝创新智能有限公司 | 一种用于助教机器人的客户端 |
CN112698747A (zh) * | 2020-12-29 | 2021-04-23 | 深圳市普渡科技有限公司 | 机器人触摸互动方法及机器人 |
CN114347061A (zh) * | 2022-01-24 | 2022-04-15 | 美的集团(上海)有限公司 | 机器人的氛围灯设置方法、设置装置及机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102306624B1 (ko) | 지속적 컴패니언 디바이스 구성 및 전개 플랫폼 | |
TWI681298B (zh) | 觸碰式通訊系統和方法 | |
KR20130094058A (ko) | 커뮤니케이션 시스템, 장치 및 기록 매체 | |
TWI650977B (zh) | 即時通訊過程中的表情信息處理方法及裝置 | |
US10357881B2 (en) | Multi-segment social robot | |
US20180160075A1 (en) | Automatic Camera Selection | |
US20170206064A1 (en) | Persistent companion device configuration and deployment platform | |
JP7254772B2 (ja) | ロボットインタラクションのための方法及びデバイス | |
US20140351720A1 (en) | Method, user terminal and server for information exchange in communications | |
US20150264303A1 (en) | Stop Recording and Send Using a Single Action | |
JP6467554B2 (ja) | メッセージ送信方法、メッセージ処理方法及び端末 | |
WO2016011159A9 (en) | Apparatus and methods for providing a persistent companion device | |
US10178346B2 (en) | Highlighting unread messages | |
US9749585B2 (en) | Highlighting unread messages | |
US20190246064A1 (en) | Automatic camera selection | |
US20150264307A1 (en) | Stop Recording and Send Using a Single Action | |
US20150264305A1 (en) | Playback of Interconnected Videos | |
KR20080045924A (ko) | 원격대화에서 감정 및 의사의 표현 방법과 이를 위한 리얼이모티콘 시스템 | |
JP2016189121A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20130093186A (ko) | 인터랙티브 캐릭터를 활용한 동영상 제작 장치 | |
CN114666296A (zh) | 多媒体内容生成方法、系统及计算机可读记录介质 | |
WO2018183812A1 (en) | Persistent companion device configuration and deployment platform | |
KR100799160B1 (ko) | 메신저와 로봇 연동 방법 및 장치 | |
US20220319134A1 (en) | Contextual Message Delivery in Artificial Reality | |
TWI537936B (zh) | 語音資料呈現方法及系統,及其電腦程式產品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |