KR20170013015A - 스마트 완구 기반 감성 커뮤니케이션 시스템 - Google Patents

스마트 완구 기반 감성 커뮤니케이션 시스템 Download PDF

Info

Publication number
KR20170013015A
KR20170013015A KR1020150105815A KR20150105815A KR20170013015A KR 20170013015 A KR20170013015 A KR 20170013015A KR 1020150105815 A KR1020150105815 A KR 1020150105815A KR 20150105815 A KR20150105815 A KR 20150105815A KR 20170013015 A KR20170013015 A KR 20170013015A
Authority
KR
South Korea
Prior art keywords
smart
user
toy
state
emotion
Prior art date
Application number
KR1020150105815A
Other languages
English (en)
Inventor
조영식
조현지
Original Assignee
주식회사 프론트유
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 프론트유 filed Critical 주식회사 프론트유
Priority to KR1020150105815A priority Critical patent/KR20170013015A/ko
Publication of KR20170013015A publication Critical patent/KR20170013015A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/001Dolls simulating physiological processes, e.g. heartbeat, breathing or fever
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/003Dolls specially adapted for a particular function not connected with dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/365Details; Accessories allowing a choice of facial features, e.g. to change the facial expression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication

Landscapes

  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 발명은 사용자의 스마트 이동단말과 상대방의 스마트 완구 간에 무선망을 통해 서로 연결되고, 상기 스마트 이동단말이 사용자의 감성을 검출하여 상기 스마트 완구로 전송하면, 상기 스마트 완구가 수신한 감성 상태에 따라 감성을 표현하는, 스마트 완구 기반 감성 커뮤니케이션 시스템에 관한 것으로서, 동작코드에 따라 감성을 표현하도록 동작하는 스마트 완구; 사용자를 회원으로 등록하고, 사용자의 감성상태를 전송할 상대 회원의 대상 범위를 등록하는 회원등록부; 상기 상대 회원의 스마트 완구에 대하여 인증정보를 등록하고, 사용자의 감성상태에 대응하는 상기 스마트 완구의 동작코드를 등록하는 완구등록부; 감성기초 데이터를 검출하거나 수신하는 감성기초 수집부; 상기 감성기초 데이터로부터 사용자의 감성상태를 판단하는 감성상태 판단부; 사용자의 감성상태를 상기 스마트 완구의 동작코드로 매핑하는 감성상태 매핑부; 및 상기 매핑된 동작코드를 상기 스마트 완구로 전송하는 완구동작 명령부를 포함하는 구성을 마련한다.
상기와 같은 방법에 의하여, 스마트 이동단말의 앱을 통하여 자신의 감정을 원격에 있는 상대방(애인 또는 자녀 등)의 스마트 완구로 감성 메시지를 전달하여 동작하게 함으로써, 보다 친숙한 방법으로 자신의 감정을 상대방에게 실시간으로 전송할 수 있다.

Description

스마트 완구 기반 감성 커뮤니케이션 시스템 { An emotion communication system by using smart toys }
본 발명은 사용자의 스마트 이동단말과 상대방의 스마트 완구 간에 무선망을 통해 서로 연결되고, 상기 스마트 이동단말이 사용자의 감성을 검출하여 상기 스마트 완구로 전송하면, 상기 스마트 완구가 수신한 감성 상태에 따라 감성을 표현하는, 스마트 완구 기반 감성 커뮤니케이션 시스템에 관한 것이다.
일반적으로, 감성 ICT 산업은 일상생활에서 제공되는 제품과 서비스에 인의 감성을 자동으로 인지하고 사용 상황에 맞게 감성 정보를 처리하여 사용자 감성 맞춤형 서비스를 제공하는 감성 ICT(Information and Communications Technologies) 기술이 융합된 산업을 말한다.
소비자는 대량 맞춤형(Mass Customization)방식에서 사용자 개개인에 맞춤화 된 제품 및 서비스로 트렌드가 전환되고 있으나, 기존 ICT산업은 성능의 고도화에 집중된 획일적 제품과 서비스에 국한되어, 각기 다른 특성의 소비자들의 구매욕을 만족시키기엔 불충분하다. 사용자의 감성을 미리 감지하여 제품과 서비스에 감성이 결합된 나만을 위한 '기분 좋게 만드는 상품'을 원하고 있다. 즉, 소비자는 고품질의 제품과 서비스에 익숙해져 성능보다는 자신의 기분을 '기분 좋게 만드는' 선제적 감성기술을 요구하고 있다.
특히, 완구의 전통적인 개념 중의 하나는 유명 캐릭터를 활용해 어린이, 여성 등 다양한 계층을 대상으로 한 인형 등 다양한 제품을 생산하는 것이나, 최근 어린이 청소년 등을 중심으로 스마트기기 이용증대에 따른 디지털콘텐츠 수요 확대로 인하여, 전통적 완구의 수요가 감소하는 경향을 보이고 있다.
이에 따라 완구에서도 감성을 표현할 수 있는 기술들이 제시되고 있다. 예를 들면, 표정이 바뀌는 인형에 대한 구성 기술이나, 음성인식 및 인공지능을 구비한 완구 기술 등이 제시되고 있다[특허문헌 1,2]. 또한, 사용자의 생체신호를 받아서 생체신호로부터 사용자의 긴장도 정도를 판단하고, 그에 상응하는 음성을 출력하는 감성응답형 인형 완구 기술이 제시되고 있다[특허문헌 3]. 또한, 음성으로 질의 응답하는 인형 구성 기술로서, 시각, 청각, 후각, 촉각 등 센서입력에 반응해서, 응답 대화 내용에 따라 감정을 표현하는 방법도 제시되고 있다[특허문헌 4]. 또한, 시각, 후각, 청각, 촉각 등 데이터를 수신하여 이에 대응되는 감성 컨텐츠를 찾고, 그 감성에 따라 정해진 음성이나 모션을 취하게 하되, 감성 로봇의 감성 컨텐츠를 인터넷을 통해 원격에서 수신하거나 원격의 다른 감성로봇에 인터넷을 통해 전달해주는 기술도 제시되고 있다[특허문헌 5].
한편, 감성을 네트워크 상의 상대방에 전달하고 표현하는 기술들도 제시되고 있다. 일례로서, 송신자 단말에서 송신자 감성을 표현하는 개인화된 가상 생명체를 생성하고, 송신자가 입력한 글 또는 이미지와 같은 개인화 정보를 이용하여 성장시키고, 가상 생명체의 최종 성장 상태를 수신자 단말로 전송하여 송신자의 감성 상태를 수신자 단말로 전송하는 기술이 제시되고 있다[특허문헌 6]. 또한, 휴대폰을 이용하여 가입자의 기분상태를 설정하면, 가입자의 기분상태를 수신인의 휴대폰으로 전송하여, 상대방 기분상태를 미리 파악할 수 있는 방법도 제시되고 있다[특허문헌 7]. 또한, 네트워크를 통해 연결된 사용자 단말로부터 수신되는 텍스트, 음성신호 등으로부터 감성을 추론하여, 감성에 대응하는 감성 연출정보를 생성하여, 목적지 단말로 전송하는 기술도 제시되고 있다[특허문헌 8].
그러나 상기 선행기술들은 단순히 감정 정보만을 전달할 뿐, 보다 자연스럽게 감정을 전달하고 표현하지 못하는 문제점이 있다. 따라서 사용자의 감성 상태를 실시간으로 파악하여, 인형 등 완구를 통해 보다 친밀한 형태로 감성 상태를 상대방에게 전달하는 기술이 필요하다.
[특허문헌 1] 한국공개특허 제10-2010-0068515호 (2010.06.24.공개) [특허문헌 2] 한국공개특허 제10-2002-0032085호 (2002.05.03.공개) [특허문헌 3] 한국공개특허 제10-2003-0060375호 (2003.07.16.공개) [특허문헌 4] 한국공개특허 제10-2013-0139137호 (2013.12.20.공개) [특허문헌 5] 한국공개특허 제10-2007-0019441호 (2007.02.15.공개) [특허문헌 6] 한국공개특허 제10-2011-0104220호 (2011.09.22.공개) [특허문헌 7] 한국공개특허 제10-2010-0038246호 (2010.04.14.공개) [특허문헌 8] 한국공개특허 제10-2012-0044911호 (2012.05.08.공개)
본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 사용자의 스마트 이동단말과 상대방의 스마트 완구 간에 무선망을 통해 서로 연결되고, 상기 스마트 이동단말이 사용자의 감성을 검출하여 상기 스마트 완구로 전송하면, 상기 스마트 완구가 수신한 감성 상태에 따라 감성을 표현하는, 스마트 완구 기반 감성 커뮤니케이션 시스템을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 관한 것으로서, 동작코드에 따라 감성을 표현하도록 동작하는 스마트 완구; 사용자를 회원으로 등록하고, 사용자의 감성상태를 전송할 상대 회원의 대상 범위를 등록하는 회원등록부; 상기 상대 회원의 스마트 완구에 대하여 인증정보를 등록하고, 사용자의 감성상태에 대응하는 상기 스마트 완구의 동작코드를 등록하는 완구등록부; 감성기초 데이터를 검출하거나 수신하는 감성기초 수집부; 상기 감성기초 데이터로부터 사용자의 감성상태를 판단하는 감성상태 판단부; 사용자의 감성상태를 상기 스마트 완구의 동작코드로 매핑하는 감성상태 매핑부; 및 상기 매핑된 동작코드를 상기 스마트 완구로 전송하는 완구동작 명령부를 포함하는 것을 특징으로 한다.
또한, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서, 상기 회원등록부는 상기 전송 범위를, 하나의 회원을 개별적으로 지정하거나, 다수의 회원들을 그룹화하고 상기 전송 범위를 그룹으로 지정하거나, 모든 회원으로 설정할 수 있는 것을 특징으로 한다.
또한, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서, 상기 완구등록부는 상기 상대 회원으로부터 상기 스마트 완구의 등록 요청을 받으면, 상기 상대 회원의 스마트 이동단말의 전화번호로 인증번호를 발송하고, 상기 스마트 완구는 발송된 전화번호와 인증번호로 인증되는 것을 특징으로 한다.
또한, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서, 상기 완구등록부는 각 스마트 완구별로 사용자의 감성상태와 스마트 완구의 동작코드 간의 매핑 함수 또는 매핑 테이블을 등록하고, 상기 감성상태 매핑부는 요청된 스마트 완구에 해당하는 매핑 함수 또는 매핑 테이블을 통해, 사용자의 감성상태에 대응되는 동작코드를 매핑하는 것을 특징으로 한다.
또한, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서, 상기 감성기초 수집부는 상기 스마트 이동단말의 입력을 통해 사용자의 감성상태를 설정하거나, 촬영된 사용자의 얼굴 이미지, 마이크로 녹음된 사용자의 목소리, 생체 센서에 의한 생체 신호 데이터, 상기 스마트 이동단말에 입력되는 텍스트 중 어느 하나로부터 감성상태를 검출할 수 있는 기초 데이터를 수집하는 것을 특징으로 한다.
또한, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서, 상기 감성상태 판단부는 수집한 기초 데이터로부터 사용자의 감성상태를 판단하되, 판단되는 감성상태는 각 감성 상태에 대한 감성의 정도를 수치로 표시하거나, 수치로 표시된 감성 상태 중에서 대표적인 하나의 감성만을 선정하는 것을 특징으로 한다.
또한, 본 발명은 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서, 상기 감성상태는 기쁨, 분노, 슬픔, 즐거움, 사랑, 미움, 욕심을 포함하는 것을 특징으로 한다.
상술한 바와 같이, 본 발명에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템에 의하면, 스마트 이동단말의 앱을 통하여 자신의 감정을 원격에 있는 상대방(애인 또는 자녀 등)의 스마트 완구로 감성 메시지를 전달하여 동작하게 함으로써, 보다 친숙한 방법으로 자신의 감정을 상대방에게 실시간으로 전송할 수 있는 효과가 얻어진다.
또한, 본 발명에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템에 의하면, 스마트 완구로 감성 메시지를 전달함으로써, 단순이 감성 정보만을 전달하는 것이 아니라. 스마트 이동단말의 앱 상에 자신과 연동된 그룹간에 가상세계를 구축하여 연인, 가족, 친구 등의 그룹별 가상공간을 제공할 수 있고, 직접적으로 표현할 수 없는 것을 상황별로 가상세계에서 간접적으로 감성을 전달할 수 있는 효과가 얻어진다.
도 1은 본 발명에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템을 실시하기 위한 전체 시스템의 구성에 대한 블록도.
도 2는 본 발명의 일실시예에 따른 스마트 완구의 예시도.
도 3은 본 발명의 일실시예에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템의 구성에 대한 블록도.
도 4는 본 발명에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템의 사용 일례.
이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.
또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.
먼저, 본 발명에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템을 실시하기 위한 전체 시스템을 도 1을 참조하여 설명한다.
도 1에서 보는 바와 같이, 본 발명을 실시하기 위한 전체 시스템은 사용자의 스마트 이동단말(10)에 설치되어 사용자의 감성 상태를 검출하는 클라이언트(20), 무선망을 통해 감성 상태를 수신하여 이에 따라 감성 상태를 표현하는 스마트 완구(50), 및, 클라이언트(20)로부터 감성 상태를 수신하여 스마트 완구(50)로 해당 감성 상태를 전송하는 전달 서버(30)로 구성된다. 또한, 스마트 이동단말(10)은 이동통신망(21)과, 인터넷 등 네트워크(22)를 통해, 전달 서버(30)에 연결되고, 스마트 완구(50)는 근거리 통신망의 액세스 포인트 등 무선망(23)을 통해 네트워크(22)에 연결된다. 또한, 전달서버(30)에는 데이터를 저장하기 위한 데이터베이스(40)를 추가하여 구성될 수 있다.
스마트 이동단말(10)은 스마트폰, 패블릿 등 컴퓨팅 기능을 가지고 이동통신망을 이용하는 이동단말이다. 스마트 이동단말(10)은 모바일용 어플리케이션(또는 어플, 앱)을 설치하여 수행시킬 수 있고, 사용자는 내장된 어플이나, 추가 설치되는 어플을 이용하여, 음성 통화, 영상 통화, 문자 메시지, 인터넷, 소셜네트워크(SNS), 메신저, 카톡 등 각종 서비스를 이용할 수 있다.
클라이언트(20)는 스마트 이동단말(10)에 설치되는 모바일용 어플(프로그램 시스템)로서, 사용자의 감성 상태를 검출하고 검출된 감성 상태를 전달 서버(30)로 전송한다.
구체적으로, 클라이언트(20)는 음성 통화 시 음성을 분석하거나, 영상 통화 시 영상에서 사용자 얼굴 상태를 인식하거나, 문자메시지나 메신저, 소셜 네트워크 상에서 입력하는 내용에서 감성을 나타내는 문자를 분석하여, 사용자의 감성 상태를 검출한다. 또는 사용자는 클라이언트(20)에 자신의 감성 상태를 직접 입력할 수도 있다. 또는 클라이언트(20)는 생체센서(미도시)로부터 검출된 맥박 등 생체신호를 수신하여, 검출된 생체신호를 이용하여 사용자의 감성 상태를 검출할 수 있다.
클라이언트(20)는 검출된 감성 상태를 전달서버(30)에 전송한다. 이때, 스마트 이동단말(10)은 이동통신망(21) 또는 인터넷 등 네트워크(22)에 연결되어, 망을 통해 사용자의 감성상태를 전달 서버(30)에 전송한다.
다음으로, 전달 서버(30)는 클라이언트(20)로부터 사용자의 감성 상태에 대한 데이터를 수신하여 저장한다. 전달 서버(30)는 스마트 완구(50)로부터 사용자의 감성 상태를 요청하면, 저장된 사용자의 감성 상태를 스마트 완구(50)로 전송한다.
다음으로, 스마트 완구(50)는 감성 상태에 따라 다수의 감성 표현을 표시하는 인형 등 완구이다. 일례로서, 스마트 완구(50)는 평상, 울음, 웃음, 놀람, 화남, 두려움, 걱정, 지겨움 등 다수의 감성 상태를 표현할 수 있는 동작을 구현한다.
즉, 스마트 완구(50)는 다수의 감성상태 코드와, 각 해당 감성상태 코드에 따라 해당 감정을 표현하는 동작 명령들 사이의 맵핑 테이블을 구비한다. 그리고 스마트 완구(50)는 특정한 감성상태 코드를 수신하면, 해당 감성상태 코드에 대응하는 동작 명령을 수행한다.
또한, 스마트 완구(50)는 와이파이(wifi), 블루투스, 적외선(IR) 통신 등 근거리 통신망의 통신수단을 구비한다. 스마트 완구(50)는 무선통신수단을 통해, 전달 서버(30)에 접속하여 사용자의 감성 상태를 수신한다. 일례로서, 스마트 완구(50)는 인터넷 주소가 부여되어, 인터넷 주소를 이용하여 와이파이 액세스 포인트(Wifi AP)에 접속하고, 이로부터 인터넷 등 네트워크를 거쳐 전달 서버(30)에 접속한다. 다른 예로서, 스마트 완구(50)는 블루투스 등 통신수단으로 사용자의 스마트 이동단말(10)에 접속하여, 이동통신망을 통해 인터넷에 접속하고, 인터넷을 통해 전달 서버(30)에 접속할 수 있다.
한편, 앞서 설명한 클라이언트(20)와 전달 서버(30)의 기능은 일례이고, 서버와 클라이언트의 구현 기술에 따라 다양하게 구현될 수 있다. 즉, 클라이언트(20)와 갱신 서버(30)는 하나의 감성상태 검출 시스템으로서, 그 기능들이 성능에 따라 서로 분배될 수 있다.
다른 예로서, 클라이언트(20)는 단순히 다양한 감성 상태들 각각에 대한 데이터만 검출하고, 전달 서버(30)에서 각각의 감성 상태 데이터를 취합하여, 현재 사용자의 감성 상태를 결정한다. 또한, 전달 서버(30)는 과거의 감성 상태에 대한 히스토리를 누적하여, 누적된 감성 데이터를 이용하여 현재의 감성상태를 검출할 수 있다. 전달 서버(30)는 검출된 감성상태를 스마트 완구(50)로 전송한다.
또 다른 예로서, 클라이언트(20)에서 사용자의 모든 감성 상태를 분석하여 최종 감성상태 코드만을 생성하여, 감성상태 코드를 스마트 완구(50)에 전송할 수 있다. 그리고 전송서버(30)는 단순히 감성상태 코드를 전송하는 기능만 수행할 수 있다.
다음으로, 데이터베이스(40)는 전달 서버(30)에서 데이터를 저장하기 위한 통상의 데이터베이스(DB)로서, 각 사용자의 정보를 저장하는 회원정보DB(41), 각 회원 또는 사용자의 감성 상태를 저장하는 감성상태DB(42), 및, 스마트 완구(50)의 감성표현이 가능한 감성표현 코드 등의 데이터를 저장하는 완구표현DB(43)로 구성된다. 상기 데이터베이스의 세부 구성은 일례일 뿐, 구현하는 방식이나 효율을 위하여 데이터베이스 이론에 근거하여 다수의 형태로 구성이 가능하다.
다음으로, 본 발명의 일실시예에 따른 스마트 완구(50)의 감성 표현 동작에 대하여 도 2를 참조하여 보다 구체적으로 설명한다.
도 2에서 보는 바와 같이, 본 발명에 따른 스마트 완구(50)는 감성상태 명령에 따라 다양한 동작을 수행한다. 도 2의 예에서는, 인형의 머리가 좌우로 움직이거나, 상하로 움직이고, 가슴에는 구비된 감성 시계가 감성상태에 따라 시계 바늘이 움직인다.
특히, 인형의 목 회전은 4가지 방향의 경우를 갖고, 상하움직임의 2가지 경우를 갖는다. 그래서 전체 조합의 수는 8가지이므로, 8가지의 감성 상태를 표현할 수 있다. 또한, 감성 시계는 10분 단위로 2개의 바늘이 움직인다면, 6×12 = 72의 감성상태 경우를 표현할 수 있다. 또한, 사운드를 통해 감성 상태를 표현할 수 있다.
또한, 다음과 같이, 감성 상태는 기쁨, 분노, 슬픔, 즐거움, 사랑, 미움, 욕심(칠정) 등으로 구분할 수 있다. 스마트 완구(50)는 각 감성 상태에 따라 특정한 동작을 수행한다.
이때, 스마트 완구(50)에 특정한 감성의 동작을 수행하도록 하는 명령을 감성명령 또는 감성동작 코드라 부르기로 한다. 즉, 스마트 완구(50)는 감성명령을 받으면, 감성명령에 따라 특정한 동작을 수행한다. 한편, 스마트 완구(50)는 그 종류에 따라 감성명령에 따른 동작들이 서로 다르다.
앞서 도 3의 예에서는 인형이 단지 고개를 좌우 또는 상하로 움직일 수 있으나, 안면 동작이 섬세하여 각종 감성을 얼굴로 모두 표현할 수 있는 완구가 있을 수 있다. 이 경우, 감성상태에 따른 동작은 매우 달라질 수 있다. 또한, 이러한 얼굴 인형은 앞서 도 2의 인형 보다 감성명령이 더 복잡하고 다양하게 구성될 수 있다.
따라서 해당 회원의 감성 상태에 따라, 각 완구에 전달해야 하는 감성명령이 서로 달라질 수 있고, 감성명령에 따라 동작명령이 서로 다를 수 있다. 이를 위해, 각 완구의 종류별로 해당 사용자 또는 회원의 감성상태에 대응되는 감성명령을 매핑해야 한다. 이와 같은 매핑 테이블을 각 완구의 종류별로 구해둔다.
다음으로, 본 발명의 일실시예에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템을 도 3을 참조하여 보다 구체적으로 설명한다. 앞서 설명한 바와 같이, 감성 커뮤니케이션 시스템은 스마트 이동단말(10)의 클라이언트(20)와, 네트워크에 연결된 서버(30)로 구현되는 서버-클라이언트 시스템을 포함한다. 또한, 감성 커뮤니케이션 시스템은 스마트 완구(50)도 포함하여 구성한다.
도 3에서 보는 바와 같이, 본 발명의 일실시예에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템은 사용자를 회원으로 등록하고 사용자의 감성상태를 전송할 상대방의 대상 범위 등을 등록하는 회원등록부(31), 스마트 완구를 등록하여 완구의 동작에 대한 동작코드 등을 등록하는 완구등록부(32), 감성기초 데이터를 검출하거나 수신하는 감성기초 수집부(33), 감성기초 데이터로부터 사용자의 감성상태를 판단하는 감성상태 판단부(34), 사용자의 감성상태를 스마트 완구의 동작코드로 매핑하는 감성상태 매핑부(35), 및, 스마트 완구의 동작코드를 스마트 완구로 전송하는 완구동작 명령부(36)로 구성된다. 추가적으로 데이터를 저장하는 저장부(37)를 더 포함하여 구성된다.
먼저, 회원등록부(31)는 사용자를 회원으로 등록하되, 사용자의 이름, 소속 그룹, 이동단말의 전화번호, 사용자의 감성상태를 전송할 상대방(또는 상대 사용자, 타 회원)의 대상 범위 등의 사용자 정보를 함께 등록한다. 이동단말의 전화번호는 사용자의 스마트 이동단말(10)의 전화번호를 말한다.
회원등록부(31)는 전달 서버(30) 또는 클라이언트(20)에서 구현될 수 있다. 또는 서버(30)와 클라이언트(20) 모두에서 구현될 수 있다. 즉, 사용자는 서버(30)에 접속하여 회원 등록을 하거나, 스마트 이동단말(10)에 설치된 어플, 즉, 클라이언트(20)에서 입력하고 등록할 수 있다. 한편, 클라이언트(20)에서 회원을 등록하더라도 관련된 회원 정보는 전달 서버(30)로 전송하여, 전달 서버(30)의 데이터베이스(40)에 회원정보가 기록되어 보관된다.
또한, 회원등록부(31)는 사용자(또는 해당 회원)의 감성상태를 전송할 상대회원 범위(또는 대상 범위)를 등록한다. 바람직하게는, 상대회원의 전화번호를 등록함으로써 대상 범위를 등록한다. 즉, 해당 회원의 감정상태를 전송할 상대 회원의 전화번호를 등록한다.
또한, 다른 실시예로서, 회원등록부(31)는 다수의 회원들을 하나의 그룹으로 그룹화할 수 있고, 대상 범위를 그룹으로 지정할 수 있다. 예를 들어, 가족, 동창, 회사 내의 팀, 동호회 등 다양한 그룹을 회원들이 형성할 수 있고, 이러한 그룹으로 대상범위를 설정한다.
또한, 다른 실시예로서, 회원등록부(31)는 대상 범위를 전체 회원으로 설정할 수도 있다. 이 경우, 해당 회원은 회원 전체에게 자신의 감성 상태를 모두 공개하게 된다.
다음으로, 완구등록부(32)는 특정 회원의 감성 상태를 수신하고자 하는 스마트 완구(50)를 인증하고 등록한다. 상대 회원은 자신이 소지하는 스마트 완구(50)에서 해당 회원의 감성 상태를 수신하기 위하여, 스마트 완구(50)를 등록한다.
먼저 상대 회원은 전달 서버(30)에 접속하여 스마트 완구(50)의 인증을 위한 인증정보를 수신한다. 바람직하게는, 완구등록부(32)는 상대 회원으로부터 스마트 완구(50)의 등록 요청을 받으면, 상대 회원의 스마트 이동단말(20)의 전화번호로 인증번호(또는 인증정보)를 발송한다. 바람직하게는 인증정보를 문자 메시지를 통해 발송한다.
완구등록부(32)는 상대회원의 전화번호와, 발송한 인증정보를 이용하여, 감성상태를 수신할 스마트 완구(50)를 인증한다. 이하에서 설명하듯이, 스마트 완구(50)가 전달 서버(30)에 접속하여 상대회원의 전화번호와, 인증정보를 전송하면, 전달 서버(30)는 전화번호와 인증정보로 상대회원 범위인지를 판단한다.
완구등록부(32)는 상대회원의 전화번호와 발송한 인증정보를 저장하여, 전송 대상 범위의 인증 목록을 생성한다.
또한, 바람직하게는, 완구등록부(32)는 사용자의 감성상태와 해당 등록 완구의 감성명령 간의 매핑 함수 또는 매핑 테이블을 등록한다. 앞서 설명한 바와 같이, 각 완구의 종류별로 감성상태에 따른 감성명령은 서로 다를 수 있다. 따라서 각 완구별 또는 완구의 종류별로 감성상태와 감성명령 간의 매핑함수를 입력받아 등록한다. 즉, 상대회원은 자신이 소지한 스마트 완구(50)의 감성명령 또는 동작코드들 각각에 대하여 사용자의 어떤 감성상태에 따라 수행되는지를 등록한다.
바람직하게는, 감성명령은 코드 형태로 스마트 완구(50)로 전송된다. 감성 명령과 동작 코드는 혼용하기로 한다.
다음으로, 감성기초 수집부(33)는 사용자의 감성을 검출할 수 있는 기초 데이터를 수집한다. 구체적으로, 음성 통화 시 음성을 분석하거나, 영상 통화 시 영상에서 사용자 얼굴 상태를 인식하거나, 문자메시지나 메신저, 소셜 네트워크 상에서 입력하는 내용에서 감성을 나타내는 문자를 수집한다. 또는 사용자가 직접 입력하는 감성 상태를 수집할 수도 있다.
즉, 감성기초 수집부(33)는 스마트 이동단말(10)의 화면에서 메뉴 화면을 제공하되, 감성 상태를 사전에 파악하기 위한 메뉴를 제공하고, 회원 자신의 감성 상태를 스마트 이동단말(10)의 키입력을 통해 설정할 것인지를 회원(또는 사용자)에게 제시한다. 사용자가 스마트 이동단말(10)의 키입력을 선택할 경우에 해당 키입력정보를 수신하여, 사용자의 감성 상태 값을 기초 데이터로서 입력받는다.
또한, 감성기초 수집부(33)는 스마트 이동단말(10)의 키입력을 통해 설정하는 것 이외에 스마트 이동단말(10)의 카메라를 통해 회원의 얼굴 이미지를 설정할 것인지를 사용자에게 제시하여, 키입력 혹은 얼굴 이미지 입력을 통해 설정할 수 있도록 한다. 이때, 사용자가 자신의 얼굴 이미지를 통해 설정할 경우에 해당 얼굴 이미지를 수신한다. 이때의 얼굴 이미지가 감성 상태를 판단할 수 있는 기초 데이터이다. 회원이 스마트 이동단말(10)의 얼굴 이미지를 통해 설정할 경우에 스마트 이동단말(10)의 카메라를 통해 촬영한 얼굴의 일상적인 영상과 현재 영상을 비교 분석할 수 있다. 따라서 이를 위해, 감성기초 수집부(33)는 평상시의 얼굴 이미지를 미리 저장해둔다. 스마트 이동단말(10)의 카메라를 통해 회원의 얼굴이미지를 설정할 경우에 카메라를 통해 획득된 얼굴의 형태 정보를 입력의 감성 정보의 기초 데이터로 하여 개인의 고유한 특징 정보뿐만 아니라 개인의 표정 및 감성 정보를 추출할 수 있다.
또한, 감성기초 수집부(33)는 스마트 이동단말(10)의 마이크를 통해 입력되는 목소리를 통해 설정할 것인지를 회원에게 제시하여 목소리를 통해 설정할 수 있도록 한다. 즉, 회원이 목소리를 통해 설정할 경우에 스마트 이동단말(10)의 마이크를 통해 수신받은 음성을 기초 데이터로 수집한다. 회원이 스마트 이동단말(10)의 목소리를 통해 설정할 경우에 스마트 이동단말(10)의 마이크를 통해 수신받은 목소리의 일상적인 톤과 현재 목소리의 톤을 비교 분석하여야 한다. 따라서 이를 위해, 감성기초 수집부(33)는 평상시의 목소리 톤을 미리 저장해둔다.
또한, 감성기초 수집부(33)는 스마트 이동단말(10)의 센서를 통해 감지되는 사용자의 생체정보를 기초로 각 생체정보 또는 각 생체정보의 변화에 대응하여 설정되어 있는 값을 계산하여 감성상태를 측정하도록 구성될 수 있다. 이때 상기 생체정보는 맥박, 심박수, 체온, 터치압력, 및 습도 중 적어도 하나 이상을 포함한다. 감성기초 수집부(33)는 생체정보나 그 변화에 대응하는 값을 유지하고, 센서(미도시)에 의해 감지된 생체정보나 그 변화에 대응하는 값을 계산하여 감성 지수를 산출함으로써 감성상태를 측정할 수 있다.
또한, 감성기초 수집부(33)는 문자메시지나 메신저, 소셜 네트워크 상에서 입력하는 내용에서 감성을 나타내는 문자 또는 단어를 수집한다. 일반적으로, 사용자는 스마트 이동단말(10)을 이용하여, 문자 메시지, 메신저, 소셜 네트워크 상에서 텍스트를 입력하여 전송하고, 이때, 자신의 감성 상태를 나타낼 수 있는 단어들을 입력하게 된다. 입력되는 단어들이 감성 상태를 나타내는 단어이면, 해당 단어들을 추출하여 수집한다.
한편, 추출하여 수집되는 단어들이 감성 상태를 나타내는 단어인지를 판단하기 위하여, 감성 상태를 나타내는 감성단어 사전을 미리 저장해둔다. 바람직하게는, 감성단어 사전의 감성 단어들은 감성에 따라 분류되어 저장된다. 앞서 설명한 바와 같이, 감성 상태는 기쁨, 분노, 슬픔, 즐거움, 사랑, 미움, 욕심(칠정) 등으로 구분할 수 있다. 감성단어 사전에는 이러한 감성 상태별로 감성단어들을 분류하여 구성된다. 이렇게 추출된 감성 단어들을 각 감성 상태별로 통계를 산출한다. 예를 들어, 각 감성 단어의 검출 횟수, 빈도, 이에 대한 시간당 평균, 분산 등의 통계를 산출한다.
다음으로, 감성상태 판단부(34)는 수집한 감성기초 데이터로부터 사용자의 감성상태를 판단한다. 이때, 판단되는 감성상태는 각 감성 상태에 대한 감성의 정도를 수치로 표시하거나, 수치로 표시된 감성 상태 중에서 대표적인 하나의 감성 상태만을 선정한다.
앞서 감성상태는 기쁨, 분노, 슬픔, 즐거움, 사랑, 미움, 욕심(칠정) 등 7가지의 감성 상태로 구분하였다. 수집된 기초 데이터로부터 7가지 감성 상태 각각에 대하여 점수(또는 수치)로 매긴다. 그리고 바람직하게는, 이들 중 가장 큰 값을 가지는 감성 상태를 대표적인 감성 상태로 설정한다.
앞서 수집한 감성상태의 기초 데이터는 사용자의 직접 입력값, 음성 통화시의 음성 톤의 비교분석 결과, 영상 통화 또는 카메라에 의한 얼굴 이미지의 분석 결과, 스마트 이동단말(10)을 통해 입력되는 문장에서 추출된 감성 단어들의 통계, 생체신호에 의한 감성상태 지수 등이다.
감성상태 판단부(34)는 상기와 같은 기초 데이터에 대하여 각 감성 상태에 대한 감성의 강도를 산출한다. 이때, 각 기초 데이터의 값에서 감성의 강도를 산출하는 규칙이나 함수는 사전에 설정된다.
감성상태 판단부(34)는 각 감성 상태의 강도 중 가장 큰 값을 갖는 감성 상태를 대표 감성 상태로 판단한다.
다음으로, 감성상태 매핑부(35)는 판단된 감성상태를 스마트 완구(50)의 감성명령(또는 동작코드)으로 매핑한다. 바람직하게는, 사전에 등록한 매핑 함수 또는 매핑 테이블에 따라, 사용자의 감성상태를 스마트 완구(50)의 감성명령으로 매핑한다.
앞서 설명한 바와 같이, 각 완구의 종류별로 감성상태에 따른 감성명령은 서로 다를 수 있다. 이를 위해, 앞서 완구등록부(32)는 각 완구별 또는 완구의 종류별로 감성상태와 감성명령 간의 등록된 매핑 함수 또는 매핑 테이블을 등록한다. 따라서 감성상태 매핑부(35)는 완구등록부(32)에 의해 등록된 매핑 함수 또는 매핑 테이블을 통해, 사용자의 감성 상태를 해당 완구 종류에 대응되는 감성 명령으로 매핑한다.
다음으로, 완구동작 명령부(36)는 스마트 완구의 감성 명령(또는 동작코드)을 스마트 완구(50)로 전송한다. 바람직하게는, 완구동작 명령부(36)는 스마트 완구(50)의 감성상태 요청에 따라 감성명령을 전송해준다.
또한, 완구동작 명령부(36)는 접속해오는 스마트 완구(50)에 대하여 완구 인증을 한 후, 인증이 통과되면 감성명령을 전송한다. 완구 인증은 앞서 완구등록부(32)에서 등록한 상대 회원의 전화번호 및 인증정보(또는 인증번호)로 인증된다.
상대 회원은 자신이 소지하는 스마트 완구(50)를 등록할 때, 자신의 전화번호를 등록하고, 등록된 전화번호 수신한 인증정보(또는 인증번호)를 기록해둔다. 그리고 자신의 전화번호와 인증정보(또는 인증번호)를 스마트 완구(50)에 입력해둔다. 스마트 완구(50)는 전달 서버(30)에 접속하여, 저장된 상대 회원의 전화번호와 인증정보를 전달 서버(30)로 감성상태 요청과 함께 전송한다. 전달 서버(30)는 수신한 전화번호와 인증정보로 등록된 스마트 완구 인지를 인증하고, 인증된 후에 해당 회원의 감성 상태를 전송한다.
또한, 해당 회원이 자신의 감성 상태를 모든 회원에게 전송하도록 허락된 경우에도, 회원의 스마트 완구인지 여부를 인증해야 하기 때문에, 역시 완구 인증을 수행한다.
다음으로, 본 발명에 따른 스마트 완구 기반 감성 커뮤니케이션 시스템을 이용하여 감성을 커뮤니케이션하는 일례를 도 4를 참조하여 설명한다. 도 4의 예는 애인, 친구, 가족 등 특정 관계에 있는 2명의 사용자가 스마트 이동단말과 스마트 완구를 이용하여, 서로 간의 감성 상태를 전달하거나 확인하는 경우이다.
도 4에서 보는 바와 같이, 제1 사용자는 제1 스마트 이동단말(10a)을 소지하고, 제2 사용자는 제2 스마트 이동단말(10b)을 소지한다. 또한, 제1 사용자는 제1 스마트 완구(50a)를 소지하거나 자신의 근처에 둔다. 또한, 제2 사용자도 제2 스마트 완구(50b)를 보유한다. 또한, 제1 스마트 이동단말(10a)에는 제1 클라이언트(20a)가 설치되고, 제2 스마트 이동단말(10b)에는 제2 클라이언트(20b)가 설치된다.
제1 및 제2 사용자 단말(10a,10b)은 이동통신망(21)과, 인터넷 등 네트워크(22)를 통해, 전달 서버(30) 등에 연결된다. 또한, 제1 및 제2 스마트 완구(50a)는 근거리 통신망의 액세스 포인트 등 무선망(23)을 통해 네트워크(22)에 연결되고, 각각 제2 및 제1 스마트 이동단말(10a,10b)와 연결되어 데이터 통신을 수행한다. 즉, 도 4와 같이, 전달 서버(30)는 제1 사용자 단말(10a)로부터 제2 스마트 완구(50b)에게 제1 사용자의 감성 상태를 전달하고, 반대로, 제2 사용자 단말(10b)로부터 제1 스마트 완구(50a)에게 제1 사용자의 감성 상태를 전달한다.
먼저, 제1 사용자는 회원으로 등록하면서 제1 스마트 이동단말(10a)의 전화번호를 등록하고, 또한, 자신이 소지하는 제1 스마트 인형(50a)도 등록하고 인증을 받는다. 이때, 전달 서버(30)는 제1 스마트 이동단말(10a)로 인증번호(인증정보)를 전송하고, 전송된 인증번호로 제1 스마트 완구(50a)에 대한 인증을 수행한다.
또한, 제2 사용자도 회원으로 등록하고 제2 스마트 이동단말(10b)의 전화번호를 등록하고, 자신이 소지하던 제2 스마트 완구(50b)도 등록하고 인증번호를 수신한다. 그리고 제1 및 제2 사용자는 감성 상태를 알려주는 대상 범위에 각자 상대방을 포함시킨다. 즉, 제1 사용자는 제2 사용자를 대상 범위로 포함하고, 제2 사용자도 제1 사용자를 대상범위로 포함한다.
제1 클라이언트(20a)는 제1 사용자의 감성과 관련된 기초 데이터를 검출하고, 검출된 기초 데이터로부터 제1 사용자의 감성 상태를 판단한다. 제1 클라이언트(20a)에서 판단한 제1 사용자의 감성 상태를 전달 서버(30)로 전송되어 저장된다. 다른 실시예로서, 제1 클라이언트(20a)는 상기 기초 데이터만 검출하고, 검출된 데이터를 전달 서버(30)로 전송하면, 전달 서버(30)에서 상기 기초 데이터들을 분석하여 제1 사용자의 감성 상태를 판단할 수 있다. 이것은 서버-클라이언트의 구성 이론에 따라 해당 구성이 선택될 수 있다. 즉, 클라이언트의 성능이 우수하거나 데이터 트래픽의 줄이고자 하는 경우에는 클라이언트 측에서 감성 상태까지 판단하고, 클라이언트의 성능이 낮거나 트래픽 양이 중요하지 않는 경우에는 서버 측에서 감성상태를 판단할 수 있다.
제2 스마트 완구(50b)는 전달 서버(30)에 접속하여, 제1 사용자의 감성 상태를 다운로드하고, 다운로드한 감성 상태 또는 감성명령에 따라 자신을 표현한다. 제2 스마트 완구(50b)는 와이파이 등 무선망을 이용하여 전달 서버(30)에 접속한다.
또한, 제2 클라이언트(20b)는 제2 사용자의 감성과 관련된 기초 데이터를 검출하고, 검출된 기초 데이터로부터 제2 사용자의 감성 상태를 판단한다. 제2 클라이언트(20b)에서 판단한 제2 사용자의 감성 상태를 전달 서버(30)로 전송되어 저장된다. 앞서 설명한 바와 같이, 서버-클라이언트의 다양한 구성에 따라 제1 클라이언트(20a)는 상기 기초 데이터만 검출하여 전달 서버(30)로 전송하면, 전달 서버(30)에서 상기 기초 데이터들을 분석하여 제1 사용자의 감성 상태를 판단할 수 있다.
또한, 제1 스마트 완구(50a)는 전달 서버(30)에 접속하여, 제2 사용자의 감성 상태를 다운로드하고, 다운로드한 감성 상태 또는 감성명령에 따라 자신을 표현한다.
상기와 같은 구성에 의하여, 제1 및 제2 사용자는 각각 자신의 감성 상태를 추출하여, 상대방이 가지고 있는 제2 및 제1 스마트 완구(50b,50a)에 전달한다. 각 사용자는 상대방의 스마트 완구(50a,50b)의 현재 상태를 확인함으로써, 상대방의 감성 상태를 파악할 수 있다.
이상, 본 발명자에 의해서 이루어진 발명을 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
10, 10a,10b : 스마트 이동단말 20, 20a,20b : 클라이언트
21 : 이동통신망 22 : 네트워크
23 : 액세스 포인트
30 : 전달서버 31 : 데이터 요청부
32 : 엑셀표시부 33 : 엑셀갱신부
34 : 갱신정의부 35 : 쿼리생성부
36 : DB갱신부 37 : 저장부
40 : 데이터베이스
50, 50a,50b : 스마트 완구

Claims (7)

  1. 스마트 완구 기반 감성 커뮤니케이션 시스템에 있어서,
    동작코드에 따라 감성을 표현하도록 동작하는 스마트 완구;
    사용자를 회원으로 등록하고, 사용자의 감성상태를 전송할 상대 회원의 대상 범위를 등록하는 회원등록부;
    상기 상대 회원의 스마트 완구에 대하여 인증정보를 등록하고, 사용자의 감성상태에 대응하는 상기 스마트 완구의 동작코드를 등록하는 완구등록부;
    감성기초 데이터를 검출하거나 수신하는 감성기초 수집부;
    상기 감성기초 데이터로부터 사용자의 감성상태를 판단하는 감성상태 판단부;
    사용자의 감성상태를 상기 스마트 완구의 동작코드로 매핑하는 감성상태 매핑부; 및
    상기 매핑된 동작코드를 상기 스마트 완구로 전송하는 완구동작 명령부를 포함하는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
  2. 제1항에 있어서,
    상기 회원등록부는 상기 전송 범위를, 하나의 회원을 개별적으로 지정하거나, 다수의 회원들을 그룹화하고 상기 전송 범위를 그룹으로 지정하거나, 모든 회원으로 설정할 수 있는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
  3. 제1항에 있어서,
    상기 완구등록부는 상기 상대 회원으로부터 상기 스마트 완구의 등록 요청을 받으면, 상기 상대 회원의 스마트 이동단말의 전화번호로 인증번호를 발송하고,
    상기 스마트 완구는 발송된 전화번호와 인증번호로 인증되는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
  4. 제1항에 있어서,
    상기 완구등록부는 각 스마트 완구별로 사용자의 감성상태와 스마트 완구의 동작코드 간의 매핑 함수 또는 매핑 테이블을 등록하고,
    상기 감성상태 매핑부는 요청된 스마트 완구에 해당하는 매핑 함수 또는 매핑 테이블을 통해, 사용자의 감성상태에 대응되는 동작코드를 매핑하는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
  5. 제1항에 있어서,
    상기 감성기초 수집부는 상기 스마트 이동단말의 입력을 통해 사용자의 감성상태를 설정하거나, 촬영된 사용자의 얼굴 이미지, 마이크로 녹음된 사용자의 목소리, 생체 센서에 의한 생체 신호 데이터, 상기 스마트 이동단말에 입력되는 텍스트 중 어느 하나로부터 감성상태를 검출할 수 있는 기초 데이터를 수집하는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
  6. 제1항에 있어서,
    상기 감성상태 판단부는 수집한 기초 데이터로부터 사용자의 감성상태를 판단하되, 판단되는 감성상태는 각 감성 상태에 대한 감성의 정도를 수치로 표시하거나, 수치로 표시된 감성 상태 중에서 대표적인 하나의 감성만을 선정하는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
  7. 제1항에 있어서,
    상기 감성상태는 기쁨, 분노, 슬픔, 즐거움, 사랑, 미움, 욕심을 포함하는 것을 특징으로 하는 스마트 완구 기반 감성 커뮤니케이션 시스템.
KR1020150105815A 2015-07-27 2015-07-27 스마트 완구 기반 감성 커뮤니케이션 시스템 KR20170013015A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150105815A KR20170013015A (ko) 2015-07-27 2015-07-27 스마트 완구 기반 감성 커뮤니케이션 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150105815A KR20170013015A (ko) 2015-07-27 2015-07-27 스마트 완구 기반 감성 커뮤니케이션 시스템

Publications (1)

Publication Number Publication Date
KR20170013015A true KR20170013015A (ko) 2017-02-06

Family

ID=58108954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150105815A KR20170013015A (ko) 2015-07-27 2015-07-27 스마트 완구 기반 감성 커뮤니케이션 시스템

Country Status (1)

Country Link
KR (1) KR20170013015A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200098981A (ko) * 2019-02-13 2020-08-21 박주연 유아용 완구 및 유아용 놀이 시스템
KR102187210B1 (ko) * 2020-06-22 2020-12-04 주식회사 플랙스 영상 일기를 이용한 심리 상태 분석 장치 및 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032085A (ko) 2000-10-25 2002-05-03 이건갑 음성 인식 기능 및 인공 지능을 갖는 완구
KR20030060375A (ko) 2002-01-08 2003-07-16 김현 감성 응답형 인형 완구
KR20070019441A (ko) 2005-08-12 2007-02-15 (주)테크노전자 인터넷 기반의 감성로봇
KR20100038246A (ko) 2008-09-26 2010-04-14 심재산 휴대폰을 이용한 상대방 기분 사전파악 제공시스템
KR20100068515A (ko) 2008-12-15 2010-06-24 정기녕 표정이 바뀌는 인형
KR20110104220A (ko) 2010-03-16 2011-09-22 이민우 모바일 단말을 이용한 감정 전달 시스템
KR20120044911A (ko) 2010-10-28 2012-05-08 (주)엠씨에스로직 감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법
KR20130139137A (ko) 2012-06-12 2013-12-20 윤재민 센서입력에 반응하는 대화인형 및 그 운용 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032085A (ko) 2000-10-25 2002-05-03 이건갑 음성 인식 기능 및 인공 지능을 갖는 완구
KR20030060375A (ko) 2002-01-08 2003-07-16 김현 감성 응답형 인형 완구
KR20070019441A (ko) 2005-08-12 2007-02-15 (주)테크노전자 인터넷 기반의 감성로봇
KR20100038246A (ko) 2008-09-26 2010-04-14 심재산 휴대폰을 이용한 상대방 기분 사전파악 제공시스템
KR20100068515A (ko) 2008-12-15 2010-06-24 정기녕 표정이 바뀌는 인형
KR20110104220A (ko) 2010-03-16 2011-09-22 이민우 모바일 단말을 이용한 감정 전달 시스템
KR20120044911A (ko) 2010-10-28 2012-05-08 (주)엠씨에스로직 감성연출 서비스 제공시스템 및 그 제공방법, 및 감성연출이 가능한 장치 및 그 감성연출 방법
KR20130139137A (ko) 2012-06-12 2013-12-20 윤재민 센서입력에 반응하는 대화인형 및 그 운용 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200098981A (ko) * 2019-02-13 2020-08-21 박주연 유아용 완구 및 유아용 놀이 시스템
KR102187210B1 (ko) * 2020-06-22 2020-12-04 주식회사 플랙스 영상 일기를 이용한 심리 상태 분석 장치 및 방법
WO2021261887A1 (ko) * 2020-06-22 2021-12-30 주식회사 플랙스 영상 일기를 이용한 심리 상태 분석 장치 및 방법

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
CN104184760B (zh) 通讯过程中的信息交互方法、客户端及服务器
CN103877727B (zh) 一种由手机控制并通过手机进行交互的电子宠物
US20210146255A1 (en) Emoji-based communications derived from facial features during game play
CN112199002B (zh) 基于虚拟角色的交互方法及装置、存储介质、计算机设备
CN113014471B (zh) 会话处理方法,装置、终端和存储介质
US20080096533A1 (en) Virtual Assistant With Real-Time Emotions
CN103546503B (zh) 基于语音的云社交系统、方法及云分析服务器
CN105554311A (zh) 用于自动更新化身状态以指示用户状态的方法和系统
JP2014006881A (ja) アプリケーション装置、アプリケーション装置の制御方法、及びプログラム
CN103797761B (zh) 通信方法、客户端和终端
CN107428006A (zh) 机器人、机器人控制方法以及机器人系统
CN111858861B (zh) 一种基于绘本的问答交互方法及电子设备
CN107818787B (zh) 一种语音信息的处理方法、终端及计算机可读存储介质
CN110399474B (zh) 一种智能对话方法、装置、设备及存储介质
KR101775490B1 (ko) 케릭터와의 상호작용을 이용하여 건강정보를 입력받고 설명하는 대화형 사용자인터페이스 방법
US20190149490A1 (en) Information processing apparatus and non-transitory computer readable medium
US20190248001A1 (en) Conversation output system, conversation output method, and non-transitory recording medium
KR20170013015A (ko) 스마트 완구 기반 감성 커뮤니케이션 시스템
JP6781545B2 (ja) ロボット
CN117193541B (zh) 虚拟形象交互方法、装置、终端和存储介质
CN110597973A (zh) 一种人机对话的方法、装置、终端设备和可读存储介质
KR102334998B1 (ko) 무선 통신 기반의 감성표현장치
JP2018186326A (ja) ロボット装置及びプログラム
CN112138410B (zh) 一种虚拟对象的交互方法以及相关装置

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
AMND Amendment