KR20150072718A - 스마트 기기의 사용 패턴을 이용한 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법 - Google Patents
스마트 기기의 사용 패턴을 이용한 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법 Download PDFInfo
- Publication number
- KR20150072718A KR20150072718A KR1020130160192A KR20130160192A KR20150072718A KR 20150072718 A KR20150072718 A KR 20150072718A KR 1020130160192 A KR1020130160192 A KR 1020130160192A KR 20130160192 A KR20130160192 A KR 20130160192A KR 20150072718 A KR20150072718 A KR 20150072718A
- Authority
- KR
- South Korea
- Prior art keywords
- personalization
- information
- user
- robot
- smart device
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
본 발명은 스마트 기기의 사용 패턴에 의해 분석된 사용자의 개인화 성향에 기반하여 사용자를 응대하는 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법을 개시한다. 본 발명에 따르는 개인화 로봇은, 스마트 기기와 개인화 성향을 포함하는 정보를 송수신하는 정보 통신부; 수신된 개인화 성향 정보에 대응되는 응대 데이터를 매핑 처리하는 응대 데이터 매핑부; 매핑된 응대 데이터를 사용자별 개인화 성향과 대응시켜 저장하고, 식별된 사용자를 상대로 저장된 응대 데이터의 출력을 제어하는 제어 처리부; 및 사용자의 성향별 응대 데이터를 출력하는 응대 데이터 출력부를 포함한다. 본 발명에 따르면, 로봇은 사용자의 개인화 성향이 이식되어 사용자에게 친화력 있게 응대하고, 사용자는 로봇을 통해 자신의 개인화 성향에 맞춤화된 응대를 제공받는다.
Description
본 발명은 로봇의 개인화 기술에 관한 것으로, 보다 상세하게는 스마트 기기의 사용 패턴에 의해 분석된 사용자의 개인 성향 정보를 이용하여 사용자를 응대하는 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법에 관한 것이다.
로봇 기술의 발달로 일반 가정 및 기타 산업 분야에서 사용할 수 있는 다양한 목적의 로봇이 출시되고 있다. 가정용 로봇은 이동 및 행동이 가능하고 스피커 및 화면 출력을 통해 사용자에게 의사 표시를 하는 것처럼 인터페이스한다.
여기서, 가정용 로봇의 경우, 사용자가 제어하여 데이터를 처리하는 것도 중요하지만 사용자와 로봇 간의 상호 작용성(HRI, Human Robot Interaction)이 중요하다. 로봇이 단순히 전자적 처리 장치가 아닌 마치 감성을 지닌 객체로서 사용자 친화적인 인터페이스를 제공할 경우 사용자는 로봇과 친근감을 느끼고 보다 빈번하게 로봇을 이용하여 생활의 편의를 제공받을 수 있게 된다.
인간과 대면하는 현재의 로봇은 주류를 이루던 산업용 로봇과는 달리 소프트컴퓨팅, 인간친화 인터페이스, 상호 작용 기술, 음성 인식, 물체 인식, 사용자 의도 파악 등 갖가지 최첨단 기술들이 요구되는 퍼스널 로봇, 복지 및 서비스 로봇 등이 현재 각광을 받고 있다.
또한, 인간과 로봇의 자연스러운 상호작용을 위해 사용자에 의한 입력과 상태 변화를 감지하기 위한 센서 장치의 기능 개선과 함께 이러한 센서를 이용하여 사용자의 의도를 파악하기 위한 기술 개발이 로봇에 시도되고 있다.
인간 친화적인 로봇을 개발하기 위해, 개발자들은 사용자의 얼굴, 음성 등을 로봇의 센서로 인식하여 사용자의 상황, 감정, 의도 등을 파악하여 로봇에 행동으로 반영하는 연구를 진행하고 있다. 하지만, 막대한 투자비와 연구 기간이 소요되는데 반하여 투자에 상응하는 결과물이 연구 성과의 만족 수준에는 미치지 못하는 실정이다.
실제로, 로봇의 사용자 인터페이스에 있어서 사용자가 로봇으로 명령을 내릴 수 있기에 사용자의 편의성은 증대되지만, 로봇이 사용자에 대해 유대감을 제공하지는 못한다. 로봇과 사용자 간에 있어서 로봇의 감성적 인터페이스가 배제되는 경우 단순히 이동 기능과 대화 기능을 지닌 컴퓨터 장치에 불과하다. 따라서, 가정용 로봇과 같이 사용자들이 사용하게 될 로봇은 사용자의 개인 성향에 부응하여 행동으로 표출할 수 있는 개인 친화적인 인터페이스의 제공이 요구된다.
본 발명은 상기와 같은 종래 기술의 인식 하에 창출된 것으로서, 스마트 단말의 사용 패턴을 사용자의 개인화 성향으로 분석하고, 분석된 개인화 성향을 로봇의 행동으로 반영하여 사용자에게 응대하는 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법을 제공하는데 있다.
본 발명의 다른 목적은, 개인화 성향이 반영된 로봇이 사용자에게 응대한 정보를 수집하고, 수집된 정보를 사용자의 개인화 성향에 피드백하여 개인화 성향을 완성 및 변화하여 로봇을 성장시키는데 있다.
상기 기술적 과제를 달성하기 위한 본 발명에 따른 스마트 기기의 사용 패턴을 이용한 개인화 로봇은, 스마트 기기에서 분석된 개인화 성향을 이용하여 사용자별 개인화 서비스를 제공하는 개인화 로봇에 있어서, 접속된 스마트 기기와 상기 개인화 성향을 포함하는 정보를 송수신하는 정보 통신부; 수신된 개인화 성향 정보에 기반하여 대응되는 응대 데이터로 매핑 처리하는 응대 데이터 매핑부; 상기 개인화 성향 정보의 송수신, 상기 응대 데이터의 매핑 및 데이터의 입출력을 제어하고, 매핑된 응대 데이터를 사용자별 개인화 성향과 대응시켜 저장하고, 식별된 사용자를 상대로 저장된 응대 데이터의 출력을 제어하는 제어 처리부; 및 상기 제어에 의해 사용자의 성향별 응대 데이터를 출력하는 응대 데이터 출력부를 포함한다.
본 발명에 있어서, 상기 개인화 로봇은, 상기 스마트 기기의 근거리 위치, 거치 접속과 유선 또는 무선 접속을 인식하는 스마트 기기 인식부를 더 포함한다.
본 발명의 일 측면에 따르면, 상기 정보 통신부는, 스마트 기기로부터 통화 정보, 미디어 실행 정보 및 어플리케이션 실행 정보를 포함하는 사용자의 사용 패턴이 분석되어 사용자의 성향에 대한 유형이 정의된 상기 개인화 성향의 정보를 수신한다.
여기서, 상기 정보 통신부는, 수다형, 학습형 및 놀이형의 유형을 포함하는 개인화 성향의 프로파일(profile) 정보를 개인화 성향 정보로서 수신한다.
나아가, 상기 데이터 매핑부는, 상기 개인화 성향 정보에 따라 영상, 음성, 이동 및 동작 중에서 적어도 하나를 포함하는 응대 데이터로 매핑한다.
바람직하게, 상기 응대 데이터 출력부는, 영상 출력 장치, 음성 출력 장치 및 모터 장치를 이용하여 상기 응대 데이터를 출력한다.
본 발명의 다른 측면에 따르면, 상기 개인화 로봇은, 사용자 성향에 기반된 로봇이 사용자로부터 조작 명령을 입력받는 명령 입력부; 및 사용자에 의해 입력된 입력 정보를 수집하여 스마트 기기로 피드백 전달할 정보를 생성하는 피드백 정보 생성부를 더 포함한다.
여기서, 상기 제어 처리부는 생성된 피드백 정보를 정보 통신부를 통해 스마트 기기로 전송하고, 상기 피드백 정보는 스마트 기기에서 사용자의 개인화 성향 정보를 완성시키는데 참조된다.
또한, 사용자별 개인화 서비스를 제공하는 로봇으로 개인화 성향을 분석하여 제공하는 스마트 기기에 있어서, 사용자에 의해 스마트 기기가 사용된 사용 패턴을 분석하는 사용 패턴 분석부; 상기 사용 패턴에 기반하여 사용자의 개인화 성향을 분석하는 개인화 성향 분석부; 및 유선, 무선 또는 거치식 접속된 상기 로봇과 상기 개인화 성향을 포함하는 정보를 송수신하는 기기 통신부를 포함한다.
여기서, 상기 스마트 기기는, 로봇에 대해 근거리 위치와 거치 접속 및 유선 또는 무선 접속을 인식하는 로봇 인식부를 더 포함한다.
나아가, 상기 스마트 기기는, 로봇으로부터 수신된 피드백 정보를 분석하는 피드백 정보 분석부를 더 포함하고, 상기 개인화 성향 분석부는 분석된 피드백 정보에 기반하여 상기 개인화 성향 정보를 보완하고, 보완된 개인화 성향 정보를 기기 통신부를 통해 로봇으로 전송한다.
상기 기술적 과제를 달성하기 위한 본 발명에 따른 스마트 기기의 사용 패턴을 이용한 로봇의 개인화 방법은, 로봇이 스마트 기기에서 분석된 개인화 성향을 이용하여 사용자별 개인화 서비스를 제공하는 개인화 방법에 있어서, (a)접속된 스마트 기기와 상기 개인화 성향을 포함하는 정보를 송수신하는 정보 통신 단계; (b)수신된 개인화 성향 정보에 기반하여 대응되는 응대 데이터로 매핑 처리하는 응대 데이터 변환 단계; (c)상기 개인화 성향 정보의 송수신, 상기 응대 데이터의 매핑 및 데이터의 입출력을 제어하고, 매핑된 응대 데이터를 사용자별 개인화 성향과 대응시켜 저장하고, 식별된 사용자를 상대로 저장된 응대 데이터의 출력을 제어하는 제어 처리 단계; 및 (d)상기 제어에 의해 사용자의 성향별 응대 데이터를 출력하는 응대 데이터 출력 단계를 포함한다.
본 발명에 따르면, 로봇은 사용자별 개인화 성향을 학습하면서 각 사용자의 개인화 성향으로 친화력있게 응대함으로써, 사용자는 로봇과 교감할 수 있고 자신의 분신이라는 유대감을 가질 수 있다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술한 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되지 않아야 한다.
도 1은 본 발명의 일 실시예에 따른 스마트 기기와 개인화 로봇의 개략적 시스템 구성도이다.
도 2는 도 1의 스마트 기기와 개인화 로봇의 개략적 내부 구조도이다.
도 3은 본 발명의 일 실시예에 따른 스마트 기기와 개인화 로봇의 접속 방식의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 사용 패턴, 개인화 성향 및 응대 데이터의 데이터 예시도이다.
도 5는 본 발명의 일 실시예에 따른 피드백 정보 기반의 사용자 성향이 육성되는 예시도이다.
도 6은 본 발명의 일 실시예에 따른 로봇의 개인화 방법의 개략적 순서도이다.
도 1은 본 발명의 일 실시예에 따른 스마트 기기와 개인화 로봇의 개략적 시스템 구성도이다.
도 2는 도 1의 스마트 기기와 개인화 로봇의 개략적 내부 구조도이다.
도 3은 본 발명의 일 실시예에 따른 스마트 기기와 개인화 로봇의 접속 방식의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 사용 패턴, 개인화 성향 및 응대 데이터의 데이터 예시도이다.
도 5는 본 발명의 일 실시예에 따른 피드백 정보 기반의 사용자 성향이 육성되는 예시도이다.
도 6은 본 발명의 일 실시예에 따른 로봇의 개인화 방법의 개략적 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상에 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
도 1은 본 발명의 일 실시예에 따른 스마트 기기(2)와 개인화 로봇(3)의 개략적 시스템(1) 구성도이다.
상기 스마트 기기(2)는 본 발명에 따른 개인화 어플리케이션을 설치하여 실행할 수 있기만 하면 특별한 제한을 두지 않는다. 예를 들어, 스마트 폰, 스마트 패드, IP TV 등은 개인화 어플리케이션을 설치 및 실행할 수 있어 스마트 기기(2)에 해당된다.
여기서, 상기 개인화 어플리케이션은 스마트 기기(2)를 조작하는 사용자의 명령, 컨텐츠(예 : 미디어, 어플리케이션 등)의 실행 정보 등을 사용 패턴의 정보로 수집하여 사용자의 성향을 분석한다. 그리고 분석된 사용자 성향의 정보가 스마트 기기(2)로 전송된다.
상기 로봇(3)은 스마트 기기(2)로부터 사용자의 성향 정보를 수신하고, 수신된 사용자의 개인화 성향에 맞게 영상, 음성 및 동작(예 : 이동, 모션, 제스쳐 등)을 출력하여 사용자에게 응대한다. 상기 개인화 성향은 사용자의 성격, 사고, 태도, 선호/취향, 감성 등이 반영된 정보에 해당된다. 그러면, 사용자는 자신의 개인화된 성향에 맞게 응대하는 로봇(3)에게 명령을 내리거나 안내를 받는 과정에서 로봇(3)을 자신의 분신으로써 여기고 강화된 유대감을 느낄 수 있다.
여기서, 로봇(3)은 특정 용도나 기능으로 제한되지 않는다. 로봇(3)은 이동 기능, 센서 기능, 지각 기능, 보안 기능, 교육 기능, 놀이 기능, 원격 제어 기능 등 다양한 기능의 입력, 처리 및 출력이 정의되는 휴먼화된 머신으로서 사용자에게 기능별 서비스를 제공한다.
도 2는 도 1의 스마트 기기(2)와 개인화 로봇(3)의 개략적 내부 구조도이다. 도 3 내지 도 5는 스마트 기기(2)와 개인화 로봇(3)의 정보 통신의 예시도이다. 이하에서는 도 2 및 도 5를 참조하여 설명한다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 스마트 기기(2)는 사용자의 입력 정보를 수집하여 사용 패턴을 분석하는 사용 패턴 분석부(21), 분석된 사용 패턴에 대해 사용자의 개인화 성향을 분석하는 개인화 성향 분석부(22), 로봇(3)으로 분석된 개인화 성향의 정보를 전송하는 기기 통신부(24)로 구성되는 개인화 어플리케이션을 실행한다.
상기 사용 패턴 분석부(21)는 사용자가 스마트 기기(2)를 조작하는 과정에서 발생되는 각종 입력 정보를 수집한다. 입력 정보가 수집되면, 사용자가 언제, 어디서, 무슨 컨텐츠를 실행했는지 등의 사용 패턴의 정보가 분석될 수 있다. 예를 들면, 사용자가 어느 사이트를 주로 방문하고, 어느 미디어를 실행하고, 어느 어플리케이션을 주로 실행하는지 등의 선호 패턴이 분석된다.
상기 개인화 성향 분석부(22)는 분석된 사용자의 사용 패턴 정보를 기반으로 사용자의 개인화 성향을 분석하여 저장한다. 시간, 위치, 컨텐츠 등의 항목별로 수집된 사용 패턴은 대응되는 사용자의 개인화 성향으로 분석된다. 여기서, 분석 처리는 누적적으로 계속 진행되는 처리이다. 따라서, 개인화 성향의 정보는 육성되고 진화되는 정보에 해당된다. 분석된 개인화 성향은 각각의 카테고리별 유형으로 정의된다. 예를 들면, 수다형, 학습형 및 놀이형 등의 유형별 개인화 성향이 있다. 만약, 사용자가 통화, 메시지 등의 어플리케이션을 주로 사용하는 경우, 수다형의 개인화 성향을 갖는 것으로 분석될 수 있다. 또한, 사용자가 교육 컨텐츠 및 어플리케이션을 주로 사용하는 경우, 사용자는 학습형의 개인화 성향으로 분석될 수 있다. 사용 패턴 정보와
기기 통신부(24)는 로봇(3)과 접속된 이후에 분석된 사용자의 개인화 성향 의 프로파일 정보를 로봇(3)으로 전송한다.
다음으로, 본 발명의 일 실시예에 따른 로봇(3)은 스마트 기기(2)와 정보를 송수신하는 정보 통신부(32), 수신된 상기 개인화 성향 정보에 기반되는 응대 데이터로 매핑 처리하는 응대 데이터 매핑부(33), 매핑된 응대 데이터를 이용하여 제어 처리하는 제어 처리부(34) 및 제어 처리에 의해 응대 데이터를 사용자를 상대로 출력하는 응대 데이터 출력부(35)를 포함하여 구성된다.
상기 정보 통신부(32)는 접속된 스마트 기기(2)와 데이터를 송신 및 수신하는 과정에서 스마트 기기(2)로부터 사용자 식별 정보(예 : 전화번호, 기기 ID 등)와 함께 분석된 개인화 성향 정보의 프로파일을 수신한다.
상기 응대 데이터 매핑부(33)는 수신된 개인화 성향 정보에 기반하여 대응되는 응대 데이터로 매핑 처리하고, 매핑된 사용자의 응대 데이터를 설정한다.
여기서, 응대 데이터 매핑부(33)는 수신된 사용자의 성향 유형에 따라 영상, 음성, 이동 및 동작 등의 응대 데이터로 매핑한다. 따라서, 매핑 처리에 의해 로봇의 화면에 표시되는 캐릭터의 디자인, 음성의 목소리 성별 및 빠르기, 로봇의 동작, 이동 속도 등은 사용자의 성향에 맞추어 커스토마이징된다.
상기 제어 처리부(34)는 상기 개인화 성향 정보의 송수신, 상기 응대 데이터의 매핑 및 데이터의 입출력을 제어한다. 그리고 제어 처리부(34)는 매핑된 응대 데이터를 사용자별 응대 데이터로 설정하고, 응대 데이터가 메모리(35)에 저장된다. 이후 제어 처리부(34)에 의해 로봇(3)에 명령을 내리거나 주위에 있는 사용자를 식별하고, 식별된 사용자의 응대 데이터를 메모리(35)로부터 조회하여 사용자에게 응대하는 서비스를 제어 처리한다.
상기 출력부(34)는 제어 처리부(34)의 제어 처리에 의해 설정된 사용자의 응대 데이터를 출력한다. 그러면, 출력부(34)에 대응하는 영상 출력 장치, 음성 출력 장치, 모터 장치는 영상, 음성, 모션 등의 응대 데이터를 사용자에게 출력한다.
바람직하게, 스마트 기기(2)의 로봇 인식부(23)와 로봇(3)의 스마트 기기 인식부(31)는 상호간에 근거리 무선 통신(예 : 블루투스, 지그비 등)을 통해 서로를 인식한다.
도 3을 참조하면, 소정의 통신 거리 내에서 무선 접속을 인식하거나 유선 또는 거치 형식의 접속을 인식한다. 이외에도 다양한 통신 접속 방식(예 : usb, nfc 등)이 있을 수 있음은 물론이다. 거치 접속의 경우, 로봇(3)은 스마트 기기(2)의 거치대를 구비할 수 있다.
스마트 기기(2)와 로봇(3)이 상호간에 접속이 완료되면, 스마트 기기(2)로부터 사용자의 개인화 성향이 포함된 프로파일 데이터가 로봇(3)으로 전송된다.
도 4 및 도 5를 참조하면, 스마트 기기(2)에서 수집된 사용 패턴 정보(501)는 패턴 분석 처리에 의해 개인화 성향 정보(502)로 분석된다. 분석된 스마트 기기(2)의 개인화 성향 정보(502)는 로봇(3)으로 전달된 후 응대 데이터(503)로 매핑된다.
나아가, 로봇(3)이 출력부(36)를 통해 사용자에게 개인화 성향 기반의 응대서비스를 제공하는 과정에서, 사용자는 명령 입력부(37)를 통해 로봇(3)으로 다양한 조작 명령(504)을 내린다. 여기서, 사용자는 상기 조작 명령(504)을 통해 로봇(3)을 자신의 디테일한 성향에 맞게 환경 설정할 수 있다. 또한, 사용자는 로봇의 각종 기능을 자신의 편의에 맞게 커스토마이징할 수 있다. 그러면, 로봇(3)의 제어 처리부(34)는 사용자의 조작 명령(504)을 입력 정보로서 피드백 정보 생성부(38)로 전달한다.
상기 피드백 정보 생성부(38)는 사용자에 의해 입력된 상기 입력 정보를 수집하여 스마트 기기(2)로 전달할 피드백 정보(505)를 생성한다. 여기서, 생성된 피드백 정보(505)는 사용자 성향을 기반으로 이미 맞춤화된 로봇(2)을 상대로 사용자가 내린 명령, 사용자가 조작한 설정 정보 등에 해당하여 보다 개인화되고 친화된 사용자 성향 정보에 해당된다. 상기 피드백 정보(505)는 로봇(3)이 스마트 기기(2)로부터 사용자의 개인화 성향 정보(502)를 수신하는 과정에서 역으로 스마트 기기(3)로 전송된다.
그러면, 스마트 기기(2)의 기기 통신부(24)를 통해 수신된 피드백 정보(505)는 피드백 정보 분석부(25)로 전달되어 사용자의 성향을 분석하는데 있어 변수 정보로서 참조된다. 따라서, 개인화 성향 분석부(22)가 사용자의 사용 패턴을 기반으로 개인화 성향 정보(502)를 분석한 이후로 로봇(3)에서 발생된 조작 명령(504)에 기반된 피드백 정보(505)를 이용하여 개인화 성향 정보(502)를 변화 및 완성시키는 싸이클 처리를 반복하게 된다. 상기 싸이클 처리는 스마트 기기(2)에서 지속적으로 수집되는 사용자의 사용 패턴 정보(501)와 피드백 정보(505)에 의해 개인화 성향 정보(502)가 육성되고, 사용자의 성향에 최적화되어 지능적으로 진화되는 것에 해당된다.
도 6은 본 발명의 일 실시예에 따른 로봇(3)의 개인화 방법의 개략적 순서도이다.
스마트 기기(2)는 개인화 어플리케이션의 실행에 의해 개인화 성향이 분석되어 로봇(3)으로 전달되고, 로봇(3)으로부터 피드백 정보를 수신하여 개인화 성향을 육성한다.
먼저, 스마트 기기(2)는 사용자의 조작 과정에서 발생된 각종 입력 데이터를 사용 패턴 정보로 분석한다(S21). 그리고 분석된 패턴 정보를 기반으로 대응되는 사용자의 개인화 성향을 분석하여 생성한다(S22).
여기서, 상기의 단계(S21) 및 단계(22)는 로봇(3)에 이식할 사용자의 성향 정보를 수집하는 단계이다. 예를 들면, 스마트 기기는 통화량, 멀티미디어 사용량, 게임 사용량, 로봇 사용량 등의 패턴 정보를 분석하여 수다형, 학습형, 놀이형 등의 유형별로 개인화된 성향의 사용자 프로파일을 생성한다.
이후, 스마트 기기(2)는 로봇(3)에 거치될 수 있다(S23). 이 과정에서 로봇(3)은 인지 단계(S31)가 처리됨에 따라서, 소정의 통신 가능 거리 이내의 스마트 기기(2)를 인식하여 스마트 기기(2)의 거치 안내를 음성 및 영상으로 출력하고, 거치되는 스마트 기기(2)의 접속을 인식한다.
여기서, 스마트 기기(2)와 로봇(3)의 접속은 반드시 거치 접속에 한정되지 않으며, 유, 무선 접속, usb 접속 등 다양할 수 있다.
스마트 기기(2)와 로봇(3)의 통신 접속이 완료되면, 스마트 기기(2)는 분석된 개인화 성향 정보를 로봇(3)으로 전송한다(S24). 이후, 로봇(3)은 상기 개인화 성향 정보를 수신하고(S32), 수신된 개인화 성향 정보에 대응하여 맞춤화된 영상, 음성, 동작 등의 응답 데이터를 매핑하고, 개인화 성향별로 매핑된 응답 데이터를 출력하여 사용자와 인터페이스한다. 사용자별로 개인화 성향이 이식된 로봇(3)은 식별된 사용자에게 친화력있게 응대하며, 사용자는 로봇(2)을 상대로 동질감을 느끼며 입력 장치로 각종 명령을 입력하면서 교감한다(S36). 이후, 로봇(2)은 사용자의 입력 정보를 수집하여 피드백 정보를 생성한다. 그리고 스마트 기기(2)와 로봇(3)이 접속되면, 로봇(3)이 상기 개인화 성향 정보를 수신하고 난 후 생성된 피드백 정보를 접속된 스마트 기기(2)로 전송한다(S37).
스마트 기기(2)가 로봇(3)으로부터 피드백 정보를 수신하면, 피드백 정보를 사용자 성향에 기반하여 분석한다(S25). 스마트 기기(2)는 분석된 피드백 정보의 성향을 이용하여 기 분석된 사용자의 개인화 성향을 보완하는 변수 정보로서 이용한다(S26)
따라서, 스마트 기기(2)는 사용자의 사용 패턴을 분석하여 개인화 성향 정보를 생성한 이후로 로봇(3)에서 발생된 사용자의 조작 명령(504)에 대응하는 피드백 정보(505)를 분석하여 개인화 성향 정보(502)를 성장시키는 싸이클 처리를 반복한다.
상술한 실시예에서, "~부"라는 용어는 개인화 로봇(3)의 하드웨어적 구분을 의미하는 용어로 사용된 것이 아니다. 따라서 복수의 구성부가 하나의 구성부로 통합될 수도 있고, 하나의 구성부가 복수의 구성부로 분할될 수도 있다. 또한, 구성부는 하드웨어의 구성부를 의미할 수도 있지만, 소프트웨어의 구성부를 의미할 수도 있다. 따라서 본 발명은 "~부"라는 용어에 의해 특별히 한정되지 않음을 이해하여야 할 것이다.
본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
1 : 시스템 2 : 스마트 기기
3 : 로봇
3 : 로봇
Claims (22)
- 스마트 기기에서 분석된 개인화 성향을 이용하여 사용자별 개인화 서비스를 제공하는 로봇에 있어서,
접속된 스마트 기기와 상기 개인화 성향을 포함하는 정보를 송수신하는 정보 통신부;
수신된 개인화 성향 정보에 기반하여 대응되는 응대 데이터로 매핑 처리하는 응대 데이터 매핑부;
상기 개인화 성향 정보의 송수신, 상기 응대 데이터의 매핑 및 데이터의 입출력을 제어하고, 매핑된 응대 데이터를 사용자별 개인화 성향과 대응시켜 저장하고, 식별된 사용자를 상대로 저장된 응대 데이터의 출력을 제어하는 제어 처리부; 및
상기 제어에 의해 사용자의 성향별 응대 데이터를 출력하는 응대 데이터 출력부
를 포함하는 것을 특징으로 하는 개인화 로봇. - 제 1항에 있어서,
상기 스마트 기기의 근거리 위치, 거치 접속과 유선 또는 무선 접속을 인식하는 스마트 기기 인식부를 더 포함하는 것을 특징으로 하는 개인화 로봇. - 제 1항에 있어서,
상기 정보 통신부는,
스마트 기기로부터 통화 정보, 미디어 실행 정보 및 어플리케이션 실행 정보를 포함하는 사용자의 사용 패턴이 분석되어 사용자의 성향에 대한 유형이 정의된 상기 개인화 성향의 정보를 수신하는 것을 특징으로 하는 개인화 로봇. - 제 3항에 있어서,
상기 정보 통신부는,
수다형, 학습형 및 놀이형의 유형을 포함하는 개인화 성향의 프로파일(profile) 정보를 개인화 성향 정보로서 수신하는 것을 특징으로 하는 개인화 로봇. - 제 1항에 있어서,
상기 데이터 매핑부는,
상기 개인화 성향 정보에 따라 영상, 음성, 이동 및 동작 중에서 적어도 하나를 포함하는 응대 데이터로 매핑하는 것을 특징으로 하는 개인화 로봇. - 제 1항에 있어서,
상기 응대 데이터 출력부는,
영상 출력 장치, 음성 출력 장치 및 모터 장치를 이용하여 상기 응대 데이터를 출력하는 것을 특징으로 하는 개인화 로봇. - 제 1항에 있어서,
사용자 성향에 기반된 로봇이 사용자로부터 조작 명령을 입력받는 명령 입력부; 및
사용자에 의해 입력된 입력 정보를 수집하여 스마트 기기로 피드백 전달할 정보를 생성하는 피드백 정보 생성부
를 더 포함하는 것을 특징으로 하는 개인화 로봇. - 제 7항에 있어서,
상기 제어 처리부는 생성된 피드백 정보를 정보 통신부를 통해 스마트 기기로 전송하고, 상기 피드백 정보는 스마트 기기에서 사용자의 개인화 성향 정보를 완성시키는데 참조되는 것을 특징으로 하는 개인화 로봇. - 사용자별 개인화 서비스를 제공하는 로봇으로 개인화 성향을 분석하여 제공하는 스마트 기기에 있어서,
사용자에 의해 스마트 기기가 사용된 사용 패턴을 분석하는 사용 패턴 분석부;
상기 사용 패턴에 기반하여 사용자의 개인화 성향을 분석하는 개인화 성향 분석부; 및
유선, 무선 또는 거치식 접속된 상기 로봇과 상기 개인화 성향을 포함하는 정보를 송수신하는 기기 통신부
를 포함하는 것을 특징으로 하는 스마트 기기. - 제 9항에 있어서,
로봇에 대해 근거리 위치와 거치 접속 및 유선 또는 무선 접속을 인식하는 로봇 인식부를 더 포함하는 것을 특징으로 하는 스마트 기기. - 제 9항에 있어서,
로봇으로부터 수신된 피드백 정보를 분석하는 피드백 정보 분석부를 더 포함하고,
상기 개인화 성향 분석부는 분석된 피드백 정보에 기반하여 상기 개인화 성향 정보를 보완하고, 보완된 개인화 성향 정보를 기기 통신부를 통해 로봇으로 전송하는 것을 특징으로 하는 스마트 기기. - 로봇이 스마트 기기에서 분석된 개인화 성향을 이용하여 사용자별 개인화 서비스를 제공하는 개인화 방법에 있어서,
(a)접속된 스마트 기기와 상기 개인화 성향을 포함하는 정보를 송수신하는 정보 통신 단계;
(b)수신된 개인화 성향 정보에 기반하여 대응되는 응대 데이터로 매핑 처리하는 응대 데이터 변환 단계;
(c)상기 개인화 성향 정보의 송수신, 상기 응대 데이터의 매핑 및 데이터의 입출력을 제어하고, 매핑된 응대 데이터를 사용자별 개인화 성향과 대응시켜 저장하고, 식별된 사용자를 상대로 저장된 응대 데이터의 출력을 제어하는 제어 처리 단계; 및
(d)상기 제어에 의해 사용자의 성향별 응대 데이터를 출력하는 응대 데이터 출력 단계
를 포함하는 것을 특징으로 하는 로봇의 개인화 방법. - 제 12항에 있어서,
상기 단계(a) 이전에,
상기 로봇이 상기 스마트 기기의 근거리 위치, 거치 접속과 유선 또는 무선 접속을 인식하는 스마트 기기 인식 단계를 더 실행하는 것을 특징으로 하는 로봇의 개인화 방법. - 제 12항에 있어서,
상기 단계(a)는,
상기 로봇이 스마트 기기로부터 통화 정보, 미디어 실행 정보 및 어플리케이션 실행 정보를 포함하는 사용자의 사용 패턴이 분석되어 사용자의 성향에 대한 유형이 정의된 상기 개인화 성향의 정보를 수신하는 단계인 것을 특징으로 하는 로봇의 개인화 방법. - 제 14항에 있어서,
상기 단계(a)는,
상기 로봇이 스마트 기기로부터 수다형, 학습형 및 놀이형의 유형을 포함하는 개인화 성향의 프로파일(profile) 정보를 개인화 성향 정보로서 수신하는 단계인 것을 특징으로 하는 로봇의 개인화 방법. - 제 12항에 있어서,
상기 단계(b)는,
상기 로봇이 상기 개인화 성향 정보에 따라 영상, 음성, 이동 및 동작 중에서 적어도 하나를 포함하는 응대 데이터로 매핑하는 단계인 것을 특징으로 하는 로봇의 개인화 방법. - 제 12항에 있어서,
상기 단계(d)는,
상기 로봇이 영상 출력 장치, 음성 출력 장치 및 모터 장치를 이용하여 상기 응대 데이터를 출력하는 단계인 것을 특징으로 하는 로봇의 개인화 방법. - 제 12항에 있어서,
상기 단계(d) 이후에,
사용자 성향에 기반된 로봇이 사용자로부터 조작 명령을 입력받는 명령 입력 단계; 및
사용자에 의해 입력된 입력 정보를 수집하여 스마트 기기로 피드백 전달할 정보를 생성하는 피드백 정보 생성 단계
를 더 포함하는 것을 특징으로 하는 로봇의 개인화 방법. - 제 18항에 있어서,
상기 로봇이 생성된 피드백 정보를 스마트 기기로 전송하고, 상기 피드백 정보는 스마트 기기에서 사용자의 개인화 성향 정보를 완성시키는데 참조되는 단계를 더 포함하는 것을 특징으로 하는 로봇의 개인화 방법. - 제 12항에 있어서,
상기 단계(a) 이전에,
사용자별 개인화 서비스를 제공하는 로봇으로 개인화 성향을 분석하여 제공하는 스마트 기기의 실행 단계로서,
사용자에 의해 스마트 기기가 사용된 사용 패턴을 분석하는 사용 패턴 분석 단계;
상기 사용 패턴에 기반하여 사용자의 개인화 성향을 분석하는 개인화 성향 분석 단계; 및
유선, 무선 또는 거치식 접속된 상기 로봇과 상기 개인화 성향을 포함하는 정보를 송수신하는 기기 통신 단계
를 더 포함하는 것을 특징으로 하는 로봇의 개인화 방법. - 제 20항에 있어서,
상기 기기 통신 단계 이전에,
상기 스마트 기기가 로봇에 대해 근거리 위치와 거치 접속 및 유선 또는 무선 접속을 인식하는 로봇 인식 단계를 더 포함하는 것을 특징으로 하는 로봇의 개인화 방법. - 제 20항에 있어서,
상기 기기 통신 단계 이후에,
상기 스마트 기기가 로봇으로부터 수신된 피드백 정보를 분석하는 피드백 정보 분석 단계를 더 포함하고,
상기 스마트 기기가 분석된 피드백 정보에 기반하여 상기 개인화 성향 정보를 보완하고, 보완된 개인화 성향 정보를 로봇으로 전송하는 것을 특징으로 하는 로봇의 개인화 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130160192A KR20150072718A (ko) | 2013-12-20 | 2013-12-20 | 스마트 기기의 사용 패턴을 이용한 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130160192A KR20150072718A (ko) | 2013-12-20 | 2013-12-20 | 스마트 기기의 사용 패턴을 이용한 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150072718A true KR20150072718A (ko) | 2015-06-30 |
Family
ID=53518607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130160192A KR20150072718A (ko) | 2013-12-20 | 2013-12-20 | 스마트 기기의 사용 패턴을 이용한 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150072718A (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109976167A (zh) * | 2017-12-27 | 2019-07-05 | 丰田自动车株式会社 | 输送系统、信息处理装置以及信息处理方法 |
KR102038016B1 (ko) * | 2017-04-25 | 2019-10-29 | 김현민 | 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법 |
-
2013
- 2013-12-20 KR KR1020130160192A patent/KR20150072718A/ko not_active Application Discontinuation
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102038016B1 (ko) * | 2017-04-25 | 2019-10-29 | 김현민 | 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법 |
KR20190123706A (ko) * | 2017-04-25 | 2019-11-01 | 김현민 | 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법 |
WO2020213799A1 (ko) * | 2017-04-25 | 2020-10-22 | 김현민 | 스마트 휴대 기기를 이용한 스마트 기기와 로봇의 개인 맞춤형 서비스 운용 시스템 및 방법 |
CN109976167A (zh) * | 2017-12-27 | 2019-07-05 | 丰田自动车株式会社 | 输送系统、信息处理装置以及信息处理方法 |
KR20190079579A (ko) * | 2017-12-27 | 2019-07-05 | 도요타 지도샤(주) | 수송 시스템, 복수의 이동체 중 적어도 어느 것을 이용하는 유저의 정보를 관리하도록 구성된 정보 처리 장치, 및 정보 처리 방법 |
US10845808B2 (en) | 2017-12-27 | 2020-11-24 | Toyota Jidosha Kabushiki Kaisha | Transport system, information processing device configured to manage information about user who uses at least any one of plurality of mobile units, and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170096774A (ko) | 전자기기의 사용자 행동기반 정황인식 작동모드 | |
CN105511608A (zh) | 基于智能机器人的交互方法及装置、智能机器人 | |
CN110400251A (zh) | 视频处理方法、装置、终端设备及存储介质 | |
CN105126355A (zh) | 儿童陪伴机器人与儿童陪伴系统 | |
CN201470124U (zh) | 语音和动作结合的多方式交互电子玩具 | |
WO2009006735A1 (en) | Gesture recognition system including keyboard and mouse emulation | |
JP2014039233A (ja) | テレビ装置およびそのバーチャルガイドの表示方法 | |
CN110399474B (zh) | 一种智能对话方法、装置、设备及存储介质 | |
CN101820399A (zh) | 形象表达情感信息的触觉通讯玩偶 | |
KR102175168B1 (ko) | 모듈형 인공지능 이동 로봇 제어 시스템 및 그 제어 방법 | |
US11756547B2 (en) | Method for providing screen in artificial intelligence virtual assistant service, and user terminal device and server for supporting same | |
KR102288658B1 (ko) | 로봇 및 그의 제어 방법 | |
JP2015013351A (ja) | ロボットを制御するためのプログラム | |
CN111515970B (zh) | 一种互动方法、拟态机器人和相关装置 | |
López-Cózar et al. | Multimodal dialogue for ambient intelligence and smart environments | |
KR20200045851A (ko) | 음성 인식 서비스를 제공하는 전자 장치 및 시스템 | |
KR20150072718A (ko) | 스마트 기기의 사용 패턴을 이용한 개인화 로봇, 스마트 기기 및 로봇의 개인화 방법 | |
CN101224343B (zh) | 类生物及其部件控制模块 | |
KR102063389B1 (ko) | 인공지능 기반의 캐릭터 표시 장치 및 그 표시 방법 | |
KR20110010865U (ko) | 이동통신기기의 음성처리기능과 무선통신기능을 이용한 대화형 음성작동 완구 | |
CN109828520A (zh) | 一种智能电动汽车hmi人机交互系统 | |
CN106557163A (zh) | 基于智能机器人视觉记忆的多模态交互方法、装置和系统 | |
Bose et al. | A hands free browser using EEG and voice Inputs | |
Carrino et al. | Gesture-based hybrid approach for HCI in ambient intelligent environmments | |
US20230031966A1 (en) | Electronic device and method of providing connection switching for wireless audio device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |