KR102679200B1 - 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법 - Google Patents

음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR102679200B1
KR102679200B1 KR1020220084837A KR20220084837A KR102679200B1 KR 102679200 B1 KR102679200 B1 KR 102679200B1 KR 1020220084837 A KR1020220084837 A KR 1020220084837A KR 20220084837 A KR20220084837 A KR 20220084837A KR 102679200 B1 KR102679200 B1 KR 102679200B1
Authority
KR
South Korea
Prior art keywords
voice
robot device
pet robot
behavior pattern
voice signal
Prior art date
Application number
KR1020220084837A
Other languages
English (en)
Other versions
KR20240008020A (ko
Inventor
최명렬
Original Assignee
한양대학교 에리카산학협력단
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020220084837A priority Critical patent/KR102679200B1/ko
Priority to PCT/KR2023/009818 priority patent/WO2024014824A1/ko
Publication of KR20240008020A publication Critical patent/KR20240008020A/ko
Application granted granted Critical
Publication of KR102679200B1 publication Critical patent/KR102679200B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/003Programme-controlled manipulators having parallel kinematics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법이 개시된다. 실시예에 따른 펫 로봇 장치는 사용자가 발화하는 음성 신호를 이용하여 신분이 식별 및 증명된 사용자에 대응하는 행동 패턴에 따라 제어될 수 있다.

Description

음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법{PET ROBOT DEVICE BASED ON IDENTIFICATION USING VOICE RECOGNITION AND OPERATION METHOD THEREOF}
아래의 설명은 펫 로봇 장치 및 그 동작 방법에 관한 것으로, 음성 인식을 이용하여 신분을 증명한 후 음성에 따른 행동을 수행하는 펫 로봇 장치에 대한 기술이다.
산업이 고도로 발달하고 생활이 윤택해지면서 정서함양 등의 목적으로 펫(Pet)을 사육하는 가구가 늘어나고 펫에 대한 관심이 고조되고 있다.
그러나 살아있는 생물인 펫을 사육하는 것은, 관리 및 통제 부주의로 인한 문제를 야기할 수 있으며, 수명이 짧아 펫의 죽음으로 인해 펫 상실 증후군(Pet loss syndrome)을 야기할 수 있다.
이에, 살아있는 생물인 펫의 외형과 행동을 모사한 펫 로봇 장치가 개발 및 제안되었다. 펫 로봇 장치에 대한 기술은 일본 공개특허 2009-012148호에 개시되어 있다.
이러한 펫 로봇 장치는 살아있는 생물인 펫과 달리 관리 및 통제가 손쉬운 이점과 수명이 반영구적인 이점을 갖고 있는 반면, 살아있는 생물인 펫과 달리 사육자들 각각의 명령을 구분하여 반응하지 못하는 단점을 갖는다.
따라서, 펫 로봇 장치가 갖는 단점을 극복하기 위한 기술이 제안될 필요가 있다.
아래의 실시예들은 사육자들 각각의 명령을 구분하여 반응하는 펫 로봇 장치 및 그 동작 방법을 제안한다.
다만, 본 발명이 해결하고자 하는 기술적 과제들은 상기 과제로 한정되는 것이 아니며, 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있다.
일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 펫 로봇 장치의 동작 방법은, 복수의 사용자들 각각의 음성 아이디 별로 행동 패턴들이 매핑되어 저장된 행동 패턴 데이터베이스를 유지하는 단계; 사용자가 발화하는 음성 신호를 수신하는 단계; 상기 음성 신호를 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 단계; 상기 음성 신호를 분석하여 상기 음성 신호에 대응하는 명령어를 인식하는 단계; 상기 행동 패턴 데이터베이스로부터 상기 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 상기 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택하는 단계; 및 상기 선택된 행동 패턴에 따라 상기 펫 로봇 장치의 동작을 제어하는 단계를 포함할 수 있다.
일 측면에 따르면, 상기 행동 패턴을 선택하는 단계는, 상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자에 대한 상기 펫 로봇 장치의 친밀도에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
다른 측면에 따르면, 상기 행동 패턴을 선택하는 단계는, 상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 건강 정보 및 연령 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 행동 패턴을 선택하는 단계는, 상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 주변 환경 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 행동 패턴을 선택하는 단계는, 상기 펫 로봇 장치의 컨디션 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 행동 패턴을 선택하는 단계는, 상기 사용자의 동작 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 명령어를 인식하는 단계는, 상기 음성 신호를 텍스트 변환 후 상기 변환된 텍스트에 대한 자연어 처리를 수행하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 음성 신호를 성문 인증하는 것과 상기 음성 신호를 텍스트 변환 후 상기 자연어 처리를 수행하는 것은, 동시에 일괄적으로 수행되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 행동 패턴 데이터베이스는, 상기 복수의 사용자들 각각의 음성 신호 및 상기 복수의 사용자들 각각의 음성 신호에 응답하는 상기 펫 로봇 장치의 동작들에 대한 상기 복수의 사용자들 각각의 보상 행위에 기초하여 업데이트되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 행동 패턴 데이터베이스는, 상기 펫 로봇 장치가 모사하는 펫의 행동 특성에 기초하여 사전에 구축되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 어느 하나의 음성 아이디를 선택하는 단계는, 상기 사용자를 포함하는 복수의 사용자들이 발화하는 음성 신호들이 동시에 수신되는 경우, 상기 복수의 음성 신호들을 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호들의 성문들과 매칭되는 성문들을 갖는 복수의 음성 아이디들을 선택하는 단계; 및 상기 선택된 복수의 음성 아이디들에 대한 우선 순위에 기초하여 상기 선택된 복수의 음성 아이디들 중 어느 하나의 음성 아이디를 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 선택된 복수의 음성 아이디들에 대한 우선 순위는, 상기 선택된 복수의 음성 아이디들에 대응하는 사용자들에 대한 상기 펫 로봇 장치의 친밀도, 상기 사용자들 각각의 건강 정보 및 연령 정보에 기초하여 결정되는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 어느 하나의 음성 아이디를 선택하는 단계는, 상기 사용자가 상기 음성 신호를 발화하는 것을 촬영한 영상에 더 기초하여 상기 어느 하나의 음성 아이디를 선택하는 단계를 포함하는 것을 특징으로 할 수 있다.
또 다른 측면에 따르면, 상기 제어하는 단계는, 상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 정보를 상기 펫 로봇 장치에 포함되는 디스플레이에 표시하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
일 실시예에 따르면, 펫 로봇 장치의 동작 방법을 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체에 있어서, 상기 펫 로봇 장치의 동작 방법은, 복수의 사용자들 각각의 음성 아이디 별로 행동 패턴들이 매핑되어 저장된 행동 패턴 데이터베이스를 유지하는 단계; 사용자가 발화하는 음성 신호를 수신하는 단계; 상기 음성 신호를 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 단계; 상기 음성 신호를 분석하여 상기 음성 신호에 대응하는 명령어를 인식하는 단계; 상기 행동 패턴 데이터베이스로부터 상기 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 상기 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택하는 단계; 및 상기 선택된 행동 패턴에 따라 상기 펫 로봇 장치의 동작을 제어하는 단계를 포함할 수 있다.
일 실시예에 따르면, 펫의 외형을 모사한 로봇 바디, 주변 상황 인지 모듈 및 적어도 하나의 프로세서를 포함하는 펫 로봇 장치에 있어서, 상기 적어도 하나의 프로세서는, 복수의 사용자들 각각의 음성 아이디 별로 행동 패턴들이 매핑되어 저장된 행동 패턴 데이터베이스를 유지하는 데이터베이스 유지부; 상기 주변 상황 인지 모듈을 이용하여 사용자가 발화하는 음성 신호를 수신하는 음성 신호 수신부; 상기 음성 신호를 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 음성 아이디 선택부; 상기 음성 신호를 분석하여 상기 음성 신호에 대응하는 명령어를 인식하는 명령어 인식부; 상기 행동 패턴 데이터베이스로부터 상기 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 상기 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택하는 행동 패턴 선택부; 및 상기 선택된 행동 패턴에 따라 상기 로봇 바디의 동작을 제어하는 동작 제어부를 포함할 수 있다.
아래의 실시예들은 사육자들 각각의 명령을 구분하여 반응하는 펫 로봇 장치 및 그 동작 방법을 제안할 수 있다.
다만, 본 발명의 효과는 상기 효과들로 한정되는 것이 아니며, 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위에서 다양하게 확장될 수 있다.
도 1은 일 실시예에 따른 펫 로봇 장치를 도시한 도면이다.
도 2는 일 실시예에 따른 펫 로봇 장치에 포함되는 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 3은 도 2에 도시된 프로세서가 수행할 수 있는 펫 로봇 장치의 동작 방법의 예를 도시한 플로우 차트이다.
도 4는 도 3에 도시된 펫 로봇 장치의 동작 방법에서 행동 패턴 데이터베이스를 설명하기 위한 도면이다.
도 5는 도 3에 도시된 펫 로봇 장치의 동작 방법에서 친밀도에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이다.
도 6은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자의 건강 정보 및 연령 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이다.
도 7은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자의 주변 환경 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이다.
도 8은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 펫 로봇 장치의 컨디션 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이다.
도 9는 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자의 동작 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이다.
도 10은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 복수의 사용자들이 발화하는 음성 신호들이 동시에 수신되는 경우 어느 하나의 음성 아이디를 선택하는 것을 설명하기 위한 도면이다.
도 11은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자를 촬영한 영상에 더 기초하여 어느 하나의 음성 아이디를 선택하는 것을 설명하기 위한 도면이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
또한, 본 명세서에서 사용되는 용어(Terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 예컨대, 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 또한, 본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 또한, 본 명세서에서 제1, 제2 등의 용어가 다양한 영역, 방향, 형상 등을 기술하기 위해서 사용되었지만, 이들 영역, 방향, 형상이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 소정 영역, 방향 또는 형상을 다른 영역, 방향 또는 형상과 구별시키기 위해서 사용되었을 뿐이다. 따라서, 어느 한 실시예에서 제1 부분으로 언급된 부분이 다른 실시예에서는 제2 부분으로 언급될 수도 있다.
또한, 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 제시된 각각의 실시예 범주에서 개별 구성요소의 위치, 배치, 또는 구성은 본 발명의 기술적 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다.
아래의 실시예들은 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법에 대한 기술이다.
본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 사용자가 발화하는 음성 신호를 기초로 사용자의 신분을 식별 및 증명하여 사용자에 대응하는 행동 패턴에 따라 펫 로봇 장치의 동작이 제어되는 것을 설명한다. 이에, 아래의 실시예들은 펫 로봇 장치가 사육자들 각각의 명령을 구분하여 반응하는 기술 효과를 야기할 수 있다.
이하 설명되는 펫 로봇 장치의 동작 방법은, 펫 로봇 장치에 포함되는 적어도 하나의 프로세서가 주체가 되어 수행될 수 있다. 적어도 하나의 프로세서에는 본 발명의 실시예들에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 적어도 하나의 프로세서는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 펫 로봇 장치의 동작 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 적어도 하나의 프로세서와 결합되어 펫 로봇 장치의 동작 방법을 적어도 하나의 프로세서에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. 여기서 설명한 컴퓨터 프로그램은 독립된 하나의 프로그램 패키지의 형태를 가질 수도 있고, 독립된 하나의 프로그램 패키지의 형태가 적어도 하나의 프로세서에 기 설치되어 운영체제나 다른 프로그램 패키지들과 연계되는 형태를 가질 수도 있다.
도 1은 일 실시예에 따른 펫 로봇 장치를 도시한 도면이고, 도 2는 일 실시예에 따른 펫 로봇 장치에 포함되는 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 1 내지 2를 참조하면, 실시예에 따른 펫 로봇 장치(100)는, 로봇 바디(110), 주변 상황 인지 모듈(120) 및 적어도 하나의 프로세서(130)를 포함할 수 있다.
로봇 바디(110)는 펫(Pet)의 외형을 모사한 구성부로서, 펫의 외형뿐만 아니라 펫의 동작을 모사하기 위한 구동부들을 포함할 수 있다. 일례로, 펫 로봇 장치(100)가 강아지를 모사한 로봇 기기인 경우, 로봇 바디(110)는 강아지의 앞다리, 뒷다리, 꼬리, 머리, 몸통을 모사한 구성부들과, 각 구성부들을 움직이기 위한 구동부들을 포함할 수 있다.
주변 상황 인지 모듈(120)은 로봇 바디(110)의 일 측에 구비된 채, 펫 로봇 장치(100)가 위치한 주변의 상황을 시각, 청각, 촉각 등을 기반으로 인지하는 센서들을 포함할 수 있다. 일례로, 주변 상황 인지 모듈(120)은 펫 로봇 장치(100)의 주변에서 발생되는 음성 신호를 수집하는 음성 인식 센서를 포함할 수 있다.
적어도 하나의 프로세서(130)는 로봇 바디(110)의 일 측에 구비된 채, 로봇 바디(110) 및 주변 상황 인지 모듈(120)의 동작을 제어하여 후술되는 펫 로봇 장치(100)의 동작 방법을 수행하는 주체로서, 기본적인 산술, 로직 및 입출력 연산을 수행하며 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 이러한 경우, 컴퓨터 프로그램의 명령은 메모리(미도시) 또는 통신 인터페이스(미도시)에 의해 적어도 하나의 프로세서(130)로 제공될 수 있다. 일례로, 적어도 하나의 프로세서(130)는 메모리와 같은 기록 장치에 기록된 컴퓨터 프로그램에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
이와 같은 적어도 하나의 프로세서(130)에는 사용자가 발화하는 음성 신호를 기초로 사용자의 신분을 식별 및 증명하여 사용자에 대응하는 행동 패턴에 따라 펫 로봇 장치의 동작을 제어하는 시스템이 구성될 수 있다. 해당 시스템은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 전용 어플리케이션의 인-앱(in-app) 형태로 구성되어 전용 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다.
이를 위해 적어도 하나의 프로세서(130)는 도 2에 도시된 바와 같이 펫 로봇 장치(100)의 동작 방법을 수행하기 위한 구성요소로 구현될 수 있다. 일례로, 적어도 하나의 프로세서(130)는 데이터베이스 유지부(210), 음성 신호 수신부(220), 음성 아이디 선택부(230), 명령어 인식부(240), 행동 패턴 선택부(250) 및 동작 제어부(260)를 포함할 수 있다.
실시예에 따라 적어도 하나의 프로세서(130)의 구성요소들은 선택적으로 적어도 하나의 프로세서(130)에 포함되거나 제외될 수도 있다. 예를 들어, 음성 신호 수신부(220) 및 동작 제어부(260)만이 적어도 하나의 프로세서(130)에 포함된 채, 데이터베이스 유지부(210), 음성 아이디 선택부(230), 명령어 인식부(240) 및 행동 패턴 선택부(250)는 적어도 하나의 프로세서(130)와 통신하는 별도의 서버(미도시)에 포함되는 프로세서(미도시)에 구성될 수 있다. 이러한 경우, 서버의 프로세서는 펫 로봇 장치(100)의 적어도 하나의 프로세서(130)와 함께 펫 로봇 장치(100)의 동작 방법을 수행하는 주체가 될 수 있다.
펫 로봇 장치(100)의 적어도 하나의 프로세서(130)는 서버의 프로세서와 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들 간의 근거리 무선 통신을 포함하는 네트워크를 통해 통신할 수 있다. 네트워크는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
또한, 실시예에 따라 적어도 하나의 프로세서(130)의 구성요소들은 적어도 하나의 프로세서(130)의 기능의 표현을 위해 분리 또는 병합될 수도 있다.
이러한 적어도 하나의 프로세서(130) 및 적어도 하나의 프로세서(130)의 구성요소들은 후술되는 펫 로봇 장치(100)의 동작 방법이 포함하는 단계들(S310 내지 S360)을 수행하도록 로봇 바디(110) 및 주변 상황 인지 모듈(120)을 제어할 수 있다. 예를 들어, 적어도 하나의 프로세서(130) 및 적어도 하나의 프로세서(130)의 구성요소들은 메모리(미도시)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
여기서, 적어도 하나의 프로세서(130)의 구성요소들은 프로그램 코드가 제공하는 명령에 따라 적어도 하나의 프로세서(130)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예컨대, 사용자가 발화하는 음성 신호를 수신하도록 로봇 바디(110) 및 주변 상황 인지 모듈(120)을 제어하는 적어도 하나의 프로세서(130)의 기능적 표현으로서 음성 신호 수신부(220)가 이용될 수 있다.
이상, 설명된 구조의 펫 로봇 장치(100)에는 메모리(미도시), 통신 인터페이스(미도시) 및 입출력 인터페이스(미도시)가 더 포함될 수 있다.
메모리는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서, ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(210)와는 구분되는 별도의 영구 저장 장치로 포함될 수도 있다. 또한, 메모리에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스를 통해 메모리에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리에 로딩될 수 있다.
통신 인터페이스는 네트워크를 통해 다른 장치 또는 별도의 서버와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 적어도 하나의 프로세서(130)가 메모리와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스의 제어에 따라 네트워크를 통해 다른 장치들 또는 별도의 서버로 전달될 수 있다. 역으로, 다른 장치 또는 별도의 서버로부터의 신호나 명령, 데이터, 파일 등이 네트워크를 거쳐 통신 인터페이스를 통해 적어도 하나의 프로세서(130)로 수신될 수 있다. 통신 인터페이스를 통해 수신된 신호나 명령, 데이터 등은 적어도 하나의 프로세서(130)나 메모리로 전달될 수 있고, 파일 등은 펫 로봇 장치(100)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스는 입출력 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치는 전술된 주변 상황 인지 모듈(120)을 포함하도록 구성될 수 있다.
또한, 다른 실시예들에서 펫 로봇 장치(100)는 설명된 것보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 펫 로봇 장치(100)는 통상의 컴퓨터 장치가 포함할 수 있는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.
도 3은 도 2에 도시된 프로세서가 수행할 수 있는 펫 로봇 장치의 동작 방법의 예를 도시한 플로우 차트이고, 도 4는 도 3에 도시된 펫 로봇 장치의 동작 방법에서 행동 패턴 데이터베이스를 설명하기 위한 도면이며, 도 5는 도 3에 도시된 펫 로봇 장치의 동작 방법에서 친밀도에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이고, 도 6은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자의 건강 정보 및 연령 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이며, 도 7은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자의 주변 환경 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이고, 도 8은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 펫 로봇 장치의 컨디션 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이며, 도 9는 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자의 동작 정보에 더 기초하여 행동 패턴을 선택하는 것을 설명하기 위한 도면이고, 도 10은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 복수의 사용자들이 발화하는 음성 신호들이 동시에 수신되는 경우 어느 하나의 음성 아이디를 선택하는 것을 설명하기 위한 도면이며, 도 11은 도 3에 도시된 펫 로봇 장치의 동작 방법에서 사용자를 촬영한 영상에 더 기초하여 어느 하나의 음성 아이디를 선택하는 것을 설명하기 위한 도면이다.
적어도 하나의 프로세서(130)는 펫 로봇 장치(100)의 제어와 관련된 명령이 로딩된 메모리로부터 필요한 명령을 읽어 들일 수 있다. 이 경우, 읽어 들인 명령은 적어도 하나의 프로세서(130)가 도 3에 도시된 단계들(S310 내지 S360)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.
이후 설명되는 단계들(S310 내지 S360)에는 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.
단계(S310)에서 적어도 하나의 프로세서(130)(보다 정확하게는 적어도 하나의 프로세서(130)에 포함되는 데이터베이스 유지부(210))는, 복수의 사용자들 각각의 음성 아이디(410) 별로 행동 패턴들(420)이 매핑되어 저장된 행동 패턴 데이터베이스(400)를 유지할 수 있다.
행동 패턴 데이터베이스는 단계(S310)가 수행되기 이전에 사전에 구축될 수 있다. 보다 상세하게, 행동 패턴 데이터베이스(400)에는 도 4에 도시된 바와 같이 복수의 사용자들 각각의 음성 아이디(410) 별로 행동 패턴들(420)이 각각에 대응하는 명령어들(430)과 매핑되어 적어도 하나의 프로세서(130)와 연결된 저장 매체에 저장될 수 있다. 예를 들어, 행동 패턴 데이터베이스(400)에는 사용자 1의 음성 아이디 V1에 대한 행동 패턴들 A1, A2, A3이 명령어들 C1, C2, C3와 일대일 매핑되어 저장될 수 있으며, 사용자 2의 음성 아이디 V2에 대한 행동 패턴들 A4, A5가 명령어들 C4, C5와 일대일 매핑되어 저장될 수 있다.
이와 같은 행동 패턴 데이터베이스(400)는 복수의 사용자들 각각의 음성 신호 및 복수의 사용자들 각각의 음성 신호에 응답하는 펫 로봇 장치(100)의 동작들에 대한 복수의 사용자들 각각의 보상 행위에 기초하여 업데이트될 수 있다. 예를 들어, 사용자 1의 음성 신호가 수신됨에 따라 후술되는 단계들(S320 내지 S360)이 수행된 결과 명령어 C1에 대응하는 행동 패턴 A1에 따라 펫 로봇 장치(100)의 동작이 수행되었고 사용자 1이 펫 로봇 장치(100)의 동작에 대해 부정적 보상 행위를 수행했다면, 행동 패턴 데이터베이스(400)는 행동 패턴 A1이 명령어 C1과 매핑되어 있는 상태에서 행동 패턴 A6이 명령어 C1에 매핑된 상태로 업데이트될 수 있다. 반면, 사용자 1이 펫 로봇 장치(100)의 동작에 대해 긍정적 보상 행위를 수행했다면, 행동 패턴 데이터베이스(400)는 행동 패턴 A1이 명령어 C1과 매핑되어 있는 상태 그대로 유지될 수 있다.
설명된 행동 패턴 데이터베이스(400)의 업데이트 동작에는 기계 학습이 활용될 수 있다. 일례로, 행동 패턴 데이터베이스(400)는 적어도 하나의 프로세서(130)와 연결된 저장 매체에 저장된 학습 데이터를 기반으로 기계 학습 모델을 통해 기계 학습되어 업데이트될 수 있다.
또한, 행동 패턴 데이터베이스(400)에는 도 4에 도시된 바와 같이 복수의 사용자들 각각의 음성 아이디(410) 별로 복수의 사용자들 각각에 대한 펫 로봇 장치(100)의 친밀도(440), 복수의 사용자들 각각의 건강 정보 및 연령 정보(450), 복수의 사용자들 각각의 주변 환경 정보(460)가 매핑되어 저장될 수 있다. 여기서 사용자의 주변 환경 정보(460)는 사용자가 펫 로봇 장치(100)와 동거하는 공간의 환경 정보(예컨대, 펫 로봇 장치(100)가 큰 소리로 짖는 소리를 내도 되는 환경인지, 펫 로봇 장치(100)가 뛰어다녀도 되는 환경인지 등을 나타내는 정보)를 포함할 수 있다. 친밀도(440)는 복수의 사용자들 각각이 펫 로봇 장치(100)와 상호 작용한 시간 및 횟수의 히스토리 또는 복수의 사용자들 각각의 개인 정보(예컨대, 사용자가 펫 로봇 장치(100)에 대한 주 보호자인지 여부를 나타내는 정보 또는 사용자의 연령 정보 등)에 기초하여 결정될 수 있다.
단계(S320)에서 적어도 하나의 프로세서(130)(보다 정확하게는, 적어도 하나의 프로세서(130)에 포함되는 음성 신호 수신부(220))는, 주변 상황 인지 모듈(120)을 이용하여, 사용자가 발화하는 음성 신호를 수신할 수 있다.
단계(S330)에서 적어도 하나의 프로세서(130)(보다 정확하게는, 적어도 하나의 프로세서(130)에 포함되는 음성 아이디 선택부(230))는, 음성 신호를 성문 인증하여 행동 패턴 데이터베이스(400)로부터 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택할 수 있다. 예를 들어, 적어도 하나의 프로세서(130)는 음성 신호를 분석하여 성문 특징 벡터를 추출하고 추출된 성문 특징 벡터와 매칭되는 성문 특징 벡터를 갖는 어느 하나의 음성 아이디를 행동 패턴 데이터베이스(400)로부터 선택할 수 있다. 이에, 행동 패턴 데이터베이스(400)에는 복수의 사용자들 각각의 음성 아이디(410) 별 성문(470)이 매핑되어 저장되어 있을 수 있다.
이 때, 사용자의 음성 신호를 성문 인증하는 방식으로는, 종래 공지된 성문 인증 방식이 사용될 수 있다.
단계(S340)에서 적어도 하나의 프로세서(130)(보다 정확하게는, 적어도 하나의 프로세서(130)에 포함되는 명령어 인식부(240))는, 음성 신호를 분석하여 음성 신호에 대응하는 명령어를 인식할 수 있다. 보다 상세하게, 적어도 하나의 프로세서(130)는 음성 신호를 텍스트 변환 후 변환된 텍스트에 대한 자연어 처리를 수행하는 분석 과정을 통해 음성 신호에 대응하는 명령어를 인식할 수 있다. 이를 위해, 명령어 인식부(240)는 STT(Speech-To-Text) 모델 및 NLP(Natural Language Processing) 모델을 포함할 수 있다. STT 모델 및 NLP 모델을 활용하여 명령어를 인식하는 과정은 종래 공지된 텍스트 변환 기술 및 자연어 처리 기술이 사용될 수 있다.
이상, 음성 신호를 성문 인증하는 것과 음성 신호를 텍스트 변환 후 자연어 처리를 수행하는 것이 각기 다른 단계로 구분되어 수행되는 것으로 설명되었으나, 음성 신호를 성문 인증하는 것과 음성 신호를 텍스트 변환 후 자연어 처리를 수행하는 것은 동시에 일괄적으로 수행될 수 있다. 예를 들어, 단계(S330)에서 음성 신호를 성문 인증함과 동시에 음성 신호를 분석하여 텍스트 변환 후 자연어 처리를 수행함으로써 명령어를 인식할 수도 있다. 인식된 명령어는 단계(S330)의 나머지 과정(행동 패턴 데이터베이스(400)로부터 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 과정)이 수행된 이후, 단계(S350)에서 사용되도록 준비될 수 있다. 즉, 이러한 경우, 단계(S340)는 단계(S330)에서 음성 신호를 성문 인증하는 과정에 포함될 수 있다.
단계(S350)에서 적어도 하나의 프로세서(130)(보다 정확하게는, 적어도 하나의 프로세서(130)에 포함되는 행동 패턴 선택부(250))는, 행동 패턴 데이터베이스(400)로부터 단계(S330)에서 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 단계(S340)에서 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택할 수 있다. 예를 들어, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되었다면, 적어도 하나의 프로세서(130)는 행동 패턴 데이터베이스(400)로부터 사용자 1의 음성 아이디 V1에 매핑되어 저장된 행동 패턴들 A1, A2, A3 중 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴 A1을 선택할 수 있다.
이 때, 적어도 하나의 프로세서(130)는 어느 하나의 행동 패턴을 선택함에 있어, 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자에 대한 펫 로봇 장치(100)의 친밀도(440)를 더 고려할 수 있다. 예를 들어, 적어도 하나의 프로세서(130)는 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자에 대한 펫 로봇 장치(100)의 친밀도(440)가 기 설정된 수치 이상인 경우에만, 행동 패턴 데이터베이스(400)로부터 단계(S340)에서 인식된 명령어에 대응하는 행동 패턴을 선택할 수 있다. 반면, 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자에 대한 펫 로봇 장치(100)의 친밀도(440)가 기 설정된 수치 미만인 경우에는, 행동 패턴 데이터베이스(400)로부터 단계(S340)에서 인식된 명령어에 대응하는 행동 패턴이 선택되지 않을 수 있다. 더 구체적인 예를 들면, 도 5에 도시된 바와 같이 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1인 경우, 적어도 하나의 프로세서(130)는 사용자 1에 대한 펫 로봇 장치(100)의 친밀도가 기 설정된 수치 미만인 것을 고려하여 명령어 C1에 대응하는 행동 패턴 A1을 선택하는 대신에, 다른 행동 패턴 A2를 선택할 수 있다.
이와 같이 어느 하나의 행동 패턴을 선택함에 있어 친밀도(440)가 고려됨으로써, 실제 살아있는 펫이 사람에 대한 친밀도에 기초하여 명령에 따라 행동하거나 행동하지 않는 자유로운 의사 행위가 모방될 수 있다.
다른 예를 들면, 적어도 하나의 프로세서(130)는 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자에 대한 펫 로봇 장치(100)의 친밀도(440)에 기초하여, 행동 패턴의 횟수 또는 정도를 결정할 수 있다. 보다 구체적인 예를 들면, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1인 경우, 적어도 하나의 프로세서(130)는 사용자 1에 대한 펫 로봇 장치(100)의 친밀도가 기 설정된 수치 미만인 것을 고려하여 명령어 C1에 대응하는 행동 패턴 A1의 반복 횟수를 기준치 미만으로 결정할 수 있다. 즉, 이러한 경우 행동 패턴이 선택되는 것은 단계(S340)에서 인식된 명령어에 기반하되, 선택된 행동 패턴의 횟수 또는 정도만이 펫 로봇 장치(100)의 친밀도(440)에 기초하여 결정될 수 있다.
또한, 적어도 하나의 프로세서(130)는 어느 하나의 행동 패턴을 선택함에 있어, 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 건강 정보 및 연령 정보(450)를 더 고려할 수 있다. 예를 들어, 도 6에 도시된 바와 같이 적어도 하나의 프로세서(130)는 단계(S330)에서 선택된 어느 하나의 음성 아이디 V1에 대응하는 사용자 1의 건강 정보가 "양호" 상태를 나타내는 경우, 행동 패턴 데이터베이스(400)로부터 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴 A1을 선택할 수 있다. 반면, 단계(S330)에서 선택된 어느 하나의 음성 아이디 V1에 대응하는 사용자 1의 건강 정보가 "환자" 상태를 나타내는 경우, 행동 패턴 데이터베이스(400)로부터 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴 A1이 선택되지 않을 수 있다.
이는, 행동 패턴에 따른 펫 로봇 장치(100)의 동작이 "환자" 상태인 사용자가 감당하기 힘든 것을 방지하기 위한 것이다.
다른 예를 들면, 적어도 하나의 프로세서(130)는 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 건강 정보 및 연령 정보(450)에 기초하여, 행동 패턴의 횟수 또는 정도를 결정할 수 있다. 보다 구체적인 예를 들면, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1인 경우, 적어도 하나의 프로세서(130)는 사용자 1의 연령 정보가 "고령"을 나타내는 것을 인식하여 명령어 C1에 대응하는 행동 패턴 A1의 반복 횟수를 기준치 미만으로 결정할 수 있다. 즉, 이러한 경우 행동 패턴이 선택되는 것은 단계(S340)에서 인식된 명령어에 기반하되, 선택된 행동 패턴의 횟수 또는 정도만이 사용자의 건강 정보 및 연령 정보(450)에 기초하여 결정될 수 있다.
또한, 적어도 하나의 프로세서(130)는 어느 하나의 행동 패턴을 선택함에 있어, 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 주변 환경 정보(460)를 더 고려할 수 있다. 예를 들어, 도 7에 도시된 바와 같이 적어도 하나의 프로세서(130)는 단계(S330)에서 선택된 어느 하나의 음성 아이디 V1에 대응하는 사용자 1의 주변 환경 정보인 "공간 1"이 "큰 소리로 짖어도 되는 공간"을 나타내는 경우, 행동 패턴 데이터베이스(400)로부터 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴 A1을 선택할 수 있다. 반면, 단계(S330)에서 선택된 어느 하나의 음성 아이디 V1에 대응하는 사용자 1의 주변 환경 정보인 "공간 1"이 "큰 소리로 짖으면 아니 되는 공간"을 나타내는 경우, 행동 패턴 데이터베이스(400)로부터 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴 A1이 선택되지 않을 수 있다.
이와 같이 어느 하나의 행동 패턴을 선택함에 있어 사용자의 주변 환경 정보가 고려됨으로써, 선택된 행동 패턴에 따라 제어되는 펫 로봇 장치(100)의 동작으로 인해 주변 거주민들이 소음 또는 진동의 피해를 입는 것이 방지될 수 있다.
다른 예를 들면, 적어도 하나의 프로세서(130)는 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 주변 환경 정보(460)에 기초하여, 행동 패턴의 횟수 또는 정도를 결정할 수 있다. 보다 구체적인 예를 들면, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1인 경우, 적어도 하나의 프로세서(130)는 사용자 1의 주변 환경 정보가 "펫 로봇 장치(100)가 뛰어다녀도 되는 공간"을 나타낸 것을 인식하여 명령어 C1에 대응하는 행동 패턴 A1의 반복 횟수를 기준치 이상으로 결정할 수 있다. 즉, 이러한 경우 행동 패턴이 선택되는 것은 단계(S340)에서 인식된 명령어에 기반하되, 선택된 행동 패턴의 횟수 또는 정도만이 사용자의 주변 환경 정보(460)에 기초하여 결정될 수 있다.
또한, 적어도 하나의 프로세서(130)는 어느 하나의 행동 패턴을 선택함에 있어, 펫 로봇 장치(100)의 컨디션 정보를 더 고려할 수 있다. 예를 들어, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1이며, 도 8에 도시된 바와 같이 펫 로봇 장치(100)의 컨디션 정보가 "충전이 필요한 상태"를 나타내는 경우, 적어도 하나의 프로세서(130)는 펫 로봇 장치(100)의 충전 상황으로는 행동 패턴 A1에 따라 펫 로봇 장치(100)가 동작할 수 없음을 예상하여 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴 A1을 선택하지 않을 수 있다.
다른 예를 들면, 적어도 하나의 프로세서(130)는 펫 로봇 장치(100)의 컨디션 정보에 기초하여, 행동 패턴의 횟수 또는 정도를 결정할 수 있다. 보다 구체적인 예를 들면, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1인 경우, 적어도 하나의 프로세서(130)는 펫 로봇 장치(100)의 컨디션 정보가 "충전이 필요한 상태"를 나타내는 것을 인식하여 명령어 C1에 대응하는 행동 패턴 A1의 반복 횟수를 기준치 미만으로 결정할 수 있다. 즉, 이러한 경우 행동 패턴이 선택되는 것은 단계(S340)에서 인식된 명령어에 기반하되, 선택된 행동 패턴의 횟수 또는 정도만이 펫 로봇 장치(100)의 컨디션 정보에 기초하여 결정될 수 있다.
이러한 펫 로봇 장치(100)의 컨디션 정보는, 실시간으로 펫 로봇 장치(100)로부터 수집될 수 있다. 또한, 이상, 펫 로봇 장치(100)의 컨디션 정보가 펫 로봇 장치(100)의 충전 상태와 관련된 정보인 것으로 설명되었으나, 이에 제한되거나 한정되지 않고 펫 로봇 장치(100)의 동작과 관련된 다양한 정보(예컨대, 고장 부위 정보 등)를 포함할 수 있다.
또한, 적어도 하나의 프로세서(130)는 어느 하나의 행동 패턴을 선택함에 있어, 사용자의 동작 정보를 더 고려할 수 있다. 예를 들어, 단계(S330)에서 사용자 1의 음성 아이디 V1이 선택되고 단계(S340)에서 인식된 명령어 C1에 대응하는 행동 패턴이 A1이며, 도 9에 도시된 바와 같이 사용자가 음성 신호를 발화하는 것을 촬영한 영상으로부터 사용자의 동작 정보로 "앉는 것을 강요하는 손 제스처"가 생성된 경우, 적어도 하나의 프로세서(130)는 명령어 C1에 대응하는 행동 패턴이 A1이 "앉는 행동 패턴"을 나타내는 것임을 사용자의 동작 정보를 기초로 재확인한 뒤, 행동 패턴 A1을 선택할 수 있다. 즉, 사용자의 동작 정보는 인식된 명령어에 기초하여 어느 하나의 행동 패턴을 선택하는 정확도를 향상시키고자, 명령어에 대응하는 행동 패턴을 선택하는 과정에서 재확인하는 용도로 사용될 수 있다.
이를 위해, 적어도 하나의 프로세서(130)는 단계(S320)에서 사용자가 발화하는 음성 신호를 수신하는 것과 동시에, 사용자가 음성 신호를 발화하는 것을 촬영한 영상을 함께 수신하여 해당 영상으로부터 사용자의 동작 정보를 생성할 수 있다.
이상 단계들(S310, S330 내지 S350)의 행동 패턴 데이터베이스(400) 유지 및 음성 인식 알고리즘이 펫 로봇 장치(100)에 포함되는 적어도 하나의 프로세서(130)에 의해 수행되는 것으로 설명되었으나, 이에 제한되거나 한정되지 않고 펫 로봇 장치(100)에 포함되는 적어도 하나의 프로세서(130)와 통신으로 연결된 제어 서버(미도시)가 주체가 되어 수행될 수도 있다. 이러한 경우, 제어 서버는 단계(S320)를 통해 펫 로봇 장치(100)에서 수신된 사용자가 발화하는 음성 신호를 전달 받아, 단계들(S330 내지 S350)을 수행할 수 있다.
단계(S360)에서 적어도 하나의 프로세서(130)(보다 정확하게는, 적어도 하나의 프로세서(130)에 포함되는 동작 제어부(260))는, 선택된 행동 패턴에 따라 펫 로봇 장치(100)(보다 정확하게는, 로봇 바디(110))의 동작을 제어할 수 있다.
또한, 단계(S360)에서 적어도 하나의 프로세서(130)는, 펫 로봇 장치(100)의 동작을 제어하는 것과 동시에, 단계(S330)에서 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 정보를 펫 로봇 장치(100)에 포함되는 디스플레이에 표시할 수 있다. 이에, 사용자로 하여금 펫 로봇 장치(100)가 사용자의 음성 신호를 기반으로 사용자 본인을 제대로 신분 인증했는지를 확인하도록 할 수 있다.
이상, 단일 사용자로부터 음성 신호가 발화되고 이에 응답하여 펫 로봇 장치(100)의 동작을 제어하는 과정이 설명되었으나, 적어도 하나의 프로세서(130)는 복수의 사용자들이 복수의 음성 신호들을 동시에 발화하는 경우에도, 사용자들의 음성 신호들을 구분하여 인식하고 각각에 응답하는 펫 로봇 장치(100)의 동작을 제어할 수 있다.
보다 상세하게, 단계(S320)에서 주변 상황 인지 모듈(120)을 통해 복수의 사용자들이 발화하는 음성 신호들이 동시에 수신되는 경우, 단계(S330)에서 적어도 하나의 프로세서(130)(보다 정확하게는, 적어도 하나의 프로세서(130)에 포함되는 음성 아이디 선택부(230))는 복수의 음성 신호들을 성문 인증하여 행동 데이터베이스(400)로부터 음성 신호들의 성문들과 매칭되는 성문들을 갖는 복수의 음성 아이디들을 선택한 뒤 선택된 복수의 음성 아이디들에 대한 우선 순위에 기초하여 어느 하나의 음성 아이디를 선택할 수 있다. 이를 위해, 행동 데이터베이스(400)에는 복수의 사용자들 각각의 음성 아이디(410) 별로 복수의 사용자들 각각의 음성 아이디(410)에 대한 우선 순위(480)가 매핑되어 저장될 수 있다. 복수의 사용자들 각각의 음성 아이디(410)에 대한 우선 순위(480)는 음성 아이디(410)에 대응하는 복수의 사용자들에 대한 펫 로봇 장치(100)의 친밀도(440), 사용자들 각각의 건강 정보 및 연령 정보(450)에 기초하여 결정될 수 있다. 예를 들어, 도 10에 도시된 바와 같이 행동 데이터베이스(400)로부터 단계(S320)에서 수신된 음성 신호들의 성문들과 매칭되는 성문들을 갖는 음성 아이디들 V1, V2가 선택되면, 적어도 하나의 프로세서(130)는 선택된 음성 아이디들 V1, V2에 대한 우선 순위(480)에 기초하여 우선 순위(480)가 높은 음성 아이디 V1을 선택할 수 있다.
이후, 적어도 하나의 프로세서(130)는 전술된 단계들(S340 내지 S360)을 순차적으로 수행하여 우선 순위(480)에 따라 선택된 음성 아이디에 대한 행동 패턴에 따라 펫 로봇 장치(100)의 동작을 제어한 뒤, 음성 아이디들 중 선택되지 않은 나머지 음성 아이디에 대해서도 전술된 단계들(S340 내지 S360)을 순차적으로 수행하여 나머지 음성 아이디에 대한 행동 패턴에 따라 펫 로봇 장치(100)의 동작을 제어할 수 있다.
또한, 단계(S330)에서 어느 하나의 음성 아이디가 선택됨에 있어, 음성 신호를 발화하는 사용자를 촬영한 영상이 더 활용될 수 있다. 예를 들어, 도 11에 도시된 바와 같이, 적어도 하나의 프로세서(130)는 단계(S320)에서 사용자의 음성 신호와 함께 사용자를 촬영한 영상을 수신함으로써, 단계(S330)에서 사용자의 음성 신호를 성문 인증하여 행동 패턴 데이터베이스(400)로부터 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 과정에서, 사용자를 촬영한 영상 속 사용자의 얼굴 정보와 매칭되는 얼굴 정보를 갖는 어느 하나의 음성 아이디를 행동 패턴 데이터베이스(400)로부터 선택할 수 있다. 이를 위해, 행동 패턴 데이터베이스(400)에는 복수의 사용자들 각각의 음성 아이디(400) 별로 사용자들 각각의 얼굴 정보(490)가 매핑되어 저장될 수 있다.
이상 설명된 단계들(S310 내지 S360)이 수행된 결과 유지되는 행동 패턴 데이터베이스(400)는 기록매체에 기록된 데이터의 형태로 다양한 서비스에 적용 및 활용될 수 있다. 일례로, 행동 패턴 데이터베이스(400)는 학습 또는 업데이트 시점별로 구분되어 보관됨으로써, 펫 로봇 장치(100)가 특정 시점에 학습된 행동 패턴에 따라 동작하는데 사용될 수 있다.
이 때, 행동 패턴 데이터베이스(400)가 학습 및 업데이트되는 것은 주인 친화형으로 개선되도록 이루어질 수 있다.
또한, 행동 패턴 데이터베이스(400)는 펫 로봇 장치(100)가 실제 존재하는 살아있는 어떤 펫을 모사한 로봇 장치인지에 따라 최적화될 수 있다. 일례로, 펫 로봇 장치(100)가 살아있는 고양이를 모사한 로봇 장치인 경우, 행동 패턴 데이터베이스(400)는 고양이의 행동 특성에 맞게 최적화되며 활용 및 제공될 수 있다.
또한, 행동 패턴 데이터베이스(400)는 메타버스와 연계될 수 있다. 예를 들어, 현실에서 학습 및 업데이트된 행동 패턴 데이터베이스(400)는 메타버스에 적용되어 메타버스에 구현된 가상의 펫 로봇 장치의 동작을 제어하는데 활용될 수 있다. 역으로, 메타버스에서 구현된 가상의 펫 로봇 장치의 동작을 제어하는데 메타버스의 행동 패턴 데이터베이스가 활용되어 학습 및 업데이트되는 경우, 메타버스의 행동 패턴 데이터베이스가 현실의 펫 로봇 장치(100)의 동작을 제어하는데 사용될 수 있다.
또한, 이상 펫 로봇 장치(100)가 사육자들 각각의 명령을 구분하여 반응하도록 복수의 사용자들 각각의 음성 아이디(410) 별로 행동 패턴들(420)이 매핑되어 저장된 행동 패턴 데이터베이스(400)가 활용되는 것으로 설명되었으나, 행동 패턴 데이터베이스(400)의 경량화를 위해 펫 로봇 장치(100)의 주인인 사용자의 음성 아이디만이 대응하는 행동 패턴들과 매핑되어 행동 패턴 데이터베이스(400)에 저장 및 유지될 수 있다. 이러한 경우, 단계(S330)에서 적어도 하나의 프로세서(130)는 음성 신호를 성문 인증하여 행동 패턴 데이터베이스(400)에 저장된 주인인 사용자의 성문과 일치하는지 여부를 확인하고, 음성 신호의 성문이 행동 패턴 데이터베이스(400)에 저장된 주인인 사용자의 성문과 일치하는 경우에 단계들(S340 내지 S360)를 수행할 수 있다.
이상 설명된 단계들(S310 내지 S360)의 행동 패턴 데이터베이스(400) 유지 및 음성 인식 알고리즘은, 펫 로봇 장치(100)에 적용될 뿐만 아니라, 자동차 또는 메타버스에도 적용될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (16)

  1. 적어도 하나의 프로세서에 의해 수행되는 펫 로봇 장치의 동작 방법에 있어서,
    복수의 사용자들 각각의 음성 아이디 별로 행동 패턴들이 매핑되어 저장된 행동 패턴 데이터베이스를 유지하는 단계;
    사용자가 발화하는 음성 신호를 수신하는 단계;
    상기 음성 신호를 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 단계;
    상기 음성 신호를 분석하여 상기 음성 신호에 대응하는 명령어를 인식하는 단계;
    상기 행동 패턴 데이터베이스로부터 상기 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 상기 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택하는 단계; 및
    상기 선택된 행동 패턴에 따라 상기 펫 로봇 장치의 동작을 제어하는 단계
    를 포함하는 펫 로봇 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 행동 패턴을 선택하는 단계는,
    상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자에 대한 상기 펫 로봇 장치의 친밀도에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  3. 제1항에 있어서,
    상기 행동 패턴을 선택하는 단계는,
    상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 건강 정보 및 연령 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  4. 제1항에 있어서,
    상기 행동 패턴을 선택하는 단계는,
    상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 주변 환경 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  5. 제1항에 있어서,
    상기 행동 패턴을 선택하는 단계는,
    상기 펫 로봇 장치의 컨디션 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  6. 제1항에 있어서,
    상기 행동 패턴을 선택하는 단계는,
    상기 사용자의 동작 정보에 더 기초하여 상기 어느 하나의 행동 패턴을 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  7. 제1항에 있어서,
    상기 명령어를 인식하는 단계는,
    상기 음성 신호를 텍스트 변환 후 상기 변환된 텍스트에 대한 자연어 처리를 수행하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  8. 제7항에 있어서,
    상기 음성 신호를 성문 인증하는 것과 상기 음성 신호를 텍스트 변환 후 상기 자연어 처리를 수행하는 것은,
    동시에 일괄적으로 수행되는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  9. 제1항에 있어서,
    상기 행동 패턴 데이터베이스는,
    상기 복수의 사용자들 각각의 음성 신호 및 상기 복수의 사용자들 각각의 음성 신호에 응답하는 상기 펫 로봇 장치의 동작들에 대한 상기 복수의 사용자들 각각의 보상 행위에 기초하여 업데이트되는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  10. 제1항에 있어서,
    상기 행동 패턴 데이터베이스는,
    상기 펫 로봇 장치가 모사하는 펫의 행동 특성에 기초하여 사전에 구축되는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  11. 제1항에 있어서,
    상기 어느 하나의 음성 아이디를 선택하는 단계는,
    상기 사용자를 포함하는 복수의 사용자들이 발화하는 음성 신호들이 동시에 수신되는 경우, 상기 복수의 음성 신호들을 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호들의 성문들과 매칭되는 성문들을 갖는 복수의 음성 아이디들을 선택하는 단계; 및
    상기 선택된 복수의 음성 아이디들에 대한 우선 순위에 기초하여 상기 선택된 복수의 음성 아이디들 중 어느 하나의 음성 아이디를 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  12. 제11항에 있어서,
    상기 선택된 복수의 음성 아이디들에 대한 우선 순위는,
    상기 선택된 복수의 음성 아이디들에 대응하는 사용자들에 대한 상기 펫 로봇 장치의 친밀도, 상기 사용자들 각각의 건강 정보 및 연령 정보에 기초하여 결정되는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  13. 제1항에 있어서,
    상기 어느 하나의 음성 아이디를 선택하는 단계는,
    상기 사용자가 상기 음성 신호를 발화하는 것을 촬영한 영상에 더 기초하여 상기 어느 하나의 음성 아이디를 선택하는 단계
    를 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  14. 제1항에 있어서,
    상기 제어하는 단계는,
    상기 선택된 어느 하나의 음성 아이디에 대응하는 사용자의 정보를 상기 펫 로봇 장치에 포함되는 디스플레이에 표시하는 단계
    를 더 포함하는 것을 특징으로 하는 펫 로봇 장치의 동작 방법.
  15. 펫 로봇 장치의 동작 방법을 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체에 있어서,
    상기 펫 로봇 장치의 동작 방법은,
    복수의 사용자들 각각의 음성 아이디 별로 행동 패턴들이 매핑되어 저장된 행동 패턴 데이터베이스를 유지하는 단계;
    사용자가 발화하는 음성 신호를 수신하는 단계;
    상기 음성 신호를 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 단계;
    상기 음성 신호를 분석하여 상기 음성 신호에 대응하는 명령어를 인식하는 단계;
    상기 행동 패턴 데이터베이스로부터 상기 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 상기 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택하는 단계; 및
    상기 선택된 행동 패턴에 따라 상기 펫 로봇 장치의 동작을 제어하는 단계
    를 포함하는 컴퓨터 판독 가능한 기록매체.
  16. 펫의 외형을 모사한 로봇 바디, 주변 상황 인지 모듈 및 적어도 하나의 프로세서를 포함하는 펫 로봇 장치에 있어서,
    상기 적어도 하나의 프로세서는,
    복수의 사용자들 각각의 음성 아이디 별로 행동 패턴들이 매핑되어 저장된 행동 패턴 데이터베이스를 유지하는 데이터베이스 유지부;
    상기 주변 상황 인지 모듈을 이용하여 사용자가 발화하는 음성 신호를 수신하는 음성 신호 수신부;
    상기 음성 신호를 성문 인증하여 상기 행동 패턴 데이터베이스로부터 상기 음성 신호의 성문과 매칭되는 성문을 갖는 어느 하나의 음성 아이디를 선택하는 음성 아이디 선택부;
    상기 음성 신호를 분석하여 상기 음성 신호에 대응하는 명령어를 인식하는 명령어 인식부;
    상기 행동 패턴 데이터베이스로부터 상기 선택된 어느 하나의 음성 아이디에 매핑되어 저장된 행동 패턴들 중 상기 인식된 명령어에 대응하는 어느 하나의 행동 패턴을 선택하는 행동 패턴 선택부; 및
    상기 선택된 행동 패턴에 따라 상기 로봇 바디의 동작을 제어하는 동작 제어부
    를 포함하는 펫 로봇 장치.
KR1020220084837A 2022-07-11 2022-07-11 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법 KR102679200B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220084837A KR102679200B1 (ko) 2022-07-11 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법
PCT/KR2023/009818 WO2024014824A1 (ko) 2022-07-11 2023-07-11 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220084837A KR102679200B1 (ko) 2022-07-11 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법

Publications (2)

Publication Number Publication Date
KR20240008020A KR20240008020A (ko) 2024-01-18
KR102679200B1 true KR102679200B1 (ko) 2024-07-01

Family

ID=

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002160185A (ja) 2000-03-31 2002-06-04 Sony Corp ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
JP2003205179A (ja) 2002-01-10 2003-07-22 Fuji Photo Film Co Ltd ペット型ロボット

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002160185A (ja) 2000-03-31 2002-06-04 Sony Corp ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
JP2003205179A (ja) 2002-01-10 2003-07-22 Fuji Photo Film Co Ltd ペット型ロボット

Similar Documents

Publication Publication Date Title
AU2018202162B2 (en) Methods and systems of handling a dialog with a robot
US11107456B2 (en) Artificial intelligence (AI)-based voice sampling apparatus and method for providing speech style
US11200467B2 (en) Artificial intelligence apparatus and method for recognizing object included in image data
US10335954B2 (en) Methods and systems for managing dialogs of a robot
US20230182029A1 (en) Automatic classification and reporting of inappropriate language in online applications
US11327320B2 (en) Electronic device and method of controlling the same
KR20190140801A (ko) 영상, 음성, 텍스트 정보를 기반으로 사용자의 감정, 나이, 성별을 인식하는 방법
CN111002303A (zh) 识别装置、机器人、识别方法和存储介质
KR20200044173A (ko) 전자 장치 및 그의 제어 방법
KR102679200B1 (ko) 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법
Pineda et al. Ioca: Interaction-oriented cognitive architecture
CN109062094B (zh) 模型的控制方法、装置及存储介质
KR20180012192A (ko) 유아동용 학습 장치 및 그 동작 방법
KR20240008020A (ko) 음성 인식을 이용한 신분 증명 기반의 펫 로봇 장치 및 그 동작 방법
JP2017182261A (ja) 情報処理装置、情報処理方法、およびプログラム
KR20240082442A (ko) 모드별로 사용자의 등급을 상이한 방식으로 식별하는 펫 로봇 장치의 제어 방법 및 시스템
KR20240082443A (ko) 펫 로봇 장치와의 친밀도를 이용하는 펫 로봇 장치의 제어 방법 및 시스템
KR20190109714A (ko) 증강 현실 기반의 학습 서비스 제공 방법, 단말, 및 컴퓨터 판독 가능한 기록 매체에 저장된 소프트웨어
KR20200017160A (ko) 음성을 인식하는 장치, 방법 및 컴퓨터 판독 가능 매체
KR102643720B1 (ko) 로봇용 인공지능 인터페이스 시스템
US11929169B2 (en) Personalized sensory feedback
US20230289404A1 (en) Information processing apparatus and information processing method
KR20240033525A (ko) 오디오 신호에 포함된 음성 신호에 이용하여 타겟 화자를 업데이트하는 전자 장치 및 그의 타겟 화자 업데이트 방법
KR20230155741A (ko) 가상의 반려 객체와의 현실 교감 시스템 및 방법
KR20220037129A (ko) 피면접자에 대한 실시간 면접 평가를 제공하는 방법 및 이를 이용한 컴퓨팅 장치