KR102371438B1 - 반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘 - Google Patents

반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘 Download PDF

Info

Publication number
KR102371438B1
KR102371438B1 KR1020200156847A KR20200156847A KR102371438B1 KR 102371438 B1 KR102371438 B1 KR 102371438B1 KR 1020200156847 A KR1020200156847 A KR 1020200156847A KR 20200156847 A KR20200156847 A KR 20200156847A KR 102371438 B1 KR102371438 B1 KR 102371438B1
Authority
KR
South Korea
Prior art keywords
variable
value
emotion
situation
answer
Prior art date
Application number
KR1020200156847A
Other languages
English (en)
Inventor
장윤옥
Original Assignee
(주)펫펄스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)펫펄스랩 filed Critical (주)펫펄스랩
Priority to US17/459,018 priority Critical patent/US11854574B2/en
Application granted granted Critical
Publication of KR102371438B1 publication Critical patent/KR102371438B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • A01K29/005Monitoring or measuring activity, e.g. detecting heat or mating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/40Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal

Abstract

본 발명의 일 실시예에 따른, 사용자 단말에 의해 수행되는, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법에 있어서, (a) 사용자로부터 채팅값이 입력되면, IOT디바이스로부터 음성 정보 및 활동량 정보를 수신하는 단계; (b) 음성 정보 및 활동량 정보에 기초하여 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하는 단계; 및 (c) 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 조건으로 채팅값에 대응되는 답변값을 검색하여, 검색이 완료된 답변값을 출력하는 단계;를 포함하고, IOT디바이스는 마이크 및 행동감지센서가 구비되어, IOT디바이스를 착용한 반려동물의 울음소리 및 행동을 감지하여 음성 정보 및 활동량 정보를 생성한다.

Description

반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘{INTERACTIVE CHATBOT ALGORITHM BETWEEN HUMAN AND COMPANION ANIMALS THROUGH ANALYSIS OF COMPANION ANIMAL’S EMOTIONS AND STATES BAASED ON COMPANION ANIMAL VOICE AND ACTIVITY INFORMATION}
본 발명은 반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘에 관한 것이다.
근래에 들어 핵가족이나 혼자 사는 인구가 늘어나는 추세로, 그와 함께 강아지나 고양이와 같은 반려동물을 키우는 인구가 증가하고 있는 상황이다. 이러한, 추세에 발맞추어 반려동물에게 사용하는 용품도 꾸준하게 개발되고 있는 상황이다.
반려동물의 편의에 맞게 다양한 제품들이 개발되고 있지만, 애완용품은 반려동물을 쉽게 키우거나 놀아줄 수 있는데 초점이 맞춰진 상태이다. 그에 따라, 반려동물의 심리나 상태를 파악하는 많은 애완용품이 개발되었으나, 이는 사용자가 일방적인 동작에 기초하여 데이터를 센싱하여 결과값을 출력하는 방식으로만 구현되었다.
이러한, 방식은 디바이스가 최초로 저장된 데이터에 기반하기에 정확도가 낮을뿐더러, 사용자가 장치를 동작시켜야만 센싱된 데이터에 대한 결과값이 산출된다는 부분에서 진정한 대화가 아닌 반려동물의 의도만 파악하는 한계를 지닌다.
본 발명은 상기한 문제점을 해결하기 위해, 다양한 상황에서 반려동물의 행동을 반려동물에 장착된 IOT디바이스를 통해 수신하여 빅데이터를 생성하고, 반려동물의 특정 행동이 수신되면 빅데이터에 기반하여 반려동물의 의중을 파악하기 위한 장치를 구현하기 위한 기술이다.
상기와 같은 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 단말에 의해 수행되는, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법에 있어서, (a) 사용자로부터 채팅값이 입력되면, IOT디바이스로부터 음성 정보 및 활동량 정보를 수신하는 단계; (b) 음성 정보 및 활동량 정보에 기초하여 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하는 단계; 및 (c) 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 조건으로 채팅값에 대응되는 답변값을 검색하여, 검색이 완료된 답변값을 출력하는 단계;를 포함하고, IOT디바이스는 마이크 및 행동감지센서가 구비되어, IOT디바이스를 착용한 반려동물의 울음소리 및 행동을 감지하여 음성 정보 및 활동량 정보를 생성할 수 있다.
또한, (a) 단계 이전에 사용자에게 텍스트를 입력하거나 표시하기 위한 채팅 인터페이스를 제공하고, 채팅 인터페이스는 채팅의 내역이 올라오는 채팅 영역과 채팅값을 생성하는 자판 영역으로 구성될 수 있다.
또한, (b) 단계는 (b1) 음성 정보를 분석하여, 감정 기본 변수를 산출하는 단계; (b2) 활동량 정보에 기초하여, 상황 변수를 산출하는 단계; 및 (b3) 상가 감정 기본 변수 및 상황 변수에 기초하여 행동 패턴 변수를 산출하는 단계;를 포함할 수 있다.
또한, (b1) 단계는 음성 정보를 분석하여 반려동물이 가질 수 있는 복수의 감정에 대한 점수를 나타내는 감정 기본 변수를 산출하고, 복수의 감정은 적어도 안정, 불안, 분노, 슬픔 및 행복을 포함할 수 있다.
또한, (b2) 단계는 활동량 정보를 분석하여 반려동물이 현재 겪고 있는 상황에 대한 상황 정보를 산출하되, 상황 정보는 반려동물의 인근에 대한 환경문맥값(Environmental context), 대화히스토리문맥값(Conversational history context) 및 신체적 문맥값(Physical context)을 각각 산출할 수 있다.
또한, 상황 정보를 산출하는 과정에서 이전에 기 진행된 채팅 로그를 적용하여, 상황 정보를 보정할 수 있다.
또한, (b3) 단계는 감정 기본 변수 및 상황 변수를 분석하여, 반려동물이 현재 수행하는 행동을 판단하여 행동 패턴 변수를 산출하되, 현재 수행하는 행동은 외향적인 행동, 소극적인 행동 및 공격적 행동을 포함할 수 있다.
또한, (c) 단계는 (c1) 채팅값에 대응되는 답변 리스트를 생성하는 단계; (c2) 감정 기본 변수, 상황 변수 및 행동 패턴 변수에 기초하여, 답변 리스트에서 복수의 답변값을 분류하는 단계; 및 (c3) 복수의 답변값에서 감정 기본 변수, 상황 변수 및 행동 패턴 변수와 기 설정된 비교값 이상을 가지는 답변값을 산출하는 단계;를 포함할 수 있다.
또한, (c1) 단계는 채팅값을 구성하는 단어를 추출하여, 추출된 단어와 연관된 답변값을 검색하여 답변 리스트를 생성할 수 있다.
또한, 답변값에는 감정 기본 변수, 상황 변수 및 행동 패턴 변수가 갖는 각각의 변수에 대응되는 값이 부여되고, (c3) 단계는 음성 정보 및 활동량 정보에 기초하여 산출된 감정 기본 변수, 상황 변수 및 행동 패턴 변수와 답변값이 갖는 변수를 비교하여 비교값을 산출할 수 있다.
또한, (c) 단계 이후 사용자로부터 답변값에 대한 적합 여부를 수신하고, 답변값이 채팅값에 적합하면 채팅값과 음성 정보 및 활동량 정보를 저장하여, 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 알고리즘을 보정할 수 있다.
또한, IOT디바이스에 GPS모듈이 구비되어 위치 정보를 생성하고, (b) 단계는 IOT디바이스로부터 위치 정보를 더 수신하여 상황 변수를 보정할 수 있다.
또한, 마이크 및 행동감지센서가 구비되어, 착용한 반려동물의 울음소리 및 행동을 감지하여 음성 정보 및 활동량 정보를 생성하는 IOT디바이스; 및 사용자로부터 채팅값이 입력되면, IOT디바이스로부터 음성 정보 및 활동량 정보를 수신하고, 음성 정보 및 활동량 정보에 기초하여 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하고, 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 조건으로 채팅값에 대응되는 답변값을 검색하여, 검색이 완료된 답변값을 출력하는 사용자 단말;을 포함하는 시스템일 수 있다.
또한, IOT디바이스는 GPS모듈이 구비되어, 사용자 단말로 위치 정보를 제공하고, 사용자 단말은 위치 정보에 기초하여 기 상황 변수를 보정할 수 있다.
또한, 제 1 항에 의한 애완동물의 감정에 기반하여 챗봇이 동작되는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 저장매체일 수 있다.
본 발명의 일 실시예에 따른, 다양한 상황에서 반려동물의 행동을 반려동물에 장착된 IOT디바이스를 통해 수신하여 빅데이터를 생성하고, 반려동물의 특정 행동이 수신되면 빅데이터에 기반하여 반려동물의 의중을 파악하기 위한 장치를 구현한다.
또한, 반려견의 감정이나 상태를 잘 파악하지 못하는 초보 주인들을 위해 반려견의 감정을 매우 정확하게 감지해내어 챗봇을 통해 주인에게 알려줄 수 있게 된다.
이를 통해, 주인은 이를 통해 반려견을 더 이해하고, 반려견과 사람에게 대화하듯이 대할 수 있도록 하여 더욱 친밀감을 유도하도록 할 수 있다.
도 1은 본 발명의 일 실시예에 따른, 사용자 단말 및 반려동물에게 착용된 IOT디바이스에 의해 수행되는, 애완동물의 감정에 기반하여 챗봇을 제공하기 위한 시스템의 구성을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른, 사용자 단말(100)의 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른, 반려동물의 감정에 기반하여 챗봇을 제공하는 방법을 나타낸 동작 흐름도이다.
도 4는 본 발명의 일 실시예에 따른, 챗봇의 구동을 위한 변수를 산출하기 위한 과정을 나타낸 동작 흐름도이다.
도 5는 본 발명의 일 실시예에 따른, 사용자의 채팅값에 대응되는 답변값을 산출하는 과정을 나타낸 동작 흐름도이다.
도 6a 내지 도 6e는 본 발명의 일 실시예에 따른, 챗봇와 연계되어 제공되는 부가 서비스 및 그에 대한 인터페이스 예시에 대한 도면이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하의 실시예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아니다. 따라서 본 발명과 동일한 기능을 수행하는 동일 범위의 발명 역시 본 발명의 권리 범위에 속할 것이다.
도 1은 본 발명의 일 실시예에 따른, 사용자 단말 및 반려동물에게 착용된 IOT디바이스에 의해 수행되는, 애완동물의 감정에 기반하여 챗봇을 제공하기 위한 시스템의 구성을 나타낸 도면이다.
도 1을 참조하면, 시스템은 사용자 단말(100) 및 IOT디바이스(200)로 구성될 수 있다. 이때, 각각의 장치는 통신망을 통해 유선 또는 무선으로 상호 연결될 수 있다.
본 발명의 일 실시예에 따른, 시스템은 사용자가 사용자 단말(100)에 채팅값을 입력하면, 사용자 단말(100)은 IOT디바이스(200)로부터 음성 정보 및 활동량 정보를 수신하게 된다.
이후, 사용자 단말(100)은 음성 정보 및 활동량 정보를 감정 기본 변수, 상황 변수 및 행동 패턴 변수로 변환하여, 사용자가 입력한 채팅값에 대응되는 답변값을 디스플레이에 표시하게 된다.
이때, 음성 정보는 반려동물의 울음 소리를 뜻하고, 활동량 정보는 반려동물이 수행한 행동을 센싱한 값이 될 수 있다. 또한, 감정 기본 변수, 상황 변수 및 행동 패턴 변수는 음성 정보 및 활동량 정보를 통해 반려동물이 느끼는 감정이나 의도 및 행동을 파악하기 위한 변수로, 후술할 도 3을 통해 다시 설명하도록 한다.
따라서, 본 발명에서 제공하려는 챗봇은 사용자의 질문에 대한 답변을 제공하되, 반려동물이 당시에 갖는 감정이 담긴 답변을 제공하게 된다. 예를 들어, 사용자가 입력한 채팅값이 "오늘 날씨는 어때?"라고 질문하였을 시 반려동물의 기분이 좋은 상태라면 "오늘 날씨는 외출하기 좋은 맑은 날씨입니다"라는 답변값이 표시되고, 반대로 반려동물의 기분이 좋지 않은 상태라면 "오늘 날씨는 맑지만, 외출하고 싶지 않아요"와 같이 답변값을 표시하게 된다. 즉, 동일한 주제를 가지는 답변값이더라도 반려동물의 상태에 따라 조금씩 문맥이나 어투가 달라지게 되는 것을 특징으로 한다.
본 발명의 일 실시예에 따른, 사용자 단말(100)은 챗봇을 구동하기 위해 사용자가 사용하는 단말을 뜻하게 된다.
이때, 사용자 단말(100)은 도 6a와 같은 채팅 인터페이스를 제공하여, 채팅값을 입력하거나, 그에 대한 답변값을 확인하게 된다.
따라서, 사용자 단말(100)은 사용자로부터 채팅값이 입력되면, IOT디바이스(200)로부터 음성 정보 및 활동량 정보를 수신하여 채팅값에 대응되는 답변값을 생성(혹은 검색)하여 디스플레이에 표시하게 된다.
또한, 사용자 단말(100)로 애완동물의 감정에 기반하여 챗봇을 제공하는 애플리케이션은 사용자 단말(100)에 내장된 애플리케이션이거나, 애플리케이션 배포 서버로부터 다운로드되어 사용자 단말(100)에 설치된 애플리케이션일 수 있다.
한편, 사용자 단말(100)은 유무선 통신 환경에서 단말 애플리케이션을 이용할 수 있는 통신 단말기를 의미한다. 여기서 사용자 단말(100)은 사용자의 휴대용 단말기일 수 있다. 도 1에서는 사용자 단말(100)이 휴대용 단말기의 일종인 스마트폰(smart phone)으로 도시되었지만, 본 발명의 사상은 이에 제한되지 아니하며, 상술한 바와 같이 단말 애플리케이션을 탑재할 수 있는 단말에 대해서 제한 없이 차용될 수 있다.
이를 더욱 상세히 설명하면, 사용자 단말(100)은 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다.
본 발명의 일 실시예에 따른, IOT디바이스(200)는 반려동물이 착용하여 반려동물의 울음소리나 행동을 측정하여 음성 정보 및 활동량 정보를 생성하고, 사용자 단말(100)로 전달하는 역할을 수행하게 된다.
이때, 음성 정보는 반려동물의 울음소리를 측정하여 생성되는 정보이기에, IOT디바이스(200)에는 마이크와 같은 모듈이 준비되어야 한다.
또한, IOT디바이스(200)는 통신 모듈이 구비되어, 사용자 단말(100)과의 데이터 송수신이 가능해야 한다.
한편, 도 1에서는 IOT디바이스(200)가 목줄의 형태로 도시되어있지만, 반려동물의 종이나 크기에 따라, 목 이외에도 IOT디바이스(200)를 장착할 수 있는 형태가 본 발명의 범위를 제한하지 않고 차용될 수 있다.
한편, 통신망은 IOT디바이스(200)가 사용자 단말(100)에 접속(이는 반대의 경우로 차용될 수 있다.)한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른, 사용자 단말(100)의 구성을 나타낸 도면이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 사용자 단말(100)은 통신 모듈(110), 메모리(120), 프로세서(130), 데이터베이스(140), 디스플레이 모듈(150), 변수 산출 모듈(160) 및 채팅 모듈(170)을 포함한다.
상세히, 통신 모듈(110)은 통신망과 연동하여 사용자 단말(100) 및 IOT디바이스(200) 간의 송수신 신호를 패킷 데이터 형태로 제공하는 데 필요한 통신 인터페이스를 제공한다. 나아가, 통신 모듈(110)은 IOT디바이스(200)로부터 데이터 요청을 수신하고, 이에 대한 응답으로서 데이터를 송신하는 역할을 수행할 수 있다.
여기서, 통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.
메모리(120)는 애완동물의 감정에 기반하여 챗봇이 동작되기 위한 프로그램이 기록된다. 또한, 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 여기서, 메모리(120)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
프로세서(130)는 일종의 중앙처리장치로서 애완동물의 감정에 기반하여 챗봇이 동작하는 전체 과정을 제어한다. 프로세서(130)가 수행하는 각 단계에 대해서는 도 3 내지 도 5를 참조하여 후술하기로 한다.
여기서, 프로세서(130)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
데이터베이스(140)는 기본적으로 채팅값에 대응되는 답변값을 저장하고, 반려동물의 음성 정보 및 활동량 정보에 따른 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 데이터가 저장된다.
또한, 선택적 실시예로 이전에 수행된 채팅과 답변에 대한 로그가 저장될 수 있다. 이때 저장된 로그는 이후 사용자가 입력한 채팅값과 IOT디바이스로부터 수신된 음성 정보 및 활동량 정보에 대응되는 답변값을 빠르게 찾기 위해 이용되거나, 답변값을 생성하는 알고리즘의 강화를 위해 이용될 수 있다.
비록 도 2에는 도시하지 아니하였으나, 채팅값에 대응되는 답변값, 반려동물의 음성 정보 및 활동량 정보에 따른 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 데이터 중 일부는 데이터베이스(140)와 물리적 또는 개념적으로 분리된 데이터베이스(미도시)에 저장될 수 있다. 즉, 선택적 실시예로 데이터베이스(140)가 생략되어, 외부 서버로부터 상기의 데이터를 수신하여 챗봇을 가동할 수 있다.
선택적 실시예로, 데이터베이스(140)에는 견종별/사이즈/연령별로 반려동물의 특정 상황에서의 행동, 운동, 활동량, 음성 및 수면 패턴 등을 나누어 텍스트 및 이미지로 저장하게 된다.
또한, 사용자로부터 반려동물의 동물 식별정보 및 동물 식별정보에 대응되는 IOT디바이스(200)의 식별정보 등을 별도로 저장하고, 특정 반려동물로부터 수신되는 데이터를 동물 식별정보에 매칭하여 저장함으로써, 빅데이틀 구성할 수 있다.
디스플레이 모듈(150)은 사용자 단말(100)에 구비되어 채팅 인터페이스를 포함하여 서비스를 시각적으로 제공하기 위한 모듈에 해당된다.
이때, 디스플레이 모듈(150)은 터치기반의 입출력 모듈을 겸할 수 있으나, 사용자 단말(100)에 별도의 입력장치가 구비되면 단순 디스플레이 기능만을 제공해도 무관하다.
변수 산출 모듈(160)은 IOT디바이스(200)로부터 수신된 음성 정보 및 활동량 정보에 기반하여, 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 모듈에 해당된다.
이때, 변수 산출 모듈(160)이 각각의 변수를 산출하는 방법은 후술할 도 4를 통해 설명하도록 한다.
채팅 모듈(170)은 사용자가 입력한 채팅값에 기반하여 답변값을 생성하기 위한 모듈에 해당된다.
이때, 채팅 모듈(170)은 변수 산출 모듈(160)이 생성한 복수의 변수에 기초하여, 반려동물의 상태에 맞는 답변값을 생성(검색)하여 디스플레이 모듈(150)을 통해 사용자에게 제공하게 된다.
이때, 채팅 모듈(170)이 답변값을 산출하는 방법은 후술할 도 5를 통해 설명하도록 한다.
도 3은 본 발명의 일 실시예에 따른, 반려동물의 감정에 기반하여 챗봇을 제공하는 방법을 나타낸 동작 흐름도이다.
도 3을 참조하면, 사용자 단말(100)은 사용자로부터 채팅값이 입력되면, IOT디바이스(200)로부터 음성 정보 및 활동량 정보를 수신한다(S110).
이때, 사용자 단말(100)은 단계(S110) 이전에 도 6a와 같은 채팅 인터페이스를 제공하게 된다.
이때, 채팅 인터페이스는 채팅의 내역이 올라오는 채팅 영역(511, 512)과 도면 상에 도시되지 않았지만 채팅값을 생성하기 위한 자판 영역으로 구성될 수 있다.
이때, 채팅 영역은 다시 사용자가 입력하는 채팅값이 표시되는 채팅값 영역(511)과 채팅값에 대한 답변값이 표시되는 답변값 영역(512)으로 나뉘게 된다.
또한, 채팅에 참석한 인원은 참여자 영역(513)을 통해 표시되되, 필요에 따라 사용자 단말(100)의 주인 이외에도 다른 사용자 단말(100)의 사용자가 참석하여 챗봇을 함께 이용할 수 있다.
한편, 도 6a를 통해 도시된 채팅 인터페이스는 종래에 서비스되는 SNS인 카카오톡과 유사한 형태로 구현되어 있으나, 사용자가 입력한 채팅값과 그에 대한 답변값을 사용자가 확인할 수 있다면 다양한 형태가 차용가능하기에 채팅 인터페이스의 디자인이 본 발명의 범위를 제한하지 않는다.
사용자 단말(100)은 음성 정보 및 활동량 정보에 기초하여 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출한다(S120).
이때, 선택적 실시예로 IOT디바이스(200)에 GPS 모듈이 구비되어 위치 정보가 생성되면, 사용자 단말(100)은 IOT디바이스(200)로부터 위치 정보를 더 수신하여 상황 변수를 보정하게 된다.
마지막으로 사용자 단말(100)은 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 조건으로 상기 채팅값에 대응되는 답변값을 검색하여, 검색이 완료된 상기 답변값을 출력한다(S130).
단계(S130) 이후 사용자 단말(100)은 사용자로부터 답변값에 대한 적합 여부를 수신하게 된다.
만약, 답변값이 채팅값에 적합하면 채팅값과 음성 정보 및 활동량 정보를 저장하여, 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 알고리즘을 보정하게 된다.
한편, 단계(S120) 이후 사용자 단말(100)은 단계(S110) 내지 단계(120)를 수행하는 과정에서 상황에 따라 반려동물이 느끼거나 행동하는 데이터를 누적시켜 빅데이터화하게 된다. 이때, 빅데이터에는 텍스트뿐만 아니라 이미지나 음성 파일이 더 포함될 수 있고, 답변값으로 이미지나 음성 파일 등이 제공될 수 있다.
추가 실시예로, IOT디바이스(200)에 스피커가 구비되는 경우 사용자 단말(100)이 사용자로부터 수신한 음성 데이터(사람의 말소리)를 IOT디바이스(200)의 스피커로 곧장 전달할 수 있다. 다른 추가 실시예로, 음성합성(TSS; text to speech) 기능이 사용자 단말(100)에 포함되는 경우 사용자가 입력한 채팅값을 주인의 음성(사용자)으로 변환하여 IOT디바이스(200)의 스피커를 통해 출력하고, 스피커에서 출력되는 음성에 대한 반려동물의 반응을 측정하여 음성 정보 및 활동량 정보를 생성할 수 있다.
다른 선택적 실시예로, 사용자가 기 설정한 시간에 IOT디바이스(200)가 반려동물로부터 센싱한 음성 정보 및 활동량 정보와 데이터베이스(140)에 기 구축된 빅데이터를 통해 분석된 감정과 활동량, 수면정보 등을 기반으로 반려동물의 대화 시나리오를 구성하고, 사용자가 반려동물과 대화하는 상황을 가상으로 구현할 수 있다. 즉, 특정 상황에 대한 시나리오를 가정하고, 반려동물로부터 센싱된 값이 특정 상황에 대한 시나리오와 부합되면, 채팅을 진행하는 형태로 구현될 수 있다. 또한, 해당 채팅에는 다른 반려동물의 주인 및 반려동물이 참여하여 함께 대화를 수행할 수 있다.
도 4는 본 발명의 일 실시예에 따른, 챗봇의 구동을 위한 변수를 산출하기 위한 과정을 나타낸 동작 흐름도이다.
도 4를 참조하면, 사용자 단말(100)은 음성 정보를 분석하여, 감정 기본 변수를 산출한다(S121).
이때, 사용자 단말(100)은 음성 정보를 분석하여 반려동물이 가질 수 있는 복수의 감정에 대한 점수를 나타내는 감정 기본 변수를 산출하게 된다.
이때, 복수의 감정은 적어도 안정, 불안, 분노, 슬픔 및 행복이 포함될 수 있고, 그 밖의 감정에 대한 변수를 추가로 산출하여 감정 기본 변수를 고도화 할 수 있다.
사용자 단말(100)은 활동량 정보에 기초하여, 상황 변수를 산출한다(S122).
이때, 사용자 단말(100)은 활동량 정보를 분석하여 반려동물이 현재 겪고 있는 상황에 대한 상황 정보를 산출하되, 상기 상황 정보는 반려동물의 인근에 대한 환경문맥값(Environmental context), 대화히스토리문맥값(Conversational history context) 및 신체적 문맥값(Physical context)을 각각 산출하게 된다.
먼저, 환경문맥값은 현재 반려동물을 둘러싼 상황에 대한 것으로, 예를 들어, 반려견의 활동량이 짧은 시간 내 급격히 많아진 경우 누구에게 쫓기는 상황인 것으로 인식한다던지, 반려견의 활동이 없는데 낮은 목소리로 경계하는 듯한 소리가 난다던지하는 경우, 제3자가 침입한 상황값인 것으로 인식할 수 있다.
다음으로 대화히스토리문맥값은 이전의 사용자와의 대화 히스토리를 기억하고 그에 따라 대화하는 것을 의미한다. 예를 들어, 챗봇이 2시에 배고프다고 말한 경우, 3시쯤되어서는 밥을 달라고 말할 수 있을 것이다.
마지막으로 신체적 문맥값은 반려동물의 건강 상태나 잠을 자고 있는지 여부에 관한 것이 될 수 있다. 예를 들어, 반려동물이 이유가 없이 돌아다니거나, 배변을 보거나, 어디에 부딪히는 등의 행동을 보일 경우 치매이거나 몸이 좋지 않은 것으로 판단하는 것과 같은 값을 의미한다.
또한, 선택적 실시예로 상황 정보를 산출하는 과정에서 이전에 기 진행된 채팅 로그를 적용하여 상황 정보를 보정을 수행할 수 있다.
마지막으로 사용자 단말(100)은 감정 기본 변수 및 상황 변수에 기초하여 행동 패턴 변수를 산출한다(S123).
이때, 사용자 단말(100)은 감정 기본 변수 및 상황 변수를 분석하여, 반려동물이 현재 수행하는 행동을 판단하여 상기 행동 패턴 변수를 산출하게 된다.
이때, 현재 수행하는 행동은 외향적인 행동, 소극적인 행동 및 공격적 행동을 포함하게 된다. 예를 들어, 외향적인 행동은 냄새맡기, 고개돌리기와 같은 친근한 행동을 뜻하고, 소극적인 행동은 반려동물이 의심, 경계, 불안함, 스트레스(귀세움,코핥기, 몸떨기 등) 등을 느낄 때 수행되는 행동을 뜻하며, 공격적인 행동은 반려동물이 상대를 협박하거나 분노를 표출하는 상태임을 뜻하게 된다.
추가 실시예로, 반려동물의 종, 나이, 건강상태 등의 개별적인 추가정보를 통해 상기의 변수들을 보정하게 된다. 이를 통해, 각각의 반려동물마다 커스터마이징 된 챗봇을 구현할 수 있게 된다.
도 5는 본 발명의 일 실시예에 따른, 사용자의 채팅값에 대응되는 답변값을 산출하는 과정을 나타낸 동작 흐름도이다.
도 5를 참조하면, 사용자 단말(100)은 상기 채팅값에 대응되는 답변 리스트를 생성한다(S131).
이때, 사용자 단말(100)은 채팅값을 구성하는 단어를 추출하여, 추출된 단어와 연관된 답변값을 검색하여 답변 리스트를 생성한다.
사용자 단말(100)은 감정 기본 변수, 상황 변수 및 행동 패턴 변수에 기초하여, 상기 답변 리스트에서 복수의 답변값을 분류한다(S132).
사전에, 답변값에는 감정 기본 변수, 상황 변수 및 행동 패턴 변수가 갖는 각각의 변수에 대응되는 값이 부여된 상태여야 한다.
마지막으로 사용자 단말(100)은 복수의 답변값에서 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수와 기 설정된 비교값 이상을 가지는 상기 답변값을 산출한다(S133).
이때, 사용자 단말(100)은 음성 정보 및 활동량 정보에 기초하여 산출된 감정 기본 변수, 상황 변수 및 행동 패턴 변수와 답변값이 갖는 변수를 비교하여 비교값을 산출하게 된다.
도 6a 내지 도 6e는 본 발명의 일 실시예에 따른, 챗봇와 연계되어 제공되는 부가 서비스 및 그에 대한 인터페이스 예시에 대한 도면이다.
삭제
먼저, 도 6b를 참조하면, 선택적 실시예로 제공될 수 있는 일기 인터페이스의 예시가 될 수 있다.
이때, 일기 인터페이스는 반려동물의 기분을 나타내는 기분 상태 영역(521), 반려동물의 사진을 나타내는 사진 영역(522), 사용자의 입력에 의해 생성되는 텍스트 일기 영역(523) 및 다른 사용자가 읽기를 읽고 후기를 작성할 수 있는 후기 영역(524)으로 구성될 수 있다.
이때, 반려동물의 기분을 나타내는 기분 상태 영역(521)은 기 설정된 아이콘의 형태로 제공될 수 있고, IOT디바이스(200)로부터 수신된 음성 정보 및 활동량 정보에 기초하여 산출된 감정 기본 변수를 통해 결정된다.
또한, 작성된 일기는 통신 모듈(110)을 통해 별도의 서버로 업로드 되거나, 사용자 단말(100)이 다른 사용자 단말(100)로 접속하는 방식으로 공유할 수도 있다.
도 6c를 참조하면, 선택적 실시예로 제공될 수 있는 친구 찾기 인터페이스의 예시가 될 수 있다.
이때, 친구 찾기 인터페이스는 반려동물의 친구를 찾길 원하는 사용자의 위치를 나타내는 지도 영역(531), 친구를 찾는 반려동물의 프로필 영역(532), 및 연락처를 교환하기 위한 버튼이 구비된 연락처 교환 영역(533)이 구비된다.
이때, 지도 영역(531)은 IOT디바이스(200)에 구비된 GPS모듈을 통해 생성되는 반려동물의 위치 정보를 통해, 현재 반려동물이 어디에 있는지 표시하게 된다.
도 6d를 참조하면, 선택적 실시예로 사용자에게 맞는 반려동물을 추천하기 위한 반려동물 추천 인터페이스의 예시가 될 수 있다.
이때, 반려동물 추천 인터페이스는 사용자를 검사하기 위한 검사 영역(541)과 검사 결과에 대응되는 반려동물의 정보를 나타내는 추천 영역(542)로 나뉠 수 있다.
이때, 검사 영역(541)을 통해 사용자에 대한 성향을 분석하고, 데이터베이스(140)에 기 저장된 반려동물의 종마다 갖는 평균적인 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 통해 반려동물을 추천하게 된다.
마지막으로 도 6e를 참조하면, 선택적 실시예로 반려동물과의 산책을 돕기 위한 산책 인터페이스의 예시가 될 수 있다.
이때, 산책 인터페이스는 지도를 통해 산책경로를 나타내는 경로 영역(551) 및 산책의 결과값을 산출하여 표시하는 산책 결과 영역(552)으로 구성된다.
이때, 경로 영역(551)에 표시되는 산책 경로는 반려동물의 운동능력에 기초하여 산출되고, 반려동물의 종, 크기, 나이 및 이전에 측정된 활동량 정보에 기초하여 산책의 결과로 얻을 수 있는 이득을 산책 결과 영역(552)에 표시하게 된다.
상기의 도면에는 포함되지 않았으나, 선택적 실시예로 위치 정보를 기반으로 반려동물과 함께 있는 인근 지역에서 함께 갈 수 있는 장소를 알려주는 기능이나, 반려동물의 정보에 기반하여 건강상태 및 식단을 추천하는 기능 혹은 반려동물에 대한 정보를 제공하는 커뮤니티 웹진의 기능 등이 제공될 수 있다.
그 밖에도, 다른 IOT기구(예를 들면, 자동으로 먹이를 주는 장치)와 연동되어, 상기의 IOT기구를 사용자 단말(100)을 통해 조작할 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 사용자 단말
200: IOT디바이스

Claims (15)

  1. 사용자 단말에 의해 수행되는, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법에 있어서,
    (a) IOT디바이스로부터 음성 정보 및 활동량 정보를 수신하고, 사용자로부터 채팅값을 입력받는 단계;
    (b) 상기 음성 정보 및 활동량 정보에 기초하여 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하는 단계; 및
    (c) 상기 채팅값을 구성하는 단어를 추출하여 상기 단어와 연관된 답변값을 통해 답변 리스트를 생성하고, 상기 답변 리스트에서 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 조건으로 상기 답변값을 출력하는 단계;
    를 포함하고, 상기 IOT디바이스는 마이크 및 행동감지센서가 구비되어, 상기IOT디바이스를 착용한 반려동물의 울음소리 및 행동을 감지하여 상기 음성 정보 및 활동량 정보를 생성하고,
    상기 (b) 단계는
    상기 활동량 정보에 기반하여 상기 상황 변수를 산출하되, 이전에 기 진행된 채팅 로그를 적용하여, 상기 상황 변수를 보정하고,
    상기 (b) 단계 이후
    상기 반려동물의 종, 나이, 건강상태를 포함하는 개별적인 추가정보를 통해 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 보정하고,
    상기 (c) 단계는
    상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수에 기초하여, 상기 답변 리스트에서 복수의 답변값을 분류하고, 상기 복수의 답변값에서 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수와 기 설정된 비교값 이상을 가지는 상기 답변값을 산출하되,
    상기 비교값은 상기 답변값에 부여된 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수가 갖는 각각의 변수에 대응되는 값과 상기 음성 정보 및 활동량 정보에 기초하여 산출된 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 비교하여 산출된 것이며,
    상기 (c) 단계 이후
    상기 사용자로부터 상기 답변값에 대한 적합 여부를 수신하고,
    상기 답변값이 상기 채팅값에 적합하면 상기 채팅값과 상기 음성 정보 및 활동량 정보를 저장하여, 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 알고리즘을 보정하는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  2. 제 1 항에 있어서,
    상기 (a) 단계 이전에
    사용자에게 텍스트를 입력하거나 표시하기 위한 채팅 인터페이스를 제공하고,
    상기 채팅 인터페이스는 채팅의 내역이 올라오는 채팅 영역과 상기 채팅값을 생성하는 자판 영역으로 구성되는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  3. 제 1 항에 있어서,
    상기 (b) 단계는
    (b1) 상기 음성 정보를 분석하여, 상기 감정 기본 변수를 산출하는 단계;
    (b2) 상기 활동량 정보에 기초하여, 상기 상황 변수를 산출하는 단계; 및
    (b3) 상가 감정 기본 변수 및 상황 변수에 기초하여 상기 행동 패턴 변수를 산출하는 단계;를 포함하는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  4. 제 3 항에 있어서,
    상기 (b1) 단계는
    상기 음성 정보를 분석하여 반려동물이 가질 수 있는 복수의 감정에 대한 점수를 나타내는 상기 감정 기본 변수를 산출하고, 상기 복수의 감정은 적어도 안정, 불안, 분노, 슬픔 및 행복을 포함하는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  5. 제 3 항에 있어서,
    상기 (b2) 단계는
    상기 상황 변수는 반려동물의 인근에 대한 환경문맥값(Environmental context), 대화히스토리문맥값(Conversational history context) 및 신체적 문맥값(Physical context)을 각각 산출하는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  6. 삭제
  7. 제 3 항에 있어서,
    상기 (b3) 단계는
    상기 감정 기본 변수 및 상황 변수를 분석하여, 반려동물이 현재 수행하는 행동을 판단하여 상기 행동 패턴 변수를 산출하되, 상기 현재 수행하는 행동은 외향적인 행동, 소극적인 행동 및 공격적 행동을 포함하는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제 1 항에 있어서,
    상기 IOT디바이스에 GPS모듈이 구비되어 위치 정보를 생성하고,
    상기 (b) 단계는
    상기 IOT디바이스로부터 상기 위치 정보를 더 수신하여 상기 상황 변수를 보정하는 것인, 애완동물의 감정에 기반하여 챗봇이 동작되는 방법.
  13. 마이크 및 행동감지센서가 구비되어, 착용한 반려동물의 울음소리 및 행동을 감지하여 음성 정보 및 활동량 정보를 생성하는 IOT디바이스; 및
    상기 IOT디바이스로부터 상기 음성 정보 및 활동량 정보를 수신하고 사용자로부터 채팅값이 입력되면, 상기 음성 정보 및 활동량 정보에 기초하여 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하고, 상기 채팅값을 구성하는 단어를 추출하여 상기 단어와 연관된 답변값을 통해 답변 리스트를 생성하고, 상기 답변 리스트에서 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 조건으로 상기 답변값을 출력하고, 상기 활동량 정보에 기반하여 상기 상황 변수를 산출하되, 이전에 기 진행된 채팅 로그를 적용하여, 상기 상황 변수를 보정하며, 상기 반려동물의 종, 나이, 건강상태를 포함하는 개별적인 추가정보를 통해 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 보정하고, 상기 답변값을 출력하는 과정은 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수에 기초하여, 상기 답변 리스트에서 복수의 답변값을 분류하고, 상기 복수의 답변값에서 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수와 기 설정된 비교값 이상을 가지는 상기 답변값을 산출하되, 상기 비교값은 상기 답변값에 부여된 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수가 갖는 각각의 변수에 대응되는 값과 상기 음성 정보 및 활동량 정보에 기초하여 산출된 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 비교하여 산출된 것이며, 상기 답변값을 출력한 이후 상기 사용자로부터 상기 답변값에 대한 적합 여부를 수신하고, 상기 답변값이 상기 채팅값에 적합하면 상기 채팅값과 상기 음성 정보 및 활동량 정보를 저장하여, 상기 감정 기본 변수, 상황 변수 및 행동 패턴 변수를 산출하기 위한 알고리즘을 보정하는 사용자 단말;을 포함하는 것인, 애완동물의 감정에 기반한 챗봇시스템.
  14. 제 13 항에 있어서,
    상기 IOT디바이스는 GPS모듈이 구비되어, 상기 사용자 단말로 위치 정보를 제공하고,
    상기 사용자 단말은 상기 위치 정보에 기초하여 기 상황 변수를 보정하는 것인, 애완동물의 감정에 기반한 챗봇시스템.
  15. 제 1 항에 의한 애완동물의 감정에 기반하여 챗봇이 동작되는 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 저장매체.
KR1020200156847A 2020-09-15 2020-11-20 반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘 KR102371438B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/459,018 US11854574B2 (en) 2020-09-15 2021-08-27 Interactive chatbot algorithm between human and companion animals through analysis of companion animal's emotions and states based on companion animal's voice and activity information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200118325 2020-09-15
KR1020200118325 2020-09-15

Publications (1)

Publication Number Publication Date
KR102371438B1 true KR102371438B1 (ko) 2022-03-08

Family

ID=80812371

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200156847A KR102371438B1 (ko) 2020-09-15 2020-11-20 반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘

Country Status (2)

Country Link
US (1) US11854574B2 (ko)
KR (1) KR102371438B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230127827A (ko) 2022-02-25 2023-09-01 주식회사 펌킨컴퍼니 애완동물의 상태 측정용 스마트 목줄 및 상태 측정 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120021606A (ko) * 2010-08-10 2012-03-09 삼성전자주식회사 객체간 또는 객체와 유저간에 정보 제공 방법, 그 방법을 수행할 수 있는 유저 디바이스, 및 저장 매체
KR20180096409A (ko) * 2017-02-21 2018-08-29 와우커뮤니케이션(주) 사물인터넷을 이용한 애완 동물 관리시스템
KR20190058086A (ko) * 2017-11-21 2019-05-29 디포커스 (주) 행복큐레이션 서비스 기반 문화 생활 추천 방법 및 시스템
KR20190120839A (ko) * 2018-04-13 2019-10-25 주식회사 센스코리아 반려식물 관리용 챗봇 시스템
KR102185469B1 (ko) * 2018-12-03 2020-12-02 정진해 인공지능을 이용한 반려동물 감성봇 장치 및 이를 이용한 교감 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ526298A (en) * 2001-08-06 2004-10-29 Index Corp Device and method for judging dog's feelings from cry vocal character analysis
US8838260B2 (en) * 2009-10-07 2014-09-16 Sony Corporation Animal-machine audio interaction system
KR102361152B1 (ko) * 2013-03-01 2022-02-09 클레버펫 엘엘씨 동물 인터랙션 장치, 시스템 및 방법
US10208975B2 (en) * 2015-10-01 2019-02-19 Plug and Play Robotics, LLC Smart pet-crate with interactive features

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120021606A (ko) * 2010-08-10 2012-03-09 삼성전자주식회사 객체간 또는 객체와 유저간에 정보 제공 방법, 그 방법을 수행할 수 있는 유저 디바이스, 및 저장 매체
KR20180096409A (ko) * 2017-02-21 2018-08-29 와우커뮤니케이션(주) 사물인터넷을 이용한 애완 동물 관리시스템
KR20190058086A (ko) * 2017-11-21 2019-05-29 디포커스 (주) 행복큐레이션 서비스 기반 문화 생활 추천 방법 및 시스템
KR20190120839A (ko) * 2018-04-13 2019-10-25 주식회사 센스코리아 반려식물 관리용 챗봇 시스템
KR102185469B1 (ko) * 2018-12-03 2020-12-02 정진해 인공지능을 이용한 반려동물 감성봇 장치 및 이를 이용한 교감 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230127827A (ko) 2022-02-25 2023-09-01 주식회사 펌킨컴퍼니 애완동물의 상태 측정용 스마트 목줄 및 상태 측정 시스템

Also Published As

Publication number Publication date
US11854574B2 (en) 2023-12-26
US20220165294A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
KR102363794B1 (ko) 정보 제공 방법 및 이를 지원하는 전자 장치
US20180110460A1 (en) Biometric customer service agent analysis systems and methods
KR102118585B1 (ko) 시니어 케어를 위한 스마트미러 챗봇 시스템 및 방법
US20130143185A1 (en) Determining user emotional state
KR102185469B1 (ko) 인공지능을 이용한 반려동물 감성봇 장치 및 이를 이용한 교감 방법
US20170161450A1 (en) Real-time veterinarian communication linkage for animal assessment and diagnosis
CN109313935B (zh) 信息处理系统、存储介质和信息处理方法
US10952680B2 (en) Electroencephalogram bioamplifier
JP2018027613A (ja) 接客装置、接客方法及び接客システム
KR20200076169A (ko) 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
US10978209B2 (en) Method of an interactive health status assessment and system thereof
KR20180054365A (ko) 제품의 판매 정보를 제공하는 방법 및 장치
US11763690B2 (en) Electronic apparatus and controlling method thereof
JP2017058406A (ja) コンピュータシステムおよびプログラム
JP2016146070A (ja) 情報処理装置、情報処理方法および情報処理システム
KR102371438B1 (ko) 반려동물 음성과 활동 정보를 기반으로 반려동물의 감정과 상태 분석을 통한 사람과 반려동물간 대화형 챗봇 알고리즘
KR20190023469A (ko) 영상 얼라인먼트 방법 및 그 장치
CN111191136A (zh) 一种信息推荐方法以及相关设备
WO2020112147A1 (en) Method of an interactive health status assessment and system thereof
KR20220065746A (ko) 치매 환자의 기록 데이터 가공 서비스를 지원하는 시스템
JP2019010004A (ja) 情報処理システム及びプログラム
KR102175490B1 (ko) 우울증 측정 방법 및 장치
US10758159B2 (en) Measuring somatic response to stimulus utilizing a mobile computing device
KR102270637B1 (ko) 보호자와의 상호작용에 기반한 반려동물 행동 분석 방법
KR101748411B1 (ko) 집단지성을 이용한 꿈 해몽 방법 및 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant