KR20190016365A - 애완동물과 사람 간 커뮤니케이션장치 - Google Patents

애완동물과 사람 간 커뮤니케이션장치 Download PDF

Info

Publication number
KR20190016365A
KR20190016365A KR1020170100512A KR20170100512A KR20190016365A KR 20190016365 A KR20190016365 A KR 20190016365A KR 1020170100512 A KR1020170100512 A KR 1020170100512A KR 20170100512 A KR20170100512 A KR 20170100512A KR 20190016365 A KR20190016365 A KR 20190016365A
Authority
KR
South Korea
Prior art keywords
word
information
matching
sampling
voice
Prior art date
Application number
KR1020170100512A
Other languages
English (en)
Inventor
전성남
조순학
Original Assignee
주식회사 창의산업
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 창의산업 filed Critical 주식회사 창의산업
Priority to KR1020170100512A priority Critical patent/KR20190016365A/ko
Publication of KR20190016365A publication Critical patent/KR20190016365A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Acoustics & Sound (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Zoology (AREA)
  • Multimedia (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Operations Research (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 애완동물과 사람 간 커뮤니케이션장치에 관한 것으로서 더욱 상세하게는 다수의 패턴화되어 저장된 애완동물의 소리를 통해 현재 입력되는 소리와 매칭시킴에 따라 애완동물의 소리를 사람의 언어로 출력하고 사람의 언어를 애완동물의 소리로 출력하도록 하여 애완동물과 사람 간 커뮤니케이션이 가능하도록 하는 커뮤니케이션장치에 관한 것이다.
이를 위해 본 발명은 애완동물 또는 사람의 음성정보를 입력받는 음성입력부와; 단어별 음성정보의 특성정보가 패턴화된 샘플링단어들이 저장되고, 해당 샘플링단어들과 의미가 동일한 것으로 매칭되는 매칭단어들 및 해당 매칭단어들과 언어, 존대여부, 성 또는 나이를 포함하는 연계분류기준에 따라 대응되는 연계단어들의 정보가 저장되는 매칭데이터베이스와; 상기 음성입력부를 통해 입력되는 음성정보의 특징점을 추출하여 매칭데이터베이스에 저장된 데이터와 비교함에 따라 이와 대응되는 샘플링단어, 매칭단어 및 연계단어의 정보를 추출하고 설정에 따라 출력할 출력단어를 결정하는 매칭제어부; 및 상기 매칭제어부에서 결정된 출력단어에 따라 이를 애완동물 또는 사람의 음성정보로 출력하는 음성출력부;를 포함하여 구성된다.

Description

애완동물과 사람 간 커뮤니케이션장치{Communication Apparatus between Pets and People}
본 발명은 애완동물과 사람 간 커뮤니케이션장치에 관한 것으로서 더욱 상세하게는 다수의 패턴화되어 저장된 애완동물의 소리를 통해 현재 입력되는 소리와 매칭시킴에 따라 애완동물의 소리를 사람의 언어로 출력하고 사람의 언어를 애완동물의 소리로 출력하도록 하여 애완동물과 사람 간 커뮤니케이션이 가능하도록 하는 커뮤니케이션장치에 관한 것이다.
세상에는 많은 소리가 존재한다. 아기울음 소리, 전화벨 소리, 도어벨 소리, 알람, 동물 소리 등 끊임없이 외부에서 만들어진 소리가 우리의 고막으로 흘러들어오고 있고, 타의든 자의든 우리는 소리를 자체적으로 만들어 내기도 한다.
소리를 이해하고 활용하는 것은 인간 삶의 시작에서부터 마지막까지 함께한다. 소리를 통한 소통이 어려워지면 세상과의 소통에 문제가 생기고 심하면 세상과 단절되거나 고립된다.
가깝게는 아기 울음소리를 이해하면서 아기가 원하는 욕구를 소통하고, 멀게는 전화 벨소리를 못 듣는 청각 장애자를 위해서 전화 벨소리를 사운드가 아닌 텍스트(Text)로 문자화하여 보여주면서 소통에서 소외되어 있는 사람들의 삶의 질을 높일 수 있다.
특히 이와 같은 소리를 통해 소통이 필요한 분야로서 애완동물과 소유자 간의 소통 요구가 대두되고 있는데, 요즘 애완동물 소유자는 본인의 애완동물에 대하여 더 많은 것들을 알고자 하며 이를 위해 애완동물과의 커뮤니케이션이 가장 중요한 이슈가 되고 있다.
따라서 애완동물 소유자는 애완동물의 행동을 관찰하거나, 애완동물의 음성을 듣고 통상적인 음성에 대응하는 행동을 보고 애완동물이 요구하는 사항에 대해 판단하는 정도의 방법이 애완동물과의 커뮤니케이션방법으로 사용되고 있다.
이에 따라 종래에는 동물의 음성을 분석하여 어떤 의미를 갖는지에 대한 연구와 논문이 많이 발표되고 있고, 일예로 해저탐사를 위한 돌고래의 음성에 대한 패턴을 분석하여 실생활에 활용 하려는 움직임이 다각도로 진행되고 있다. 정밀한 음성인식은 많은 기술이 필요하기 때문에 일반인들이 접하기엔 고가의 가격을 요구한다.
일반적으로 음성인식에 대한 보편화 되어있는 것 중 이동통신 단말기를 예로 들 수 있다. 종래의 음성인식기능을 구비한 이동통신 단말기는 사용자의 목소리를 인식한 후 이 정보를 이용하여 특정 기능을 수행하는 방식이었다.
즉 보편적인 어플리케이션으로는 사용자의 목소리를 미리 녹음한 후 이에 대한 전화번호를 입력하면 추후 사용자가 다시 목소리를 입력하면 녹음된 목소리 패턴중 가장 가까운 목소리에 해당하는 전화번호를 발신하는 기능이다.
이 기술은 인간의 음성인식에 초점을 맞추고 있어 애완동물과의 커뮤니케이션을 위한 음성인식에는 그 적용이 어려운 실정이다.
아울러 애완동물의 음성인식이 가능하다 하더라도 애완동물의 의사표현을 사람이 이해하는데 까지만 해당되므로 완전한 커뮤니케이션이나 상호작용 수단으로 보기에는 무리가 있다.
따라서 사람과 애완동물 간에 쌍방향 커뮤니케이션이 가능하도록 하는 장치의 제안이 요구된다.
한국 공개특허 제10-2015-0114310호(2015.10.12)
본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로서 다수의 패턴화되어 저장된 애완동물의 소리를 통해 현재 입력되는 소리와 매칭시킴에 따라 애완동물의 소리를 사람의 언어로 출력하고 사람의 언어를 애완동물의 소리로 출력하도록 하여 애완동물과 사람 간 커뮤니케이션이 가능하도록 하는 커뮤니케이션장치를 제공함에 그 목적이 있다.
본 발명은 상기의 목적을 달성하기 위해 아래와 같은 특징을 갖는다.
본 발명은 애완동물 또는 사람의 음성정보를 입력받는 음성입력부와; 단어별 음성정보의 특성정보가 패턴화된 샘플링단어들이 저장되고, 해당 샘플링단어들과 의미가 동일한 것으로 매칭되는 매칭단어들 및 해당 매칭단어들과 언어, 존대여부, 성 또는 나이를 포함하는 연계분류기준에 따라 대응되는 연계단어들의 정보가 저장되는 매칭데이터베이스와; 상기 음성입력부를 통해 입력되는 음성정보의 특징점을 추출하여 매칭데이터베이스에 저장된 데이터와 비교함에 따라 이와 대응되는 샘플링단어, 매칭단어 및 연계단어의 정보를 추출하고 설정에 따라 출력할 출력단어를 결정하는 매칭제어부; 및 상기 매칭제어부에서 결정된 출력단어에 따라 이를 애완동물 또는 사람의 음성정보로 출력하는 음성출력부;를 포함하여 구성된다.
여기서 상기 매칭제어부는 음성입력부로부터 입력되는 음성정보의 특징점을 추출하여 특성정보를 패턴화하는 단어특징추출부와, 상기 단어특징추출부로부터 추출된 특성정보를 통해 매칭데이터베이스에 저장된 샘플링단어정보를 비교하여 매칭 샘플링단어를 결정하는 샘플링단어결정부와, 상기 샘플링단어결정부를 통해 결정된 샘플링단어와 동일한 의미를 가지는 것으로 저장된 매칭단어를 결정하는 매칭단어결정부와, 상기 매칭단어결정부를 통해 결정된 매칭단어와 연계분류기준에 따라 대응되는 연계단어를 결정하는 연계단어결정부를 포함하여 이루어지되, 상기 연계단어결정부는 기설정된 설정정보에 따라 언어별, 존대별, 성별 또는 나이별 중 어느 하나 또는 이들의 조합으로 연계단어를 결정한다.
또한 상기 매칭데이터베이스는 단어별 음성정보의 특성정보가 패턴화된 샘플링단어정보들이 저장된 샘플링단어DB와, 상기 샘플링단어DB 내에 저장된 샘플링단어정보들과 동일한 의미를 가지는 것으로 정의되는 매칭단어정보들이 저장된 매칭단어DB와, 상기 매칭단어DB 내에 저장된 매칭단어정보와 언어별, 존대별, 성별 또는 나이별로 연계되는 연계단어정보들이 저장된 연계단어DB를 포함하여 이루어진다.
아울러 상기 음성입력부는 지향성 마이크이며, 상기 단어특징추출부는 음성입력부로부터 입력되는 음성정보에서 노이즈로 판단되는 음성신호 대역을 필터링하는 전처리부를 포함한다.
또한 상기 애완동물의 꼬리를 포함하는 신체 특정부분에 장착되어 해당 신체 특정부분의 동적움직임 패턴정보를 센싱하는 움직임센서가 더 포함되되, 상기 움직임센서는 가속도센서 또는 자이로센서 중 어느 하나 또는 이들의 조합으로 이루어지며, 움직임센서로부터 센싱되는 동적움직임 패턴정보가 상기 샘플링단어결정부로 전송된다.
아울러 상기 매칭데이터베이스의 샘플링단어DB에는 단어별 음성정보의 특성정보가 패턴화된 음성샘플링단어정보들이 저장된 음성샘플링단어DB와, 동적움직임 패턴정보들이 저장된 움직임샘플링단어DB로 이루어지며, 상기 샘플링단어결정부는 매칭 샘플링단어를 결정할 시에 상기 단어특징추출부로부터 추출된 특성정보와 움직임센서로부터 전달받은 동적움직임 패턴정보를 매칭데이터베이스의 샘플링단어DB에 저장된 음성샘플링단어정보들 및 움직임샘플링단어정보들과 함께 비교하여 결정하도록 이루어진다.
본 발명에 따르면 애완동물의 소리에 포함된 의사표현을 사람의 언어로 출력하고 사람의 소리에 포함된 의사표현을 애완동물의 소리로 출력함에 따라 애완동물과 사람 간에 커뮤니케이션 및 상호작용이 가능하도록 하는 효과가 있다.
아울러 설정에 따라 다양한 언어, 존대 여부, 성별 및 나이대를 선택하여 커뮤니케이션이 가능하도록 하여 다양한 관계에 범용적으로 적용될 수 있도록 하는 효과가 있다.
또한 애완동물의 특정 신체 부위에 움직임센서를 부착하여 동적움직임 패턴정보를 추출함에 따라 음성정보만으로 샘플링단어를 추출할 때 발생될 수 있는 오류를 보다 감소시켜 커뮤니케이션의 신뢰도를 향상시킬 수 있는 효과가 있다.
도 1은 본 발명의 일실시예에 따른 커뮤니케이션장치의 내부 구성을 나타내는 도면이다.
도 2는 본 발명의 다른 실시예에 따른 커뮤니케이션장치의 내부 구성을 나타내는 도면이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시예를 예시하고 이를 참조하여 살펴본다.
먼저, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 1은 본 발명의 일실시예에 따른 커뮤니케이션장치의 내부 구성을 나타내는 도면이다.
도면을 참조하면 본 발명의 일실시예에 따른 커뮤니케이션장치(100)는 크게 본 발명은 애완동물 또는 사람의 음성정보를 입력받는 음성입력부(10)와, 단어별 음성정보의 특성정보가 패턴화된 샘플링단어들이 저장되고, 해당 샘플링단어들과 의미가 동일한 것으로 매칭되는 매칭단어들 및 해당 매칭단어들과 언어, 존대여부, 성 또는 나이를 포함하는 연계분류기준에 따라 대응되는 연계단어들의 정보가 저장되는 매칭데이터베이스(20)와, 상기 음성입력부(10)를 통해 입력되는 음성정보의 특징점을 추출하여 매칭데이터베이스(20)에 저장된 데이터와 비교함에 따라 이와 대응되는 샘플링단어, 매칭단어 및 연계단어의 정보를 추출하고 설정에 따라 출력할 출력단어를 결정하는 매칭제어부(30) 및 상기 매칭제어부(30)에서 결정된 출력단어에 따라 이를 애완동물 또는 사람의 음성정보로 출력하는 음성출력부(40)로 이루어진다.
여기서 상기 음성입력부(10)는 애완동물 또는 사람의 음성정보를 입력받기 위해 구비되는 것으로 지향성 마이크인 것이 바람직하다.
물론 본 발명에 따른 커뮤니케이션장치(100)가 애완동물의 목에 팬던트 형태로 탑재되는 경우에는 상기 지향성 마이크가 전방측으로 향하도록 배치되어야 할 것이다.
또한 상기 매칭데이터베이스(20)는 후술할 매칭제어부(30)에서 샘플링단어, 매칭단어 및 연계단어의 추출하고 출력단어를 결정할 때 비교 및 판단의 자료가 되는 다양한 데이터가 저장되도록 구비되는데, 이러한 매칭데이터베이스(20)는 단어별 음성정보의 특성정보가 패턴화된 샘플링단어정보들이 저장된 샘플링단어DB(21)와, 상기 샘플링단어DB(21) 내에 저장된 샘플링단어정보들과 동일한 의미를 가지는 것으로 정의되는 매칭단어정보들이 저장된 매칭단어DB(22)와, 상기 매칭단어DB(22) 내에 저장된 매칭단어정보와 언어별, 존대별, 성별 또는 나이별로 연계되는 연계단어정보들이 저장된 연계단어DB(23)로 이루어진다.
여기서 샘플링단어DB(21)에 저장되는 샘플링단어로 예를 들면 아래 표 1에 기재된 바와 같이 '멍멍', '낑낑', '깨깽', '할딱할딱', '왕왕' 등의 형태가 되며, 이러한 샘플링단어들은 애완동물의 종류 및 세부적인 종에 따라 다양하게 구성될 수 있다.
본 발명에서는 문장 형태의 의사표현 인식시 발생될 수 있는 오해독을 최소화하기 위해 단어 형태의 의사표현을 인식하여 커뮤니케이션이 이루어지도록 구성한다.
상기 매칭단어DB(22)에 저장되는 매칭단어로는 샘플링단어가 '멍멍'일 경우 '안녕'이, '낑낑'일 경우 '똥마려'가, '깨갱'일 경우 '아프다'가 해당된다.
또한 상기 연계단어DB(23)에 저장되는 연계단어로는 샘플링단어가 '멍멍' 일 경우, 그 기준이 한국어, 반말, 남성, 어린이로 설정된 경우 '방가방가'가 해당되며, '낑낑'일 경우 '화장실 가자'가 이에 해당된다.
샘플링단어 매칭단어 연계단어(언어; 한국어, 반말, 남성, 어린이)
멍멍 안녕 방가방가
낑낑 똥마려 화장실 가자
깨갱 아프다 그만좀 해
할떡할떡 갈증나 물줘
왕왕 배고파 밥줘
연계단어DB(23)에는 다양한 연계분류기준에 따른 연계단어정보들어 저장되는데, 기설정된 연계분류기준에 따라 최종적으로 음성출력을 통해 출력할 출력단어가 선정되게 된다.
한편 상기 매칭제어부(30)는 상기 음성입력부(10)를 통해 입력되는 음성정보의 특징점을 추출하여 매칭데이터베이스(20)에 저장된 데이터와 비교함에 따라 이와 대응되는 샘플링단어, 매칭단어 및 연계단어의 정보를 추출하고 설정에 따라 출력할 출력단어를 결정하도록 구비된다.
이러한 매칭제어부(30)는 음성입력부(10)로부터 입력되는 음성정보의 특징점을 추출하여 특성정보를 패턴화하는 단어특징추출부(31)와, 상기 단어특징추출부(31)로부터 추출된 특성정보를 통해 매칭데이터베이스(20)에 저장된 샘플링단어정보를 비교하여 매칭 샘플링단어를 결정하는 샘플링단어결정부(32)와, 상기 샘플링단어결정부(32)를 통해 결정된 샘플링단어와 동일한 의미를 가지는 것으로 저장된 매칭단어결정부(33)와, 상기 매칭단어결정부(33)를 통해 결정된 매칭단어와 연계분류기준에 따라 대응되는 연계단어를 결정하는 연계단어결정부(34)로 구성된다.
상기 단어특징추출부(31)는 애완동물의 소리에서 특징점을 추출하여 그 특성정보를 패턴화하는데, 특징점 추출 단계 전에 음성입력부(10)로부터 입력되는 음성정보에서 노이즈로 판단되는 음성신호 대역을 필터링하는 전처리부(31a)가 구비됨이 바람직하다.
아울러 상기 샘플링단어결정부(32)는 단어특징추출부(31)로부터 추출된 특성정보와 유사한 것으로 판단(예; 80%이상이 일치)되는 샘플링단어가 샘플링단어DB(21)에 저장되어 있다면 해당 샘플링단어를 결정하면 되고, 만일 유사한 것으로 판단되는 샘플링단어가 저장되어 있지 않은 경우에는 '판독불가'에 해당되며, 이러한 '판독불가'의 메시지를 사용자에게 음성출력하거나 영상출력하도록 구성할 수 있다.
이와 같은 경우 샘플링단어가 결정될 수 있는 다른 음성정보가 입력될 때까지 계속적으로 단어특징추출부(31) 및 샘플링단어결정부(32)는 프로세싱이 이루어진다.
또한 상기 매칭단어결정부(33)는 샘플링단어결정부(32)에서 샘플링단어가 결정되어 전달되는 경우, 해당 샘플링단어의 의미에 해당하는 기본단어인 매칭단어를 매칭단어DB(22)를 통해 결정한다.
아울러 상기 연계단어결정부(34)는 기설정된 설정정보에 따라 상기 매칭단어결정부(33)로부터 전달받은 매칭단어의 언어별, 존대별, 성별 및 나이별 연계단어를 연계단어DB(23)를 통해 호출하여 최종 출력할 출력단어가 결정되게 된다.
본 발명에 따른 커뮤니케이션장치(100)에는 장치 외부에 키패드나 터치패드 등이 구비되어 이와 같은 언어별, 존대별, 성별 및 나이별 연계분류기준이 사용전 사용자로부터 입력되도록 구성될 수 있다.
아울러 설정시 상기 연계분류기준 설정 외에 애완동물의 음성정보를 입력받아 사람의 음성정보를 출력할 것인지, 이와 반대로 사람의 음성정보를 입력받아 애완동물의 음성정보로 출력할 것인지에 대한 프로세스 모드가 설정되도록 구성될 수 있다.
도 2는 본 발명의 다른 실시예에 따른 커뮤니케이션장치의 내부 구성을 나타내는 도면이다.
본 실시예에 따른 커뮤니케이션장치(100)는 또한 상기 애완동물의 꼬리를 포함하는 신체 특정부분에 장착되어 해당 신체 특정부분의 동적움직임 패턴정보를 센싱하는 움직임센서(50)가 포함된다.
여기서 상기 움직임센서(50)는 가속도센서 또는 자이로센서 중 어느 하나 또는 이들의 조합으로 이루어져, 움직임센서로부터 센싱되는 동적움직임 패턴정보가 상기 샘플링단어결정부(32)로 전송되게 되어 샘플링단어결정부(32)에서 샘플링단어를 결정할 때 동적움직임 패턴정보를 음성정보와 함께 비교하여 결정하게 된다.
이는 애완동물의 특성상 의사표현을 할 때 소리와 함께 꼬리나 귀 등으로 감정표현을 움직임으로도 표출하기 때문에 음성정보의 특성 패턴정보와 동적움직임 패턴정보를 함께 고려하여 판단한다면 보다 의사표현의 정확한 결정이 가능해진다.
이를 위해 상기 매칭데이터베이스(20)의 샘플링단어DB(21)에는 전술한 실시예와 달리 단어별 음성정보의 특성정보가 패턴화된 음성샘플링단어정보들이 저장된 음성샘플링단어DB(21a) 외에 동적움직임 패턴정보들이 저장된 움직임샘플링단어DB(21b)가 추가적으로 구성되며, 상기 샘플링단어결정부(32)는 매칭 샘플링단어를 결정할 시에 상기 단어특징추출부(31)로부터 추출된 특성정보와 움직임센서(50)로부터 전달받은 동적움직임 패턴정보를 매칭데이터베이스(20)의 샘플링단어DB(21)에 저장된 음성샘플링단어정보들 및 움직임샘플링단어정보들과 함께 비교하여 결정하도록 이루어진다.
이와 같이 본 발명은 도면에 도시된 일실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
10 : 음성입력부 20 : 매칭데이터베이스
30 : 매칭제어부 40 : 음성출력부
50 : 움직임센서 100 : 커뮤니케이션장치

Claims (6)

  1. 애완동물 또는 사람의 음성정보를 입력받는 음성입력부(10)와;
    단어별 음성정보의 특성정보가 패턴화된 샘플링단어들이 저장되고, 해당 샘플링단어들과 의미가 동일한 것으로 매칭되는 매칭단어들 및 해당 매칭단어들과 언어, 존대여부, 성 또는 나이를 포함하는 연계분류기준에 따라 대응되는 연계단어들의 정보가 저장되는 매칭데이터베이스(20)와;
    상기 음성입력부(10)를 통해 입력되는 음성정보의 특징점을 추출하여 매칭데이터베이스(20)에 저장된 데이터와 비교함에 따라 이와 대응되는 샘플링단어, 매칭단어 및 연계단어의 정보를 추출하고 설정에 따라 출력할 출력단어를 결정하는 매칭제어부(30); 및
    상기 매칭제어부(30)에서 결정된 출력단어에 따라 이를 애완동물 또는 사람의 음성정보로 출력하는 음성출력부(40);를 포함하여 구성되는 것을 특징으로 하는 애완동물과 사람 간 커뮤니케이션장치.
  2. 제1항에 있어서,
    상기 매칭제어부(30)는
    음성입력부(10)로부터 입력되는 음성정보의 특징점을 추출하여 특성정보를 패턴화하는 단어특징추출부(31)와,
    상기 단어특징추출부(31)로부터 추출된 특성정보를 통해 매칭데이터베이스(20)에 저장된 샘플링단어정보를 비교하여 매칭 샘플링단어를 결정하는 샘플링단어결정부(32)와,
    상기 샘플링단어결정부(32)를 통해 결정된 샘플링단어와 동일한 의미를 가지는 것으로 저장된 매칭단어를 결정하는 매칭단어결정부(33)와,
    상기 매칭단어결정부(33)를 통해 결정된 매칭단어와 연계분류기준에 따라 대응되는 연계단어를 결정하는 연계단어결정부(34)를 포함하여 이루어지되,
    상기 연계단어결정부(34)는
    기설정된 설정정보에 따라 언어별, 존대별, 성별 또는 나이별 중 어느 하나 또는 이들의 조합으로 연계단어를 결정하는 것을 특징으로 하는 애완동물과 사람 간 커뮤니케이션장치.
  3. 제2항에 있어서,
    상기 매칭데이터베이스(20)는
    단어별 음성정보의 특성정보가 패턴화된 샘플링단어정보들이 저장된 샘플링단어DB(21)와, 상기 샘플링단어DB(21) 내에 저장된 샘플링단어정보들과 동일한 의미를 가지는 것으로 정의되는 매칭단어정보들이 저장된 매칭단어DB(22)와, 상기 매칭단어DB(22) 내에 저장된 매칭단어정보와 언어별, 존대별, 성별 또는 나이별로 연계되는 연계단어정보들이 저장된 연계단어DB(23)를 포함하여 이루어지는 것을 특징으로 하는 애완동물과 사람 간 커뮤니케이션장치.
  4. 제2항에 있어서,
    상기 음성입력부(10)는 지향성 마이크이며, 상기 단어특징추출부(31)는 음성입력부(10)로부터 입력되는 음성정보에서 노이즈로 판단되는 음성신호 대역을 필터링하는 전처리부(31a)를 포함하는 것을 특징으로 하는 애완동물과 사람 간 커뮤니케이션장치.
  5. 제3항에 있어서,
    상기 애완동물의 꼬리를 포함하는 신체 특정부분에 장착되어 해당 신체 특정부분의 동적움직임 패턴정보를 센싱하는 움직임센서(50)가 더 포함되되,
    상기 움직임센서(50)는 가속도센서 또는 자이로센서 중 어느 하나 또는 이들의 조합으로 이루어지며, 움직임센서로부터 센싱되는 동적움직임 패턴정보가 상기 샘플링단어결정부(32)로 전송되는 것을 특징으로 하는 애완동물과 사람 간 커뮤니케이션장치.
  6. 제5항에 있어서,
    상기 매칭데이터베이스(20)의 샘플링단어DB(21)에는 단어별 음성정보의 특성정보가 패턴화된 음성샘플링단어정보들이 저장된 음성샘플링단어DB(21a)와, 동적움직임 패턴정보들이 저장된 움직임샘플링단어DB(21b)로 이루어지며, 상기 샘플링단어결정부(32)는 매칭 샘플링단어를 결정할 시에 상기 단어특징추출부(31)로부터 추출된 특성정보와 움직임센서(50)로부터 전달받은 동적움직임 패턴정보를 매칭데이터베이스(20)의 샘플링단어DB(21)에 저장된 음성샘플링단어정보들 및 움직임샘플링단어정보들과 함께 비교하여 결정하도록 이루어지는 것을 특징으로 하는 애완동물과 사람 간 커뮤니케이션장치.
KR1020170100512A 2017-08-08 2017-08-08 애완동물과 사람 간 커뮤니케이션장치 KR20190016365A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170100512A KR20190016365A (ko) 2017-08-08 2017-08-08 애완동물과 사람 간 커뮤니케이션장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170100512A KR20190016365A (ko) 2017-08-08 2017-08-08 애완동물과 사람 간 커뮤니케이션장치

Publications (1)

Publication Number Publication Date
KR20190016365A true KR20190016365A (ko) 2019-02-18

Family

ID=65561603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170100512A KR20190016365A (ko) 2017-08-08 2017-08-08 애완동물과 사람 간 커뮤니케이션장치

Country Status (1)

Country Link
KR (1) KR20190016365A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428769A (zh) * 2020-03-18 2020-07-17 周升志 一种软件设计宠物行为语言的人工智能翻译系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150114310A (ko) 2014-04-01 2015-10-12 백승연 동물움직임을 이용한 동물 통역 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150114310A (ko) 2014-04-01 2015-10-12 백승연 동물움직임을 이용한 동물 통역 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428769A (zh) * 2020-03-18 2020-07-17 周升志 一种软件设计宠物行为语言的人工智能翻译系统

Similar Documents

Publication Publication Date Title
US11785395B2 (en) Hearing aid with voice recognition
US11979716B2 (en) Selectively conditioning audio signals based on an audioprint of an object
US9769296B2 (en) Techniques for voice controlling bluetooth headset
KR102056330B1 (ko) 통역장치 및 그 방법
JP2009178783A (ja) コミュニケーションロボット及びその制御方法
Dhanjal et al. Tools and techniques of assistive technology for hearing impaired people
KR20190016365A (ko) 애완동물과 사람 간 커뮤니케이션장치
KR101846218B1 (ko) 근거리 무선 통신망을 기반으로 청각 장애인의 음성 대화를 지원하는 청각 장애인용 언어통역 보조장치, 음성합성서버, 음성인식서버, 알람 장치, 강연장 로컬 서버, 및 음성 통화 지원 어플리케이션
CN109922397A (zh) 音频智能处理方法、存储介质、智能终端及智能蓝牙耳机
KR102000282B1 (ko) 청각 기능 보조용 대화 지원 장치
KR102179220B1 (ko) 음성인식을 이용한 전자성경 시스템
KR102260466B1 (ko) 오디오 인식을 활용한 라이프로그 장치 및 그 방법
KR102023356B1 (ko) 웨어러블 수화통역장치
KR101906549B1 (ko) 청각 장애인을 위한 착용형 장치
JP3846500B2 (ja) 音声認識対話装置および音声認識対話処理方法
JP2000338986A (ja) 音声入力装置及びその制御方法及び記憶媒体
JP2007336395A (ja) 音声処理装置及び音声通信システム
JP2000184077A (ja) ドアホンシステム
KR20110094511A (ko) 원격 단말기를 통해서 애완견의 감정 전달 및 명령 전송 시스템 및 방법
US20180233146A1 (en) Voice Recognition Alert Notification Apparatus, System and Method
KR20240038532A (ko) 가창 모드 동작 방법 및 이를 수행하는 전자 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right