KR20210079479A - Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region - Google Patents

Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Download PDF

Info

Publication number
KR20210079479A
KR20210079479A KR1020190171102A KR20190171102A KR20210079479A KR 20210079479 A KR20210079479 A KR 20210079479A KR 1020190171102 A KR1020190171102 A KR 1020190171102A KR 20190171102 A KR20190171102 A KR 20190171102A KR 20210079479 A KR20210079479 A KR 20210079479A
Authority
KR
South Korea
Prior art keywords
pet
information
emotional state
data
expression
Prior art date
Application number
KR1020190171102A
Other languages
Korean (ko)
Inventor
김재형
권봉기
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020190171102A priority Critical patent/KR20210079479A/en
Publication of KR20210079479A publication Critical patent/KR20210079479A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/00362
    • G06K9/46
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

An object of the present invention is to automatically grasp various real-time information related to the current state of a pet. The present invention relates to a method for providing augmented reality by pet's emotional sate using an area around the pet. A method for enhancing the emotional state of a pet using a pet's peripheral region according to an embodiment of the present invention comprises: a first step of registering and storing virtual object matching information in an operation D/B; a second step of storing and managing audio data; a third step of recognizing pet expression recognition information; a fourth step of determining a pet emotion item; a fifth step of calculating a pet emotional state value; a sixth step of generating pet emotional state information; a seventh step of checking virtual object data; an eighth step corresponding to the pet emotional state information; and a ninth step of providing transmission data to an app of the wireless terminal of a user or an IPTV.

Description

애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법{Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region}Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region}

본 발명은 지정된 거점에 구비된 카메라장치를 통해 상기 거점 내의 특정 애완동물을 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말의 앱이나 IPTV로 제공 시 상기 카메라장치를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 애완동물에 대한 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 애완동물 안면 주변 영역에 상기 생성된 각 감정 항목 별 애완동물 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하여 제공하는 것이다.The present invention provides one or more data obtained through the camera device when transmitting data including video data of a specific pet in the base is provided to an app or IPTV of a designated user wireless terminal through a camera device provided at a designated base Based on the generation of pet emotional state information for each specified emotional item for the specific pet, and corresponding to the pet emotional state information for each of the generated emotional items in the area around the face of the pet on the video data of the transmission data, The virtual object data is superimposed and displayed so that the area around the pet's face is augmented to correspond to the pet emotional state information for each emotion item and provided.

종래에 카메라를 이용하여 지정된 장소에 있는 애완동물을 원격으로 관찰하는 장치가 제안된 바 있다(실용신안등록공고 제20-0208356호(2000년12월15일)). Conventionally, a device for remotely observing a pet in a designated place using a camera has been proposed (Utility Model Registration Publication No. 20-0208356 (December 15, 2000)).

한편 종래의 애완동물 관찰 장치는 단순히 애완동물을 촬영한 영상을 제공하는 기능만 제공하고 있어, 애완동물을 촬영한 영상 이외에 애완동물의 현재 상태와 관련된 각종 실시간 정보를 자동 파악하여 제공하기에는 기술적으로 난해한 문제점을 지니고 있다.On the other hand, the conventional pet observing device simply provides a function of providing an image of a photographed pet, so it is technically difficult to automatically identify and provide various real-time information related to the current state of the pet in addition to the image of the pet. has a problem.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 애완동물의 감정 상태를 판별하기 위해 인식하도록 지정된 인식 대상의 패턴 정보와 각 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 지정된 인식 대상의 패턴 정보와 각 애완동물 감정 항목 간 상관도를 수치화한 상관도 수치 관계정보를 포함하는 지정된 인식 대상 별 감정상태 판별 정보를 지정된 운영D/B에 등록 저장하고, 애완동물 안면 주변 영역을 애완동물의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 애완동물 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장한 후, 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 특정 애완동물을 촬영하여 획득된 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하고, 상기 획득 데이터에 포함된 적어도 하나의 데이터를 판독하여 애완동물의 감정을 판별하기 위한 지정된 인식 대상의 인식 정보를 인식하고, 지정된 인식 대상 별 감정상태 판별 정보를 근거로 상기 인식된 인식 정보와 기 설정된 기준 유사도 이상 매칭된 지정된 인식 대상의 패턴 정보를 확인하고 상기 확인된 패턴 정보와 매칭 관계를 지닌 하나 이상의 애완동물 감정 항목을 판별하고, 상기 인식 대상의 인식 정보와 패턴 정보 간 매칭 비율을 근거로 상기 패턴 정보와 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식 정보에 대응하는 하나 이상의 감정 항목 별 애완동물 감정 상태를 수치화한 감정 항목 별 애완동물 감정 상태 값을 산출하고, 상기 산출된 하나 이상의 애완동물 감정 상태 정보를 이용하여 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하고, 상기 가상객체 매칭 정보를 근거로 상기 생성된 각 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 가상객체 데이터를 확인하고 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하고, 상기 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법을 제공함에 있다.It is an object of the present invention to solve the above problems, matching relationship information between pattern information of a recognition target designated to be recognized to determine the emotional state of a pet, and each pet emotion item, and pattern information of the designated recognition target The emotional state identification information for each designated recognition target, including the numerical correlation information of the correlation between the and each pet emotional item, is registered and stored in the designated operation D/B, and the area around the face of the pet is stored as the emotional state Registers and stores R (R≥2) virtual object data for augmentation in response to the operation D/B, and collects virtual object matching information that matches pet emotional state information for each designated emotion item and one or more designated virtual object data. After registration and storage in the operation D/B, the acquired data including the video data obtained by photographing a specific pet in the base through the camera module of the camera device is received and stored in a specific storage area of a designated storage medium, Recognizes recognition information of a designated recognition target for determining the emotion of a pet by reading at least one data included in the acquired data, and based on the emotion state determination information for each designated recognition object, the recognized recognition information and preset Check the pattern information of the specified recognition target matched above the standard similarity, determine one or more pet emotion items having a matching relationship with the identified pattern information, and based on the matching ratio between the recognition information of the recognition target and the pattern information By reading the correlation numerical relationship between the pattern information and the pet emotion item, the pet emotion state value for each emotion item is calculated by digitizing the pet emotion state for each at least one emotion item corresponding to the recognition information, and the calculated one or more Generates pet emotional state information for each designated emotion item using the pet emotional state information, and checks virtual object data matching the pet emotional state information for each emotion item generated based on the virtual object matching information and superimposed on the area around the pet's face on the video data The application of the user wireless terminal to transmit data including video data augmented to correspond to the pet emotional state information for each emotional item, and to augment the area around the pet's face to correspond to the pet emotional state information for each emotional item Another object of the present invention is to provide a method for enhancing the emotional state of a pet using the area around the pet provided by the IPTV.

본 발명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법은, 사운드 입력부 및 카메라모듈을 구비하여 지정된 거점에 구비된 카메라장치와 통신하는 운영서버를 통해 실행되는 방법에 있어서, 애완동물의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 애완동물 표정 패턴 정보와 지정된 N(N≥2)개의 애완동물 감정 항목 중 애완동물 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 E개의 애완동물 표정 패턴 정보와 N1개의 애완동물 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 운영D/B에 등록 저장하고, 애완동물 안면 주변 영역을 애완동물의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 애완동물 감정 상태 정보를 하나 이상의 지정된 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하는 제1 단계와 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 특정 애완동물을 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 연계 저장 관리하는 제2 단계와 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 애완동물 표정 인식 정보를 인식하는 제3 단계와 상기 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 애완동물 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 애완동물 표정 패턴 정보를 확인하고 상기 e개의 애완동물 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 애완동물 감정 항목을 판별하는 제4 단계와 상기 인식된 i개의 애완동물 표정 인식 정보와 상기 e개의 애완동물 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 애완동물 표정 패턴 정보와 n1개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 애완동물 표정 인식 정보에 대응하는 n1개의 감정 항목 별 애완동물 감정 상태를 수치화한 n1개의 감정 항목 별 애완동물 감정 상태 값을 산출하는 제5 단계와 상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값을 이용하여 지정된 n(1≤n≤N)개의 감정 항목 별 애완동물 감정 상태 정보를 생성하는 제6 단계와 상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하는 제7 단계와 애완동물 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하는 제8 단계 및 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 제9 단계를 포함하는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using a region around the pet according to the present invention, the method is executed through an operation server that includes a sound input unit and a camera module and communicates with a camera device provided at a designated base. Among the F (F≥2) feature points existing in the facial region, E (E≥2) pet expression pattern information corresponding to the geometric relationship between the feature points related to the pet's emotional expression and designated N (N≥2) pets Among the animal emotion items, matching relationship information between N1 (1≤N1≤N) pet emotion items that can be distinguished based on pet expression patterns, and correlation between the E pet expression pattern information and N1 pet emotion items R (R ≥) to register and store expression-based emotional state identification information including numerical relationship information in the operation D/B, and to augment the area around the pet's face to correspond to the pet's emotional state. 2) First to register and store virtual object data in operation D/B, and register and store virtual object matching information that matches pet emotional state information for each specified emotion item with one or more specified virtual object data in operation D/B and receiving video data encoded in a designated manner by photographing a specific pet in the base through the camera module of the camera device and audio data encoded in a designated manner input through the sound input unit of the camera device, and receiving a designated storage medium The second step of linked storage and management in a specific storage area of , and reading the designated video data to recognize f (1≤f≤F) feature points for the facial region of a specific pet in the base, among the recognized f feature points A third step of recognizing i (i≥1) pet expression recognition information corresponding to the geometric relationship between feature points related to the emotional expression of the pet and the recognized i pets based on the expression-based emotional state determination information Check the facial expression recognition information and e (1≤e≤E) pet expression pattern information that is matched with or more than a preset standard similarity, and the e number of pet expression pattern information Based on the fourth step of determining n1 (1≤n1≤N1) pet emotion items having a matching relationship with the matching ratio between the recognized i pet expression recognition information and the e pet expression pattern information By reading the numerical relationship of correlation between the e pet expression pattern information and n1 pet emotion items, n1 pieces of n1 pet emotional states corresponding to the recognized i pet expression recognition information are numerically quantified. The fifth step of calculating the pet emotional state value for each emotion item and the pet emotional state information for each n (1≤n≤N) specified emotion item using the calculated pet emotional state value for each n1 emotion item A sixth step of generating and a seventh step of confirming r (1≤r≤R) virtual object data matching the pet emotional state information for each of the n emotion items generated based on the virtual object matching information; q (1≤q≤r) virtual object data that can be displayed overlapped in the area around the animal's face is displayed overlaid on the area around the pet's face on the video data, so that the area around the pet's face is expressed as a pet emotion for each of the n emotion items An eighth step of augmenting to correspond to the state information and a ninth step of providing transmission data including video data augmented to correspond to the pet emotional state information for each of the n emotion items to an app or IPTV of a user wireless terminal characterized in that

본 발명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 E개의 애완동물 표정 패턴 정보는, 애완동물의 감정표현과 연관된 각각의 애완동물 표정 패턴에 대응하는 각 특징점 간 기하학 관계의 범위 정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using the area around the pet according to the present invention, the E pieces of pet expression pattern information is a geometry between each feature point corresponding to each pet expression pattern related to the pet's emotional expression. It is characterized in that it includes information about the scope of the relationship.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 특징점 간 기하학 관계는, 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of the pet using the area around the pet according to the person, the geometric relationship between the feature points includes a distance relationship between each feature point, an angular relationship between each feature point, and a combination relationship of a distance relationship and an angular relationship between each feature point. It is characterized in that it comprises one or more relationships.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 표정 기반 상관도 수치 관계정보는, 애완동물의 표정을 인식한 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for augmenting the emotional state of a pet using the area around the pet according to the person, the expression-based correlation numerical relationship information includes: pet expression recognition information recognizing a pet's expression and pre-registered pet expression pattern information The correlation calculated through a relational expression proportional to the matching ratio between the two is also characterized in that it includes numerical information.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 표정 기반 상관도 수치 관계정보는, 애완동물의 표정을 인식한 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for augmenting the emotional state of a pet using the area around the pet according to the person, the expression-based correlation numerical relationship information includes: pet expression recognition information recognizing a pet's expression and pre-registered pet expression pattern information It is characterized in that the correlation between each matching ratio section includes numerical information.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제2 단계는, 상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the second step is to receive the moving picture data including the video data and the audio data from the camera device in a specific storage area of a designated storage medium. It is characterized in that it comprises the step of storage and management in the.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제2 단계는, 상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 각기 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the second step is to receive the video data and the audio data from the camera device, respectively, and store and manage them in a specific storage area of a designated storage medium. It is characterized in that it comprises a step.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제2 단계는, 상기 카메라장치로부터 수신된 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the second step is to synchronize the time of the video data and the audio data received from the camera device to a specific storage area of a designated storage medium. It characterized in that it further comprises the step of storing.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 송신 데이터는, 상기 저장매체의 특정 저장영역에 저장된 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the transmission data may further include audio data stored in a specific storage area of the storage medium.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 지정된 비디오 데이터는, 지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터, 지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the designated video data includes at least one of video data periodically selected for each designated playback time unit and video data periodically selected for each designated number of playback frames. It is characterized in that it comprises one piece of video data.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 지정된 사용자 무선단말의 앱이나 IPTV로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인하는 단계를 더 포함하며, 상기 제3 단계는, 지정된 사용자 무선단말의 앱이나 IPTV로 비디오 데이터를 포함하는 송신 데이터를 제공하는 경우에 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the step of checking whether transmission data including video data stored in a specific storage area of the storage medium is provided by an app or an IPTV of a designated user wireless terminal Further comprising, wherein the third step, when providing transmission data including video data to the app or IPTV of the specified user wireless terminal, reading the specified video data among the video data of the transmission data to a specific pet in the base Recognizing the f feature points for the facial region of the animal and recognizing the i pet expression recognition information corresponding to the geometric relationship between the feature points related to the emotional expression of the pet among the recognized f feature points do it with

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제3 단계는, 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식하는 단계를 포함하며, 상기 제6 단계는, 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보를 상기 비디오 데이터와 연계 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to the person, the third step is to read the specified video data from among the video data stored in the specific storage area of the specified storage medium, and Comprising the step of recognizing the f feature points for the facial region while recognizing the i pet expression recognition information corresponding to the geometric relationship between the feature points related to the emotional expression of the pet among the recognized f feature points, the sixth step is, characterized in that it further comprises the step of storing the pet emotional state information for each of the generated n emotion items in association with the video data.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제6 단계는, 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보를 상기 비디오 데이터의 지정된 재생 시점과 동기화하는 시간 값(또는 타임스탬프)과 연계하여 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using a region around the pet according to a person, the sixth step is a time for synchronizing the pet emotional state information for each of the n emotion items generated with a designated playback time point of the video data. and storing in association with the value (or timestamp).

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제1 단계는, 애완동물의 동물 소리 패턴 중 애완동물의 감정 표현과 연관된 C(C≥2)개의 동물 소리 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 동물 소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 C개의 동물 소리 패턴 정보와 N2개의 애완동물 감정 항목 간 상관도를 수치화한 동물 소리 기반 상관도 수치 관계정보를 포함하는 동물 소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장하는 단계를 더 포함하고, 상기 제3 단계는, 상기 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 애완동물에 대한 j(j≥1)개의 동물 소리 인식 정보를 인식하는 단계를 더 포함하며, 상기 제4 단계는, 상기 동물 소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 동물 소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 동물 소리 패턴 정보를 확인하고 상기 확인된 c개의 동물 소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 애완동물 감정 항목을 판별하는 단계를 더 포함하고, 상기 제5 단계는, 상기 인식된 j개의 동물 소리 인식 정보와 상기 c개의 동물 소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 동물 소리 패턴 정보와 n2개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 동물 소리 인식 정보에 대응하는 n2개의 감정 항목 별 애완동물 감정 상태를 수치화한 n2개의 감정 항목 별 애완동물 감정 상태 값을 산출하는 단계를 더 포함하며, 상기 제6 단계는, 상기 산출된 n2개의 감정 항목 별 애완동물 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using a region around the pet according to a person, the first step includes C (C≥2) animal sound pattern information related to the emotional expression of the pet among the animal sound patterns of the pet. and matching relationship information between N2 (1≤N2≤N) pet emotion items that can be distinguished based on animal sound patterns among the N designated pet emotion items, and the C animal sound pattern information and N2 pet emotion items Further comprising the step of registering and storing animal sound-based emotional state determination information including numerical relationship information based on animal sound-based correlations obtained by quantifying the degree of correlation between the two in operation D/B, wherein the third step is linked with the video data The method further includes the step of recognizing j (j≥1) animal sound recognition information for the specific pet by reading the audio data of a predetermined section, wherein the fourth step includes the animal sound-based emotional state determination information Based on the recognition information of the j recognized animal sounds, c (1≤c≤C) animal sound pattern information that is matched with or greater than a preset standard similarity is identified, and has a matching relationship with the identified c animal sound pattern information. The method further includes determining n2 (1≤n2≤N2) pet emotion items, wherein the fifth step is based on a matching ratio between the recognized j number of animal sound recognition information and the c number of animal sound pattern information. n2 emotions obtained by digitizing the pet emotional state for each n2 emotion items corresponding to the recognized j number of animal sound recognition information by reading the correlation numerical relationship between the c animal sound pattern information and n2 pet emotion items The method further includes calculating a pet emotional state value for each item, wherein the sixth step includes additionally using the calculated pet emotional state value for each of the n2 emotional items to provide pet emotional state information for each of the n emotion items specified. It is characterized in that it further comprises the step of generating.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 C개의 동물 소리 패턴 정보는, 애완동물의 감정표현과 연관된 각각의 동물 소리 패턴을 구성하는 동물 소리 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using the area around the pet according to the person, the C animal sound pattern information includes information on the range of animal sound features constituting each animal sound pattern related to the pet's emotional expression. It is characterized in that it comprises.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서,상기 동물 소리 특징은, 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using a region around the pet according to a person, the animal sound feature includes a frequency band feature, a frequency band feature arrangement relationship feature, a periodicity feature of a frequency band feature, a sound intensity feature, and a sound intensity At least one characteristic of an arrangement relational characteristic of a characteristic, a periodicity characteristic of a loudness characteristic, a combination characteristic of a frequency band characteristic and a loudness characteristic, an arrangement relation characteristic of a frequency band characteristic and a loudness characteristic, and a periodicity characteristic of a frequency band characteristic and a loudness characteristic It is characterized in that it comprises a.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 동물 소리 기반 상관도 수치 관계정보는, 애완동물의 동물 소리를 인식한 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using the area around the pet according to the person, the animal sound-based correlation numerical relationship information includes: animal sound recognition information recognizing an animal sound of a pet and previously registered animal sound pattern information The correlation calculated through a relational expression proportional to the matching ratio between the two is also characterized in that it includes numerical information.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 동물 소리 기반 상관도 수치 관계정보는, 애완동물의 동물 소리를 인식한 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using the area around the pet according to the person, the animal sound-based correlation numerical relationship information includes: animal sound recognition information recognizing an animal sound of a pet and previously registered animal sound pattern information It is characterized in that the correlation between each matching ratio section includes numerical information.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 제1 단계는, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 애완동물 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하는 단계를 더 포함하고, 상기 제2 단계는, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 더 포함하며, 상기 제3 단계는, 상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하는 단계를 더 포함하고, 상기 제4 단계는, 상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 애완동물 감정 항목을 판별하는 단계를 더 포함하며, 상기 제5 단계는, 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 애완동물 감정 상태를 수치화한 n3개의 감정 항목 별 애완동물 감정 상태 값을 산출하는 단계를 더 포함하고, 상기 제6 단계는, 상기 산출된 n3개의 감정 항목 별 애완동물 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the first step comprises: a designated designation related to the emotional expression of the pet among sensing data sensed through a sensor module provided in or linked to the camera device. N3 (1≤N3≤N) pets that can be distinguished based on S (S≥2) sensing value pattern information for the sensing data of the sensing target and the sensing value pattern of the specified sensing target among the N specified pet emotion items Sensing-based emotional state determination information including matching relationship information between emotion items and sensing-based correlation numerical relationship information that quantifies the correlation between the S sensed value pattern information and N3 pet emotion items to the operation D/B The method further includes registering and storing, wherein the second step is to receive sensing data sensed through a sensor module provided in or linked to the camera device and store and manage the data in a specific storage area of a designated storage medium in association with the video data. The third step is to read the sensing data associated with the video data, and k (k≥1) sensing values for the sensing data of the specified sensing target associated with the emotional expression of the specific pet. Further comprising the step of recognizing recognition information, wherein the fourth step, based on the sensing-based emotional state determination information, the recognition information of the k sensed values and matching s (1 ≤ s ≤ a preset reference similarity or more) Further comprising the step of checking S) pieces of sensing value pattern information and determining n3 (1≤n3≤N3) pet emotion items having a matching relationship with the identified s pieces of sensing value pattern information, the fifth step is, based on the matching ratio between the recognized k sensed value recognition information and the s sensed value pattern information, by reading the correlation numerical relationship between the s sensed value pattern information and n3 pet emotion items, the recognized Further comprising the step of calculating the pet emotional state value for each n3 emotion items that digitize the pet emotional state for each n3 emotion items corresponding to the k sensed value recognition information and, the sixth step may further include generating pet emotional state information for each of the n designated emotion items by additionally using the calculated pet emotional state values for each of the n3 emotion items.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서,상기 센서모듈은, 애완동물의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈, 지정된 전자파를 이용하여 애완동물의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the sensor module comprises: a wearable sensor module for sensing a designated sensing target by wearing it on the body of the pet; a pet using a designated electromagnetic wave and at least one sensor module among radar sensor modules for sensing a designated sensing target of an animal.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 센싱 대상은,애완동물의 심장박동, 애완동물의 체온, 애완동물 주변 습도, 애완동물의 무호흡 여부 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to the person, the sensing target includes at least one of a pet's heartbeat, a pet's body temperature, a pet's ambient humidity, and whether the pet is apnea It is characterized in that it is done.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 S개의 센싱 값 패턴 정보는, 애완동물의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the S sensed value pattern information configures each sensing value pattern for sensing data of a designated sensing target related to the pet's emotional expression It is characterized in that it comprises the range information of the sensing value characteristic.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 센싱 값 특징은, 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the sensed value feature includes: a change rule feature of a sensed value, a change amount feature of a sensed value, a sensed value change rate feature, and periodicity feature of a change in a sensed value It is characterized in that it comprises at least one or a combination of two or more.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서,상기 센싱 기반 상관도 수치 관계정보는, 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to a person, the sensing-based correlation numerical relationship information includes: sensing value recognition information recognized through sensing data of a specified sensing target and a pre-registered sensing value pattern The correlation calculated through a relational expression proportional to the matching ratio between information is also characterized in that it includes numerical information.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 센싱 기반 상관도 수치 관계정보는, 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using a region around the pet according to a person, the sensing-based correlation numerical relationship information includes: sensing value recognition information recognized through sensing data of a specified sensing target and a pre-registered sensing value pattern It is characterized in that the correlation between the information for each matching ratio section also includes numerical information.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보는, n개의 감정 항목 정보와 각 감정 항목 별 애완동물 감정 상태의 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for augmenting the emotional state of a pet using the area around the pet according to the person, the pet emotional state information for each n emotional items includes n emotional item information and numerical information of the pet emotional state for each emotional item. It is characterized in that it comprises.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 q개의 가상객체 데이터는, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하는 애완동물의 감정 상태를 표현하는 문장열을 애완동물 안면 주변 영역에 말풍선 형태로 표시하는 가상객체 데이터를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using a region around the pet according to a person, the q virtual object data is a sentence expressing the emotional state of the pet corresponding to the pet emotional state information for each of the n emotional items It is characterized in that it includes virtual object data that displays the column in the form of a speech bubble in the area around the pet's face.

명에 따른 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법에 있어서, 상기 비디오 데이터 상의 애완동물 안면의 지향 방향을 인식하는 단계를 더 포함하며, 상기 제8 단계는, 상기 애완동물 안면의 지향 방향에 대응하는 애완동물 안면 주변 영역에 상기 q개의 가상객체 데이터를 중첩 표시하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for enhancing the emotional state of a pet using an area around the pet according to the person, the method further comprising the step of recognizing an orientation direction of the pet's face on the video data, wherein the eighth step is the orientation of the pet's face and superimposing and displaying the q virtual object data on the area around the pet's face corresponding to the direction.

본 발명에 따르면, 지정된 거점에 구비된 카메라장치를 통해 상기 거점 내의 특정 애완동물을 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말의 앱이나 IPTV로 제공 시 상기 카메라장치를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 애완동물에 대한 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 애완동물 안면 주변 영역에 상기 생성된 각 감정 항목 별 애완동물 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하여 제공함으로써, 무선단말의 앱이나 IPTV를 통해 상기 송신 데이터를 시청하는 사용자는 상기 송신 데이터의 비디오 데이터에 대응하는 애완동물의 영상 화면을 보고 상기 송신 데이터의 오디오 데이터에 대응하는 애완동물의 소리를 듣는 것 이외에 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시되는 가상객체 데이터를 통해 애완동물의 현재 감정 상태를 직관적으로 실시간 파악할 수 있는 이점이 있다.According to the present invention, when transmitting data including video data of a specific pet in the base is provided to an app or IPTV of a designated user wireless terminal through a camera device provided at a designated base, one acquired through the camera device Based on the above data, pet emotional state information for each specified emotional item for the specific pet is generated, and pet emotional state information for each of the generated emotional items is generated in the area around the face of the pet on the video data of the transmission data. By superimposing corresponding virtual object data and providing the area around the pet's face to correspond to the pet emotional state information for each emotion item, the user watching the transmission data through the app or IPTV of the wireless terminal is the In addition to viewing the video screen of the pet corresponding to the video data of the transmission data and listening to the sound of the pet corresponding to the audio data of the transmission data, through the virtual object data superimposed on the area around the pet's face on the video data It has the advantage of intuitively real-time understanding of the pet's current emotional state.

도 1은 본 발명의 실시 방법에 따라 애완동물의 감정 상태를 증강하는 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 정보 저장/등록 과정을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따라 지정된 거점의 카메라장치(190)를 통해 획득한 획득 데이터를 전송하여 지정된 저장매체에 저장 관리하는 도시한 도면이다.
도 4는 본 발명의 제1 실시 방법에 따라 애완동물 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
도 5는 본 발명의 제2 실시 방법에 따라 애완동물 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
도 6은 본 발명의 제3 실시 방법에 따라 애완동물 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
1 is a diagram showing the configuration of a system for enhancing the emotional state of a pet according to an embodiment of the present invention.
2 is a diagram illustrating an information storage/registration process according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating storage and management of acquired data acquired through the camera device 190 of a designated base according to an embodiment of the present invention and stored in a designated storage medium.
4 is a diagram illustrating transmission data including video data augmented with a pet's emotional state according to the first embodiment of the present invention.
5 is a diagram illustrating transmission data including video data augmented with a pet emotional state according to a second embodiment of the present invention.
6 is a diagram illustrating transmission data including video data augmented with a pet's emotional state according to a third embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the principle of operation of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the following description are for preferred implementation methods among various methods for effectively explaining the features of the present invention, and the present invention is not limited only to the following drawings and description.

즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following embodiment corresponds to an embodiment of a preferred union type among numerous embodiments of the present invention, and an embodiment in which a specific configuration (or step) is omitted in the following embodiment, or a specific configuration (or step) An embodiment in which a function implemented in a function is divided into a specific configuration (or step), or an embodiment in which a function implemented in two or more configurations (or step) is integrated into any one configuration (or step), a specific configuration (or step) Embodiments in which the order of operation is replaced, and the like, are clearly stated to be within the scope of the present invention, even if not specifically mentioned in the following embodiments. Therefore, it is clearly specified that various embodiments corresponding to a subset or a complement can be divided retroactively from the filing date of the present invention based on the following examples.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, the definition should be made based on the content throughout the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following examples are one means for efficiently explaining the technical spirit of the present invention to those of ordinary skill in the art to which the present invention belongs. only

도면1은 본 발명의 실시 방법에 따라 애완동물의 감정 상태를 증강하는 시스템의 구성을 도시한 도면이다.1 is a diagram showing the configuration of a system for enhancing the emotional state of a pet according to an embodiment of the present invention.

보다 상세하게 본 도면1은 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 애완동물을 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공 시 상기 카메라장치(190)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 애완동물에 대한 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 애완동물 안면 주변 영역에 상기 생성된 각 감정 항목 별 애완동물 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하여 제공하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 시스템의 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 1 shows transmission data including video data of a specific pet in the base through the camera device 190 provided at the designated base. The app of the designated user's wireless terminal 180 or IPTV 185 When provided as , based on one or more data acquired through the camera device 190, pet emotional state information for each designated emotional item for the specific pet is generated, and the area around the pet's face on the video data of the transmission data By superimposing and displaying virtual object data corresponding to the pet emotional state information for each emotion item generated, the area around the face of the pet is augmented to correspond to the pet emotional state information for each of the n emotion items. A system for providing As showing the configuration, those of ordinary skill in the art to which the present invention pertains, refer to and/or modify this figure 1 and various implementation methods for the configuration of the system (eg, some components are omitted, or subdivided or combined implementation method), but the present invention is made including all the inferred implementation methods, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 1 .

본 발명의 시스템은, 지정된 거점에 구비되어 피사체를 찰영하고 통신망에 접속 가능한 카메라장치(190)와, 상기 카메라장치(190)의 카메라모듈을 통해 상기 거점 내의 특정 애완동물을 촬영하여 획득된 영상 신호를 지정된 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하는 기능, 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 기능, 상기 카메라장치(190)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 애완동물에 대한 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하는 기능, 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 상기 생성된 각 감정 항목 별 애완동물 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하는 기능 중 하나 이상의 기능을 수행하는 운영서버(100)를 포함하여 이루어진다. 상기 운영서버(100)는 독립된 서버 형태, 둘 이상의 서버 조합 형태, 기 구비된 서버를 통해 실행되는 소프트웨어 형태 중 적어도 하나 또는 둘 이상의 조합 형태로 구현될 수 있으며, 상기 운영서버(100)를 구현하는 실시예나 상기 운영서버(100)의 명칭에 의해 본 발명이 한정되지 아니한다.In the system of the present invention, a camera device 190 provided at a designated base to photograph a subject and connectable to a communication network, and a video signal obtained by photographing a specific pet in the base through the camera module of the camera device 190 A function of receiving acquired data including video data encoded in a specified manner and storing it in a specific storage area of a specified storage medium, transmits data including video data stored in a specific storage area of the storage medium to a specified user wireless terminal ( 180), a function provided by the IPTV 185, and a function of generating pet emotional state information for each specified emotional item for the specific pet based on one or more data acquired through the camera device 190 , by superimposing virtual object data corresponding to the pet emotional state information for each emotion item generated in the area around the face of the pet on the video data, and displaying the area around the face of the pet as the pet emotional state for each of the n emotion items. It is made to include an operation server 100 that performs one or more functions of the functions augmented to correspond to information. The operation server 100 may be implemented in the form of an independent server, a combination of two or more servers, and at least one or a combination of two or more of software executed through a pre-equipped server, and implementing the operation server 100 The present invention is not limited by the embodiment or the name of the operation server 100 .

상기 카메라장치(190)는 지정된 거점에 구비되어 피사체를 촬영하는 카메라를 구비한 단말이나 장치의 총칭으로서, 바람직하게 동물병원이나 펫카페 또는 가정집 등의 애완동물이 기거하는 공간에 구비되어 상기 공간에 존재하는 특정 애완동물을 촬영하는 카메라를 구비한 단말이나 장치를 포함할 수 있다. The camera device 190 is a generic term for a terminal or device provided at a designated base and equipped with a camera for photographing a subject. It may include a terminal or device having a camera for photographing a specific pet that exists.

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 거점 내의 지정된 피사체를 촬영하는 카메라모듈과, 지정된 통신망에 연결하는 통신모듈 및 상기 카메라모듈을 통해 획득된 영상 신호를 지정된 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행하는 제어모듈을 구비한다. According to the embodiment of the present invention, the camera device 190 encodes a video signal obtained through a camera module for photographing a designated subject in a base, a communication module connected to a designated communication network, and the camera module in a designated manner. and a control module for performing a procedure for generating acquired data including data and transmitting it to a designated operation server 100 through the communication module.

상기 카메라모듈은 피사체로부터 반사된 광신호를 입력받는 하나 이상의 렌즈부와, 상기 렌즈부를 통해 입력되는 광신호를 검지하여 전기적 영상 신호로 변환하는 이미지 센서부 및 상기 렌즈부와 이미지 센서부 사이에서 자동초점 기능이나 줌 기능 등을 포함하는 지정된 기능 동작을 구현하는 액츄에이터부(Actuator)를 포함하여 이루어진다. 한편 실시 방법에 따라 상기 카메라모듈은상기 렌즈부와 이미지 센서부 사이에는 야간에도 피사체를 촬영하기 위한 적외선 필터를 포함하는 이상의 필터부를 더 구비할 수 있다. 한편 상기 카메라모듈은 상기 이미지 센서부를 통해 생성된 영상 신호를 제어모듈로 제공하기 위한 PCB를 구비한다. 한편 실시 방법에 따라 상기 카메라모듈은 상기 이미지 센서부를 통해 생성된 영상 신호의 품질 향상을 위해 지정된 절차에 따라 상기 영상 신호를 가공하는 이미지 신호처리 프로세서(Image Signal Processor; ISP)를 더 구비할 수 있다.The camera module includes at least one lens unit receiving an optical signal reflected from a subject, an image sensor unit detecting an optical signal input through the lens unit and converting it into an electrical image signal, and automatically between the lens unit and the image sensor unit. It is made by including an actuator unit (Actuator) for implementing a specified function operation including a focus function or a zoom function. Meanwhile, according to an implementation method, the camera module may further include a filter unit including an infrared filter for photographing a subject even at night between the lens unit and the image sensor unit. Meanwhile, the camera module includes a PCB for providing the image signal generated through the image sensor unit to the control module. Meanwhile, according to an implementation method, the camera module may further include an image signal processing processor (ISP) that processes the image signal according to a specified procedure to improve the quality of the image signal generated through the image sensor unit. .

상기 통신모듈은 패킷 기반의 통신망에 연결하는 모듈의 총칭으로서, 바람직하게 UTP 케이블 등의 유선을 이용하여 통신망에 연결하는 통신모듈과 무선랜을 통해 통신망에 연결하는 통신모듈 중 적어도 하나 또는 둘을 모두 포함할 수 있다. 한편 실시 방법에 따라 상기 통신모듈은 무선랜 이외에 이동통신망이나 별도의 지정된 무선 통신을 통해 통신망에 연결하는 통신모듈을 더(또는 대체) 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The communication module is a generic term for modules connecting to a packet-based communication network, and preferably includes at least one or both of a communication module connecting to a communication network using a wire such as a UTP cable and a communication module connecting to a communication network through a wireless LAN. may include Meanwhile, depending on the implementation method, the communication module may further (or replace) a communication module for connecting to a communication network through a mobile communication network or a separately designated wireless communication in addition to the wireless LAN, and the present invention is not limited thereto.

상기 제어모듈은 상기 카메라모듈을 통해 생성된 영상 신호를 지정된 방식으로 엔코딩하여 비디오 데이터를 생성할 수 있다. 한편 실시 방법에 따라 상기 비디오 데이터는 상기 카메라모듈을 통해 생성되어 상기 제어모듈로 전달될 수 있다. 한편 상기 비디오 데이터는 상기 영상 신호를 촬영한 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. The control module may generate video data by encoding an image signal generated through the camera module in a specified manner. Meanwhile, according to an implementation method, the video data may be generated through the camera module and transmitted to the control module. Meanwhile, the video data may further include a time value (or timestamp) of a time point at which the image signal is captured.

상기 제어모듈은 상기 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 한편 실시 방법에 따라 상기 획득 데이터는 상기 비디오 데이터 이외에 오디오 데이터를 더 포함하거나 및/또는 지정된 센서모듈을 통해 센싱된 센싱 데이터를 더 포함할 수 있다. The control module may perform a procedure of generating the acquired data including the video data and transmitting it to the designated operation server 100 through the communication module. Meanwhile, according to an implementation method, the acquired data may further include audio data in addition to the video data and/or may further include sensing data sensed through a designated sensor module.

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 거점 내의 사운드 신호를 입력받는 사운드 입력부를 더 구비하며, 이 경우 상기 제어모듈은 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정된 방식으로 엔코딩한 오디오 데이터를 더 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다.According to the implementation method of the present invention, the camera device 190 further includes a sound input unit for receiving a sound signal in the base, and in this case, the control module encodes the sound signal obtained through the sound input unit in a specified manner. A procedure of generating acquired data further including audio data and transmitting it to a designated operation server 100 through the communication module may be performed.

상기 사운드 입력부는 공기의 진동을 전기적 신호 형태의 사운드 신호로 변환하는 마이크로폰 및 이를 제어모듈과 인터페이스하는 인터페이스부를 포함하여 구성되며, 상기 제어모듈은 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정된 지정된 방식으로 엔코딩하여 오디오 데이터를 생성할 수 있다. 한편 실시 방법에 따라 상기 사운드 입력부가 별도의 모듈 형태로 구현되는 겨우, 상기 오디오 데이터는 상기 사운드 입력부를 통해 카메라모듈을 통해 생성되어 상기 제어모듈로 전달될 수 있다. 한편 상기 오디오 데이터는 상기 사운드 신호를 입력받은 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. The sound input unit is configured to include a microphone that converts air vibration into a sound signal in the form of an electrical signal, and an interface unit for interfacing it with a control module, and the control module converts the sound signal obtained through the sound input unit into a designated and specified manner. It can be encoded to generate audio data. Meanwhile, when the sound input unit is implemented in the form of a separate module according to the implementation method, the audio data may be generated through the camera module through the sound input unit and transmitted to the control module. Meanwhile, the audio data may further include a time value (or timestamp) at the time when the sound signal is input.

상기 카메라장치(190)에 상기 사운드 입력부를 구비하여 상기 사운드 입력부를 통해 획득된 사운드 신호를 엔코딩한 오디오 데이터가 생성되는 경우, 상기 제어모듈은 상기 비디오 데이터와 오디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. When the camera device 190 is provided with the sound input unit to generate audio data obtained by encoding a sound signal obtained through the sound input unit, the control module generates acquired data including the video data and audio data, A procedure of transmitting to the designated operation server 100 through the communication module may be performed.

본 발명의 일 실시 방법에 따르면, 상기 획득 데이터는 상기 비디오 데이터와 오디오 데이터를 지정된 데이터 포맷에 포함하는 동영상 데이터(또는 멀티미디어 데이터) 형태로 생성될 수 있다.According to an embodiment of the present invention, the acquired data may be generated in the form of moving picture data (or multimedia data) including the video data and audio data in a specified data format.

본 발명의 다른 일 실시 방법에 따르면, 상기 획득 데이터는 상기 비디오 데이터와 오디오 데이터를 지정된 각각의 데이터 포맷에 포함하되, 상기 비디오 데이터와 오디오 데이터에 포함된 시간 값(또는 타임스탬프)를 통해 시점을 동기화 가능한 각각의 데이터 형태로 생성될 수 있다.According to another embodiment of the present invention, the acquired data includes the video data and the audio data in each designated data format, but the time value (or timestamp) included in the video data and audio data is used to determine the viewpoint. It can be created in each data type that can be synchronized.

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 지정된 사운드 신호를 지정된 신호 강도로 출력하는 사운드 출력부를 더 구비할 수 있으며, 이 경우 상기 제어모듈은 지정된 절차에 따라 상기 사운드 출력부를 통해 출력할 사운드 신호에 대응하는 오디오 데이터를 생성하거나 및/또는 지정된 저장영역으로부터 추출하거나 및/또는 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 사운드 출력부를 통해 출력할 사운드 신호에 대응하는 오디오 데이터를 수신하고, 상기 생성/추출/수신된 오디오 데이터에 대응하는 사운드 신호를 상기 사운드 출력부를 통해 출력하도록 처리하는 절차를 수행할 수 있다.According to the embodiment of the present invention, the camera device 190 may further include a sound output unit for outputting a specified sound signal with a specified signal strength. In this case, the control module outputs the sound signal through the sound output unit according to a specified procedure. Audio data corresponding to the sound signal to be output through the sound output unit from the operation server 100 designated through the communication module and/or to generate audio data corresponding to the sound signal to be generated and/or extracted from the designated storage area and/or through the communication module A process of receiving and outputting a sound signal corresponding to the generated/extracted/received audio data through the sound output unit may be performed.

상기 사운드 출력부는 오디오 데이터를 디코딩한 전기적 신호 형태의 사운드 신호를 출력하는 스피커 및 이를 제어모듈과 인터페이스하는 인터페이스부를 포함하여 구성되며, 상기 제어모듈은 상기 사운드 출력부를 통해 출력할 오디오 데이터를 생성하거나 및/또는 지정된 저장영역으로부터 추출하거나 및/또는 상기 통신모듈을 통해 지정된 운영서버(100)로부터 수신하고, 상기 사운드 출력부를 통해 상기 오디오 데이터에 대응하는 사운드 신호를 지정된 신호 강도(예컨대, 카메라장치(190)의 스피커를 통해 출력된 사운드 신호가 지정된 거리 내외로 이격된 애완동물에게 지정된 소리 크기로 전달되도록 설정된 신호 강도)로 출력할 수 있다. The sound output unit is configured to include a speaker for outputting a sound signal in the form of an electrical signal obtained by decoding audio data and an interface unit for interfacing the same with a control module, wherein the control module generates audio data to be output through the sound output unit, and / or extracts from a specified storage area and / or receives from the specified operation server 100 through the communication module, and receives a sound signal corresponding to the audio data through the sound output unit with a specified signal strength (eg, the camera device 190) ), the sound signal output through the speaker can be output at a signal strength set to be delivered at a specified sound level to pets spaced apart within a specified distance).

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 지정된 센서를 통해 애완동물의 지정된 센싱 대상을 센싱하는 센서모듈을 구비하거나 연계될 수 있으며, 상기 제어모듈은 상기 센서모듈을 통해 센싱하여 획득된 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 더 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 바람직하게, 상기 센서모듈을 통해 센싱하는 애완동물의 지정된 센싱 대상은 애완동물의 심장박동, 애완동물의 체온, 애완동물 주변 습도, 애완동물의 무호흡 여부 중 적어도 하나를 포함할 수 있다.According to the implementation method of the present invention, the camera device 190 may be provided with or linked to a sensor module for sensing a specified sensing target of the pet through a specified sensor, and the control module is acquired by sensing through the sensor module. It is possible to perform a procedure of generating acquired data further including sensing data encoded in a designated manner by the detected sensing signal and transmitting it to the designated operation server 100 through the communication module. Preferably, the designated sensing target of the pet to be sensed through the sensor module may include at least one of the pet's heartbeat, the pet's body temperature, the pet's ambient humidity, and whether the pet is apnea.

상기 센서모듈은 애완동물의 신체 중 지정된 부위에 착용하여 애완동물의 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈을 포함할 수 있으며, 이 경우 상기 제어모듈은 지저된 근거리 통신(예컨대, 블루투스 등)을 통해 상기 웨어러블 센서모듈과 연계하여 상기 센서모듈을 통해 센싱된 센싱 값에 대응하는 센싱 신호를 수신하거나 또는 상기 센서모듈을 통해 상기 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 수신할 수 있다. The sensor module may include a wearable sensor module that is worn on a designated part of the pet's body to sense a designated sensing target of the pet, in this case, the control module is configured for short-distance communication (e.g., Bluetooth, etc.) ) in connection with the wearable sensor module to receive a sensing signal corresponding to a sensed value sensed through the sensor module or to receive sensing data obtained by encoding the sensing signal in a specified manner through the sensor module.

한편 상기 센서모듈은 지정된 전자파를 이용하여 애완동물의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈을 포함할 수 있으며, 이 경우 상기 제어모듈은 상기 레이더 센서모듈을 통해 싱된 센싱 값에 대응하는 센싱 신호를 확인하고 지정된 방식으로 엔코딩하여 센싱 데이터를 생성할 수 있다. 한편 상기 레이더 센서모듈은 상기 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 생성하여 상기 제어모듈로 제공할 수 있으며, 이 경우 상기 제어모듈은 상기 레이더 센서모듈로부터 상기 센싱 데이터를 제공받을 수 있다. On the other hand, the sensor module may include a radar (Radar) sensor module for sensing a designated sensing target of the pet using a designated electromagnetic wave, in this case, the control module is a sensing corresponding to the sensing value sensed through the radar sensor module Signals can be identified and encoded in a specified manner to generate sensed data. Meanwhile, the radar sensor module may generate sensing data encoded in a specified manner and provide the sensing data to the control module. In this case, the control module may receive the sensing data from the radar sensor module.

본 발명의 실시 방법에 따르면, 상기 센싱 데이터는 상기 센서모듈을 통해 지정된 센싱 대상을 센싱한 센싱 값을 포함하며, 바람직하게 상기 센서모듈을 통해 상기 센싱 값을 센싱한 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. According to the implementation method of the present invention, the sensed data includes a sensed value sensed by a sensing target designated through the sensor module, and preferably a time value (or timestamp) at the time when the sensed value is sensed through the sensor module. ) may be further included.

상기 카메라장치(190)에 상기 센서모듈을 구비하거나 연계시켜 애완동물의 지정된 센싱 대상을 센싱한 센싱 데이터가 생성되는 경우, 상기 제어모듈은 상기 획득 데이터에 상기 센싱 데이터를 추가하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 바람직하게, 상기 센싱 데이터는 지정된 데이터 포맷에 포함된 형태로 상기 획득 데이터에 포함될 수 있으며, 상기 비디오 데이터와 센싱 데이터에 포함된 시간 값(또는 타임스탬프)를 통해 시점을 동기화 가능한 데이터 형태로 생성될 수 있다.When sensing data for sensing a designated sensing target of a pet is generated by providing or linking the sensor module to the camera device 190, the control module adds the sensing data to the acquired data through the communication module It is possible to perform a procedure for transmitting to the designated operation server (100). Preferably, the sensing data may be included in the acquired data in a form included in a specified data format, and a time value (or timestamp) included in the video data and the sensing data may be generated in a data format capable of synchronizing a viewpoint. can

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 상기 카메라모듈의 촬영 방향을 상/하/좌/우 방향으로 지정된 각도 범위 내로 구동하는 구동모듈을 더 구비하며, 상기 제어모듈은 상기 카메라모듈을 통해 촬영되는 비디오 데이터를 판독하여 애완동물(또는 애완동물의 안면)에 대응하거나 애완동물이 누워 있는 패드에 대응하는 객체를 인식하는 과정을 시도할 수 있다. 만약 상기 객체가 인식되지 않는 경우, 상기 제어모듈은 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체가 인식하는 과정을 전 각도 범위에 도달할 때까지 반복할 수 있다. 만약 상기의 인식 과정을 통해 상기 객체가 인식되면, 상기 카메라장치(190)는 상기 인식된 애완동물의 안면 영역을 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 촬영방향을 제어하고, 상기 애완동물의 안면 영역의 움직임이나 이동에 반응하여 상기 애완동물의 안면 영역을 추적하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어할 수 있다. 한편 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 제어하거나 상기 객체를 인식하는 과정은 상기 서버를 통해 실행될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the camera device 190 further includes a driving module for driving the photographing direction of the camera module within a specified angular range in up/down/left/right directions, and the control module includes the camera A process of recognizing an object corresponding to the pet (or the pet's face) or the pad on which the pet is lying may be attempted by reading the video data captured through the module. If the object is not recognized, the control module repeats the process of recognizing the object while the shooting direction of the camera module is spaced apart by a specified angular range in a specified direction through the driving module until the entire angular range is reached can do. If the object is recognized through the recognition process, the camera device 190 controls the shooting direction so that the recognized facial region of the pet exists within a designated region on the video data, and the facial region of the pet It is possible to control the photographing direction of the camera module so as to be present within a designated area on the video data by tracking the facial area of the pet in response to the movement or movement of the pet. Meanwhile, the process of controlling the shooting direction of the camera module or recognizing the object through the driving module may be executed through the server, and the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 램프를 통해 지정된 형상이나 영상을 천정이나 벽면에 투영하는 프로젝터부를 더 구비할 수 있으며, 이 경우 상기 제어모듈은 지정된 절차에 따라 상기 프로젝터부의 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 프로젝터부의 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 프로젝터부의 램프를 온/오프 처리할 수 있다. 한편 상기 프로젝터부를 통해 복수의 필름 중 어느 한 필름으로 선택하여 투영할 형상이나 영상을 선택 가능한 경우, 상기 제어모듈은 지정된 절차에 따라 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리할 수 있다. 한편 상기 프로젝터부를 통해 전자적 형상이나 전자적 영상을 투영 가능한 경우, 상기 제어모듈은 지정된 절차에 따라 지정된 저장영역에 저장된 전자적 형상이나 전자적 영상을 추출하여 상기 프로젝터부를 통해 투영할 형상이나 영상으로 처리하거나 및/또는 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 저장된 전자적 형상이나 전자적 영상을 및/또는 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 수신된 전자적 형상이나 전자적 영상을 상기 프로젝터부를 통해 투영할 형상이나 영상으로 처리하거나 및/또는 램프를 온/오프 처리할 수 있다. According to the implementation method of the present invention, the camera device 190 may further include a projector unit for projecting a specified shape or image through a lamp on the ceiling or wall, in this case, the control module is the projector unit The lamp may be turned on/off, or the control module may receive control information for turning on/off the lamp of the projector unit from the designated operation server 100 through the communication module, and transmit the control information. Based on this, it is possible to turn on/off the lamp of the projector unit. On the other hand, when a shape or image to be projected by selecting any one of a plurality of films through the projector unit can be selected, the control module selects a film of the projector unit and/or turns on/off the lamp according to a specified procedure. Alternatively, the control module may receive control information for selecting the film of the projector unit and/or turning on/off the lamp from the designated operation server 100 through the communication module, and receiving the control information It is possible to select a film of the projector unit and/or to turn on/off the lamp on the basis. On the other hand, if it is possible to project an electronic shape or an electronic image through the projector unit, the control module extracts the electronic shape or electronic image stored in a designated storage area according to a specified procedure and processes it as a shape or image to be projected through the projector unit, and / Alternatively, the lamp may be turned on/off, or the control module receives the electronic shape or electronic image stored from the designated operation server 100 through the communication module and/or control information for turning the lamp on/off and may process the received electronic shape or electronic image as a shape or image to be projected through the projector unit and/or turn on/off the lamp based on the control information.

상기 사용자 무선단말(180)은 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 사용자가 사용하는 무선통신기기의 총칭으로서, 사용자가 사용하는 휴대폰, 스마트폰, 태블릿PC 등의 각종 무선통신기기를 포함할 수 있다. The user wireless terminal 180 is a generic term for a wireless communication device used by a user to receive transmission data including video data captured through the camera device 190, and is a mobile phone, a smartphone, and a tablet PC used by the user. It may include various wireless communication devices, such as.

본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(180)은 운영서버(100)에 지정된 정보를 등록하고, 상기 운영서버(100)로부터 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받기 위해 앱(Application)이 설치 실행된다. 이하, 별도의 언급이 없더라도 상기 사용자 무선단말(180)을 주체 또는 객체로 하여 구현되는 기능의 설명은 상기 앱을 통해 구현되는 기능임을 밝혀두는 바이다.According to the embodiment of the present invention, the user wireless terminal 180 registers information specified in the operation server 100, and includes video data captured from the operation server 100 through the camera device 190 An application is installed and executed to receive transmission data. Hereinafter, even if there is no separate mention, the description of the function implemented by using the user wireless terminal 180 as a subject or object is to clarify that the function is implemented through the app.

상기 운영서버(100)는 지정된 거점에 구비된 카메라장치(190)와 통신하고 지정된 앱을 설치 실행한 사용자 무선단말(180)의 앱과 통신 가능한 서버의 총칭으로서, 상기 카메라장치(190)의 카메라모듈을 통해 상기 거점 내의 특정 애완동물을 촬영하여 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하는 기능, 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 기능 중 적어도 하나의 기능을 수행하며, 본 발명에 따라 상기 카메라장치(190)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 애완동물에 대한 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하는 기능과, 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 상기 생성된 각 감정 항목 별 애완동물 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하는 기능 중 적어도 하나의 기능을 수행한다.The operation server 100 is a generic name of a server capable of communicating with the camera device 190 provided at the designated base and communicating with the app of the user wireless terminal 180 that has installed and executed the designated app, and is the camera of the camera device 190 . A function of photographing a specific pet in the base through a module, receiving acquired data including video data encoded in a specified manner and storing it in a specific storage area of a specified storage medium, video data stored in a specific storage area of the storage medium At least one of the functions of providing transmission data including to the app of the designated user wireless terminal 180 or the IPTV 185, and one or more data acquired through the camera device 190 according to the present invention A function of generating pet emotional state information for each specified emotional item for the specific pet based on At least one of the functions of augmenting the area around the pet's face to correspond to the pet's emotional state information for each of the n emotion items by superimposing and displaying virtual object data is performed.

본 발명의 실시 방법에 따르면, 상기 송신 데이터는 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터 외에, 상기 비디오 데이터와 연계되어 상기 저장매체의 특정 저장영역에 저장된 오디오 데이터, 또는 상기 비디오 데이터를 포함하는 동영상 데이터의 오디오 데이터를 더 포함할 수 있다.According to an embodiment of the present invention, the transmission data includes, in addition to video data stored in a specific storage area of the storage medium, audio data stored in a specific storage area of the storage medium in association with the video data, or the video data It may further include audio data of video data.

도면1을 참조하면, 상기 운영서버(100)는, 애완동물의 감정 상태를 판별하기 위해 인식하도록 지정된 인식 대상의 패턴 정보와 각 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 지정된 인식 대상의 패턴 정보와 각 애완동물 감정 항목 간 상관도를 수치화한 상관도 수치 관계정보를 포함하는 지정된 인식 대상 별 감정상태 판별 정보를 지정된 운영D/B에 등록 저장하여 관리하는 정보 관리부(105)를 포함한다. Referring to Figure 1, the operation server 100, the pattern information of the recognition target designated to be recognized to determine the emotional state of the pet, matching relationship information between each pet emotion item, and pattern information of the designated recognition target and an information management unit 105 that registers, stores, and manages emotional state determination information for each designated recognition target, including numerical correlation information obtained by quantifying the degree of correlation between each pet emotion item, in a designated operation D/B.

상기 정보 관리부(105)는 애완동물의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 애완동물 표정 패턴 정보와 지정된 N(N≥2)개의 애완동물 감정 항목 중 애완동물 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보를 포함하고 상기 E개의 애완동물 표정 패턴 정보와 N1개의 애완동물 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장한다. The information management unit 105 includes E (E≥2) pet expression pattern information corresponding to the geometric relationship between the feature points related to the emotional expression of the pet among F (F≥2) feature points existing in the facial region of the pet. and matching relationship information between N1 (1≤N1≤N) pet emotion items that can be distinguished based on a pet expression pattern among the specified N (N≥2) pet emotion items, and the E pet expression items Expression-based correlation, which quantifies the correlation between pattern information and N1 pet emotional items, is registered and stored in the designated operation D/B.

본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 애완동물의 안면 영역에 존재하는 F개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E개의 애완동물 표정 패턴 정보를 등록받고, 상기 E개의 애완동물 표정 패턴 정보를 지정된 N개의 애완동물 감정 항목 중 애완동물 표정 패턴을 근거로 구별 가능한 N1개의 애완동물 감정 항목과 매칭하는 매칭 관계정보를 등록받고, 상기 E개의 애완동물 표정 패턴 정보와 N1개의 애완동물 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 상기 E개의 애완동물 표정 패턴 정보와 N1개의 애완동물 감정 항목을 행 또는 열의 타이틀로 포함하며 상기 표정 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀(Cell)의 정보로 포함하는 테이블 형태의 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 corresponds to the geometric relationship between the characteristic points related to the emotional expression of the pet among the F characteristic points existing in the facial region of the pet from the designated operating terminal E facial expressions of the pet. Receive pattern information registration, and receive matching relationship information matching the E pet expression pattern information with N1 pet emotion items that can be distinguished based on a pet expression pattern among the designated N pet emotion items, and the E It is possible to register and store the facial expression-based correlation numerical relation information obtained by quantifying the correlation between the pet expression pattern information and the N1 pet emotion items of dogs, and register and store the information in the designated operation D/B. For example, the information management unit 105 includes the E pieces of pet expression pattern information and N1 pieces of pet emotion items as row or column titles, and stores the expression-based correlation numerical relationship information into cells ( Cell) information can be registered and stored in the designated operation D/B for expression-based emotional state determination information in the form of a table.

본 발명의 실시 방법에 따르면, 상기 N개의 애완동물 감정 항목은 '기쁨(喜)', '노여움(怒)', '슬픔(哀)', '즐거움(樂)', '사랑(愛)', '미움(惡)', '욕심(欲)' 등의 기본 감정 중에서 무리 생활하거나 보호자와 함께 생활하는 중에 느낄 수 있는 하나 이상의 감정(예컨대, '기쁨', '노여움', '슬픔', '즐거움' 등)에 대응하는 감정 항목을 포함할 수 있으며, 상기 기본 감정 외에 애완동물이 느낄 수 있다고 상정되는 다양한 감정(예컨대, '짜증', '외로움', '답답함', '불쾌', '두려움' 등)에 대한 감정 항목을 더 포함하거나 및/또는 상기 기본 감정 중 적어도 하나를 애완동물의 상황에 맞게 구체화한 감정(예컨대, '욕심' 중 수면욕에 해당하는 '졸림'이나 식욕에 해당하는 '배고픔' 등)에 대응하는 감정 항목을 더 포함할 수 있다. According to the embodiment of the present invention, the N pet emotion items are 'joy (喜)', 'anger (怒)', 'sad (哀)', 'pleasure (樂)', 'love (愛)' One or more of the basic emotions such as 'hate', 'greed', etc. (e.g., 'joy', 'anger', 'sad', ' It may include an emotion item corresponding to pleasure, etc.), and in addition to the basic emotion, various emotions assumed to be felt by the pet (eg, 'irritability', 'loneliness', 'stupid', 'discomfort', 'fear') ', etc.), and/or an emotion in which at least one of the basic emotions is embodied according to the pet's situation (eg, 'drowsiness' corresponding to sleep desire among 'greed' or ' corresponding to appetite) It may further include an emotion item corresponding to 'hunger', etc.).

본 발명의 일 실시 방법에 따르면, 상기 E개의 애완동물 표정 패턴 정보는 애완동물의 감정표현과 연관된 각각의 애완동물 표정 패턴에 대응하는 각 특징점 간 기하학 관계 정보를 포함할 수 있다. 바람직하게, 상기 특징점 간 기하학 관계는 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함할 수 있다. 예를들어, 상기 특징점 간 기하학 관계 정보는 지정된 기준 특징점 간 거리 수치를 기준으로 하는 각 특징점 간 거리 수치, 각 특징점 간 각도 수치, 각 특징점 간 거리 수치와 각도 수치의 조합 중 하나 이상의 수치를 포함할 수 있다. According to an embodiment of the present invention, the E pieces of pet expression pattern information may include geometric relationship information between each feature point corresponding to each pet expression pattern associated with the pet's emotional expression. Preferably, the geometric relationship between the feature points may include at least one of a distance relationship between each feature point, an angular relationship between each feature point, and a combination relationship between a distance relationship between each feature point and an angular relationship. For example, the geometric relationship information between the feature points may include at least one of a distance value between each feature point based on a specified reference feature point distance value, an angle value between each feature point, and a combination of a distance value between each feature point and an angle value. can

한편 본 발명의 다른 일 실시 방법에 따르면, 상기 E개의 애완동물 표정 패턴 정보는 애완동물의 감정표현과 연관된 각각의 애완동물 표정 패턴에 대응하는 각 특징점 간 기하학 관계의 범위 정보를 포함할 수 있다. 바람직하게, 상기 특징점 간 기하학 관계는 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함할 수 있다. 예를들어, 상기 특징점 간 기하학 관계의 범위 정보는 지정된 기준 특징점 간 거리 수치를 기준으로 하는 각 특징점 간 거리 수치 범위, 각 특징점 간 각도 수치 범위, 각 특징점 간 거리 수치 범위와 각도 수치 범위의 조합 중 하나 이상의 수치 범위를 포함할 수 있다. Meanwhile, according to another embodiment of the present invention, the E pieces of pet expression pattern information may include range information of a geometric relationship between each feature point corresponding to each pet expression pattern related to the emotional expression of the pet. Preferably, the geometric relationship between the feature points may include at least one of a distance relationship between each feature point, an angular relationship between each feature point, and a combination relationship between a distance relationship between each feature point and an angular relationship. For example, the range information of the geometric relationship between the feature points may include a numerical range of distances between feature points based on a numerical value of distances between specified reference feature points, a numerical range of angles between each feature, and a combination of a numerical range of distances between feature points and an angular numerical range It may include more than one numerical range.

본 발명의 일 실시 방법에 따르면, 상기 표정 기반 상관도 수치 관계정보는 애완동물의 표정을 인식한 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 표정 기반 상관도 수치 관계정보는 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an embodiment of the present invention, the expression-based correlation numerical relationship information is calculated through a relational expression proportional to the matching ratio between the pet expression recognition information that recognizes the pet's expression and the registered pet expression pattern information. The correlation may also include numerical information. For example, the facial expression-based correlation numerical relationship information may be calculated as smaller numerical information as the matching ratio between the pet expression recognition information and the registered pet expression pattern information is smaller, and the larger the matching ratio, the greater the numerical information can be calculated as

한편 본 발명의 다른 일 실시 방법에 따르면, 상기 표정 기반 상관도 수치 관계정보는 애완동물의 표정을 인식한 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 표정 기반 상관도 수치 관계정보는 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. Meanwhile, according to another embodiment of the present invention, the facial expression-based correlation numerical relationship information is a correlation diagram for each matching ratio section between the pet facial expression recognition information that recognizes the pet's facial expression and the registered pet facial expression pattern information. Numerical information may be included. For example, the facial expression-based correlation numerical relationship information may be calculated as '0' or numerical information of a specified minimum value when the matching ratio between the pet facial expression recognition information and the registered pet facial expression pattern information is a preset minimum ratio section. In addition, when the matching ratio is a preset maximum ratio section, it may be calculated as numerical information of a designated maximum value.

한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 표정 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(140)를 통해 지정된 애완동물 표정 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 애완동물 표정 인식 정보가 인식된 후에 상기 카메라장치(190)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 애완동물의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 애완동물의 보호자가 애완동물에게 발화하는 음성 중 애완동물 감정 인지와 관련된 음성(예컨대, '우리 xx 배고프구나', '우리 xx 똥 ?奐립?', '우리 xx 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 애완동물 표정 인식 정보가 인식된 후에 보호자의 애완동물 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 애완동물 표정 인식 정보를 패턴화함과 동시에 상기 애완동물 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 애완동물 감정 항목을 식별하고, 상기 인식된 애완동물 표정 인식 정보를 패턴화한 애완동물 표정 패턴 정보와 상기 식별된 음성 인식 기반의 애완동물 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 표정 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.On the other hand, according to the implementation method of the present invention, after the expression-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, the pet expression recognition information specified through the following information recognition unit 140 is recognized. In this case, the information management unit 105 reads the video data received from the camera device 190 and stored in a specific storage area of a designated storage medium after the pet expression recognition information is recognized to correspond to the pet's guardian. At the same time as an object is recognized, audio data associated with the video data is read, and among the voices uttered by the pet guardian to the pet, voices related to pet emotion recognition (eg, 'our xx hungry', 'our xx poop') ?奐lip?', 'We xx are sleepy', etc.) can be performed. If the voice related to the pet emotion recognition of the guardian is recognized after the pet expression recognition information is recognized, the information management unit 105 patterns the recognized pet expression recognition information and at the same time recognizes the pet emotion and Identifies a voice recognition-based pet emotion item corresponding to a related voice, and learns a combination of pet expression pattern information that patterned the recognized pet expression recognition information and the identified voice recognition-based pet emotion item By repeating the process, it is possible to continuously improve the big data-based accuracy and reliability of the expression-based emotional state determination information.

한편 본 발명의 확장 실시예에 따르면, 상기 정보 관리부(105)는 상기 표정 기반 감정상태 판별 정보 외에 상기 카메라장치(190)의 사운드 입력부를 통해 획득된 오디오 데이터를 근거로 애완동물의 동물 소리를 인식하여 애완동물의 감정 상태를 판별하기 위한 동물 소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장하거나, 및/또는 상기 카메라장치(190)에 애완동물의 감정 표현과 연관된 지정된 센싱 대상을 센싱하는 센서모듈이 구비되거나 연계되고 상기 카메라장치(190)로부터 상기 센서모듈을 통해 애완동물의 지정된 센싱 대상을 센싱하여 획득된 센싱 데이터가 수신되는 경우 상기 센싱 데이터를 이용하여 애완동물의 감정 상태를 판별하기 위한 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. Meanwhile, according to an extended embodiment of the present invention, the information management unit 105 recognizes the animal sound of the pet based on the audio data obtained through the sound input unit of the camera device 190 in addition to the expression-based emotional state determination information. To register and store animal sound-based emotional state determination information for determining the emotional state of the pet in the operation D / B, and / or to sense a designated sensing target associated with the emotional expression of the pet in the camera device 190 When a sensor module is provided or linked and sensing data obtained by sensing a designated sensing target of a pet is received from the camera device 190 through the sensor module, using the sensing data to determine the pet's emotional state It is possible to register and store sensing-based emotional state determination information for operation D/B.

한편 본 발명의 다른 실시예에 따르면, 상기 정보 관리부(105)는 상기 표정 기반 감정상태 판별 정보를 대신(또는 대체)하여 상기 동물 소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. 이하, 편의 상 표정 기반 감정상태 판별 정보를 기본 감정상태 판별 정보로 이용하고 상기 동물 소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보를 부 감정상태 판별 정보로 이용하는 실시예를 통해 본 발명의 특징을 설명할 것이나, 본 발명의 기술적 특징이 이에 한정되는 것은 아니며, 본 발명의 실시예와 청구범위의 기재에 따라 상기 동물 소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보도 기본 감정상태 판별 정보로 이용될 수 있음을 명백하게 밝혀두는 바이다.Meanwhile, according to another embodiment of the present invention, the information management unit 105 operates the animal sound-based emotional state determination information and/or sensing-based emotional state determination information instead of (or replaces) the expression-based emotional state determination information. It can be registered and stored in D/B, and the present invention is not limited thereto. Hereinafter, for convenience, the present invention through an embodiment in which expression-based emotional state identification information is used as basic emotional state identification information and the animal sound-based emotional state identification information and/or sensing-based emotional state identification information is used as secondary emotional state identification information. However, the technical features of the present invention are not limited thereto, and according to the embodiments of the present invention and the description of the claims, the animal sound-based emotional state determination information and/or sensing-based emotional state determination information is also basic. It is clearly stated that it can be used as emotional state identification information.

본 발명의 확장/다른 실시예에 따르면, 상기 정보 관리부(105)는 애완동물의 동물 소리 패턴 중 애완동물의 감정 표현과 연관된 C(C≥2)개의 동물 소리 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 동물 소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보를 포함하고 상기 C개의 동물 소리 패턴 정보와 N2개의 애완동물 감정 항목 간 상관도를 수치화한 동물 소리 기반 상관도 수치 관계정보를 포함하는 동물 소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to an extension/other embodiment of the present invention, the information management unit 105 includes C (C≥2) animal sound pattern information related to the emotional expression of the pet among the animal sound patterns of the pet and the designated N number of pet emotions. Among the items, it includes matching relationship information between N2 (1≤N2≤N) pet emotion items that can be distinguished based on animal sound patterns, and quantifies the correlation between the C animal sound pattern information and N2 pet emotion items. It is possible to register and store animal sound-based emotional state determination information including numerical relational information on one animal sound-based correlation in operation D/B.

본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 애완동물의 동물 소리 패턴 중 애완동물의 감정 표현과 연관된 C개의 동물 소리 패턴 정보를 등록받고, 상기 C개의 동물 소리 패턴 정보를 지정된 N개의 애완동물 감정 항목 중 동물 소리 패턴을 근거로 구별 가능한 N2개의 애완동물 감정 항목과 매칭하는 매칭 관계정보를 등록받고, 상기 C개의 동물 소리 패턴 정보와 N2개의 애완동물 감정 항목 간 상관도를 수치화한 동물 소리 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 C개의 동물 소리 패턴 정보와 N2개의 애완동물 감정 항목를 행 또는 열의 타이틀로 포함하며 상기 동물 소리 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀의 정보로 포함하는 테이블 형태의 동물 소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다According to the implementation method of the present invention, the information management unit 105 receives the registration of C animal sound pattern information related to the emotional expression of the pet among the animal sound patterns of the pet from the designated operating terminal, and the C animal sound pattern information is registered with matching relationship information matching N2 pet emotion items that can be distinguished based on animal sound patterns among the N designated pet emotion items, and the correlation between the C animal sound pattern information and N2 pet emotion items It is possible to register and store the numerical relationship information in the designated operation D/B by registering the animal sound-based correlation with numerical values. For example, the information management unit 105 includes C animal sound pattern information and N2 pet emotion items as row or column titles, and converts the animal sound-based correlation numerical relationship information into cell information corresponding to each row or column. It is possible to register and store animal sound-based emotional state identification information in the operating D/B in the form of a table including

본 발명의 일 실시 방법에 따르면, 상기 C개의 동물 소리 패턴 정보는 애완동물의 감정표현과 연관된 각각의 동물 소리 패턴을 구성하는 동물 소리 특징 정보를 포함할 수 있다. 바람직하게, 상기 동물 소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다. According to an embodiment of the present invention, the C animal sound pattern information may include animal sound characteristic information constituting each animal sound pattern related to the emotional expression of the pet. Preferably, the animal sound characteristic includes a frequency band characteristic, an arrangement relational characteristic of a frequency band characteristic, a periodicity characteristic of a frequency band characteristic, a sound intensity characteristic, an arrangement relational characteristic of a sound intensity characteristic, a periodicity characteristic of a sound intensity characteristic, a frequency band characteristic, and It may include one or more characteristics of a combination characteristic of a sound intensity characteristic, a characteristic of an arrangement relationship between a frequency band characteristic and a sound intensity characteristic, and a periodicity characteristic of a frequency band characteristic and a sound intensity characteristic.

한편 본 발명의 다른 일 실시 방법에 따르면, 상기 C개의 동물 소리 패턴 정보는 애완동물의 감정표현과 연관된 각각의 동물 소리 패턴을 구성하는 동물 소리 특징의 범위 정보를 포함할 수 있다. 바람직하게, 상기 동물 소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다. 예를들어, 상기 동물 소리 특징의 범위 정보는 각 특징 별 주파수 대역의 허용 범위 및/또는 각 특징 별 소리 강도의 허용 범위를 포함할 수 있다. Meanwhile, according to another embodiment of the present invention, the C animal sound pattern information may include information on the range of animal sound characteristics constituting each animal sound pattern related to the emotional expression of the pet. Preferably, the animal sound characteristic includes a frequency band characteristic, an arrangement relational characteristic of a frequency band characteristic, a periodicity characteristic of a frequency band characteristic, a sound intensity characteristic, an arrangement relational characteristic of a sound intensity characteristic, a periodicity characteristic of a sound intensity characteristic, a frequency band characteristic, and It may include one or more characteristics of a combination characteristic of a sound intensity characteristic, a characteristic of an arrangement relationship between a frequency band characteristic and a sound intensity characteristic, and a periodicity characteristic of a frequency band characteristic and a sound intensity characteristic. For example, the range information of the animal sound feature may include an allowable range of a frequency band for each feature and/or an allowable range of a sound intensity for each feature.

본 발명의 일 실시 방법에 따르면, 상기 동물 소리 기반 상관도 수치 관계정보는 애완동물의 동물 소리를 인식한 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 동물 소리 기반 상관도 수치 관계정보는 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an embodiment of the present invention, the animal sound-based correlation numerical relationship information is calculated through a relational expression proportional to the matching ratio between animal sound recognition information that recognizes animal sounds of pets and previously registered animal sound pattern information. The correlation may also include numerical information. For example, the animal sound-based correlation numerical relationship information may be calculated as smaller numerical information as the matching ratio between animal sound recognition information and previously registered animal sound pattern information is smaller, and the larger the matching ratio, the larger the numerical information. can be calculated.

한편 본 발명의 다른 일 실시 방법에 따르면, 상기 동물 소리 기반 상관도 수치 관계정보는 애완동물의 동물 소리를 인식한 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 동물 소리 기반 상관도 수치 관계정보는 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. On the other hand, according to another embodiment of the present invention, the animal sound-based correlation numerical relationship information is a correlation diagram for each matching ratio section between the animal sound recognition information that recognizes the animal sound of a pet and the registered animal sound pattern information. Numerical information may be included. For example, the animal sound-based correlation numerical relationship information can be calculated as '0' or numerical information of a specified minimum value when the matching ratio between the animal sound recognition information and the registered animal sound pattern information is a preset minimum ratio section. And, when the matching ratio is a preset maximum ratio section, it may be calculated as numerical information of a designated maximum value.

한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 동물 소리 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(140)를 통해 지정된 동물 소리 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 동물 소리 인식 정보가 인식된 후에 상기 카메라장치(190)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 애완동물의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 애완동물의 보호자가 애완동물에게 발화하는 음성 중 애완동물 감정 인지와 관련된 음성(예컨대, '우리 xx 배고프구나', '우리 xx 똥 ?奐립?', '우리 xx 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 동물 소리 인식 정보가 인식된 후에 보호자의 애완동물 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 동물 소리 인식 정보를 패턴화함과 동시에 상기 애완동물 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 애완동물 감정 항목을 식별하고, 상기 인식된 동물 소리 인식 정보를 패턴화한 동물 소리 패턴 정보와 상기 식별된 음성 인식 기반의 애완동물 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 동물 소리 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.Meanwhile, according to the implementation method of the present invention, after the animal sound-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, the specified animal sound recognition information is recognized through the following information recognition unit 140 . In this case, the information management unit 105 reads video data received from the camera device 190 and stored in a specific storage area of a designated storage medium after the animal sound recognition information is recognized, and an object corresponding to the pet's guardian. At the same time as recognizing , audio data associated with the video data is read, and among the voices uttered by the pet guardian to the pet, voices related to pet emotion recognition (eg, 'our xx hungry', 'our xx poop?奐lip?', 'we xx are sleepy', etc.) can be performed. If, after the animal sound recognition information is recognized, the voice related to the pet emotion recognition of the guardian is recognized, the information management unit 105 patterns the recognized animal sound recognition information and the voice related to the pet emotion recognition. Identifies a voice recognition-based pet emotion item corresponding to , and repeats the process of learning a combination of the animal sound pattern information patterned with the recognized animal sound recognition information and the identified voice recognition-based pet emotion item By doing so, it is possible to continuously improve the big data-based accuracy and reliability of the animal sound-based emotional state determination information.

한편 본 발명의 확장/다른 실시예에 따르면, 상기 정보 관리부(105)는 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보를 포함하고 상기 S개의 센싱 값 패턴 정보와 N3개의 애완동물 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다.Meanwhile, according to an extension/other embodiment of the present invention, the information management unit 105 is configured to select a designated sensing target associated with the emotional expression of a pet among sensing data sensed through a sensor module provided in or linked to the camera device 190 . Between S (S≥2) sensing value pattern information for sensing data and N3 (1≤N3≤N) pet evaluation items that can be distinguished based on the sensing value pattern of the specified sensing target among the N specified pet evaluation items Registers sensing-based emotional state determination information including the sensing-based correlation numerical relationship information that includes matching relationship information of and quantifies the correlation between the S sensed value pattern information and N3 pet emotion items to the operation D/B can be saved

본 발명의 실시 방법에 따르면, 상기 센서모듈은 애완동물의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈, 지정된 전자파를 이용하여 애완동물의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함할 수 있으며, 상기 지정된 센싱 대상은 애완동물의 심장박동, 애완동물의 체온, 애완동물 주변 습도, 애완동물의 무호흡 여부 중 적어도 하나를 포함할 수 있다.According to the embodiment of the present invention, the sensor module is a wearable sensor module that is worn on the body of a pet to sense a specified sensing target, and a radar that senses a specified sensing target of the pet using a specified electromagnetic wave. The sensor module may include at least one sensor module, and the designated sensing target may include at least one of a pet's heartbeat, a pet's body temperature, a pet's ambient humidity, and whether the pet is apnea.

본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S개의 센싱 값 패턴 정보를 등록받고, 상기 S개의 센싱 값 패턴 정보를 지정된 N개의 애완동물 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3개의 애완동물 감정 항목 사이의 매칭 관계정보를 등록받고, 상기 S개의 센싱 값 패턴 정보와 N3개의 애완동물 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 상기 S개의 센싱 값 패턴 정보와 N3개의 애완동물 감정 항목을 행 또는 열의 타이틀로 포함하며 센싱 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀의 정보로 포함하는 테이블 형태의 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 of the sensing data sensed through the sensor module provided in or linked to the camera device 190 from the specified operating terminal is a designated sensing target associated with the emotional expression of the pet S sensing value pattern information for sensing data is registered, and the S sensing value pattern information can be distinguished based on the sensing value pattern of the specified sensing target among the N specified pet emotion items. Between N3 pet emotion items. Matching relationship information may be registered, and sensing-based correlation numerical relationship information obtained by quantifying the correlation between the S sensed value pattern information and N3 pet emotion items may be registered and stored in a designated operation D/B. For example, the information management unit 105 includes the S sensed value pattern information and N3 pet emotion items as row or column titles, and the sensing-based correlation numerical relationship information as information on cells corresponding to each row or column. It is possible to register and store sensing-based emotional state determination information in the form of a table including the operation D/B.

본 발명의 일 실시 방법에 따르면, 상기 S개의 센싱 값 패턴 정보는 애완동물의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징 정보를 포함할 수 있다. 바람직하게, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. According to an embodiment of the present invention, the S sensing value pattern information may include sensing value characteristic information constituting each sensing value pattern for sensing data of a designated sensing target associated with an emotional expression of a pet. Preferably, the sensed value characteristic may include at least one or a combination of two or more of a change rule characteristic of a sensed value, a characteristic of a change amount of a sensed value, a characteristic of a change rate of a sensed value, and a characteristic of a periodicity of a change of a sensed value.

한편 본 발명의 다른 일 실시 방법에 따르면, 상기 S개의 센싱 값 패턴 정보는 애완동물의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함할 수 있다. 바람직하게, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. 예를들어, 상기 센싱 값 특징의 범위 정보는 각 특징 별 변화 규칙의 허용 범위, 각 특징 별 센싱 값 변화량의 허용 범위, 각 특징 별 센싱 값 변화율의 허용 범위를 포함할 수 있다. Meanwhile, according to another embodiment of the present invention, the S sensed value pattern information includes information on the range of sensing value characteristics constituting each sensing value pattern for sensing data of a designated sensing target related to the emotional expression of the pet. can do. Preferably, the sensed value characteristic may include at least one or a combination of two or more of a change rule characteristic of a sensed value, a characteristic of a change amount of a sensed value, a characteristic of a change rate of a sensed value, and a characteristic of a periodicity of a change of a sensed value. For example, the range information of the sensing value feature may include an allowable range of a change rule for each feature, an allowable range of a change amount of a sensing value for each feature, and an allowable range of a sensing value change rate for each feature.

본 발명의 일 실시 방법에 따르면, 상기 센싱 기반 상관도 수치 관계정보는 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 센싱 기반 상관도 수치 관계정보는 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an embodiment of the present invention, the sensing-based correlation numerical relation information is calculated through a relational expression proportional to a matching ratio between sensing value recognition information recognized through sensing data of a specified sensing target and pre-registered sensing value pattern information The correlation may also include numerical information. For example, the sensing-based correlation numerical relationship information may be calculated as smaller numerical information as the matching ratio between the sensing value recognition information and the previously registered sensing value pattern information is smaller, and the larger the matching ratio is, the larger the numerical information is calculated. can be

한편 본 발명의 다른 일 실시 방법에 따르면, 상기 센싱 기반 상관도 수치 관계정보는 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 센싱 기반 상관도 수치 관계정보는 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. Meanwhile, according to another embodiment of the present invention, the sensing-based correlation numerical relationship information is a correlation for each matching ratio section between sensing value recognition information recognized through sensing data of a specified sensing target and pre-registered sensing value pattern information. It may also include numerical information. For example, the sensing-based correlation numerical relationship information may be calculated as '0' or numerical information of a specified minimum value when the matching ratio between the sensing value recognition information and the pre-registered sensing value pattern information is a preset minimum ratio section, , when the matching ratio is a preset maximum ratio section, it may be calculated as numerical information of a specified maximum value.

한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 센싱 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(140)를 통해 지정된 센싱 값 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 센싱 값 인식 정보가 인식된 후에 상기 카메라장치(190)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 애완동물의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 애완동물의 보호자가 애완동물에게 발화하는 음성 중 애완동물 감정 인지와 관련된 음성(예컨대, '우리 xx 배고프구나', '우리 xx 똥 ?奐립?', '우리 xx 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 센싱 값 인식 정보가 인식된 후에 보호자의 애완동물 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 센싱 값 인식 정보를 패턴화함과 동시에 상기 애완동물 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 애완동물 감정 항목을 식별하고, 상기 인식된 센싱 값 인식 정보를 패턴화한 동물 소리 패턴 정보와 상기 식별된 음성 인식 기반의 애완동물 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 센싱 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.On the other hand, according to the implementation method of the present invention, after the sensing-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, when the specified sensing value recognition information is recognized through the following information recognition unit 140 , the information management unit 105 reads the video data received from the camera device 190 and stored in a specific storage area of a designated storage medium after the sensing value recognition information is recognized, and an object corresponding to the guardian of the pet. At the same time as recognition, audio data associated with the video data is read, and among the voices uttered by the pet's guardian to the pet, voices related to pet emotion recognition (eg, 'our xx hungry', 'our xx poop? Lip?', 'We xx are sleepy', etc.) can be performed. If a voice related to the pet emotion recognition of the guardian is recognized after the sensing value recognition information is recognized, the information management unit 105 patterns the recognized sensing value recognition information and at the same time a voice related to the pet emotion recognition Identify the voice recognition-based pet emotion item corresponding to , and repeat the process of learning the combination of the animal sound pattern information patterned with the recognized sensing value recognition information and the identified voice recognition-based pet emotion item By doing so, it is possible to continuously improve the big data-based accuracy and reliability of the sensing-based emotional state determination information.

도면1을 참조하면, 상기 운영서버(100)는, 애완동물 안면 주변 영역을 애완동물의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하는 가상객체 관리부(110)와, 지정된 감정 항목 별 애완동물 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하는 정보 매칭부(115)를 포함한다. Referring to FIG. 1, the operation server 100 registers and stores R (R ≥ 2) virtual object data in operation D/B for augmenting the area around the pet's face to correspond to the emotional state of the pet. The virtual object management unit 110 and the information matching unit 115 for registering and storing virtual object matching information matching the pet emotional state information for each specified emotion item and one or more specified virtual object data in the operation D/B.

상기 가상객체 관리부(110)는 상기 카메라장치(190)의 카메라모듈을 통해 획득된 비디오 데이터 상에 존재하는 애완동물 안면 주변 영역을 애완동물의 감정 상태에 대응시켜 증강하기 위해 상기 애완동물 안면 주변 영역에 중첩하여 표시 가능한 R개의 가상객체 데이터를 운영D/B에 등록 저장한다. 예를들어, 상기 가상객체 관리부(110)는 지정된 운영단말로부터 애완동물 안면 주변 영역에 중첩하여 표시 가능한 R개의 가상객체 데이터를 등록받아 운영D/B에 저장할 수 있다. The virtual object management unit 110 corresponds to the pet's emotional state to augment the area around the pet's face existing on the video data acquired through the camera module of the camera device 190, Registers and stores R virtual object data that can be displayed by being superimposed on the operation D/B. For example, the virtual object management unit 110 may receive R virtual object data that can be displayed overlaid on the area around the pet's face from a designated operation terminal and store it in the operation D/B.

본 발명의 실시 방법에 따르면, 상기 R개의 가상객체 데이터 중 적어도 일부의 가상객체 데이터는 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하는 애완동물의 감정 상태를 표현하는 문장열을 애완동물 안면 주변 영역에 말풍선 형태로 표시하는 가상객체 데이터를 포함할 수 있다. According to the implementation method of the present invention, at least some of the virtual object data of the R virtual object data is a text string expressing the emotional state of the pet corresponding to the pet emotional state information for each of the n emotional items. It may include virtual object data displayed in the form of a speech bubble in the surrounding area.

상기 정보 매칭부(115)는 상기 표정 기반 감정상태 판별 정보와 동물 소리 기반 감정상태 판별 정보와 센싱 기반 감정상태 판별 정보 중 적어도 하나의 감정상태 판별 정보를 근거로 생성되는 지정된 감정 항목 별 애완동물 감정 상태 정보를 상기 R개의 가상객체 데이터 중 하나 이상의 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장한다. 예를들어, 상기 정보 매칭부(115)는 지정된 운영단말로부터 지정된 감정 항목 별 애완동물 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 등록받아 운영D/B에 등록 저장할 수 있다. The information matching unit 115 is a pet emotion for each designated emotion item generated based on at least one of the expression-based emotional state determination information, the animal sound-based emotional state determination information, and the sensing-based emotional state determination information. Virtual object matching information matching the state information with one or more virtual object data among the R virtual object data is registered and stored in the operation D/B. For example, the information matching unit 115 may receive registered virtual object matching information that matches one or more specified virtual object data with the pet emotional state information for each emotion item specified from the specified operation terminal, and register and store it in the operation D/B. have.

본 발명의 실시 방법에 따르면, 적어도 하나의 감정상태 판별 정보를 근거로 생성되는 지정된 감정 항목 별 애완동물 감정 상태 정보는 지정된 감정 항목 별 애완동물 감정 상태에 대한 수치정보를 포함하는데, 상기 가상객체 데이터는 지정된 감정 항목 별 애완동물 감정 상태에 대한 수치정보에 대응하는 감정의 세기(또는 강도)를 직관적으로 표현 가능한 구조로 이루어질 수 있다. 예를들어, 상기 가상객체 데이터가 '슬픔'이라는 감정 상태를 증강하기 위해 '애완동물의 양 안 아래쪽 부위'에 중첩하여 표시되는 눈물 흐름 자국 형태의 가상객체 데이터인 경우, 상기 가상객체 데이터는 '슬픔'이라는 감정 항목의 애완동물 감정 상태에 대한 수치정보이 따라 눈물 흐름 자국의 폭이나 길이 또는 색상이 달라지는 구조로 이루어질 수 있다. According to the embodiment of the present invention, the pet emotional state information for each designated emotion item generated based on at least one emotional state determination information includes numerical information on the pet emotional state for each designated emotion item, the virtual object data may be formed in a structure capable of intuitively expressing the intensity (or intensity) of emotion corresponding to numerical information on the emotional state of the pet for each designated emotion item. For example, when the virtual object data is virtual object data in the form of tear flow marks displayed overlaid on 'the lower part of both eyes of the pet' in order to enhance the emotional state of 'sadness', the virtual object data is ' According to the numerical information on the emotional state of the pet in the emotional item of 'sadness', the width, length, or color of the tear flow marks may be changed in a structure.

도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 애완동물을 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(190)를 매핑하는 정보를 등록받아 지정된 관리D/B에 저장하는 정보 등록부(120)를 포함한다. Referring to Figure 1, the operation server 100, a target to be provided with transmission data including video data of a specific pet in the base through the camera device 190 provided at the designated base, and the camera device It includes an information registration unit 120 for receiving the mapping information (190) and storing it in a designated management D / B.

상기 카메라장치(190)를 구매하거나 공급받는 사용자가 이용하는 사용자단말을 통해 가입신청정보를 입력하거나 종이 형태의 가입신청서(예컨대, 카메라장치(190)를 이용한 서비스와 IPTV(185)를 결합하는 신청서, 카메라장치(190)를 이용한 서비스와 사용자 무선단말(180)을 결합하는 신청서 등)를 작성한 경우, 상기 정보 등록부(120)는 사용자 단말이나 지정된 등록단말을 통해 상기 가입신청정보나 가입신청서에 대응하는 사용자정보와 상기 사용자에게 제공/공급된 카메라장치(190)를 고유 식별하는 카메라장치(190)정보를 등록받아 관리D/B에 저장할 수 있다. 한편 상기 정보 등록부(120)는 상기 사용자 단말이나 지정된 등록단말을 통해 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 사용자가 이용하는 IPTV(185)로 제공하기 위한 ID/PW정보를 등록받고 상기 사용자정보 및/또는 카메라장치(190)정보와 연계하여 관리D/B에 저장할 수 있다. 한편 본 발명의 실시 방법에 따라 상기 ID/PW정보는 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 웹을 통해 사용자가 이용하는 유선단말이나 무선단말(180)로 제공하기 위해 사용될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. A user who purchases or receives the camera device 190 enters subscription application information through a user terminal or a paper-type subscription application (eg, an application for combining the service using the camera device 190 and the IPTV 185 ); When the application for combining the service using the camera device 190 and the user wireless terminal 180, etc.) is written, the information registration unit 120 corresponds to the subscription application information or the subscription application through the user terminal or a designated registration terminal. User information and camera device 190 information uniquely identifying the camera device 190 provided/supplied to the user may be registered and stored in the management D/B. Meanwhile, the information registration unit 120 provides ID/PW information for providing transmission data including video data captured through the camera device 190 to the IPTV 185 used by the user through the user terminal or a designated registration terminal. can be registered and stored in the management D/B in association with the user information and/or camera device 190 information. On the other hand, according to the embodiment of the present invention, the ID / PW information is to provide transmission data including video data photographed through the camera device 190 to a wired terminal or a wireless terminal 180 used by the user through the web. may be used, and the present invention may also include such an embodiment within the scope of its rights.

한편 상기 사용자가 본인이 사용하는 사용자 무선단말(180)에 지정된 앱을 설치하고 최초(또는 가입 전) 구동 시, 상기 정보 등록부(120)는 상기 사용자 무선단말(180)의 앱으로부터 상기 사용자에 대한 사용자정보와 상기 사용자에게 제공/공급된 카메라장치(190)를 고유 식별하는 카메라장치(190)정보를 등록받아 관리D/B에 저장할 수 있다. 한편 상기 정보 등록부(120)는 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 상기 사용자 무선단말(180)의 앱으로 제공하기 위해 상기 사용자 무선단말(180)의 앱을 고유 식별하는 고유식별정보를 생성하거나 상기 사용자 무선단말(180)의 앱으로부터 제공받고 상기 사용자정보 및/또는 카메라장치(190)정보와 연계하여 관리D/B에 저장할 수 있으며, 상기 고유식별정보를 생성한 경우 상기 사용자 무선단말(180)의 앱으로 제공하여 지정된 저장영역에 저장하도록 처리할 수 있다. 한편 상기 정보 등록부(120)는 상기 사용자 무선단말(180)의 앱으로부터 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 사용자가 이용하는 IPTV(185)로 제공하기 위한 ID/PW정보를 등록받고 상기 사용자정보 및/또는 카메라장치(190)정보와 연계하여 관리D/B에 저장할 수 있다. 한편 본 발명의 실시 방법에 따라 상기 ID/PW정보는 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 웹을 통해 사용자가 이용하는 유선단말이나 무선단말(180)로 제공하기 위해 사용될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. On the other hand, when the user installs a designated app on the user wireless terminal 180 used by the user and operates for the first time (or before subscription), the information registration unit 120 provides information about the user from the app of the user wireless terminal 180. User information and camera device 190 information uniquely identifying the camera device 190 provided/supplied to the user may be registered and stored in the management D/B. Meanwhile, the information registration unit 120 uniquely registers the app of the user wireless terminal 180 in order to provide transmission data including video data captured through the camera device 190 as the app of the user wireless terminal 180 . It is possible to generate unique identification information to identify or receive from the app of the user wireless terminal 180 and store it in the management D/B in connection with the user information and/or camera device 190 information, and generate the unique identification information In one case, it can be provided as an app of the user wireless terminal 180 and stored in a designated storage area. Meanwhile, the information registration unit 120 is an ID/PW for providing transmission data including video data captured through the camera device 190 from the app of the user wireless terminal 180 to the IPTV 185 used by the user. Information may be registered and stored in the management D/B in association with the user information and/or camera device 190 information. On the other hand, according to the embodiment of the present invention, the ID / PW information is to provide transmission data including video data photographed through the camera device 190 to a wired terminal or a wireless terminal 180 used by the user through the web. may be used, and the present invention may also include such an embodiment within the scope of its rights.

한편 본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(180)의 앱은 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 다른 무선단말(180)의 고유정보(예컨대, 휴대폰번호 등)를 입력/등록할 수 있으며, 이 경우 상기 정보 등록부(120)는 상기 다른 무선단말(180)의 고유정보를 관리D/B에 저장하고, 상기 다른 무선단말(180)의 고유정보를 통해 상기 다른 무선단말(180)에 지정된 앱이 설치되도록 유도하거나 및/또는 상기 다른 무선단말(180)에 설치 실행된 앱을 확인하고, 상기 다른 무선단말(180)의 앱을 고유 식별하는 고유식별정보를 생성하거나 상기 다른 무선단말(180)의 앱으로부터 제공받고 상기 등록되어 있는 카메라장치(190)정보와 연계하여 관리D/B에 저장함으로써, 상기 사용자 무선단말(180)의 앱 이외에 상기 사용자 무선단말(180)의 앱을 통해 지저된 다른 무선단말(180)의 앱을 통해서도 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 수 있도록 처리할 수 있다.On the other hand, according to the embodiment of the present invention, the app of the user wireless terminal 180 is unique information (eg, of the other wireless terminal 180 to receive transmission data including the video data captured through the camera device 190) , mobile phone number, etc.) can be input/registered, and in this case, the information registration unit 120 stores the unique information of the other wireless terminal 180 in the management D/B, and the unique information of the other wireless terminal 180 is stored in the management D/B. Inducing the installation of the designated app to the other wireless terminal 180 through the information and/or checking the installed and executed app in the other wireless terminal 180, and uniquely identifying the app of the other wireless terminal 180 By generating unique identification information or storing it in the management D/B in connection with the registered camera device 190 information and being provided from the app of the other wireless terminal 180, in addition to the app of the user wireless terminal 180, the Transmission data including video data captured through the camera device 190 may be provided through an app of another wireless terminal 180 that is selected through an app of the user wireless terminal 180 .

도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점에 구비된 카메라장치(190)와의 통신 연결을 관리하는 통신 관리부(125)와, 상기 카메라장치(190)의 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하는 데이터 수신부(130)와, 상기 수신된 획득 데이터를 지정된 저장매체의 특정 저장영역에 저장하여 관리하는 데이터 저장부(135)를 포함한다. 1, the operation server 100 is obtained through a communication management unit 125 that manages a communication connection with a camera device 190 provided at a designated base, and a camera module of the camera device 190, and a data receiving unit 130 for receiving acquisition data including video data encoded in a specified manner, and a data storage unit 135 for storing and managing the received acquired data in a specific storage area of a specified storage medium.

지정된 거점에 구비된 카메라장치(190)에 전원이 입력되면, 상기 카메라장치(190)의 제어모듈은 지정된 절차에 따라 통신모듈을 통해 지정된 운영서버(100)와 지정된 하나 이상의 정보를 교환하여 통신 연결을 요청하며, 상기 통신 관리부(125)는 상기 지정된 정보의 교환을 근거로 상기 카메라장치(190)의 유효성을 인증하여 상기 카메라장치(190)와 통신을 연결한다. When power is input to the camera device 190 provided in the designated base, the control module of the camera device 190 communicates by exchanging one or more designated information with the designated operation server 100 through the communication module according to the designated procedure. request, and the communication management unit 125 authenticates the validity of the camera device 190 based on the exchange of the specified information, and establishes a communication connection with the camera device 190 .

상기 카메라장치(190)와 통신이 연결되면, 상기 통신 관리부(125)는 상기 카메라장치(190)를 통해 획득된 획득 데이터를 수신하기 위한 일회용주소정보를 동적 생성하여 상기 카메라장치(190)로 제공하며, 이 경우 상기 카메라장치(190)의 제어모듈은 상기 일회용주소정보를 수신하고, 상기 일회용주소정보를 상기 획득 데이터를 전송할 목적지 주소로 설정한 후, 상기 획득된 획득 데이터를 상기 일회용주소에 대응하는 목적지 주소로 전송할 수 있다. 여기서, 상기 일회용주소정보는 주소도메인정보는 동일하되 도메인 이후의 파라미터값이 중복되지 않게 동적 생성된 파라미터값으로 이루어진 주소정보를 포함할 수 있다.When communication with the camera device 190 is connected, the communication management unit 125 dynamically generates disposable address information for receiving the acquired data acquired through the camera device 190 and provides it to the camera device 190 . In this case, the control module of the camera device 190 receives the one-time address information, sets the one-time address information as a destination address to transmit the acquired data, and then sets the acquired data to the one-time address can be sent to a destination address. Here, the one-time address information may include address information composed of dynamically generated parameter values so that the address domain information is the same but the parameter values after the domain do not overlap.

본 발명의 실시 방법에 따르면, 상기 통신 관리부(125)는 주기적으로 상기 카메라장치(190)에 대한 신규 일회용주소정보를 동적 생성하여 상기 카메라장치(190)로 제공할 수 있으며, 이 경우 상기 카메라장치(190)의 제어모듈은 상기 신규 일회용주소정보를 수신하고, 이전 일회용주소에 대응하는 목적지 주소로 상기 획득 데이터를 전송하는 과정을 인터럽트함과 동시에 이전 일회용주소로 획득 데이터를 전송한 이전 전송 정보를 확인하고, 상기 신규 일회용주소정보를 상기 획득 데이터를 이어서 전송할 신규 목적지 주소로 설정한 후, 상기 이전 전송 정보를 근거로 이전 일회용주소로 전송하던 획득 데이터를 상기 신규 일회용주소에 대응하는 신규 목적지 주소로 이어서 전송할 수 있으며, 상기의 과정은 주기적으로 반복될 수 있다. 이하, 별도의 언급이 없더라도 상기 카메라장치(190)는 상기 일회용주소로 획득 데이터를 전송할 수 있음을 명기하는 바이다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 통신 관리부(125)의 일회용주소정보 생성 내지 적용 과정은 생략 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the communication management unit 125 may periodically dynamically generate new one-time address information for the camera device 190 and provide it to the camera device 190. In this case, the camera device The control module of 190 receives the new one-time address information, interrupts the process of transmitting the acquired data to the destination address corresponding to the previous one-time address, and at the same time transmits the previous transmission information of transmitting the acquired data to the previous one-time address. After confirming, and setting the new one-time address information as a new destination address to which the acquired data is to be subsequently transmitted, the acquired data transmitted to the previous one-time address based on the previous transmission information is transferred to the new destination address corresponding to the new one-time address. It can then be transmitted, and the above process can be repeated periodically. Hereinafter, it is specified that the camera device 190 can transmit the acquired data to the one-time address even if there is no separate mention. Meanwhile, according to another embodiment of the present invention, the process of generating or applying the one-time address information of the communication management unit 125 may be omitted, and the present invention is not limited thereto.

본 발명의 실시 방법에 따라 상기 카메라장치(190)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(130)는 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터를 저장하여 일정 기간 동안 관리할 수 있다.According to the embodiment of the present invention, when the control module of the camera device 190 transmits acquired data including video data that is acquired through the camera module and encoded in a specified manner, the data receiving unit 130 is the camera module Receives acquisition data including video data obtained through and encoded in a specified manner, and the data storage unit 135 stores the video data of the received acquisition data in a specific storage area of a specified storage medium for a certain period of time. can manage

한편 본 발명의 실시 방법에 따라 상기 카메라장치(190)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터와 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터를 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(130)는 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터와 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터와 오디오 데이터를 연계 저장하여 일정 기간 동안 관리한다.On the other hand, according to the implementation method of the present invention, the control module of the camera device 190 is obtained through the camera module and encoded in a specified manner video data and audio data obtained through the sound input unit and encoded in a specified manner. When the acquisition data is transmitted, the data receiving unit 130 receives acquired data including video data obtained through the camera module and encoded in a specified manner and audio data obtained through the sound input unit and encoded in a specified manner, and , the data storage unit 135 associates and stores the video data and audio data of the received acquired data in a specific storage area of a designated storage medium and manages it for a certain period of time.

본 발명의 실시 방법에 따르면, 상기 카메라장치(190)의 제어모듈은 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터 형태의 획득 데이터를 전송할 수 있으며, 이 경우 상기 데이터 수신부(130)는 상기 카메라장치(190)로부터 상기 동영상 데이터 형태의 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 동영상 데이터를 저장하여 관리할 수 있다.According to the embodiment of the present invention, the control module of the camera device 190 may transmit the acquired data in the form of moving picture data including the video data and audio data, in this case, the data receiving unit 130 is the camera device. Receives the acquired data in the form of moving picture data from 190, and the data storage unit 135 stores and manages the received moving picture data in a specific storage area of a designated storage medium.

한편 본 발명의 실시 방법에 따르면, 상기 카메라장치(190)의 제어모듈은 상기 비디오 데이터와 상기 오디오 데이터를 각각의 데이터 형태로 포함하는 획득 데이터를 전송할 수 있으며, 이 경우 상기 데이터 수신부(130)는 상기 카메라장치(190)로부터 상기 비디오 데이터와 오디오 데이터를 제각기 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 상기 카메라장치(190)로부터 각기 수신된 상기 비디오 데이터와 오디오 데이터를 연계하여 지정된 저장매체의 특정 저장영역에 저장하여 관리할 수 있다. 바람직하게, 상기 데이터 저장부(135)는 상기 비디오 데이터와 오디오 데이터의 시간 값(또는 타임스탬프)를 기준으로 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장할 수 있다.Meanwhile, according to the embodiment of the present invention, the control module of the camera device 190 may transmit the acquired data including the video data and the audio data in the form of respective data, in this case, the data receiving unit 130 Receives acquisition data including the video data and audio data from the camera device 190, respectively, and the data storage unit 135 associates the video data and audio data respectively received from the camera device 190, It can be stored and managed in a specific storage area of a designated storage medium. Preferably, the data storage unit 135 may synchronize the times of the video data and the audio data based on the time values (or timestamps) of the video data and the audio data and store them in a specific storage area of a designated storage medium. .

한편 본 발명의 실시 방법에 따라 상기 카메라장치(190)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터 및/또는 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터 외에, 지정된 센서모듈을 통해 센싱되어 지정된 방식으로 엔코딩된 센싱 데이터를 더 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(130)는 상기 센싱 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터 및/또는 오디오 데이터와 상기 센싱 데이터를 연계 저장하여 일정 기간 동안 관리할 수 있다. 바람직하게, 상기 데이터 저장부(135)는 상기 비디오 데이터 및/또는 오디오 데이터의 시간 값(또는 타임스탬프)과 상기 센싱 데이터의 시간 값(또는 타임스탬프)을 기준으로 상기 비디오 데이터 및/또는 오디오 데이터의 시간과 상기 센싱 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장할 수 있다.On the other hand, according to the embodiment of the present invention, the control module of the camera device 190 is obtained through the camera module and encoded in a specified manner, in addition to video data and/or audio data obtained through the sound input and encoded in a specified manner. , when the acquired data is sensed through a specified sensor module and further includes sensing data encoded in a specified manner, the data receiving unit 130 receives the acquired data including the sensing data, and the data storage unit 135 ) can be managed for a certain period of time by linking and storing the video data and/or audio data of the received acquired data and the sensing data in a specific storage area of a designated storage medium. Preferably, the data storage unit 135 is configured to store the video data and/or audio data based on a time value (or timestamp) of the video data and/or audio data and a time value (or timestamp) of the sensing data. The time of the sensor may be synchronized with the time of the sensed data and stored in a specific storage area of a designated storage medium.

도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점의 카메라장치(190)를 통해 획득된 획득 데이터 중 적어도 하나의 데이터를 판독하여 애완동물의 감정을 판별하기 위한 지정된 인식 대상의 인식 정보를 인식하는 정보 인식부(140)와, 지정된 감정상태 판별 정보를 근거로 상기 인식된 인식 정보와 기 설정된 기준 유사도 이상 매칭된 지정된 인식 대상의 패턴 정보를 확인하고 상기 확인된 패턴 정보와 매칭 관계를 지닌 하나 이상의 애완동물 감정 항목을 판별하는 정보 판별부(145)와, 상기 인식 정보와 패턴 정보 간 매칭 비율을 근거로 상기 패턴 정보와 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식 정보에 대응하는 하나 이상의 감정 항목 별 애완동물 감정 상태를 수치화한 감정 항목 별 애완동물 감정 상태 값을 산출하는 감정 상태 산출부(150)와, 상기 산출된 하나 이상의 애완동물 감정 상태 값을 이용하여 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하는 정보 생성부(155)를 포함한다. Referring to FIG. 1, the operation server 100 reads at least one of the acquired data acquired through the camera device 190 of the designated base to determine the emotion of the pet by reading the recognition information of the designated recognition target. The information recognition unit 140 for recognizing , and the pattern information of the specified recognition target matched with the recognized recognition information based on the specified emotional state determination information and a preset reference similarity level or more, and the identified pattern information and the matching relationship An information determining unit 145 for determining one or more pet emotion items possessed, based on a matching ratio between the recognition information and the pattern information, reads the correlation numerical relationship between the pattern information and the pet emotion item, and adds it to the recognition information. An emotional state calculator 150 for calculating a pet emotional state value for each emotional item obtained by digitizing the pet emotional state for each of the corresponding one or more emotional items, and each emotion designated using the calculated one or more pet emotional state values and an information generating unit 155 for generating pet emotional state information for each item.

본 발명의 제1 애완동물 감정 상태 생성 실시예에 따르면, 상기 운영서버(100)는 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는 시점에 상기 송신 데이터에 포함되는 비디오 데이터 및/또는 상기 비디오 데이터와 연계된 데이터(예컨대, 오디오 데이터 및/또는 센싱 데이터 등)를 근거로 지정된 절차에 따라 각 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다. 여기서 각 감정 항목 별 애완동물 감정 상태 정보는 각 감정 항목 별 애완동물의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.According to the first pet emotional state generation embodiment of the present invention, the operation server 100 includes video data stored in a specific storage area of the storage medium as an app or IPTV 185 of a designated user wireless terminal 180. At the time of providing the transmission data to be transmitted, the video data included in the transmission data and/or data associated with the video data (eg, audio data and/or sensing data, etc.) Animal emotional state information can be generated. Here, the pet emotional state information for each emotion item may include numerical information (or grade information) on the emotional state of the pet for each emotion item.

한편 본 발명의 제2 애완동물 감정 상태 생성 실시예에 따르면, 상기 운영서버(100)는 지정된 저장매체의 특정 저장영역에 상기 카메라장치(190)로부터 수신된 획득 데이터가 저장된 후, 상기 저장매체의 특정 저장영역에 저장된 획득 데이터를 근거로 지정된 절차에 따라 각 감정 항목 별 애완동물 감정 상태 정보를 생성하여 상기 획득 데이터와 연계 저장하도록 처리할 수 있으며, 이 경우 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공 시 상기 송신 데이터의 비디오 데이터와 연계된 각 감정 항목 별 애완동물 감정 상태 정보가 추출될 수 있다. 여기서 각 감정 항목 별 애완동물 감정 상태 정보는 각 감정 항목 별 애완동물의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.Meanwhile, according to the second pet emotional state generation embodiment of the present invention, the operation server 100 stores the acquired data received from the camera device 190 in a specific storage area of a designated storage medium, and then Based on the acquired data stored in a specific storage area, pet emotional state information for each emotion item is generated according to a specified procedure and stored in association with the acquired data. In this case, the video stored in the specific storage area of the storage medium When the data is provided to the app of the designated user wireless terminal 180 or IPTV 185 including data, pet emotional state information for each emotion item associated with the video data of the transmitted data may be extracted. Here, the pet emotional state information for each emotion item may include numerical information (or grade information) on the emotional state of the pet for each emotion item.

상기 정보 인식부(140)는 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 애완동물 표정 인식 정보를 인식한다. The information recognition unit 140 reads the designated video data and recognizes f (1≤f≤F) feature points for the facial region of a specific pet within the base, and expresses the pet's emotion among the recognized f feature points. Recognizes i (i≥1) pieces of pet expression recognition information corresponding to the geometrical relationship between the related feature points.

본 발명의 실시 방법에 따르면, 상기 지정된 비디오 데이터는 지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터, 지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함할 수 있다.According to an embodiment of the present invention, the designated video data may include at least one of video data periodically selected for each designated reproduction time unit and video data periodically selected for each designated number of reproduction frames.

본 발명의 제1 애완동물 감정 상태 생성 실시예의 경우, 상기 정보 인식부(140)는 상기 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인한다. 만약 상기 사용자 무선단말(180)의 앱이나 IPTV(185)로 상기 송신 데이터를 제공하는 경우, 상기 정보 인식부(140)는 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식할 수 있다. In the case of the first pet emotional state generation embodiment of the present invention, the information recognition unit 140 is an app of the user wireless terminal 180 corresponding to the unique identification information stored in the management D / B or the management D / B It is checked whether transmission data including video data stored in a specific storage area of the storage medium is provided to the IPTV 185 identified/authenticated through the stored ID/PW information. If the transmission data is provided by the app of the user wireless terminal 180 or the IPTV 185, the information recognition unit 140 reads the designated video data among the video data of the transmission data and reads a specific pet in the base. While recognizing the f feature points for the facial region of the animal, it is possible to recognize i pet expression recognition information corresponding to the geometric relationship between the feature points related to the emotional expression of the pet among the recognized f feature points.

한편 본 발명의 제2 애완동물 감정 상태 생성 실시예의 경우, 상기 정보 인식부(140)는 상기 카메라장치(190)로부터 수신된 획득 데이터가 상기 저장매체의 특정 저장영역에 저장된 후 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식할 수 있다. On the other hand, in the case of the second pet emotional state generation embodiment of the present invention, the information recognition unit 140 stores the acquired data received from the camera device 190 in a specific storage area of the storage medium and then selects the storage medium. Corresponding to the geometrical relationship between the f feature points related to the emotional expression of the pet among the recognized f feature points while recognizing the f feature points for the facial region of a specific pet in the base by reading the designated video data among the video data stored in the storage area It is possible to recognize the facial expression recognition information of i pets.

상기 정보 인식부(140)를 통해 i개의 애완동물 표정 인식 정보가 인식되면, 상기 정보 판별부(145)는 상기 운영D/B에 저장된 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 애완동물 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 애완동물 표정 패턴 정보를 확인한다. 만약 상기 인식된 i개의 애완동물 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e개의 애완동물 표정 패턴 정보가 확인되면, 상기 정보 판별부(145)는 상기 확인된 e개의 애완동물 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 애완동물 감정 항목을 판별한다. When the facial expression recognition information of i pets is recognized through the information recognition unit 140, the information determining unit 145 is the recognized i pets based on the expression-based emotional state determination information stored in the operation D/B. Check the facial expression pattern information of e (1≤e≤E) pets that match the animal expression recognition information and the preset standard similarity or higher. If it is confirmed that e pieces of pet expression pattern information matched with the recognized facial expression recognition information of the i pieces of pets and more than the preset standard similarity is identified, the information determining unit 145 matches the identified expression information of the e pieces of pet expression patterns Identify n1 (1≤n1≤N1) pet emotion items that have a relationship.

상기 정보 판별부(145)를 통해 i개의 애완동물 표정 인식 정보에 대응하는 n1개의 애완동물 감정 항목이 판별되면, 상기 감정 상태 산출부(150)는 상기 인식된 i개의 애완동물 표정 인식 정보와 상기 e개의 애완동물 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 애완동물 표정 패턴 정보와 n1개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 애완동물 표정 인식 정보에 대응하는 n1개의 감정 항목 별 애완동물 감정 상태를 수치화한 n1개의 감정 항목 별 애완동물 감정 상태 값을 산출하고, 상기 정보 생성부(155)는 상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n(1≤n≤N)개의 감정 항목 별 애완동물 감정 상태 정보를 생성한다. 여기서 각 감정 항목 별 애완동물 감정 상태 정보는 각 감정 항목 별 애완동물의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.When n1 pet emotion items corresponding to the i pet expression recognition information are determined through the information determining unit 145, the emotional state calculating unit 150 is configured to include the recognized i pet expression recognition information and the Based on the matching ratio between the e pieces of pet expression pattern information, n1 corresponding to the recognized i pieces of pet expression recognition information by reading the numerical relationship of correlation between the e pieces of pet expression pattern information and n1 pieces of pet emotion items The pet emotional state value for each n1 emotion item obtained by digitizing the pet emotional state for each emotion item of dogs is calculated, and the information generating unit 155 uses the calculated pet emotional state value for each of the n1 emotion items to perform a video Creates pet emotional state information for each of the designated n (1≤n≤N) emotional items that can be displayed on the data. Here, the pet emotional state information for each emotion item may include numerical information (or grade information) on the emotional state of the pet for each emotion item.

한편 본 발명의 제2 애완동물 감정 상태 생성 실시예에 따라 상기 저장매체의 특정 저장영역에 상기 획득 데이터가 저장된 후 상기 n개의 감정 항목 별 애완동물 감정 상태 정보가 생성된 경우, 상기 정보 생성부(155)는 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보를 상기 비디오 데이터와 연계하여 상기 저장매체의 특정 저장영역에 저장할 수 있다. Meanwhile, according to the second pet emotional state generation embodiment of the present invention, when the pet emotional state information for each of the n emotional items is generated after the acquired data is stored in a specific storage area of the storage medium, the information generating unit ( 155) may store the generated pet emotional state information for each of the n emotion items in a specific storage area of the storage medium in association with the video data.

본 발명의 확장/다른 실시예에 따라 상기 운영D/B에 상기 동물 소리 기반 감정상태 판별 정보가 저장되고, 상기 저장매체의 특정 저장영역에 비디오 데이터와 오디오 데이터가 연계 저장된 경우, 상기 정보 인식부(140)는 상기 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 애완동물에 대한 j(j≥1)개의 동물 소리 인식 정보를 인식할 수 있다.According to an extension/other embodiment of the present invention, when the animal sound-based emotional state determination information is stored in the operation D/B and video data and audio data are linked and stored in a specific storage area of the storage medium, the information recognition unit 140 may recognize j (j ≥ 1) pieces of animal sound recognition information for the specific pet by reading audio data of a predetermined section associated with the video data.

한편 상기 정보 인식부(140)를 통해 j개의 동물 소리 인식 정보가 인식되면, 상기 정보 판별부(145)는 상기 운영D/B에 저장된 동물 소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 동물 소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 동물 소리 패턴 정보를 확인한다. 만약 상기 인식된 j개의 동물 소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c개의 동물 소리 패턴 정보가 확인되면, 상기 정보 판별부(145)는 상기 확인된 c개의 동물 소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 애완동물 감정 항목을 판별한다. On the other hand, when j pieces of animal sound recognition information are recognized through the information recognition unit 140, the information determination unit 145 sets the j recognized animal sounds based on the emotional state determination information stored in the operation D/B. The animal sound recognition information and c (1≤c≤C) animal sound pattern information matching the preset standard similarity or higher is checked. If the recognized j pieces of animal sound recognition information and the c pieces of animal sound pattern information matched with a preset level of similarity or more are identified, the information determining unit 145 has a matching relationship with the identified c pieces of animal sound pattern information. Identify n2 (1≤n2≤N2) pet emotion items.

상기 정보 판별부(145)를 통해 j개의 동물 소리 인식 정보에 대응하는 n2개의 애완동물 감정 항목이 판별되면, 상기 감정 상태 산출부(150)는 상기 인식된 j개의 동물 소리 인식 정보와 상기 c개의 동물 소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 동물 소리 패턴 정보와 n2개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 동물 소리 인식 정보에 대응하는 n2개의 감정 항목 별 애완동물 감정 상태를 수치화한 n2개의 감정 항목 별 애완동물 감정 상태 값을 산출하고, 상기 정보 생성부(155)는 상기 산출된 n2개의 감정 항목 별 애완동물 감정 상태 값을 (추가)이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다. 여기서 각 감정 항목 별 애완동물 감정 상태 정보는 각 감정 항목 별 애완동물의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.When n2 pet emotion items corresponding to the j pieces of animal sound recognition information are determined through the information determining unit 145 , the emotional state calculating unit 150 determines the recognized j pieces of animal sound recognition information and the c pieces of animal sound recognition information. Based on the matching ratio between the animal sound pattern information, the numerical relationship of the correlation between the c animal sound pattern information and the n2 pet emotion items is read, and pets for each n2 emotion items corresponding to the recognized j pieces of animal sound recognition information. Calculates the pet emotional state value for each n2 emotional items that digitize the animal emotional state, and the information generating unit 155 uses (additionally) the calculated pet emotional state values for each of the n2 emotional items. Pet emotional state information for each emotion item may be generated. Here, the pet emotional state information for each emotion item may include numerical information (or grade information) on the emotional state of the pet for each emotion item.

본 발명의 실시 방법에 따르면, 상기 i개의 애완동물 표정 인식 정보를 근거로 n1개의 감정 항목 별 애완동물 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(155)는 상기 i개의 애완동물 표정 인식 정보를 근거로 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값과 상기 j개의 동물 소리 인식 정보를 근거로 산출된 n2개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보는 'n1개의 감정 항목 별 애완동물 감정 상태 값 ∩ n2개의 감정 항목 별 애완동물 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. According to the embodiment of the present invention, when the pet emotional state values for each n1 emotion items are previously calculated based on the i pet facial expression recognition information, the information generating unit 155 recognizes the i pet facial expressions. Pets for each n emotion item designated by combining the pet emotional state value for each n1 emotion item calculated based on the information and the pet emotional state value for each n2 emotion item calculated based on the j animal sound recognition information It is possible to generate emotional state information. Preferably, the pet emotional state information for each of the n emotion items is a union relationship of 'pet emotional state values for n1 emotion items ∩ pet emotional state values for n2 emotion items', or a subset relationship of the union can be

한편 상기 n1개의 감정 항목 별 애완동물 감정 상태 값과 n2개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성 시, 상기 정보 생성부(155)는 상기 n1개의 감정 항목과 n2개의 감정 항목 중 중복되는 감정 항목에 대하여 각 애완동물 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 동물 소리 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 애완동물 감정 상태 정보를 생성할 수 있다. On the other hand, when generating pet emotional state information for each n emotion items by combining the pet emotional state value for each n1 emotion item and the pet emotional state value for each n2 emotion item, the information generating unit 155 generates the n1 For the emotion items of dogs and the overlapping emotion items among the n2 emotion items, it is specified according to a specified statistical calculation (eg, calculation of average value) or correlation between the emotion item and facial expression or animal sound for each pet emotional state value. Pet emotional state information of the overlapping emotion item may be generated through statistical calculation in which a specified weight is assigned to a recognition target.

본 발명의 확장/다른 실시예에 따라 상기 운영D/B에 상기 센싱 기반 감정상태 판별 정보가 저장되고, 상기 저장매체의 특정 저장영역에 비디오 데이터 및/또는 오디오 데이터와 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터가 연계 저장된 경우, 상기 정보 인식부(140)는 상기 비디오 데이터 ??/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식할 수 있다.According to an extension/other embodiment of the present invention, the sensing-based emotional state determination information is stored in the operation D/B, and video data and/or audio data and the camera device 190 are stored in a specific storage area of the storage medium. When the sensing data sensed through the provided or linked sensor module is linked and stored, the information recognition unit 140 reads the sensing data linked with the video data ??/or audio data to express the emotion of the specific pet and It is possible to recognize k (k≧1) pieces of sensing value recognition information for sensing data of an associated designated sensing target.

한편 상기 정보 인식부(140)를 통해 k개의 센싱 값 인식 정보가 인식되면, 상기 정보 판별부(145)는 상기 운영D/B에 저장된 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인한다. 만약 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s개의 센싱 값 패턴 정보가 화긴되면, 상기 정보 판별부(145)는 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 애완동물 감정 항목을 판별한다. On the other hand, when the k sensed value recognition information is recognized through the information recognition unit 140, the information determining unit 145 detects the k sensed values based on the sensing-based emotional state determination information stored in the operation D/B. Check the value recognition information and s (1≤s≤S) sensed value pattern information that matches the preset reference similarity or more If the recognized k sensed value recognition information and the s sensed value pattern information matched with more than a preset reference similarity are matched, the information determining unit 145 has a matching relationship with the identified s sensed value pattern information Identify n3 (1≤n3≤N3) pet emotion items.

상기 정보 판별부(145)를 통해 k개의 센싱 값 인식 정보에 대응하는 n3개의 애완동물 감정 항목이 판별되면, 상기 감정 상태 산출부(150)는 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 애완동물 감정 상태를 수치화한 n3개의 감정 항목 별 애완동물 감정 상태 값을 산출하고, 상기 정보 생성부(155)는 상기 산출된 n3개의 감정 항목 별 애완동물 감정 상태 값을 (추가)이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다. 여기서 각 감정 항목 별 애완동물 감정 상태 정보는 각 감정 항목 별 애완동물의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.When n3 pet emotion items corresponding to k sensed value recognition information are determined through the information determining unit 145 , the emotional state calculating unit 150 is configured to include the recognized k sensed value recognition information and the s Based on the matching ratio between the sensed value pattern information, the correlation numerical relationship between the s sensed value pattern information and the n3 pet emotion items is read, and n3 pets for each emotion item corresponding to the recognized k sensed value recognition information. Calculating the pet emotional state value for each n3 emotion items that digitize the animal emotional state, and the information generating unit 155 uses (additionally) the calculated pet emotional state value for each of the n3 emotional items Pet emotional state information for each emotion item may be generated. Here, the pet emotional state information for each emotion item may include numerical information (or grade information) on the emotional state of the pet for each emotion item.

본 발명의 실시 방법에 따르면, 상기 i개의 애완동물 표정 인식 정보를 근거로 n1개의 감정 항목 별 애완동물 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(155)는 상기 i개의 애완동물 표정 인식 정보를 근거로 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값과 상기 k개의 센싱 값 인식 정보를 근거로 산출된 n3개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보는 'n1개의 감정 항목 별 애완동물 감정 상태 값 ∩ n3개의 감정 항목 별 애완동물 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. According to the implementation method of the present invention, when the pet emotional state values for each n1 emotion items are previously calculated based on the i pet expression recognition information, the information generating unit 155 recognizes the i pet facial expressions. Pets for each n emotion item designated by combining the pet emotional state value for each n1 emotion item calculated based on the information and the pet emotion state value for each n3 emotion item calculated based on the k sensed value recognition information It is possible to generate emotional state information. Preferably, the pet emotional state information for each of the n emotional items is a union relationship of 'pet emotional state values for n1 emotional items ∩ n3 pet emotional state values for n3 emotion items', or a subset relationship of the union can be

한편 상기 n1개의 감정 항목 별 애완동물 감정 상태 값과 n3개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성 시, 상기 정보 생성부(155)는 상기 n1개의 감정 항목과 n3개의 감정 항목 중 중복되는 감정 항목에 대하여 각 애완동물 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 지정된 센싱 대상의 센싱 값 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 애완동물 감정 상태 정보를 생성할 수 있다. On the other hand, when generating pet emotional state information for each n emotion items by combining the pet emotional state value for each n1 emotion item and the pet emotional state value for each n3 emotion item, the information generating unit 155 generates the n1 For each emotion item and the overlapping emotion item among the n3 emotion items, a specified statistical calculation for each pet emotional state value (eg, an average value calculation calculation) or correlation between the emotion item and the expression or the sensing value of the specified sensing target Pet emotional state information of the overlapping emotional item may be generated through statistical calculation in which a specified weight is given to a specified recognition target according to a relationship.

한편 본 발명의 실시 방법에 따르면, 상기 i개의 애완동물 표정 인식 정보를 근거로 n1개의 감정 항목 별 애완동물 감정 상태 값과 상기 j개의 동물 소리 인식 정보를 n2개의 감정 항목 별 애완동물 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(155)는 상기 i개의 애완동물 표정 인식 정보를 근거로 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값과 상기 j개의 동물 소리 인식 정보를 근거로 산출된 n2개의 감정 항목 별 애완동물 감정 상태 값 및 상기 k개의 센싱 값 인식 정보를 근거로 산출된 n3개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보는 'n1개의 감정 항목 별 애완동물 감정 상태 값 ∩ n2개의 감정 항목 별 애완동물 감정 상태 값 ∩ n3개의 감정 항목 별 애완동물 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. Meanwhile, according to the implementation method of the present invention, based on the i pet expression recognition information, the pet emotional state value for each n1 emotion item and the j animal sound recognition information for each n2 emotion item are the pet emotional state values. In the pre-calculated case, the information generating unit 155 calculates the pet emotional state value for each n1 emotion item calculated based on the i pet expression recognition information and n2 calculated based on the j animal sound recognition information. By combining the pet emotional state value for each emotional item and the pet emotional state value for each n3 emotional item calculated based on the k sensed value recognition information, pet emotional state information for each n specified emotional item can be generated. have. Preferably, the pet emotional state information for each of the n emotion items is 'pet emotional state value for each n1 emotion item ∩ Pet emotional state value for n2 emotion items ∩ Pet emotional state value for each n3 emotion item' It may be a union relationship or a subset relationship of the union.

한편 상기 n1개의 감정 항목 별 애완동물 감정 상태 값과 n2개의 감정 항목 별 애완동물 감정 상태 값 및 n3개의 감정 항목 별 애완동물 감정 상태 값 등을 조합하여 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성 시, 상기 정보 생성부(155)는 상기 n1개의 감정 항목과 n2개의 감정 항목 및 n3개의 감정 항목 중 중복되는 감정 항목에 대하여 각 애완동물 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 동물 소리 또는 지정된 센싱 대상의 센싱 값 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 애완동물 감정 상태 정보를 생성할 수 있다. Meanwhile, by combining the pet emotional state value for each n1 emotion item, the pet emotional state value for each n2 emotion item, and the pet emotional state value for each n3 emotion item, pet emotional state information for each n emotion item is generated. At the time, the information generating unit 155 performs a specified statistical calculation (eg, an average value calculation calculation) for each pet emotional state value for the overlapping emotion items among the n1 emotion items, n2 emotion items, and n3 emotion items. ) or through statistical calculation in which a specified weight is given to a specified recognition target according to the correlation between the corresponding emotion item and the expression or animal sound or the sensing value of the specified sensing target, pet emotional state information of the overlapping emotion item can be generated. have.

도면1을 참조하면, 상기 운영서버(100)는, 상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하는 가상객체 확인부(160)와, 애완동물 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하는 감정 상태 증강부(165)와, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 데이터 제공부(170)를 포함한다.Referring to Figure 1, the operation server 100, based on the virtual object matching information, r (1≤r≤R) virtual object data matching the pet emotional state information for each of the n emotion items generated The virtual object check unit 160 to confirm and display q (1≤q≤r) virtual object data that can be displayed overlaid on the area around the pet's face in the area around the pet's face on the video data to display the pet's face Transmission including an emotional state enhancing unit 165 that augments the surrounding area to correspond to the pet emotional state information for each of the n emotional items, and video data augmented to correspond to the pet emotional state information for each of the n emotional items and a data providing unit 170 that provides data to the app of the user wireless terminal 180 or to the IPTV 185 .

상기 정보 생성부(155)를 통해 각 감정 항목 별 애완동물의 감정 상태에 대한 수치정보(또는 등급정보)를 포함하는 n개의 감정 항목 별 애완동물 감정 상태 정보가 생성되면, 상기 가상객체 확인부(160)는 상기 가상객체 매칭 정보를 근거로 운영D/B에 저장된 R개의 가상객체 중 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r개의 가상객체 데이터를 확인한다. When the pet emotional state information for each n emotion items including numerical information (or grade information) on the emotional state of the pet for each emotion item is generated through the information generating unit 155, the virtual object check unit ( 160) confirms r virtual object data matching the pet emotional state information for each of the n emotion items created among the R virtual objects stored in the operation D/B based on the virtual object matching information.

상기 가상객체 확인부(160)를 통해 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r개의 가상객체 데이터가 확인되면, 상기 감정 상태 증강부(165)는 r개의 가상객체 데이터 중 애완동물 안면 주변 영역에 중첩 표시 가능한 q개의 가상객체 데이터를 선별한다. 예를들어, 상기 r개의 가상객체 데이터는 애완동물 안면 주변의 동일 영역에 중첩 표시 가능한 둘 이상의 가상객체 데이터를 포함할 수 있는데, 이 경우 상기 감정 상태 증강부(165)는 지정된 절차에 따라 애완동물 안면 주변의 동일 영역에 중첩 표시 가능한 둘 이상의 가상객체 데이터 중 실제 중첩 표시할 어느 한 가상객체 데이터를 선별하는 과정을 통해 q개의 가상객체 데이터를 선별할 수 있다.When the r virtual object data matching the pet emotional state information for each of the n emotion items is checked through the virtual object check unit 160, the emotional state enhancer 165 is configured to select a pet from among the r virtual object data. Select q virtual object data that can be displayed overlapped in the area around the face For example, the r virtual object data may include two or more virtual object data that can be displayed overlaid on the same area around the pet's face. The q pieces of virtual object data may be selected through a process of selecting any one virtual object data to be displayed in an actual overlapping display among two or more virtual object data that can be displayed overlapped in the same area around the face.

본 발명의 실시 방법에 따르면, 상기 q개의 가상객체 데이터는 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하는 애완동물의 감정 상태를 표현하는 문장열을 애완동물 안면 주변 영역에 말풍선 형태로 표시하는 가상객체 데이터를 포함할 수 있다.According to the embodiment of the present invention, the q virtual object data displays a sentence string expressing the emotional state of the pet corresponding to the pet emotional state information for each of the n emotional items in the form of a speech bubble in the area around the pet's face. It may contain virtual object data.

애완동물 안면 주변 영역에 중첩 표시할 q의 가상객체 데이터가 선별되면, 상기 감정 상태 증강부(165)는 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 상기 선별된 q개의 가상객체 데이터를 중첩 표시하여 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강한다. When virtual object data of q to be displayed overlapped in the area around the pet's face is selected, the emotional state enhancer 165 overlaps and displays the selected q virtual object data in the area around the pet's face on the video data. By displaying, the area around the pet's face is augmented to correspond to the pet emotional state information for each of the n emotional items.

본 발명의 실시 방법에 따르면, 상기 감정 상태 증강부(165)는 상기 비디오 데이터 상의 애완동물 안면의 지향 방향을 인식하고, 상기 애완동물 안면의 지향 방향에 대응하는 애완동물 안면 주변 영역에 상기 q개의 가상객체 데이터를 중첩 표시할 수 있다. 예를들어, 말풍선 형태의 문자열을 포함하는 가상객체 데이터는 애완동물의 안면이 바라보고 있는 방향에 배치됨과 동시에 애완동물의 안면 쪽으로 말풍성 꼬리를 내리는 형태로 중첩 표시될 수 있으며, 이로써 상기 비디오 데이터를 시청하는 사용자는 애완동물이 상기 말풍선 안쪽의 감정 표현 문자열(예컨대, '배고파요', '짜증나요', '외로워요' 등의 문자열)에 대응하는 감정을 표현하는 것처럼 느끼게 된다.According to the implementation method of the present invention, the emotional state enhancing unit 165 recognizes the orientation direction of the pet's face on the video data, and the q pieces of the q pieces in the area around the pet's face corresponding to the orientation direction of the pet's face. Virtual object data can be displayed overlapped. For example, virtual object data including a character string in the form of a speech bubble may be displayed overlappingly in the form of lowering the tail of a speech bubble toward the face of the pet while being disposed in the direction in which the face of the pet is looking, thereby the video data The user who watches the video feels as if the pet expresses emotions corresponding to the emotional expression string (eg, 'I'm hungry', 'I'm annoyed', 'I'm lonely', etc.) inside the speech bubble.

상기 데이터 제공부(170)는 애완동물 안면 주변 영역에 q개의 가상객체 데이터를 중첩 표시하여 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하며, 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 송신 데이터를 수신하여 출력할 수 있다. 바람직하게, 상기 송신 데이터는 상기 비디오 데이터 외에 오디오 데이터를 더 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The data providing unit 170 superimposes q virtual object data in the area around the pet's face and transmits data including video data augmented to correspond to the pet emotional state information for each of the n emotion items to a designated user wirelessly. It is provided to the app or IPTV 185 of the terminal 180, and the app or IPTV 185 of the user wireless terminal 180 may receive and output the transmission data. Preferably, the transmission data may further include audio data in addition to the video data, and the present invention is not limited thereto.

c

보다 상세하게 본 도면2는 지정된 각 감정 항목 별 애완동물 감정 상태 정보를 생성하기 위한 지정된 인식 대상(예컨대, 애완동물 표정, 애완동물의 동물 소리, 지저된 센서모듈을 통해 아깅의 지정된 센싱 대사을 센싱한 센싱 값 등) 별 감정상태 판별 정보를 운영D/B에 저장하거나, 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 애완동물을 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(190)를 매핑하는 정보를 등록받아 지정된 관리D/B에 저장하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 2 shows a designated recognition target for generating pet emotional state information for each designated emotional item (eg, a pet expression, a pet animal sound, sensing a specified sensing line of Aging through a dirty sensor module) Sensing value, etc.) to store emotional state determination information for each operation D/B, or to receive transmission data including video data of a specific pet in the base through the camera device 190 provided at the designated base It shows a process of registering and storing information mapping the camera device 190 to a designated management D/B. Those of ordinary skill in the art to which the present invention pertains, refer to FIG. 2 and/or Alternatively, various implementation methods for the above process (eg, an implementation method in which some steps are omitted or the order is changed) may be inferred by modification, but the present invention is made including all the inferred implementation methods, and this drawing The technical characteristics are not limited only to the implementation method shown in 2 .

도면2를 참조하면, 상기 운영서버(100)는 애완동물의 감정 상태를 판별하기 위해 인식하도록 지정된 인식 대상의 패턴 정보와 각 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 지정된 인식 대상의 패턴 정보와 각 애완동물 감정 항목 간 상관도를 수치화한 상관도 수치 관계정보를 포함하는 지정된 인식 대상 별 감정상태 판별 정보를 지정된 운영D/B에 등록 저장하여 관리한다(200).Referring to FIG. 2, the operation server 100 includes pattern information of a recognition target designated to be recognized to determine the emotional state of the pet, matching relationship information between each pet emotion item, and pattern information of the designated recognition target and The emotional state determination information for each designated recognition target including the correlation numerical relationship information obtained by quantifying the correlation between each pet emotional item is registered and stored in the designated operation D/B and managed (200).

본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 애완동물의 안면 영역에 존재하는 F개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E개의 애완동물 표정 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 애완동물 표정 패턴을 근거로 구별 가능한 N1개의 애완동물 감정 항목 사이의 매칭 관계정보를 포함하고 상기 E개의 애완동물 표정 패턴 정보와 N1개의 애완동물 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장한다. According to the implementation method of the present invention, the operation server 100 corresponds to the geometric relationship between the feature points related to the emotional expression of the pet among the F feature points existing in the facial area of the pet, and E pieces of pet expression pattern information and designated Among the N pet emotion items, matching relationship information between N1 pet emotion items that can be distinguished based on a pet expression pattern is included, and the correlation between the E pet expression pattern information and N1 pet emotion items is quantified. The expression-based emotional state determination information including one facial expression-based correlation numerical relationship information is registered and stored in the designated operation D/B.

본 발명의 확장/다른 실시예에 따르면, 상기 운영서버(100)는 애완동물의 동물 소리 패턴 중 애완동물의 감정 표현과 연관된 C개의 동물 소리 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 동물 소리 패턴을 근거로 구별 가능한 N2개의 애완동물 감정 항목 사이의 매칭 관계정보를 포함하고 상기 C개의 동물 소리 패턴 정보와 N2개의 애완동물 감정 항목 간 상관도를 수치화한 동물 소리 기반 상관도 수치 관계정보를 포함하는 동물 소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to an extension/other embodiment of the present invention, the operation server 100 includes C animal sound pattern information related to the emotional expression of the pet among the animal sound patterns of the pet, and the animal sound pattern among the N designated pet emotion items. Including matching relationship information between N2 pet emotion items that can be distinguished based on , and animal sound-based correlation numerical relationship information that quantifies the correlation between the C animal sound pattern information and N2 pet emotion items. Animal sound-based emotional state determination information can be registered and stored in operation D/B.

한편 본 발명의 확장/다른 실시예에 따르면, 상기 운영서버(100)는 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S개의 센싱 값 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3개의 애완동물 감정 항목 사이의 매칭 관계정보를 포함하고 상기 S개의 센싱 값 패턴 정보와 N3개의 애완동물 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다.On the other hand, according to an extension/other embodiment of the present invention, the operation server 100 is provided in the camera device 190, or of the sensing data sensed through a connected sensor module of the designated sensing target associated with the emotional expression of the pet. It includes matching relationship information between S sensing value pattern information for sensing data and N3 pet emotion items distinguishable based on the sensing value pattern of the specified sensing target among the N specified pet emotion items, and the S sensing values It is possible to register and store the sensing-based emotional state determination information including the sensing-based correlation numerical relationship information that quantifies the correlation between the pattern information and the N3 pet emotional items in the operation D/B.

도면2를 참조하면, 상기 운영서버(100)는 애완동물 안면 주변 영역을 애완동물의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고(205), 상기 표정 기반 감정상태 판별 정보와 동물 소리 기반 감정상태 판별 정보와 센싱 기반 감정상태 판별 정보 중 적어도 하나의 감정상태 판별 정보를 근거로 생성되는 지정된 감정 항목 별 애완동물 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장한다(210).2, the operation server 100 registers and stores R (R≥2) virtual object data in operation D/B for augmenting the area around the pet's face to correspond to the emotional state of the pet ( 205), the pet emotional state information for each designated emotion item generated based on at least one of the expression-based emotional state identification information, the animal sound-based emotional state identification information, and the sensing-based emotional state identification information, and one or more The virtual object matching information matching the designated virtual object data is registered and stored in the operation D/B (210).

도면2를 참조하면, 상기 운영서버(100)는 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 애완동물을 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(190)를 매핑하기 위해 사용자 무선단말(180)의 앱으로부터 사용자에 대한 사용자정보, 상기 사용자에게 제공/공급된 카메라장치(190)를 고유 식별하는 카메라장치(190)정보, 상기 사용자 무선단말(180)의 앱을 고유 식별하는 고유식별정보 및 상기 사용자가 설정한 ID/PW정보 등을 지정된 절차에 따라 매핑 등록 요청할 수 있으며(215), 상기 운영서버(100)는 상기 사용자 무선단말(180)의 앱으로부터 상기 사용자정보, 카메라장치(190)정보, 고유식별정보 및 ID/PW정보 등을 지정된 절차에 따라 수신하고(220), 상기 사용자정보, 카메라장치(190)정보, 고유식별정보 및 ID/PW정보 등을 지정된 관리Dd/B에 연계 저장한다(225). 한편 실시 방법에 따라 상기 사용자정보와 카메라장치(190)정보 및 ID/PW정보 등은 상기 카메라장치(190)를 구매하거나 공급받는 사용자가 이용하는 사용자단말이나 상기 사용자의 가입신청서를 접수한 지정된 등록단말을 통해 등록될 수 있다.Referring to Figure 2, the operation server 100 is a target to be provided with transmission data including video data of a specific pet in the base through the camera device 190 provided at the designated base and the camera device ( 190), user information about the user from the app of the user wireless terminal 180, camera device 190 information uniquely identifying the camera device 190 provided/supplied to the user, the user wireless terminal 180 ), unique identification information for uniquely identifying the app and ID / PW information set by the user can be requested for mapping registration according to a specified procedure (215), and the operation server 100 is the user's wireless terminal 180. Receives the user information, camera device 190 information, unique identification information and ID / PW information from the app according to a specified procedure (220), the user information, camera device 190 information, unique identification information and ID / PW information and the like are linked and stored in the designated management Dd/B (225). Meanwhile, according to the implementation method, the user information, camera device 190 information, ID/PW information, etc. is a user terminal used by a user who purchases or receives the camera device 190 or a designated registered terminal that has received the user's subscription application can be registered through

도면3은 본 발명의 실시 방법에 따라 지정된 거점의 카메라장치(190)를 통해 획득한 획득 데이터를 전송하여 지정된 저장매체에 저장 관리하는 도시한 도면이다.3 is a diagram illustrating storage and management of the acquired data acquired through the camera device 190 of a designated base in a designated storage medium according to an embodiment of the present invention.

보다 상세하게 본 도면3은 지정된 거점에 구비된 카메라장치(190)의 카메라모듈을 통해 획득한 비디오 데이터를 포함하는 획득 데이터를 운영서버(100)로 전송하여 지정된 저자매체의 특정 저장영역에 저장하여 관리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, this figure 3 shows that the acquired data including the video data acquired through the camera module of the camera device 190 provided at the designated base is transmitted to the operation server 100 and stored in a specific storage area of the designated author media. As an illustration of the management process, those of ordinary skill in the art to which the present invention pertains, refer to and/or modify FIG. 3 and various implementation methods for the process (eg, some steps are omitted, or implementation method in which the order is changed), but the present invention is made including all the inferred implementation methods, and the technical characteristics are not limited only to the implementation method shown in FIG. 3 .

도면3을 참조하면, 상기 카메라장치(190)는 동작을 위한 전원 공급이 확인되면(300), 지정된 절차에 따라 통신모듈을 통해 지정된 운영서버(100)와 지정된 하나 이상의 정보를 교환하여 통신 연결을 요청하며(305), 상기 운영서버(100)는 상기 카메라장치(190)와 지정된 정보를 교환하여 상기 카메라장치(190)의 유효성을 인증한 경우(310), 상기 카메라장치(190)와 통신 연결하고(315), 이에 대응하여 상기 카메라장치(190)로 상기 운영서버(100)와 통신이 연결된다(315).Referring to Figure 3, when the power supply for operation is confirmed (300), the camera device 190 exchanges one or more designated information with the designated operation server 100 through a communication module according to a designated procedure to establish a communication connection. When requesting (305), the operation server 100 authenticates the validity of the camera device 190 by exchanging specified information with the camera device 190 (310), communication connection with the camera device 190 and (315), and correspondingly, communication with the operation server 100 is connected to the camera device 190 (315).

한편 상기 운영서버(100)는 상기 카메라장치(190)를 통해 획득된 획득 데이터를 수신하기 위한 일회용주소정보를 동적 생성하고(320), 상기 카메라장치(190)로 상기 생성된 일회용주소정보를 제공하며(325), 상기 카메라장치(190)는 상기 운영서버(100)로부터 상기 일회용주소정보를 수신하고(330), 상기 수신된 일회용주소정보를 상기 획득 데이터를 전송할 목적지 주소로 설정할 수 있으며(335), 상기의 일회용주소정보 생성 내지 목적지 주소로 설정하는 과정은 주기적으로(예컨대, 30초 단위) 반복될 수 있다. Meanwhile, the operation server 100 dynamically generates ( 320 ) one-time address information for receiving the acquired data obtained through the camera device 190 , and provides the generated one-time address information to the camera device 190 . and (325), the camera device 190 may receive the one-time address information from the operation server 100 (330), and set the received one-time address information as a destination address to transmit the acquired data (335) ), the process of generating the one-time address information or setting the destination address may be repeated periodically (eg, every 30 seconds).

한편 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 애완동물을 촬영한 비디오 데이터를 획득하고(340a), 상기 비디오 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Meanwhile, the camera device 190 may acquire video data of a pet in a designated base through the camera module ( 340a ), and transmit the acquired data including the video data to a designated destination address ( 345 ).

또는 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 애완동물을 촬영한 비디오 데이터를 획득하고(340a), 상기 사운드 입력부를 통해 상기 거점 내의 오디오 데이터를 획득한 후(340b), 상기 비디오 데이터와 오디오 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 190 acquires video data of a pet in a designated base through the camera module (340a), and after acquiring audio data in the base through the sound input unit (340b), the video Acquisition data including data and audio data may be transmitted to a designated destination address ( 345 ).

또는 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 애완동물을 촬영한 비디오 데이터를 획득하고(340a), 상기 센서모듈을 통해 애완동물의 지정된 센싱 대상을 센싱한 센싱 데이터를 획득한 후(340c), 상기 비디오 데이터와 센싱 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 190 acquires video data of a pet in a designated base through the camera module (340a), and after acquiring sensing data sensing a designated sensing target of the pet through the sensor module In step 340c, the acquired data including the video data and the sensing data may be transmitted to a designated destination address (345).

또는 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 애완동물을 촬영한 비디오 데이터를 획득하고(340a), 상기 사운드 입력부를 통해 상기 거점 내의 오디오 데이터를 획득하고(340b), 상기 센서모듈을 통해 애완동물의 지정된 센싱 대상을 센싱한 센싱 데이터를 획득한 후(340c), 상기 비디오 데이터와 오디오 데이터 및 센싱 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 190 obtains video data of a pet in a designated base through the camera module (340a), and acquires audio data in the base through the sound input unit (340b), and the sensor module After acquiring the sensing data for sensing the designated sensing target of the pet (340c), the acquired data including the video data, the audio data, and the sensing data may be transmitted to the designated destination address (345).

상기 운영서버(100)는 상기 카메라장치(190)로부터 적어도 비디오 데이터를 포함하는 획득 데이터를 수신하고(350), 상기 수신된 획득 데이터(또는 획득 데이터에 포함된 각각의 데이터)를 지정된 저장매체의 특정 저장영역에 저장하여 관리한다(355).The operation server 100 receives the acquired data including at least video data from the camera device 190 (350), and stores the received acquired data (or each data included in the acquired data) of a designated storage medium. It is stored and managed in a specific storage area (355).

도면4는 본 발명의 제1 실시 방법에 따라 애완동물 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.4 is a diagram illustrating transmission data including video data augmented with a pet's emotional state according to the first embodiment of the present invention.

보다 상세하게 본 도면4는 지정된 비디오 데이터를 판독하여 인식된 애완동물 표정 인식 정보를 이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성한 후 상기 비디오 데이터 상의 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 4 shows the area around the face of the pet on the video data after generating pet emotional state information for each n emotion items specified using the recognized pet expression recognition information by reading the designated video data. The process of providing transmission data including video data augmented to correspond to the pet emotional state information for each emotional item of the dog to the app of the user wireless terminal 180 or the IPTV 185 is shown, the technical field to which the present invention pertains Those of ordinary skill in the art will be able to infer various implementation methods (eg, an implementation method in which some steps are omitted or in which the order is changed) for the above process by referring and/or modifying this figure 4, but this The invention is made including all implementation methods inferred above, and the technical characteristics are not limited only to the implementation method shown in FIG. 4 .

도면4를 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(190)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 상기 운영서버(100)는 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식한다(400). Referring to FIG. 4, a time point at which transmission data including video data stored in a specific storage area of a storage medium designated through the process of FIG. 3 is provided to an app or IPTV 185 of a designated user wireless terminal 180, or After the acquired data including the video data acquired through the camera device 190 is stored in a specific storage area of the designated storage medium through the process of FIG. 3, the operation server 100 reads the designated video data to the base While recognizing the f feature points for the facial region of a specific pet within, recognize i pet expression recognition information corresponding to the geometric relationship between the feature points related to the emotional expression of the pet among the recognized f feature points ( 400 ).

만약 상기 비디오 데이터를 근거로 i개의 애완동물 표정 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 애완동물 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e개의 애완동물 표정 패턴 정보를 확인하고(405), 상기 e개의 애완동물 표정 패턴 정보와 매칭 관계를 지닌 n1개의 애완동물 감정 항목을 판별한다(410).If the facial expression recognition information of i pets is recognized based on the video data, the operation server 100 determines the recognition based on the facial expression-based emotional state determination information stored in the operation D/B through the process of FIG. 2 . Check the e pet expression pattern information matched with the i pet expression recognition information and the preset reference similarity or more (405), and determine n1 pet emotion items having a matching relationship with the e pet expression pattern information do (410).

만약 상기 인식된 i개의 애완동물 표정 인식 정보에 대응하는 n1개의 애완동물 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 i개의 애완동물 표정 인식 정보와 상기 e개의 애완동물 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 애완동물 표정 패턴 정보와 n1개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 애완동물 표정 인식 정보에 대응하는 n1개의 감정 항목 별 애완동물 감정 상태를 수치화한 n1개의 감정 항목 별 애완동물 감정 상태 값을 산출한다(415). If n1 pet emotion items corresponding to the recognized i pet facial expression recognition information are determined, the operation server 100 determines the recognized i pet facial expression recognition information and the e pet facial expression pattern information. Based on the matching ratio, by reading the correlation numerical relationship between the e pet expression pattern information and n1 pet emotion items, pet emotion for each n1 emotion item corresponding to the recognized i pet expression recognition information A pet emotional state value is calculated for each n1 emotional item that quantifies the state ( 415 ).

만약 상기 n1개의 감정 항목 별 애완동물 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성한다(420).If the pet emotional state value for each of the n1 emotion items is calculated, the operation server 100 uses the calculated pet emotional state value for each of the n1 emotion items to display n designated emotion items on the video data. Creates star pet emotional state information ( 420 ).

만약 상기 n개의 감정 항목 별 애완동물 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 운영D/B에 저장된 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고(425), 애완동물 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강 처리하며(430), 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 제공한다(435). 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(440). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the pet emotional state information for each of the n emotion items is generated, the operation server 100 is configured for each of the generated n emotion items based on the virtual object matching information stored in the operation D/B through the process of FIG. 2 . Check r (1≤r≤R) virtual object data matching the pet emotional state information (425), and video q (1≤q≤r) virtual object data that can be displayed overlaid on the area around the pet's face Overlaid display on the area around the pet's face on the data to augment the area around the pet's face to correspond to the pet emotional state information for each of the n emotion items (430), and pet emotional state information for each of the n emotion items The operation server 100 transmits data including video data augmented to correspond to the app or the management D of the user wireless terminal 180 corresponding to the unique identification information stored in the management D / B through the process of FIG. 2 It is provided to the IPTV 185 identified/authenticated through the ID/PW information stored in /B (435). The app or IPTV 185 of the user wireless terminal 180 receives and outputs transmission data including video data augmented to correspond to the pet emotional state information for each of the n emotion items ( 440 ). Advantageously, the transmission data may further include audio data associated with the video data.

도면5는 본 발명의 제2 실시 방법에 따라 애완동물 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.5 is a diagram illustrating transmission data including video data augmented with a pet's emotional state according to a second embodiment of the present invention.

보다 상세하게 본 도면5는 지정된 비디오 데이터와 연계된 오디오 데이터를 판독하여 인식된 동물 소리 인식 정보를 (추가)이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성한 후 상기 비디오 데이터 상의 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 5 is a view showing pet emotional state information for each n emotional items specified by reading audio data associated with specified video data and using (additionally) recognized animal sound recognition information, and then the pet on the video data. As showing the process of providing transmission data including video data augmented to correspond to the pet emotional state information for each of the n emotional items to the app of the user wireless terminal 180 or to the IPTV 185, the area around the face of the animal is shown. , Those of ordinary skill in the art to which the present invention pertains, refer to and/or modify this figure 5 to see various implementation methods for the above process (eg, an implementation method in which some steps are omitted or the order is changed) Although it can be inferred, the present invention is made including all of the inferred implementation methods, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 5 .

도면5를 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(190)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 애완동물 표정 인식 기반의 n1개의 감정 항목 별 애완동물 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 지정된 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 애완동물에 대한 j개의 동물 소리 인식 정보를 인식한다(500). Referring to FIG. 5, a time point at which transmission data including video data stored in a specific storage area of a storage medium designated through the process of FIG. 3 is provided to an app or IPTV 185 of a designated user wireless terminal 180, or After the acquired data including the video data acquired through the camera device 190 is stored in a specific storage area of the storage medium designated through the process of FIG. 3, or n1 pieces of pet expression recognition-based shown in FIG. In conjunction with the pet emotional state value calculation process for each emotion item, the operation server 100 reads audio data of a certain section associated with the specified video data to recognize j number of animal sound recognition information for the specific pet do (500).

만약 상기 오디오 데이터를 근거로 j개의 동물 소리 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 동물 소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 동물 소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c개의 동물 소리 패턴 정보를 확인하고(505), 상기 확인된 c개의 동물 소리 패턴 정보와 매칭 관계를 지닌 n2개의 애완동물 감정 항목을 판별한다(510).If j pieces of animal sound recognition information are recognized based on the audio data, the operation server 100 performs the recognition based on the animal sound-based emotional state determination information stored in the operation D/B through the process of FIG. 2 . Check the c animal sound pattern information matched with the j number of animal sound recognition information and the preset standard similarity or more (505), and determine n2 pet emotion items having a matching relationship with the identified c animal sound pattern information (510).

만약 상기 인식된 j개의 동물 소리 인식 정보에 대응하는 n2개의 애완동물 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 j개의 동물 소리 인식 정보와 상기 c개의 동물 소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 동물 소리 패턴 정보와 n2개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 동물 소리 인식 정보에 대응하는 n2개의 감정 항목 별 애완동물 감정 상태를 수치화한 n2개의 감정 항목 별 애완동물 감정 상태 값을 산출한다(515). If n2 pet emotion items corresponding to the recognized j number of animal sound recognition information are identified, the operation server 100 sets a matching ratio between the recognized j number of animal sound recognition information and the c animal sound pattern information. Based on n2, the numerical relationship of the correlation between the c animal sound pattern information and the n2 pet emotion items is read and the pet emotional state for each n2 emotion items corresponding to the recognized j animal sound recognition information is digitized. A pet emotional state value for each emotional item of the dog is calculated (515).

만약 상기 n2개의 감정 항목 별 애완동물 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 산출된 n2개의 감정 항목 별 애완동물 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다(520).If the pet emotional state value for each of the n2 emotion items is calculated, the operation server 100 uses the calculated pet emotional state value for each of the n2 emotion items, and the designated n emotion items that can be displayed on the video data. It is possible to generate individual pet emotional state information ( 520 ).

한편 상기 n2개의 감정 항목 별 애완동물 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 애완동물 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값과 상기 n2개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다(520).On the other hand, when the pet emotional state value for each n1 emotion item is calculated through the process of FIG. 4 at a point before, during, or after the pet emotional state value for each of the n2 emotion items is calculated, the operation server 100 ) by combining the calculated pet emotional state value for each n1 emotion item and the pet emotional state value for each n2 emotion item to generate pet emotional state information for each n designated emotion item that can be displayed on the video data. may (520).

만약 상기 n개의 감정 항목 별 애완동물 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 운영D/B에 저장된 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고(525), 애완동물 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강 처리하며(530), 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 제공한다(535). 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(540). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the pet emotional state information for each of the n emotion items is generated, the operation server 100 is configured for each of the generated n emotion items based on the virtual object matching information stored in the operation D/B through the process of FIG. 2 . Check r (1≤r≤R) virtual object data matching the pet emotional state information (525), and video q (1≤q≤r) virtual object data that can be displayed overlaid on the area around the pet's face Overlaid display on the area around the pet's face on the data to augment the area around the pet's face to correspond to the pet emotional state information for each of the n emotion items (530), and pet emotional state information for each of the n emotion items The operation server 100 transmits data including video data augmented to correspond to the app or the management D of the user wireless terminal 180 corresponding to the unique identification information stored in the management D / B through the process of FIG. 2 It is provided to the IPTV 185 identified/authenticated through the ID/PW information stored in /B (535). The app or IPTV 185 of the user wireless terminal 180 receives and outputs transmission data including video data augmented to correspond to the pet emotional state information for each of the n emotion items (540). Advantageously, the transmission data may further include audio data associated with the video data.

도면6은 본 발명의 제3 실시 방법에 따라 애완동물 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.6 is a diagram illustrating transmission data including video data augmented with a pet's emotional state according to a third embodiment of the present invention.

보다 상세하게 본 도면6은 지정된 비디오 데이터 및/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 인식된 센싱 값 인식 정보를 (추가)이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성한 후 상기 비디오 데이터 상의 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 6 shows that after generating pet emotional state information for each of the n emotional items specified using (additional) sensing value recognition information recognized by reading the sensing data associated with the specified video data and/or audio data, To provide transmission data including video data in which the area around the face of the pet on the video data is augmented to correspond to the pet emotional state information for each of the n emotion items to the app of the user wireless terminal 180 or to the IPTV 185 As an illustration of the process, those of ordinary skill in the art to which the present invention pertains may refer to and/or modify this FIG. 6 to see various implementation methods for the process (eg, some steps are omitted, or the order is out of order). Changed implementation method) can be inferred, but the present invention includes all the inferred implementation methods, and the technical characteristics are not limited only to the implementation method illustrated in FIG. 6 .

도면6을 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(190)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 애완동물 표정 인식 기반의 n1개의 감정 항목 별 애완동물 감정 상태 값 산출 과정과 연동하거나, 또는 상기 도면5에 도시된 동물 소리 인식 기반의 n2개의 감정 항목 별 애완동물 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 지정된 비디오 데이터 및/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k개의 센싱 값 인식 정보를 인식한다(600). Referring to FIG. 6 , a point in time when transmission data including video data stored in a specific storage area of a storage medium designated through the process of FIG. 3 is provided to an app or IPTV 185 of a designated user wireless terminal 180, or After the acquired data including the video data acquired through the camera device 190 is stored in a specific storage area of the storage medium designated through the process of FIG. 3, or n1 pieces of pet expression recognition-based shown in FIG. In conjunction with the process of calculating the pet emotional state value for each emotion item, or in conjunction with the process of calculating the pet emotional state value for each n2 emotion items based on the animal sound recognition shown in FIG. 5, the operation server 100 is the designated Sensing data associated with video data and/or audio data is read to recognize k sensed value recognition information for sensing data of a designated sensing target associated with the emotional expression of the specific pet ( 600 ).

만약 상기 센싱 데이터를 근거로 k개의 센싱 값 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s개의 센싱 값 패턴 정보를 확인하고(605), 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3개의 애완동물 감정 항목을 판별한다(610).If k sensed value recognition information is recognized based on the sensing data, the operation server 100 determines the k recognized based on the sensing-based emotional state determination information stored in the operation D/B through the process of FIG. 2 . Check the s sensed value recognition information and the s sensed value pattern information matched with the preset reference similarity or more (605), and determine n3 pet emotion items having a matching relationship with the identified s sensed value pattern information ( 610).

만약 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 애완동물 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 애완동물 감정 상태를 수치화한 n3개의 감정 항목 별 애완동물 감정 상태 값을 산출한다(615). If n3 pet emotion items corresponding to the recognized k sensed value recognition information are determined, the operation server 100 determines a matching ratio between the recognized k sensed value recognition information and the s sensed value pattern information. Based on the s sensed value pattern information and the correlation numerical relationship between the n3 pet emotion items, the n3 values of the pet emotional state for each n3 emotion items corresponding to the recognized k sensed value recognition information are read. A pet emotional state value for each emotional item of the dog is calculated (615).

만약 상기 n3개의 감정 항목 별 애완동물 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 산출된 n3개의 감정 항목 별 애완동물 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다(620).If the pet emotional state values for each of the n3 emotion items are calculated, the operation server 100 uses the calculated pet emotional state values for each of the n3 emotion items, and the designated n emotion items that can be displayed on the video data. It is possible to generate individual pet emotional state information ( 620 ).

한편 상기 n3개의 감정 항목 별 애완동물 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 애완동물 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값과 상기 n3개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다(620).On the other hand, when the pet emotional state value for each n1 emotion item is calculated through the process of FIG. 4 at a point in time before, during, or after the pet emotional state value for each of the n3 emotion items is calculated, the operation server 100 ) is to combine the calculated pet emotional state value for each n1 emotion item and the pet emotional state value for each n3 emotion item to generate pet emotional state information for each n specified emotion item that can be displayed on video data. may (620).

또는 상기 n3개의 감정 항목 별 애완동물 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 애완동물 감정 상태 값이 산출되고 상기 도면5의 과정을 통해 n2개의 감정 항목 별 애완동물 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값과 n2개의 감정 항목 별 애완동물 감정 상태 값 및 상기 n3개의 감정 항목 별 애완동물 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성할 수 있다(620).Or, at a time point before, during, or after the n3 emotional state values for each of the n3 emotional items are calculated, the pet emotional state values for each of the n1 emotional items are calculated through the process of FIG. 4, and through the process of FIG. When the pet emotional state value for each n2 emotion items is calculated, the operation server 100 calculates the pet emotional state value for each of the n1 emotion items, the pet emotional state value for each n2 emotion items, and the n3 By combining the pet emotional state values for each emotion item, pet emotional state information for each of the n designated emotion items that can be displayed on video data may be generated ( 620 ).

만약 상기 n개의 감정 항목 별 애완동물 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 운영D/B에 저장된 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고(625), 애완동물 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강 처리하며(630), 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 제공한다(635). 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(640). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the pet emotional state information for each of the n emotion items is generated, the operation server 100 is configured for each of the generated n emotion items based on the virtual object matching information stored in the operation D/B through the process of FIG. 2 . Check r (1≤r≤R) virtual object data matching the pet emotional state information (625), and video q (1≤q≤r) virtual object data that can be displayed overlaid on the area around the pet's face Overlaid display on the area around the pet's face on the data so that the area around the pet's face corresponds to the pet emotional state information for each of the n emotion items (630) The operation server 100 transmits data including video data augmented to correspond to the app or the management D of the user wireless terminal 180 corresponding to the unique identification information stored in the management D / B through the process of FIG. 2 It is provided to the IPTV 185 identified/authenticated through the ID/PW information stored in /B (635). The app or IPTV 185 of the user wireless terminal 180 receives and outputs transmission data including video data augmented to correspond to the pet emotional state information for each of the n emotion items ( 640 ). Advantageously, the transmission data may further include audio data associated with the video data.

100 : 운영서버 105 : 정보 관리부
110 : 가상객체 관리부 115 : 정보 매칭부
120 : 정보 등록부 125 : 통신 관리부
130 : 데이터 수신부 135 : 데이터 저장부
140 : 정보 인식부 145 : 정보 판별부
150 : 감정 상태 산출부 155 : 정보 생성부
160 : 가상객체 확인부 165 : 감정 상태 증강부
170 : 데이터 제공부 180 : 무선단말
185 : IPTV 190 : 카메라장치
100: operation server 105: information management unit
110: virtual object management unit 115: information matching unit
120: information register 125: communication management unit
130: data receiving unit 135: data storage unit
140: information recognition unit 145: information discrimination unit
150: emotional state calculating unit 155: information generating unit
160: virtual object confirmation unit 165: emotional state enhancement unit
170: data providing unit 180: wireless terminal
185: IPTV 190: camera device

Claims (28)

사운드 입력부 및 카메라모듈을 구비하여 지정된 거점에 구비된 카메라장치와 통신하는 운영서버를 통해 실행되는 방법에 있어서,
애완동물의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 애완동물 표정 패턴 정보와 지정된 N(N≥2)개의 애완동물 감정 항목 중 애완동물 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 E개의 애완동물 표정 패턴 정보와 N1개의 애완동물 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 운영D/B에 등록 저장하고, 애완동물 안면 주변 영역을 애완동물의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 애완동물 감정 상태 정보를 하나 이상의 지정된 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하는 제1 단계;
상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 특정 애완동물을 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 연계 저장 관리하는 제2 단계;
지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 애완동물 표정 인식 정보를 인식하는 제3 단계;
상기 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 애완동물 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 애완동물 표정 패턴 정보를 확인하고 상기 e개의 애완동물 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 애완동물 감정 항목을 판별하는 제4 단계;
상기 인식된 i개의 애완동물 표정 인식 정보와 상기 e개의 애완동물 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 애완동물 표정 패턴 정보와 n1개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 애완동물 표정 인식 정보에 대응하는 n1개의 감정 항목 별 애완동물 감정 상태를 수치화한 n1개의 감정 항목 별 애완동물 감정 상태 값을 산출하는 제5 단계;
상기 산출된 n1개의 감정 항목 별 애완동물 감정 상태 값을 이용하여 지정된 n(1≤n≤N)개의 감정 항목 별 애완동물 감정 상태 정보를 생성하는 제6 단계;
상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하는 제7 단계;
애완동물 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 상기 비디오 데이터 상의 애완동물 안면 주변 영역에 중첩 표시하여 상기 애완동물 안면 주변 영역을 상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강하는 제8 단계; 및
상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 제9 단계;를 포함하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
In the method executed through an operation server having a sound input unit and a camera module to communicate with a camera device provided in a designated base,
Among the F (F≥2) feature points existing in the facial region of the pet, E (E≥2) pet expression pattern information corresponding to the geometrical relationship between the feature points related to the pet's emotional expression and specified N (N≥2) ) of the pet emotion items, matching relationship information between N1 (1≤N1≤N) pet emotion items that can be distinguished based on the pet expression pattern, and the E pet expression pattern information and N1 pet emotion items Expression-based correlation that quantifies the correlation between facial expressions R to register and store expression-based emotional state identification information, including numerical relationship information, in the operation D/B, and to augment the area around the pet's face in response to the pet's emotional state (R≥2) virtual object data is registered and stored in operation D/B, and virtual object matching information that matches pet emotional state information for each specified emotion item with one or more specified virtual object data is registered and stored in operation D/B a first step;
Video data encoded in a specified manner by photographing a specific pet in the base through the camera module of the camera device and audio data encoded in a specified manner input through the sound input unit of the camera device are received to specify a specified storage medium a second step of managing storage in a storage area;
Corresponding to the geometrical relationship between the key points related to the emotional expression of the pet among the recognized f feature points while recognizing f (1≤f≤F) feature points for the facial region of a specific pet in the base by reading the designated video data a third step of recognizing i(i≥1) pet expression recognition information;
Based on the expression-based emotional state determination information, the recognized i pet expression recognition information and e (1≤e≤E) pet expression pattern information matched above a preset standard similarity are checked, and the e pets a fourth step of determining n1 (1≤n1≤N1) pet emotion items having a matching relationship with the expression pattern information;
Based on the matching ratio between the recognized i pet expression recognition information and the e pet expression pattern information, the correlation between the e pet expression pattern information and n1 pet emotion items is read and recognized a fifth step of calculating a pet emotional state value for each n1 emotion item obtained by digitizing the pet emotional state for each n1 emotion item corresponding to the i pet expression recognition information;
a sixth step of generating pet emotional state information for each of n (1≤n≤N) specified emotion items by using the calculated pet emotional state values for each of the n1 emotional items;
a seventh step of identifying r (1≤r≤R) virtual object data matching the pet emotional state information for each of the n emotion items generated based on the virtual object matching information;
q (1≤q≤r) virtual object data that can be displayed overlaid on the area around the pet's face is displayed overlaid on the area around the pet's face on the video data, so that the area around the pet's face is displayed as the pet for each of the n emotion items. an eighth step of augmenting to correspond to the emotional state information; and
A ninth step of providing transmission data including video data augmented to correspond to the pet emotional state information for each of the n emotion items to an app or IPTV of a user wireless terminal; How to augment your emotional state.
제 1항에 있어서, 상기 E개의 애완동물 표정 패턴 정보는,
애완동물의 감정표현과 연관된 각각의 애완동물 표정 패턴에 대응하는 각 특징점 간 기하학 관계의 범위 정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the E pet expression pattern information,
A method for enhancing the emotional state of a pet using a region around a pet, characterized in that it includes range information of a geometric relationship between each feature point corresponding to each pet expression pattern related to the pet's emotional expression.
제 1항 또는 제 2항에 있어서, 상기 특징점 간 기하학 관계는,
각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1 or 2, wherein the geometric relationship between the feature points,
A method for enhancing the emotional state of a pet using an area around the pet, comprising at least one of a distance relationship between each feature point, an angle relationship between each feature point, and a combination relationship of a distance relationship and an angle relationship between each feature point.
제 1항에 있어서, 상기 표정 기반 상관도 수치 관계정보는,
애완동물의 표정을 인식한 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the expression-based correlation numerical relationship information,
Using the area around the pet, characterized in that it includes the correlation numerical information calculated through the relational expression proportional to the matching ratio between the pet expression recognition information that recognizes the pet's expression and the registered pet expression pattern information. How to enhance the emotional state of your pet.
제 1항에 있어서, 상기 표정 기반 상관도 수치 관계정보는,
애완동물의 표정을 인식한 애완동물 표정 인식 정보와 기 등록된 애완동물 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the expression-based correlation numerical relationship information,
Pet emotion using the area around the pet, characterized in that it includes the correlation numerical information for each matching ratio section between the pet expression recognition information that recognizes the pet's expression and the pre-registered pet expression pattern information How to augment status.
제 1항에 있어서, 상기 제2 단계는,
상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the second step,
Reinforcing the emotional state of a pet using an area around the pet, characterized in that it comprises the step of receiving the moving picture data including the video data and the audio data from the camera device and storing and managing it in a specific storage area of a designated storage medium Way.
제 1항에 있어서, 상기 제2 단계는,
상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 각기 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the second step,
and receiving the video data and the audio data from the camera device, respectively, and storing and managing them in a specific storage area of a designated storage medium.
제 7항에 있어서, 상기 제2 단계는,
상기 카메라장치로부터 수신된 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 7, wherein the second step comprises:
The method for enhancing the emotional state of a pet using an area around the pet, characterized in that it further comprises the step of synchronizing the time of the video data and the audio data received from the camera device and storing them in a specific storage area of a designated storage medium. .
제 1항에 있어서, 상기 송신 데이터는,
상기 저장매체의 특정 저장영역에 저장된 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the transmission data,
The method for enhancing the emotional state of a pet using an area around the pet, characterized in that it further comprises audio data stored in a specific storage area of the storage medium.
제 1항에 있어서, 상기 지정된 비디오 데이터는,
지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터,
지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method according to claim 1, wherein the designated video data comprises:
Video data that is periodically screened by a specified unit of playing time;
A method for enhancing the emotional state of a pet using a region around the pet, comprising at least one of video data periodically selected for each specified number of reproduction frames.
제 1항에 있어서,
지정된 사용자 무선단말의 앱이나 IPTV로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인하는 단계를 더 포함하며,
상기 제3 단계는, 지정된 사용자 무선단말의 앱이나 IPTV로 비디오 데이터를 포함하는 송신 데이터를 제공하는 경우에 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 1,
The method further comprises the step of confirming whether transmission data including video data stored in a specific storage area of the storage medium is provided by an App or IPTV of a designated user wireless terminal,
In the third step, when transmission data including video data is provided to an app or IPTV of a designated user wireless terminal, designated video data among the video data of the transmission data is read and stored in the facial area of a specific pet in the base. Pet surrounding, characterized in that it comprises the step of recognizing i pet expression recognition information corresponding to the geometric relationship between the feature points related to the emotional expression of the pet among the recognized f feature points while recognizing the f feature points for A method of augmenting the emotional state of pets using domains.
제 1항에 있어서,
상기 제3 단계는, 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 애완동물의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 애완동물의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 애완동물 표정 인식 정보를 인식하는 단계를 포함하며,
상기 제6 단계는, 상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보를 상기 비디오 데이터와 연계 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 1,
The third step is to read the specified video data from among the video data stored in the specific storage area of the specified storage medium and recognize the f characteristic points for the facial area of the specific pet in the base, while recognizing the f characteristic points among the recognized f characteristic points. Recognizing the facial expression recognition information of i pets corresponding to the geometric relationship between the feature points associated with the emotional expression of
The sixth step is a method for enhancing the emotional state of a pet using a region around a pet, characterized in that it further comprises the step of storing the pet emotional state information for each of the n emotion items generated in association with the video data. .
제 12항에 있어서, 상기 제6 단계는,
상기 생성된 n개의 감정 항목 별 애완동물 감정 상태 정보를 상기 비디오 데이터의 지정된 재생 시점과 동기화하는 시간 값(또는 타임스탬프)과 연계하여 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 12, wherein the sixth step comprises:
and storing the pet emotional state information for each of the n emotion items generated in association with a time value (or timestamp) for synchronizing with a specified playback time of the video data. A method of enhancing the emotional state of a pet using
제 1항에 있어서,
상기 제1 단계는,
애완동물의 동물 소리 패턴 중 애완동물의 감정 표현과 연관된 C(C≥2)개의 동물 소리 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 동물 소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 C개의 동물 소리 패턴 정보와 N2개의 애완동물 감정 항목 간 상관도를 수치화한 동물 소리 기반 상관도 수치 관계정보를 포함하는 동물 소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장하는 단계를 더 포함하고,
상기 제3 단계는,
상기 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 애완동물에 대한 j(j≥1)개의 동물 소리 인식 정보를 인식하는 단계를 더 포함하며,
상기 제4 단계는,
상기 동물 소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 동물 소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 동물 소리 패턴 정보를 확인하고 상기 확인된 c개의 동물 소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 애완동물 감정 항목을 판별하는 단계를 더 포함하고,
상기 제5 단계는,
상기 인식된 j개의 동물 소리 인식 정보와 상기 c개의 동물 소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 동물 소리 패턴 정보와 n2개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 동물 소리 인식 정보에 대응하는 n2개의 감정 항목 별 애완동물 감정 상태를 수치화한 n2개의 감정 항목 별 애완동물 감정 상태 값을 산출하는 단계를 더 포함하며,
상기 제6 단계는,
상기 산출된 n2개의 감정 항목 별 애완동물 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 1,
The first step is
Among the animal sound patterns of pets, C (C≥2) animal sound pattern information related to the pet's emotional expression and N2 (1≤N2≤N) distinguishable based on the animal sound pattern among N designated pet emotion items Animal sound-based emotional state determination information including matching relationship information between pet emotion items and animal sound-based correlation numerical relationship information that digitizes the correlation between the C animal sound pattern information and N2 pet emotion items Further comprising the step of storing registration in the operation D / B,
The third step is
Further comprising the step of recognizing j (j ≥ 1) animal sound recognition information for the specific pet by reading audio data of a certain section associated with the video data,
The fourth step is
Based on the animal sound-based emotional state determination information, the recognized j number of animal sound recognition information and c (1≤c≤C) animal sound pattern information matched with a preset level of similarity or higher are checked, and the identified c animals Further comprising the step of determining n2 (1≤n2≤N2) pet emotion items having a matching relationship with the sound pattern information,
The fifth step is
Based on the matching ratio between the recognized j pieces of animal sound recognition information and the c pieces of animal sound pattern information, the number of correlations between the c pieces of animal sound pattern information and the n2 pieces of pet emotion items is read and the recognized j pieces Further comprising the step of calculating the pet emotional state value for each n2 emotion items that digitize the pet emotional state for each n2 emotion items corresponding to the animal sound recognition information,
The sixth step is
The step of generating pet emotional state information for each of the n specified emotional items by additionally using the calculated pet emotional state values for each of the n2 emotional items. How to augment your emotional state.
제 14항에 있어서, 상기 C개의 동물 소리 패턴 정보는,
애완동물의 감정표현과 연관된 각각의 동물 소리 패턴을 구성하는 동물 소리 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
15. The method of claim 14, wherein the C animal sound pattern information,
A method for enhancing the emotional state of a pet using a region around the pet, characterized in that it includes information on the range of animal sound features constituting each animal sound pattern related to the emotional expression of the pet.
제 15항에 있어서, 상기 동물 소리 특징은,
주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
16. The method of claim 15, wherein the animal sound feature,
Frequency band characteristics, arrangement relation characteristics of frequency band characteristics, periodicity characteristics of frequency band characteristics, loudness characteristics, arrangement relation characteristics of sound intensity characteristics, periodicity characteristics of sound strength characteristics, combination characteristics of frequency band characteristics and sound intensity characteristics, frequency A method for enhancing the emotional state of a pet using a region around a pet, characterized in that it comprises at least one of a feature of an arrangement relationship between a band feature and a sound intensity feature, a frequency band feature and a periodic feature of the sound intensity feature.
제 14항에 있어서, 상기 동물 소리 기반 상관도 수치 관계정보는,
애완동물의 동물 소리를 인식한 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
15. The method of claim 14, wherein the animal sound-based correlation numerical relationship information,
Pet using the area around the pet, characterized in that it includes the correlation numerical information calculated through the relational expression proportional to the matching ratio between the animal sound recognition information that recognizes the animal sound of the pet and the previously registered animal sound pattern information. A method of augmenting the emotional state of animals.
제 14항에 있어서, 상기 동물 소리 기반 상관도 수치 관계정보는,
애완동물의 동물 소리를 인식한 동물 소리 인식 정보와 기 등록된 동물 소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
15. The method of claim 14, wherein the animal sound-based correlation numerical relationship information,
The emotional state of the pet using the area around the pet, characterized in that it includes the correlation numerical information for each matching ratio section between the animal sound recognition information that recognizes the animal sound of the pet and the previously registered animal sound pattern information augmentation method.
제 1항에 있어서,
상기 제1 단계는,
상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 애완동물 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 애완동물 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 애완동물 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하는 단계를 더 포함하고,
상기 제2 단계는,
상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 더 포함하며,
상기 제3 단계는,
상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 애완동물의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하는 단계를 더 포함하고,
상기 제4 단계는,
상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 애완동물 감정 항목을 판별하는 단계를 더 포함하며,
상기 제5 단계는,
상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 애완동물 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 애완동물 감정 상태를 수치화한 n3개의 감정 항목 별 애완동물 감정 상태 값을 산출하는 단계를 더 포함하고,
상기 제6 단계는,
상기 산출된 n3개의 감정 항목 별 애완동물 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 애완동물 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 1,
The first step is
Among the sensing data sensed through the sensor module provided in or linked to the camera device, S (S≥2) sensed value pattern information for the sensing data of the specified sensing target related to the emotional expression of the pet and the N specified pet emotions Matching relationship information between N3 (1≤N3≤N) pet emotion items that can be distinguished based on the sensing value pattern of a specified sensing target among items, and correlation between the S sensed value pattern information and N3 pet emotion items Further comprising the step of registering and storing sensing-based emotional state determination information, including the sensing-based correlation numerical relationship information that digitizes the
The second step is
Further comprising the step of receiving sensing data sensed through a sensor module provided in or linked to the camera device and storing and managing the data in a specific storage area of a designated storage medium in association with the video data,
The third step is
Further comprising the step of recognizing k (k ≥ 1) sensed value recognition information for the sensing data of a specified sensing target associated with the emotional expression of the specific pet by reading the sensing data associated with the video data,
The fourth step is
Based on the sensing-based emotional state determination information, s (1≤s≤S) sensed value pattern information matched with the recognized k sensed value recognition information and a preset standard similarity or higher is checked, and the identified s sensed values Further comprising the step of determining n3 (1≤n3≤N3) pet emotion items having a matching relationship with the pattern information,
The fifth step is
Based on the matching ratio between the recognized k sensed value recognition information and the s sensed value pattern information, the correlation numerical relationship between the s sensed value pattern information and n3 pet emotion items is read and the recognized k Further comprising the step of calculating the pet emotional state value for each n3 emotion items that digitize the pet emotional state for each n3 emotion items corresponding to the sensing value recognition information,
The sixth step is
The step of generating pet emotional state information for each of the n designated emotional items by additionally using the calculated pet emotional state values for each of the n3 emotional items. How to augment your emotional state.
제 19항에 있어서, 상기 센서모듈은,
애완동물의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈,
지정된 전자파를 이용하여 애완동물의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 19, wherein the sensor module,
A wearable sensor module that is worn on the body of a pet and senses a specified sensing target;
A method for enhancing the emotional state of a pet using an area around the pet, comprising at least one sensor module among radar sensor modules for sensing a designated sensing target of the pet using a designated electromagnetic wave.
제 19항 또는 제 20항에 있어서, 상기 센싱 대상은,
애완동물의 심장박동, 애완동물의 체온, 애완동물 주변 습도, 애완동물의 무호흡 여부 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 19 or 20, wherein the sensing target,
A method for enhancing the emotional state of a pet using an area around the pet, comprising at least one of the pet's heartbeat, the pet's body temperature, the pet's ambient humidity, and whether the pet is apnea.
제 19항에 있어서, 상기 S개의 센싱 값 패턴 정보는,
애완동물의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 19, wherein the S sensed value pattern information comprises:
A method for enhancing the emotional state of a pet using an area around the pet, characterized in that it includes range information of a sensing value characteristic constituting each sensing value pattern for the sensing data of a specified sensing target related to the emotional expression of the pet. .
제 22항에 있어서, 상기 센싱 값 특징은,
센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
23. The method of claim 22, wherein the sensed value characteristic,
The emotional state of the pet using the area around the pet, characterized in that it comprises at least one or a combination of two or more of the sensing value change rule feature, the sensed value change feature, the sensed value change rate feature, and the sensed value change periodic feature augmentation method.
제 19항에 있어서, 상기 센싱 기반 상관도 수치 관계정보는,
지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 19, wherein the sensing-based correlation numerical relationship information,
The area around the pet, characterized in that it includes numerical information on correlation calculated through a relational expression proportional to the matching ratio between the sensing value recognition information recognized through the sensing data of the specified sensing target and the previously registered sensing value pattern information. A method of enhancing the emotional state of a pet using
제 19항에 있어서, 상기 센싱 기반 상관도 수치 관계정보는,
지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 19, wherein the sensing-based correlation numerical relationship information,
Pet using the area around the pet, characterized in that it includes the correlation numerical information for each matching ratio section between the sensing value recognition information recognized through the sensing data of the specified sensing target and the previously registered sensing value pattern information How to augment your emotional state.
제 1항에 있어서, 상기 n개의 감정 항목 별 애완동물 감정 상태 정보는,
n개의 감정 항목 정보와 각 감정 항목 별 애완동물 감정 상태의 수치정보를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the pet emotional state information for each of the n emotion items,
A method for enhancing the emotional state of a pet using an area around the pet, characterized in that it includes n emotional item information and numerical information of the pet's emotional state for each emotional item.
제 1항에 있어서, 상기 q개의 가상객체 데이터는,
상기 n개의 감정 항목 별 애완동물 감정 상태 정보에 대응하는 애완동물의 감정 상태를 표현하는 문장열을 애완동물 안면 주변 영역에 말풍선 형태로 표시하는 가상객체 데이터를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
According to claim 1, wherein the q virtual object data,
Pet surrounding, characterized in that it comprises virtual object data for displaying a sentence string expressing the emotional state of the pet corresponding to the pet emotional state information for each of the n emotional items in the form of a speech bubble in the area around the pet's face. A method of augmenting the emotional state of pets using domains.
제 1항에 있어서,
상기 비디오 데이터 상의 애완동물 안면의 지향 방향을 인식하는 단계를 더 포함하며,
상기 제8 단계는, 상기 애완동물 안면의 지향 방향에 대응하는 애완동물 안면 주변 영역에 상기 q개의 가상객체 데이터를 중첩 표시하는 단계를 포함하여 이루어지는 것을 특징으로 하는 애완동물 주변 영역을 이용한 애완동물의 감정 상태 증강 방법.
The method of claim 1,
Further comprising the step of recognizing the orientation direction of the pet's face on the video data,
The eighth step includes overlapping and displaying the q virtual object data on the area around the pet's face corresponding to the orientation direction of the pet's face. How to augment your emotional state.
KR1020190171102A 2019-12-19 2019-12-19 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region KR20210079479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190171102A KR20210079479A (en) 2019-12-19 2019-12-19 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171102A KR20210079479A (en) 2019-12-19 2019-12-19 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region

Publications (1)

Publication Number Publication Date
KR20210079479A true KR20210079479A (en) 2021-06-30

Family

ID=76601995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171102A KR20210079479A (en) 2019-12-19 2019-12-19 Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region

Country Status (1)

Country Link
KR (1) KR20210079479A (en)

Similar Documents

Publication Publication Date Title
US20180048750A1 (en) Audio/video wearable computer system with integrated projector
KR102172648B1 (en) Interaction apparatus for animal companion
US11929087B2 (en) Systems and methods for selectively attenuating a voice
KR102596833B1 (en) Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Based on Artificial Intelligence
KR20210080637A (en) Method for Displaying Pet's Emotional Sate Based on Artificial Intelligence
KR102611458B1 (en) Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region
Kim et al. Beginning of a new standard: Internet of Media Things
CN110178159A (en) Audio/video wearable computer system with integrated form projector
KR20150114310A (en) Interpretation system for interpretion movement of animal
KR20190107857A (en) Display apparatus and control method thereof
KR102549441B1 (en) Method for Displaying Baby's Emotional Sate
KR20220013498A (en) Apparatus for Processing Data between Neighbors based on Artificial Intelligence and Method for Processing Data between Neighbors Using the Same
JP6719434B2 (en) Device control device, device control method, and device control system
KR102596832B1 (en) Method for Providing Conversation with Pet using Augmented Reality by Pet's Emotional Sate
KR102549453B1 (en) Method for Providing Conversation with Baby using Augmented Reality by Baby's Emotional Sate
JP2002261966A (en) Communication support system and photographing equipment
KR20210072202A (en) Method for Outputting Infants Emotional Condition
KR20210079479A (en) Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region
JP7189406B2 (en) Communication device and remote communication system
KR20210079478A (en) Method for Providing Augmented Reality by Emotional Sate of Pet's Face
KR102549449B1 (en) Method for Providing Augmented Reality by Emotional Sate of Baby's Face
KR20210079477A (en) Method for Displaying Pet's Emotional Sate
KR20210079475A (en) Method for Protecting Invasion of Pet's Privacy
KR20210079483A (en) Method for Providing Augmented Reality by Emotional Sate of Pet's Face Based on Artificial Intelligence
KR20210072204A (en) Method for Processing Baby's Emotional Sate Information by Using Peripheral Region

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right