KR102611458B1 - Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region - Google Patents
Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region Download PDFInfo
- Publication number
- KR102611458B1 KR102611458B1 KR1020180106246A KR20180106246A KR102611458B1 KR 102611458 B1 KR102611458 B1 KR 102611458B1 KR 1020180106246 A KR1020180106246 A KR 1020180106246A KR 20180106246 A KR20180106246 A KR 20180106246A KR 102611458 B1 KR102611458 B1 KR 102611458B1
- Authority
- KR
- South Korea
- Prior art keywords
- baby
- information
- emotional
- emotional state
- designated
- Prior art date
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 643
- 238000000034 method Methods 0.000 title claims abstract description 206
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 35
- 230000002093 peripheral effect Effects 0.000 title 1
- 230000008451 emotion Effects 0.000 claims abstract description 161
- 230000008921 facial expression Effects 0.000 claims abstract description 132
- 230000014509 gene expression Effects 0.000 claims abstract description 88
- 206010011469 Crying Diseases 0.000 claims abstract description 61
- 230000005540 biological transmission Effects 0.000 claims abstract description 59
- 230000002708 enhancing effect Effects 0.000 claims abstract description 20
- 230000001815 facial effect Effects 0.000 claims abstract description 18
- 230000008859 change Effects 0.000 claims description 19
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 208000008784 apnea Diseases 0.000 claims description 4
- 230000036760 body temperature Effects 0.000 claims description 4
- 230000003416 augmentation Effects 0.000 claims 4
- 238000011002 quantification Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 49
- 238000007726 management method Methods 0.000 description 48
- 238000004891 communication Methods 0.000 description 42
- 230000006870 function Effects 0.000 description 17
- 230000005236 sound signal Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 239000003623 enhancer Substances 0.000 description 5
- 206010041349 Somnolence Diseases 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 230000008909 emotion recognition Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000032140 Sleepiness Diseases 0.000 description 1
- 230000036528 appetite Effects 0.000 description 1
- 235000019789 appetite Nutrition 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000001605 fetal effect Effects 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
- A61B5/0079—Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/04—Babies, e.g. for SIDS detection
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Psychiatry (AREA)
- Business, Economics & Management (AREA)
- Child & Adolescent Psychology (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Tourism & Hospitality (AREA)
- Developmental Disabilities (AREA)
- Social Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Marketing (AREA)
- Signal Processing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법에 관한 것으로, 사운드 입력부 및 카메라모듈을 구비하여 지정된 거점에 구비된 카메라장치와 통신하는 운영서버를 통해 실행되는 방법에 있어서, 아기의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 아기 표정 패턴 정보와 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보와, 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C(C≥2)개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보와, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하고, 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 아기 감정 상태 정보를 하나 이상의 지정된 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하고, 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 아기를 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하고, 수신된 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 저장영역에 연계 저장 관리하고, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 저장영역에 저장 관리하고, 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 아기 표정 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 일정 구간의 오디오 데이터를 판독하여 상기 아기에 대한 j(j≥1)개의 아기 울음소리 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하고, 상기 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 아기 표정 패턴 정보를 확인하고 상기 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 아기 울음소리 패턴 정보를 확인하고 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별하고, 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값, n2개의 감정 항목 별 아기 감정 상태 값 및 n3개의 감정 항목 별 아기 감정 상태 값을 이용하여 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성하고, 상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고, 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하는 아기의 감정 상태를 표현하는 문장열을 아기 안면 주변 영역에 말풍선 형태로 표시하는 q(1≤q≤r)개의 가상객체 데이터를 상기 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하며, 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공한다.The present invention relates to a method for enhancing a baby's emotional state using the area around the baby, and is performed through an operation server equipped with a sound input unit and a camera module and communicating with a camera device installed at a designated base, comprising: Among the F(F≥2) feature points present in the baby, E(E≥2) baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression, and among the designated N(N≥2) baby emotion items, the baby Matching relationship information between N1 (1≤N1≤N) baby emotion items that can be distinguished based on facial expression patterns, and facial expression-based correlation numerical relationship that quantifies the correlation between the E baby facial expression pattern information and N1 baby emotional items Based on facial expression-based emotional state determination information containing information, C (C≥2) baby cry pattern information related to the baby's emotional expression among the baby's cry patterns, and baby cry pattern among the designated N baby emotion items. Matching relationship information between N2 (1≤N2≤N) baby emotion items that can be distinguished by crying sound-based correlation numerical relationship information that quantifies the correlation between the C baby cry pattern information and N2 baby emotion items. S (S ≥ 2) sensing data of a designated sensing target related to the baby's emotional expression among sensing data sensed through a sensor module provided or connected to the camera device and emotional state determination information based on crying sounds, including Matching relationship information between value pattern information and N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of a designated sensing object among the specified N baby emotion items, the S sensing value pattern information, and N3 Register and store sensing-based emotional state determination information, including numerical relationship information, in the operating D/B, and augment the area around the baby's face by corresponding it to the baby's emotional state. Register and store R (R≥2) virtual object data in the operation D/B, and register virtual object matching information that matches the baby emotional state information for each designated emotion item with one or more designated virtual object data in the operation D/B. stores, receives video data encoded in a designated manner by filming a baby in the base through a camera module of the camera device, and audio data encoded in a designated manner input through a sound input unit of the camera device, and receives the received video Synchronizes the time of data and audio data, stores and manages them in conjunction with the storage area of the designated storage medium, receives sensing data sensed through a sensor module provided or linked to the camera device, and links the video data to the designated storage medium. Store and manage in the storage area, read the designated video data, and recognize f (1≤f≤F) feature points of the baby's facial area within the base. Among the recognized f feature points, feature points associated with the baby's emotional expression Recognize i (i ≥ 1) baby facial expression recognition information corresponding to geometric relationships, and read audio data of a certain section linked to the video data to provide j (j ≥ 1) baby cry recognition information for the baby. Recognize, read the sensing data associated with the video data, recognize k (k ≥ 1) sensing value recognition information for the sensing data of the designated sensing target associated with the emotional expression of the baby, and determine the facial expression-based emotional state. Based on the discrimination information, identify the e (1≤e≤E) baby expression pattern information that matches the recognized i baby facial expression recognition information and a preset standard similarity level or higher, and identify the baby facial expression pattern information that has a matching relationship with the e baby facial expression pattern information. n1 (1≤n1≤N1) baby emotion items are determined, and c (1≤c) is matched with the recognized j baby cry recognition information and a preset standard similarity level or higher based on the crying sound-based emotional state determination information. Confirm ≤C) baby cry pattern information, determine n2 (1≤n2≤N2) baby emotion items that have a matching relationship with the confirmed c baby cry pattern information, and provide the sensing-based emotional state determination information. Based on this, check s (1≤s≤S) sensing value pattern information that matches the recognized k sensing value recognition information and a preset standard similarity or higher, and have a matching relationship with the confirmed s sensing value pattern information. n3 (1≤n3≤N3) baby emotion items are determined, and based on the matching ratio between the recognized i baby expression recognition information and the e baby expression pattern information, the e baby expression pattern information and the n1 babies The correlation and numerical relationships between emotional items are read to calculate the baby emotional state value for each n1 emotional item, which quantifies the baby emotional state for each n1 emotional item corresponding to the recognized i baby facial expression recognition information, and the recognized j Based on the matching ratio between the c baby cry recognition information and the c baby cry pattern information, the correlation and numerical relationship between the c baby cry pattern information and the n2 baby emotion items are read, and the recognized j baby cries are read. Calculate the baby's emotional state value for each n2 emotional items that quantifies the baby's emotional state for each n2 emotional items corresponding to the sound recognition information, and match the ratio between the recognized k sensing value recognition information and the s sensing value pattern information. Based on this, the correlation and numerical relationship between the s sensing value pattern information and the n3 baby emotional items are read, and the n3 emotions are quantified for each of the n3 emotional items corresponding to the recognized k sensing value recognition information. Calculate baby emotional state values for each item, and use the calculated baby emotional state values for n1 emotional items, baby emotional state values for n2 emotional items, and baby emotional state values for n3 emotional items to specify n (1≤ Generate baby emotional state information for n≤N) emotional items, and r (1≤r≤R) virtual objects that match the baby emotional state information for each n emotional items generated based on the virtual object matching information. q(1≤q≤r) virtual object data that checks the data and displays a string of sentences expressing the baby's emotional state corresponding to the baby's emotional state information for each of the n emotional items in the form of a speech bubble in the area around the baby's face is displayed overlaid on the area around the baby's face on the video data, and the area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotion items, and the area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotional items. Transmission data including video data is provided to an app or IPTV on the user's wireless terminal.
Description
본 발명은 지정된 거점에 구비된 카메라장치를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말의 앱이나 IPTV로 제공 시 상기 카메라장치를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 아기 안면 주변 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 아기 안면 주변 영역을 상기 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하여 제공하는 것이다.The present invention provides one or more data acquired through the camera device when transmitting data including video data captured of a specific baby within the designated base is provided to an app or IPTV of the designated user's wireless terminal through a camera device provided at the designated base. Based on this, generate baby emotional state information for each designated emotional item for the specific baby and superimpose virtual object data corresponding to the baby emotional state information for each generated emotional item in the area around the baby's face on the video data of the transmitted data. The area around the baby's face is augmented to correspond to the baby's emotional state information for each emotional item.
종래에 다수개의 웹 PC 카메라가 설치된 병원 또는 조산원 또는 산후 조리원에서 회원으로 가입된 아기의 동영상이나 정지 화상 및 신생아 정보(예컨대, 태몽, 초음파 진단 사진 등)를 인터넷을 통해 회원에게 제공하는 서비스가 제안된 바 있다(특허공개번호 특2001-0091236(2001년10월23일)).In the past, hospitals, midwifery centers, or postpartum care centers equipped with multiple web PC cameras provide a service that provides members with video or still images of babies and newborn information (e.g., fetal dreams, ultrasound diagnosis photos, etc.) via the Internet. (Patent Publication No. Special 2001-0091236 (October 23, 2001)).
그러나 종래의 서비스는 단순히 아기의 동영상이나 정지 화상 및 신생아 정보를 인터넷을 통해 제공하는 것으로, 기본 제공되는 아기의 동영상이나 정지 화상 및 신생아 정보 외에 아기의 현재 상태와 관련된 실시간 정보를 자동 파악하여 제공하기에는 기술적으로 난해한 문제점을 지니고 있다.However, the conventional service simply provides baby videos, still images, and newborn information through the Internet. It is difficult to automatically identify and provide real-time information related to the baby's current condition in addition to the basic baby video, still images, and newborn information. It has technical difficulties.
상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 사운드 입력부 및 카메라모듈을 구비하여 지정된 거점에 구비된 카메라장치와 통신하는 운영서버를 통해 실행되는 방법에 있어서, 아기의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 아기 표정 패턴 정보와 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보와, 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C(C≥2)개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보와, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하고, 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 아기 감정 상태 정보를 하나 이상의 지정된 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하고, 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 아기를 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하고, 수신된 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 저장영역에 연계 저장 관리하고, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 저장영역에 저장 관리하고, 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 아기 표정 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 일정 구간의 오디오 데이터를 판독하여 상기 아기에 대한 j(j≥1)개의 아기 울음소리 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하고, 상기 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 아기 표정 패턴 정보를 확인하고 상기 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 아기 울음소리 패턴 정보를 확인하고 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별하고, 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값, n2개의 감정 항목 별 아기 감정 상태 값 및 n3개의 감정 항목 별 아기 감정 상태 값을 이용하여 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성하고, 상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고, 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하는 아기의 감정 상태를 표현하는 문장열을 아기 안면 주변 영역에 말풍선 형태로 표시하는 q(1≤q≤r)개의 가상객체 데이터를 상기 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하며, 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법을 제공함에 있다.The purpose of the present invention to solve the above problems is to, in a method executed through an operation server equipped with a sound input unit and a camera module and communicating with a camera device installed at a designated base, F Based on E(E≥2) baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression among (F≥2) feature points and the baby's expression pattern among the designated N(N≥2) baby emotion items. Contains matching relationship information between N1 (1≤N1≤N) baby emotion items that can be distinguished by expression-based correlation numerical relationship information that quantifies the correlation between the E baby expression pattern information and N1 baby emotion items. Facial expression-based emotional state discrimination information, C (C≥2) baby cry pattern information related to the baby's emotional expression among the baby's cry patterns, and N2 that can be distinguished based on the baby cry pattern among the designated N baby emotion items. A cry containing matching relationship information between (1≤N2≤N) baby emotion items and numerical relationship information based on crying sounds that quantifies the correlation between the C baby cry pattern information and N2 baby emotion items. Based emotional state determination information, S (S ≥ 2) sensing value pattern information for sensing data of a designated sensing target related to the baby's emotional expression among the sensing data sensed through a sensor module provided or connected to the camera device, and Matching relationship information between N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of the designated sensing object among the designated N baby emotion items, the S sensing value pattern information, and N3 baby emotion items Sensing-based emotional state determination information, which quantifies the inter-correlation relationship, is registered and stored in the operation D/B, and R (R) is used to augment the area around the baby's face by matching it to the baby's emotional state. ≥2) virtual object data are registered and stored in the operation D/B, and virtual object matching information that matches the baby emotional state information for each designated emotion item with one or more designated virtual object data is registered and stored in the operation D/B, Video data encoded in a designated manner is received by photographing a baby in the base through a camera module of the camera device, and audio data input through a sound input unit of the camera apparatus and encoded in a designated manner are received, and the received video data and audio data are received. Synchronizes the time of the device and manages linked storage in the storage area of the designated storage medium, receives sensing data sensed through a sensor module provided in or linked to the camera device, and stores it in the storage area of the designated storage medium in connection with the video data. Manages, reads designated video data, recognizes f (1≤f≤F) feature points of the baby's facial area within the base, and corresponds to the geometric relationship between feature points associated with the baby's emotional expression among the recognized f feature points. Recognize i (i ≥ 1) baby facial expression recognition information, read audio data of a certain section associated with the video data, and recognize j (j ≥ 1) baby cry recognition information for the baby, Reading the sensing data linked to the video data to recognize k (k≥1) sensing value recognition information for the sensing data of the designated sensing target associated with the baby's emotional expression, and based on the facial expression-based emotional state determination information Confirm e (1 ≤ e ≤ E) baby expression pattern information that matches the recognized i baby facial expression recognition information and a preset standard similarity or higher, and n1 (1 ≤ E) that has a matching relationship with the e baby facial expression pattern information. n1≤N1) baby emotion items are determined, and c (1≤c≤C) items are matched with the j recognized baby cry recognition information based on the crying sound-based emotional state determination information and a preset standard similarity level or higher. Check the baby cry pattern information, determine n2 (1≤n2≤N2) baby emotion items that have a matching relationship with the confirmed c baby cry pattern information, and based on the sensing-based emotional state determination information. Confirm s (1≤s≤S) sensing value pattern information that matches the recognized k sensing value recognition information and a preset standard similarity or higher, and n3 (1≤ n3≤N3) baby emotion items are determined, and the correlation between the e baby expression pattern information and the n1 baby emotion items is based on the matching ratio between the recognized i baby facial expression recognition information and the e baby facial expression pattern information. The numerical relationship is read to calculate the baby emotional state value for each n1 emotional item, which quantifies the baby emotional state for each n1 emotional item corresponding to the recognized i baby facial expression recognition information, and the recognized j baby crying sounds. Based on the matching ratio between the recognition information and the c baby cry pattern information, the correlation and numerical relationship between the c baby cry pattern information and the n2 baby emotion items are read, and the recognized j baby cry sound recognition information is read. Calculate the baby's emotional state value for each of the n2 emotional items, which quantifies the baby's emotional state for each of the n2 corresponding emotional items, based on the matching ratio between the recognized k sensing value recognition information and the s sensing value pattern information. Baby emotions for each of the n3 emotion items, which quantifies the baby's emotional state for each of the n3 emotion items corresponding to the recognized k sensing value recognition information by reading the numerical correlation between the s sensing value pattern information and the n3 baby emotion items. A state value is calculated, and n (1≤n≤N) is specified using the calculated baby emotional state value for each n1 emotional item, the baby emotional state value for each n2 emotional item, and the baby emotional state value for each n3 emotional item. Generate baby emotional state information for each emotional item, check r (1≤r≤R) virtual object data that matches the baby emotional state information for each n emotional item based on the virtual object matching information, and , q (1 ≤ q ≤ r) virtual object data that displays a sentence string expressing the baby's emotional state corresponding to the baby's emotional state information for each of the n emotional items in the form of a speech bubble in the area around the baby's face, and the video data. The area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotional items by overlapping the display on the area around the baby's face, and includes augmented video data to correspond to the baby's emotional state information for each of the n emotional items. The aim is to provide a method of enhancing the baby's emotional state using the area around the baby, which provides transmission data through an app on the user's wireless terminal or IPTV.
본 발명에 따른 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법은, 사운드 입력부 및 카메라모듈을 구비하여 지정된 거점에 구비된 카메라장치와 통신하는 운영서버를 통해 실행되는 방법에 있어서, 아기의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 아기 표정 패턴 정보와 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보와, 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C(C≥2)개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보와, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하고, 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 아기 감정 상태 정보를 하나 이상의 지정된 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하는 제1 단계와 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 아기를 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하고, 수신된 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 저장영역에 연계 저장 관리하고, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 저장영역에 저장 관리하는 제2 단계와 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 아기 표정 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 일정 구간의 오디오 데이터를 판독하여 상기 아기에 대한 j(j≥1)개의 아기 울음소리 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하는 제3 단계와 상기 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 아기 표정 패턴 정보를 확인하고 상기 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 아기 울음소리 패턴 정보를 확인하고 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별하는 제4 단계와 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하는 제5 단계와 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값, n2개의 감정 항목 별 아기 감정 상태 값 및 n3개의 감정 항목 별 아기 감정 상태 값을 이용하여 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성하는 제6 단계와 상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하는 제7 단계와 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하는 아기의 감정 상태를 표현하는 문장열을 아기 안면 주변 영역에 말풍선 형태로 표시하는 q(1≤q≤r)개의 가상객체 데이터를 상기 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하는 제8 단계 및 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 제9 단계를 포함하는 것을 특징으로 한다.The method for enhancing the baby's emotional state using the area around the baby according to the present invention is a method that is executed through an operation server that has a sound input unit and a camera module and communicates with a camera device installed at a designated base, Among the F (F≥2) existing feature points, E (E≥2) baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression, and the baby's expression among the designated N (N≥2) baby emotion items Matching relationship information between N1 (1≤N1≤N) baby emotion items that can be distinguished based on patterns, and facial expression-based correlation numerical relationship information that quantifies the correlation between the E baby expression pattern information and N1 baby emotion items. Based on facial expression-based emotional state discrimination information, C (C≥2) baby cry pattern information related to the baby's emotional expression among the baby's cry patterns, and baby cry pattern among the designated N baby emotion items. Contains matching relationship information between N2 (1≤N2≤N) distinguishable baby emotion items and numerical relationship information based on crying sounds that quantifies the correlation between the C baby cry pattern information and N2 baby emotion items. S (S ≥ 2) sensing values for the sensing data of a designated sensing target related to the baby's emotional expression among the emotional state determination information based on the crying sound and the sensing data sensed through the sensor module provided or linked to the camera device Matching relationship information between pattern information and N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of the designated sensing object among the designated N baby emotion items, and the S sensing value pattern information and the N3 Sensing-based correlation that quantifies the correlation between the baby's emotional items. Sensing-based emotional state determination information, including numerical relationship information, is registered and stored in the operation D/B, and the area around the baby's face is used to augment the area around the baby's face in response to the baby's emotional state. Register and store R (R≥2) virtual object data in the operation D/B, and register and store virtual object matching information that matches baby emotional state information for each designated emotion item with one or more designated virtual object data in the operation D/B. The first step is to photograph the baby in the base through the camera module of the camera device and receive video data encoded in a specified manner and audio data encoded in a specified manner input through the sound input unit of the camera device, and receive. Synchronizes the time of video data and audio data, stores and manages them in conjunction with the storage area of a designated storage medium, receives sensing data sensed through a sensor module provided or linked to the camera device, and stores designated data in conjunction with the video data. A second step of storing and managing the storage area of the medium and reading the designated video data to recognize f (1≤f≤F) feature points of the baby's facial area within the base, and the baby's emotion among the recognized f feature points Recognize i (i ≥ 1) baby facial expression recognition information corresponding to the geometric relationship between feature points associated with the expression, read the audio data of a certain section linked to the video data, and j (j ≥ 1) baby facial expression recognition information for the baby. A device that recognizes baby crying sound recognition information, reads sensing data associated with the video data, and recognizes k (k≥1) sensing value recognition information for the sensing data of a designated sensing target associated with the emotional expression of the baby. Based on step 3 and the facial expression-based emotional state determination information, e (1≤e≤E) baby facial expression pattern information that matches the recognized i baby facial expression recognition information and a preset standard similarity level or higher is confirmed, and the e baby Determine n1 (1≤n1≤N1) baby emotion items that have a matching relationship with facial expression pattern information, and determine the similarity between the recognized j baby cry recognition information and a preset standard based on the crying sound-based emotional state determination information. Confirm the c (1≤c≤C) baby cry pattern information matched above, and determine n2 (1≤n2≤N2) baby emotion items that have a matching relationship with the confirmed c baby cry pattern information. , Based on the sensing-based emotional state determination information, check the s (1≤s≤S) sensing value pattern information that matches the recognized k sensing value recognition information and a preset standard similarity or higher, and check the confirmed s sensing values. Based on the fourth step of determining n3 (1≤n3≤N3) baby emotion items that have a matching relationship with the value pattern information and the matching ratio between the recognized i baby facial expression recognition information and the e baby facial expression pattern information, The baby's emotional state for each of the n1 emotion items corresponding to the recognized i baby facial expression recognition information is quantified by reading the numerical correlation between the e baby facial expression pattern information and the n1 baby emotion items. An emotional state value is calculated, and a correlation value between the c baby cry pattern information and the n2 baby emotion items is based on the matching ratio between the j recognized baby cry recognition information and the c baby cry pattern information. By reading the relationship, the baby's emotional state values are calculated for each of the n2 emotional items, which quantifies the baby's emotional state for each of the n2 emotional items corresponding to the recognized j baby cry recognition information, and the recognized k sensing value recognition information. Based on the matching ratio between the s sensing value pattern information and the s sensing value pattern information, the correlation and numerical relationship between the s sensing value pattern information and the n3 baby emotion items are read, and n3 emotions corresponding to the recognized k sensing value recognition information are read. A fifth step of calculating the baby emotional state values for each of the n3 emotional items that quantify the baby's emotional state for each item, and the calculated baby emotional state values for the n1 emotional items, the baby emotional state values for the n2 emotional items, and the n3 emotions. A sixth step of generating baby emotional state information for each n (1≤n≤N) emotional items specified using the baby emotional state values for each item, and the baby for each n emotional items generated based on the virtual object matching information. A seventh step of checking r (1 ≤ r ≤ R) virtual object data matching the emotional state information and a sentence string expressing the baby's emotional state corresponding to the baby's emotional state information for each of the n emotional items is sent to the baby's face. q (1≤q≤r) virtual object data displayed in the form of a speech bubble in the surrounding area are overlaid on the area around the baby's face on the video data, and the area around the baby's face is included in the baby's emotional state information for each of the n emotion items. An eighth step of augmenting to correspond, and a ninth step of providing transmission data including video data augmented to correspond to the baby emotional state information for each of the n emotion items to an app or IPTV of the user's wireless terminal. do.
삭제delete
삭제delete
본 발명에 따르면, 상기 특징점 간 기하학 관계는, 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the geometric relationship between the feature points is characterized in that it includes one or more relationships among a distance relationship between each feature point, an angle relationship between each feature point, and a combination relationship of a distance relationship and an angle relationship between each feature point.
본 발명에 따르면, 상기 표정 기반 상관도 수치 관계정보는 아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다.According to the present invention, the facial expression-based correlation numerical relationship information may include correlation numerical information calculated through a relational expression proportional to the matching ratio between baby facial expression recognition information that recognizes the baby's facial expression and pre-registered baby facial expression pattern information. You can.
본 발명에 따르면, 상기 표정 기반 상관도 수치 관계정보는 아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다.According to the present invention, the facial expression-based correlation numerical relationship information may include correlation numerical information for each matching ratio section between baby facial expression recognition information that recognizes the baby's facial expression and pre-registered baby facial expression pattern information.
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
본 발명에 따르면, 상기 송신 데이터는, 상기 저장매체의 저장영역에 저장된 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the transmission data further includes audio data stored in the storage area of the storage medium.
본 발명에 따르면, 상기 지정된 비디오 데이터는 지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터, 지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함할 수 있다.According to the present invention, the designated video data may include at least one of video data periodically selected for each designated playback time unit and video data periodically selected for each designated number of playback frames.
본 발명에 따르면, 지정된 사용자 무선단말의 앱이나 IPTV로 상기 저장매체의 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인하는 단계를 더 포함하며, 상기 제3 단계는, 지정된 사용자 무선단말의 앱이나 IPTV로 비디오 데이터를 포함하는 송신 데이터를 제공하는 경우에 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, it further includes the step of confirming whether transmission data including video data stored in the storage area of the storage medium is provided to the app or IPTV of the designated user wireless terminal, and the third step is performed by the designated user wireless terminal. When providing transmission data including video data to an app or IPTV, designated video data among the video data of the transmission data is read, and f feature points of the baby's facial area in the base are recognized, and the recognized f It is characterized in that it includes the step of recognizing i baby facial expression recognition information corresponding to the geometric relationship between feature points related to the baby's emotional expression among the feature points.
본 발명에 따르면, 상기 제3 단계는, 지정된 저장매체의 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식하는 단계를 포함하며, 상기 제6 단계는, 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the third step reads designated video data from among the video data stored in the storage area of the designated storage medium, recognizes f feature points of the baby's facial area in the base, and selects f feature points among the recognized f feature points. It includes the step of recognizing i baby facial expression recognition information corresponding to the geometric relationship between feature points associated with the baby's emotional expression, wherein the sixth step is to combine the baby emotional state information for each of the generated n emotional items with the video data. It is characterized by further including the step of linked storage.
본 발명에 따르면, 상기 제6 단계는 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터의 지정된 재생 시점과 동기화하는 시간 값(또는 타임스탬프)과 연계하여 저장하는 단계를 포함할 수 있다.According to the present invention, the sixth step may include storing the baby emotional state information for each of the generated n emotional items in association with a time value (or timestamp) synchronized with a designated playback point of the video data. there is.
삭제delete
삭제delete
본 발명에 따르면, 상기 C개의 아기 울음소리 패턴 정보는, 아기의 감정표현과 연관된 각각의 아기 울음소리 패턴을 구성하는 울음소리 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the C baby cry pattern information is characterized in that it includes range information of cry characteristics that make up each baby cry pattern associated with the baby's emotional expression.
본 발명에 따르면, 상기 울음소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다.According to the present invention, the cry characteristic is a frequency band feature, a placement relationship feature of the frequency band feature, a periodicity feature of the frequency band feature, a sound intensity feature, a placement relationship feature of the sound intensity feature, a periodicity feature of the sound intensity feature, and a frequency band feature. It may include one or more features among a combination feature of a feature and a loudness feature, a placement relationship feature of a frequency band feature and a loudness feature, and a periodicity feature of a frequency band feature and a loudness feature.
본 발명에 따르면, 상기 울음소리 기반 상관도 수치 관계정보는, 아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the crying sound-based correlation numerical relationship information is a correlation calculated through a relational expression proportional to the matching ratio between the baby crying sound recognition information that recognizes the baby's crying sound and the already registered baby crying sound pattern information. It is characterized by including numerical information.
본 발명에 따르면, 상기 울음소리 기반 상관도 수치 관계정보는, 아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the crying sound-based correlation numerical relationship information includes correlation numerical information for each matching ratio section between the baby crying sound recognition information that recognizes the baby's crying sound and the already registered baby crying sound pattern information. It is characterized by being accomplished by doing so.
삭제delete
삭제delete
본 발명에 따르면, 상기 센서모듈은, 아기의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈, 지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the sensor module is at least one of a wearable sensor module that is worn on the baby's body and senses a designated sensing target, and a radar sensor module that senses a designated sensing target of the baby using designated electromagnetic waves. It is characterized by including one sensor module.
본 발명에 따르면, 상기 센싱 대상은, 아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the sensing object is characterized in that it includes at least one of the baby's heartbeat, the baby's body temperature, the humidity around the baby, and whether the baby is apnea.
본 발명에 따르면, 상기 S개의 센싱 값 패턴 정보는, 아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the S sensing value pattern information is characterized in that it includes range information of sensing value features that constitute each sensing value pattern for sensing data of a designated sensing target associated with the baby's emotional expression. .
본 발명에 따르면, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다.According to the present invention, the sensing value feature may include at least one or a combination of two or more of a sensing value change rule feature, a sensing value change amount feature, a sensing value change rate feature, and a sensing value change periodicity feature.
본 발명에 따르면, 상기 센싱 기반 상관도 수치 관계정보는, 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the sensing-based correlation numerical relationship information is a correlation calculated through a relational expression proportional to the matching ratio between sensing value recognition information recognized through sensing data of a designated sensing target and pre-registered sensing value pattern information. It is characterized by including numerical information.
본 발명에 따르면, 상기 센싱 기반 상관도 수치 관계정보는, 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.According to the present invention, the sensing-based correlation numerical relationship information includes correlation numerical information for each matching ratio section between sensing value recognition information recognized through sensing data of a designated sensing target and pre-registered sensing value pattern information. It is characterized by being accomplished by doing so.
본 발명에 따르면, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 포함할 수 있다.According to the present invention, the baby emotional state information for each of the n emotional items may include n emotional item information and numerical information about the baby's emotional state for each emotional item.
삭제delete
삭제delete
본 발명에 따르면, 상기 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법은, 상기 비디오 데이터 상의 아기 안면의 지향 방향을 인식하는 단계를 더 포함하며, 상기 제8 단계는 상기 아기 안면의 지향 방향에 대응하는 아기 안면 주변 영역에 상기 q개의 가상객체 데이터를 중첩 표시하는 단계를 포함할 수 있다.According to the present invention, the method for enhancing the baby's emotional state using the area around the baby further includes the step of recognizing the orientation direction of the baby's face on the video data, wherein the eighth step corresponds to the orientation direction of the baby's face. It may include the step of overlapping and displaying the q virtual object data in the area around the baby's face.
본 발명에 따르면, 지정된 거점에 구비된 카메라장치를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말의 앱이나 IPTV로 제공 시 상기 카메라장치를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 아기 안면 주변 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 아기 안면 주변 영역을 상기 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하여 제공함으로써, 무선단말의 앱이나 IPTV를 통해 상기 송신 데이터를 시청하는 사용자는 상기 송신 데이터의 비디오 데이터에 대응하는 아기의 영상 화면을 보고 상기 송신 데이터의 오디오 데이터에 대응하는 아기의 소리를 듣는 것 이외에 상기 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시되는 가상객체 데이터를 통해 아기의 현재 감정 상태를 직관적으로 실시간 파악할 수 있는 이점이 있다.According to the present invention, when transmission data including video data captured of a specific baby within the designated base is provided to an app or IPTV of the designated user's wireless terminal through a camera device provided at the designated base, one or more items obtained through the camera device Based on the data, generate baby emotional state information for each emotion item specified for the specific baby, and virtual object data corresponding to the baby emotional state information for each emotion item generated in the area around the baby's face on the video data of the transmitted data. By overlapping the display and augmenting the area around the baby's face to correspond to the baby's emotional state information for each emotional item, a user watching the transmitted data through an app of a wireless terminal or IPTV corresponds to the video data of the transmitted data. In addition to seeing the baby's video screen and listening to the baby's sounds corresponding to the audio data of the transmitted data, you can intuitively determine the baby's current emotional state in real time through virtual object data displayed overlaid on the area around the baby's face on the video data. There are benefits to this.
도 1은 본 발명의 실시 방법에 따라 아기의 감정 상태를 증강하는 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 정보 저장/등록 과정을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따라 지정된 거점의 카메라장치를 통해 획득한 획득 데이터를 전송하여 지정된 저장매체에 저장 관리하는 도시한 도면이다.
도 4는 본 발명의 제1 실시 방법에 따라 아기 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
도 5는 본 발명의 제2 실시 방법에 따라 아기 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
도 6은 본 발명의 제3 실시 방법에 따라 아기 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.1 is a diagram illustrating the configuration of a system for enhancing a baby's emotional state according to an implementation method of the present invention.
Figure 2 is a diagram illustrating the information storage/registration process according to the implementation method of the present invention.
Figure 3 is a diagram showing how acquisition data obtained through a camera device at a designated base is transmitted and stored and managed in a designated storage medium according to the implementation method of the present invention.
Figure 4 is a diagram illustrating providing transmission data including video data augmented with a baby's emotional state according to a first implementation method of the present invention.
Figure 5 is a diagram illustrating providing transmission data including video data augmented with a baby's emotional state according to a second implementation method of the present invention.
Figure 6 is a diagram illustrating providing transmission data including video data augmented with a baby's emotional state according to a third implementation method of the present invention.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the description below are for preferred implementation methods among various methods for effectively explaining the characteristics of the present invention, and the present invention is not limited to the drawings and description below.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following examples correspond to examples of preferred union forms among the numerous embodiments of the present invention, and examples in which specific configurations (or steps) are omitted in the following examples, or specific configurations (or steps) are omitted. An embodiment of dividing the function implemented in a specific configuration (or step), or an embodiment of integrating the function implemented in two or more configurations (or steps) into one configuration (or step), a specific configuration (or step) It is clearly stated that embodiments that replace the operation sequence of all fall within the scope of the present invention, even if not separately mentioned in the following examples. Therefore, based on the examples below, it is clearly stated that various embodiments corresponding to subsets or complements can be divided retroactively to the filing date of the present invention.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Additionally, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. The terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the overall content of the present invention.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical idea of the present invention is determined by the claims, and the following examples are a means to efficiently explain the advanced technical idea of the present invention to those skilled in the art to which the present invention pertains. It's just that.
도면1은 본 발명의 실시 방법에 따라 아기의 감정 상태를 증강하는 시스템의 구성을 도시한 도면이다.Figure 1 is a diagram showing the configuration of a system for enhancing the emotional state of a baby according to the implementation method of the present invention.
보다 상세하게 본 도면1은 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공 시 상기 카메라장치(190)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 아기 안면 주변 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하여 제공하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 시스템의 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 1 shows transmission data including video data captured of a specific baby within the designated base through a camera device 190 provided at the designated base to the app or IPTV 185 of the designated user wireless terminal 180. When provided, baby emotional state information is generated for each designated emotional item for the specific baby based on one or more data acquired through the camera device 190, and the generated baby emotional state information is generated in the area around the baby's face on the video data of the transmitted data. This shows the configuration of a system that displays virtual object data corresponding to the baby's emotional state information for each emotional item and augments the area around the baby's face to correspond to the baby's emotional state information for each of the n emotional items. Those of ordinary skill in the art to which the invention pertains can refer to and/or modify Figure 1 to provide various implementation methods for the configuration of the system (e.g., implementation methods in which some components are omitted, subdivided, or combined). ) can be inferred, but the present invention includes all of the above inferred implementation methods, and its technical features are not limited to only the implementation method shown in Figure 1.
본 발명의 시스템은, 지정된 거점에 구비되어 피사체를 찰영하고 통신망에 접속 가능한 카메라장치(190)와, 상기 카메라장치(190)의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 획득된 영상 신호를 지정된 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하는 기능, 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 기능, 상기 카메라장치(190)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 기능, 상기 비디오 데이터 상의 아기 안면 주변 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하는 기능 중 하나 이상의 기능을 수행하는 운영서버(100)를 포함하여 이루어진다. 상기 운영서버(100)는 독립된 서버 형태, 둘 이상의 서버 조합 형태, 기 구비된 서버를 통해 실행되는 소프트웨어 형태 중 적어도 하나 또는 둘 이상의 조합 형태로 구현될 수 있으며, 상기 운영서버(100)를 구현하는 실시예나 상기 운영서버(100)의 명칭에 의해 본 발명이 한정되지 아니한다.The system of the present invention includes a camera device 190 provided at a designated base to film a subject and connect to a communication network, and an image signal obtained by photographing a specific baby in the base through the camera module of the camera device 190. A function of receiving acquired data containing video data encoded in a designated manner and storing it in a specific storage area of a designated storage medium, transmitting data containing video data stored in a specific storage area of the storage medium to a designated user wireless terminal (180) ) function provided by the app or IPTV 185, the function of generating baby emotional state information for each designated emotional item for the specific baby based on one or more data acquired through the camera device 190, the video A function of overlapping and displaying virtual object data corresponding to the baby's emotional state information for each emotion item generated above in the area around the baby's face in the data to augment the area around the baby's face to correspond to the baby's emotional state information for each of the n emotional items. It includes an operation server 100 that performs one or more functions. The operating server 100 may be implemented in the form of at least one or a combination of two or more of the following: an independent server, a combination of two or more servers, and software running through a pre-equipped server. The present invention is not limited by the examples or the name of the operation server 100.
상기 카메라장치(190)는 지정된 거점에 구비되어 피사체를 촬영하는 카메라를 구비한 단말이나 장치의 총칭으로서, 바람직하게 산후조리원이나 가정집의 아기가 기거하는 공간에 구비되어 상기 공간에 존재하는 특정 아기를 촬영하는 카메라를 구비한 단말이나 장치를 포함할 수 있다. The camera device 190 is a general term for a terminal or device equipped at a designated location and equipped with a camera to photograph a subject. It is preferably installed in a space where a baby resides at a postpartum care center or at home and captures a specific baby present in the space. It may include a terminal or device equipped with a camera that takes pictures.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 거점 내의 지정된 피사체를 촬영하는 카메라모듈과, 지정된 통신망에 연결하는 통신모듈 및 상기 카메라모듈을 통해 획득된 영상 신호를 지정된 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행하는 제어모듈을 구비한다. According to the implementation method of the present invention, the camera device 190 includes a camera module that photographs a designated subject within the base, a communication module that connects to a designated communication network, and a video encoding the image signal acquired through the camera module in a designated manner. It is provided with a control module that performs a process of generating acquired data including data and transmitting it to the designated operation server 100 through the communication module.
상기 카메라모듈은 피사체로부터 반사된 광신호를 입력받는 하나 이상의 렌즈부와, 상기 렌즈부를 통해 입력되는 광신호를 검지하여 전기적 영상 신호로 변환하는 이미지 센서부 및 상기 렌즈부와 이미지 센서부 사이에서 자동초점 기능이나 줌 기능 등을 포함하는 지정된 기능 동작을 구현하는 액츄에이터부(Actuator)를 포함하여 이루어진다. 한편 실시 방법에 따라 상기 카메라모듈은상기 렌즈부와 이미지 센서부 사이에는 야간에도 피사체를 촬영하기 위한 적외선 필터를 포함하는 이상의 필터부를 더 구비할 수 있다. 한편 상기 카메라모듈은 상기 이미지 센서부를 통해 생성된 영상 신호를 제어모듈로 제공하기 위한 PCB를 구비한다. 한편 실시 방법에 따라 상기 카메라모듈은 상기 이미지 센서부를 통해 생성된 영상 신호의 품질 향상을 위해 지정된 절차에 따라 상기 영상 신호를 가공하는 이미지 신호처리 프로세서(Image Signal Processor; ISP)를 더 구비할 수 있다.The camera module includes one or more lens units that receive optical signals reflected from a subject, an image sensor unit that detects optical signals input through the lens unit and converts them into electrical image signals, and an automatic connection between the lens unit and the image sensor unit. It includes an actuator that implements designated functional operations, including focus functions and zoom functions. Meanwhile, depending on the implementation method, the camera module may further include a filter unit between the lens unit and the image sensor unit including an infrared filter for photographing a subject even at night. Meanwhile, the camera module is equipped with a PCB for providing the image signal generated through the image sensor unit to the control module. Meanwhile, depending on the implementation method, the camera module may further be equipped with an image signal processor (ISP) that processes the image signal according to a specified procedure to improve the quality of the image signal generated through the image sensor unit. .
상기 통신모듈은 패킷 기반의 통신망에 연결하는 모듈의 총칭으로서, 바람직하게 UTP 케이블 등의 유선을 이용하여 통신망에 연결하는 통신모듈과 무선랜을 통해 통신망에 연결하는 통신모듈 중 적어도 하나 또는 둘을 모두 포함할 수 있다. 한편 실시 방법에 따라 상기 통신모듈은 무선랜 이외에 이동통신망이나 별도의 지정된 무선 통신을 통해 통신망에 연결하는 통신모듈을 더(또는 대체) 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The communication module is a general term for modules that connect to a packet-based communication network, and preferably includes at least one or both of a communication module that connects to a communication network using a wire such as a UTP cable and a communication module that connects to a communication network through a wireless LAN. It can be included. Meanwhile, depending on the implementation method, the communication module may further (or replace) include a communication module that connects to the communication network through a mobile communication network or a separately designated wireless communication in addition to the wireless LAN, but the present invention is not limited thereto.
상기 제어모듈은 상기 카메라모듈을 통해 생성된 영상 신호를 지정된 방식으로 엔코딩하여 비디오 데이터를 생성할 수 있다. 한편 실시 방법에 따라 상기 비디오 데이터는 상기 카메라모듈을 통해 생성되어 상기 제어모듈로 전달될 수 있다. 한편 상기 비디오 데이터는 상기 영상 신호를 촬영한 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. The control module may generate video data by encoding the video signal generated through the camera module in a designated manner. Meanwhile, depending on the implementation method, the video data may be generated through the camera module and transmitted to the control module. Meanwhile, the video data may further include a time value (or timestamp) at the time the video signal was captured.
상기 제어모듈은 상기 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 한편 실시 방법에 따라 상기 획득 데이터는 상기 비디오 데이터 이외에 오디오 데이터를 더 포함하거나 및/또는 지정된 센서모듈을 통해 센싱된 센싱 데이터를 더 포함할 수 있다. The control module may perform a procedure of generating acquisition data including the video data and transmitting it to the designated operation server 100 through the communication module. Meanwhile, depending on the implementation method, the acquired data may further include audio data in addition to the video data and/or may further include sensing data sensed through a designated sensor module.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 거점 내의 사운드 신호를 입력받는 사운드 입력부를 더 구비하며, 이 경우 상기 제어모듈은 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정된 방식으로 엔코딩한 오디오 데이터를 더 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다.According to the method of implementing the present invention, the camera device 190 further includes a sound input unit that receives a sound signal within the base, and in this case, the control module encodes the sound signal obtained through the sound input unit in a designated manner. A procedure can be performed to generate acquired data further including audio data and transmit it to the designated operation server 100 through the communication module.
상기 사운드 입력부는 공기의 진동을 전기적 신호 형태의 사운드 신호로 변환하는 마이크로폰 및 이를 제어모듈과 인터페이스하는 인터페이스부를 포함하여 구성되며, 상기 제어모듈은 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정된 지정된 방식으로 엔코딩하여 오디오 데이터를 생성할 수 있다. 한편 실시 방법에 따라 상기 사운드 입력부가 별도의 모듈 형태로 구현되는 겨우, 상기 오디오 데이터는 상기 사운드 입력부를 통해 카메라모듈을 통해 생성되어 상기 제어모듈로 전달될 수 있다. 한편 상기 오디오 데이터는 상기 사운드 신호를 입력받은 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. The sound input unit includes a microphone that converts air vibration into a sound signal in the form of an electrical signal, and an interface unit that interfaces the same with a control module, wherein the control module converts the sound signal obtained through the sound input unit into a sound signal in a designated manner. Audio data can be generated by encoding. Meanwhile, when the sound input unit is implemented in the form of a separate module according to the implementation method, the audio data can be generated through the camera module and transmitted to the control module through the sound input unit. Meanwhile, the audio data may further include a time value (or timestamp) at the time the sound signal is input.
상기 카메라장치(190)에 상기 사운드 입력부를 구비하여 상기 사운드 입력부를 통해 획득된 사운드 신호를 엔코딩한 오디오 데이터가 생성되는 경우, 상기 제어모듈은 상기 비디오 데이터와 오디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. When the camera device 190 is provided with the sound input unit and audio data encoded by the sound signal acquired through the sound input unit is generated, the control module generates acquired data including the video data and audio data. The transmission procedure to the designated operation server 100 can be performed through the communication module.
본 발명의 일 실시 방법에 따르면, 상기 획득 데이터는 상기 비디오 데이터와 오디오 데이터를 지정된 데이터 포맷에 포함하는 동영상 데이터(또는 멀티미디어 데이터) 형태로 생성될 수 있다.According to an implementation method of the present invention, the acquired data may be generated in the form of video data (or multimedia data) including the video data and audio data in a designated data format.
본 발명의 다른 일 실시 방법에 따르면, 상기 획득 데이터는 상기 비디오 데이터와 오디오 데이터를 지정된 각각의 데이터 포맷에 포함하되, 상기 비디오 데이터와 오디오 데이터에 포함된 시간 값(또는 타임스탬프)를 통해 시점을 동기화 가능한 각각의 데이터 형태로 생성될 수 있다.According to another implementation method of the present invention, the acquired data includes the video data and audio data in each designated data format, and the viewpoint is determined through a time value (or timestamp) included in the video data and audio data. It can be created in each data format that can be synchronized.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 지정된 사운드 신호를 지정된 신호 강도로 출력하는 사운드 출력부를 더 구비할 수 있으며, 이 경우 상기 제어모듈은 지정된 절차에 따라 상기 사운드 출력부를 통해 출력할 사운드 신호에 대응하는 오디오 데이터를 생성하거나 및/또는 지정된 저장영역으로부터 추출하거나 및/또는 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 사운드 출력부를 통해 출력할 사운드 신호에 대응하는 오디오 데이터를 수신하고, 상기 생성/추출/수신된 오디오 데이터에 대응하는 사운드 신호를 상기 사운드 출력부를 통해 출력하도록 처리하는 절차를 수행할 수 있다.According to the implementation method of the present invention, the camera device 190 may further be provided with a sound output unit that outputs a designated sound signal at a designated signal strength, and in this case, the control module outputs the sound through the sound output unit according to a designated procedure. Generate audio data corresponding to the sound signal to be output and/or extract it from a designated storage area and/or extract audio data corresponding to the sound signal to be output through the sound output unit from the operation server 100 designated through the communication module. A procedure may be performed to receive and process a sound signal corresponding to the generated/extracted/received audio data to be output through the sound output unit.
상기 사운드 출력부는 오디오 데이터를 디코딩한 전기적 신호 형태의 사운드 신호를 출력하는 스피커 및 이를 제어모듈과 인터페이스하는 인터페이스부를 포함하여 구성되며, 상기 제어모듈은 상기 사운드 출력부를 통해 출력할 오디오 데이터를 생성하거나 및/또는 지정된 저장영역으로부터 추출하거나 및/또는 상기 통신모듈을 통해 지정된 운영서버(100)로부터 수신하고, 상기 사운드 출력부를 통해 상기 오디오 데이터에 대응하는 사운드 신호를 지정된 신호 강도(예컨대, 카메라장치(190)의 스피커를 통해 출력된 사운드 신호가 지정된 거리 내외로 이격된 아기에게 지정된 소리 크기로 전달되도록 설정된 신호 강도)로 출력할 수 있다. The sound output unit includes a speaker that outputs a sound signal in the form of an electrical signal decoded from audio data, and an interface unit that interfaces the speaker with a control module. The control module generates audio data to be output through the sound output unit, and /or extract from a designated storage area and/or receive from the designated operation server 100 through the communication module, and output a sound signal corresponding to the audio data through the sound output unit with a designated signal strength (e.g., camera device 190 The sound signal output through the speaker can be output at a signal intensity set to be transmitted at a specified sound volume to a baby spaced within a specified distance.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 지정된 센서를 통해 아기의 지정된 센싱 대상을 센싱하는 센서모듈을 구비하거나 연계될 수 있으며, 상기 제어모듈은 상기 센서모듈을 통해 센싱하여 획득된 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 더 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 바람직하게, 상기 센서모듈을 통해 센싱하는 아기의 지정된 센신 대상은 아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함할 수 있다.According to the implementation method of the present invention, the camera device 190 may be provided with or linked to a sensor module that senses a designated sensing target of the baby through a designated sensor, and the control module may be configured to detect the baby's designated sensing object through a designated sensor. A procedure may be performed to generate acquired data further including sensing data encoded by a sensing signal in a designated manner and transmit it to the designated operation server 100 through the communication module. Preferably, the baby's designated sensing object sensed through the sensor module may include at least one of the baby's heartbeat, the baby's body temperature, the humidity around the baby, and whether the baby is apnea.
상기 센서모듈은 아기의 신체 중 지정된 부위에 착용하여 아기의 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈을 포함할 수 있으며, 이 경우 상기 제어모듈은 지저된 근거리 통신(예컨대, 블루투스 등)을 통해 상기 웨어러블 센서모듈과 연계하여 상기 센서모듈을 통해 센싱된 센싱 값에 대응하는 센싱 신호를 수신하거나 또는 상기 센서모듈을 통해 상기 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 수신할 수 있다. The sensor module may include a wearable sensor module that is worn on a designated part of the baby's body to sense the baby's designated sensing target. In this case, the control module uses established short-range communication (e.g., Bluetooth, etc.). In connection with the wearable sensor module, a sensing signal corresponding to a sensing value sensed through the sensor module may be received, or sensing data encoded by the sensing signal in a designated manner may be received through the sensor module.
한편 상기 센서모듈은 지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈을 포함할 수 있으며, 이 경우 상기 제어모듈은 상기 레이더 센서모듈을 통해 싱된 센싱 값에 대응하는 센싱 신호를 확인하고 지정된 방식으로 엔코딩하여 센싱 데이터를 생성할 수 있다. 한편 상기 레이더 센서모듈은 상기 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 생성하여 상기 제어모듈로 제공할 수 있으며, 이 경우 상기 제어모듈은 상기 레이더 센서모듈로부터 상기 센싱 데이터를 제공받을 수 있다. Meanwhile, the sensor module may include a radar sensor module that senses the designated sensing target of the baby using designated electromagnetic waves. In this case, the control module may generate a sensing signal corresponding to the sensing value received through the radar sensor module. Sensing data can be generated by checking and encoding in a specified manner. Meanwhile, the radar sensor module can generate sensing data encoded by the sensing signal in a designated manner and provide it to the control module. In this case, the control module can receive the sensing data from the radar sensor module.
본 발명의 실시 방법에 따르면, 상기 센싱 데이터는 상기 센서모듈을 통해 지정된 센싱 대상을 센싱한 센싱 값을 포함하며, 바람직하게 상기 센서모듈을 통해 상기 센싱 값을 센싱한 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. According to the implementation method of the present invention, the sensing data includes a sensing value obtained by sensing a designated sensing target through the sensor module, and preferably includes a time value (or timestamp) at the time of sensing the sensing value through the sensor module. ) may further be included.
상기 카메라장치(190)에 상기 센서모듈을 구비하거나 연계시켜 아기의 지정된 센싱 대상을 센싱한 센싱 데이터가 생성되는 경우, 상기 제어모듈은 상기 획득 데이터에 상기 센싱 데이터를 추가하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 바람직하게, 상기 센싱 데이터는 지정된 데이터 포맷에 포함된 형태로 상기 획득 데이터에 포함될 수 있으며, 상기 비디오 데이터와 센싱 데이터에 포함된 시간 값(또는 타임스탬프)를 통해 시점을 동기화 가능한 데이터 형태로 생성될 수 있다.When the camera device 190 is equipped with or linked to the sensor module to generate sensing data that senses the baby's designated sensing target, the control module adds the sensing data to the acquired data and detects the designated sensing target through the communication module. The transmission procedure to the operation server 100 can be performed. Preferably, the sensing data may be included in the acquired data in a form included in a designated data format, and may be generated in a form of data whose viewpoint can be synchronized through a time value (or timestamp) included in the video data and the sensing data. You can.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 상기 카메라모듈의 촬영 방향을 상/하/좌/우 방향으로 지정된 각도 범위 내로 구동하는 구동모듈을 더 구비하며, 상기 제어모듈은 상기 카메라모듈을 통해 촬영되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체를 인식하는 과정을 시도할 수 있다. 만약 상기 객체가 인식되지 않는 경우, 상기 제어모듈은 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체가 인식하는 과정을 전 각도 범위에 도달할 때까지 반복할 수 있다. 만약 상기의 인식 과정을 통해 상기 객체가 인식되면, 상기 카메라장치(190)는 상기 인식된 아기의 안면 영역을 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 촬영방향을 제어하고, 상기 아기의 안면 영역의 움직임이나 이동에 반응하여 상기 아기의 안면 영역을 추적하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어할 수 있다. 한편 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 제어하거나 상기 객체를 인식하는 과정은 상기 서버를 통해 실행될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the implementation method of the present invention, the camera device 190 further includes a driving module that drives the camera module in the shooting direction in the up/down/left/right directions within a specified angle range, and the control module controls the camera. By reading the video data captured through the module, you can attempt to recognize an object that corresponds to the baby (or the baby's face) or the cradle or blanket on which the baby is lying. If the object is not recognized, the control module moves the shooting direction of the camera module through the drive module by a specified angle range in a specified direction and repeats the process of recognizing the object until the entire angle range is reached. can do. If the object is recognized through the above recognition process, the camera device 190 controls the shooting direction so that the recognized facial area of the baby is within a designated area on the video data, and moves the facial area of the baby. By tracking the baby's facial area in response to movement, the shooting direction of the camera module can be controlled to exist within a designated area on the video data. Meanwhile, the process of controlling the shooting direction of the camera module or recognizing the object through the drive module may be performed through the server, but the present invention is not limited thereto.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)는 램프를 통해 지정된 형상이나 영상을 천정이나 벽면에 투영하는 프로젝터부를 더 구비할 수 있으며, 이 경우 상기 제어모듈은 지정된 절차에 따라 상기 프로젝터부의 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 프로젝터부의 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 프로젝터부의 램프를 온/오프 처리할 수 있다. 한편 상기 프로젝터부를 통해 복수의 필름 중 어느 한 필름으로 선택하여 투영할 형상이나 영상을 선택 가능한 경우, 상기 제어모듈은 지정된 절차에 따라 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리할 수 있다. 한편 상기 프로젝터부를 통해 전자적 형상이나 전자적 영상을 투영 가능한 경우, 상기 제어모듈은 지정된 절차에 따라 지정된 저장영역에 저장된 전자적 형상이나 전자적 영상을 추출하여 상기 프로젝터부를 통해 투영할 형상이나 영상으로 처리하거나 및/또는 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 저장된 전자적 형상이나 전자적 영상을 및/또는 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 수신된 전자적 형상이나 전자적 영상을 상기 프로젝터부를 통해 투영할 형상이나 영상으로 처리하거나 및/또는 램프를 온/오프 처리할 수 있다. According to the implementation method of the present invention, the camera device 190 may further include a projector unit that projects a designated shape or image onto the ceiling or wall through a lamp. In this case, the control module controls the projector unit according to a designated procedure. The lamp can be turned on/off, or the control module can receive control information for turning on/off the lamp of the projector unit from the designated operation server 100 through the communication module, and the control module can receive the control information. Based on this, the lamp of the projector unit can be turned on/off. Meanwhile, when it is possible to select a shape or image to be projected by selecting one of a plurality of films through the projector unit, the control module selects the film of the projector unit and/or turns on/off the lamp according to a designated procedure. Alternatively, the control module may receive control information for selecting the film of the projector unit and/or turning on/off the lamp from the designated operation server 100 through the communication module, and may receive the control information. Based on this, the film of the projector unit can be selected and/or the lamp can be turned on/off. Meanwhile, when an electronic shape or electronic image can be projected through the projector unit, the control module extracts the electronic shape or electronic image stored in a designated storage area according to a designated procedure and processes it into a shape or image to be projected through the projector unit, and/ Alternatively, the lamp can be turned on/off, or the control module receives the stored electronic shape or electronic image from the designated operation server 100 through the communication module and/or control information for turning the lamp on/off. Based on the control information, the received electronic shape or electronic image can be processed into a shape or image to be projected through the projector unit, and/or the lamp can be turned on/off.
상기 사용자 무선단말(180)은 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 사용자가 사용하는 무선통신기기의 총칭으로서, 사용자가 사용하는 휴대폰, 스마트폰, 태블릿PC 등의 각종 무선통신기기를 포함할 수 있다. The user wireless terminal 180 is a general term for wireless communication devices used by the user who will receive transmission data including video data captured through the camera device 190, such as a mobile phone, smartphone, or tablet PC used by the user. It may include various wireless communication devices such as.
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(180)은 운영서버(100)에 지정된 정보를 등록하고, 상기 운영서버(100)로부터 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받기 위해 앱(Application)이 설치 실행된다. 이하, 별도의 언급이 없더라도 상기 사용자 무선단말(180)을 주체 또는 객체로 하여 구현되는 기능의 설명은 상기 앱을 통해 구현되는 기능임을 밝혀두는 바이다.According to the implementation method of the present invention, the user wireless terminal 180 registers specified information in the operation server 100 and includes video data captured through the camera device 190 from the operation server 100. An application is installed and executed to receive transmission data. Hereinafter, unless otherwise stated, the description of the function implemented using the user wireless terminal 180 as the subject or object will be made clear that it is a function implemented through the app.
상기 운영서버(100)는 지정된 거점에 구비된 카메라장치(190)와 통신하고 지정된 앱을 설치 실행한 사용자 무선단말(180)의 앱과 통신 가능한 서버의 총칭으로서, 상기 카메라장치(190)의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하는 기능, 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 기능 중 적어도 하나의 기능을 수행하며, 본 발명에 따라 상기 카메라장치(190)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 기능과, 상기 비디오 데이터 상의 아기 안면 주변 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보에 대응하는 가상객체 데이터를 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하는 기능 중 적어도 하나의 기능을 수행한다.The operating server 100 is a general term for a server capable of communicating with the camera device 190 provided at a designated base and communicating with the app of the user wireless terminal 180 that installs and executes the designated app, and is the camera of the camera device 190. A function to receive acquisition data including video data encoded in a designated manner by filming a specific baby in the base through a module and store it in a specific storage area of a designated storage medium, video data stored in a specific storage area of the storage medium It performs at least one function of providing transmission data including to an app of the designated user wireless terminal 180 or IPTV 185, and one or more data acquired through the camera device 190 according to the present invention. Based on this, a function to generate baby emotional state information for each emotional item specified for the specific baby, and superimposing virtual object data corresponding to the baby emotional state information for each generated emotional item in the area around the baby's face on the video data. At least one of the functions of displaying and augmenting the area around the baby's face to correspond to the baby's emotional state information for each of the n emotional items is performed.
본 발명의 실시 방법에 따르면, 상기 송신 데이터는 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터 외에, 상기 비디오 데이터와 연계되어 상기 저장매체의 특정 저장영역에 저장된 오디오 데이터, 또는 상기 비디오 데이터를 포함하는 동영상 데이터의 오디오 데이터를 더 포함할 수 있다.According to an implementation method of the present invention, the transmission data includes, in addition to video data stored in a specific storage area of the storage medium, audio data stored in a specific storage area of the storage medium in connection with the video data, or the video data. Audio data of the video data may be further included.
도면1을 참조하면, 상기 운영서버(100)는, 아기의 감정 상태를 판별하기 위해 인식하도록 지정된 인식 대상의 패턴 정보와 각 아기 감정 항목 사이의 매칭 관계정보 및 상기 지정된 인식 대상의 패턴 정보와 각 아기 감정 항목 간 상관도를 수치화한 상관도 수치 관계정보를 포함하는 지정된 인식 대상 별 감정상태 판별 정보를 지정된 운영D/B에 등록 저장하여 관리하는 정보 관리부(105)를 포함한다. Referring to Figure 1, the operation server 100, in order to determine the emotional state of the baby, matches the pattern information of the recognition target designated to be recognized and each baby emotional item, and the pattern information of the designated recognition target. It includes an information management unit 105 that registers, stores, and manages emotional state determination information for each designated recognition target, including numerical correlation information, which quantifies the correlation between the baby's emotional items, in a designated operation D/B.
상기 정보 관리부(105)는 아기의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 아기 표정 패턴 정보와 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장한다. The information management unit 105 provides E (E ≥ 2) baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression among the F (F ≥ 2) feature points present in the baby's facial area and the designated N. It includes matching relationship information between N1 (1≤N1≤N) baby emotion items that can be distinguished based on baby expression patterns among (N≥2) baby emotion items, and includes the E baby expression pattern information and N1 baby emotions. Expression-based emotional state determination information, which includes facial expression-based correlation and numerical relationship information that quantifies the correlation between items, is registered and stored in the designated operation D/B.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 아기의 안면 영역에 존재하는 F개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E개의 아기 표정 패턴 정보를 등록받고, 상기 E개의 아기 표정 패턴 정보를 지정된 N개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1개의 아기 감정 항목과 매칭하는 매칭 관계정보를 등록받고, 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목을 행 또는 열의 타이틀로 포함하며 상기 표정 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀(Cell)의 정보로 포함하는 테이블 형태의 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 receives E baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression among the F feature points present in the baby's facial area from the designated operating terminal. Receive registration, and receive matching relationship information that matches the E baby expression pattern information with N1 baby emotion items that can be distinguished based on the baby expression pattern among the designated N baby emotion items, and register the E baby expression pattern information and N1 baby emotion items. The facial expression-based correlation information, which quantifies the correlation between the baby's emotional items, can be registered and stored in the designated operating D/B. For example, the information management unit 105 includes the E baby expression pattern information and N1 baby emotion items as row or column titles, and stores the facial expression-based correlation numerical relationship information in cells corresponding to each row and column. The facial expression-based emotional state determination information in the form of a table included as information can be registered and stored in the designated operation D/B.
본 발명의 실시 방법에 따르면, 상기 N개의 아기 감정 항목은 '기쁨(喜)', '노여움(怒)', '슬픔(哀)', '즐거움(樂)', '사랑(愛)', '미움(惡)', '욕심(欲)' 등의 기본 감정 중에서 사회화가 진행되지 않거나 성인보다 덜 진행된 아기라도 느낄 수 있는 하나 이상의 감정(예컨대, '기쁨', '노여움', '슬픔', '즐거움' 등)에 대응하는 감정 항목을 포함할 수 있으며, 상기 기본 감정 외에 아기가 느낄 수 있는 다양한 감정(예컨대, '짜증', '외로움', '답답함', '불쾌', '두려움' 등)에 대한 감정 항목을 더 포함하거나 및/또는 상기 기본 감정 중 적어도 하나를 아기의 상황에 맞게 구체화한 감정(예컨대, '욕심' 중 수면욕에 해당하는 '졸림'이나 식욕에 해당하는 '배고픔' 등)에 대응하는 감정 항목을 더 포함할 수 있다. According to the method of implementing the present invention, the N baby emotion items include 'joy', 'anger', 'sadness', 'joy', 'love', Among the basic emotions such as 'hatred' and 'greed', there is one or more emotions that even babies who are not socialized or are less advanced than adults can feel (e.g. 'joy', 'anger', 'sadness', It may include emotional items corresponding to 'joy', etc.), and in addition to the basic emotions above, various emotions that the baby can feel (e.g., 'annoyed', 'lonely', 'frustrated', 'displeasure', 'fear', etc.) ) and/or an emotion that embodies at least one of the basic emotions above to suit the baby's situation (e.g., 'sleepiness' corresponding to the desire to sleep among 'greed', 'hunger' corresponding to appetite, etc. ) may further include emotion items corresponding to.
본 발명의 일 실시 방법에 따르면, 상기 E개의 아기 표정 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 표정 패턴에 대응하는 각 특징점 간 기하학 관계 정보를 포함할 수 있다. 바람직하게, 상기 특징점 간 기하학 관계는 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함할 수 있다. 예를들어, 상기 특징점 간 기하학 관계 정보는 지정된 기준 특징점 간 거리 수치를 기준으로 하는 각 특징점 간 거리 수치, 각 특징점 간 각도 수치, 각 특징점 간 거리 수치와 각도 수치의 조합 중 하나 이상의 수치를 포함할 수 있다. According to one implementation method of the present invention, the E baby facial expression pattern information may include geometric relationship information between each feature point corresponding to each baby facial expression pattern associated with the baby's emotional expression. Preferably, the geometric relationship between the feature points may include one or more of a distance relationship between each feature point, an angle relationship between each feature point, and a combination relationship of a distance relationship and an angle relationship between each feature point. For example, the geometric relationship information between feature points may include one or more of a distance value between each feature point based on a specified distance value between reference feature points, an angle value between each feature point, and a combination of the distance value and angle value between each feature point. You can.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 E개의 아기 표정 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 표정 패턴에 대응하는 각 특징점 간 기하학 관계의 범위 정보를 포함할 수 있다. 바람직하게, 상기 특징점 간 기하학 관계는 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함할 수 있다. 예를들어, 상기 특징점 간 기하학 관계의 범위 정보는 지정된 기준 특징점 간 거리 수치를 기준으로 하는 각 특징점 간 거리 수치 범위, 각 특징점 간 각도 수치 범위, 각 특징점 간 거리 수치 범위와 각도 수치 범위의 조합 중 하나 이상의 수치 범위를 포함할 수 있다. Meanwhile, according to another implementation method of the present invention, the E baby facial expression pattern information may include range information of the geometric relationship between each feature point corresponding to each baby facial expression pattern associated with the baby's emotional expression. Preferably, the geometric relationship between the feature points may include one or more of a distance relationship between each feature point, an angle relationship between each feature point, and a combination relationship of a distance relationship and an angle relationship between each feature point. For example, the range information of the geometric relationship between feature points may be a combination of the distance value range between each feature point based on the specified reference feature point distance value, the angle value range between each feature point, and the distance value range and angle value range between each feature point. May contain one or more numerical ranges.
본 발명의 일 실시 방법에 따르면, 상기 표정 기반 상관도 수치 관계정보는 아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 표정 기반 상관도 수치 관계정보는 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to one implementation method of the present invention, the facial expression-based correlation value relationship information is a correlation value calculated through a relationship equation proportional to the matching ratio between baby facial expression recognition information that recognizes the baby's facial expression and pre-registered baby facial expression pattern information. May contain information. For example, the facial expression-based correlation numerical relationship information may be calculated as small numerical information as the matching ratio between baby facial expression recognition information and pre-registered baby facial expression pattern information decreases, and as the matching ratio increases, it may be calculated as large numerical information. It can be.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 표정 기반 상관도 수치 관계정보는 아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 표정 기반 상관도 수치 관계정보는 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. Meanwhile, according to another implementation method of the present invention, the facial expression-based correlation numerical relationship information includes correlation numerical information for each matching ratio section between the baby facial expression recognition information that recognizes the baby's facial expression and the already registered baby facial expression pattern information. It can be included. For example, the facial expression-based correlation numerical relationship information may be calculated as '0' or numerical information of a specified minimum value when the matching ratio between baby facial expression recognition information and pre-registered baby facial expression pattern information is a pre-set minimum ratio range. , if the matching ratio is a preset maximum ratio section, it can be calculated as numerical information of the specified maximum value.
한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 표정 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(140)를 통해 지정된 아기 표정 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 아기 표정 인식 정보가 인식된 후에 상기 카메라장치(190)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 아기의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 아기의 보호자가 아기에게 발화하는 음성 중 아기 감정 인지와 관련된 음성(예컨대, '우리 애기 배고프구나', '우리 애기 똥 ?奐립?', '우리 애기 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 아기 표정 인식 정보가 인식된 후에 보호자의 아기 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 아기 표정 인식 정보를 패턴화함과 동시에 상기 아기 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 아기 감정 항목을 식별하고, 상기 인식된 아기 표정 인식 정보를 패턴화한 아기 표정 패턴 정보와 상기 식별된 음성 인식 기반의 아기 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 표정 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.Meanwhile, according to the implementation method of the present invention, after the expression-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, when the designated baby facial expression recognition information is recognized through the information recognition unit 140 below. , the information management unit 105 recognizes an object corresponding to the baby's guardian by reading video data received from the camera device 190 and stored in a specific storage area of a designated storage medium after the baby's facial expression recognition information is recognized. At the same time, the audio data associated with the video data is read, and among the voices uttered by the baby's guardian to the baby, voices related to the recognition of the baby's emotions (e.g., 'My baby is hungry', 'Is my baby poop?', You can perform a recognition procedure (e.g., ‘My baby is sleepy’). If a voice related to the guardian's recognition of the baby's emotion is recognized after the baby's facial expression recognition information is recognized, the information management unit 105 patterns the recognized baby's facial expression recognition information and simultaneously responds to the voice related to the baby's emotion recognition. By repeating the process of identifying voice recognition-based baby emotion items and learning a combination of baby expression pattern information patterned from the recognized baby expression recognition information and the identified voice recognition-based baby emotion items, the expression-based The big data-based accuracy and reliability of emotional state determination information can be continuously improved.
한편 본 발명의 확장 실시예에 따르면, 상기 정보 관리부(105)는 상기 표정 기반 감정상태 판별 정보 외에 상기 카메라장치(190)의 사운드 입력부를 통해 획득된 오디오 데이터를 근거로 아기 울음소리를 인식하여 아기의 감정 상태를 판별하기 위한 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장하거나, 및/또는 상기 카메라장치(190)에 아기의 감정 표현과 연관된 지정된 센싱 대상을 센싱하는 센서모듈이 구비되거나 연계되고 상기 카메라장치(190)로부터 상기 센서모듈을 통해 아기의 지정된 센싱 대상을 센싱하여 획득된 센싱 데이터가 수신되는 경우 상기 센싱 데이터를 이용하여 아기의 감정 상태를 판별하기 위한 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. Meanwhile, according to an extended embodiment of the present invention, the information management unit 105 recognizes the baby's cry based on audio data acquired through the sound input unit of the camera device 190 in addition to the facial expression-based emotional state determination information. Register and store crying sound-based emotional state determination information in the operating D/B to determine the emotional state of the baby, and/or the camera device 190 is equipped with a sensor module that senses a designated sensing object related to the baby's emotional expression. Sensing-based emotional state determination to determine the baby's emotional state using the sensing data when sensing data obtained by sensing the baby's designated sensing target is received from the camera device 190 through the sensor module. Information can be registered and saved in the operation database.
한편 본 발명의 다른 실시예에 따르면, 상기 정보 관리부(105)는 상기 표정 기반 감정상태 판별 정보를 대신(또는 대체)하여 상기 울음소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. 이하, 편의 상 표정 기반 감정상태 판별 정보를 기본 감정상태 판별 정보로 이용하고 상기 울음소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보를 부 감정상태 판별 정보로 이용하는 실시예를 통해 본 발명의 특징을 설명할 것이나, 본 발명의 기술적 특징이 이에 한정되는 것은 아니며, 본 발명의 실시예와 청구범위의 기재에 따라 상기 울음소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보도 기본 감정상태 판별 정보로 이용될 수 있음을 명백하게 밝혀두는 바이다.Meanwhile, according to another embodiment of the present invention, the information management unit 105 operates the crying sound-based emotional state determination information and/or sensing-based emotional state determination information in place of (or replacing) the facial expression-based emotional state determination information. It can be registered and stored in D/B, but the present invention is not limited thereto. Hereinafter, for convenience, the present invention will be described through an embodiment in which facial expression-based emotional state determination information is used as basic emotional state determination information and the crying sound-based emotional state determination information and/or sensing-based emotional state determination information are used as secondary emotional state determination information. The features of the present invention will be described, but the technical features of the present invention are not limited thereto, and according to the description of the embodiments and claims of the present invention, the crying sound-based emotional state determination information and/or the sensing-based emotional state determination information are also basic. We make it clear that it can be used as emotional state determination information.
본 발명의 확장/다른 실시예에 따르면, 상기 정보 관리부(105)는 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C(C≥2)개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to an extension/another embodiment of the present invention, the information management unit 105 provides C (C≥2) baby cry pattern information related to the baby's emotional expression among the baby's cry patterns and N designated baby emotion items. A cry that contains matching relationship information between N2 (1≤N2≤N) baby emotion items that can be distinguished based on baby cry patterns, and quantifies the correlation between the C baby cry pattern information and N2 baby emotion items. Crying-based emotional state determination information, including sound-based correlation and numerical relationship information, can be registered and stored in the operation D/B.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C개의 아기 울음소리 패턴 정보를 등록받고, 상기 C개의 아기 울음소리 패턴 정보를 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2개의 아기 감정 항목과 매칭하는 매칭 관계정보를 등록받고, 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목를 행 또는 열의 타이틀로 포함하며 상기 울음소리 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀의 정보로 포함하는 테이블 형태의 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다According to the implementation method of the present invention, the information management unit 105 registers C baby cry pattern information related to the baby's emotional expression among the baby cry patterns from the designated operating terminal, and receives the C baby cry pattern information. Register matching relationship information that matches N2 baby emotion items that can be distinguished based on baby cry patterns among the designated N baby emotion items, and calculate the correlation between the C baby cry pattern information and the N2 baby emotion items. Numerical relationship information based on crying sounds can also be registered and stored in a designated operational D/B. For example, the information management unit 105 includes C baby cry pattern information and N2 baby emotion items as row or column titles, and converts the cry sound-based correlation numerical relationship information into information of cells corresponding to each row and column. Crying-based emotional state determination information in a table format can be registered and stored in the operation D/B.
본 발명의 일 실시 방법에 따르면, 상기 C개의 아기 울음소리 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 울음소리 패턴을 구성하는 울음소리 특징 정보를 포함할 수 있다. 바람직하게, 상기 울음소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다. According to one implementation method of the present invention, the C baby cry pattern information may include cry characteristic information constituting each baby cry pattern associated with the baby's emotional expression. Preferably, the cry characteristic includes a frequency band feature, a placement relationship feature of the frequency band feature, a periodicity feature of the frequency band feature, a sound intensity feature, a placement relationship feature of the sound intensity feature, a periodicity feature of the sound intensity feature, and a frequency band feature. It may include one or more features among a combination feature of sound intensity features, an arrangement relationship feature of frequency band features and sound intensity features, and a periodicity feature of frequency band features and sound intensity features.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 C개의 아기 울음소리 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 울음소리 패턴을 구성하는 울음소리 특징의 범위 정보를 포함할 수 있다. 바람직하게, 상기 울음소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다. 예를들어, 상기 울음소리 특징의 범위 정보는 각 특징 별 주파수 대역의 허용 범위 및/또는 각 특징 별 소리 강도의 허용 범위를 포함할 수 있다. Meanwhile, according to another implementation method of the present invention, the C baby cry pattern information may include range information of cry characteristics constituting each baby cry pattern associated with the baby's emotional expression. Preferably, the cry characteristic includes a frequency band feature, a placement relationship feature of the frequency band feature, a periodicity feature of the frequency band feature, a sound intensity feature, a placement relationship feature of the sound intensity feature, a periodicity feature of the sound intensity feature, and a frequency band feature. It may include one or more features among a combination feature of sound intensity features, an arrangement relationship feature of frequency band features and sound intensity features, and a periodicity feature of frequency band features and sound intensity features. For example, the range information of the crying sound characteristics may include an allowable range of frequency bands for each feature and/or an allowable range of sound intensity for each feature.
본 발명의 일 실시 방법에 따르면, 상기 울음소리 기반 상관도 수치 관계정보는 아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 울음소리 기반 상관도 수치 관계정보는 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an implementation method of the present invention, the crying sound-based correlation numerical relationship information is calculated through a relationship equation proportional to the matching ratio between the baby crying sound recognition information that recognizes the baby's crying sound and the already registered baby crying sound pattern information. The correlation may also include numerical information. For example, the crying sound-based correlation numerical relationship information may be calculated as smaller numerical information as the matching ratio between the baby crying sound recognition information and the already registered baby crying sound pattern information is smaller, and the larger the matching ratio, the larger the numerical information. It can be calculated as information.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 울음소리 기반 상관도 수치 관계정보는 아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 울음소리 기반 상관도 수치 관계정보는 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. Meanwhile, according to another implementation method of the present invention, the crying sound-based correlation numerical relationship information is the correlation for each matching ratio section between the baby crying sound recognition information that recognizes the baby's crying sound and the already registered baby crying sound pattern information. It may also include numerical information. For example, the crying sound-based correlation numerical relationship information is calculated as '0' or numerical information of the specified minimum value when the matching rate between the baby crying sound recognition information and the registered baby crying sound pattern information is within the preset minimum ratio range. It can be, and if the matching ratio is a preset maximum ratio section, it can be calculated as numerical information of the specified maximum value.
한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 울음소리 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(140)를 통해 지정된 아기 울음소리 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 아기 울음소리 인식 정보가 인식된 후에 상기 카메라장치(190)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 아기의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 아기의 보호자가 아기에게 발화하는 음성 중 아기 감정 인지와 관련된 음성(예컨대, '우리 애기 배고프구나', '우리 애기 똥 ?奐립?', '우리 애기 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 아기 울음소리 인식 정보가 인식된 후에 보호자의 아기 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 아기 울음소리 인식 정보를 패턴화함과 동시에 상기 아기 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 아기 감정 항목을 식별하고, 상기 인식된 아기 울음소리 인식 정보를 패턴화한 아기 울음소리 패턴 정보와 상기 식별된 음성 인식 기반의 아기 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 울음소리 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.Meanwhile, according to the implementation method of the present invention, after the crying sound-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, the designated baby cry recognition information is recognized through the following information recognition unit 140. In this case, the information management unit 105 reads the video data received from the camera device 190 and stored in a specific storage area of the designated storage medium after the baby's crying sound recognition information is recognized to respond to the baby's guardian. At the same time as recognizing the object, the audio data associated with the video data is read, and among the voices uttered by the baby's guardian to the baby, voices related to the recognition of the baby's emotions (e.g., 'My baby is hungry', 'My baby's poop?' ?', 'My baby is sleepy', etc.) can be performed. If a voice related to the guardian's recognition of the baby's emotion is recognized after the baby's cry recognition information is recognized, the information management unit 105 patterns the recognized baby's cry recognition information and simultaneously creates a voice related to the baby's emotion recognition. Repeat the process of identifying the corresponding voice recognition-based baby emotion item and learning a combination of the identified baby cry pattern information patterned from the recognized baby cry recognition information and the identified voice recognition-based baby emotion item. By doing so, the big data-based accuracy and reliability of the crying sound-based emotional state determination information can be continuously improved.
한편 본 발명의 확장/다른 실시예에 따르면, 상기 정보 관리부(105)는 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다.Meanwhile, according to an expansion/another embodiment of the present invention, the information management unit 105 detects a designated sensing object related to the baby's emotional expression among the sensing data sensed through a sensor module provided or linked to the camera device 190. Matching relationship between S (S≥2) sensing value pattern information for data and N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of the designated sensing object among the designated N baby emotion items. Sensing-based emotional state determination information including information and sensing-based correlation numerical relationship information that quantifies the correlation between the S sensing value pattern information and N3 baby emotional items can be registered and stored in the operation D/B.
본 발명의 실시 방법에 따르면, 상기 센서모듈은 아기의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈, 지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함할 수 있으며, 상기 지정된 센싱 대상은 아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함할 수 있다.According to the method of implementing the present invention, the sensor module is a wearable sensor module that is worn on the baby's body to sense a designated sensing target, and a radar sensor module that senses the baby's designated sensing target using designated electromagnetic waves. It may include at least one sensor module, and the designated sensing object may include at least one of the baby's heartbeat, the baby's body temperature, the humidity around the baby, and whether the baby is apnea.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S개의 센싱 값 패턴 정보를 등록받고, 상기 S개의 센싱 값 패턴 정보를 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3개의 아기 감정 항목 사이의 매칭 관계정보를 등록받고, 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목을 행 또는 열의 타이틀로 포함하며 센싱 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀의 정보로 포함하는 테이블 형태의 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 detects a designated sensing object related to the baby's emotional expression among the sensing data sensed through a sensor module provided or linked to the camera device 190 from a designated operating terminal. Matching relationship information between N3 baby emotion items that can register S sensing value pattern information for data and distinguish the S sensing value pattern information based on the sensing value pattern of the designated sensing target among the N designated baby emotion items. can be registered, and sensing-based correlation numerical relationship information, which quantifies the correlation between the S sensing value pattern information and N3 baby emotion items, can be registered and stored in a designated operation D/B. For example, the information management unit 105 includes the S sensing value pattern information and N3 baby emotion items as row or column titles, and includes sensing-based correlation numerical relationship information as information in cells corresponding to each row and column. Sensing-based emotional state determination information in the form of a table can be registered and stored in the operation D/B.
본 발명의 일 실시 방법에 따르면, 상기 S개의 센싱 값 패턴 정보는 아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징 정보를 포함할 수 있다. 바람직하게, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. According to one implementation method of the present invention, the S sensing value pattern information may include sensing value characteristic information constituting each sensing value pattern for sensing data of a designated sensing target associated with the baby's emotional expression. Preferably, the sensing value feature may include at least one or a combination of two or more of a sensing value change rule feature, a sensing value change amount feature, a sensing value change rate feature, and a sensing value change periodicity feature.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 S개의 센싱 값 패턴 정보는 아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함할 수 있다. 바람직하게, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. 예를들어, 상기 센싱 값 특징의 범위 정보는 각 특징 별 변화 규칙의 허용 범위, 각 특징 별 센싱 값 변화량의 허용 범위, 각 특징 별 센싱 값 변화율의 허용 범위를 포함할 수 있다. Meanwhile, according to another implementation method of the present invention, the S sensing value pattern information may include range information of sensing value features that constitute each sensing value pattern for sensing data of a designated sensing target associated with the baby's emotional expression. You can. Preferably, the sensing value feature may include at least one or a combination of two or more of a sensing value change rule feature, a sensing value change amount feature, a sensing value change rate feature, and a sensing value change periodicity feature. For example, the range information of the sensing value features may include an allowable range of change rules for each feature, an allowable range of the amount of change in sensing value for each feature, and an allowable range of the rate of change of the sensing value for each feature.
본 발명의 일 실시 방법에 따르면, 상기 센싱 기반 상관도 수치 관계정보는 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 센싱 기반 상관도 수치 관계정보는 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an implementation method of the present invention, the sensing-based correlation numerical relationship information is calculated through a relational expression proportional to the matching ratio between sensing value recognition information recognized through sensing data of a designated sensing target and pre-registered sensing value pattern information. The correlation may also include numerical information. For example, the sensing-based correlation numerical relationship information may be calculated as small numerical information as the matching ratio between sensing value recognition information and pre-registered sensing value pattern information is small, and as the matching ratio is large, it may be calculated as large numerical information. It can be.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 센싱 기반 상관도 수치 관계정보는 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 센싱 기반 상관도 수치 관계정보는 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. Meanwhile, according to another implementation method of the present invention, the sensing-based correlation numerical relationship information is the correlation for each matching ratio section between sensing value recognition information recognized through sensing data of a designated sensing target and pre-registered sensing value pattern information. It may also include numerical information. For example, the sensing-based correlation numerical relationship information may be calculated as numerical information of '0' or a specified minimum value when the matching ratio between sensing value recognition information and pre-registered sensing value pattern information is a preset minimum ratio range, , if the matching ratio is a preset maximum ratio section, it can be calculated as numerical information of the specified maximum value.
한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 센싱 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(140)를 통해 지정된 센싱 값 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 센싱 값 인식 정보가 인식된 후에 상기 카메라장치(190)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 아기의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 아기의 보호자가 아기에게 발화하는 음성 중 아기 감정 인지와 관련된 음성(예컨대, '우리 애기 배고프구나', '우리 애기 똥 ?奐립?', '우리 애기 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 센싱 값 인식 정보가 인식된 후에 보호자의 아기 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 센싱 값 인식 정보를 패턴화함과 동시에 상기 아기 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 아기 감정 항목을 식별하고, 상기 인식된 센싱 값 인식 정보를 패턴화한 아기 울음소리 패턴 정보와 상기 식별된 음성 인식 기반의 아기 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 센싱 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.Meanwhile, according to the implementation method of the present invention, after the sensing-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, when the designated sensing value recognition information is recognized through the information recognition unit 140 below , the information management unit 105 reads video data received from the camera device 190 and stored in a specific storage area of a designated storage medium after the sensing value recognition information is recognized to recognize an object corresponding to the baby's guardian. At the same time, the audio data associated with the video data is read, and among the voices uttered by the baby's guardian to the baby, voices related to the recognition of the baby's emotions (e.g., 'My baby is hungry', 'Is my baby poop?', You can perform a recognition procedure (e.g., ‘My baby is sleepy’). If a voice related to the guardian's recognition of the baby's emotion is recognized after the sensing value recognition information is recognized, the information management unit 105 patterns the recognized sensing value recognition information and simultaneously responds to the voice related to the recognition of the baby's emotion. The sensing is performed by repeating the process of identifying voice recognition-based baby emotion items and learning a combination of baby cry pattern information patterned from the recognized sensing value recognition information and the identified voice recognition-based baby emotion items. The big data-based accuracy and reliability of emotional state determination information can be continuously improved.
도면1을 참조하면, 상기 운영서버(100)는, 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하는 가상객체 관리부(110)와, 지정된 감정 항목 별 아기 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하는 정보 매칭부(115)를 포함한다. Referring to Figure 1, the operation server 100 is a virtual object that registers and stores R (R≥2) virtual object data in the operation D/B to augment the area around the baby's face in correspondence to the baby's emotional state. It includes a management unit 110 and an information matching unit 115 that registers and stores virtual object matching information matching baby emotional state information for each designated emotional item and one or more designated virtual object data in the operation D/B.
상기 가상객체 관리부(110)는 상기 카메라장치(190)의 카메라모듈을 통해 획득된 비디오 데이터 상에 존재하는 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위해 상기 아기 안면 주변 영역에 중첩하여 표시 가능한 R개의 가상객체 데이터를 운영D/B에 등록 저장한다. 예를들어, 상기 가상객체 관리부(110)는 지정된 운영단말로부터 아기 안면 주변 영역에 중첩하여 표시 가능한 R개의 가상객체 데이터를 등록받아 운영D/B에 저장할 수 있다. The virtual object management unit 110 overlaps the area around the baby's face existing in the video data acquired through the camera module of the camera device 190 with the area around the baby's face in order to augment it in response to the baby's emotional state. Register and store R virtual object data that can be displayed in the operation D/B. For example, the virtual object management unit 110 may register R virtual object data that can be displayed by overlapping the area around the baby's face from a designated operation terminal and store them in the operation database.
본 발명의 실시 방법에 따르면, 상기 R개의 가상객체 데이터 중 적어도 일부의 가상객체 데이터는 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하는 아기의 감정 상태를 표현하는 문장열을 아기 안면 주변 영역에 말풍선 형태로 표시하는 가상객체 데이터를 포함할 수 있다. According to the implementation method of the present invention, at least some of the virtual object data among the R virtual object data is a sentence string expressing the baby's emotional state corresponding to the baby's emotional state information for each of the n emotional items in the area around the baby's face. It may contain virtual object data displayed in the form of a speech bubble.
상기 정보 매칭부(115)는 상기 표정 기반 감정상태 판별 정보와 울음소리 기반 감정상태 판별 정보와 센싱 기반 감정상태 판별 정보 중 적어도 하나의 감정상태 판별 정보를 근거로 생성되는 지정된 감정 항목 별 아기 감정 상태 정보를 상기 R개의 가상객체 데이터 중 하나 이상의 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장한다. 예를들어, 상기 정보 매칭부(115)는 지정된 운영단말로부터 지정된 감정 항목 별 아기 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 등록받아 운영D/B에 등록 저장할 수 있다. The information matching unit 115 determines the baby's emotional state for each designated emotional item generated based on at least one of the facial expression-based emotional state information, crying sound-based emotional state information, and sensing-based emotional state information. Virtual object matching information that matches the information with one or more virtual object data among the R virtual object data is registered and stored in the operation DB. For example, the information matching unit 115 may register virtual object matching information that matches baby emotional state information for each designated emotional item and one or more designated virtual object data from a designated operating terminal, and register and store it in the operating DB. .
본 발명의 실시 방법에 따르면, 적어도 하나의 감정상태 판별 정보를 근거로 생성되는 지정된 감정 항목 별 아기 감정 상태 정보는 지정된 감정 항목 별 아기 감정 상태에 대한 수치정보를 포함하는데, 상기 가상객체 데이터는 지정된 감정 항목 별 아기 감정 상태에 대한 수치정보에 대응하는 감정의 세기(또는 강도)를 직관적으로 표현 가능한 구조로 이루어질 수 있다. 예를들어, 상기 가상객체 데이터가 '슬픔'이라는 감정 상태를 증강하기 위해 '아기의 양 안 아래쪽 부위'에 중첩하여 표시되는 눈물 흐름 자국 형태의 가상객체 데이터인 경우, 상기 가상객체 데이터는 '슬픔'이라는 감정 항목의 아기 감정 상태에 대한 수치정보이 따라 눈물 흐름 자국의 폭이나 길이 또는 색상이 달라지는 구조로 이루어질 수 있다. According to the implementation method of the present invention, the baby emotional state information for each designated emotional item generated based on at least one emotional state determination information includes numerical information about the baby's emotional state for each designated emotional item, and the virtual object data is the designated emotional state. It can be structured in such a way that it is possible to intuitively express the strength (or intensity) of the emotion corresponding to the numerical information about the baby's emotional state for each emotional item. For example, if the virtual object data is virtual object data in the form of tear stream marks that are displayed overlapping on the 'lower part of both insides of the baby' to enhance the emotional state of 'sadness', the virtual object data is 'sadness'. It may be structured so that the width, length, or color of the tear flow marks varies depending on the numerical information about the baby's emotional state in the emotional item.
도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(190)를 매핑하는 정보를 등록받아 지정된 관리D/B에 저장하는 정보 등록부(120)를 포함한다. Referring to Figure 1, the operation server 100 is provided with a target to receive transmission data including video data captured of a specific baby in the designated base through the camera device 190 provided at the designated base and the camera device ( It includes an information register 120 that registers information mapping 190) and stores it in a designated management DB.
상기 카메라장치(190)를 구매하거나 공급받는 사용자가 이용하는 사용자단말을 통해 가입신청정보를 입력하거나 종이 형태의 가입신청서(예컨대, 카메라장치(190)를 이용한 서비스와 IPTV(185)를 결합하는 신청서, 카메라장치(190)를 이용한 서비스와 사용자 무선단말(180)을 결합하는 신청서 등)를 작성한 경우, 상기 정보 등록부(120)는 사용자 단말이나 지정된 등록단말을 통해 상기 가입신청정보나 가입신청서에 대응하는 사용자정보와 상기 사용자에게 제공/공급된 카메라장치(190)를 고유 식별하는 카메라장치(190)정보를 등록받아 관리D/B에 저장할 수 있다. 한편 상기 정보 등록부(120)는 상기 사용자 단말이나 지정된 등록단말을 통해 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 사용자가 이용하는 IPTV(185)로 제공하기 위한 ID/PW정보를 등록받고 상기 사용자정보 및/또는 카메라장치(190)정보와 연계하여 관리D/B에 저장할 수 있다. 한편 본 발명의 실시 방법에 따라 상기 ID/PW정보는 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 웹을 통해 사용자가 이용하는 유선단말이나 무선단말(180)로 제공하기 위해 사용될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. The user who purchases or receives the camera device 190 enters subscription application information through the user terminal used or submits a paper subscription application form (e.g., an application for combining the service using the camera device 190 and IPTV 185, When an application (such as an application combining a service using the camera device 190 and the user wireless terminal 180) is created, the information register 120 provides information corresponding to the subscription application information or subscription application through the user terminal or a designated registration terminal. User information and camera device 190 information that uniquely identifies the camera device 190 provided/supplied to the user can be registered and stored in the management DB. Meanwhile, the information registration unit 120 provides ID/PW information for providing transmission data including video data captured through the camera device 190 to the IPTV 185 used by the user through the user terminal or a designated registration terminal. can be registered and stored in the management DB in connection with the user information and/or camera device 190 information. Meanwhile, according to the implementation method of the present invention, the ID/PW information is used to provide transmission data including video data captured through the camera device 190 to the wired terminal or wireless terminal 180 used by the user through the web. It can be used, and the present invention can also include these embodiments within its scope of rights.
한편 상기 사용자가 본인이 사용하는 사용자 무선단말(180)에 지정된 앱을 설치하고 최초(또는 가입 전) 구동 시, 상기 정보 등록부(120)는 상기 사용자 무선단말(180)의 앱으로부터 상기 사용자에 대한 사용자정보와 상기 사용자에게 제공/공급된 카메라장치(190)를 고유 식별하는 카메라장치(190)정보를 등록받아 관리D/B에 저장할 수 있다. 한편 상기 정보 등록부(120)는 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 상기 사용자 무선단말(180)의 앱으로 제공하기 위해 상기 사용자 무선단말(180)의 앱을 고유 식별하는 고유식별정보를 생성하거나 상기 사용자 무선단말(180)의 앱으로부터 제공받고 상기 사용자정보 및/또는 카메라장치(190)정보와 연계하여 관리D/B에 저장할 수 있으며, 상기 고유식별정보를 생성한 경우 상기 사용자 무선단말(180)의 앱으로 제공하여 지정된 저장영역에 저장하도록 처리할 수 있다. 한편 상기 정보 등록부(120)는 상기 사용자 무선단말(180)의 앱으로부터 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 사용자가 이용하는 IPTV(185)로 제공하기 위한 ID/PW정보를 등록받고 상기 사용자정보 및/또는 카메라장치(190)정보와 연계하여 관리D/B에 저장할 수 있다. 한편 본 발명의 실시 방법에 따라 상기 ID/PW정보는 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 웹을 통해 사용자가 이용하는 유선단말이나 무선단말(180)로 제공하기 위해 사용될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. Meanwhile, when the user installs the designated app on the user wireless terminal 180 and runs it for the first time (or before signing up), the information register 120 provides information about the user from the app of the user wireless terminal 180. User information and camera device 190 information that uniquely identifies the camera device 190 provided/supplied to the user can be registered and stored in the management database. Meanwhile, the information registration unit 120 uniquely configures the app of the user wireless terminal 180 to provide transmission data including video data captured through the camera device 190 to the app of the user wireless terminal 180. Unique identification information may be generated or provided from the app of the user wireless terminal 180 and stored in the management DB in connection with the user information and/or camera device 190 information, and the unique identification information may be generated. In one case, it can be provided as an app for the user's wireless terminal 180 and stored in a designated storage area. Meanwhile, the information registration unit 120 provides an ID/PW for providing transmission data including video data captured through the camera device 190 from the app of the user wireless terminal 180 to the IPTV 185 used by the user. Information can be registered and stored in the management DB in connection with the user information and/or camera device 190 information. Meanwhile, according to the implementation method of the present invention, the ID/PW information is used to provide transmission data including video data captured through the camera device 190 to the wired terminal or wireless terminal 180 used by the user through the web. It can be used, and the present invention can also include these embodiments within its scope of rights.
한편 본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(180)의 앱은 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 다른 무선단말(180)의 고유정보(예컨대, 휴대폰번호 등)를 입력/등록할 수 있으며, 이 경우 상기 정보 등록부(120)는 상기 다른 무선단말(180)의 고유정보를 관리D/B에 저장하고, 상기 다른 무선단말(180)의 고유정보를 통해 상기 다른 무선단말(180)에 지정된 앱이 설치되도록 유도하거나 및/또는 상기 다른 무선단말(180)에 설치 실행된 앱을 확인하고, 상기 다른 무선단말(180)의 앱을 고유 식별하는 고유식별정보를 생성하거나 상기 다른 무선단말(180)의 앱으로부터 제공받고 상기 등록되어 있는 카메라장치(190)정보와 연계하여 관리D/B에 저장함으로써, 상기 사용자 무선단말(180)의 앱 이외에 상기 사용자 무선단말(180)의 앱을 통해 지저된 다른 무선단말(180)의 앱을 통해서도 상기 카메라장치(190)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 수 있도록 처리할 수 있다.Meanwhile, according to the implementation method of the present invention, the app of the user wireless terminal 180 provides unique information (e.g., , mobile phone number, etc.) can be entered/registered, and in this case, the information register 120 stores the unique information of the other wireless terminal 180 in the management database, and the unique information of the other wireless terminal 180 is stored in the management database. Guide the specified app to be installed on the other wireless terminal 180 through the information and/or check the app installed and executed on the other wireless terminal 180, and uniquely identify the app of the other wireless terminal 180. By generating unique identification information or receiving it from the app of the other wireless terminal 180 and storing it in the management DB in connection with the registered camera device 190 information, the user other than the app of the wireless terminal 180 Transmission data including video data captured through the camera device 190 can be processed so that it can be received through an app of another wireless terminal 180 that is registered through an app of the user wireless terminal 180.
도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점에 구비된 카메라장치(190)와의 통신 연결을 관리하는 통신 관리부(125)와, 상기 카메라장치(190)의 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하는 데이터 수신부(130)와, 상기 수신된 획득 데이터를 지정된 저장매체의 특정 저장영역에 저장하여 관리하는 데이터 저장부(135)를 포함한다. Referring to Figure 1, the operation server 100 is obtained through the communication management unit 125, which manages the communication connection with the camera device 190 provided at the designated base, and the camera module of the camera device 190. It includes a data receiver 130 that receives acquired data including video data encoded in a designated manner, and a data storage unit 135 that stores and manages the received acquired data in a specific storage area of a designated storage medium.
지정된 거점에 구비된 카메라장치(190)에 전원이 입력되면, 상기 카메라장치(190)의 제어모듈은 지정된 절차에 따라 통신모듈을 통해 지정된 운영서버(100)와 지정된 하나 이상의 정보를 교환하여 통신 연결을 요청하며, 상기 통신 관리부(125)는 상기 지정된 정보의 교환을 근거로 상기 카메라장치(190)의 유효성을 인증하여 상기 카메라장치(190)와 통신을 연결한다. When power is input to the camera device 190 provided at the designated base, the control module of the camera device 190 exchanges one or more designated information with the designated operation server 100 through the communication module according to the designated procedure to establish communication. Requesting, the communication management unit 125 authenticates the validity of the camera device 190 based on the exchange of the specified information and connects communication with the camera device 190.
상기 카메라장치(190)와 통신이 연결되면, 상기 통신 관리부(125)는 상기 카메라장치(190)를 통해 획득된 획득 데이터를 수신하기 위한 일회용주소정보를 동적 생성하여 상기 카메라장치(190)로 제공하며, 이 경우 상기 카메라장치(190)의 제어모듈은 상기 일회용주소정보를 수신하고, 상기 일회용주소정보를 상기 획득 데이터를 전송할 목적지 주소로 설정한 후, 상기 획득된 획득 데이터를 상기 일회용주소에 대응하는 목적지 주소로 전송할 수 있다. 여기서, 상기 일회용주소정보는 주소도메인정보는 동일하되 도메인 이후의 파라미터값이 중복되지 않게 동적 생성된 파라미터값으로 이루어진 주소정보를 포함할 수 있다.When communication is connected with the camera device 190, the communication management unit 125 dynamically generates disposable address information for receiving acquired data obtained through the camera device 190 and provides it to the camera device 190. In this case, the control module of the camera device 190 receives the disposable address information, sets the disposable address information as a destination address to transmit the acquired data, and then corresponds the acquired data to the disposable address. It can be sent to the destination address. Here, the disposable address information may include address information composed of dynamically generated parameter values so that the address domain information is the same but parameter values after the domain do not overlap.
본 발명의 실시 방법에 따르면, 상기 통신 관리부(125)는 주기적으로 상기 카메라장치(190)에 대한 신규 일회용주소정보를 동적 생성하여 상기 카메라장치(190)로 제공할 수 있으며, 이 경우 상기 카메라장치(190)의 제어모듈은 상기 신규 일회용주소정보를 수신하고, 이전 일회용주소에 대응하는 목적지 주소로 상기 획득 데이터를 전송하는 과정을 인터럽트함과 동시에 이전 일회용주소로 획득 데이터를 전송한 이전 전송 정보를 확인하고, 상기 신규 일회용주소정보를 상기 획득 데이터를 이어서 전송할 신규 목적지 주소로 설정한 후, 상기 이전 전송 정보를 근거로 이전 일회용주소로 전송하던 획득 데이터를 상기 신규 일회용주소에 대응하는 신규 목적지 주소로 이어서 전송할 수 있으며, 상기의 과정은 주기적으로 반복될 수 있다. 이하, 별도의 언급이 없더라도 상기 카메라장치(190)는 상기 일회용주소로 획득 데이터를 전송할 수 있음을 명기하는 바이다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 통신 관리부(125)의 일회용주소정보 생성 내지 적용 과정은 생략 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to the implementation method of the present invention, the communication management unit 125 can periodically dynamically generate new disposable address information for the camera device 190 and provide it to the camera device 190, in this case. The control module at 190 receives the new disposable address information, interrupts the process of transmitting the acquired data to the destination address corresponding to the previous disposable address, and simultaneously transmits previous transmission information that transmitted the acquired data to the previous disposable address. After confirming and setting the new disposable address information as a new destination address to which the acquired data will be subsequently transmitted, based on the previous transmission information, the acquired data transmitted to the previous disposable address is transferred to the new destination address corresponding to the new disposable address. It can then be transmitted, and the above process can be repeated periodically. Hereinafter, it is specified that the camera device 190 can transmit acquired data to the disposable address even if not otherwise stated. Meanwhile, according to another implementation method of the present invention, the process of generating or applying disposable address information of the communication management unit 125 can be omitted, and the present invention is not limited thereto.
본 발명의 실시 방법에 따라 상기 카메라장치(190)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(130)는 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터를 저장하여 일정 기간 동안 관리할 수 있다.According to the implementation method of the present invention, when the control module of the camera device 190 transmits acquired data including video data obtained through the camera module and encoded in a specified manner, the data receiver 130 receives the camera module. Receives acquired data including video data acquired through and encoded in a designated manner, and the data storage unit 135 stores the video data of the received acquired data in a specific storage area of a designated storage medium for a certain period of time. It can be managed.
한편 본 발명의 실시 방법에 따라 상기 카메라장치(190)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터와 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터를 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(130)는 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터와 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터와 오디오 데이터를 연계 저장하여 일정 기간 동안 관리한다.Meanwhile, according to the implementation method of the present invention, the control module of the camera device 190 includes video data obtained through the camera module and encoded in a designated manner and audio data acquired through the sound input unit and encoded in a designated manner. When the acquired data is transmitted, the data receiving unit 130 receives acquired data including video data acquired through the camera module and encoded in a designated manner and audio data acquired through the sound input unit and encoded in a designated manner. , the data storage unit 135 stores the video data and audio data of the received acquisition data in a specific storage area of a designated storage medium and manages them for a certain period of time.
본 발명의 실시 방법에 따르면, 상기 카메라장치(190)의 제어모듈은 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터 형태의 획득 데이터를 전송할 수 있으며, 이 경우 상기 데이터 수신부(130)는 상기 카메라장치(190)로부터 상기 동영상 데이터 형태의 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 동영상 데이터를 저장하여 관리할 수 있다.According to the implementation method of the present invention, the control module of the camera device 190 may transmit acquired data in the form of moving image data including the video data and audio data, and in this case, the data receiver 130 may transmit the acquired data to the camera device 190. Acquired data in the form of video data is received from 190, and the data storage unit 135 can store and manage the received video data in a specific storage area of a designated storage medium.
한편 본 발명의 실시 방법에 따르면, 상기 카메라장치(190)의 제어모듈은 상기 비디오 데이터와 상기 오디오 데이터를 각각의 데이터 형태로 포함하는 획득 데이터를 전송할 수 있으며, 이 경우 상기 데이터 수신부(130)는 상기 카메라장치(190)로부터 상기 비디오 데이터와 오디오 데이터를 제각기 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 상기 카메라장치(190)로부터 각기 수신된 상기 비디오 데이터와 오디오 데이터를 연계하여 지정된 저장매체의 특정 저장영역에 저장하여 관리할 수 있다. 바람직하게, 상기 데이터 저장부(135)는 상기 비디오 데이터와 오디오 데이터의 시간 값(또는 타임스탬프)를 기준으로 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장할 수 있다.Meanwhile, according to the implementation method of the present invention, the control module of the camera device 190 can transmit acquired data including the video data and the audio data in separate data forms, and in this case, the data receiver 130 Acquired data including video data and audio data are received from the camera device 190, and the data storage unit 135 links the video data and audio data respectively received from the camera device 190. It can be managed by storing it in a specific storage area of a designated storage medium. Preferably, the data storage unit 135 may synchronize the times of the video data and audio data based on the time values (or timestamps) of the video data and audio data and store them in a specific storage area of a designated storage medium. .
한편 본 발명의 실시 방법에 따라 상기 카메라장치(190)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터 및/또는 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터 외에, 지정된 센서모듈을 통해 센싱되어 지정된 방식으로 엔코딩된 센싱 데이터를 더 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(130)는 상기 센싱 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(135)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터 및/또는 오디오 데이터와 상기 센싱 데이터를 연계 저장하여 일정 기간 동안 관리할 수 있다. 바람직하게, 상기 데이터 저장부(135)는 상기 비디오 데이터 및/또는 오디오 데이터의 시간 값(또는 타임스탬프)과 상기 센싱 데이터의 시간 값(또는 타임스탬프)을 기준으로 상기 비디오 데이터 및/또는 오디오 데이터의 시간과 상기 센싱 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장할 수 있다.Meanwhile, according to the implementation method of the present invention, the control module of the camera device 190 is used in addition to video data obtained through the camera module and encoded in a designated manner and/or audio data acquired through the sound input unit and encoded in a designated manner. , when acquired data further including sensing data sensed through a designated sensor module and encoded in a designated manner is transmitted, the data receiving unit 130 receives acquired data including the sensing data, and the data storage unit 135 ) can store the video data and/or audio data of the received acquisition data and the sensing data in a specific storage area of a designated storage medium and manage them for a certain period of time. Preferably, the data storage unit 135 stores the video data and/or audio data based on the time value (or timestamp) of the video data and/or audio data and the time value (or timestamp) of the sensing data. The time of the sensing data can be synchronized with the time of the sensing data and stored in a specific storage area of a designated storage medium.
도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점의 카메라장치(190)를 통해 획득된 획득 데이터 중 적어도 하나의 데이터를 판독하여 아기의 감정을 판별하기 위한 지정된 인식 대상의 인식 정보를 인식하는 정보 인식부(140)와, 지정된 감정상태 판별 정보를 근거로 상기 인식된 인식 정보와 기 설정된 기준 유사도 이상 매칭된 지정된 인식 대상의 패턴 정보를 확인하고 상기 확인된 패턴 정보와 매칭 관계를 지닌 하나 이상의 아기 감정 항목을 판별하는 정보 판별부(145)와, 상기 인식 정보와 패턴 정보 간 매칭 비율을 근거로 상기 패턴 정보와 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식 정보에 대응하는 하나 이상의 감정 항목 별 아기 감정 상태를 수치화한 감정 항목 별 아기 감정 상태 값을 산출하는 감정 상태 산출부(150)와, 상기 산출된 하나 이상의 아기 감정 상태 값을 이용하여 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 정보 생성부(155)를 포함한다. Referring to Figure 1, the operation server 100 reads at least one of the acquired data obtained through the camera device 190 at the designated base and provides recognition information of the designated recognition target for determining the baby's emotion. An information recognition unit 140 that recognizes, and on the basis of designated emotional state determination information, identifies pattern information of a designated recognition target that matches the recognized recognition information and a preset standard similarity level or higher, and has a matching relationship with the confirmed pattern information. An information determination unit 145 that determines one or more baby emotion items, and one corresponding to the recognition information by reading a numerical correlation between the pattern information and the baby emotion items based on the matching ratio between the recognition information and the pattern information. An emotional state calculation unit 150 that calculates a baby emotional state value for each emotional item that quantifies the baby emotional state for each emotional item, and baby emotional state information for each emotional item specified using the calculated one or more baby emotional state values. It includes an information generation unit 155 that generates.
본 발명의 제1 아기 감정 상태 생성 실시예에 따르면, 상기 운영서버(100)는 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는 시점에 상기 송신 데이터에 포함되는 비디오 데이터 및/또는 상기 비디오 데이터와 연계된 데이터(예컨대, 오디오 데이터 및/또는 센싱 데이터 등)를 근거로 지정된 절차에 따라 각 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 여기서 각 감정 항목 별 아기 감정 상태 정보는 각 감정 항목 별 아기의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.According to the first baby emotional state generation embodiment of the present invention, the operation server 100 includes video data stored in a specific storage area of the storage medium through an app of the designated user wireless terminal 180 or IPTV 185. At the time of providing the transmission data, the baby's emotions for each emotion item according to a designated procedure based on the video data included in the transmission data and/or data associated with the video data (e.g., audio data and/or sensing data, etc.) Status information can be generated. Here, the baby's emotional state information for each emotional item may include numerical information (or rating information) about the baby's emotional state for each emotional item.
한편 본 발명의 제2 아기 감정 상태 생성 실시예에 따르면, 상기 운영서버(100)는 지정된 저장매체의 특정 저장영역에 상기 카메라장치(190)로부터 수신된 획득 데이터가 저장된 후, 상기 저장매체의 특정 저장영역에 저장된 획득 데이터를 근거로 지정된 절차에 따라 각 감정 항목 별 아기 감정 상태 정보를 생성하여 상기 획득 데이터와 연계 저장하도록 처리할 수 있으며, 이 경우 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공 시 상기 송신 데이터의 비디오 데이터와 연계된 각 감정 항목 별 아기 감정 상태 정보가 추출될 수 있다. 여기서 각 감정 항목 별 아기 감정 상태 정보는 각 감정 항목 별 아기의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.Meanwhile, according to the second embodiment of the baby emotional state generation of the present invention, the operation server 100 stores the acquired data received from the camera device 190 in a specific storage area of the designated storage medium, and then stores the acquired data received from the camera device 190 in a specific storage area of the designated storage medium. Based on the acquired data stored in the storage area, baby emotional state information for each emotional item can be generated according to a designated procedure and stored in conjunction with the acquired data. In this case, video data stored in a specific storage area of the storage medium can be processed. When provided through an app of the designated user's wireless terminal 180 or IPTV 185, information on the baby's emotional state for each emotional item associated with the video data of the transmitted data can be extracted. Here, the baby's emotional state information for each emotional item may include numerical information (or rating information) about the baby's emotional state for each emotional item.
상기 정보 인식부(140)는 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 아기 표정 인식 정보를 인식한다. The information recognition unit 140 reads the designated video data and recognizes f (1≤f≤F) feature points for the facial area of a specific baby within the base, and among the recognized f feature points, the information is associated with the baby's emotional expression. Recognize i (i≥1) baby facial expression recognition information corresponding to the geometric relationship between feature points.
본 발명의 실시 방법에 따르면, 상기 지정된 비디오 데이터는 지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터, 지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함할 수 있다.According to the implementation method of the present invention, the designated video data may include at least one of video data periodically selected for each designated playback time unit and video data periodically selected for each designated number of playback frames.
본 발명의 제1 아기 감정 상태 생성 실시예의 경우, 상기 정보 인식부(140)는 상기 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인한다. 만약 상기 사용자 무선단말(180)의 앱이나 IPTV(185)로 상기 송신 데이터를 제공하는 경우, 상기 정보 인식부(140)는 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식할 수 있다. In the case of the first baby emotional state generation embodiment of the present invention, the information recognition unit 140 stores an app of the user wireless terminal 180 or an app of the user wireless terminal 180 corresponding to the unique identification information stored in the management D/B. It is checked whether transmission data including video data stored in a specific storage area of the storage medium is provided to the IPTV 185 identified/authenticated through ID/PW information. If the transmission data is provided to an app of the user wireless terminal 180 or IPTV 185, the information recognition unit 140 reads designated video data among the video data of the transmission data and detects a specific video data in the base. While recognizing f feature points for the facial area, i baby facial expression recognition information corresponding to the geometric relationship between feature points related to the baby's emotional expression among the recognized f feature points can be recognized.
한편 본 발명의 제2 아기 감정 상태 생성 실시예의 경우, 상기 정보 인식부(140)는 상기 카메라장치(190)로부터 수신된 획득 데이터가 상기 저장매체의 특정 저장영역에 저장된 후 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식할 수 있다. Meanwhile, in the case of the second baby emotional state generation embodiment of the present invention, the information recognition unit 140 stores the acquired data received from the camera device 190 in a specific storage area of the storage medium and then stores the acquired data in a specific storage area of the storage medium. Among the video data stored in the area, designated video data is read, and f feature points for the facial area of a specific baby in the base are recognized. Among the recognized f feature points, i are corresponding to the geometric relationship between feature points associated with the baby's emotional expression. Baby facial expression recognition information can be recognized.
상기 정보 인식부(140)를 통해 i개의 아기 표정 인식 정보가 인식되면, 상기 정보 판별부(145)는 상기 운영D/B에 저장된 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 아기 표정 패턴 정보를 확인한다. 만약 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e개의 아기 표정 패턴 정보가 확인되면, 상기 정보 판별부(145)는 상기 확인된 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별한다. When i baby facial expression recognition information is recognized through the information recognition unit 140, the information determination unit 145 determines the i baby facial expressions based on the facial expression-based emotional state determination information stored in the operation D/B. Confirm e (1≤e≤E) baby facial expression pattern information that matches the recognition information and a preset standard similarity level or higher. If e baby expression pattern information that matches the recognized i baby facial expression recognition information and a preset standard similarity level or higher is confirmed, the information determination unit 145 has a matching relationship with the confirmed e baby facial expression pattern information. Determine n1 (1≤n1≤N1) baby emotion items.
상기 정보 판별부(145)를 통해 i개의 아기 표정 인식 정보에 대응하는 n1개의 아기 감정 항목이 판별되면, 상기 감정 상태 산출부(150)는 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 정보 생성부(155)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성한다. 여기서 각 감정 항목 별 아기 감정 상태 정보는 각 감정 항목 별 아기의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.When n1 baby emotion items corresponding to i baby facial expression recognition information are determined through the information determination unit 145, the emotional state calculation unit 150 determines the i baby facial expression recognition information and the e baby facial expression recognition information. Based on the matching ratio between facial expression pattern information, the correlation and numerical relationship between the e baby facial expression pattern information and the n1 baby emotional items are read, and the baby emotional state for each n1 emotional item corresponding to the recognized i baby facial expression recognition information. Calculates the baby's emotional state values for each n1 emotional items in numerical form, and the information generator 155 uses the calculated baby emotional state values for each n1 emotional items to specify n (1≤ Generate baby emotional state information for each n≤N) emotional item. Here, the baby's emotional state information for each emotional item may include numerical information (or rating information) about the baby's emotional state for each emotional item.
한편 본 발명의 제2 아기 감정 상태 생성 실시예에 따라 상기 저장매체의 특정 저장영역에 상기 획득 데이터가 저장된 후 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성된 경우, 상기 정보 생성부(155)는 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계하여 상기 저장매체의 특정 저장영역에 저장할 수 있다. Meanwhile, when baby emotional state information for each of the n emotional items is generated after the acquired data is stored in a specific storage area of the storage medium according to the second baby emotional state generation embodiment of the present invention, the information generator 155 may store the baby's emotional state information for each of the generated n emotional items in a specific storage area of the storage medium in connection with the video data.
본 발명의 확장/다른 실시예에 따라 상기 운영D/B에 상기 울음소리 기반 감정상태 판별 정보가 저장되고, 상기 저장매체의 특정 저장영역에 비디오 데이터와 오디오 데이터가 연계 저장된 경우, 상기 정보 인식부(140)는 상기 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 아기에 대한 j(j≥1)개의 아기 울음소리 인식 정보를 인식할 수 있다.According to an extended/different embodiment of the present invention, when the crying sound-based emotional state determination information is stored in the operating D/B and video data and audio data are linked and stored in a specific storage area of the storage medium, the information recognition unit (140) can recognize j (j ≥ 1) pieces of baby crying sound recognition information for the specific baby by reading audio data of a certain section associated with the video data.
한편 상기 정보 인식부(140)를 통해 j개의 아기 울음소리 인식 정보가 인식되면, 상기 정보 판별부(145)는 상기 운영D/B에 저장된 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 아기 울음소리 패턴 정보를 확인한다. 만약 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c개의 아기 울음소리 패턴 정보가 확인되면, 상기 정보 판별부(145)는 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별한다. Meanwhile, when j pieces of baby crying sound recognition information are recognized through the information recognition unit 140, the information determination unit 145 recognizes j based on the crying sound-based emotional state determination information stored in the operation D/B. Confirm c (1≤c≤C) baby cry pattern information that matches the baby cry recognition information and a preset standard similarity level or higher. If c baby cry pattern information that matches the recognized j baby cry recognition information and a preset standard similarity level or higher is confirmed, the information determination unit 145 matches the confirmed c baby cry pattern information. Determine n2 (1≤n2≤N2) baby emotion items with relationships.
상기 정보 판별부(145)를 통해 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 아기 감정 항목이 판별되면, 상기 감정 상태 산출부(150)는 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 정보 생성부(155)는 상기 산출된 n2개의 감정 항목 별 아기 감정 상태 값을 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 여기서 각 감정 항목 별 아기 감정 상태 정보는 각 감정 항목 별 아기의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.When n2 baby emotion items corresponding to j baby cry recognition information are determined through the information determination unit 145, the emotional state calculation unit 150 determines the j baby cry recognition information and the c. Based on the matching ratio between the baby cry pattern information, the correlation and numerical relationship between the c baby cry pattern information and the n2 baby emotion items are read, and the n2 emotions corresponding to the recognized j baby cry recognition information are read. The baby's emotional state values for each n2 emotion items are calculated, which are quantifiable values for the baby's emotional state for each item, and the information generator 155 uses the calculated baby emotional state values for each n2 emotional items (additionally) to specify n designated baby emotional state values. Baby emotional state information can be generated for each emotional item. Here, the baby's emotional state information for each emotional item may include numerical information (or rating information) about the baby's emotional state for each emotional item.
본 발명의 실시 방법에 따르면, 상기 i개의 아기 표정 인식 정보를 근거로 n1개의 감정 항목 별 아기 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(155)는 상기 i개의 아기 표정 인식 정보를 근거로 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 j개의 아기 울음소리 인식 정보를 근거로 산출된 n2개의 감정 항목 별 아기 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 'n1개의 감정 항목 별 아기 감정 상태 값 ∩ n2개의 감정 항목 별 아기 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. According to the implementation method of the present invention, when the baby emotional state value for each n1 emotion item is already calculated based on the i baby facial expression recognition information, the information generator 155 uses the i baby facial expression recognition information. By combining the baby emotional state values for n1 emotional items calculated with the baby emotional state values for n2 emotional items calculated based on the j baby crying sound recognition information, baby emotional state information for each n designated emotional items is generated. can do. Preferably, the baby emotional state information for each n emotional item may be a union relationship of 'baby emotional state value for n1 emotional items ∩ baby emotional state value for n2 emotional items', or a subset relationship of the union. .
한편 상기 n1개의 감정 항목 별 아기 감정 상태 값과 n2개의 감정 항목 별 아기 감정 상태 값을 조합하여 n개의 감정 항목 별 아기 감정 상태 정보를 생성 시, 상기 정보 생성부(155)는 상기 n1개의 감정 항목과 n2개의 감정 항목 중 중복되는 감정 항목에 대하여 각 아기 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 울음소리 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 아기 감정 상태 정보를 생성할 수 있다. Meanwhile, when generating baby emotional state information for each n emotional item by combining the baby emotional state value for each n1 emotional item and the baby emotional state value for each n2 emotional item, the information generator 155 generates the baby emotional state information for each n1 emotional item. For overlapping emotional items among the n2 emotional items, a specified statistical operation (e.g., average value calculation operation) for each baby emotional state value is assigned to a designated recognition target according to the correlation between the emotional item and the facial expression or cry. Baby emotional state information of the overlapping emotional items can be generated through weighted statistical calculations.
본 발명의 확장/다른 실시예에 따라 상기 운영D/B에 상기 센싱 기반 감정상태 판별 정보가 저장되고, 상기 저장매체의 특정 저장영역에 비디오 데이터 및/또는 오디오 데이터와 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터가 연계 저장된 경우, 상기 정보 인식부(140)는 상기 비디오 데이터 ??/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식할 수 있다.According to an extended/another embodiment of the present invention, the sensing-based emotional state determination information is stored in the operating D/B, and video data and/or audio data and the camera device 190 are stored in a specific storage area of the storage medium. When sensing data sensed through a provided or linked sensor module is linked and stored, the information recognition unit 140 reads the sensing data linked to the video data ??/or audio data and identifies information related to the emotional expression of the specific baby. K (k≥1) pieces of sensing value recognition information for sensing data of a designated sensing target can be recognized.
한편 상기 정보 인식부(140)를 통해 k개의 센싱 값 인식 정보가 인식되면, 상기 정보 판별부(145)는 상기 운영D/B에 저장된 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인한다. 만약 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s개의 센싱 값 패턴 정보가 화긴되면, 상기 정보 판별부(145)는 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별한다. Meanwhile, when k sensing value recognition information is recognized through the information recognition unit 140, the information determination unit 145 recognizes the k sensing values based on the sensing-based emotional state determination information stored in the operation D/B. Check s (1≤s≤S) sensing value pattern information that matches the value recognition information and a preset standard similarity level or higher. If the s sensing value pattern information that matches the recognized k sensing value recognition information and a preset standard similarity or higher is identified, the information determination unit 145 determines the s sensing value pattern information and the identified s sensing value pattern information. Determine n3 (1≤n3≤N3) baby emotion items.
상기 정보 판별부(145)를 통해 k개의 센싱 값 인식 정보에 대응하는 n3개의 아기 감정 항목이 판별되면, 상기 감정 상태 산출부(150)는 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 정보 생성부(155)는 상기 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 여기서 각 감정 항목 별 아기 감정 상태 정보는 각 감정 항목 별 아기의 감정 상태에 대한 수치정보(또는 등급정보)를 포함할 수 있다.When n3 baby emotion items corresponding to k sensing value recognition information are determined through the information determination unit 145, the emotional state calculation unit 150 determines the k sensing value recognition information and the s sensing values. Based on the matching ratio between value pattern information, the correlation and numerical relationship between the s sensed value pattern information and the n3 baby emotion items are read to determine the baby emotional state for each n3 emotion items corresponding to the recognized k sensed value recognition information. The baby's emotional state values for each of the n3 emotional items are calculated as numbers, and the information generator 155 uses the calculated baby emotional state values for each of the n3 emotional items to (add) the baby's emotional state for each of the n designated emotional items. Status information can be generated. Here, the baby's emotional state information for each emotional item may include numerical information (or rating information) about the baby's emotional state for each emotional item.
본 발명의 실시 방법에 따르면, 상기 i개의 아기 표정 인식 정보를 근거로 n1개의 감정 항목 별 아기 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(155)는 상기 i개의 아기 표정 인식 정보를 근거로 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 k개의 센싱 값 인식 정보를 근거로 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 'n1개의 감정 항목 별 아기 감정 상태 값 ∩ n3개의 감정 항목 별 아기 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. According to the implementation method of the present invention, when the baby emotional state value for each n1 emotion item is already calculated based on the i baby facial expression recognition information, the information generator 155 uses the i baby facial expression recognition information. By combining the baby emotional state values for n1 emotional items calculated with the baby emotional state values for n3 emotional items calculated based on the k sensing value recognition information, baby emotional state information for each n designated emotional items can be generated. You can. Preferably, the baby emotional state information for each n emotional item may be a union relationship of 'baby emotional state value for n1 emotional items ∩ baby emotional state value for n3 emotional items', or a subset relationship of the union. .
한편 상기 n1개의 감정 항목 별 아기 감정 상태 값과 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 n개의 감정 항목 별 아기 감정 상태 정보를 생성 시, 상기 정보 생성부(155)는 상기 n1개의 감정 항목과 n3개의 감정 항목 중 중복되는 감정 항목에 대하여 각 아기 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 지정된 센싱 대상의 센싱 값 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 아기 감정 상태 정보를 생성할 수 있다. Meanwhile, when generating baby emotional state information for each n emotional item by combining the baby emotional state value for each n1 emotional item and the baby emotional state value for each n3 emotional item, the information generator 155 generates baby emotional state information for each n1 emotional item. For overlapping emotion items among the n3 emotion items, a specified statistical operation (e.g., average value calculation operation) for each baby emotional state value is specified according to the correlation between the emotion item and the facial expression or the sensing value of the designated sensing object. Baby emotional state information for the overlapping emotional items can be generated through statistical calculations that apply weights designated to the recognition target.
한편 본 발명의 실시 방법에 따르면, 상기 i개의 아기 표정 인식 정보를 근거로 n1개의 감정 항목 별 아기 감정 상태 값과 상기 j개의 아기 울음소리 인식 정보를 n2개의 감정 항목 별 아기 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(155)는 상기 i개의 아기 표정 인식 정보를 근거로 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 j개의 아기 울음소리 인식 정보를 근거로 산출된 n2개의 감정 항목 별 아기 감정 상태 값 및 상기 k개의 센싱 값 인식 정보를 근거로 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 'n1개의 감정 항목 별 아기 감정 상태 값 ∩ n2개의 감정 항목 별 아기 감정 상태 값 ∩ n3개의 감정 항목 별 아기 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. Meanwhile, according to the implementation method of the present invention, based on the i baby facial expression recognition information, the baby emotional state value for each n1 emotional item and the j baby crying sound recognition information are used to calculate the baby emotional state value for each n2 emotional item. In this case, the information generator 155 generates baby emotional state values for each n1 emotional items calculated based on the i baby facial expression recognition information and n2 emotional items calculated based on the j baby crying sound recognition information. Baby emotional state information for each n designated emotional items can be generated by combining the baby emotional state values for each baby and the baby emotional state values for each n3 emotional items calculated based on the k sensing value recognition information. Preferably, the baby emotional state information for each n emotional item is a union relationship of 'baby emotional state value for n1 emotional items ∩ baby emotional state value for n2 emotional items ∩ baby emotional state value for n3 emotional items', or Or, it may be a subset relationship of the union.
한편 상기 n1개의 감정 항목 별 아기 감정 상태 값과 n2개의 감정 항목 별 아기 감정 상태 값 및 n3개의 감정 항목 별 아기 감정 상태 값 등을 조합하여 n개의 감정 항목 별 아기 감정 상태 정보를 생성 시, 상기 정보 생성부(155)는 상기 n1개의 감정 항목과 n2개의 감정 항목 및 n3개의 감정 항목 중 중복되는 감정 항목에 대하여 각 아기 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 울음소리 또는 지정된 센싱 대상의 센싱 값 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 아기 감정 상태 정보를 생성할 수 있다. Meanwhile, when generating baby emotional state information for n emotional items by combining the baby emotional state values for n1 emotional items, the baby emotional state values for n2 emotional items, and the baby emotional state values for n3 emotional items, the information The generator 155 performs a designated statistical operation (e.g., average value calculation operation) on each baby's emotional state value for overlapping emotional items among the n1 emotional items, n2 emotional items, and n3 emotional items, or the corresponding emotional items. The baby's emotional state information of the overlapping emotional items can be generated through a statistical operation that assigns a designated weight to the designated recognition object according to the correlation between the facial expression or crying sound or the sensing value of the designated sensing object.
도면1을 참조하면, 상기 운영서버(100)는, 상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하는 가상객체 확인부(160)와, 아기 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하는 감정 상태 증강부(165)와, 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 데이터 제공부(170)를 포함한다.Referring to Figure 1, the operation server 100 generates r (1 ≤ r ≤ R) virtual object data that matches the baby emotional state information for each of the n emotional items generated based on the virtual object matching information. A virtual object confirmation unit 160 that checks, and q (1 ≤ q ≤ r) virtual object data that can be displayed overlapping in the area around the baby's face are overlapped and displayed in the area around the baby's face on the video data, thereby defining the area around the baby's face. An emotional state enhancer 165 for augmenting the baby's emotional state information for each of the n emotional items, and transmitting data including video data augmented to correspond to the baby's emotional state information for each of the n emotional items, to a user wireless terminal ( It includes a data provider 170 that provides data through the app 180 or IPTV 185.
상기 정보 생성부(155)를 통해 각 감정 항목 별 아기의 감정 상태에 대한 수치정보(또는 등급정보)를 포함하는 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 가상객체 확인부(160)는 상기 가상객체 매칭 정보를 근거로 운영D/B에 저장된 R개의 가상객체 중 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r개의 가상객체 데이터를 확인한다. When the baby's emotional state information for n emotional items including numerical information (or rating information) about the baby's emotional state for each emotional item is generated through the information generation unit 155, the virtual object confirmation unit 160 Based on the virtual object matching information, confirms r virtual object data that matches the baby emotional state information for each of the generated n emotional items among the R virtual objects stored in the operation D/B.
상기 가상객체 확인부(160)를 통해 상기 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r개의 가상객체 데이터가 확인되면, 상기 감정 상태 증강부(165)는 r개의 가상객체 데이터 중 아기 안면 주변 영역에 중첩 표시 가능한 q개의 가상객체 데이터를 선별한다. 예를들어, 상기 r개의 가상객체 데이터는 아기 안면 주변의 동일 영역에 중첩 표시 가능한 둘 이상의 가상객체 데이터를 포함할 수 있는데, 이 경우 상기 감정 상태 증강부(165)는 지정된 절차에 따라 아기 안면 주변의 동일 영역에 중첩 표시 가능한 둘 이상의 가상객체 데이터 중 실제 중첩 표시할 어느 한 가상객체 데이터를 선별하는 과정을 통해 q개의 가상객체 데이터를 선별할 수 있다.When r virtual object data matching the baby's emotional state information for each of the n emotional items are confirmed through the virtual object confirmation unit 160, the emotional state enhancer 165 selects the r virtual object data around the baby's face. Select q virtual object data that can be displayed overlapping in the area. For example, the r virtual object data may include two or more virtual object data that can be displayed overlapping in the same area around the baby's face. In this case, the emotional state enhancer 165 is configured to operate the area around the baby's face according to a designated procedure. q pieces of virtual object data can be selected through the process of selecting which virtual object data to actually overlap among two or more virtual object data that can be displayed overlapping in the same area.
본 발명의 실시 방법에 따르면, 상기 q개의 가상객체 데이터는 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하는 아기의 감정 상태를 표현하는 문장열을 아기 안면 주변 영역에 말풍선 형태로 표시하는 가상객체 데이터를 포함할 수 있다.According to the implementation method of the present invention, the q virtual object data is a virtual object that displays a sentence string expressing the baby's emotional state corresponding to the baby's emotional state information for each of the n emotional items in the form of a speech bubble in the area around the baby's face. Can contain data.
아기 안면 주변 영역에 중첩 표시할 q의 가상객체 데이터가 선별되면, 상기 감정 상태 증강부(165)는 상기 비디오 데이터 상의 아기 안면 주변 영역에 상기 선별된 q개의 가상객체 데이터를 중첩 표시하여 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강한다. When q virtual object data are selected to be overlaid in the area around the baby's face, the emotional state enhancer 165 displays the selected q virtual object data in the area around the baby's face on the video data. The area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotional items.
본 발명의 실시 방법에 따르면, 상기 감정 상태 증강부(165)는 상기 비디오 데이터 상의 아기 안면의 지향 방향을 인식하고, 상기 아기 안면의 지향 방향에 대응하는 아기 안면 주변 영역에 상기 q개의 가상객체 데이터를 중첩 표시할 수 있다. 예를들어, 말풍선 형태의 문자열을 포함하는 가상객체 데이터는 아기의 안면이 바라보고 있는 방향에 배치됨과 동시에 아기의 안면 쪽으로 말풍성 꼬리를 내리는 형태로 중첩 표시될 수 있으며, 이로써 상기 비디오 데이터를 시청하는 사용자는 아기가 상기 말풍선 안쪽의 감정 표현 문자열(예컨대, '배고파요', '짜증나요', '외로워요' 등의 문자열)에 대응하는 감정을 표현하는 것처럼 느끼게 된다.According to the implementation method of the present invention, the emotional state enhancer 165 recognizes the orientation direction of the baby's face on the video data, and adds the q pieces of virtual object data to the area around the baby's face corresponding to the orientation direction of the baby's face. can be displayed overlapping. For example, virtual object data containing a string in the form of a speech bubble can be placed in the direction in which the baby's face is facing and simultaneously displayed in the form of a speech balloon lowering the tail toward the baby's face, thereby allowing the video data to be viewed. The user feels as if the baby is expressing emotions corresponding to the emotional expression strings inside the speech bubble (e.g., strings such as 'I'm hungry', 'I'm annoyed', 'I'm lonely', etc.).
상기 데이터 제공부(170)는 아기 안면 주변 영역에 q개의 가상객체 데이터를 중첩 표시하여 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하며, 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 송신 데이터를 수신하여 출력할 수 있다. 바람직하게, 상기 송신 데이터는 상기 비디오 데이터 외에 오디오 데이터를 더 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The data provider 170 displays q virtual object data overlaid on the area around the baby's face and transmits transmission data including augmented video data to correspond to the baby's emotional state information for each of the n emotional items to a designated user wireless terminal ( It is provided through an app or IPTV 185 of the user wireless terminal 180, and the app or IPTV 185 of the user wireless terminal 180 can receive and output the transmission data. Preferably, the transmission data may further include audio data in addition to the video data, but the present invention is not limited thereto.
도면2는 본 발명의 실시 방법에 따른 정보 저장/등록 과정을 도시한 도면이다.Figure 2 is a diagram illustrating the information storage/registration process according to the implementation method of the present invention.
보다 상세하게 본 도면2는 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하기 위한 지정된 인식 대상(예컨대, 아기 표정, 아기 울음소리, 지저된 센서모듈을 통해 아깅의 지정된 센싱 대사을 센싱한 센싱 값 등) 별 감정상태 판별 정보를 운영D/B에 저장하거나, 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(190)를 매핑하는 정보를 등록받아 지정된 관리D/B에 저장하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 2 shows a designated recognition target for generating baby emotional state information for each designated emotional item (e.g., baby's facial expression, baby's cry, sensing value obtained by sensing the baby's designated sensing line through a built-in sensor module, etc.) Each emotional state determination information is stored in the operation D/B, or a target to receive transmission data including video data captured of a specific baby in the base through the camera device 190 provided at the designated base and the camera device ( This shows the process of registering information mapping 190) and storing it in a designated management DB. Those skilled in the art will refer to Figure 2 and/or modify the above process. Although various implementation methods can be inferred (e.g., implementation methods in which some steps are omitted or the order is changed), the present invention includes all of the above inferred implementation methods, and the implementation shown in Figure 2 The technical features are not limited to the method alone.
도면2를 참조하면, 상기 운영서버(100)는 아기의 감정 상태를 판별하기 위해 인식하도록 지정된 인식 대상의 패턴 정보와 각 아기 감정 항목 사이의 매칭 관계정보 및 상기 지정된 인식 대상의 패턴 정보와 각 아기 감정 항목 간 상관도를 수치화한 상관도 수치 관계정보를 포함하는 지정된 인식 대상 별 감정상태 판별 정보를 지정된 운영D/B에 등록 저장하여 관리한다(200).Referring to Figure 2, the operation server 100 uses the matching relationship information between the pattern information of the recognition object designated to be recognized and each baby emotional item in order to determine the emotional state of the baby, and the pattern information of the designated recognition object and each baby. Emotional state determination information for each designated recognition target, including numerical relationship information and a quantified correlation between emotional items, is registered and stored in the designated operation DB and managed (200).
본 발명의 실시 방법에 따르면, 상기 운영서버(100)는 아기의 안면 영역에 존재하는 F개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E개의 아기 표정 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장한다. According to the implementation method of the present invention, the operation server 100 provides E baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression among the F feature points present in the baby's facial area and the designated N baby facial expression pattern information. Among the emotion items, it includes matching relationship information between N1 baby emotion items that can be distinguished based on the baby's facial expression patterns, and numerical expression-based correlation numerical relationship information that quantifies the correlation between the E baby facial expression pattern information and the N1 baby emotional items. The facial expression-based emotional state determination information including is registered and stored in the designated operation D/B.
본 발명의 확장/다른 실시예에 따르면, 상기 운영서버(100)는 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to an extension/another embodiment of the present invention, the operation server 100 collects C baby cry pattern information related to the baby's emotional expression among the baby cry patterns and baby cry pattern information among the designated N baby emotion items. A crying sound that contains matching relationship information between N2 baby emotion items that can be distinguished based on the basis, and numerical relationship information based on a cry that quantifies the correlation between the C baby cry pattern information and the N2 baby emotion items. The basic emotional state determination information can be registered and stored in the operation DB.
한편 본 발명의 확장/다른 실시예에 따르면, 상기 운영서버(100)는 상기 카메라장치(190)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다.Meanwhile, according to an expansion/another embodiment of the present invention, the operation server 100 detects a designated sensing object related to the baby's emotional expression among the sensing data sensed through a sensor module provided or linked to the camera device 190. Contains matching relationship information between S sensing value pattern information for data and N3 baby emotion items that can be distinguished based on the sensing value pattern of a designated sensing object among the designated N baby emotion items, and the S sensing value pattern information and Sensing-based emotional state determination information, including numerical relationship information and sensing-based correlation that quantifies the correlation between N3 baby emotional items, can be registered and stored in the operation D/B.
도면2를 참조하면, 상기 운영서버(100)는 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고(205), 상기 표정 기반 감정상태 판별 정보와 울음소리 기반 감정상태 판별 정보와 센싱 기반 감정상태 판별 정보 중 적어도 하나의 감정상태 판별 정보를 근거로 생성되는 지정된 감정 항목 별 아기 감정 상태 정보와 하나 이상의 지정된 가상객체 데이터를 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장한다(210).Referring to Figure 2, the operation server 100 registers and stores R (R≥2) virtual object data in the operation D/B to augment the area around the baby's face in response to the baby's emotional state (205). , Baby emotional state information for each designated emotional item generated based on at least one of the facial expression-based emotional state discrimination information, crying sound-based emotional state discrimination information, and sensing-based emotional state discrimination information, and one or more designated virtual objects. Virtual object matching information matching data is registered and stored in the operation D/B (210).
도면2를 참조하면, 상기 운영서버(100)는 지정된 거점에 구비된 카메라장치(190)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(190)를 매핑하기 위해 사용자 무선단말(180)의 앱으로부터 사용자에 대한 사용자정보, 상기 사용자에게 제공/공급된 카메라장치(190)를 고유 식별하는 카메라장치(190)정보, 상기 사용자 무선단말(180)의 앱을 고유 식별하는 고유식별정보 및 상기 사용자가 설정한 ID/PW정보 등을 지정된 절차에 따라 매핑 등록 요청할 수 있으며(215), 상기 운영서버(100)는 상기 사용자 무선단말(180)의 앱으로부터 상기 사용자정보, 카메라장치(190)정보, 고유식별정보 및 ID/PW정보 등을 지정된 절차에 따라 수신하고(220), 상기 사용자정보, 카메라장치(190)정보, 고유식별정보 및 ID/PW정보 등을 지정된 관리Dd/B에 연계 저장한다(225). 한편 실시 방법에 따라 상기 사용자정보와 카메라장치(190)정보 및 ID/PW정보 등은 상기 카메라장치(190)를 구매하거나 공급받는 사용자가 이용하는 사용자단말이나 상기 사용자의 가입신청서를 접수한 지정된 등록단말을 통해 등록될 수 있다.Referring to Figure 2, the operation server 100 is configured to receive transmission data including video data captured of a specific baby in the designated base through the camera device 190 provided at the designated base and the camera device 190. ), user information about the user from the app of the user wireless terminal 180, camera device 190 information uniquely identifying the camera device 190 provided/supplied to the user, and the user wireless terminal 180 The unique identification information that uniquely identifies the app and the ID/PW information set by the user may be requested for mapping registration (215) according to a designated procedure, and the operation server 100 may register the app of the user's wireless terminal (180). Receive (220) the user information, camera device 190 information, unique identification information, and ID/PW information from the user according to a designated procedure, and the user information, camera device 190 information, unique identification information, and ID/PW Information, etc. is linked and stored in the designated management Dd/B (225). Meanwhile, depending on the implementation method, the user information, camera device 190 information, ID/PW information, etc. are stored in a user terminal used by the user who purchases or receives the camera device 190 or a designated registration terminal that receives the user's application for membership. It can be registered through .
도면3은 본 발명의 실시 방법에 따라 지정된 거점의 카메라장치(190)를 통해 획득한 획득 데이터를 전송하여 지정된 저장매체에 저장 관리하는 도시한 도면이다.Figure 3 is a diagram showing how acquired data acquired through the camera device 190 at a designated base is transmitted and stored and managed in a designated storage medium according to the implementation method of the present invention.
보다 상세하게 본 도면3은 지정된 거점에 구비된 카메라장치(190)의 카메라모듈을 통해 획득한 비디오 데이터를 포함하는 획득 데이터를 운영서버(100)로 전송하여 지정된 저자매체의 특정 저장영역에 저장하여 관리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 3 shows that the acquired data, including video data acquired through the camera module of the camera device 190 provided at the designated base, is transmitted to the operation server 100 and stored in a specific storage area of the designated author media. As a illustration of the management process, those of ordinary skill in the art to which the present invention pertains can refer to Figure 3 and/or modify various implementation methods for the process (e.g., some steps are omitted, or However, the present invention includes all of the above inferred implementation methods, and its technical features are not limited to only the implementation method shown in Figure 3.
도면3을 참조하면, 상기 카메라장치(190)는 동작을 위한 전원 공급이 확인되면(300), 지정된 절차에 따라 통신모듈을 통해 지정된 운영서버(100)와 지정된 하나 이상의 정보를 교환하여 통신 연결을 요청하며(305), 상기 운영서버(100)는 상기 카메라장치(190)와 지정된 정보를 교환하여 상기 카메라장치(190)의 유효성을 인증한 경우(310), 상기 카메라장치(190)와 통신 연결하고(315), 이에 대응하여 상기 카메라장치(190)로 상기 운영서버(100)와 통신이 연결된다(315).Referring to Figure 3, when the power supply for operation is confirmed (300), the camera device 190 establishes a communication connection by exchanging one or more designated information with the designated operation server 100 through a communication module according to a designated procedure. A request is made (305), and when the operation server 100 authenticates the validity of the camera device 190 by exchanging specified information with the camera device 190 (310), a communication connection is made with the camera device 190. (315), and correspondingly, communication is established with the operation server 100 through the camera device 190 (315).
한편 상기 운영서버(100)는 상기 카메라장치(190)를 통해 획득된 획득 데이터를 수신하기 위한 일회용주소정보를 동적 생성하고(320), 상기 카메라장치(190)로 상기 생성된 일회용주소정보를 제공하며(325), 상기 카메라장치(190)는 상기 운영서버(100)로부터 상기 일회용주소정보를 수신하고(330), 상기 수신된 일회용주소정보를 상기 획득 데이터를 전송할 목적지 주소로 설정할 수 있으며(335), 상기의 일회용주소정보 생성 내지 목적지 주소로 설정하는 과정은 주기적으로(예컨대, 30초 단위) 반복될 수 있다. Meanwhile, the operation server 100 dynamically generates disposable address information for receiving acquired data obtained through the camera device 190 (320), and provides the generated disposable address information to the camera device 190. (325), the camera device 190 may receive the disposable address information from the operation server 100 (330), and set the received disposable address information as a destination address to transmit the acquired data (335). ), the above process of generating disposable address information or setting it as a destination address may be repeated periodically (e.g., every 30 seconds).
한편 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 비디오 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Meanwhile, the camera device 190 can acquire video data of a baby in a designated base through the camera module (340a), and transmit the acquired data including the video data to the designated destination address (345).
또는 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 사운드 입력부를 통해 상기 거점 내의 오디오 데이터를 획득한 후(340b), 상기 비디오 데이터와 오디오 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 190 acquires video data of a baby within a designated base through the camera module (340a), acquires audio data within the base through the sound input unit (340b), and then acquires the video data (340b). Acquired data including audio data can be transmitted to a designated destination address (345).
또는 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 센서모듈을 통해 아기의 지정된 센싱 대상을 센싱한 센싱 데이터를 획득한 후(340c), 상기 비디오 데이터와 센싱 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 190 acquires video data of a baby within a designated base through the camera module (340a), and acquires sensing data of a designated sensing target of the baby through the sensor module (340c). ), the acquired data including the video data and sensing data can be transmitted to a designated destination address (345).
또는 상기 카메라장치(190)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 사운드 입력부를 통해 상기 거점 내의 오디오 데이터를 획득하고(340b), 상기 센서모듈을 통해 아기의 지정된 센싱 대상을 센싱한 센싱 데이터를 획득한 후(340c), 상기 비디오 데이터와 오디오 데이터 및 센싱 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 190 acquires video data of a baby within a designated base through the camera module (340a), acquires audio data within the base through the sound input unit (340b), and uses the sensor module. After obtaining sensing data for sensing the baby's designated sensing target (340c), the acquired data including the video data, audio data, and sensing data can be transmitted to the designated destination address (345).
상기 운영서버(100)는 상기 카메라장치(190)로부터 적어도 비디오 데이터를 포함하는 획득 데이터를 수신하고(350), 상기 수신된 획득 데이터(또는 획득 데이터에 포함된 각각의 데이터)를 지정된 저장매체의 특정 저장영역에 저장하여 관리한다(355).The operation server 100 receives acquired data including at least video data from the camera device 190 (350), and stores the received acquired data (or each data included in the acquired data) in a designated storage medium. It is managed by storing it in a specific storage area (355).
도면4는 본 발명의 제1 실시 방법에 따라 아기 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.Figure 4 is a diagram illustrating providing transmission data including video data augmented with a baby's emotional state according to a first implementation method of the present invention.
보다 상세하게 본 도면4는 지정된 비디오 데이터를 판독하여 인식된 아기 표정 인식 정보를 이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한 후 상기 비디오 데이터 상의 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 4 shows that baby emotional state information for each n designated emotional items is generated using baby facial expression recognition information recognized by reading designated video data, and then the area around the baby's face on the video data is divided into the n emotional items. It illustrates the process of providing transmission data including video data augmented to correspond to emotional state information to the app of the user wireless terminal 180 or the IPTV 185, which is within the technical field to which the present invention pertains. Those who have this will be able to infer various implementation methods for the above process (e.g., implementation methods in which some steps are omitted or the order is changed) by referring to and/or modifying Figure 4, but the present invention does not apply to the above analogy. It includes all possible implementation methods, and its technical features are not limited to only the implementation methods shown in Figure 4.
도면4를 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(190)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 상기 운영서버(100)는 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식한다(400). Referring to Figure 4, the point at which transmission data including video data stored in a specific storage area of the designated storage medium is provided to the app or IPTV 185 of the designated user wireless terminal 180 through the process of Figure 3, or After acquired data including video data acquired through the camera device 190 is stored in a specific storage area of the storage medium designated through the process of Figure 3, the operation server 100 reads the designated video data and While recognizing f feature points for the facial area of a specific baby, among the recognized f feature points, i baby facial expression recognition information corresponding to the geometric relationship between feature points associated with the baby's emotional expression is recognized (400).
만약 상기 비디오 데이터를 근거로 i개의 아기 표정 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e개의 아기 표정 패턴 정보를 확인하고(405), 상기 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1개의 아기 감정 항목을 판별한다(410).If i baby facial expression recognition information is recognized based on the video data, the operation server 100 recognizes i based on the facial expression-based emotional state determination information stored in the operation D/B through the process of Figure 2. e baby expression pattern information that matches the baby facial expression recognition information and a preset standard similarity level or higher is confirmed (405), and n1 baby emotion items that have a matching relationship with the e baby facial expression pattern information are determined (410).
만약 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 아기 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 산출한다(415). If n1 baby emotion items corresponding to the recognized i baby facial expression recognition information are determined, the operation server 100 determines the matching ratio between the recognized i baby facial expression recognition information and the e baby facial expression pattern information. As a basis, the correlation and numerical relationship between the e baby facial expression pattern information and the n1 baby emotional items are read, and the n1 emotional items quantify the baby's emotional state for each of the n1 emotional items corresponding to the recognized i baby facial expression recognition information. Calculate the star baby emotional state value (415).
만약 상기 n1개의 감정 항목 별 아기 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한다(420).If the baby's emotional state values for each of the n1 emotional items are calculated, the operation server 100 uses the calculated baby's emotional state values for each of the n1 emotional items to display the baby's emotional state for each of the n1 emotional items. Generates emotional state information (420).
만약 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 운영D/B에 저장된 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고(425), 아기 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강 처리하며(430), 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 제공한다(435). 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(440). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the baby emotional state information for each of the n emotion items is generated, the operation server 100 generates a baby for each of the n emotion items based on the virtual object matching information stored in the operation D/B through the process of Figure 2. Check r(1≤r≤R) virtual object data matching the emotional state information (425), and q(1≤q≤r) virtual object data that can be displayed overlapping in the area around the baby's face. The area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotional items by overlapping the display on the area around the face (430), and the video data is augmented to correspond to the baby's emotional state information for each of the n emotional items. The operation server 100 transmits the transmission data containing the app of the user wireless terminal 180 corresponding to the unique identification information stored in the management D/B or the ID/PW stored in the management D/B through the process of Figure 2. Information is provided through identified/authenticated IPTV (185) (435). The app or IPTV 185 of the user wireless terminal 180 receives and outputs transmission data including video data augmented to correspond to the baby emotional state information for each of the n emotional items (440). Preferably, the transmission data may further include audio data associated with the video data.
도면5는 본 발명의 제2 실시 방법에 따라 아기 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.Figure 5 is a diagram illustrating providing transmission data including video data augmented with a baby's emotional state according to a second implementation method of the present invention.
보다 상세하게 본 도면5는 지정된 비디오 데이터와 연계된 오디오 데이터를 판독하여 인식된 아기 울음소리 인식 정보를 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한 후 상기 비디오 데이터 상의 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 5 shows that the baby's emotional state information for each n designated emotional items is generated by (additionally) using the baby's cry recognition information recognized by reading the audio data associated with the designated video data, and then generating the baby's emotional state information for each of the n emotional items. This shows a process of providing transmission data including video data augmented by the area around the face to correspond to the baby's emotional state information for each of the n emotional items to an app of the user wireless terminal 180 or an IPTV 185. Those of ordinary skill in the art to which the invention pertains can infer various implementation methods for the above process (for example, implementation methods in which some steps are omitted or the order is changed) by referring to and/or modifying Figure 5. However, the present invention includes all the implementation methods inferred above, and its technical features are not limited to only the implementation method shown in Figure 5.
도면5를 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(190)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 아기 표정 인식 기반의 n1개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 지정된 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 아기에 대한 j개의 아기 울음소리 인식 정보를 인식한다(500). Referring to Figure 5, the point at which transmission data including video data stored in a specific storage area of the storage medium designated through the process of Figure 3 is provided to the app or IPTV 185 of the designated user wireless terminal 180, or After acquired data including video data acquired through the camera device 190 is stored in a specific storage area of the storage medium designated through the process of Figure 3, or n1 emotions based on baby facial expression recognition shown in Figure 4 In conjunction with the process of calculating the baby's emotional state value for each item, the operation server 100 reads the audio data of a certain section associated with the designated video data and recognizes j baby crying sound recognition information for the specific baby ( 500).
만약 상기 오디오 데이터를 근거로 j개의 아기 울음소리 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c개의 아기 울음소리 패턴 정보를 확인하고(505), 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2개의 아기 감정 항목을 판별한다(510).If j pieces of baby cry recognition information are recognized based on the audio data, the operation server 100 recognizes the baby cry based on emotional state determination information stored in the operation D/B through the process of Figure 2. Confirm c baby cry pattern information that matches the j baby cry recognition information and a preset standard similarity level or higher (505), and n2 baby emotion items that have a matching relationship with the confirmed c baby cry pattern information. Determine (510).
만약 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 아기 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 산출한다(515). If n2 baby emotion items corresponding to the recognized j baby cry recognition information are determined, the operation server 100 determines the relationship between the recognized j baby cry recognition information and the c baby cry pattern information. Based on the matching ratio, the correlation and numerical relationship between the c baby cry pattern information and n2 baby emotion items are read to quantify the baby emotional state for each n2 emotion items corresponding to the recognized j baby cry recognition information. The baby's emotional state value is calculated for each n2 emotional items (515).
만약 상기 n2개의 감정 항목 별 아기 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 산출된 n2개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(520).If the baby's emotional state values for each of the n2 emotional items are calculated, the operation server 100 uses the calculated baby's emotional state values for each of the n2 emotional items to display the baby's emotional state for each of the n2 emotional items. Emotional state information may be generated (520).
한편 상기 n2개의 감정 항목 별 아기 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 아기 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 n2개의 감정 항목 별 아기 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(520).Meanwhile, when the baby emotional state value for each n1 emotional item is calculated through the process of Figure 4 at a point in time before, during, or after the n2 emotional state value is calculated, the operation server 100 By combining the calculated baby emotional state values for each n1 emotional items and the baby emotional state values for each n2 emotional items, baby emotional state information for each n designated emotional items that can be displayed on video data can be generated (520). .
만약 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 운영D/B에 저장된 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고(525), 아기 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강 처리하며(530), 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 제공한다(535). 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(540). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the baby emotional state information for each of the n emotion items is generated, the operation server 100 generates a baby for each of the n emotion items based on the virtual object matching information stored in the operation D/B through the process of Figure 2. Check r(1≤r≤R) virtual object data matching the emotional state information (525), and q(1≤q≤r) virtual object data that can be displayed overlapping in the area around the baby's face. The area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotional items by overlapping the display on the area around the face (530), and the video data is augmented to correspond to the baby's emotional state information for each of the n emotional items. The operation server 100 transmits the transmission data containing the app of the user wireless terminal 180 corresponding to the unique identification information stored in the management D/B or the ID/PW stored in the management D/B through the process of Figure 2. Information is provided through identified/authenticated IPTV (185) (535). The app or IPTV 185 of the user wireless terminal 180 receives and outputs transmission data including video data augmented to correspond to the baby emotional state information for each of the n emotional items (540). Preferably, the transmission data may further include audio data associated with the video data.
도면6은 본 발명의 제3 실시 방법에 따라 아기 감정 상태를 증강한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.Figure 6 is a diagram illustrating providing transmission data including video data augmented with a baby's emotional state according to a third implementation method of the present invention.
보다 상세하게 본 도면6은 지정된 비디오 데이터 및/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 인식된 센싱 값 인식 정보를 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한 후 상기 비디오 데이터 상의 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 6 shows that the baby's emotional state information for each of the n designated emotional items is generated by (additionally) using the sensing value recognition information recognized by reading the sensing data associated with the designated video data and/or audio data. Shows a process of providing transmission data including video data in which the area around the baby's face on the video data is augmented to correspond to the baby's emotional state information for each of the n emotion items to an app of the user wireless terminal 180 or IPTV 185. As such, those of ordinary skill in the technical field to which the present invention pertains can refer to and/or modify Figure 6 to provide various implementation methods for the above process (e.g., an implementation method in which some steps are omitted or the order is changed). ) can be inferred, but the present invention includes all of the above inferred implementation methods, and its technical features are not limited to only the implementation method shown in Figure 6.
도면6을 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(180)의 앱이나 IPTV(185)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(190)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 아기 표정 인식 기반의 n1개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하거나, 또는 상기 도면5에 도시된 아기 울음소리 인식 기반의 n2개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 지정된 비디오 데이터 및/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k개의 센싱 값 인식 정보를 인식한다(600). Referring to Figure 6, the point at which transmission data including video data stored in a specific storage area of the designated storage medium is provided to the app or IPTV 185 of the designated user wireless terminal 180 through the process of Figure 3, or After acquired data including video data acquired through the camera device 190 is stored in a specific storage area of the storage medium designated through the process of Figure 3, or n1 emotions based on baby facial expression recognition shown in Figure 4 In conjunction with the process of calculating the baby emotional state value for each item, or in conjunction with the process for calculating the baby emotional state value for each n2 emotional items based on baby crying sound recognition shown in Figure 5, the operation server 100 stores the designated video data. And/or the sensing data associated with the audio data is read to recognize k sensing value recognition information for the sensing data of the designated sensing target associated with the emotional expression of the specific baby (600).
만약 상기 센싱 데이터를 근거로 k개의 센싱 값 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s개의 센싱 값 패턴 정보를 확인하고(605), 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3개의 아기 감정 항목을 판별한다(610).If k sensing value recognition information is recognized based on the sensing data, the operation server 100 recognizes the k based on the sensing-based emotional state determination information stored in the operation D/B through the process of Figure 2. Confirm s sensing value pattern information that matches the s sensing value recognition information and a preset standard similarity or higher (605), and determine n3 baby emotion items that have a matching relationship with the confirmed s sensing value pattern information (610). ).
만약 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 아기 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출한다(615). If n3 baby emotion items corresponding to the recognized k sensing value recognition information are determined, the operation server 100 determines a matching ratio between the recognized k sensing value recognition information and the s sensing value pattern information. As a basis, the correlation and numerical relationship between the s sensing value pattern information and the n 3 baby emotional items are read, and the n 3 emotional items corresponding to the recognized k sensing value recognition information are quantified to determine the baby's emotional state. Calculate the star baby emotional state value (615).
만약 상기 n3개의 감정 항목 별 아기 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(620).If the baby's emotional state values for each of the n3 emotional items are calculated, the operation server 100 uses the calculated baby's emotional state values for each of the n3 emotional items to display the baby's emotional state for each of the designated n emotional items on the video data. Emotional state information can be generated (620).
한편 상기 n3개의 감정 항목 별 아기 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 아기 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(620).Meanwhile, when the baby emotional state value for each n1 emotional item is calculated through the process of Figure 4 at a point in time before, during, or after the n3 emotional state values are calculated, the operation server 100 By combining the calculated baby emotional state values for each n1 emotional items and the baby emotional state values for each n3 emotional items, baby emotional state information for each n designated emotional items that can be displayed on video data can be generated (620). .
또는 상기 n3개의 감정 항목 별 아기 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 아기 감정 상태 값이 산출되고 상기 도면5의 과정을 통해 n2개의 감정 항목 별 아기 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 n2개의 감정 항목 별 아기 감정 상태 값 및 상기 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(620).Or, at a point in time before, during, or after the baby emotional state values for the n3 emotional items are calculated, the baby emotional state values for the n1 emotional items are calculated through the process of Figure 4, and the baby emotional state values for the n1 emotional items are calculated through the process of Figure 5. When the baby emotional state value for each emotion item is calculated, the operation server 100 generates the baby emotional state value for each n1 emotional item, the baby emotional state value for each n2 emotional item, and the baby emotional state value for each n3 emotional item. By combining the state values, baby emotional state information for each n designated emotional items that can be displayed on the video data can be generated (620).
만약 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 운영D/B에 저장된 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하고(625), 아기 안면 주변 영역에 중첩 표시 가능한 q(1≤q≤r)개의 가상객체 데이터를 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강 처리하며(630), 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(180)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(185)로 제공한다(635). 상기 사용자 무선단말(180)의 앱이나 IPTV(185)는 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(640). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the baby emotional state information for each of the n emotion items is generated, the operation server 100 generates a baby for each of the n emotion items based on the virtual object matching information stored in the operation D/B through the process of Figure 2. Check r(1≤r≤R) virtual object data matching the emotional state information (625), and q(1≤q≤r) virtual object data that can be displayed overlapping in the area around the baby's face. The area around the baby's face is augmented to correspond to the baby's emotional state information for each of the n emotional items by overlapping the display on the area around the face (630), and the video data is augmented to correspond to the baby's emotional state information for each of the n emotional items. The operation server 100 transmits the transmission data containing the app of the user wireless terminal 180 corresponding to the unique identification information stored in the management D/B or the ID/PW stored in the management D/B through the process of Figure 2. Information is provided through identified/authenticated IPTV (185) (635). The app or IPTV 185 of the user wireless terminal 180 receives and outputs transmission data including video data augmented to correspond to the baby emotional state information for each of the n emotional items (640). Preferably, the transmission data may further include audio data associated with the video data.
100 : 운영서버 105 : 정보 관리부
110 : 가상객체 관리부 115 : 정보 매칭부
120 : 정보 등록부 125 : 통신 관리부
130 : 데이터 수신부 135 : 데이터 저장부
140 : 정보 인식부 145 : 정보 판별부
150 : 감정 상태 산출부 155 : 정보 생성부
160 : 가상객체 확인부 165 : 감정 상태 증강부
170 : 데이터 제공부 180 : 무선단말
185 : IPTV 190 : 카메라장치100: Operation server 105: Information management department
110: Virtual object management unit 115: Information matching unit
120: Information Register 125: Communication Management Department
130: data receiving unit 135: data storage unit
140: Information recognition unit 145: Information determination unit
150: emotional state calculation unit 155: information generation unit
160: Virtual object confirmation unit 165: Emotional state enhancement unit
170: data provider 180: wireless terminal
185: IPTV 190: Camera device
Claims (28)
아기의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 아기 표정 패턴 정보와 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보와, 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C(C≥2)개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보와, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하고, 아기 안면 주변 영역을 아기의 감정 상태에 대응시켜 증강하기 위한 R(R≥2)개의 가상객체 데이터를 운영D/B에 등록 저장하고, 지정된 감정 항목 별 아기 감정 상태 정보를 하나 이상의 지정된 가상객체 데이터와 매칭하는 가상객체 매칭 정보를 운영D/B에 등록 저장하는 제1 단계;
상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 아기를 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하고, 수신된 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 저장영역에 연계 저장 관리하고, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 저장영역에 저장 관리하는 제2 단계;
지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 아기 표정 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 일정 구간의 오디오 데이터를 판독하여 상기 아기에 대한 j(j≥1)개의 아기 울음소리 인식 정보를 인식하고, 상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하는 제3 단계;
상기 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 아기 표정 패턴 정보를 확인하고 상기 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 아기 울음소리 패턴 정보를 확인하고 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별하는 제4 단계;
상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 산출하고, 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하는 제5 단계;
상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값, n2개의 감정 항목 별 아기 감정 상태 값 및 n3개의 감정 항목 별 아기 감정 상태 값을 이용하여 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성하는 제6 단계;
상기 가상객체 매칭 정보를 근거로 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보에 매칭되는 r(1≤r≤R)개의 가상객체 데이터를 확인하는 제7 단계;
상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하는 아기의 감정 상태를 표현하는 문장열을 아기 안면 주변 영역에 말풍선 형태로 표시하는 q(1≤q≤r)개의 가상객체 데이터를 상기 비디오 데이터 상의 아기 안면 주변 영역에 중첩 표시하여 상기 아기 안면 주변 영역을 상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강하는 제8 단계; 및
상기 n개의 감정 항목 별 아기 감정 상태 정보에 대응하도록 증강된 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 제9 단계;를 포함하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
In a method executed through an operating server equipped with a sound input unit and a camera module and communicating with a camera device provided at a designated base,
Among the F (F≥2) feature points present in the baby's facial area, E (E≥2) baby expression pattern information corresponding to the geometric relationship between feature points associated with the baby's emotional expression and the designated N (N≥2) baby Matching relationship information between N1 (1≤N1≤N) baby emotion items that can be distinguished based on baby facial expression patterns among emotional items, and expression-based quantification of the correlation between the E baby facial expression pattern information and N1 baby emotional items. Expression-based emotional state discrimination information including correlation and numerical relationship information, C (C≥2) baby cry pattern information related to the baby's emotional expression among the baby's cry patterns, and baby cry among the designated N baby emotion items. Matching relationship information between N2 (1≤N2≤N) baby emotion items that can be distinguished based on sound patterns, and a cry-based correlation chart that quantifies the correlation between the C baby cry pattern information and N2 baby emotion items. S (S ≥ 2) Matching relationship information between sensing value pattern information and N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of a designated sensing object among the designated N baby emotion items, and the S sensing values Sensing-based emotional state determination information, including numerical relationship information, is registered and stored in the operation D/B, and the area around the baby's face is compared to the baby's emotional state. Register and store R (R≥2) virtual object data for matching and augmentation in operation D/B, and operate virtual object matching information that matches baby emotional state information for each designated emotion item with one or more designated virtual object data. The first step of registering and storing in /B;
Video data encoded in a designated manner is received by filming a baby in the base through a camera module of the camera device, and audio data input through a sound input unit of the camera apparatus and encoded in a designated manner is received, and the received video data and audio are received. Synchronizes the time of the data, stores and manages it in conjunction with the storage area of the designated storage medium, receives sensing data sensed through a sensor module provided or linked to the camera device, and links it with the video data to the storage area of the designated storage medium. A second step of storage management;
By reading the designated video data, f (1≤f≤F) feature points of the baby's facial area within the base are recognized, and among the recognized f feature points, i ( Recognize i≥1) pieces of baby facial expression recognition information, read audio data of a certain section associated with the video data, recognize j(j≥1) pieces of baby cry recognition information for the baby, and recognize the video data. A third step of reading the sensing data associated with and recognizing k (k≥1) sensing value recognition information for the sensing data of the designated sensing target associated with the baby's emotional expression;
Based on the facial expression-based emotional state determination information, identify e (1≤e≤E) baby facial expression pattern information that matches the recognized i baby facial expression recognition information and a preset standard similarity level or higher, and identify the e baby facial expression pattern information. and determine n1 (1≤n1≤N1) baby emotion items that have a matching relationship, and match the j recognized baby cry recognition information with a preset standard similarity level or higher based on the crying sound-based emotional state determination information. Confirm c (1≤c≤C) baby cry pattern information, determine n2 (1≤n2≤N2) baby emotion items that have a matching relationship with the confirmed c baby cry pattern information, and perform the sensing. Based on the emotional state determination information, check s (1≤s≤S) sensing value pattern information that matches the recognized k sensing value recognition information and a preset standard similarity or higher, and obtain the confirmed s sensing value pattern information. A fourth step of determining n3 (1≤n3≤N3) baby emotion items that have a matching relationship with;
Based on the matching ratio between the recognized i baby facial expression recognition information and the e baby facial expression pattern information, the correlation and numerical relationship between the e baby facial expression pattern information and the n1 baby emotion items are read, and the recognized i baby Calculate the baby emotional state value for each n1 emotional item, which quantifies the baby emotional state for each n1 emotional item corresponding to the facial expression recognition information, and calculate the difference between the recognized j baby cry recognition information and the c baby cry pattern information. Based on the matching ratio, the correlation and numerical relationship between the c baby cry pattern information and n2 baby emotion items are read to quantify the baby emotional state for each n2 emotion items corresponding to the recognized j baby cry recognition information. Calculate the baby emotional state value for each n2 emotional items, and calculate the s sensing value pattern information and the n3 baby emotional items based on the matching ratio between the recognized k sensing value recognition information and the s sensing value pattern information. A fifth step of calculating the baby emotional state value for each of the n3 emotional items, which is a numerical value of the baby emotional state for the n3 emotional items corresponding to the recognized k sensing value recognition information, by reading the numerical relationship between correlations;
Baby's emotions for each n (1≤n≤N) emotion items specified using the calculated baby emotional state values for n1 emotional items, baby emotional state values for n2 emotional items, and baby emotional state values for n3 emotional items. A sixth step of generating status information;
A seventh step of confirming r (1≤r≤R) virtual object data matching the baby emotional state information for each of the generated n emotional items based on the virtual object matching information;
Q (1≤q≤r) virtual object data that displays a sentence string expressing the baby's emotional state corresponding to the baby's emotional state information for each of the n emotional items in the form of a speech bubble in the area around the baby's face is displayed on the video data. An eighth step of overlapping display on the area around the baby's face and augmenting the area around the baby's face to correspond to the baby's emotional state information for each of the n emotional items; and
A ninth step of providing transmission data including video data augmented to correspond to the baby's emotional state information for each of the n emotional items to an app or IPTV of the user's wireless terminal; augmenting the baby's emotional state using the area around the baby, including; method.
각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the geometric relationship between the feature points is:
A method of enhancing the baby's emotional state using the area around the baby, characterized in that it includes one or more of the following relationships: a distance relationship between each feature point, an angle relationship between each feature point, and a combination relationship of a distance relationship and an angle relationship between each feature point.
아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the facial expression-based correlation numerical relationship information is,
The baby's emotional state using the area around the baby, characterized in that it includes correlation numerical information calculated through a relationship that is proportional to the matching ratio between the baby's facial expression recognition information and the baby's facial expression pattern information that is already registered. Augmentation method.
아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the facial expression-based correlation numerical relationship information is,
A method of enhancing the baby's emotional state using the area around the baby, characterized in that it includes correlation numerical information for each matching ratio section between the baby's facial expression recognition information and the already registered baby's facial expression pattern information.
상기 저장매체의 저장영역에 저장된 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the transmitted data is:
A method of enhancing the baby's emotional state using the area around the baby, further comprising audio data stored in the storage area of the storage medium.
지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터,
지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the designated video data is:
Video data periodically selected by specified playback time units,
A method of enhancing the emotional state of a baby using the area around the baby, comprising at least one video data among video data periodically selected for a specified number of playback frames.
지정된 사용자 무선단말의 앱이나 IPTV로 상기 저장매체의 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인하는 단계를 더 포함하며,
상기 제3 단계는, 지정된 사용자 무선단말의 앱이나 IPTV로 비디오 데이터를 포함하는 송신 데이터를 제공하는 경우에 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
According to clause 1,
It further includes the step of confirming whether transmission data including video data stored in the storage area of the storage medium is provided to the app or IPTV of the designated user's wireless terminal,
In the third step, when transmission data including video data is provided to an app or IPTV of a designated user wireless terminal, designated video data among the video data of the transmission data is read and f Recognizing the baby's facial expression recognition information corresponding to the geometric relationship between the characteristic points associated with the baby's emotional expression among the recognized f feature points while recognizing the baby's characteristic points. How to enhance your emotional state.
상기 제3 단계는, 지정된 저장매체의 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식하는 단계를 포함하며,
상기 제6 단계는, 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
According to clause 1,
The third step is to read designated video data from among the video data stored in the storage area of the designated storage medium, recognize f feature points of the baby's facial area within the base, and identify the baby's emotional expressions among the recognized f feature points. It includes the step of recognizing i baby facial expression recognition information corresponding to the geometric relationship between associated feature points,
The sixth step further includes storing the baby's emotional state information for each of the generated n emotional items in conjunction with the video data.
상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터의 지정된 재생 시점과 동기화하는 시간 값(또는 타임스탬프)과 연계하여 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 12, wherein the sixth step is:
Baby using the area around the baby, comprising the step of storing the baby emotional state information for each of the generated n emotional items in association with a time value (or timestamp) synchronized with a designated playback point of the video data. Method for enhancing emotional state.
아기의 감정표현과 연관된 각각의 아기 울음소리 패턴을 구성하는 울음소리 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the C baby cry pattern information is:
A method of enhancing a baby's emotional state using the area around the baby, comprising information on the range of cry characteristics that make up each baby's cry pattern associated with the baby's emotional expression.
주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 15, wherein the cry characteristic is,
Frequency band feature, placement relationship feature of frequency band feature, periodicity feature of frequency band feature, sound intensity feature, placement relationship feature of sound intensity feature, periodicity feature of sound intensity feature, combination feature of frequency band feature and sound intensity feature, frequency A method for enhancing the baby's emotional state using the area around the baby, comprising one or more of the following features: the arrangement relationship between the band feature and the sound intensity feature, and the periodicity feature of the frequency band feature and the sound intensity feature.
아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the crying sound-based correlation numerical relationship information is,
A baby using the area around the baby, characterized in that it includes correlation numerical information calculated through a relationship proportional to the matching ratio between the baby cry recognition information that recognizes the baby's cry and the already registered baby cry pattern information. Method for enhancing emotional state.
아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the crying sound-based correlation numerical relationship information is,
Augmentation of the baby's emotional state using the area around the baby, characterized in that it includes correlation numerical information for each matching ratio section between the baby's crying sound recognition information and the already registered baby's crying sound pattern information. method.
아기의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈,
지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the sensor module:
Wearable sensor module that is worn on the baby's body to sense a designated sensing target,
A method of enhancing the baby's emotional state using the area around the baby, comprising at least one sensor module among radar sensor modules that senses the baby's designated sensing target using designated electromagnetic waves.
아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1 or 20, wherein the sensing object is,
A method of enhancing the baby's emotional state using the area around the baby, comprising at least one of the baby's heartbeat, the baby's body temperature, the humidity around the baby, and whether the baby is apnea.
아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the S sensing value pattern information is:
A method for enhancing a baby's emotional state using the area around the baby, characterized in that it includes range information of sensing value features that constitute each sensing value pattern for sensing data of a designated sensing object associated with the baby's emotional expression.
센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 22, wherein the sensing value characteristic is:
A method of enhancing the baby's emotional state using the area around the baby, comprising at least one or a combination of two or more of the following: a sensing value change rule feature, a sensing value change amount feature, a sensing value change rate feature, and a periodicity feature of the sensing value change. .
지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the sensing-based correlation numerical relationship information is,
Using the area around the baby, characterized in that it includes correlation numerical information calculated through a relational expression proportional to the matching ratio between sensing value recognition information recognized through sensing data of a designated sensing target and pre-registered sensing value pattern information. How to enhance your baby's emotional state.
지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the sensing-based correlation numerical relationship information is,
The baby's emotional state using the area around the baby, characterized in that it includes correlation numerical information for each matching ratio section between sensing value recognition information recognized through sensing data of a designated sensing target and pre-registered sensing value pattern information. Augmentation method.
n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
The method of claim 1, wherein the baby emotional state information for each of the n emotional items is:
A method of enhancing a baby's emotional state using the area around the baby, comprising n emotional item information and numerical information of the baby's emotional state for each emotional item.
상기 비디오 데이터 상의 아기 안면의 지향 방향을 인식하는 단계를 더 포함하며,
상기 제8 단계는, 상기 아기 안면의 지향 방향에 대응하는 아기 안면 주변 영역에 상기 q개의 가상객체 데이터를 중첩 표시하는 단계를 포함하여 이루어지는 것을 특징으로 하는 아기 주변 영역을 이용한 아기의 감정 상태 증강 방법.
According to clause 1,
Further comprising recognizing the orientation of the baby's face on the video data,
The eighth step is a method of enhancing the baby's emotional state using the area around the baby, comprising the step of overlapping and displaying the q virtual object data on the area around the baby's face corresponding to the orientation direction of the baby's face. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180106246A KR102611458B1 (en) | 2018-09-06 | 2018-09-06 | Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180106246A KR102611458B1 (en) | 2018-09-06 | 2018-09-06 | Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200028521A KR20200028521A (en) | 2020-03-17 |
KR102611458B1 true KR102611458B1 (en) | 2023-12-11 |
Family
ID=70004022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180106246A KR102611458B1 (en) | 2018-09-06 | 2018-09-06 | Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102611458B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113375310B (en) * | 2021-06-15 | 2023-01-13 | 青岛海尔空调器有限总公司 | Control method and device for air conditioner and air conditioner |
CN113375316B (en) * | 2021-06-15 | 2023-01-13 | 青岛海尔空调器有限总公司 | Control method and device for air conditioner and air conditioner |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010210730A (en) * | 2009-03-09 | 2010-09-24 | Univ Of Fukui | Diagnostic device of infants' feeling and method |
KR101765805B1 (en) * | 2015-11-09 | 2017-08-07 | 금오공과대학교 산학협력단 | Infant mental state analysis system |
JP2018517996A (en) * | 2015-04-05 | 2018-07-05 | スマイラブルズ インコーポレイテッド | Infant caregiver system, infant data aggregation system, aggregation of observations about infant data, and aggregation of guesses about infant data |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130022434A (en) * | 2011-08-22 | 2013-03-07 | (주)아이디피쉬 | Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same |
KR101727940B1 (en) * | 2015-01-08 | 2017-04-18 | 한국과학기술연구원 | Apparatus and method for decision of psychological state using bio signals |
-
2018
- 2018-09-06 KR KR1020180106246A patent/KR102611458B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010210730A (en) * | 2009-03-09 | 2010-09-24 | Univ Of Fukui | Diagnostic device of infants' feeling and method |
JP2018517996A (en) * | 2015-04-05 | 2018-07-05 | スマイラブルズ インコーポレイテッド | Infant caregiver system, infant data aggregation system, aggregation of observations about infant data, and aggregation of guesses about infant data |
KR101765805B1 (en) * | 2015-11-09 | 2017-08-07 | 금오공과대학교 산학협력단 | Infant mental state analysis system |
Also Published As
Publication number | Publication date |
---|---|
KR20200028521A (en) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220337693A1 (en) | Audio/Video Wearable Computer System with Integrated Projector | |
TWI681315B (en) | Data transmission system and method thereof | |
JP6574937B2 (en) | COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM | |
JP6594646B2 (en) | Robot, robot control method, and robot system | |
CN111163906B (en) | Mobile electronic device and method of operating the same | |
KR101670815B1 (en) | Method for providing real-time contents sharing service based on virtual reality and augment reality | |
KR102611458B1 (en) | Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region | |
KR102596833B1 (en) | Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Based on Artificial Intelligence | |
JPWO2015155977A1 (en) | Cooperation system, apparatus, method, and recording medium | |
KR20200092207A (en) | Electronic device and method for providing graphic object corresponding to emotion information thereof | |
Kim et al. | Beginning of a new standard: Internet of Media Things | |
KR20210080637A (en) | Method for Displaying Pet's Emotional Sate Based on Artificial Intelligence | |
CN110178159A (en) | Audio/video wearable computer system with integrated form projector | |
KR102549441B1 (en) | Method for Displaying Baby's Emotional Sate | |
KR102596832B1 (en) | Method for Providing Conversation with Pet using Augmented Reality by Pet's Emotional Sate | |
KR20210072202A (en) | Method for Outputting Infants Emotional Condition | |
KR102549453B1 (en) | Method for Providing Conversation with Baby using Augmented Reality by Baby's Emotional Sate | |
JP2017119336A (en) | Robot, robot control method, and robot program | |
JP7189406B2 (en) | Communication device and remote communication system | |
US10645274B2 (en) | Server apparatus, distribution system, distribution method, and program with a distributor of live content and a viewer terminal for the live content including a photographed image of a viewer taking a designated body pose | |
KR20210072204A (en) | Method for Processing Baby's Emotional Sate Information by Using Peripheral Region | |
KR102549449B1 (en) | Method for Providing Augmented Reality by Emotional Sate of Baby's Face | |
KR20210072203A (en) | Method for Processing Emotional Sate Information of Baby | |
KR20210079479A (en) | Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region | |
KR20210072205A (en) | Method for Processing Conversation by Using Baby's Emotional Sate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |