KR20210072202A - Method for Outputting Infants Emotional Condition - Google Patents
Method for Outputting Infants Emotional Condition Download PDFInfo
- Publication number
- KR20210072202A KR20210072202A KR1020190161714A KR20190161714A KR20210072202A KR 20210072202 A KR20210072202 A KR 20210072202A KR 1020190161714 A KR1020190161714 A KR 1020190161714A KR 20190161714 A KR20190161714 A KR 20190161714A KR 20210072202 A KR20210072202 A KR 20210072202A
- Authority
- KR
- South Korea
- Prior art keywords
- baby
- information
- emotional state
- designated
- specified
- Prior art date
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 547
- 238000000034 method Methods 0.000 title claims abstract description 249
- 230000008451 emotion Effects 0.000 claims abstract description 343
- 230000014509 gene expression Effects 0.000 claims abstract description 202
- 230000008569 process Effects 0.000 claims abstract description 71
- 230000005540 biological transmission Effects 0.000 claims abstract description 67
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 56
- 230000001815 facial effect Effects 0.000 claims description 42
- 206010011469 Crying Diseases 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 19
- 230000008921 facial expression Effects 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000003909 pattern recognition Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 230000036760 body temperature Effects 0.000 claims description 4
- 235000019227 E-number Nutrition 0.000 claims description 3
- 239000004243 E-number Substances 0.000 claims description 3
- 208000008784 apnea Diseases 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000000737 periodic effect Effects 0.000 claims 1
- 238000007726 management method Methods 0.000 description 62
- 238000004891 communication Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000008909 emotion recognition Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 8
- 206010041349 Somnolence Diseases 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000059 patterning Methods 0.000 description 2
- 206010022998 Irritability Diseases 0.000 description 1
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 230000036528 appetite Effects 0.000 description 1
- 235000019789 appetite Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G06K9/00302—
-
- G06K9/00624—
-
- G06K9/62—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0205—Specific application combined with child monitoring using a transmitter-receiver system
- G08B21/0208—Combination with audio or video communication, e.g. combination with "baby phone" function
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Child & Adolescent Psychology (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Tourism & Hospitality (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Emergency Management (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Data Mining & Analysis (AREA)
- Hospice & Palliative Care (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
본 발명은 지정된 거점에 구비된 카메라장치를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말의 앱이나 IPTV로 제공 시 상기 카메라장치를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보를 표시하여 제공하는 것이다.The present invention provides one or more data acquired through the camera device when transmitting data including video data of a specific baby in the base through a camera device provided at a designated base is provided to an app or IPTV of a designated user's wireless terminal. Based on the basis, baby emotional state information for each designated emotional item for the specific baby is generated, and the baby emotional state information for each of the generated emotional items is displayed and provided in a designated area on the video data of the transmission data.
종래에 다수개의 웹 PC 카메라가 설치된 병원 또는 조산원 또는 산후 조리원에서 회원으로 가입된 아기의 동영상이나 정지 화상 및 신생아 정보(예컨대, 태몽, 초음파 진단 사진 등)를 인터넷을 통해 회원에게 제공하는 서비스가 제안된 바 있다(특허공개번호 특2001-0091236(2001년10월23일)).A service that provides video or still images and newborn information (e.g., taemong, ultrasound diagnostic photos, etc.) of a baby who has been registered as a member in a hospital or midwifery or postpartum cooking center where multiple web PC cameras are conventionally installed to members through the Internet is proposed. (Patent Publication No. 2001-0091236 (October 23, 2001)).
그러나 종래의 서비스는 단순히 아기의 동영상이나 정지 화상 및 신생아 정보를 인터넷을 통해 제공하는 것으로, 기본 제공되는 아기의 동영상이나 정지 화상 및 신생아 정보 외에 아기의 현재 상태와 관련된 실시간 정보를 자동 파악하여 제공하기에는 기술적으로 난해한 문제점을 지니고 있다.However, the conventional service simply provides a baby's video or still image and newborn information through the Internet. It has technically difficult problems.
상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 아기의 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 감정상태 판별 정보를 저장한 후, 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 획득된 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하고, 상기 감정상태 판별 정보를 통해 지정된 비디오 데이터를 포함하는 하나 이상의 데이터를 판독하는 절차를 수행하여 상기 아기에 대한 지정된 감정 항목 별 아기 감정 상태 값을 판별하고, 상기 산출된 하나 이상의 아기 감정 상태 정보를 이용하여 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고, 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 영유아 감정 상태 출력 방법을 제공함에 있다.It is an object of the present invention to solve the above problems, after storing emotional state determination information for determining the baby emotional state value for each designated emotional item of the baby, and then using the camera module of the camera device, a specific baby in the base By performing a procedure of receiving acquired data including video data obtained by photographing and storing it in a specific storage area of a specified storage medium, and reading one or more data including specified video data through the emotional state determination information, Determines the baby emotional state value for each specified emotional item for the baby, generates baby emotional state information for each specified emotional item using the calculated one or more baby emotional state information, and generates the generated baby emotional state information in a specified predetermined area on the video data. An object of the present invention is to provide a method for outputting an infant's emotional state by providing transmission data including video data indicating baby emotional state information for each n emotional item to an app or IPTV of a user's wireless terminal.
본 발명에 따른 영유아 감정 상태 출력 방법은, 사운드 입력부 및 카메라모듈을 구비하여 지정된 거점에 구비된 카메라장치와 통신하는 운영서버를 통해 실행되는 방법에 있어서, 지정된 인공지능 기반의 학습(Learning) 과정을 통해 아기 표정에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 제1 단계와 상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 연계 저장 관리하는 제2 단계와 상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목을 근거로 상기 비디오 데이터의 아기 표정에 대응하는 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값을 판별하는 제3 단계와 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성하는 제4 단계 및 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 제5 단계를 포함하는 것을 특징으로 한다.The method for outputting the infant's emotional state according to the present invention comprises a sound input unit and a camera module and is executed through an operation server that communicates with a camera device provided at a designated base. A first step of generating expression-based emotional state determination information for determining the baby emotional state value for each designated emotional item corresponding to the baby's expression through the first step and storing it in a designated storage area, and a specific baby in the base through the camera module of the camera device A second step of receiving video data encoded in a specified method by photographing and audio data encoded in a specified method input through the sound input unit of the camera device, and storing and managing in a specific storage area of a specified storage medium in association with the artificial intelligence; N1 (1≤N1≤N) baby emotion items that can be distinguished through baby expression among N (N≥2) specified baby emotion items by performing a procedure of reading specified video data through expression-based emotional state identification information Based on the third step of determining the baby emotional state value for each n1 (1≤n1≤N1) emotional item corresponding to the baby expression in the video data, and the calculated baby emotional state value for each of the n1 emotional items. A fourth step of generating baby emotional state information for each of n (1≤n≤N) specified emotional items that can be displayed on the video data, and the generated baby emotional state information for each of the n emotional items in a specified area on the video data and a fifth step of providing transmission data including the displayed video data to an app or IPTV of the user's wireless terminal.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 인공지능 기반의 학습(Learning) 과정을 수행하여 지정된 E(E≥2)개의 아기 표정 중 지정된 아기 안면 영역에 대응하는 e(1≤e≤E)개의 아기 표정을 판별하고, 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목을 기반으로 상기 판별된 e개의 아기 표정과 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 확인된 e개의 아기 표정과 n1개의 아기 감정 항목 간 상관도에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the first step is e corresponding to a designated baby facial region among E (E≥2) baby expressions designated by performing a designated AI-based learning process. (1≤e≤E) baby expressions are determined, and N1 (1≤N1≤N) baby emotion items that can be distinguished through baby expressions among the specified N (N≥2) baby emotion items are determined above. n1 (1≤n1≤N1) baby emotion items having a matching relationship with e baby expressions are identified, and babies by n1 emotion items corresponding to the correlation between the identified e baby expressions and n1 baby emotion items and generating expression-based emotional state determination information for determining the emotional state value and storing it in a designated storage area.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 E(E≥2)개의 아기 표정 중 지정된 e(1≤e≤E)개의 아기 표정에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 안면 영역을 포함하는 장면에 대응하는 복수의 비디오 정보들을 입력받고, 상기 입력된 복수의 비디오 정보에 대한 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계와 상기 입력된 복수의 비디오 정보들에 포함된 아기 안면 영역의 지정된 특징점 간 기하학 관계를 판독하고 패턴 인식하여 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값에 대응하는 P(P≥2)개의 장면 패턴 특성 정보를 추출하여 입력변수(Feature Vectors)로 설정하는 단계와 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 아기 안면 영역을 포함하는 복수의 장면들 중 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the first step comprises: N (N≥2) specified while corresponding to the specified e(1≤e≤E) baby expressions among the specified E(E≥2) baby expressions ) among the baby emotion items, a plurality of video information corresponding to a scene including N1 (1≤N1≤N) baby emotion items distinguishable through baby expressions and a baby face region having a specified correlation are input, and the input Setting the baby emotional state value for each of n1 (1≤n1≤N1) emotion items for the plurality of video information as an output variable and the geometry between the specified feature points of the baby's facial region included in the inputted plurality of video information By reading the relationship and recognizing the pattern, P(P≥2) scene pattern characteristic information corresponding to the baby emotional state value for each n1 emotion item corresponding to the baby expression in the baby's facial area is extracted as input variables (Feature Vectors) Baby emotion for each n1 emotion item corresponding to the baby's expression in the baby's face area among a plurality of scenes including the baby's face area by learning more than a specified number of the input and output variables through the setting step and a designated artificial intelligence algorithm and generating expression-based emotional state determination information for determining the state value and storing it in a designated storage area.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 E(E≥2)개의 아기 표정 중 지정된 e(1≤e≤E)개의 아기 표정에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 안면 영역을 포함하는 장면에 대응하는 복수의 비디오 정보들의 아기 안면 영역의 지정된 특징점 간 기하학 관계를 판독하고 패턴 인식하여 상기 아기 안면 영역의 아기 표정에 대응하는 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값의 패턴 특성으로 추출된 P(P≥2)개의 장면 패턴 특성 정보를 입력변수(Feature Vectors)로 입력받고, 상기 P개의 장면 패턴 특성 정보가 추출된 비디오 정보에 대한 n1개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계와 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 아기 안면 영역을 포함하는 복수의 장면들 중 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the first step includes: N (N≥2) specified while corresponding to the specified e(1≤e≤E) baby expressions among the specified E(E≥2) baby expressions ) of baby emotion items, N1 (1≤N1≤N) baby emotion items that can be distinguished through baby expressions and a specified number of baby face areas of a plurality of video information corresponding to a scene including a baby face area with a specified correlation P(P≥2) scenes extracted as pattern characteristics of n1 (1≤n1≤N1) emotional state values for each emotion item corresponding to the baby's expression in the baby's facial area by reading the geometric relationship between the feature points and recognizing the pattern The step of receiving pattern characteristic information as input variables (Feature Vectors), setting the baby emotional state value for each n1 emotion item for the video information from which the P scene pattern characteristic information is extracted, as an output variable, and the specified artificial intelligence algorithm Expression-based emotion for determining the baby emotional state value for each n1 emotion item corresponding to the baby's expression in the baby's facial area among a plurality of scenes including the baby's facial area by learning more than a specified number of the input and output variables through and generating and storing the state determination information in a designated storage area.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 출력변수는, 상기 비디오 정보에 포함된 상기 아기 안면 영역에 대응하는 e개의 아기 표정 정보와, 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함하여 이루어지는 것을 특징으로 한다.In the infant emotional state output method according to the present invention, the output variables include e pieces of baby expression information corresponding to the baby's facial region included in the video information, and n1 babies corresponding to the baby's facial expressions in the baby's facial area. It characterized in that it further comprises at least one piece of information of the emotion item.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제2 단계는, 상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the second step includes receiving the moving picture data including the video data and the audio data from the camera device and storing and managing it in a specific storage area of a designated storage medium. It is characterized in that it is done.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제2 단계는, 상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 각기 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the second step comprises receiving the video data and the audio data from the camera device, respectively, and storing and managing them in a specific storage area of a designated storage medium. do it with
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제2 단계는, 상기 카메라장치로부터 수신된 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the second step further comprises the step of synchronizing the time of the video data and the audio data received from the camera device and storing them in a specific storage area of a designated storage medium. characterized by being made.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 송신 데이터는, 상기 저장매체의 특정 저장영역에 저장된 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the transmission data may further include audio data stored in a specific storage area of the storage medium.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 지정된 비디오 데이터는, 지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터, 지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the designated video data includes at least one of video data periodically selected for each designated playback time unit and video data periodically selected for each designated number of playback frames. characterized by being made.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 지정된 사용자 무선단말의 앱이나 IPTV로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the method further comprising the step of confirming whether transmission data including video data stored in a specific storage area of the storage medium is provided by an App or IPTV of a designated user's wireless terminal do it with
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제3 단계는, 상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 지정된 E개의 아기 표정 중 상기 비디오 데이터 상의 아기 안면 영역에 대응하는 e개의 아기 표정을 판별하고, 아기 표정을 통해 구별 가능한 N1개의 아기 감정 항목 중 상기 판별된 e개의 아기 표정과 매칭 관계를 지닌 n1개의 아기 감정 항목을 판별하고, 상기 확인된 e개의 아기 표정과 n1개의 아기 감정 항목 간 상관도에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the third step is to read the video data specified through the artificial intelligence-based expression-based emotional state determination information to perform a procedure of reading the video data among the E specified baby expressions Determine e baby facial expressions corresponding to the baby's facial area, and determine n1 baby emotion items that have a matching relationship with the e determined baby expression items among N1 baby emotion items that can be distinguished through the baby expression, and confirm the and determining the baby emotional state value for each n1 emotion item corresponding to the correlation between the e baby expressions and the n1 baby emotion items.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제4 단계는, 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the fourth step is characterized in that it further comprises the step of storing the generated baby emotional state information for each of the n emotional items in association with the video data.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제4 단계는, 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터의 지정된 재생 시점과 동기화하는 시간 값(또는 타임스탬프)과 연계하여 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the fourth step is linking the generated baby emotional state information for each of the n emotional items with a time value (or timestamp) for synchronizing the video data with a designated playback time point It is characterized in that it is made including the step of storing.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 인공지능 기반의 학습(Learning) 과정을 통해 아기 울음소리에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the first step is a cry for determining a baby's emotional state value for each designated emotional item corresponding to a baby's cry through a designated artificial intelligence-based learning process. It characterized in that it further comprises the step of generating the base emotional state determination information and storing it in a designated storage area.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 인공지능 기반의 학습(Learning) 과정을 수행하여 지정된 C(C≥2)개의 아기 울음소리 중 지정된 아기 울음에 대응하는 c(1≤c≤C)개의 아기 울음소리를 판별하고, 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목을 기반으로 상기 판별된 c개의 아기 울음소리와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 확인된 c개의 아기 울음소리와 n2개의 아기 감정 항목 간 상관도에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the first step is to perform a designated AI-based learning process to c corresponding to a designated baby cry among designated C (C≥2) baby cry sounds. (1≤c≤C) baby crying sounds are identified, and based on N2 (1≤N2≤N) baby emotion items that can be distinguished through baby crying among the specified N (N≥2) baby emotion items, n2 (1≤n2≤N2) baby emotion items having a matching relationship with the identified c baby cry sounds are identified, and n2 items corresponding to the correlation between the identified c baby cry sounds and n2 baby emotion items are identified. It is characterized in that it comprises the step of generating cry-based emotional state determination information for determining the baby emotional state value for each emotion item and storing it in a designated storage area.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 울음에 대응하는 복수의 오디오 정보들을 입력받고, 상기 입력된 복수의 오디오 정보에 대한 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계와 상기 입력된 복수의 오디오 정보들을 판독하고 패턴 인식하여 상기 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값에 대응하는 Q(Q≥2)개의 소리 패턴 특성 정보를 추출하여 입력변수(Feature Vectors)로 설정하는 단계와 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 지정된 오디오 데이터에 포함된 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting the infant's emotional state according to the present invention, the first step is to correspond to the specified c (1≤c≤C) baby cries among the specified C (C≥2) baby cries and specify N(N) Among the ≥2) baby emotion items, N2 (1≤N2≤N) baby emotion items that can be distinguished through baby cry sounds and a plurality of audio information corresponding to a baby crying with a specified correlation are input, and the input plurality setting the baby emotional state values for each n2 (1≤n2≤N2) emotion items for the audio information of The step of extracting Q (Q≥2) sound pattern characteristic information corresponding to the emotional state value of the baby for each emotional item and setting it as an input variable (Feature Vectors), and outputting more than a specified number of the input variables and output through a designated artificial intelligence algorithm Creating and storing cry-based emotional state determination information for determining the baby emotional state value for each n2 emotional items corresponding to the baby crying sound included in the specified audio data by learning the variable and storing it in the designated storage area; including; characterized by being made.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제1 단계는, 지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 울음에 대응하는 복수의 오디오 정보들을 판독하고 패턴 인식하여 상기 아기 울음소리에 대응하는 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값의 패턴 특성으로 추출된 Q(Q≥2)개의 소리 패턴 특성 정보를 입력변수(Feature Vectors)로 입력받고, 상기 Q개의 소리 패턴 특성 정보가 추출된 오디오 정보에 대한 n2개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계와 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 지정된 오디오 데이터에 포함된 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting the infant's emotional state according to the present invention, the first step is to correspond to the specified c (1≤c≤C) baby cries among the specified C (C≥2) baby cries and specify N(N) Among ≥2) baby emotion items, N2 (1≤N2≤N) baby emotion items that can be distinguished through baby cry sounds and a plurality of audio information corresponding to a baby crying with a specified correlation are read and pattern recognized Q (Q≥2) sound pattern characteristic information extracted as pattern characteristics of baby emotional state values for each n2 (1≤n2≤N2) emotion items corresponding to the cry are input as input variables (Feature Vectors), Setting the baby emotional state value for each n2 emotion items for the audio information from which Q sound pattern characteristic information is extracted as an output variable, and learning more than a specified number of the input and output variables through a specified artificial intelligence algorithm to learn the specified audio and generating cry-based emotional state determination information for determining the baby emotional state value for each n2 emotional items corresponding to the baby crying sound included in the data and storing it in a designated storage area.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 출력변수는, 상기 오디오 정보에 포함된 상기 아기 울음에 대응하는 c개의 아기 울음소리 정보와, 상기 아기 울음소리에 대응하는 n2개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함하여 이루어지는 것을 특징으로 한다.In the infant emotional state output method according to the present invention, the output variable includes c pieces of baby cry information corresponding to the baby crying included in the audio information, and n2 pieces of baby emotion item information corresponding to the baby crying sound. It is characterized in that it further comprises at least one piece of information.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제3 단계는, 상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 통해 지정된 오디오 데이터를 판독하는 절차를 수행하여 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목을 근거로 상기 오디오 데이터의 아기 울음소리에 대응하는 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값을 판별하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the third step is to perform a procedure of reading the specified audio data through the artificial intelligence-based cry-based emotional state determination information to perform the specified N (N≥2) Based on N2 (1≤N2≤N) baby emotion items that can be distinguished through baby crying among baby emotion items, baby emotions for each n2 (1≤n2≤N2) emotion items corresponding to the crying sound of the audio data It characterized in that it further comprises the step of determining the state value.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제3 단계는, 상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 통해 지정된 오디오 데이터를 판독하는 절차를 수행하여 지정된 C개의 아기 울음소리 중 상기 오디오 데이터 상의 아기 울음에 대응하는 c개의 아기 울음소리를 판별하고, 아기 울음소리를 통해 구별 가능한 N2개의 아기 감정 항목 중 상기 판별된 c개의 아기 울음소리와 매칭 관계를 지닌 n2개의 아기 감정 항목을 판별하고, 상기 확인된 c개의 아기 울음소리와 n2개의 아기 감정 항목 간 상관도에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the third step is to perform a procedure of reading designated audio data through the artificial intelligence-based cry-based emotional state determination information to perform a procedure of reading out of the designated C baby cry sounds. Determine c baby cry sounds corresponding to baby crying on audio data, and determine n2 baby emotion items that have a matching relationship with the determined c baby cry sounds among N2 baby emotion items that can be distinguished through baby cry and determining the baby emotional state value for each n2 emotion items corresponding to the correlation between the identified c baby cry sounds and the n2 baby emotion items.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 제4 단계는, 상기 산출된 n2개의 감정 항목 별 아기 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the fourth step further includes the step of generating baby emotional state information for each of the n designated emotional items by additionally using the calculated baby emotional state values for each of the n2 emotional items. It is characterized in that it comprises.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하는 단계를 더 포함하고, 상기 제2 단계는, 상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 더 포함하며, 상기 제3 단계는, 상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하고, 상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별하며, 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하는 단계를 더 포함하고, 상기 제4 단계는, 상기 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, among the sensing data sensed through a sensor module provided in or linked to the camera device, S (S≥2) pieces of sensing data of a designated sensing target related to the emotional expression of a baby Matching relationship information between the sensing value pattern information and N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of the specified sensing target among the N designated baby emotion items, and the S sensed value pattern information and Further comprising the step of registering and storing sensing-based emotional state determination information including the sensing-based correlation numerical relationship information obtained by quantifying the correlation between N3 baby emotion items in the operation D/B, wherein the second step is the camera The method further comprises the step of receiving the sensed data sensed through a sensor module provided in or associated with the device, and storing and managing the data in a specific storage area of a designated storage medium in association with the video data, wherein the third step includes the video data and Recognizes k (k≥1) sensed value recognition information for the sensing data of a specified sensing target associated with the emotional expression of the specific baby by reading the associated sensing data, and the recognition based on the sensing-based emotional state determination information Check the k sensed value recognition information and s (1≤s≤S) sensed value pattern information matched with more than a preset standard similarity, and n3(1≤n3) ≤N3) baby emotion items are determined, and the correlation between the s sensed value pattern information and n3 baby emotion items is based on a matching ratio between the recognized k sensed value recognition information and the s sensed value pattern information Further comprising the step of calculating a baby emotional state value for each n3 emotion items obtained by digitizing the baby emotional state for each n3 emotion items corresponding to the recognized k sensed value recognition information by reading the numerical relationship, the fourth step is to generate baby emotional state information for each of the n designated emotion items by additionally using the calculated baby emotional state values for each of the n3 emotion items. It is characterized in that it further comprises a step.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 센서모듈은, 아기의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈, 지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the sensor module includes a wearable sensor module that is worn on a baby's body to sense a designated sensing target, and a radar that senses the baby's designated sensing target using a designated electromagnetic wave. (Radar) characterized in that it comprises at least one sensor module among the sensor modules.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 센싱 대상은, 아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the sensing target comprises at least one of a baby's heartbeat, a baby's body temperature, a baby's ambient humidity, and whether or not the baby is breathing.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 S개의 센싱 값 패턴 정보는, 아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the S sensed value pattern information includes the range information of the sensing value characteristics constituting each sensing value pattern for the sensing data of a designated sensing target related to the emotional expression of the baby. It is characterized in that it comprises.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 센싱 값 특징은, 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the sensed value characteristic includes at least one or a combination of two or more of the sensing value change rule characteristic, the sensed value change characteristic, the sensed value change rate characteristic, and the sensed value change periodicity characteristic. It is characterized in that it comprises.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 센싱 기반 상관도 수치 관계정보는, 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting the infant's emotional state according to the present invention, the sensing-based correlation numerical relationship information is proportional to the matching ratio between the sensing value recognition information recognized through the sensing data of a specified sensing target and the pre-registered sensing value pattern information The correlation calculated through the relational expression is also characterized in that it includes numerical information.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 센싱 기반 상관도 수치 관계정보는, 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the sensing-based correlation numerical relationship information includes: each matching ratio interval between sensing value recognition information recognized through sensing data of a specified sensing target and pre-registered sensing value pattern information It is characterized in that the star correlation also includes numerical information.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 n개의 감정 항목 별 아기 감정 상태 정보는, n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 문자 형태로 포함하여 이루어지는 것을 특징으로 한다.In the infant emotional state output method according to the present invention, the baby emotional state information for each of the n emotional items comprises n emotional item information and numerical information of the baby's emotional state for each emotional item in the form of text. do.
본 발명에 따른 영유아 감정 상태 출력 방법에 있어서, 상기 n개의 감정 항목 별 아기 감정 상태 정보는, n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 그래프 형태로 포함하여 이루어지는 것을 특징으로 한다.In the method for outputting an infant's emotional state according to the present invention, the baby emotional state information for each of the n emotional items comprises n emotional item information and numerical information of the baby's emotional state for each emotional item in the form of a graph. do.
본 발명에 따르면, 지정된 거점에 구비된 카메라장치를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말의 앱이나 IPTV로 제공 시 상기 카메라장치를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보를 표시하여 제공함으로써, 무선단말의 앱이나 IPTV를 통해 상기 송신 데이터를 시청하는 사용자는 상기 송신 데이터의 비디오 데이터에 대응하는 아기의 영상 화면이나 상기 송신 데이터의 오디오 데이터에 대응하는 아기의 소리 이외에 상기 아기의 각 감정 항목 별 감정 상태까지 실시간 파악할 수 있는 이점이 있다.According to the present invention, when transmitting data including video data of a specific baby in the base through a camera device provided at a designated base is provided to an app or IPTV of a designated user wireless terminal, one or more acquired through the camera device By generating baby emotional state information for each specified emotional item for the specific baby based on the data, and displaying and providing the baby emotional state information for each of the generated emotional items in a specified area on the video data of the transmission data, A user who watches the transmission data through an app on the terminal or IPTV is a baby's video screen corresponding to the video data of the transmission data or the baby's sound corresponding to the audio data of the transmission data. It has the advantage of being able to grasp the status in real time.
도 1은 본 발명의 실시 방법에 따라 아기의 감정 상태를 표시하는 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 정보 저장/등록 과정을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따라 지정된 거점의 카메라장치(180)를 통해 획득한 획득 데이터를 전송하여 지정된 저장매체에 저장 관리하는 도시한 도면이다.
도 4는 본 발명의 제1 실시 방법에 따라 지정 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
도 5는 본 발명의 제2 실시 방법에 따라 지정 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.
도 6은 본 발명의 제3 실시 방법에 따라 지정 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.1 is a diagram showing the configuration of a system for displaying a baby's emotional state according to an embodiment of the present invention.
2 is a diagram illustrating an information storage/registration process according to an embodiment of the present invention.
3 is a diagram illustrating storage and management of the acquired data acquired through the camera device 180 of a designated base according to an embodiment of the present invention and stored in a designated storage medium.
4 is a diagram illustrating transmission data including video data indicating baby emotional state information for each designated emotion item according to the first embodiment of the present invention.
5 is a diagram illustrating transmission data including video data indicating baby emotional state information for each designated emotion item according to a second embodiment of the present invention.
6 is a diagram illustrating transmission data including video data indicating baby emotional state information for each designated emotion item according to a third embodiment of the present invention.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, the principle of operation of the preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings and description. However, the drawings shown below and the following description are for preferred implementation methods among various methods for effectively explaining the features of the present invention, and the present invention is not limited only to the following drawings and description.
즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)을 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)으로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following embodiment corresponds to an embodiment of a preferred union type among numerous embodiments of the present invention, and an embodiment in which a specific configuration (or step) is omitted in the following embodiment, or a specific configuration (or step) An embodiment in which the implemented function is divided into a specific configuration (or step), or an embodiment in which the function implemented in two or more configurations (or step) is integrated into any one configuration (or step), of a specific configuration (or step) Embodiments in which the order of operation is replaced, etc. are clearly stated to be within the scope of the present invention, even if not separately mentioned in the following embodiments. Therefore, it is clearly specified that various embodiments corresponding to a subset or a complement can be divided retroactively from the filing date of the present invention based on the following examples.
또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, the definition should be made based on the content throughout the present invention.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following examples are one means for efficiently explaining the technical spirit of the present invention to those of ordinary skill in the art to which the present invention belongs. only
도면1은 본 발명의 실시 방법에 따라 아기의 감정 상태를 표시하는 시스템의 구성을 도시한 도면이다.1 is a diagram showing the configuration of a system for displaying a baby's emotional state according to an embodiment of the present invention.
보다 상세하게 본 도면1은 지정된 거점에 구비된 카메라장치(180)를 통해 상기 거점 내의 특정 아기를 포함하는 영유아를 촬영한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공 시 상기 카메라장치(180)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하고 상기 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보를 표시하여 제공하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 시스템의 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 1 shows that transmission data including video data of an infant including a specific baby in the base through the camera device 180 provided at the designated base is transmitted through the designated user's wireless terminal 170's app or IPTV. When provided to (175), baby emotional state information for each designated emotional item for the specific baby is generated based on one or more data acquired through the camera device 180, and is stored in a designated area on the video data of the transmission data. As a diagram showing the configuration of a system for displaying and providing the baby emotional state information for each emotion item generated above, those skilled in the art to which the present invention pertains may refer to and/or modify FIG. Various implementation methods for the configuration of the system (eg, implementation methods in which some components are omitted, subdivided, or combined) may be inferred, but the present invention includes all the inferred implementation methods, and this drawing The technical characteristics are not limited only to the implementation method shown in 1 .
본 발명의 시스템은, 지정된 거점에 구비되어 피사체를 찰영하고 통신망에 접속 가능한 카메라장치(180)와, 상기 카메라장치(180)의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 획득된 영상 신호를 지정된 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하는 기능, 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 기능, 상기 카메라장치(180)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 기능, 상기 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보를 표시하는 기능 중 하나 이상 수행하는 운영서버(100)를 포함하여 이루어진다. 상기 운영서버(100)는 독립된 서버 형태, 둘 이상의 서버 조합 형태, 기 구비된 서버를 통해 실행되는 소프트웨어 형태 중 적어도 하나 또는 둘 이상의 조합 형태로 구현될 수 있으며, 상기 운영서버(100)를 구현하는 실시예나 상기 운영서버(100)의 명칭에 의해 본 발명이 한정되지 아니한다.The system of the present invention includes a camera device 180 that is provided at a designated base to photograph a subject and can be connected to a communication network, and an image signal obtained by photographing a specific baby in the base through the camera module of the camera device 180. A function of receiving acquired data including video data encoded in a specified manner and storing it in a specific storage area of a specified storage medium, and transmitting transmission data including video data stored in a specific storage area of the storage medium to the specified user wireless terminal 170 ) of the app or
상기 카메라장치(180)는 지정된 거점에 구비되어 피사체를 촬영하는 카메라를 구비한 단말이나 장치의 총칭으로서, 바람직하게 산후조리원이나 가정집의 아기가 기거하는 공간에 구비되어 상기 공간에 존재하는 특정 아기를 촬영하는 카메라를 구비한 단말이나 장치를 포함할 수 있다. The camera device 180 is a generic term for a terminal or device provided at a designated base and equipped with a camera for photographing a subject. Preferably, it is provided in a postpartum care center or a space in which a baby in a home resides, so that a specific baby existing in the space is captured. It may include a terminal or device equipped with a camera for photographing.
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)는 거점 내의 지정된 피사체를 촬영하는 카메라모듈과, 지정된 통신망에 연결하는 통신모듈 및 상기 카메라모듈을 통해 획득된 영상 신호를 지정된 방식으로 엔코딩한 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행하는 제어모듈을 구비한다. According to the embodiment of the present invention, the camera device 180 encodes a video signal obtained through a camera module for photographing a designated subject in a base, a communication module connected to a designated communication network and the camera module in a designated manner. and a control module for performing a procedure for generating acquired data including data and transmitting it to a designated operation server 100 through the communication module.
상기 카메라모듈은 피사체로부터 반사된 광신호를 입력받는 하나 이상의 렌즈부와, 상기 렌즈부를 통해 입력되는 광신호를 검지하여 전기적 영상 신호로 변환하는 이미지 센서부 및 상기 렌즈부와 이미지 센서부 사이에서 자동초점 기능이나 줌 기능 등을 포함하는 지정된 기능 동작을 구현하는 액츄에이터부(Actuator)를 포함하여 이루어진다. 한편 실시 방법에 따라 상기 카메라모듈은상기 렌즈부와 이미지 센서부 사이에는 야간에도 피사체를 촬영하기 위한 적외선 필터를 포함하는 이상의 필터부를 더 구비할 수 있다. 한편 상기 카메라모듈은 상기 이미지 센서부를 통해 생성된 영상 신호를 제어모듈로 제공하기 위한 PCB를 구비한다. 한편 실시 방법에 따라 상기 카메라모듈은 상기 이미지 센서부를 통해 생성된 영상 신호의 품질 향상을 위해 지정된 절차에 따라 상기 영상 신호를 가공하는 이미지 신호처리 프로세서(Image Signal Processor; ISP)를 더 구비할 수 있다.The camera module includes at least one lens unit that receives an optical signal reflected from a subject, an image sensor unit that detects an optical signal input through the lens unit and converts it into an electrical image signal, and automatically between the lens unit and the image sensor unit. It is made by including an actuator unit (Actuator) for implementing a specified function operation including a focus function or a zoom function. Meanwhile, according to an implementation method, the camera module may further include a filter unit including an infrared filter for photographing a subject even at night between the lens unit and the image sensor unit. Meanwhile, the camera module includes a PCB for providing the image signal generated through the image sensor unit to the control module. Meanwhile, according to the implementation method, the camera module may further include an image signal processing processor (ISP) that processes the image signal according to a specified procedure to improve the quality of the image signal generated through the image sensor unit. .
상기 통신모듈은 패킷 기반의 통신망에 연결하는 모듈의 총칭으로서, 바람직하게 UTP 케이블 등의 유선을 이용하여 통신망에 연결하는 통신모듈과 무선랜을 통해 통신망에 연결하는 통신모듈 중 적어도 하나 또는 둘을 모두 포함할 수 있다. 한편 실시 방법에 따라 상기 통신모듈은 무선랜 이외에 이동통신망이나 별도의 지정된 무선 통신을 통해 통신망에 연결하는 통신모듈을 더(또는 대체) 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The communication module is a generic term for modules connecting to a packet-based communication network, and preferably includes at least one or both of a communication module connecting to a communication network using a wire such as a UTP cable and a communication module connecting to a communication network through a wireless LAN. may include Meanwhile, according to the implementation method, the communication module may further (or replace) a communication module for connecting to a communication network through a mobile communication network or a separately designated wireless communication in addition to the wireless LAN, and the present invention is not limited thereto.
상기 제어모듈은 상기 카메라모듈을 통해 생성된 영상 신호를 지정된 방식으로 엔코딩하여 비디오 데이터를 생성할 수 있다. 한편 실시 방법에 따라 상기 비디오 데이터는 상기 카메라모듈을 통해 생성되어 상기 제어모듈로 전달될 수 있다. 한편 상기 비디오 데이터는 상기 영상 신호를 촬영한 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. The control module may generate video data by encoding an image signal generated through the camera module in a specified manner. Meanwhile, according to an implementation method, the video data may be generated through the camera module and transmitted to the control module. Meanwhile, the video data may further include a time value (or timestamp) of a time point at which the image signal is captured.
상기 제어모듈은 상기 비디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 한편 실시 방법에 따라 상기 획득 데이터는 상기 비디오 데이터 이외에 오디오 데이터를 더 포함하거나 및/또는 지정된 센서모듈을 통해 센싱된 센싱 데이터를 더 포함할 수 있다. The control module may perform a procedure of generating acquired data including the video data and transmitting it to the designated operation server 100 through the communication module. Meanwhile, according to an implementation method, the acquired data may further include audio data in addition to the video data and/or may further include sensing data sensed through a designated sensor module.
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)는 거점 내의 사운드 신호를 입력받는 사운드 입력부를 더 구비하며, 이 경우 상기 제어모듈은 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정된 방식으로 엔코딩한 오디오 데이터를 더 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다.According to the implementation method of the present invention, the camera device 180 further includes a sound input unit for receiving a sound signal in the base, in this case, the control module encodes the sound signal obtained through the sound input unit in a specified manner. A procedure of generating acquired data further including audio data and transmitting it to a designated operation server 100 through the communication module may be performed.
상기 사운드 입력부는 공기의 진동을 전기적 신호 형태의 사운드 신호로 변환하는 마이크로폰 및 이를 제어모듈과 인터페이스하는 인터페이스부를 포함하여 구성되며, 상기 제어모듈은 상기 사운드 입력부를 통해 획득된 사운드 신호를 지정된 지정된 방식으로 엔코딩하여 오디오 데이터를 생성할 수 있다. 한편 실시 방법에 따라 상기 사운드 입력부가 별도의 모듈 형태로 구현되는 겨우, 상기 오디오 데이터는 상기 사운드 입력부를 통해 카메라모듈을 통해 생성되어 상기 제어모듈로 전달될 수 있다. 한편 상기 오디오 데이터는 상기 사운드 신호를 입력받은 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. The sound input unit is configured to include a microphone that converts air vibration into a sound signal in the form of an electrical signal, and an interface unit for interfacing it with a control module, and the control module converts the sound signal obtained through the sound input unit into a designated and specified method It can be encoded to generate audio data. Meanwhile, when the sound input unit is implemented in the form of a separate module according to the implementation method, the audio data may be generated through the camera module through the sound input unit and transmitted to the control module. Meanwhile, the audio data may further include a time value (or timestamp) of a time point at which the sound signal is input.
상기 카메라장치(180)에 상기 사운드 입력부를 구비하여 상기 사운드 입력부를 통해 획득된 사운드 신호를 엔코딩한 오디오 데이터가 생성되는 경우, 상기 제어모듈은 상기 비디오 데이터와 오디오 데이터를 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. When the camera device 180 is provided with the sound input unit to generate audio data obtained by encoding a sound signal obtained through the sound input unit, the control module generates acquired data including the video data and audio data, A procedure of transmitting to the designated operation server 100 through the communication module may be performed.
본 발명의 일 실시 방법에 따르면, 상기 획득 데이터는 상기 비디오 데이터와 오디오 데이터를 지정된 데이터 포맷에 포함하는 동영상 데이터(또는 멀티미디어 데이터) 형태로 생성될 수 있다.According to an embodiment of the present invention, the acquired data may be generated in the form of moving picture data (or multimedia data) including the video data and audio data in a specified data format.
본 발명의 다른 일 실시 방법에 따르면, 상기 획득 데이터는 상기 비디오 데이터와 오디오 데이터를 지정된 각각의 데이터 포맷에 포함하되, 상기 비디오 데이터와 오디오 데이터에 포함된 시간 값(또는 타임스탬프)를 통해 시점을 동기화 가능한 각각의 데이터 형태로 생성될 수 있다.According to another embodiment of the present invention, the acquired data includes the video data and the audio data in each designated data format, but the time value (or timestamp) included in the video data and the audio data is used to determine the viewpoint. Each data type that can be synchronized can be created.
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)는 지정된 사운드 신호를 지정된 신호 강도로 출력하는 사운드 출력부를 더 구비할 수 있으며, 이 경우 상기 제어모듈은 지정된 절차에 따라 상기 사운드 출력부를 통해 출력할 사운드 신호에 대응하는 오디오 데이터를 생성하거나 및/또는 지정된 저장영역으로부터 추출하거나 및/또는 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 사운드 출력부를 통해 출력할 사운드 신호에 대응하는 오디오 데이터를 수신하고, 상기 생성/추출/수신된 오디오 데이터에 대응하는 사운드 신호를 상기 사운드 출력부를 통해 출력하도록 처리하는 절차를 수행할 수 있다.According to the embodiment of the present invention, the camera device 180 may further include a sound output unit for outputting a specified sound signal with a specified signal strength. In this case, the control module outputs the sound signal through the sound output unit according to a specified procedure. Audio data corresponding to the sound signal to be output through the sound output unit from the operation server 100 designated through the communication module and/or to generate audio data corresponding to the sound signal to be generated and/or extracted from the designated storage area and/or through the communication module A process of receiving and outputting a sound signal corresponding to the generated/extracted/received audio data through the sound output unit may be performed.
상기 사운드 출력부는 오디오 데이터를 디코딩한 전기적 신호 형태의 사운드 신호를 출력하는 스피커 및 이를 제어모듈과 인터페이스하는 인터페이스부를 포함하여 구성되며, 상기 제어모듈은 상기 사운드 출력부를 통해 출력할 오디오 데이터를 생성하거나 및/또는 지정된 저장영역으로부터 추출하거나 및/또는 상기 통신모듈을 통해 지정된 운영서버(100)로부터 수신하고, 상기 사운드 출력부를 통해 상기 오디오 데이터에 대응하는 사운드 신호를 지정된 신호 강도(예컨대, 카메라장치(180)의 스피커를 통해 출력된 사운드 신호가 지정된 거리 내외로 이격된 아기에게 지정된 소리 크기로 전달되도록 설정된 신호 강도)로 출력할 수 있다. The sound output unit is configured to include a speaker for outputting a sound signal in the form of an electrical signal obtained by decoding audio data and an interface unit for interfacing the same with a control module, wherein the control module generates audio data to be output through the sound output unit, and / or extracts from a specified storage area and / or receives from the specified operation server 100 through the communication module, and receives a sound signal corresponding to the audio data through the sound output unit with a specified signal strength (eg, the camera device 180) ), the sound signal output through the speaker can be output with the signal strength set so that it is delivered at the specified sound level to the baby spaced within or outside the specified distance).
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)는 지정된 센서를 통해 아기의 지정된 센싱 대상을 센싱하는 센서모듈을 구비하거나 연계될 수 있으며, 상기 제어모듈은 상기 센서모듈을 통해 센싱하여 획득된 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 더 포함하는 획득 데이터를 생성하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 바람직하게, 상기 센서모듈을 통해 센싱하는 아기의 지정된 센신 대상은 아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함할 수 있다.According to the embodiment of the present invention, the camera device 180 may include or be associated with a sensor module for sensing a designated sensing target of the baby through a designated sensor, and the control module may be configured to detect A procedure of generating acquired data further including sensing data encoded by a sensing signal in a specified manner and transmitting it to the specified operation server 100 through the communication module may be performed. Preferably, the baby's designated sensing target sensed through the sensor module may include at least one of a baby's heartbeat, baby's body temperature, baby's ambient humidity, and baby's apnea.
상기 센서모듈은 아기의 신체 중 지정된 부위에 착용하여 아기의 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈을 포함할 수 있으며, 이 경우 상기 제어모듈은 지저된 근거리 통신(예컨대, 블루투스 등)을 통해 상기 웨어러블 센서모듈과 연계하여 상기 센서모듈을 통해 센싱된 센싱 값에 대응하는 센싱 신호를 수신하거나 또는 상기 센서모듈을 통해 상기 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 수신할 수 있다. The sensor module may include a wearable sensor module that is worn on a designated part of the baby's body and senses a designated sensing target of the baby, in this case, the control module performs short-distance communication (e.g., Bluetooth, etc.) Through connection with the wearable sensor module, a sensing signal corresponding to a sensed value sensed through the sensor module may be received, or sensing data obtained by encoding the sensing signal in a specified manner through the sensor module may be received.
한편 상기 센서모듈은 지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈을 포함할 수 있으며, 이 경우 상기 제어모듈은 상기 레이더 센서모듈을 통해 싱된 센싱 값에 대응하는 센싱 신호를 확인하고 지정된 방식으로 엔코딩하여 센싱 데이터를 생성할 수 있다. 한편 상기 레이더 센서모듈은 상기 센싱 신호를 지정된 방식으로 엔코딩한 센싱 데이터를 생성하여 상기 제어모듈로 제공할 수 있으며, 이 경우 상기 제어모듈은 상기 레이더 센서모듈로부터 상기 센싱 데이터를 제공받을 수 있다. Meanwhile, the sensor module may include a radar sensor module for sensing a designated sensing target of the baby using a designated electromagnetic wave, in this case, the control module is a sensing signal corresponding to the sensing value sensed through the radar sensor module can be checked and encoded in a specified way to generate sensing data. Meanwhile, the radar sensor module may generate sensing data encoded in a specified manner and provide the sensing data to the control module. In this case, the control module may receive the sensing data from the radar sensor module.
본 발명의 실시 방법에 따르면, 상기 센싱 데이터는 상기 센서모듈을 통해 지정된 센싱 대상을 센싱한 센싱 값을 포함하며, 바람직하게 상기 센서모듈을 통해 상기 센싱 값을 센싱한 시점의 시간 값(또는 타임스탬프)를 더 포함할 수 있다. According to the implementation method of the present invention, the sensed data includes a sensed value sensed by a sensing target designated through the sensor module, and preferably a time value (or timestamp) at the point in time when the sensed value is sensed through the sensor module. ) may be further included.
상기 카메라장치(180)에 상기 센서모듈을 구비하거나 연계시켜 아기의 지정된 센싱 대상을 센싱한 센싱 데이터가 생성되는 경우, 상기 제어모듈은 상기 획득 데이터에 상기 센싱 데이터를 추가하여 상기 통신모듈을 통해 지정된 운영서버(100)로 전송하는 절차를 수행할 수 있다. 바람직하게, 상기 센싱 데이터는 지정된 데이터 포맷에 포함된 형태로 상기 획득 데이터에 포함될 수 있으며, 상기 비디오 데이터와 센싱 데이터에 포함된 시간 값(또는 타임스탬프)를 통해 시점을 동기화 가능한 데이터 형태로 생성될 수 있다.When the camera device 180 is provided with or linked to the sensor module to generate sensing data that senses a designated sensing target of a baby, the control module adds the sensing data to the acquired data and is designated through the communication module. A procedure for transmitting to the operation server 100 may be performed. Preferably, the sensing data may be included in the acquired data in a form included in a specified data format, and a time value (or timestamp) included in the video data and the sensing data may be generated in a data format capable of synchronizing a viewpoint. can
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)는 상기 카메라모듈의 촬영 방향을 상/하/좌/우 방향으로 지정된 각도 범위 내로 구동하는 구동모듈을 더 구비하며, 상기 제어모듈은 상기 카메라모듈을 통해 촬영되는 비디오 데이터를 판독하여 아기(또는 아기의 안면)에 대응하거나 아기가 누워 있는 요람이나 이불에 대응하는 객체를 인식하는 과정을 시도할 수 있다. 만약 상기 객체가 인식되지 않는 경우, 상기 제어모듈은 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 지정된 방향으로 지정된 각도 범위만큼 이격하면서 상기 객체가 인식하는 과정을 전 각도 범위에 도달할 때까지 반복할 수 있다. 만약 상기의 인식 과정을 통해 상기 객체가 인식되면, 상기 카메라장치(180)는 상기 인식된 아기의 안면 영역을 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 촬영방향을 제어하고, 상기 아기의 안면 영역의 움직임이나 이동에 반응하여 상기 아기의 안면 영역을 추적하여 상기 비디오 데이터 상의 지정된 영역 내에 존재하도록 상기 카메라모듈의 촬영방향을 제어할 수 있다. 한편 상기 구동모듈을 통해 상기 카메라모듈의 촬영 방향을 제어하거나 상기 객체를 인식하는 과정은 상기 서버를 통해 실행될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the camera device 180 further includes a driving module for driving the photographing direction of the camera module within a specified angular range in up/down/left/right directions, wherein the control module includes the camera A process of recognizing an object corresponding to a baby (or a baby's face) or a cradle or a blanket on which the baby is lying may be attempted by reading video data captured through the module. If the object is not recognized, the control module repeats the process of recognizing the object while the shooting direction of the camera module is spaced apart by a specified angular range in a specified direction through the driving module until the entire angular range is reached can do. If the object is recognized through the recognition process, the camera device 180 controls the photographing direction so that the recognized facial region of the baby exists within a designated region on the video data, and movement of the baby's facial region In response to the movement or tracking the facial area of the baby, it is possible to control the photographing direction of the camera module so that it exists within a designated area on the video data. Meanwhile, the process of controlling the shooting direction of the camera module or recognizing the object through the driving module may be executed through the server, and the present invention is not limited thereto.
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)는 램프를 통해 지정된 형상이나 영상을 천정이나 벽면에 투영하는 프로젝터부를 더 구비할 수 있으며, 이 경우 상기 제어모듈은 지정된 절차에 따라 상기 프로젝터부의 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 프로젝터부의 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 프로젝터부의 램프를 온/오프 처리할 수 있다. 한편 상기 프로젝터부를 통해 복수의 필름 중 어느 한 필름으로 선택하여 투영할 형상이나 영상을 선택 가능한 경우, 상기 제어모듈은 지정된 절차에 따라 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 프로젝터부의 필름을 선택하거나 및/또는 램프를 온/오프 처리할 수 있다. 한편 상기 프로젝터부를 통해 전자적 형상이나 전자적 영상을 투영 가능한 경우, 상기 제어모듈은 지정된 절차에 따라 지정된 저장영역에 저장된 전자적 형상이나 전자적 영상을 추출하여 상기 프로젝터부를 통해 투영할 형상이나 영상으로 처리하거나 및/또는 램프를 온/오프 처리할 수 있으며, 또는 상기 제어모듈은 상기 통신모듈을 통해 지정된 운영서버(100)로부터 저장된 전자적 형상이나 전자적 영상을 및/또는 램프를 온/오프 처리하기 위한 제어정보를 수신할 수 있으며, 상기 제어정보를 근거로 상기 수신된 전자적 형상이나 전자적 영상을 상기 프로젝터부를 통해 투영할 형상이나 영상으로 처리하거나 및/또는 램프를 온/오프 처리할 수 있다. According to the embodiment of the present invention, the camera device 180 may further include a projector unit for projecting a specified shape or image to the ceiling or wall through a lamp, in which case the control module is configured to control the projector unit according to a specified procedure The lamp may be turned on/off, or the control module may receive control information for turning on/off the lamp of the projector unit from the designated operation server 100 through the communication module, and transmit the control information. Based on this, the lamp of the projector unit may be turned on/off. On the other hand, when a shape or image to be projected by selecting any one of a plurality of films through the projector unit can be selected, the control module selects a film of the projector unit and/or turns on/off the lamp according to a specified procedure. Alternatively, the control module may receive control information for selecting the film of the projector unit and/or turning on/off the lamp from the designated operation server 100 through the communication module, and receiving the control information It is possible to select a film of the projector unit and/or to turn on/off the lamp on the basis. On the other hand, if an electronic shape or an electronic image can be projected through the projector unit, the control module extracts the electronic shape or electronic image stored in a designated storage area according to a specified procedure and processes it as a shape or image to be projected through the projector unit, and/ Alternatively, the lamp may be turned on/off, or the control module receives the electronic shape or electronic image stored from the designated operation server 100 through the communication module and/or control information for turning the lamp on/off and may process the received electronic shape or electronic image as a shape or image to be projected through the projector unit and/or turn on/off the lamp based on the control information.
상기 사용자 무선단말(170)은 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 사용자가 사용하는 무선통신기기의 총칭으로서, 사용자가 사용하는 휴대폰, 스마트폰, 태블릿PC 등의 각종 무선통신기기를 포함할 수 있다. The user wireless terminal 170 is a generic term for a wireless communication device used by a user to receive transmission data including video data captured through the camera device 180, and is a mobile phone, a smartphone, and a tablet PC used by the user. It may include various wireless communication devices, such as.
본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(170)은 운영서버(100)에 지정된 정보를 등록하고, 상기 운영서버(100)로부터 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받기 위해 앱(Application)이 설치 실행된다. 이하, 별도의 언급이 없더라도 상기 사용자 무선단말(170)을 주체 또는 객체로 하여 구현되는 기능의 설명은 상기 앱을 통해 구현되는 기능임을 밝혀두는 바이다.According to the embodiment of the present invention, the user wireless terminal 170 registers information specified in the operation server 100, and includes video data captured from the operation server 100 through the camera device 180. An application is installed and executed to receive transmission data. Hereinafter, even if there is no separate mention, the description of the function implemented by using the user wireless terminal 170 as a subject or object is to clarify that the function is implemented through the app.
상기 운영서버(100)는 지정된 거점에 구비된 카메라장치(180)와 통신하고 지정된 앱을 설치 실행한 사용자 무선단말(170)의 앱과 통신 가능한 서버의 총칭으로서, 상기 카메라장치(180)의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장하는 기능, 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 기능 중 적어도 하나의 기능을 수행하며, 본 발명에 따라 상기 카메라장치(180)를 통해 획득된 하나 이상의 데이터를 근거로 상기 특정 아기에 대한 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 기능과, 상기 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 각 감정 항목 별 아기 감정 상태 정보를 표시하는 기능 중 적어도 하나의 기능을 수행한다.The operation server 100 is a generic name of servers capable of communicating with the camera device 180 provided at the designated base and communicating with the app of the user wireless terminal 170 that has installed and executed the designated app, and is the camera of the camera device 180 . A function of photographing a specific baby in the base through a module, receiving acquired data including video data encoded in a specified manner, and storing it in a specific storage area of a specified storage medium, and video data stored in a specific storage area of the storage medium It performs at least one of the functions of providing the transmitted data including the transmitted data to the app of the designated user wireless terminal 170 or the
본 발명의 실시 방법에 따르면, 상기 송신 데이터는 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터 외에, 상기 비디오 데이터와 연계되어 상기 저장매체의 특정 저장영역에 저장된 오디오 데이터, 또는 상기 비디오 데이터를 포함하는 동영상 데이터의 오디오 데이터를 더 포함할 수 있다.According to an embodiment of the present invention, the transmission data includes, in addition to video data stored in a specific storage area of the storage medium, audio data stored in a specific storage area of the storage medium in association with the video data, or the video data It may further include audio data of video data.
도면1을 참조하면, 상기 운영서버(100)는, 상기 카메라장치(180)를 통해 촬영되는 아기에 대한 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 감정상태 판별 정보를 지정된 저장영역에 저장 관리하는 정보 관리부(105)를 포함한다. Referring to FIG. 1 , the operation server 100 stores and manages emotional state determination information for determining a baby emotional state value for each specified emotional item for a baby photographed through the camera device 180 in a designated storage area. and an information management unit 105 that
상기 정보 관리부(105)는 지정된 인공지능 기반의 학습(Learning) 과정을 통해 아기 표정에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하거나, 및/또는 지정된 운영단말로부터 패턴 인식 기반의 표정 기반 감정상태 판별 정보를 등록받아 지정된 저장영역에 저장할 수 있다.The information management unit 105 generates artificial intelligence-based expression-based emotional state determination information for determining the baby emotional state value for each designated emotional item corresponding to the baby's expression through a designated artificial intelligence-based learning process. It may be stored in the storage area, and/or receive pattern recognition-based expression-based emotional state determination information from a designated operating terminal and stored in the designated storage area.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하는 경우, 지정된 인공지능 기반의 지도 학습(Supervised Learning) 과정을 통해 아기 표정에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장할 수 있다. According to the implementation method of the present invention, when the information management unit 105 generates artificial intelligence-based expression-based emotional state determination information, a designated designated artificial intelligence-based supervised learning process corresponding to the baby's expression Artificial intelligence-based expression-based emotional state determination information for determining the baby emotional state value for each emotion item may be generated and stored in a designated storage area.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 인공지능 기반의 학습 과정을 수행하여, 지정된 E(E≥2)개의 아기 표정 중 지정된 아기 안면 영역에 대응하는 e(1≤e≤E)개의 아기 표정을 판별하고, 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목을 기반으로 상기 판별된 e개의 아기 표정과 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 확인된 e개의 아기 표정과 n1개의 아기 감정 항목 간 상관도에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 performs a specified AI-based learning process, and e(1≤e≤e) corresponding to the specified baby facial region among the specified E (E≥2) baby expressions. E) Determining the baby expressions, and based on the N1 (1≤N1≤N) baby emotion items that can be distinguished through the baby expression among the designated N (N≥2) baby emotion items, the e number of baby expressions and Determine n1 (1≤n1≤N1) baby emotion items having a matching relationship, and determine the baby emotional state value for each n1 emotion item corresponding to the correlation between the identified e baby expressions and n1 baby emotion items It is possible to generate facial expression-based emotional state determination information based on artificial intelligence for the purpose of doing so and store it in a designated storage area.
본 발명의 실시 방법에 따르면, 상기 N개의 아기 감정 항목은 '기쁨(喜)', '노여움(怒)', '슬픔(哀)', '즐거움(樂)', '사랑(愛)', '미움(惡)', '욕심(欲)' 등의 기본 감정 중에서 사회화가 진행되지 않거나 성인보다 덜 진행된 아기라도 느낄 수 있는 하나 이상의 감정(예컨대, '기쁨', '노여움', '슬픔', '즐거움' 등)에 대응하는 감정 항목을 포함할 수 있으며, 상기 기본 감정 외에 아기가 느낄 수 있는 다양한 감정(예컨대, '짜증', '외로움', '답답함', '불쾌', '두려움' 등)에 대한 감정 항목을 더 포함하거나 및/또는 상기 기본 감정 중 적어도 하나를 아기의 상황에 맞게 구체화한 감정(예컨대, '욕심' 중 수면욕에 해당하는 '졸림'이나 식욕에 해당하는 '배고픔' 등)에 대응하는 감정 항목을 더 포함할 수 있다. According to the embodiment of the present invention, the N baby emotion items are 'joy (喜)', 'anger (怒)', 'sad (哀)', 'pleasure (樂)', 'love (愛)', Among the basic emotions such as 'hate' and 'lust', one or more emotions (e.g., 'joy', 'anger', 'sadness', It may include an emotional item corresponding to 'pleasure', etc.), and in addition to the basic emotions, various emotions that the baby may feel (eg, 'irritability', 'loneliness', 'stupid', 'displeasure', 'fear', etc.) ), and/or an emotion in which at least one of the basic emotions is embodied according to the baby's situation (e.g., among 'greed', 'drowsiness' corresponding to sleep desire or 'hunger' corresponding to appetite, etc.) ) may further include an emotion item corresponding to the.
한편 상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하는 일 실시예에 따르면, 상기 정보 관리부(105)는 지정된 데이터베이스나 운영단말로부터 지정된 E(E≥2)개의 아기 표정 중 지정된 e(1≤e≤E)개의 아기 표정에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 안면 영역을 포함하는 장면에 대응하는 복수의 비디오 정보를 포함하는 빅 데이터를 입력받고, 상기 입력된 복수의 비디오 정보에 대한 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값을 출력변수(Labels)로 설정한 후, 지정된 절차에 따라 상기 입력된 복수의 비디오 정보들에 포함된 아기 안면 영역의 지정된 특징점 간 기하학 관계를 판독하고 패턴 인식하여 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값에 대응하는 P(P≥2)개의 장면 패턴 특성 정보를 추출하고, 상기 추출된 P개의 장면 패턴 특성 정보를 입력변수(Feature Vectors)로 설정하고 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 아기 안면 영역을 포함하는 복수의 장면들 중 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성할 수 있다. 한편 상기 출력변수는 상기 비디오 정보에 포함된 상기 아기 안면 영역에 대응하는 e개의 아기 표정 정보와, 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함할 수 있다. Meanwhile, according to an embodiment of generating the artificial intelligence-based expression-based emotional state determination information, the information management unit 105 may include a specified e(1≤2) among E(E≥2) baby expressions specified from a specified database or operating terminal. The facial area of the baby with the specified correlation with N1 (1≤N1≤N) baby emotion items that can be distinguished through the baby expression among the N (N≥2) specified baby emotion items corresponding to e≤E) baby expressions. Receive big data including a plurality of video information corresponding to the scene including the input, and output variable (Labels) the baby emotional state value for each n1 (1≤n1≤N1) emotion items for the inputted plurality of video information After setting to , according to a specified procedure, geometrical relationships between specified feature points of the baby's facial area included in the input plurality of video information are read and pattern recognized, and n1 emotion items corresponding to the baby's facial expression in the baby's facial area are identified. P(P≥2) pieces of scene pattern characteristic information corresponding to the baby's emotional state value are extracted, the extracted P pieces of scene pattern characteristic information are set as input variables (Feature Vectors), and more than a specified number of Expression-based emotion based on artificial intelligence for learning the input variable and the output variable to determine the baby emotional state value for each n1 emotion item corresponding to the baby expression in the baby face area among a plurality of scenes including the baby face area Status determination information can be generated. Meanwhile, the output variable may further include at least one of e pieces of baby expression information corresponding to the baby facial region included in the video information and n1 pieces of baby emotion item information corresponding to the baby expression of the baby face area. can
또는, 상기 정보 관리부(105)는 지정된 데이터베이스나 운영단말로부터 지정된 E(E≥2)개의 아기 표정 중 지정된 e(1≤e≤E)개의 아기 표정에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 안면 영역을 포함하는 장면에 대응하는 복수의 비디오 정보들을 지정된 절차에 따라 판독하고 패턴 인식하여 상기 아기 안면 영역의 아기 표정에 대응하는 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값의 패턴 특성으로 추출된 P(P≥2)개의 장면 패턴 특성 정보를 포함하는 빅 데이터를 입력변수(Feature Vectors)로 입력받고, 상기 P개의 장면 패턴 특성 정보가 추출된 비디오 정보에 대한 n1개의 감정 항목 별 아기 감정 상태 값을 출력변수(Labels)로 설정한 후, 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 아기 안면 영역을 포함하는 복수의 장면들 중 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성할 수 있다. 한편 상기 출력변수는 상기 비디오 정보에 포함된 상기 아기 안면 영역에 대응하는 e개의 아기 표정 정보와, 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함할 수 있다. Alternatively, the information management unit 105 may be configured to correspond to the specified e(1≤e≤E) baby expressions among E(E≥2) baby expressions specified from a specified database or operating terminal, and N(N≥2) specified babies Among the emotion items, a plurality of video information corresponding to a scene including N1 (1≤N1≤N) baby emotion items that can be distinguished through a baby's expression and a baby's facial area with a specified correlation are read according to a specified procedure and pattern recognition big data including P (P≥2) scene pattern characteristic information extracted as pattern characteristics of baby emotional state values for each n1 (1≤n1≤N1) emotion items corresponding to the baby's facial expression in the baby's facial area After receiving as input variables (Feature Vectors) and setting the baby emotional state values for each n1 emotion item for the video information from which the P scene pattern characteristic information is extracted, as output variables (Labels), through the designated artificial intelligence algorithm An artificial intelligence-based method for determining the baby emotional state value for each n1 emotion item corresponding to the baby expression in the baby's facial area among a plurality of scenes including the baby's facial area by learning more than a specified number of the input and output variables Expression-based emotional state determination information may be generated. Meanwhile, the output variable may further include at least one of e pieces of baby expression information corresponding to the baby facial region included in the video information and n1 pieces of baby emotion item information corresponding to the baby expression of the baby face area. can
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 패턴 인식 기반의 표정 기반 감정상태 판별 정보를 생성하는 경우, 상기 정보 관리부(105)는 아기의 안면 영역에 존재하는 F(F≥2)개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E(E≥2)개의 아기 표정 패턴 정보와 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 포함하는 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장한다. According to the implementation method of the present invention, when the information management unit 105 generates the expression-based emotional state determination information based on pattern recognition, the information management unit 105 is F (F≥2) present in the baby's facial region. E(E≥2) baby expression pattern information corresponding to the geometric relationship between the keypoints related to the baby's emotional expression among the ten feature points and N1( Expression-based emotion including matching relationship information between 1≤N1≤N) baby emotion items and quantifying the correlation between the E baby expression pattern information and N1 baby emotion items. Register and save the status determination information in the designated operation D/B.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 아기의 안면 영역에 존재하는 F개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 E개의 아기 표정 패턴 정보를 등록받고, 상기 E개의 아기 표정 패턴 정보를 지정된 N개의 아기 감정 항목 중 아기 표정 패턴을 근거로 구별 가능한 N1개의 아기 감정 항목과 매칭하는 매칭 관계정보를 등록받고, 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목 간 상관도를 수치화한 표정 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 상기 E개의 아기 표정 패턴 정보와 N1개의 아기 감정 항목을 행 또는 열의 타이틀로 포함하며 상기 표정 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀(Cell)의 정보로 포함하는 테이블 형태의 표정 기반 감정상태 판별 정보를 지정된 운영D/B에 등록 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 receives E pieces of baby expression pattern information corresponding to the geometric relationship between the feature points related to the emotional expression of the baby among F feature points existing in the baby's facial area from the designated operation terminal. registration, matching relationship information matching the E pieces of baby expression pattern information with N1 baby emotion items that can be distinguished based on baby expression patterns among the designated N baby emotion items, and the E pieces of baby expression pattern information and N1 Expression-based correlation, which quantifies the correlation between baby emotional items, can be registered and stored in a designated operation D/B by registering numerical relationship information. For example, the information management unit 105 includes the E baby expression pattern information and N1 baby emotion items as row or column titles, and stores the expression-based correlation numerical relationship information into a cell corresponding to each row or column. It is possible to register and store the expression-based emotional state determination information in the form of a table included as the information of the designated operation D/B.
본 발명의 일 실시 방법에 따르면, 상기 E개의 아기 표정 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 표정 패턴에 대응하는 각 특징점 간 기하학 관계 정보를 포함할 수 있다. 바람직하게, 상기 특징점 간 기하학 관계는 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함할 수 있다. 예를들어, 상기 특징점 간 기하학 관계 정보는 지정된 기준 특징점 간 거리 수치를 기준으로 하는 각 특징점 간 거리 수치, 각 특징점 간 각도 수치, 각 특징점 간 거리 수치와 각도 수치의 조합 중 하나 이상의 수치를 포함할 수 있다. According to an embodiment of the present invention, the E pieces of baby expression pattern information may include geometric relationship information between each feature point corresponding to each baby expression pattern associated with the baby's emotional expression. Preferably, the geometric relationship between the feature points may include at least one of a distance relationship between each feature point, an angular relationship between each feature point, and a combination relationship between a distance relationship between each feature point and an angular relationship. For example, the geometric relationship information between the feature points may include at least one of a distance value between each feature point based on a specified reference feature point distance value, an angle value between each feature point, and a combination of a distance value between each feature point and an angle value. can
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 E개의 아기 표정 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 표정 패턴에 대응하는 각 특징점 간 기하학 관계의 범위 정보를 포함할 수 있다. 바람직하게, 상기 특징점 간 기하학 관계는 각 특징점 간 거리 관계, 각 특징점 간 각도 관계, 각 특징점 간 거리 관계와 각도 관계의 조합 관계 중 하나 이상의 관계를 포함할 수 있다. 예를들어, 상기 특징점 간 기하학 관계의 범위 정보는 지정된 기준 특징점 간 거리 수치를 기준으로 하는 각 특징점 간 거리 수치 범위, 각 특징점 간 각도 수치 범위, 각 특징점 간 거리 수치 범위와 각도 수치 범위의 조합 중 하나 이상의 수치 범위를 포함할 수 있다. Meanwhile, according to another embodiment of the present invention, the E pieces of baby expression pattern information may include range information of a geometric relationship between each feature point corresponding to each baby expression pattern associated with the baby's emotional expression. Preferably, the geometric relationship between the feature points may include at least one of a distance relationship between each feature point, an angular relationship between each feature point, and a combination relationship between a distance relationship between each feature point and an angular relationship. For example, the range information of the geometric relationship between the feature points may include a numerical range of distances between each feature points based on a specified reference numerical distance between feature points, a numerical range of angles between each feature, and a combination of a numerical range of distances between feature points and an angular numerical range It may include more than one numerical range.
본 발명의 일 실시 방법에 따르면, 상기 표정 기반 상관도 수치 관계정보는 아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 표정 기반 상관도 수치 관계정보는 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an embodiment of the present invention, the expression-based correlation numerical relationship information is a correlation value calculated through a relational expression proportional to the matching ratio between the baby expression recognition information that recognizes the baby's expression and the registered baby expression pattern information. may contain information. For example, the expression-based correlation numerical relationship information may be calculated as smaller numerical information as the matching ratio between the baby expression recognition information and the registered baby expression pattern information is smaller, and the larger the matching ratio is, the larger the numerical information is calculated. can be
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 표정 기반 상관도 수치 관계정보는 아기의 표정을 인식한 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 표정 기반 상관도 수치 관계정보는 아기 표정 인식 정보와 기 등록된 아기 표정 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. On the other hand, according to another embodiment of the present invention, the facial expression-based correlation numerical relationship information is the correlation numerical information for each matching ratio section between the baby expression recognition information that recognizes the baby's expression and the registered baby expression pattern information. may include For example, the expression-based correlation numerical relationship information can be calculated as '0' or numerical information of a specified minimum value when the matching ratio between the baby expression recognition information and the registered baby expression pattern information is a preset minimum ratio section, , when the matching ratio is a preset maximum ratio section, it may be calculated as numerical information of a specified maximum value.
한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 표정 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(130)를 통해 지정된 아기 표정 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 아기 표정 인식 정보가 인식된 후에 상기 카메라장치(180)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 아기의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 아기의 보호자가 아기에게 발화하는 음성 중 아기 감정 인지와 관련된 음성(예컨대, '우리 애기 배고프구나', '우리 애기 똥 ?奐립?', '우리 애기 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 아기 표정 인식 정보가 인식된 후에 보호자의 아기 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 아기 표정 인식 정보를 패턴화함과 동시에 상기 아기 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 아기 감정 항목을 식별하고, 상기 인식된 아기 표정 인식 정보를 패턴화한 아기 표정 패턴 정보와 상기 식별된 음성 인식 기반의 아기 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 표정 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.On the other hand, according to the implementation method of the present invention, after the expression-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, when the designated baby expression recognition information is recognized through the following information recognition unit 130 , the information management unit 105 reads video data received from the camera device 180 and stored in a specific storage area of a designated storage medium after the baby expression recognition information is recognized to recognize an object corresponding to the baby's guardian At the same time, by reading the audio data linked with the video data, the voice related to the baby's emotional recognition among the voices uttered by the baby's guardian to the baby (eg, 'My baby is hungry', 'My baby's poop?', 'My baby is sleepy', etc.) can be performed. If the baby's expression recognition information is recognized and then the parent's voice related to the baby's emotion recognition is recognized, the information management unit 105 patterns the recognized baby's expression recognition information and responds to the baby's emotion recognition related voice at the same time. By repeating the process of identifying a baby emotion item based on voice recognition, and learning a combination of the baby expression pattern information patterned with the recognized baby expression recognition information and the identified voice recognition-based baby emotion item, the expression-based Big data-based accuracy and reliability of emotional state identification information can be continuously improved.
한편 본 발명의 확장 실시예에 따르면, 상기 정보 관리부(105)는 상기 표정 기반 감정상태 판별 정보 외에 상기 카메라장치(180)의 사운드 입력부를 통해 획득된 오디오 데이터를 근거로 아기 울음소리를 인식하여 아기의 감정 상태를 판별하기 위한 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장하거나, 및/또는 상기 카메라장치(180)에 아기의 감정 표현과 연관된 지정된 센싱 대상을 센싱하는 센서모듈이 구비되거나 연계되고 상기 카메라장치(180)로부터 상기 센서모듈을 통해 아기의 지정된 센싱 대상을 센싱하여 획득된 센싱 데이터가 수신되는 경우 상기 센싱 데이터를 이용하여 아기의 감정 상태를 판별하기 위한 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. Meanwhile, according to an extended embodiment of the present invention, the information management unit 105 recognizes a baby cry based on the audio data obtained through the sound input unit of the camera device 180 in addition to the expression-based emotional state determination information. A sensor module for registering and storing cry-based emotional state determination information for determining the emotional state of the operation D/B, and/or sensing a designated sensing target related to the emotional expression of the baby in the camera device 180 is provided Sensing-based emotional state determination for determining the baby's emotional state using the sensing data when sensing data obtained by sensing a designated sensing target of the baby is received from the camera device 180 through the sensor module Information can be registered and stored in operation D/B.
한편 본 발명의 다른 실시예에 따르면, 상기 정보 관리부(105)는 상기 표정 기반 감정상태 판별 정보를 대신(또는 대체)하여 상기 울음소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. 이하, 편의 상 표정 기반 감정상태 판별 정보를 기본 감정상태 판별 정보로 이용하고 상기 울음소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보를 부 감정상태 판별 정보로 이용하는 실시예를 통해 본 발명의 특징을 설명할 것이나, 본 발명의 기술적 특징이 이에 한정되는 것은 아니며, 본 발명의 실시예와 청구범위의 기재에 따라 상기 울음소리 기반 감정상태 판별 정보 및/또는 센싱 기반 감정상태 판별 정보도 기본 감정상태 판별 정보로 이용될 수 있음을 명백하게 밝혀두는 바이다.Meanwhile, according to another embodiment of the present invention, the information management unit 105 operates the cry-based emotional state determination information and/or sensing-based emotional state determination information instead of (or replaces) the expression-based emotional state determination information. It can be registered and stored in D/B, and the present invention is not limited thereto. Hereinafter, for convenience, the present invention through an embodiment in which expression-based emotional state determination information is used as basic emotional state determination information and the cry-based emotional state determination information and/or sensing-based emotional state determination information is used as secondary emotional state determination information will be described, but the technical features of the present invention are not limited thereto, and the cry-based emotional state determination information and/or sensing-based emotional state determination information is also basic according to the embodiments of the present invention and the description of the claims. It is clearly stated that it can be used as emotional state identification information.
본 발명의 확장/다른 실시예에 따르면, 상기 정보 관리부(105)는 지정된 인공지능 기반의 학습(Learning) 과정을 통해 아기 울음소리에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하거나, 및/또는 지정된 운영단말로부터 패턴 인식 기반의 울음소리 기반 감정상태 판별 정보를 등록받아 지정된 저장영역에 저장할 수 있다.According to an extension/other embodiment of the present invention, the information management unit 105 is artificial intelligence for determining the baby emotional state value for each designated emotional item corresponding to the baby cry through a designated artificial intelligence-based learning process. Cry-based emotional state determination information may be generated and stored in a designated storage area, and/or pattern recognition-based cry-based emotional state determination information may be registered from a designated operating terminal and stored in a designated storage area.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하는 경우, 지정된 인공지능 기반의 지도 학습(Supervised Learning) 과정을 통해 아기 울음소리에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장할 수 있다. According to the implementation method of the present invention, when the information management unit 105 generates artificial intelligence-based cry-based emotional state determination information, it responds to a baby cry through a designated artificial intelligence-based supervised learning process. Artificial intelligence-based cry-based emotional state determination information for determining the baby emotional state value for each specified emotional item can be generated and stored in a designated storage area.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 인공지능 기반의 학습 과정을 수행하여, 지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리를 판별하고, 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목을 기반으로 상기 판별된 c개의 아기 울음소리와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 확인된 c개의 아기 울음소리와 n2개의 아기 감정 항목 간 상관도에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장할 수 있다. According to the implementation method of the present invention, the information management unit 105 performs a designated AI-based learning process, and c(1≤c≤C) baby cries among the designated C (C≥2) baby cries. The sound is determined, and the matching relationship with the c baby cry sounds determined above based on N2 (1≤N2≤N) baby emotion items that can be distinguished through baby cry among the specified N (N≥2) baby emotion items To determine n2 (1≤n2≤N2) baby emotion items with For artificial intelligence-based cry-based emotional state determination information can be created and stored in a designated storage area.
한편 상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하는 일 실시예에 따르면, 상기 정보 관리부(105)는 지정된 데이터베이스나 운영단말로부터 지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 울음에 대응하는 복수의 오디오 정보를 포함하는 빅 데이터를 입력받고, 상기 입력된 복수의 오디오 정보에 대한 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값을 출력변수(Labels)로 설정한 후, 지정된 절차에 따라 상기 입력된 복수의 오디오 정보들을 판독하고 패턴 인식하여 상기 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값에 대응하는 P(P≥2)개의 장면 패턴 특성 정보를 추출하고, 상기 추출된 P개의 장면 패턴 특성 정보를 입력변수(Feature Vectors)로 설정하고 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 지정된 오디오 데이터에 포함된 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성할 수 있다. 한편 상기 출력변수는 상기 오디오 정보에 포함된 상기 아기 울음에 대응하는 c개의 아기 울음소리 정보와, 상기 아기 울음소리에 대응하는 n2개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함할 수 있다. On the other hand, according to an embodiment of generating the artificial intelligence-based cry-based emotional state determination information, the information management unit 105 is a designated c (C ≥ 2) among C (C≥2) baby cries designated from a designated database or operating terminal. Corresponding to 1≤c≤C) baby crying sounds, it has a specified correlation with N2 (1≤N2≤N) baby emotion items that can be distinguished through baby cry among the designated N(N≥2) baby emotion items. Receives big data including a plurality of audio information corresponding to a baby's cry, and sets the baby emotional state value for each n2 (1≤n2≤N2) emotion items for the inputted plurality of audio information as output variables (Labels) After setting, according to a specified procedure, the plurality of input audio information is read and pattern recognized, and P (P≥2) scene pattern characteristics corresponding to the baby emotional state value for each n2 emotional items corresponding to the baby crying sound Extract information, set the extracted P scene pattern characteristic information as input variables (Feature Vectors), and learn more than a specified number of input and output variables through a specified artificial intelligence algorithm to learn baby cries included in the specified audio data It is possible to generate artificial intelligence-based cry-based emotional state determination information for determining the baby emotional state value for each n2 emotional items corresponding to the sound. Meanwhile, the output variable may further include at least one of c pieces of baby cry information corresponding to the baby crying and n2 pieces of baby emotion item information corresponding to the baby cry included in the audio information.
또는, 상기 정보 관리부(105)는 지정된 데이터베이스나 운영단말로부터 지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 울음에 대응하는 복수의 오디오 정보들을 지정된 절차에 따라 판독하고 패턴 인식하여 상기 아기 울음소리에 대응하는 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값의 패턴 특성으로 추출된 P(P≥2)개의 장면 패턴 특성 정보를 포함하는 빅 데이터를 입력변수(Feature Vectors)로 입력받고, 상기 P개의 장면 패턴 특성 정보가 추출된 오디오 정보에 대한 n2개의 감정 항목 별 아기 감정 상태 값을 출력변수(Labels)로 설정한 후, 지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 지정된 오디오 데이터에 포함된 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성할 수 있다. 한편 상기 출력변수는 상기 오디오 정보에 포함된 상기 아기 울음에 대응하는 c개의 아기 울음소리 정보와, 상기 아기 울음소리에 대응하는 n2개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함할 수 있다. Alternatively, the information management unit 105 corresponds to the specified c (1≤c≤C) baby cries among the C (C≥2) specified baby cries from the specified database or operating terminal, and the designated N (N≥2) Among the baby emotion items, N2 (1≤N2≤N) baby emotion items that can be distinguished through the cry of a baby and a plurality of audio information corresponding to a baby crying with a specified correlation are read according to a specified procedure and pattern recognized Big data containing P(P≥2) scene pattern characteristic information extracted as pattern characteristics of baby emotional state values for each n2 (1≤n2≤N2) emotion items corresponding to the baby’s cry is used as input variables (Feature Vectors). ) and set the baby emotional state values for each n2 emotion items for the audio information from which the P scene pattern characteristic information is extracted as output variables (Labels), and then input more than a specified number through a specified artificial intelligence algorithm. By learning the variable and the output variable, it is possible to generate artificial intelligence-based cry-based emotional state determination information for determining the baby emotional state value for each n2 emotional items corresponding to the baby cry included in the specified audio data. Meanwhile, the output variable may further include at least one of c pieces of baby cry information corresponding to the baby crying and n2 pieces of baby emotion item information corresponding to the baby cry included in the audio information.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 패턴 인식 기반의 울음소리 기반 감정상태 판별 정보를 생성하는 경우, 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C(C≥2)개의 아기 울음소리 패턴 정보와 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 포함하는 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to the implementation method of the present invention, when the information management unit 105 generates pattern recognition-based cry-based emotional state determination information, C (C≥2) pieces of information related to the baby's emotional expression among the baby's cry patterns It includes matching relationship information between baby cry pattern information and N2 (1≤N2≤N) baby emotion items that can be distinguished based on a baby cry pattern among N designated baby emotion items, and the C baby cry pattern information It is possible to register and store cry-based emotional state identification information including numerical relationship information on the cry-based correlation level, which quantifies the correlation between the and N2 baby emotion items, in the operation D/B.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 아기의 울음소리 패턴 중 아기의 감정 표현과 연관된 C개의 아기 울음소리 패턴 정보를 등록받고, 상기 C개의 아기 울음소리 패턴 정보를 지정된 N개의 아기 감정 항목 중 아기 울음소리 패턴을 근거로 구별 가능한 N2개의 아기 감정 항목과 매칭하는 매칭 관계정보를 등록받고, 상기 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목 간 상관도를 수치화한 울음소리 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 C개의 아기 울음소리 패턴 정보와 N2개의 아기 감정 항목를 행 또는 열의 타이틀로 포함하며 상기 울음소리 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀의 정보로 포함하는 테이블 형태의 울음소리 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다According to the implementation method of the present invention, the information management unit 105 registers C pieces of baby cry pattern information related to the emotional expression of a baby among baby cry patterns from a designated operating terminal, and the C pieces of baby cry pattern information to register matching relationship information matching N2 baby emotion items that can be distinguished based on baby cry patterns among the N designated baby emotion items, and calculate the correlation between the C baby cry pattern information and N2 baby emotion items. Numericalized cry-based correlation can also be registered and stored in a designated operation D/B by receiving numerical relationship information. For example, the information management unit 105 includes C baby cry pattern information and N2 baby emotion items as row or column titles, and converts the cry based correlation numerical relationship information into cell information corresponding to each row or column. It is possible to register and store cry-based emotional state determination information in the operation D/B in the form of a table including
본 발명의 일 실시 방법에 따르면, 상기 C개의 아기 울음소리 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 울음소리 패턴을 구성하는 울음소리 특징 정보를 포함할 수 있다. 바람직하게, 상기 울음소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다. According to an embodiment of the present invention, the C pieces of baby cry pattern information may include cry feature information constituting each baby cry pattern related to the emotional expression of the baby. Preferably, the cry characteristics include a frequency band characteristic, an arrangement relational characteristic of a frequency band characteristic, a periodicity characteristic of a frequency band characteristic, a sound intensity characteristic, an arrangement relational characteristic of a sound intensity characteristic, a periodicity characteristic of a sound intensity characteristic, a frequency band characteristic, and It may include one or more characteristics of a combination characteristic of a sound intensity characteristic, a characteristic of an arrangement relationship between a frequency band characteristic and a sound intensity characteristic, and a periodicity characteristic of a frequency band characteristic and a sound intensity characteristic.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 C개의 아기 울음소리 패턴 정보는 아기의 감정표현과 연관된 각각의 아기 울음소리 패턴을 구성하는 울음소리 특징의 범위 정보를 포함할 수 있다. 바람직하게, 상기 울음소리 특징은 주파수 대역 특징, 주파수 대역 특징의 배치 관계 특징, 주파수 대역 특징의 주기성 특징, 소리 강도 특징, 소리 강도 특징의 배치 관계 특징, 소리 강도 특징의 주기성 특징, 주파수 대역 특징과 소리 강도 특징의 조합 특징, 주파수 대역 특징과 소리 강도 특징의 배치 관계 특징, 주파수 대역 특징과 소리 강도 특징의 주기성 특징 중 하나 이상의 특징을 포함할 수 있다. 예를들어, 상기 울음소리 특징의 범위 정보는 각 특징 별 주파수 대역의 허용 범위 및/또는 각 특징 별 소리 강도의 허용 범위를 포함할 수 있다. Meanwhile, according to another embodiment of the present invention, the C pieces of baby cry pattern information may include information on the range of cry characteristics constituting each baby cry pattern related to the emotional expression of the baby. Preferably, the cry characteristics include a frequency band characteristic, an arrangement relational characteristic of a frequency band characteristic, a periodicity characteristic of a frequency band characteristic, a sound intensity characteristic, an arrangement relational characteristic of a sound intensity characteristic, a periodicity characteristic of a sound intensity characteristic, a frequency band characteristic, and It may include one or more characteristics of a combination characteristic of a sound intensity characteristic, a characteristic of an arrangement relationship between a frequency band characteristic and a sound intensity characteristic, and a periodicity characteristic of a frequency band characteristic and a sound intensity characteristic. For example, the range information of the crying sound feature may include an allowable range of a frequency band for each feature and/or an allowable range of a sound intensity for each feature.
본 발명의 일 실시 방법에 따르면, 상기 울음소리 기반 상관도 수치 관계정보는 아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 울음소리 기반 상관도 수치 관계정보는 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an embodiment of the present invention, the cries-based correlation numerical relationship information is calculated through a relational expression proportional to the matching ratio between the baby cry recognition information that recognizes the baby's cry and the registered baby cry pattern information. The correlation may also include numerical information. For example, the cry-based correlation numerical relationship information may be calculated as smaller numerical information as the matching ratio between the baby cry recognition information and the registered baby cry pattern information is smaller, and the larger the matching ratio is, the larger the numerical relationship information. information can be calculated.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 울음소리 기반 상관도 수치 관계정보는 아기의 울음소리를 인식한 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 울음소리 기반 상관도 수치 관계정보는 아기 울음소리 인식 정보와 기 등록된 아기 울음소리 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. On the other hand, according to another embodiment of the present invention, the correlation information based on the cry is the correlation between each matching ratio section between the baby cry recognition information that recognizes the baby's cry and the registered baby cry pattern information. It may also include numerical information. For example, the cry-based correlation numerical relationship information is calculated as '0' or numerical information of a specified minimum value when the matching ratio between the baby cry recognition information and the registered baby cry pattern information is a preset minimum ratio section may be, and when the matching ratio is a preset maximum ratio section, it may be calculated as numerical information of a designated maximum value.
한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 울음소리 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(130)를 통해 지정된 아기 울음소리 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 아기 울음소리 인식 정보가 인식된 후에 상기 카메라장치(180)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 아기의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 아기의 보호자가 아기에게 발화하는 음성 중 아기 감정 인지와 관련된 음성(예컨대, '우리 애기 배고프구나', '우리 애기 똥 ?奐립?', '우리 애기 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 아기 울음소리 인식 정보가 인식된 후에 보호자의 아기 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 아기 울음소리 인식 정보를 패턴화함과 동시에 상기 아기 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 아기 감정 항목을 식별하고, 상기 인식된 아기 울음소리 인식 정보를 패턴화한 아기 울음소리 패턴 정보와 상기 식별된 음성 인식 기반의 아기 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 울음소리 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.On the other hand, according to the implementation method of the present invention, after the cry-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, the designated baby cry recognition information is recognized through the following information recognition unit 130 In this case, the information management unit 105 reads the video data received from the camera device 180 and stored in a specific storage area of a designated storage medium after the baby cry recognition information is recognized to correspond to the baby's guardian. At the same time as an object is recognized, audio data associated with the video data is read, and among the voices uttered by the baby's guardian to the baby, voices related to the baby's emotional recognition (eg, 'My baby is hungry', 'Our baby poop? ?', 'My baby is sleepy', etc.) can be performed. If the voice related to the baby emotion recognition of the guardian is recognized after the baby cry recognition information is recognized, the information management unit 105 patterns the recognized baby cry recognition information and the voice related to the baby emotion recognition Repeat the process of identifying the baby emotion item corresponding to the voice recognition and learning the combination of the baby cry pattern information obtained by patterning the recognized baby cry recognition information and the identified voice recognition-based baby emotion item By doing so, it is possible to continuously improve the big data-based accuracy and reliability of the cry-based emotional state determination information.
한편 본 발명의 확장/다른 실시예에 따르면, 상기 정보 관리부(105)는 상기 카메라장치(180)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보를 포함하고 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다.Meanwhile, according to an extension/other embodiment of the present invention, the information management unit 105 senses a designated sensing target associated with the emotional expression of a baby among sensing data sensed through a sensor module provided in or linked to the camera device 180 . Matching relationship between S (S≥2) sensing value pattern information for data and N3 (1≤N3≤N) baby emotion items that can be distinguished based on the sensing value pattern of the specified sensing target among the N specified baby emotion items It is possible to register and store sensing-based emotional state determination information including sensing-based correlation numerical relationship information, which includes information and quantifies the correlation between the S sensed value pattern information and N3 baby emotion items, in the operation D/B.
본 발명의 실시 방법에 따르면, 상기 센서모듈은 아기의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈, 지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함할 수 있으며, 상기 지정된 센싱 대상은 아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함할 수 있다.According to the embodiment of the present invention, the sensor module is a wearable sensor module that is worn on a baby's body and senses a designated sensing target, and a radar sensor module that senses a designated sensing target of the baby using a designated electromagnetic wave. may include at least one sensor module among, and the designated sensing target may include at least one of a baby's heartbeat, a baby's body temperature, a baby's ambient humidity, and whether the baby is apnea.
본 발명의 실시 방법에 따르면, 상기 정보 관리부(105)는 지정된 운영단말로부터 상기 카메라장치(180)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S개의 센싱 값 패턴 정보를 등록받고, 상기 S개의 센싱 값 패턴 정보를 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3개의 아기 감정 항목 사이의 매칭 관계정보를 등록받고, 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 등록받아 지정된 운영D/B에 등록 저장할 수 있다. 예를들어, 상기 정보 관리부(105)는 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목을 행 또는 열의 타이틀로 포함하며 센싱 기반 상관도 수치 관계정보를 각 행열에 대응하는 셀의 정보로 포함하는 테이블 형태의 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장할 수 있다. According to the embodiment of the present invention, the information management unit 105 senses a designated sensing target associated with the emotional expression of a baby among sensing data sensed through a sensor module provided in or linked to the camera device 180 from a designated operating terminal. Matching relationship information between N3 baby emotion items that can register S sensing value pattern information for data, and distinguish the S sensing value pattern information based on the sensing value pattern of a specified sensing target among the N specified baby emotion items can be registered, the sensing-based correlation numerical relationship information obtained by quantifying the correlation between the S sensed value pattern information and the N3 baby emotion items can be registered and stored in a designated operation D/B. For example, the information management unit 105 includes the S sensed value pattern information and N3 baby emotion items as row or column titles, and includes sensing-based correlation numerical relationship information as cell information corresponding to each row or column. It is possible to register and store sensing-based emotional state determination information in the operation D/B in the form of a table.
본 발명의 일 실시 방법에 따르면, 상기 S개의 센싱 값 패턴 정보는 아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징 정보를 포함할 수 있다. 바람직하게, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. According to an embodiment of the present invention, the S sensing value pattern information may include sensing value characteristic information constituting each sensing value pattern for sensing data of a designated sensing target related to the emotional expression of a baby. Preferably, the sensed value characteristic may include at least one or a combination of two or more of a change rule characteristic of a sensed value, a characteristic of a change amount of a sensed value, a characteristic of a change rate of a sensed value, and a characteristic of a periodicity of a change of a sensed value.
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 S개의 센싱 값 패턴 정보는 아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함할 수 있다. 바람직하게, 상기 센싱 값 특징은 센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함할 수 있다. 예를들어, 상기 센싱 값 특징의 범위 정보는 각 특징 별 변화 규칙의 허용 범위, 각 특징 별 센싱 값 변화량의 허용 범위, 각 특징 별 센싱 값 변화율의 허용 범위를 포함할 수 있다. Meanwhile, according to another embodiment of the present invention, the S sensed value pattern information includes range information of sensing value features constituting each sensing value pattern for sensing data of a designated sensing target related to the emotional expression of the baby. can Preferably, the sensed value characteristic may include at least one or a combination of two or more of a change rule characteristic of a sensed value, a characteristic of a change amount of a sensed value, a characteristic of a change rate of a sensed value, and a characteristic of a periodicity of a change of a sensed value. For example, the range information of the sensing value feature may include an allowable range of a change rule for each feature, an allowable range of a change amount of a sensing value for each feature, and an allowable range of a sensing value change rate for each feature.
본 발명의 일 실시 방법에 따르면, 상기 센싱 기반 상관도 수치 관계정보는 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 센싱 기반 상관도 수치 관계정보는 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율이 작을수록 작은 수치정보로 산출될 수 있으며, 상기 매칭 비율을 클수록 큰 수치정보로 산출될 수 있다. According to an embodiment of the present invention, the sensing-based correlation numerical relationship information is calculated through a relational expression proportional to a matching ratio between sensing value recognition information recognized through sensing data of a specified sensing target and pre-registered sensing value pattern information The correlation may also include numerical information. For example, the sensing-based correlation numerical relationship information may be calculated as small numerical information as the matching ratio between the sensing value recognition information and the previously registered sensing value pattern information is smaller, and the larger the matching ratio is, the larger the numerical information is calculated. can be
한편 본 발명의 다른 일 실시 방법에 따르면, 상기 센싱 기반 상관도 수치 관계정보는 지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함할 수 있다. 예를들어, 상기 센싱 기반 상관도 수치 관계정보는 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율이 기 설정된 최소 비율 구간인 경우 '0'이나 지정된 최소값의 수치정보로 산출될 수 있으며, 상기 매칭 비율이 기 설정된 최대 비율 구간인 경우 지정된 최대값의 수치정보로 산출될 수 있다. Meanwhile, according to another embodiment of the present invention, the sensing-based correlation numerical relationship information is a correlation for each matching ratio section between sensing value recognition information recognized through sensing data of a specified sensing target and pre-registered sensing value pattern information. It may also include numerical information. For example, the sensing-based correlation numerical relationship information may be calculated as '0' or numerical information of a specified minimum value when the matching ratio between the sensing value recognition information and the registered sensing value pattern information is a preset minimum ratio section, , when the matching ratio is a preset maximum ratio section, it may be calculated as numerical information of a specified maximum value.
한편 본 발명의 실시 방법에 따르면, 지정된 운영단말을 통해 상기 운영D/B에 상기 센싱 기반 감정상태 판별 정보가 등록 저장된 후, 하기 정보 인식부(130)를 통해 지정된 센싱 값 인식 정보가 인식된 경우, 상기 정보 관리부(105)는 상기 센싱 값 인식 정보가 인식된 후에 상기 카메라장치(180)로부터 수신되어 지정된 저장매체의 특정 저장영역에 저장되는 비디오 데이터를 판독하여 아기의 보호자에 대응하는 객체를 인식함과 동시에 상기 비디오 데이터와 연계된 오디오 데이터를 판독하여 아기의 보호자가 아기에게 발화하는 음성 중 아기 감정 인지와 관련된 음성(예컨대, '우리 애기 배고프구나', '우리 애기 똥 ?奐립?', '우리 애기 졸리구나' 등)을 인식하는 절차를 수행할 수 있다. 만약 센싱 값 인식 정보가 인식된 후에 보호자의 아기 감정 인지와 관련된 음성이 인식된 경우, 상기 정보 관리부(105)는 상기 인식된 센싱 값 인식 정보를 패턴화함과 동시에 상기 아기 감정 인지와 관련된 음성에 대응하는 음성 인식 기반의 아기 감정 항목을 식별하고, 상기 인식된 센싱 값 인식 정보를 패턴화한 아기 울음소리 패턴 정보와 상기 식별된 음성 인식 기반의 아기 감정 항목의 조합을 학습하는 과정을 반복함으로써 상기 센싱 기반 감정상태 판별 정보의 빅데이터 기반 정확도와 신뢰도를 지속적으로 향상시킬 수 있다.On the other hand, according to the implementation method of the present invention, after the sensing-based emotional state determination information is registered and stored in the operation D/B through a designated operation terminal, when the specified sensing value recognition information is recognized through the following information recognition unit 130 , the information management unit 105 reads video data received from the camera device 180 and stored in a specific storage area of a designated storage medium after the sensing value recognition information is recognized to recognize an object corresponding to the baby's guardian At the same time, by reading the audio data linked with the video data, the voice related to the baby's emotional recognition among the voices uttered by the baby's guardian to the baby (eg, 'My baby is hungry', 'My baby poop? A procedure for recognizing 'My baby is sleepy', etc.) can be performed. If, after the sensing value recognition information is recognized, the voice related to the baby emotion recognition of the guardian is recognized, the information management unit 105 patterns the recognized sensing value recognition information and responds to the voice related to the baby emotion recognition at the same time The sensing by repeating the process of identifying a baby emotion item based on voice recognition, and learning a combination of the baby cry pattern information obtained by patterning the recognized sensing value recognition information and the identified voice recognition-based baby emotion item. It is possible to continuously improve the accuracy and reliability of big data based emotional state identification information.
도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점에 구비된 카메라장치(180)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(180)를 매핑하는 정보를 등록받아 지정된 관리D/B에 저장하는 정보 등록부(110)를 포함한다. Referring to Figure 1, the operation server 100, a target to be provided with transmission data including video data of a specific baby in the base through the camera device 180 provided at the designated base, and the camera device ( 180) and includes an information registration unit 110 that receives the mapping information and stores it in a designated management D/B.
상기 카메라장치(180)를 구매하거나 공급받는 사용자가 이용하는 사용자단말을 통해 가입신청정보를 입력하거나 종이 형태의 가입신청서(예컨대, 카메라장치(180)를 이용한 서비스와 IPTV(175)를 결합하는 신청서, 카메라장치(180)를 이용한 서비스와 사용자 무선단말(170)을 결합하는 신청서 등)를 작성한 경우, 상기 정보 등록부(110)는 사용자 단말이나 지정된 등록단말을 통해 상기 가입신청정보나 가입신청서에 대응하는 사용자정보와 상기 사용자에게 제공/공급된 카메라장치(180)를 고유 식별하는 카메라장치(180)정보를 등록받아 관리D/B에 저장할 수 있다. 한편 상기 정보 등록부(110)는 상기 사용자 단말이나 지정된 등록단말을 통해 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 사용자가 이용하는 IPTV(175)로 제공하기 위한 ID/PW정보를 등록받고 상기 사용자정보 및/또는 카메라장치(180)정보와 연계하여 관리D/B에 저장할 수 있다. 한편 본 발명의 실시 방법에 따라 상기 ID/PW정보는 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 웹을 통해 사용자가 이용하는 유선단말이나 무선단말(170)로 제공하기 위해 사용될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. A user who purchases or receives the camera device 180 enters subscription application information through a user terminal or a paper-type subscription application (eg, an application for combining the service using the camera device 180 and the IPTV 175 ); When an application for combining the service using the camera device 180 and the user wireless terminal 170, etc.) is prepared, the information registration unit 110 corresponds to the subscription application information or the subscription application through the user terminal or a designated registration terminal. User information and camera device 180 information uniquely identifying the camera device 180 provided/supplied to the user may be registered and stored in the management D/B. Meanwhile, the information registration unit 110 provides ID/PW information for providing transmission data including video data captured through the camera device 180 to the
한편 상기 사용자가 본인이 사용하는 사용자 무선단말(170)에 지정된 앱을 설치하고 최초(또는 가입 전) 구동 시, 상기 정보 등록부(110)는 상기 사용자 무선단말(170)의 앱으로부터 상기 사용자에 대한 사용자정보와 상기 사용자에게 제공/공급된 카메라장치(180)를 고유 식별하는 카메라장치(180)정보를 등록받아 관리D/B에 저장할 수 있다. 한편 상기 정보 등록부(110)는 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 상기 사용자 무선단말(170)의 앱으로 제공하기 위해 상기 사용자 무선단말(170)의 앱을 고유 식별하는 고유식별정보를 생성하거나 상기 사용자 무선단말(170)의 앱으로부터 제공받고 상기 사용자정보 및/또는 카메라장치(180)정보와 연계하여 관리D/B에 저장할 수 있으며, 상기 고유식별정보를 생성한 경우 상기 사용자 무선단말(170)의 앱으로 제공하여 지정된 저장영역에 저장하도록 처리할 수 있다. 한편 상기 정보 등록부(110)는 상기 사용자 무선단말(170)의 앱으로부터 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 사용자가 이용하는 IPTV(175)로 제공하기 위한 ID/PW정보를 등록받고 상기 사용자정보 및/또는 카메라장치(180)정보와 연계하여 관리D/B에 저장할 수 있다. 한편 본 발명의 실시 방법에 따라 상기 ID/PW정보는 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 웹을 통해 사용자가 이용하는 유선단말이나 무선단말(170)로 제공하기 위해 사용될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함할 수 있다. On the other hand, when the user installs the designated app in the user wireless terminal 170 used by the user and operates for the first time (or before subscription), the information registration unit 110 provides information about the user from the app of the user wireless terminal 170. User information and camera device 180 information uniquely identifying the camera device 180 provided/supplied to the user may be registered and stored in the management D/B. On the other hand, the information registration unit 110 is unique to the app of the user wireless terminal 170 in order to provide transmission data including video data captured through the camera device 180 as the app of the user wireless terminal 170 . It is possible to generate unique identification information to identify or receive from the app of the user wireless terminal 170 and store it in the management D/B in connection with the user information and/or camera device 180 information, and generate the unique identification information In one case, it may be provided as an app of the user wireless terminal 170 and stored in a designated storage area. Meanwhile, the information registration unit 110 provides an ID/PW for providing transmission data including video data captured through the camera device 180 from the app of the user wireless terminal 170 to the
한편 본 발명의 실시 방법에 따르면, 상기 사용자 무선단말(170)의 앱은 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 다른 무선단말(170)의 고유정보(예컨대, 휴대폰번호 등)를 입력/등록할 수 있으며, 이 경우 상기 정보 등록부(110)는 상기 다른 무선단말(170)의 고유정보를 관리D/B에 저장하고, 상기 다른 무선단말(170)의 고유정보를 통해 상기 다른 무선단말(170)에 지정된 앱이 설치되도록 유도하거나 및/또는 상기 다른 무선단말(170)에 설치 실행된 앱을 확인하고, 상기 다른 무선단말(170)의 앱을 고유 식별하는 고유식별정보를 생성하거나 상기 다른 무선단말(170)의 앱으로부터 제공받고 상기 등록되어 있는 카메라장치(180)정보와 연계하여 관리D/B에 저장함으로써, 상기 사용자 무선단말(170)의 앱 이외에 상기 사용자 무선단말(170)의 앱을 통해 지저된 다른 무선단말(170)의 앱을 통해서도 상기 카메라장치(180)를 통해 촬영된 비디오 데이터를 포함하는 송신 데이터를 제공받을 수 있도록 처리할 수 있다.On the other hand, according to the embodiment of the present invention, the app of the user wireless terminal 170 is unique information (eg, of the other wireless terminal 170 to be provided with transmission data including the video data captured through the camera device 180) , mobile phone number, etc.) can be input/registered, and in this case, the information registration unit 110 stores the unique information of the other wireless terminal 170 in the management D/B, and the unique information of the other wireless terminal 170 is stored in the management D/B. Inducing the installation of the designated app to the other wireless terminal 170 through the information and/or checking the installed and executed app in the other wireless terminal 170, and uniquely identifying the app of the other wireless terminal 170 By generating unique identification information or storing it in the management D/B in conjunction with the registered camera device 180 information and being provided from the app of the other wireless terminal 170, in addition to the app of the user wireless terminal 170, the It is possible to process so that transmission data including video data captured through the camera device 180 can be provided through an app of another wireless terminal 170 that is selected through an app of the user wireless terminal 170 .
도면1을 참조하면, 상기 운영서버(100)는, 지정된 거점에 구비된 카메라장치(180)와의 통신 연결을 관리하는 통신 관리부(115)와, 상기 카메라장치(180)의 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하는 데이터 수신부(120)와, 상기 수신된 획득 데이터를 지정된 저장매체의 특정 저장영역에 저장하여 관리하는 데이터 저장부(125)를 포함한다. Referring to FIG. 1 , the operation server 100 is obtained through a communication management unit 115 that manages a communication connection with a camera device 180 provided at a designated base, and a camera module of the camera device 180 , a data receiving unit 120 for receiving acquired data including video data encoded in a specified manner; and a data storage unit 125 for storing and managing the received acquired data in a specific storage area of a specified storage medium.
지정된 거점에 구비된 카메라장치(180)에 전원이 입력되면, 상기 카메라장치(180)의 제어모듈은 지정된 절차에 따라 통신모듈을 통해 지정된 운영서버(100)와 지정된 하나 이상의 정보를 교환하여 통신 연결을 요청하며, 상기 통신 관리부(115)는 상기 지정된 정보의 교환을 근거로 상기 카메라장치(180)의 유효성을 인증하여 상기 카메라장치(180)와 통신을 연결한다. When power is input to the camera device 180 provided at the designated base, the control module of the camera device 180 exchanges one or more designated information with the designated operation server 100 through the communications module according to a designated procedure to establish a communication connection. request, and the communication management unit 115 authenticates the validity of the camera device 180 based on the exchange of the specified information and establishes a communication connection with the camera device 180 .
상기 카메라장치(180)와 통신이 연결되면, 상기 통신 관리부(115)는 상기 카메라장치(180)를 통해 획득된 획득 데이터를 수신하기 위한 일회용주소정보를 동적 생성하여 상기 카메라장치(180)로 제공하며, 이 경우 상기 카메라장치(180)의 제어모듈은 상기 일회용주소정보를 수신하고, 상기 일회용주소정보를 상기 획득 데이터를 전송할 목적지 주소로 설정한 후, 상기 획득된 획득 데이터를 상기 일회용주소에 대응하는 목적지 주소로 전송할 수 있다. 여기서, 상기 일회용주소정보는 주소도메인정보는 동일하되 도메인 이후의 파라미터값이 중복되지 않게 동적 생성된 파라미터값으로 이루어진 주소정보를 포함할 수 있다.When communication is established with the camera device 180 , the communication management unit 115 dynamically generates disposable address information for receiving the acquired data acquired through the camera device 180 and provides it to the camera device 180 . In this case, the control module of the camera device 180 receives the one-time address information, sets the one-time address information as a destination address to which the acquired data is to be transmitted, and then sets the acquired acquired data to the one-time address. can be sent to the destination address Here, the one-time address information may include address information composed of dynamically generated parameter values so that the address domain information is the same but the parameter values after the domain are not duplicated.
본 발명의 실시 방법에 따르면, 상기 통신 관리부(115)는 주기적으로 상기 카메라장치(180)에 대한 신규 일회용주소정보를 동적 생성하여 상기 카메라장치(180)로 제공할 수 있으며, 이 경우 상기 카메라장치(180)의 제어모듈은 상기 신규 일회용주소정보를 수신하고, 이전 일회용주소에 대응하는 목적지 주소로 상기 획득 데이터를 전송하는 과정을 인터럽트함과 동시에 이전 일회용주소로 획득 데이터를 전송한 이전 전송 정보를 확인하고, 상기 신규 일회용주소정보를 상기 획득 데이터를 이어서 전송할 신규 목적지 주소로 설정한 후, 상기 이전 전송 정보를 근거로 이전 일회용주소로 전송하던 획득 데이터를 상기 신규 일회용주소에 대응하는 신규 목적지 주소로 이어서 전송할 수 있으며, 상기의 과정은 주기적으로 반복될 수 있다. 이하, 별도의 언급이 없더라도 상기 카메라장치(180)는 상기 일회용주소로 획득 데이터를 전송할 수 있음을 명기하는 바이다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 통신 관리부(115)의 일회용주소정보 생성 내지 적용 과정은 생략 가능하며, 이에 의해 본 발명이 한정되지 아니한다.According to the embodiment of the present invention, the communication management unit 115 may periodically dynamically generate new one-time address information for the camera device 180 and provide it to the camera device 180. In this case, the camera device The control module of 180 receives the new one-time address information, interrupts the process of transmitting the acquired data to the destination address corresponding to the previous one-time address, and at the same time transmits the previous transmission information of transmitting the acquired data to the previous one-time address. After confirming, and setting the new one-time address information as a new destination address to which the acquired data is to be subsequently transmitted, the acquired data transmitted to the previous one-time address based on the previous transmission information is transferred to the new destination address corresponding to the new one-time address It can then be transmitted, and the above process can be repeated periodically. Hereinafter, it is specified that the camera device 180 can transmit the acquired data to the one-time address even if there is no separate mention. Meanwhile, according to another embodiment of the present invention, the process of generating or applying the one-time address information of the communication management unit 115 may be omitted, and the present invention is not limited thereto.
본 발명의 실시 방법에 따라 상기 카메라장치(180)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(120)는 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(125)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터를 저장하여 일정 기간 동안 관리할 수 있다.According to the embodiment of the present invention, when the control module of the camera device 180 transmits acquired data including video data that is acquired through the camera module and encoded in a specified manner, the data receiver 120 is Receives acquisition data including video data acquired and encoded in a specified manner through can manage
한편 본 발명의 실시 방법에 따라 상기 카메라장치(180)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터와 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터를 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(120)는 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터와 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(125)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터와 오디오 데이터를 연계 저장하여 일정 기간 동안 관리한다.On the other hand, according to the implementation method of the present invention, the control module of the camera device 180 is obtained through the camera module and encoded in a specified manner video data and audio data obtained through the sound input unit and encoded in the specified manner. When the acquired data is transmitted, the data receiving unit 120 receives acquired data including video data obtained through the camera module and encoded in a specified manner and audio data obtained through the sound input unit and encoded in a specified manner, and , the data storage unit 125 associates and stores the video data and audio data of the received acquired data in a specific storage area of a designated storage medium and manages it for a certain period of time.
본 발명의 실시 방법에 따르면, 상기 카메라장치(180)의 제어모듈은 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터 형태의 획득 데이터를 전송할 수 있으며, 이 경우 상기 데이터 수신부(120)는 상기 카메라장치(180)로부터 상기 동영상 데이터 형태의 획득 데이터를 수신하고, 상기 데이터 저장부(125)는 지정된 저장매체의 특정 저장영역에 상기 수신된 동영상 데이터를 저장하여 관리할 수 있다.According to the embodiment of the present invention, the control module of the camera device 180 may transmit acquired data in the form of moving picture data including the video data and audio data, and in this case, the data receiving unit 120 is the camera device The acquired data in the form of moving picture data is received from 180, and the data storage unit 125 may store and manage the received moving picture data in a specific storage area of a designated storage medium.
한편 본 발명의 실시 방법에 따르면, 상기 카메라장치(180)의 제어모듈은 상기 비디오 데이터와 상기 오디오 데이터를 각각의 데이터 형태로 포함하는 획득 데이터를 전송할 수 있으며, 이 경우 상기 데이터 수신부(120)는 상기 카메라장치(180)로부터 상기 비디오 데이터와 오디오 데이터를 제각기 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(125)는 상기 카메라장치(180)로부터 각기 수신된 상기 비디오 데이터와 오디오 데이터를 연계하여 지정된 저장매체의 특정 저장영역에 저장하여 관리할 수 있다. 바람직하게, 상기 데이터 저장부(125)는 상기 비디오 데이터와 오디오 데이터의 시간 값(또는 타임스탬프)를 기준으로 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장할 수 있다.On the other hand, according to the embodiment of the present invention, the control module of the camera device 180 may transmit the acquired data including the video data and the audio data in the form of respective data, in this case, the data receiving unit 120 Receives acquired data including the video data and audio data from the camera device 180, respectively, and the data storage unit 125 associates the video data and audio data respectively received from the camera device 180, It can be stored and managed in a specific storage area of a designated storage medium. Preferably, the data storage unit 125 synchronizes the times of the video data and the audio data based on the time values (or timestamps) of the video data and the audio data, and stores them in a specific storage area of a designated storage medium. .
한편 본 발명의 실시 방법에 따라 상기 카메라장치(180)의 제어모듈이 상기 카메라모듈을 통해 획득되어 지정된 방식으로 엔코딩된 비디오 데이터 및/또는 상기 사운드 입력부를 통해 획득되어 지정된 방식으로 엔코딩된 오디오 데이터 외에, 지정된 센서모듈을 통해 센싱되어 지정된 방식으로 엔코딩된 센싱 데이터를 더 포함하는 획득 데이터를 전송하면, 상기 데이터 수신부(120)는 상기 센싱 데이터를 포함하는 획득 데이터를 수신하고, 상기 데이터 저장부(125)는 지정된 저장매체의 특정 저장영역에 상기 수신된 획득 데이터의 비디오 데이터 및/또는 오디오 데이터와 상기 센싱 데이터를 연계 저장하여 일정 기간 동안 관리할 수 있다. 바람직하게, 상기 데이터 저장부(125)는 상기 비디오 데이터 및/또는 오디오 데이터의 시간 값(또는 타임스탬프)과 상기 센싱 데이터의 시간 값(또는 타임스탬프)을 기준으로 상기 비디오 데이터 및/또는 오디오 데이터의 시간과 상기 센싱 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장할 수 있다.On the other hand, according to the embodiment of the present invention, the control module of the camera device 180 is obtained through the camera module and encoded in a specified manner, in addition to video data and/or audio data obtained through the sound input unit and encoded in a specified manner. , when the acquired data that is sensed through the specified sensor module and further includes sensing data encoded in a specified manner is transmitted, the data receiving unit 120 receives the acquired data including the sensing data, and the data storage unit 125 ) can be managed for a certain period of time by linking and storing the video data and/or audio data of the received acquired data and the sensing data in a specific storage area of a designated storage medium. Preferably, the data storage unit 125 is configured to store the video data and/or audio data based on a time value (or timestamp) of the video data and/or audio data and a time value (or timestamp) of the sensing data. The time of the sensor may be synchronized with the time of the sensed data and stored in a specific storage area of a designated storage medium.
본 발명의 제1 아기 감정 상태 생성 실시예에 따르면, 상기 운영서버(100)는 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는 시점에 상기 송신 데이터에 포함되는 비디오 데이터 및/또는 상기 비디오 데이터와 연계된 데이터(예컨대, 오디오 데이터 및/또는 센싱 데이터 등)를 근거로 지정된 절차에 따라 각 감정 항목 별 아기 감정 상태 정보를 생성하여 상기 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공되는 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 실시간 표시되도록 처리할 수 있다. According to the first baby emotional state generation embodiment of the present invention, the operation server 100 includes video data stored in a specific storage area of the storage medium as an app or
한편 본 발명의 제2 아기 감정 상태 생성 실시예에 따르면, 상기 운영서버(100)는 지정된 저장매체의 특정 저장영역에 상기 카메라장치(180)로부터 수신된 획득 데이터가 저장된 후, 상기 저장매체의 특정 저장영역에 저장된 획득 데이터를 근거로 지정된 절차에 따라 각 감정 항목 별 아기 감정 상태 정보를 생성하여 상기 획득 데이터와 연계 저장하도록 처리할 수 있으며, 이 경우 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공 시 상기 송신 데이터의 비디오 데이터와 연계된 각 감정 항목 별 아기 감정 상태 정보가 상기 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 표시되도록 처리할 수 있다. Meanwhile, according to the second baby emotional state generation embodiment of the present invention, the operation server 100 stores the acquired data received from the camera device 180 in a specific storage area of a designated storage medium, Based on the acquired data stored in the storage area, baby emotional state information for each emotion item is generated according to a specified procedure and stored in association with the acquired data. In this case, the video data stored in a specific storage area of the storage medium can be stored. When provided to the app or
도면1을 참조하면, 상기 운영서버(100)는, 인공지능 기반의 감정상태 판별 정보를 통해 아기의 지정된 감정 항목 별 아기 감정 상태 값을 판별하는 경우, 상기 인공지능 기반의 감정상태 판별 정보를 통해 상기 카메라장치(180)를 통해 획득되는 비디오 데이터 및/또는 오디오 데이터를 판독하는 절차를 수행하여 지정된 감정 항목 별 아기 감정 상태 값을 판별하는 감정 상태 판별부(140)와, 상기 산출된 하나 이상의 아기 감정 상태 값을 이용하여 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 정보 생성부(145)를 포함한다. Referring to Figure 1, the operation server 100, when determining the baby emotional state value for each specified emotional item of the baby through the artificial intelligence-based emotional state determination information, through the artificial intelligence-based emotional state determination information an emotion state determination unit 140 that determines a baby emotional state value for each specified emotion item by performing a procedure of reading video data and/or audio data obtained through the camera device 180, and the calculated one or more babies and an information generating unit 145 for generating baby emotional state information for each designated emotional item by using the emotional state value.
상기 정보 관리부(105)를 통해 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하여 저장 관리하는 경우, 상기 감정 상태 판별부(140)는 상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목을 근거로 상기 비디오 데이터의 아기 표정에 대응하는 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값을 판별한다.When the information management unit 105 generates and stores and manages artificial intelligence-based expression-based emotional state determination information, the emotional state determination unit 140 provides a video designated through the artificial intelligence-based expression-based emotional state determination information. Based on the N1 (1≤N1≤N) baby emotion items that can be distinguished through the baby expression among the specified N (N≥2) baby emotion items by performing a data reading procedure, the video data corresponding to the baby expression The baby emotional state value for each n1 (1≤n1≤N1) emotion items is determined.
본 발명의 실시 방법에 따르면, 상기 감정 상태 판별부(140)는 상기 인공지능 기반의 표정 기반 감정상태 판별 정보에 대응하는 인공지능 알고리즘을 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 지정된 E개의 아기 표정 중 상기 비디오 데이터 상의 아기 안면 영역에 대응하는 e개의 아기 표정을 판별하고, 아기 표정을 통해 구별 가능한 N1개의 아기 감정 항목 중 상기 판별된 e개의 아기 표정과 매칭 관계를 지닌 n1개의 아기 감정 항목을 판별하고, 상기 확인된 e개의 아기 표정과 n1개의 아기 감정 항목 간 상관도에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별할 수 있다. According to the implementation method of the present invention, the emotional state determination unit 140 performs a procedure of reading specified video data through an artificial intelligence algorithm corresponding to the expression-based emotional state determination information based on the artificial intelligence, and thus designated E babies. Among the facial expressions, e baby facial expressions corresponding to the baby facial region on the video data are determined, and n1 baby emotion items having a matching relationship with the e determined baby expression items among the N1 baby emotion items that can be distinguished through the baby expression are selected. and determine the baby emotional state value for each n1 emotion items corresponding to the correlation between the identified e baby expressions and the n1 baby emotion items.
상기 정보 생성부(145)는 상기 판별된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성한다. 한편 본 발명의 제2 아기 감정 상태 생성 실시예에 따라 상기 저장매체의 특정 저장영역에 상기 획득 데이터가 저장된 후 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성된 경우, 상기 정보 생성부(145)는 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계하여 상기 저장매체의 특정 저장영역에 저장할 수 있다. The information generating unit 145 generates baby emotional state information for each of n (1≤n≤N) designated emotion items that can be displayed on video data by using the determined baby emotional state values for each of the n1 emotion items. Meanwhile, when the baby emotional state information for each of the n emotion items is generated after the acquired data is stored in a specific storage area of the storage medium according to the second baby emotional state generation embodiment of the present invention, the information generating unit 145 may store the generated baby emotional state information for each of the n emotion items in a specific storage area of the storage medium in association with the video data.
도면1을 참조하면, 상기 운영서버(100)는, 패턴 인식 기반의 감정상태 판별 정보를 통해 아기의 지정된 감정 항목 별 아기 감정 상태 값을 판별하는 경우, 지정된 거점의 카메라장치(180)를 통해 획득된 획득 데이터 중 적어도 하나의 데이터를 판독하여 아기의 감정을 판별하기 위한 지정된 인식 대상의 인식 정보를 인식하는 정보 인식부(130)와, 지정된 감정상태 판별 정보를 근거로 상기 인식된 인식 정보와 기 설정된 기준 유사도 이상 매칭된 지정된 인식 대상의 패턴 정보를 확인하고 상기 확인된 패턴 정보와 매칭 관계를 지닌 하나 이상의 아기 감정 항목을 판별하는 정보 판별부(135)와, 상기 인식 정보와 패턴 정보 간 매칭 비율을 근거로 상기 패턴 정보와 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식 정보에 대응하는 하나 이상의 감정 항목 별 아기 감정 상태를 수치화한 감정 항목 별 아기 감정 상태 값을 판별하는 감정 상태 판별부(140)와, 상기 산출된 하나 이상의 아기 감정 상태 값을 이용하여 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하는 정보 생성부(145)를 포함한다. Referring to Figure 1, when the operation server 100 determines the baby's emotional state value for each designated emotional item through the pattern recognition-based emotional state determination information, it is acquired through the camera device 180 of the designated base. The information recognition unit 130 for recognizing recognition information of a designated recognition target for determining the baby's emotion by reading at least one of the acquired data, and the recognized recognition information and An information determining unit 135 that identifies pattern information of a designated recognition target matched with a set standard similarity or higher and determines one or more baby emotion items having a matching relationship with the identified pattern information, and a matching ratio between the recognition information and the pattern information An emotional state determination unit that reads the correlation numerical relationship between the pattern information and the baby emotion items based on , and determines the baby emotional state value for each emotion item that digitizes the baby emotional state for one or more emotion items corresponding to the recognition information ( 140), and an information generating unit 145 for generating baby emotional state information for each designated emotional item by using the calculated one or more baby emotional state values.
상기 정보 인식부(130)는 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f(1≤f≤F)개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i(i≥1)개의 아기 표정 인식 정보를 인식한다. The information recognition unit 130 reads the designated video data and recognizes f (1≤f≤F) feature points for a specific baby's facial region within the base, and among the recognized f feature points, associated with the baby's emotional expression Recognize i (i≥1) pieces of baby expression recognition information corresponding to geometric relationships between feature points.
본 발명의 실시 방법에 따르면, 상기 지정된 비디오 데이터는 지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터, 지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함할 수 있다.According to the embodiment of the present invention, the designated video data may include at least one of video data periodically selected for each designated playback time unit and video data periodically selected for each designated number of playback frames.
본 발명의 제1 아기 감정 상태 생성 실시예의 경우, 상기 정보 인식부(130)는 상기 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(170)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(175)로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인한다. 만약 상기 사용자 무선단말(170)의 앱이나 IPTV(175)로 상기 송신 데이터를 제공하는 경우, 상기 정보 인식부(130)는 상기 송신 데이터의 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식할 수 있다. In the case of the first baby emotional state generation embodiment of the present invention, the information recognition unit 130 is an app of the user wireless terminal 170 corresponding to the unique identification information stored in the management D/B or stored in the management D/B. It is checked whether transmission data including video data stored in a specific storage area of the storage medium is provided to the
한편 본 발명의 제2 아기 감정 상태 생성 실시예의 경우, 상기 정보 인식부(130)는 상기 카메라장치(180)로부터 수신된 획득 데이터가 상기 저장매체의 특정 저장영역에 저장된 후 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터 중 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식할 수 있다. Meanwhile, in the case of the second baby emotional state generation embodiment of the present invention, the information recognition unit 130 stores the acquired data received from the camera device 180 in a specific storage area of the storage medium and then stores the specific storage medium in the storage medium. Reading the designated video data among the video data stored in the area, while recognizing the f feature points for the facial region of a specific baby in the base, i number corresponding to the geometric relationship between the feature points related to the emotional expression of the baby among the recognized f feature points It can recognize baby's facial expression recognition information.
상기 정보 인식부(130)를 통해 i개의 아기 표정 인식 정보가 인식되면, 상기 정보 판별부(135)는 상기 운영D/B에 저장된 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e(1≤e≤E)개의 아기 표정 패턴 정보를 확인한다. 만약 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e개의 아기 표정 패턴 정보가 확인되면, 상기 정보 판별부(135)는 상기 확인된 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별한다. When i baby facial expression recognition information is recognized through the information recognition unit 130, the information determining unit 135 is configured to recognize the i baby facial expressions based on the facial expression-based emotional state determination information stored in the operation D/B. Check the facial expression pattern information of e (1≤e≤E) babies matching the recognition information and the preset standard similarity. If e pieces of baby expression pattern information matched with the recognized i baby expression recognition information and a preset level of similarity or more are identified, the information determining unit 135 has a matching relationship with the identified e baby expression pattern information. n1 (1≤n1≤N1) baby emotion items are identified.
상기 정보 판별부(135)를 통해 i개의 아기 표정 인식 정보에 대응하는 n1개의 아기 감정 항목이 판별되면, 상기 감정 상태 판별부(140)는 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 판별하고, 상기 정보 생성부(145)는 상기 판별된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성한다. When the n1 baby emotion items corresponding to the i baby expression recognition information are determined through the information determining unit 135, the emotional state determining unit 140 determines the i baby expression recognition information and the e babies. Based on the matching ratio between the expression pattern information, the correlation numerical relationship between the e baby expression pattern information and n1 baby emotion items is read, and the baby emotional state for each n1 emotion items corresponding to the recognized i baby expression recognition information is read. Determines the baby emotional state value for each n1 emotional item that digitizes , and the information generating unit 145 uses the determined baby emotional state value for each n1 emotional item to display a designated n (1≤1) that can be displayed on the video data. Generates baby emotional state information for each n≤N) emotional items.
한편 본 발명의 제2 아기 감정 상태 생성 실시예에 따라 상기 저장매체의 특정 저장영역에 상기 획득 데이터가 저장된 후 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성된 경우, 상기 정보 생성부(145)는 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계하여 상기 저장매체의 특정 저장영역에 저장할 수 있다. Meanwhile, when the baby emotional state information for each of the n emotion items is generated after the acquired data is stored in a specific storage area of the storage medium according to the second baby emotional state generation embodiment of the present invention, the information generating unit 145 may store the generated baby emotional state information for each of the n emotion items in a specific storage area of the storage medium in association with the video data.
한편 상기 정보 관리부(105)를 통해 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하여 저장 관리하는 경우, 상기 감정 상태 판별부(140)는 상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 통해 지정된 오디오 데이터를 판독하는 절차를 수행하여 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목을 근거로 상기 오디오 데이터의 아기 울음소리에 대응하는 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값을 판별할 수 있다. On the other hand, when the information management unit 105 generates and stores and manages artificial intelligence-based cry-based emotional state determination information, the emotional state determination unit 140 collects the artificial intelligence-based cry-based emotional state determination information. Based on the N2 (1≤N2≤N) baby emotion items that can be distinguished through the cry of a baby among the N (N≥2) specified baby emotion items by performing a procedure of reading the specified audio data through the It is possible to determine the baby emotional state value for each n2 (1≤n2≤N2) emotion items corresponding to the cry.
본 발명의 실시 방법에 따르면, 상기 감정 상태 판별부(140)는 상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보에 대응하는 인공지능 알고리즘을 통해 지정된 오디오 데이터를 판독하는 절차를 수행하여 지정된 C개의 아기 울음소리 중 상기 오디오 데이터 상의 아기 울음에 대응하는 c개의 아기 울음소리를 판별하고, 아기 울음소리를 통해 구별 가능한 N2개의 아기 감정 항목 중 상기 판별된 c개의 아기 울음소리와 매칭 관계를 지닌 n2개의 아기 감정 항목을 판별하고, 상기 확인된 c개의 아기 울음소리와 n2개의 아기 감정 항목 간 상관도에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별할 수 있다. According to the implementation method of the present invention, the emotional state determination unit 140 performs a procedure of reading the specified audio data through an artificial intelligence algorithm corresponding to the artificial intelligence-based cry-based emotional state determination information, and thus the designated C pieces Among the baby cries, c baby cries corresponding to the baby cries on the audio data are determined, and n 2 baby cries have a matching relationship with the determined c baby cries among the N2 baby emotion items that can be distinguished through the baby cries. It is possible to determine the baby emotion items, and determine the baby emotional state values for each n2 emotion items corresponding to the correlation between the identified c baby cry sounds and the n2 baby emotion items.
한편 상기 정보 관리부(105)를 통해 상기 운영D/B에 패턴 인식 기반의 울음소리 기반 감정상태 판별 정보가 저장된 경우, 상기 정보 인식부(130)는 상기 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 아기에 대한 j(j≥1)개의 아기 울음소리 인식 정보를 인식할 수 있다.On the other hand, when pattern recognition-based cry-based emotional state determination information is stored in the operation D/B through the information management unit 105, the information recognition unit 130 provides audio data of a predetermined section associated with the video data. It is possible to recognize j (j≥1) pieces of baby cry recognition information for the specific baby by reading .
상기 정보 인식부(130)를 통해 j개의 아기 울음소리 인식 정보가 인식되면, 상기 정보 판별부(135)는 상기 운영D/B에 저장된 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c(1≤c≤C)개의 아기 울음소리 패턴 정보를 확인한다. 만약 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c개의 아기 울음소리 패턴 정보가 확인되면, 상기 정보 판별부(135)는 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별한다. When j baby cry recognition information is recognized through the information recognizing unit 130, the information determining unit 135 is configured to recognize the j recognized cries based on the crying sound-based emotional state determination information stored in the operation D/B. Check the c (1≤c≤C) baby cry pattern information that matches the baby cry recognition information and the preset standard similarity level or more. If the recognized j pieces of baby cry recognition information and the c pieces of baby cry pattern information matching the preset reference similarity or more are identified, the information determining unit 135 matches the identified c baby cry pattern information Identify n2 (1≤n2≤N2) baby emotion items that have a relationship.
상기 정보 판별부(135)를 통해 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 아기 감정 항목이 판별되면, 상기 감정 상태 판별부(140)는 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 판별하고, 상기 정보 생성부(145)는 상기 판별된 n2개의 감정 항목 별 아기 감정 상태 값을 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. When the n2 baby emotion items corresponding to the j baby cry recognition information are determined through the information determining unit 135, the emotional state determining unit 140 determines the recognized j number of baby cry recognition information and the c Based on the matching ratio between the baby cry pattern information, n2 emotions corresponding to the recognized j pieces of baby cry recognition information by reading the correlation numerical relationship between the c baby cry pattern information and n2 baby emotion items The baby emotional state values for each n2 emotional items obtained by digitizing the baby emotional states for each item are determined, and the information generating unit 145 uses (additionally) the determined n baby emotional state values for each of the n2 emotional items. It is possible to generate baby emotional state information for each emotion item.
본 발명의 실시 방법에 따르면, 상기 n1개의 감정 항목 별 아기 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(145)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 산출된 n2개의 감정 항목 별 아기 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 'n1개의 감정 항목 별 아기 감정 상태 값 ∩ n2개의 감정 항목 별 아기 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. According to the embodiment of the present invention, when the baby emotional state values for each of the n1 emotion items have been previously calculated, the information generating unit 145 is configured to include the calculated baby emotional state values for each of the n1 emotion items and the calculated n2 emotions. Baby emotional state information for each of the n designated emotion items may be generated by combining the baby emotional state values for each emotion item. Preferably, the baby emotional state information for each n emotion items is a union relationship of 'baby emotional state values for n1 emotion items ∩ baby emotional state values for n2 emotion items', or a subset relationship of the union. .
한편 상기 n1개의 감정 항목 별 아기 감정 상태 값과 n2개의 감정 항목 별 아기 감정 상태 값을 조합하여 n개의 감정 항목 별 아기 감정 상태 정보를 생성 시, 상기 정보 생성부(145)는 상기 n1개의 감정 항목과 n2개의 감정 항목 중 중복되는 감정 항목에 대하여 각 아기 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 울음소리 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 아기 감정 상태 정보를 생성할 수 있다. On the other hand, when generating baby emotional state information for each n emotion items by combining the baby emotional state value for each n1 emotion item and the baby emotional state value for each n2 emotion item, the information generating unit 145 generates the n1 emotion items Among the n2 emotion items, the specified statistical calculation for each baby's emotional state value (for example, the calculation of average value) or the correlation between the emotion item and the expression or cry is assigned to the designated recognition target for overlapping emotion items. Through weighted statistical calculation, baby emotional state information of the overlapping emotion items may be generated.
한편 상기 정보 관리부(105)를 통해 상기 운영D/B에 상기 센싱 기반 감정상태 판별 정보가 저장되고, 상기 저장매체의 특정 저장영역에 비디오 데이터 및/또는 오디오 데이터와 상기 카메라장치(180)에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터가 연계 저장된 경우, 상기 정보 인식부(130)는 상기 비디오 데이터 ??/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식할 수 있다.Meanwhile, the sensing-based emotional state determination information is stored in the operation D/B through the information management unit 105, and video data and/or audio data are provided in a specific storage area of the storage medium and the camera device 180 or when the sensed data sensed through the associated sensor module is stored in association, the information recognition unit 130 reads the sensing data associated with the video data ??/or audio data to read the sensing data associated with the emotional expression of the specific baby. It is possible to recognize k (k≥1) pieces of sensing value recognition information for the sensing data of the sensing target.
한편 상기 정보 인식부(130)를 통해 k개의 센싱 값 인식 정보가 인식되면, 상기 정보 판별부(135)는 상기 운영D/B에 저장된 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인한다. 만약 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s개의 센싱 값 패턴 정보가 화긴되면, 상기 정보 판별부(135)는 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별한다. On the other hand, when the k sensed value recognition information is recognized through the information recognition unit 130, the information determining unit 135 performs the k sensed sensing values based on the sensing-based emotional state determination information stored in the operation D/B. Check the value recognition information and s (1≤s≤S) sensed value pattern information that matches the preset reference similarity or more. If the recognized k sensed value recognition information and the s sensed value pattern information matched with more than a preset reference similarity are matched, the information determining unit 135 has a matching relationship with the identified s sensed value pattern information n3 (1≤n3≤N3) baby emotion items are identified.
상기 정보 판별부(135)를 통해 k개의 센싱 값 인식 정보에 대응하는 n3개의 아기 감정 항목이 판별되면, 상기 감정 상태 판별부(140)는 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 판별하고, 상기 정보 생성부(145)는 상기 판별된 n3개의 감정 항목 별 아기 감정 상태 값을 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. When the n3 baby emotion items corresponding to the k sensed value recognition information are determined through the information determining unit 135 , the emotional state determining unit 140 sets the k sensed value recognition information and the s sensing values. Based on the matching ratio between the value pattern information, the correlation numerical relationship between the s sensed value pattern information and the n3 baby emotion items is read, and the baby emotional state for each n3 emotion items corresponding to the recognized k sensed value recognition information. Determines the baby emotional state value for each n3 emotion items digitized, and the information generating unit 145 uses (additionally) the baby emotional state value for each of the n3 emotion items determined to determine the baby emotion for each of the n emotion items. You can create status information.
본 발명의 실시 방법에 따르면, 상기 n1개의 감정 항목 별 아기 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(145)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 k개의 센싱 값 인식 정보를 근거로 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 'n1개의 감정 항목 별 아기 감정 상태 값 ∩ n3개의 감정 항목 별 아기 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. According to the implementation method of the present invention, when the baby emotional state values for each of the n1 emotion items have been previously calculated, the information generator 145 is configured to generate the baby emotional state values for each of the calculated n1 emotion items and the k sensed values. Baby emotional state information for each of the n designated emotion items may be generated by combining the baby emotional state values for each n3 emotion items calculated based on the recognition information. Preferably, the baby emotional state information for each n emotion items is a union relationship of 'baby emotional state values for n1 emotion items ∩ baby emotional state values for n3 emotion items', or a subset relationship of the union. .
한편 상기 n1개의 감정 항목 별 아기 감정 상태 값과 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 n개의 감정 항목 별 아기 감정 상태 정보를 생성 시, 상기 정보 생성부(145)는 상기 n1개의 감정 항목과 n3개의 감정 항목 중 중복되는 감정 항목에 대하여 각 아기 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 지정된 센싱 대상의 센싱 값 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 아기 감정 상태 정보를 생성할 수 있다. On the other hand, when generating baby emotional state information for each n emotion items by combining the baby emotional state value for each n1 emotion item and the baby emotional state value for each n3 emotion item, the information generating unit 145 generates the n1 emotion items and n3 emotion items, designated according to a specified statistical calculation for each baby’s emotional state value (for example, an average value calculation calculation) or a correlation between the emotion item and the facial expression or the sensing value of the specified sensing target for overlapping emotion items It is possible to generate baby emotional state information of the overlapping emotion item through statistical calculation in which a specified weight is given to a recognition target.
한편 본 발명의 실시 방법에 따르면, 상기 n1개의 감정 항목 별 아기 감정 상태 값과 상기 j개의 아기 울음소리 인식 정보를 n2개의 감정 항목 별 아기 감정 상태 값이 기 산출된 경우, 상기 정보 생성부(145)는 상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 산출된 n2개의 감정 항목 별 아기 감정 상태 값 및 상기 k개의 센싱 값 인식 정보를 근거로 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다. 바람직하게, 상기 n개의 감정 항목 별 아기 감정 상태 정보는 'n1개의 감정 항목 별 아기 감정 상태 값 ∩ n2개의 감정 항목 별 아기 감정 상태 값 ∩ n3개의 감정 항목 별 아기 감정 상태 값'의 합집합 관계이거나, 또는 상기 합집합의 부분집합 관계일 수 있다. Meanwhile, according to the embodiment of the present invention, when the baby emotional state value for each n1 emotion item and the baby emotional state value for each n2 emotion items for the j baby cry recognition information are pre-calculated, the information generating unit 145 ) is the calculated baby emotional state value for each n1 emotion item, the calculated baby emotional state value for each n2 emotion item, and the baby emotional state value for each n3 emotion item calculated based on the k sensed value recognition information By combining, it is possible to generate baby emotional state information for each of the n specified emotional items. Preferably, the baby emotional state information for each of the n emotion items is a union relationship of 'Baby emotional state value for each n1 emotion item ∩ Baby emotional state value for each n2 emotion item ∩ Baby emotional state value for each n3 emotion item', Alternatively, it may be a subset relation of the union.
한편 상기 n1개의 감정 항목 별 아기 감정 상태 값과 n2개의 감정 항목 별 아기 감정 상태 값 및 n3개의 감정 항목 별 아기 감정 상태 값 등을 조합하여 n개의 감정 항목 별 아기 감정 상태 정보를 생성 시, 상기 정보 생성부(145)는 상기 n1개의 감정 항목과 n2개의 감정 항목 및 n3개의 감정 항목 중 중복되는 감정 항목에 대하여 각 아기 감정 상태 값에 대한 지정된 통계 연산(예컨대, 평균 값 산출 연산)이나 해당 감정 항목과 표정 또는 울음소리 또는 지정된 센싱 대상의 센싱 값 사이의 상관 관계에 따라 지정된 인식 대상에 지정된 가중치를 부여한 통계 연산을 통해 상기 중복되는 감정 항목의 아기 감정 상태 정보를 생성할 수 있다. Meanwhile, when generating baby emotional state information for each n emotion item by combining the baby emotional state value for each n1 emotion item, the baby emotional state value for each n2 emotion item, and the baby emotional state value for each n3 emotion item, the information The generating unit 145 is configured to perform a specified statistical calculation (eg, average value calculation) for each baby's emotional state value with respect to the overlapping emotion items among the n1 emotion items, n2 emotion items, and n3 emotion items or corresponding emotion items. Baby emotional state information of the overlapping emotion items may be generated through statistical calculation in which a specified weight is given to a specified recognition target according to a correlation between an expression and a cry or a sensing value of a specified sensing target.
도면1을 참조하면, 상기 운영서버(100)는, 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시하는 정보 적용부(150)와, 상기 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 데이터 제공부(155)를 포함한다.Referring to Figure 1, the operation server 100, the information application unit 150 for displaying the baby emotional state information for each of the generated n emotion items in a specified area on the video data, including the video data and a data providing unit 155 that provides transmission data to the app of the user wireless terminal 170 or to the
상기 정보 생성부(145)를 통해 생성되는 n개의 감정 항목 별 아기 감정 상태 정보는 n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 문자 형태로 포함하는 문자 형태의 감정 항목 별 아기 감정 상태 정보를 포함할 수 있다. 또는 상기 정보 생성부(145)를 통해 생성되는 n개의 감정 항목 별 아기 감정 상태 정보는 n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 그래프 형태로 포함하는 그래프 형태의 감정 항목 별 아기 감정 상태 정보를 포함할 수 있다. The baby emotional state information for each n emotion items generated by the information generating unit 145 includes n emotion item information and numerical information of the baby's emotional state for each emotion item in text form. It may include emotional state information. Alternatively, the baby emotional state information for each of the n emotion items generated through the information generating unit 145 is a graph-type emotion item that includes n emotion item information and numerical information of the baby’s emotional state for each emotion item in a graph form. Baby emotional state information may be included.
상기 정보 적용부(150)는 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공될 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 정보 생성부(145)를 통해 생성된 n개의 감정 항목 별 아기 감정 상태 정보(예컨대, 문자 형태의 감정 항목 별 아기 감정 상태 정보, 또는 그래프 형태의 감정 항목 별 아기 감정 상태 정보 등)를 표시할 수 있다. The information application unit 150 is the n emotion items generated through the information generation unit 145 in a specified area on the video data of the transmission data to be provided to the app or
상기 데이터 제공부(155)는 상기 n개의 감정 항목 별 아기 감정 상태 정보를 지정된 영역에 표시한 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하며, 상기 사용자 무선단말(170)의 앱이나 IPTV(175)는 상기 송신 데이터를 수신하여 출력할 수 있다. 바람직하게, 상기 송신 데이터는 상기 n개의 감정 항목 별 아기 감정 상태 정보를 지정된 영역에 표시한 비디오 데이터 외에 오디오 데이터를 더 포함할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The data providing unit 155 provides transmission data including video data in which the baby emotional state information for each of the n emotion items is displayed in a designated area to the app or
도면2는 본 발명의 실시 방법에 따른 정보 저장/등록 과정을 도시한 도면이다.2 is a diagram illustrating an information storage/registration process according to an embodiment of the present invention.
보다 상세하게 본 도면2는 지정된 각 감정 항목 별 아기 감정 상태 정보를 생성하기 위한 지정된 인식 대상(예컨대, 아기 표정, 아기 울음소리, 지저된 센서모듈을 통해 아깅의 지정된 센싱 대사을 센싱한 센싱 값 등) 별 감정상태 판별 정보를 저장하거나, 지정된 거점에 구비된 카메라장치(180)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(180)를 매핑하는 정보를 등록받아 지정된 관리D/B에 저장하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 2 shows a designated recognition target for generating baby emotional state information for each designated emotional item (eg, a baby expression, a baby cry, a sensing value sensing a specified sensing line of Aging through a grounded sensor module, etc.) Storing individual emotional state determination information or mapping the camera device 180 with a target to be provided with transmission data including video data of a specific baby in the base through the camera device 180 provided at the designated base As shows a process of registering information and storing it in a designated management D/B, those of ordinary skill in the art to which the present invention pertains may refer to and/or modify this figure 2 to various implementation methods for the above process (For example, an implementation method in which some steps are omitted or the order is changed) may be inferred, but the present invention includes all implementation methods inferred above, and the technical characteristics of the implementation method shown in FIG. This is not limited.
도면2를 참조하면, 상기 운영서버(100)는 아기의 감정 상태를 판별하기 위해 인식하도록 적어도 하나의 지정된 인식 대상(예컨대, 아기 표정, 아기 울음소리, 지저된 센서모듈을 통해 아깅의 지정된 센싱 대사을 센싱한 센싱 값 등) 별 감정상태 판별 정보를 지정된 저장영역이나 운영D/B에 저장하여 관리한다(200). 본 발명의 실시 방법에 따르면, 상기 인식 대상 별 감정상태 판별 정보는 인공지능 기반의 감정상태 판별 정보를 포함하거나 및/또는 패턴 인식 기반의 감정상태 판별 정보를 포함할 수 있다. Referring to Figure 2, the operation server 100 recognizes at least one designated recognition target (eg, baby expression, baby cry, and the specified sensing dialogue of Aging through a sensor module) to recognize in order to determine the emotional state of the baby. The sensed value, etc.) is stored and managed in a designated storage area or operation D/B for each emotional state determination information (200). According to the embodiment of the present invention, the emotional state determination information for each recognition target may include artificial intelligence-based emotional state determination information and/or pattern recognition-based emotional state determination information.
도면2를 참조하면, 상기 운영서버(100)는 지정된 거점에 구비된 카메라장치(180)를 통해 상기 거점 내의 특정 아기를 촬영한 비디오 데이터를 포함하는 송신 데이터를 제공받을 대상과 상기 카메라장치(180)를 매핑하기 위해 사용자 무선단말(170)의 앱으로부터 사용자에 대한 사용자정보, 상기 사용자에게 제공/공급된 카메라장치(180)를 고유 식별하는 카메라장치(180)정보, 상기 사용자 무선단말(170)의 앱을 고유 식별하는 고유식별정보 및 상기 사용자가 설정한 ID/PW정보 등을 지정된 절차에 따라 매핑 등록 요청할 수 있으며(205), 상기 운영서버(100)는 상기 사용자 무선단말(170)의 앱으로부터 상기 사용자정보, 카메라장치(180)정보, 고유식별정보 및 ID/PW정보 등을 지정된 절차에 따라 수신하고(210), 상기 사용자정보, 카메라장치(180)정보, 고유식별정보 및 ID/PW정보 등을 지정된 관리Dd/B에 연계 저장한다(215). 한편 실시 방법에 따라 상기 사용자정보와 카메라장치(180)정보 및 ID/PW정보 등은 상기 카메라장치(180)를 구매하거나 공급받는 사용자가 이용하는 사용자단말이나 상기 사용자의 가입신청서를 접수한 지정된 등록단말을 통해 등록될 수 있다.Referring to FIG. 2 , the operation server 100 includes a target and the camera device 180 to receive transmission data including video data of a specific baby in the base through the camera device 180 provided at the designated base. ) to map the user information about the user from the app of the user wireless terminal 170, the camera device 180 information uniquely identifying the camera device 180 provided/supplied to the user, the user wireless terminal 170 The unique identification information for uniquely identifying the app of the user and the ID/PW information set by the user can be requested for mapping registration according to a specified procedure (205), and the operation server 100 is the app of the user wireless terminal 170. The user information, camera device 180 information, unique identification information and ID/PW information are received from the user according to a specified procedure (210), and the user information, camera device 180 information, unique identification information, and ID/PW information are received (210). Information and the like are linked and stored in the designated management Dd/B (215). Meanwhile, according to the implementation method, the user information, camera device 180 information, ID/PW information, etc. are a user terminal used by a user who purchases or is supplied with the camera device 180 or a designated registered terminal that has received the user's subscription application can be registered through
도면3은 본 발명의 실시 방법에 따라 지정된 거점의 카메라장치(180)를 통해 획득한 획득 데이터를 전송하여 지정된 저장매체에 저장 관리하는 도시한 도면이다.3 is a diagram illustrating storage and management of the acquired data acquired through the camera device 180 of a designated base according to an embodiment of the present invention and stored in a designated storage medium.
보다 상세하게 본 도면3은 지정된 거점에 구비된 카메라장치(180)의 카메라모듈을 통해 획득한 비디오 데이터를 포함하는 획득 데이터를 운영서버(100)로 전송하여 지정된 저자매체의 특정 저장영역에 저장하여 관리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면3을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면3에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, this figure 3 shows that the acquired data including the video data acquired through the camera module of the camera device 180 provided at the designated base is transmitted to the operation server 100 and stored in a specific storage area of the designated author media. As an illustration of the management process, those of ordinary skill in the art to which the present invention pertains, refer to and/or modify FIG. 3 and various implementation methods for the process (eg, some steps are omitted, or implementation method in which the order is changed), but the present invention is made including all the inferred implementation methods, and the technical characteristics are not limited only to the implementation method shown in FIG. 3 .
도면3을 참조하면, 상기 카메라장치(180)는 동작을 위한 전원 공급이 확인되면(300), 지정된 절차에 따라 통신모듈을 통해 지정된 운영서버(100)와 지정된 하나 이상의 정보를 교환하여 통신 연결을 요청하며(305), 상기 운영서버(100)는 상기 카메라장치(180)와 지정된 정보를 교환하여 상기 카메라장치(180)의 유효성을 인증한 경우(310), 상기 카메라장치(180)와 통신 연결하고(315), 이에 대응하여 상기 카메라장치(180)로 상기 운영서버(100)와 통신이 연결된다(315).Referring to FIG. 3, when the power supply for operation is confirmed (300), the camera device 180 exchanges one or more specified information with a designated operation server 100 through a communication module according to a designated procedure to establish a communication connection. When requesting (305), the operation server 100 authenticates the validity of the camera device 180 by exchanging specified information with the camera device 180 (310), communication connection with the camera device 180 and (315), and correspondingly, communication with the operation server 100 is connected to the camera device 180 (315).
한편 상기 운영서버(100)는 상기 카메라장치(180)를 통해 획득된 획득 데이터를 수신하기 위한 일회용주소정보를 동적 생성하고(320), 상기 카메라장치(180)로 상기 생성된 일회용주소정보를 제공하며(325), 상기 카메라장치(180)는 상기 운영서버(100)로부터 상기 일회용주소정보를 수신하고(330), 상기 수신된 일회용주소정보를 상기 획득 데이터를 전송할 목적지 주소로 설정할 수 있으며(335), 상기의 일회용주소정보 생성 내지 목적지 주소로 설정하는 과정은 주기적으로(예컨대, 30초 단위) 반복될 수 있다. Meanwhile, the operation server 100 dynamically generates ( 320 ) one-time address information for receiving the acquired data acquired through the camera device 180 , and provides the generated one-time address information to the camera device 180 . and (325), the camera device 180 may receive the one-time address information from the operation server 100 (330), and set the received one-time address information as a destination address to transmit the acquired data (335). ), the process of generating the one-time address information or setting the destination address may be repeated periodically (eg, every 30 seconds).
한편 상기 카메라장치(180)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 비디오 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Meanwhile, the camera device 180 may acquire video data of a baby in a designated base through the camera module ( 340a ), and transmit the acquired data including the video data to a designated destination address ( 345 ).
또는 상기 카메라장치(180)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 사운드 입력부를 통해 상기 거점 내의 오디오 데이터를 획득한 후(340b), 상기 비디오 데이터와 오디오 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 180 acquires video data of a baby in a designated base through the camera module (340a), and after acquiring audio data in the base through the sound input unit (340b), the video data and the acquired data including audio data may be transmitted to a designated destination address ( 345 ).
또는 상기 카메라장치(180)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 센서모듈을 통해 아기의 지정된 센싱 대상을 센싱한 센싱 데이터를 획득한 후(340c), 상기 비디오 데이터와 센싱 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 180 acquires video data of a baby in a designated base through the camera module (340a), and after acquiring sensing data sensing a designated sensing target of the baby through the sensor module (340c) ), the acquired data including the video data and the sensing data may be transmitted to a designated destination address ( 345 ).
또는 상기 카메라장치(180)는 상기 카메라모듈을 통해 지정된 거점 내의 아기를 촬영한 비디오 데이터를 획득하고(340a), 상기 사운드 입력부를 통해 상기 거점 내의 오디오 데이터를 획득하고(340b), 상기 센서모듈을 통해 아기의 지정된 센싱 대상을 센싱한 센싱 데이터를 획득한 후(340c), 상기 비디오 데이터와 오디오 데이터 및 센싱 데이터를 포함하는 획득 데이터를 지정된 목적지 주소로 전송할 수 있다(345). Alternatively, the camera device 180 acquires video data of a baby in a designated base through the camera module (340a), acquires audio data in the base through the sound input unit (340b), and uses the sensor module After acquiring the sensing data for sensing the baby's designated sensing target ( 340c ), the acquired data including the video data, the audio data, and the sensing data may be transmitted to the designated destination address ( 345 ).
상기 운영서버(100)는 상기 카메라장치(180)로부터 적어도 비디오 데이터를 포함하는 획득 데이터를 수신하고(350), 상기 수신된 획득 데이터(또는 획득 데이터에 포함된 각각의 데이터)를 지정된 저장매체의 특정 저장영역에 저장하여 관리한다(355).The operation server 100 receives the acquired data including at least video data from the camera device 180 (350), and stores the received acquired data (or each data included in the acquired data) of a designated storage medium. It is stored and managed in a specific storage area (355).
도면4는 본 발명의 제1 실시 방법에 따라 지정 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.4 is a diagram illustrating transmission data including video data indicating baby emotional state information for each designated emotion item according to the first embodiment of the present invention.
보다 상세하게 본 도면4는 지정된 비디오 데이터를 판독하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한 후 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 4 is a video in which baby emotional state information for each of the n emotion items is generated by reading the designated video data, and then the baby emotional state information for each of the n emotion items is displayed in a designated area on the video data. As showing a process of providing transmission data including data to the app of the user wireless terminal 170 or the
도면4를 참조하면, 상기 도면2의 과정을 통해 인공지능 기반의 표정 기반 감정상태 판별 정보를 생성하여 저장한 경우, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(180)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 상기 운영서버(100)는 상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 상기 비디오 데이터의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별한다(a00). Referring to FIG. 4, when artificial intelligence-based expression-based emotional state determination information is generated and stored through the process of FIG. 2, video data stored in a specific storage area of the storage medium designated through the process of FIG. 3 is included. video data acquired through the camera device 180 in a specific storage area of a storage medium designated through the process of FIG. 3 or at the time of providing transmission data to the designated user's wireless terminal 170's app or
한편 상기 도면2의 과정을 통해 패턴 인식 기반의 표정 기반 감정상태 판별 정보를 생성하여 저장한 경우, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(180)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 상기 운영서버(100)는 지정된 비디오 데이터를 판독하여 상기 거점 내의 특정 아기의 안면 영역에 대한 f개의 특징점을 인식하면서 상기 인식된 f개의 특징점 중 아기의 감정 표현과 연관된 특징점 간 기하학 관계에 대응하는 i개의 아기 표정 인식 정보를 인식한다(400). On the other hand, when the expression-based emotional state determination information based on pattern recognition is generated and stored through the process of FIG. 2, transmission data including video data stored in a specific storage area of the storage medium designated through the process of FIG. 3 is designated. Acquisition data including the video data acquired through the camera device 180 in a specific storage area of a storage medium designated through the process of FIG. 3 or at the time provided by the app of the user wireless terminal 170 or the
만약 상기 비디오 데이터를 근거로 i개의 아기 표정 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 표정 기반 감정상태 판별 정보를 근거로 상기 인식된 i개의 아기 표정 인식 정보와 기 설정된 기준 유사도 이상 매칭된 e개의 아기 표정 패턴 정보를 확인하고(405), 상기 e개의 아기 표정 패턴 정보와 매칭 관계를 지닌 n1개의 아기 감정 항목을 판별한다(410).If the facial expression recognition information of i babies is recognized based on the video data, the operation server 100 determines the recognized i based on the expression-based emotional state determination information stored in the operation D/B through the process of FIG. 2 . The e number of baby expression pattern information matched with the baby expression recognition information and a preset level of similarity or more is checked (405), and n1 baby emotion items having a matching relationship with the e baby expression pattern information are determined (410).
만약 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 아기 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 i개의 아기 표정 인식 정보와 상기 e개의 아기 표정 패턴 정보 간 매칭 비율을 근거로 상기 e개의 아기 표정 패턴 정보와 n1개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 i개의 아기 표정 인식 정보에 대응하는 n1개의 감정 항목 별 아기 감정 상태를 수치화한 n1개의 감정 항목 별 아기 감정 상태 값을 판별한다(415). If n1 baby emotion items corresponding to the recognized i baby expression recognition information are determined, the operation server 100 determines a matching ratio between the recognized i baby expression recognition information and the e baby expression pattern information. Based on the basis, n1 emotion items obtained by reading the numerical relationship of correlation between the e baby expression pattern information and n1 baby emotion items to quantify the baby emotional state for each n1 emotion items corresponding to the recognized i baby expression recognition information A star baby emotional state value is determined (415).
만약 상기 n1개의 감정 항목 별 아기 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 판별된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한다(420).If the baby emotional state values for each of the n1 emotional items are calculated, the operation server 100 uses the determined baby emotional state values for each of the n1 emotional items to display the baby for each of the n designated emotional items on the video data. Generates emotional state information (420).
만약 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(170)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(175)로 제공할 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시하고(425), 상기 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 상기 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하며(430), 상기 사용자 무선단말(170)의 앱이나 IPTV(175)는 상기 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(435). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the baby emotional state information for each of the n emotion items is generated, the operation server 100 is an app of the user wireless terminal 170 corresponding to the unique identification information stored in the management D/B through the process of FIG. 2 or the Display the baby emotional state information for each of the n emotion items in a designated area on the video data of the transmission data to be provided to the
도면5는 본 발명의 제2 실시 방법에 따라 지정 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.5 is a diagram illustrating transmission data including video data indicating baby emotional state information for each designated emotional item according to the second embodiment of the present invention.
보다 상세하게 본 도면5는 지정된 비디오 데이터와 연계된 오디오 데이터를 판독하여 인식된 아기 울음소리 인식 정보를 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한 후 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 5 shows baby emotional state information for each n emotion items specified by reading the audio data associated with the specified video data and using (additional) the recognized baby cry recognition information, and then a specified schedule on the video data. It shows the process of providing transmission data including video data displaying the baby emotional state information for each of the n emotion items generated in the area to the app of the user wireless terminal 170 or the
도면5를 참조하면, 상기 도면2의 과정을 통해 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 생성하여 저장한 경우, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(180)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 아기 표정 인식 기반의 n1개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터와 연계된 오디오 데이터를 판독하는 절차를 수행하여 상기 오디오 데이터의 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 값을 판별한다(b00). Referring to FIG. 5, when artificial intelligence-based cry-based emotional state determination information is generated and stored through the process of FIG. 2, video data stored in a specific storage area of the storage medium designated through the process of FIG. A video acquired through the camera device 180 in a specific storage area of a storage medium designated through the process of FIG. 3 or at a point in time when the transmitted data including the transmitted data is provided to the app or
한편 상기 도면2의 과정을 통해 패턴 인식 기반의 표정 기반 감정상태 판별 정보를 생성하여 저장한 경우, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(180)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 아기 표정 인식 기반의 n1개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 지정된 비디오 데이터와 연계된 일정 일정 구간의 오디오 데이터를 판독하여 상기 특정 아기에 대한 j개의 아기 울음소리 인식 정보를 인식한다(500). On the other hand, when the expression-based emotional state determination information based on pattern recognition is generated and stored through the process of FIG. 2, transmission data including video data stored in a specific storage area of the storage medium designated through the process of FIG. 3 is designated. Acquisition data including the video data acquired through the camera device 180 in a specific storage area of a storage medium designated through the process of FIG. 3 or at the time provided by the app of the user wireless terminal 170 or the
만약 상기 오디오 데이터를 근거로 j개의 아기 울음소리 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 울음소리 기반 감정상태 판별 정보를 근거로 상기 인식된 j개의 아기 울음소리 인식 정보와 기 설정된 기준 유사도 이상 매칭된 c개의 아기 울음소리 패턴 정보를 확인하고(505), 상기 확인된 c개의 아기 울음소리 패턴 정보와 매칭 관계를 지닌 n2개의 아기 감정 항목을 판별한다(510).If j baby cry recognition information is recognized based on the audio data, the operation server 100 recognizes the recognition based on the crying sound-based emotional state determination information stored in the operation D/B through the process of FIG. 2 . Check the c baby cry pattern information matched with the j number of baby cry recognition information and the preset standard similarity or more (505), and n2 baby emotion items having a matching relationship with the identified c baby cry pattern information is determined (510).
만약 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 아기 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 j개의 아기 울음소리 인식 정보와 상기 c개의 아기 울음소리 패턴 정보 간 매칭 비율을 근거로 상기 c개의 아기 울음소리 패턴 정보와 n2개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 j개의 아기 울음소리 인식 정보에 대응하는 n2개의 감정 항목 별 아기 감정 상태를 수치화한 n2개의 감정 항목 별 아기 감정 상태 값을 판별한다(515). If n2 baby emotion items corresponding to the recognized j pieces of baby cry recognition information are determined, the operation server 100 is configured to perform a difference between the recognized j baby cry recognition information and the c baby cry pattern information. Based on the matching ratio, the correlation numerical relationship between the c baby cry pattern information and n2 baby emotion items is read, and the baby emotional state for each n2 emotion items corresponding to the recognized j baby cry recognition information is digitized. A baby emotional state value for each n2 emotion items is determined (515).
만약 상기 n2개의 감정 항목 별 아기 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 판별된 n2개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(520).If the baby emotional state values for each of the n2 emotional items are calculated, the operation server 100 uses the determined baby emotional state values for each of the n2 emotional items to display the baby for each of the n designated emotional items on the video data. Emotional state information may be generated ( 520 ).
한편 상기 n2개의 감정 항목 별 아기 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 아기 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 판별된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 n2개의 감정 항목 별 아기 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(520).On the other hand, when the baby emotional state value for each n1 emotion item is calculated through the process of FIG. 4 at a point in time before, during, or after the baby emotional state value for each n2 emotion item is calculated, the operation server 100 is By combining the determined baby emotional state values for each of the n1 emotional items and the n2 emotional state values for each of the n2 emotional items, it is possible to generate baby emotional state information for each of the n designated emotional items that can be displayed on the video data (520). .
만약 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(170)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(175)로 제공할 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시하고(525), 상기 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 상기 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하며(530), 상기 사용자 무선단말(170)의 앱이나 IPTV(175)는 상기 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(535). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the baby emotional state information for each of the n emotion items is generated, the operation server 100 is an app of the user wireless terminal 170 corresponding to the unique identification information stored in the management D/B through the process of FIG. 2 or the Display the baby emotional state information for each of the n emotion items in a designated area on the video data of the transmission data to be provided to the
도면6은 본 발명의 제3 실시 방법에 따라 지정 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 제공하는 도시한 도면이다.6 is a diagram illustrating transmission data including video data indicating baby emotional state information for each designated emotion item according to the third embodiment of the present invention.
보다 상세하게 본 도면6은 지정된 비디오 데이터 및/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 인식된 센싱 값 인식 정보를 (추가)이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성한 후 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 6 is a video after generating baby emotional state information for each n emotion item specified by reading the sensing data associated with the specified video data and/or audio data and using (additional) the recognized sensing value recognition information. As showing the process of providing transmission data including video data displaying the baby emotional state information for each of the n emotion items generated in a designated area on the data to the app of the user wireless terminal 170 or the
도면6을 참조하면, 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 지정된 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하는 시점, 또는 상기 도면3의 과정을 통해 지정된 저장매체의 특정 저장영역에 카메라장치(180)를 통해 획득된 비디오 데이터를 포함하는 획득 데이터가 저장된 후, 또는 상기 도면4에 도시된 아기 표정 인식 기반의 n1개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하거나, 또는 상기 도면5에 도시된 아기 울음소리 인식 기반의 n2개의 감정 항목 별 아기 감정 상태 값 산출 과정과 연동하여, 상기 운영서버(100)는 지정된 비디오 데이터 및/또는 오디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k개의 센싱 값 인식 정보를 인식한다(600). Referring to FIG. 6, a time point at which transmission data including video data stored in a specific storage area of a storage medium designated through the process of FIG. 3 is provided to an app or
만약 상기 센싱 데이터를 근거로 k개의 센싱 값 인식 정보가 인식되면, 상기 운영서버(100)는 상기 도면2의 과정을 통해 운영D/B에 저장된 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s개의 센싱 값 패턴 정보를 확인하고(605), 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3개의 아기 감정 항목을 판별한다(610).If k sensed value recognition information is recognized based on the sensing data, the operation server 100 determines the k recognized based on the sensing-based emotional state determination information stored in the operation D/B through the process of FIG. 2 . Check the s sensed value recognition information and the s sensed value pattern information matched with more than a preset reference similarity (605), and determine n3 baby emotion items having a matching relationship with the identified s sensed value pattern information (610) ).
만약 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 아기 감정 항목이 판별되면, 상기 운영서버(100)는 상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 판별한다(615). If n3 baby emotion items corresponding to the recognized k sensed value recognition information are determined, the operation server 100 determines a matching ratio between the recognized k sensed value recognition information and the s sensed value pattern information. Based on the s sensed value pattern information and the correlation numerical relationship between the n3 baby emotion items, the n3 emotion items obtained by digitizing the baby emotional state for each of the n3 emotion items corresponding to the recognized k sensed value recognition information A star baby emotional state value is determined (615).
만약 상기 n3개의 감정 항목 별 아기 감정 상태 값이 산출되면, 상기 운영서버(100)는 상기 판별된 n3개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(620).If the baby emotional state values for each of the n3 emotional items are calculated, the operation server 100 uses the determined baby emotional state values for each of the n3 emotional items to display the baby for each of the n designated emotional items on the video data. Emotional state information may be generated ( 620 ).
한편 상기 n3개의 감정 항목 별 아기 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 아기 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 판별된 n1개의 감정 항목 별 아기 감정 상태 값과 상기 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(620).On the other hand, when the baby emotional state value for each n1 emotion item is calculated through the process of FIG. 4 at a point in time before, during, or after the baby emotional state value for each n3 emotion item is calculated, the operation server 100 is By combining the determined baby emotional state value for each n1 emotion item and the baby emotional state value for each n3 emotion item, it is possible to generate baby emotional state information for each n designated emotion item displayable on the video data (620). .
또는 상기 n3개의 감정 항목 별 아기 감정 상태 값이 산출되기 전 또는 중 또는 후의 일 시점에 상기 도면4의 과정을 통해 n1개의 감정 항목 별 아기 감정 상태 값이 산출되고 상기 도면5의 과정을 통해 n2개의 감정 항목 별 아기 감정 상태 값이 산출된 경우, 상기 운영서버(100)는 상기 판별된 n1개의 감정 항목 별 아기 감정 상태 값과 n2개의 감정 항목 별 아기 감정 상태 값 및 상기 n3개의 감정 항목 별 아기 감정 상태 값을 조합하여 비디오 데이터 상에 표시 가능한 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성할 수 있다(620).Alternatively, at a point in time before, during, or after the baby emotional state values for each of the n3 emotional items are calculated, n1 baby emotional state values for each of the n1 emotional items are calculated through the process of FIG. 4, and n2 values are obtained through the process of FIG. When the baby emotional state value for each emotion item is calculated, the operation server 100 determines the baby emotional state value for each of the n1 emotion items, the baby emotional state value for each n2 emotion item, and the baby emotion for each of the n3 emotion items. By combining the state values, it is possible to generate baby emotional state information for each of n designated emotional items that can be displayed on the video data ( 620 ).
만약 상기 n개의 감정 항목 별 아기 감정 상태 정보가 생성되면, 상기 운영서버(100)는 도면2의 과정을 통해 관리D/B에 저장된 고유식별정보에 대응하는 사용자 무선단말(170)의 앱이나 상기 관리D/B에 저장된 ID/PW정보를 통해 식별/인증된 IPTV(175)로 제공할 송신 데이터의 비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시하고(625), 상기 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 상기 사용자 무선단말(170)의 앱이나 IPTV(175)로 제공하며(630), 상기 사용자 무선단말(170)의 앱이나 IPTV(175)는 상기 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 수신하여 출력한다(635). 바람직하게, 상기 송신 데이터는 상기 비디오 데이터와 연계된 오디오 데이터를 더 포함할 수 있다.If the baby emotional state information for each of the n emotion items is generated, the operation server 100 is an app of the user wireless terminal 170 corresponding to the unique identification information stored in the management D/B through the process of FIG. 2 or the Display the baby emotional state information for each of the n emotion items in a designated area on the video data of the transmission data to be provided to the
100 : 운영서버
105 : 정보 관리부
110 : 정보 등록부
115 : 통신 관리부
120 : 데이터 수신부
125 : 데이터 저장부
130 : 정보 인식부
135 : 정보 판별부
140 : 감정 상태 판별부
145 : 정보 생성부
150 정보 적용부
155 : 데이터 제공부
170 : 무선단말
175 : IPTV
180 : 카메라장치100: operation server 105: information management unit
110: information register 115: communication management unit
120: data receiving unit 125: data storage unit
130: information recognition unit 135: information discrimination unit
140: emotional state determination unit 145: information generation unit
150 information application unit 155: data provision unit
170: wireless terminal 175: IPTV
180: camera device
Claims (31)
지정된 인공지능 기반의 학습(Learning) 과정을 통해 아기 표정에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 제1 단계;
상기 카메라장치의 카메라모듈을 통해 상기 거점 내의 특정 아기를 촬영하여 지정 방식으로 엔코딩된 비디오 데이터와 상기 카메라장치의 사운드 입력부를 통해 입력되어 지정 방식으로 엔코딩된 오디오 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 연계 저장 관리하는 제2 단계;
상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목을 근거로 상기 비디오 데이터의 아기 표정에 대응하는 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값을 판별하는 제3 단계;
상기 산출된 n1개의 감정 항목 별 아기 감정 상태 값을 이용하여 비디오 데이터 상에 표시 가능한 지정된 n(1≤n≤N)개의 감정 항목 별 아기 감정 상태 정보를 생성하는 제4 단계; 및
비디오 데이터 상의 지정된 일정 영역에 상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 표시한 비디오 데이터를 포함하는 송신 데이터를 사용자 무선단말의 앱이나 IPTV로 제공하는 제5 단계;를 포함하는 영유아 감정 상태 출력 방법.
In the method executed through an operation server having a sound input unit and a camera module to communicate with a camera device provided in a designated base,
A first step of generating expression-based emotional state determination information for determining the baby emotional state value for each designated emotional item corresponding to the baby's expression through a designated artificial intelligence-based learning process and storing it in a designated storage area;
Video data encoded in a specified manner by photographing a specific baby in the base through the camera module of the camera device and audio data encoded in a specified manner input through the sound input unit of the camera device are received and stored in a specified storage medium a second step of linked storage and management in the area;
N1 (1≤N1≤N) items that can be distinguished through a baby expression among N (N≥2) specified baby emotion items by performing a procedure of reading specified video data through the expression-based emotional state determination information based on the artificial intelligence a third step of determining a baby emotional state value for each n1 (1≤n1≤N1) emotion items corresponding to the baby expression in the video data based on the baby emotion item;
a fourth step of generating baby emotional state information for each of n (1≤n≤N) designated emotional items that can be displayed on video data by using the calculated baby emotional state values for each of the n1 emotional items; and
A fifth step of providing transmission data including video data displaying the baby emotional state information for each of the n emotion items generated in a specified area on the video data to an app or IPTV of the user's wireless terminal; output method.
지정된 인공지능 기반의 학습(Learning) 과정을 수행하여 지정된 E(E≥2)개의 아기 표정 중 지정된 아기 안면 영역에 대응하는 e(1≤e≤E)개의 아기 표정을 판별하고, 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목을 기반으로 상기 판별된 e개의 아기 표정과 매칭 관계를 지닌 n1(1≤n1≤N1)개의 아기 감정 항목을 판별하고, 상기 확인된 e개의 아기 표정과 n1개의 아기 감정 항목 간 상관도에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the first step,
By performing a specified AI-based learning process, e(1≤e≤E) baby expressions corresponding to the specified baby facial area are determined among the specified E(E≥2) baby expressions, and N(N Among ≥2) baby emotion items, n1 (1≤n1≤N1) items having a matching relationship with the e number of baby expressions determined above based on N1 (1≤N1≤N) baby emotion items that can be distinguished through baby expressions Determining baby emotion items, generating expression-based emotional state determination information for determining baby emotional state values for each n1 emotion item corresponding to the correlation between the identified e baby expressions and n1 baby emotion items, and storing the specified A method of outputting an infant's emotional state, characterized in that it comprises the step of storing in the area.
지정된 E(E≥2)개의 아기 표정 중 지정된 e(1≤e≤E)개의 아기 표정에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 안면 영역을 포함하는 장면에 대응하는 복수의 비디오 정보들을 입력받고, 상기 입력된 복수의 비디오 정보에 대한 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계;
상기 입력된 복수의 비디오 정보들에 포함된 아기 안면 영역의 지정된 특징점 간 기하학 관계를 판독하고 패턴 인식하여 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값에 대응하는 P(P≥2)개의 장면 패턴 특성 정보를 추출하여 입력변수(Feature Vectors)로 설정하는 단계;
지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 아기 안면 영역을 포함하는 복수의 장면들 중 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the first step,
N1 (1≤N1≤) that can be distinguished through the baby expression among the specified N(N≥2) baby emotion items while corresponding to the specified e(1≤e≤E) baby expressions among the specified E(E≥2) baby expressions Receive a plurality of video information corresponding to a scene including N) baby emotion items and a baby facial region having a specified correlation, and n1 (1≤n1≤N1) emotion items for the input plurality of video information setting a star baby emotional state value as an output variable;
By reading the geometric relationship between the specified feature points of the baby's facial area included in the plurality of input video information and recognizing the pattern, P(P() corresponding to the baby's emotional state value for each n1 emotion item corresponding to the baby's expression in the baby's facial area. extracting P≥2) pieces of scene pattern characteristic information and setting them as input variables (Feature Vectors);
Through a designated artificial intelligence algorithm, more than a specified number of the input and output variables are learned to determine the baby's emotional state value for each n1 emotion item corresponding to the baby's expression in the baby's facial area among a plurality of scenes including the baby's facial area Generating expression-based emotional state determination information for the purpose and storing the information in a designated storage area; Infants and infants emotional state output method, characterized in that it comprises a.
지정된 E(E≥2)개의 아기 표정 중 지정된 e(1≤e≤E)개의 아기 표정에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 표정을 통해 구별 가능한 N1(1≤N1≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 안면 영역을 포함하는 장면에 대응하는 복수의 비디오 정보들의 아기 안면 영역의 지정된 특징점 간 기하학 관계를 판독하고 패턴 인식하여 상기 아기 안면 영역의 아기 표정에 대응하는 n1(1≤n1≤N1)개의 감정 항목 별 아기 감정 상태 값의 패턴 특성으로 추출된 P(P≥2)개의 장면 패턴 특성 정보를 입력변수(Feature Vectors)로 입력받고, 상기 P개의 장면 패턴 특성 정보가 추출된 비디오 정보에 대한 n1개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계;
지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 아기 안면 영역을 포함하는 복수의 장면들 중 상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 표정 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the first step,
N1 (1≤N1≤) that can be distinguished through the baby expression among the specified N(N≥2) baby emotion items while corresponding to the specified e(1≤e≤E) baby expressions among the specified E(E≥2) baby expressions By reading and pattern recognition geometrical relationships between designated feature points of a baby's facial area of a plurality of video information corresponding to a scene including N) baby emotion items and a baby's facial area having a specified correlation, the baby's facial expression in the baby's facial area P (P≥2) scene pattern characteristic information extracted as pattern characteristics of baby emotional state values for each corresponding n1 (1≤n1≤N1) emotion items are input as input variables (Feature Vectors), and the P scenes setting a baby emotional state value for each n1 emotional item with respect to the video information from which the pattern characteristic information is extracted as an output variable;
Through a designated artificial intelligence algorithm, more than a specified number of the input and output variables are learned to determine the baby's emotional state value for each n1 emotion item corresponding to the baby's expression in the baby's facial area among a plurality of scenes including the baby's facial area Generating expression-based emotional state determination information for the purpose and storing the information in a designated storage area; Infants and infants emotional state output method, characterized in that it comprises a.
상기 비디오 정보에 포함된 상기 아기 안면 영역에 대응하는 e개의 아기 표정 정보와,
상기 아기 안면 영역의 아기 표정에 대응하는 n1개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
5. The method of claim 3 or 4, wherein the output variable is
e pieces of baby expression information corresponding to the baby facial region included in the video information;
and at least one piece of information among n1 pieces of baby emotion item information corresponding to the baby's expression in the baby's facial area.
상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 포함하는 동영상 데이터를 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the second step,
and receiving the moving picture data including the video data and the audio data from the camera device and storing and managing them in a specific storage area of a designated storage medium.
상기 카메라장치로부터 상기 비디오 데이터와 오디오 데이터를 각기 수신하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the second step,
and receiving the video data and audio data from the camera device, respectively, and storing and managing them in a specific storage area of a designated storage medium.
상기 카메라장치로부터 수신된 상기 비디오 데이터와 오디오 데이터의 시간을 동기화시켜 지정된 저장매체의 특정 저장영역에 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 7, wherein the second step comprises:
The method for outputting an infant's emotional state, characterized in that it further comprises the step of synchronizing the time of the video data and the audio data received from the camera device and storing the synchronized time in a specific storage area of a designated storage medium.
상기 저장매체의 특정 저장영역에 저장된 오디오 데이터를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the transmission data,
The method for outputting an infant's emotional state, characterized in that it further comprises audio data stored in a specific storage area of the storage medium.
지정된 재생 시간 단위 별로 주기적으로 선별되는 비디오 데이터,
지정된 재생 프레임 수 별로 주기적으로 선별되는 비디오 데이터 중 적어도 하나의 비디오 데이터를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method according to claim 1, wherein the designated video data comprises:
Video data that is periodically screened by a specified unit of playing time;
A method for outputting an infant's emotional state, comprising at least one of video data periodically selected for each specified number of reproduction frames.
지정된 사용자 무선단말의 앱이나 IPTV로 상기 저장매체의 특정 저장영역에 저장된 비디오 데이터를 포함하는 송신 데이터를 제공하는지 확인하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 1,
The method for outputting the emotional state of infants and toddlers, characterized in that it further comprises the step of confirming whether transmission data including video data stored in a specific storage area of the storage medium is provided by an App or IPTV of a designated user's wireless terminal.
상기 인공지능 기반의 표정 기반 감정상태 판별 정보를 통해 지정된 비디오 데이터를 판독하는 절차를 수행하여 지정된 E개의 아기 표정 중 상기 비디오 데이터 상의 아기 안면 영역에 대응하는 e개의 아기 표정을 판별하고, 아기 표정을 통해 구별 가능한 N1개의 아기 감정 항목 중 상기 판별된 e개의 아기 표정과 매칭 관계를 지닌 n1개의 아기 감정 항목을 판별하고, 상기 확인된 e개의 아기 표정과 n1개의 아기 감정 항목 간 상관도에 대응하는 n1개의 감정 항목 별 아기 감정 상태 값을 판별하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the third step,
By performing a procedure of reading the video data specified through the expression-based emotional state determination information based on the artificial intelligence, the e baby expressions corresponding to the baby face area on the video data are determined among the E baby expressions specified, and the baby expressions are determined. Among the N1 baby emotion items that can be distinguished through the n1 baby emotion items, n1 baby emotion items having a matching relationship with the identified e baby expressions are determined, and n1 corresponding to the correlation between the identified e baby expressions and n1 baby emotion items. A method for outputting an infant's emotional state, comprising the step of determining a baby's emotional state value for each emotional item.
상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터와 연계 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the fourth step,
and storing the baby emotional state information for each of the generated n emotional items in association with the video data.
상기 생성된 n개의 감정 항목 별 아기 감정 상태 정보를 상기 비디오 데이터의 지정된 재생 시점과 동기화하는 시간 값(또는 타임스탬프)과 연계하여 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
14. The method of claim 13, wherein the fourth step comprises:
and storing the generated baby emotional state information for each of the n emotional items in association with a time value (or timestamp) for synchronizing with a specified playback time of the video data.
지정된 인공지능 기반의 학습(Learning) 과정을 통해 아기 울음소리에 대응하는 지정된 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the first step,
It further includes the step of generating cry-based emotional state determination information to determine the baby emotional state value for each designated emotional item corresponding to the baby's cry through a designated artificial intelligence-based learning process and storing it in a designated storage area A method for outputting an infant's emotional state, characterized in that by
지정된 인공지능 기반의 학습(Learning) 과정을 수행하여 지정된 C(C≥2)개의 아기 울음소리 중 지정된 아기 울음에 대응하는 c(1≤c≤C)개의 아기 울음소리를 판별하고, 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목을 기반으로 상기 판별된 c개의 아기 울음소리와 매칭 관계를 지닌 n2(1≤n2≤N2)개의 아기 감정 항목을 판별하고, 상기 확인된 c개의 아기 울음소리와 n2개의 아기 감정 항목 간 상관도에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
16. The method of claim 15, wherein the first step comprises:
Performs a designated AI-based learning process to determine c(1≤c≤C) baby cries corresponding to the designated baby cry among the designated C (C≥2) baby cries, and determines the designated N( Based on N2 (1≤N2≤N) baby emotion items that can be distinguished through baby cry among N≥2) baby emotion items, n2 (1≤n2≤N) having a matching relationship with the c baby cry sounds determined above Cry-based emotional state determination information for determining N2) baby emotion items and determining baby emotional state values for each n2 emotion items corresponding to the correlation between the identified c baby cry sounds and n2 baby emotion items A method for outputting an infant's emotional state, characterized in that it comprises the step of generating and storing in a designated storage area.
지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 울음에 대응하는 복수의 오디오 정보들을 입력받고, 상기 입력된 복수의 오디오 정보에 대한 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계;
상기 입력된 복수의 오디오 정보들을 판독하고 패턴 인식하여 상기 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값에 대응하는 Q(Q≥2)개의 소리 패턴 특성 정보를 추출하여 입력변수(Feature Vectors)로 설정하는 단계;
지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 지정된 오디오 데이터에 포함된 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
16. The method of claim 15, wherein the first step comprises:
N2(1) distinguishable through baby cry among N(N≥2) specified baby emotion items while corresponding to specified c(1≤c≤C) baby cries out of C(C≥2) specified baby cries ≤N2≤N) baby emotion items and a plurality of audio information corresponding to a crying baby having a specified correlation are received, and n2 (1≤n2≤N2) baby emotion items for the inputted audio information are received. setting the emotional state value as an output variable;
By reading out the plurality of input audio information and pattern recognition, Q (Q≥2) pieces of sound pattern characteristic information corresponding to the baby emotional state values for each n2 emotion items corresponding to the crying sound are extracted and input variables (Features) Vectors);
Cry-based emotional state determination information for determining the baby emotional state value for each n2 emotional items corresponding to the baby cry included in the specified audio data by learning more than a specified number of the input and output variables through a specified artificial intelligence algorithm The method for outputting the emotional state of infants and toddlers, characterized in that it comprises; generating and storing in a designated storage area.
지정된 C(C≥2)개의 아기 울음소리 중 지정된 c(1≤c≤C)개의 아기 울음소리에 대응하면서 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목과 지정된 상관도를 지닌 아기 울음에 대응하는 복수의 오디오 정보들을 판독하고 패턴 인식하여 상기 아기 울음소리에 대응하는 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값의 패턴 특성으로 추출된 Q(Q≥2)개의 소리 패턴 특성 정보를 입력변수(Feature Vectors)로 입력받고, 상기 Q개의 소리 패턴 특성 정보가 추출된 오디오 정보에 대한 n2개의 감정 항목 별 아기 감정 상태 값을 출력변수로 설정하는 단계;
지정된 인공지능 알고리즘을 통해 지정 개수 이상의 상기 입력변수와 출력변수를 학습시켜 지정된 오디오 데이터에 포함된 아기 울음소리에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하기 위한 울음소리 기반 감정상태 판별 정보를 생성하여 지정된 저장영역에 저장하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
16. The method of claim 15, wherein the first step comprises:
N2(1) distinguishable through baby cry among N(N≥2) specified baby emotion items while corresponding to specified c(1≤c≤C) baby cries out of C(C≥2) specified baby cries ≤N2≤N) baby emotion items and n2 (1≤n2≤N2) baby emotion items corresponding to the baby crying sound by reading a plurality of audio information corresponding to the crying baby with a specified correlation and recognizing the pattern Q (Q≥2) sound pattern characteristic information extracted as the pattern characteristic of the emotional state value is input as an input variable (Feature Vectors), and the Q sound pattern characteristic information is extracted by n2 emotional items for the extracted audio information. setting the baby emotional state value as an output variable;
Cry-based emotional state determination information for determining the baby emotional state value for each n2 emotional items corresponding to the baby cry included in the specified audio data by learning more than a specified number of the input and output variables through a specified artificial intelligence algorithm The method for outputting the emotional state of infants and toddlers, characterized in that it comprises; generating and storing in a designated storage area.
상기 오디오 정보에 포함된 상기 아기 울음에 대응하는 c개의 아기 울음소리 정보와,
상기 아기 울음소리에 대응하는 n2개의 아기 감정 항목 정보 중 적어도 하나의 정보를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 17 or 18, wherein the output variable is
c baby cry information corresponding to the baby cry included in the audio information;
The method for outputting an infant's emotional state, characterized in that it further includes at least one piece of information among n2 pieces of baby emotion item information corresponding to the baby's cry.
상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 통해 지정된 오디오 데이터를 판독하는 절차를 수행하여 지정된 N(N≥2)개의 아기 감정 항목 중 아기 울음소리를 통해 구별 가능한 N2(1≤N2≤N)개의 아기 감정 항목을 근거로 상기 오디오 데이터의 아기 울음소리에 대응하는 n2(1≤n2≤N2)개의 감정 항목 별 아기 감정 상태 값을 판별하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
16. The method of claim 15, wherein the third step,
N2 (1≤N2≤N) distinguishable through baby cry among N (N≥2) specified baby emotion items by performing a procedure of reading specified audio data through the AI-based cry-based emotional state determination information ) Baby emotional state, characterized in that it further comprises the step of determining the baby emotional state value for each n2 (1≤n2≤N2) emotion items corresponding to the baby cry of the audio data based on the number of baby emotion items output method.
상기 인공지능 기반의 울음소리 기반 감정상태 판별 정보를 통해 지정된 오디오 데이터를 판독하는 절차를 수행하여 지정된 C개의 아기 울음소리 중 상기 오디오 데이터 상의 아기 울음에 대응하는 c개의 아기 울음소리를 판별하고, 아기 울음소리를 통해 구별 가능한 N2개의 아기 감정 항목 중 상기 판별된 c개의 아기 울음소리와 매칭 관계를 지닌 n2개의 아기 감정 항목을 판별하고, 상기 확인된 c개의 아기 울음소리와 n2개의 아기 감정 항목 간 상관도에 대응하는 n2개의 감정 항목 별 아기 감정 상태 값을 판별하는 단계를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 20, wherein the third step comprises:
By performing a procedure of reading designated audio data through the artificial intelligence-based cry-based emotional state determination information, c baby cries corresponding to baby cries on the audio data are determined among C designated baby cries, Among the N2 baby emotion items that can be distinguished through a cry, n2 baby emotion items having a matching relationship with the identified c baby cry are determined, and correlation between the identified c baby cry and n2 baby emotion items The method for outputting an infant's emotional state, characterized in that it comprises the step of determining the baby's emotional state value for each n2 emotional items corresponding to the figure.
상기 산출된 n2개의 감정 항목 별 아기 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
22. The method of claim 20 or 21, wherein the fourth step comprises:
and generating baby emotional state information for each of the n designated emotional items by additionally using the calculated baby emotional state values for each of the n2 emotional items.
상기 제1 단계는,
상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터 중 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 S(S≥2)개의 센싱 값 패턴 정보와 지정된 N개의 아기 감정 항목 중 지정된 센싱 대상의 센싱 값 패턴을 근거로 구별 가능한 N3(1≤N3≤N)개의 아기 감정 항목 사이의 매칭 관계정보 및 상기 S개의 센싱 값 패턴 정보와 N3개의 아기 감정 항목 간 상관도를 수치화한 센싱 기반 상관도 수치 관계정보를 포함하는 센싱 기반 감정상태 판별 정보를 운영D/B에 등록 저장하는 단계를 더 포함하고,
상기 제2 단계는,
상기 카메라장치에 구비되거나 연계된 센서모듈을 통해 센싱된 센싱 데이터를 수신하고 상기 비디오 데이터와 연계하여 지정된 저장매체의 특정 저장영역에 저장 관리하는 단계를 더 포함하며,
상기 제3 단계는,
상기 비디오 데이터와 연계된 센싱 데이터를 판독하여 상기 특정 아기의 감정 표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 k(k≥1)개의 센싱 값 인식 정보를 인식하고,
상기 센싱 기반 감정상태 판별 정보를 근거로 상기 인식된 k개의 센싱 값 인식 정보와 기 설정된 기준 유사도 이상 매칭된 s(1≤s≤S)개의 센싱 값 패턴 정보를 확인하고 상기 확인된 s개의 센싱 값 패턴 정보와 매칭 관계를 지닌 n3(1≤n3≤N3)개의 아기 감정 항목을 판별하며,
상기 인식된 k개의 센싱 값 인식 정보와 상기 s개의 센싱 값 패턴 정보 간 매칭 비율을 근거로 상기 s개의 센싱 값 패턴 정보와 n3개의 아기 감정 항목 간 상관도 수치 관계를 판독하여 상기 인식된 k개의 센싱 값 인식 정보에 대응하는 n3개의 감정 항목 별 아기 감정 상태를 수치화한 n3개의 감정 항목 별 아기 감정 상태 값을 산출하는 단계를 더 포함하고,
상기 제4 단계는,
상기 산출된 n3개의 감정 항목 별 아기 감정 상태 값을 추가 이용하여 지정된 n개의 감정 항목 별 아기 감정 상태 정보를 생성하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 1,
The first step is
Among the sensing data sensed through the sensor module provided in or linked to the camera device, S (S≥2) sensing value pattern information for the sensing data of the specified sensing target related to the emotional expression of the baby and the N specified baby emotion items Sensing that quantifies the matching relationship information between N3 (1≤N3≤N) baby emotion items and the correlation between the S sensed value pattern information and N3 baby emotion items that can be distinguished based on the sensing value pattern of the specified sensing target Further comprising the step of registering and storing sensing-based emotional state determination information including numerical relationship information based on correlation in operation D/B,
The second step is
Further comprising the step of receiving sensing data sensed through a sensor module provided in or linked to the camera device, and storing and managing the video data in a specific storage area of a designated storage medium in association with the method,
The third step is
Reading the sensing data associated with the video data to recognize k (k≥1) sensing value recognition information for the sensing data of a specified sensing target associated with the emotional expression of the specific baby,
Based on the sensing-based emotional state determination information, s (1≤s≤S) sensed value pattern information matched with the recognized k sensed value recognition information and a preset standard similarity or higher is checked, and the identified s sensed values Identify n3 (1≤n3≤N3) baby emotion items that have a matching relationship with pattern information,
Based on the matching ratio between the recognized k sensed value recognition information and the s sensed value pattern information, the correlation numerical relationship between the s sensed value pattern information and n3 baby emotion items is read, and the recognized k senses Further comprising the step of calculating the baby emotional state value for each n3 emotion items that digitize the baby emotional state for each n3 emotion items corresponding to the value recognition information,
The fourth step is
and generating baby emotional state information for each of the n designated emotional items by additionally using the calculated baby emotional state values for each of the n3 emotional items.
아기의 신체에 착용하여 지정된 센싱 대상을 센싱하는 웨어러블(Wearable) 센서모듈,
지정된 전자파를 이용하여 아기의 지정된 센싱 대상을 센싱하는 레이더(Radar) 센서모듈 중 적어도 하나의 센서모듈을 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 23, wherein the sensor module,
A wearable sensor module that is worn on the baby's body and senses a specified sensing target,
A method for outputting an infant's emotional state, comprising at least one sensor module among radar sensor modules for sensing a designated sensing target of a baby by using a designated electromagnetic wave.
아기의 심장박동, 아기의 체온, 아기 주변 습도, 아기의 무호흡 여부 중 적어도 하나를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 23 or 20, wherein the sensing target,
A method for outputting an infant's emotional state, characterized in that it includes at least one of a baby's heartbeat, a baby's body temperature, a baby's ambient humidity, and whether the baby is apnea.
아기의 감정표현과 연관된 지정된 센싱 대상의 센싱 데이터에 대한 각각의 센싱 값 패턴을 구성하는 센싱 값 특징의 범위 정보를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 23, wherein the S sensed value pattern information comprises:
A method for outputting an infant's emotional state, characterized in that it includes range information of a sensing value characteristic constituting each sensing value pattern for sensing data of a specified sensing target related to the emotional expression of a baby.
센싱 값의 변화 규칙 특징, 센싱 값의 변화량 특징, 센싱 값 변화율 특징, 센싱 값 변화의 주기성 특징 중 적어도 하나 또는 둘 이상의 조합을 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 26, wherein the sensed value characteristic,
A method for outputting an infant's emotional state, comprising at least one or a combination of two or more of the sensing value change rule feature, the sensed value change feature, the sensed value change rate feature, and the sensed value change periodic feature.
지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 간 매칭 비율에 비례하는 관계식을 통해 산출되는 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 23, wherein the sensing-based correlation numerical relationship information,
Infant emotional state output method, characterized in that it includes the correlation numerical information calculated through the relational expression proportional to the matching ratio between the sensing value recognition information recognized through the sensing data of the specified sensing target and the previously registered sensing value pattern information .
지정된 센싱 대상의 센싱 데이터를 통해 인식된 센싱 값 인식 정보와 기 등록된 센싱 값 패턴 정보 사이의 각 매칭 비율 구간 별 상관도 수치정보를 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
The method of claim 23, wherein the sensing-based correlation numerical relationship information,
A method for outputting an infant's emotional state, characterized in that it includes numerical information on correlations for each matching ratio section between sensing value recognition information recognized through sensing data of a specified sensing target and pre-registered sensing value pattern information.
n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 문자 형태로 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the baby emotional state information for each of the n emotion items,
A method for outputting an infant's emotional state, characterized in that it includes n emotional item information and numerical information of the baby's emotional state for each emotional item in the form of text.
n개의 감정 항목 정보와 각 감정 항목 별 아기 감정 상태의 수치정보를 그래프 형태로 포함하여 이루어지는 것을 특징으로 하는 영유아 감정 상태 출력 방법.
According to claim 1, wherein the baby emotional state information for each of the n emotion items,
A method for outputting an infant's emotional state, characterized in that it includes n emotion item information and numerical information of the baby's emotional state for each emotion item in the form of a graph.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190161714A KR20210072202A (en) | 2019-12-06 | 2019-12-06 | Method for Outputting Infants Emotional Condition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190161714A KR20210072202A (en) | 2019-12-06 | 2019-12-06 | Method for Outputting Infants Emotional Condition |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210072202A true KR20210072202A (en) | 2021-06-17 |
Family
ID=76603635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190161714A KR20210072202A (en) | 2019-12-06 | 2019-12-06 | Method for Outputting Infants Emotional Condition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210072202A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102449491B1 (en) * | 2021-08-30 | 2022-10-11 | 전진이 | Method and system for providing maternal care service |
-
2019
- 2019-12-06 KR KR1020190161714A patent/KR20210072202A/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102449491B1 (en) * | 2021-08-30 | 2022-10-11 | 전진이 | Method and system for providing maternal care service |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105446162B (en) | A kind of intelligent home furnishing control method of smart home system and robot | |
US8376803B2 (en) | Child-care robot and a method of controlling the robot | |
US9704361B1 (en) | Projecting content within an environment | |
CN111163906B (en) | Mobile electronic device and method of operating the same | |
US8644614B2 (en) | Image processing apparatus, image processing method, and storage medium | |
KR20210080637A (en) | Method for Displaying Pet's Emotional Sate Based on Artificial Intelligence | |
KR102611458B1 (en) | Method for Providing Augmented Reality by Baby's Emotional Sate using Baby's Peripheral Region | |
KR20210079484A (en) | Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region Based on Artificial Intelligence | |
CN113612830A (en) | Information pushing method and device, terminal equipment and storage medium | |
KR20210072202A (en) | Method for Outputting Infants Emotional Condition | |
CN110178159A (en) | Audio/video wearable computer system with integrated form projector | |
KR102549441B1 (en) | Method for Displaying Baby's Emotional Sate | |
JP6719434B2 (en) | Device control device, device control method, and device control system | |
KR102596832B1 (en) | Method for Providing Conversation with Pet using Augmented Reality by Pet's Emotional Sate | |
KR102549453B1 (en) | Method for Providing Conversation with Baby using Augmented Reality by Baby's Emotional Sate | |
KR20210072204A (en) | Method for Processing Baby's Emotional Sate Information by Using Peripheral Region | |
KR20210072203A (en) | Method for Processing Emotional Sate Information of Baby | |
KR20210079475A (en) | Method for Protecting Invasion of Pet's Privacy | |
KR102549449B1 (en) | Method for Providing Augmented Reality by Emotional Sate of Baby's Face | |
KR20210072205A (en) | Method for Processing Conversation by Using Baby's Emotional Sate | |
KR20210079477A (en) | Method for Displaying Pet's Emotional Sate | |
KR102461033B1 (en) | Method for Protecting Invasion of Baby's Privacy | |
KR20210079483A (en) | Method for Providing Augmented Reality by Emotional Sate of Pet's Face Based on Artificial Intelligence | |
KR20210079479A (en) | Method for Providing Augmented Reality by Pet's Emotional Sate using Pet's Peripheral Region | |
KR20210079478A (en) | Method for Providing Augmented Reality by Emotional Sate of Pet's Face |