KR102328981B1 - System for providing pet information sharing service using harness camera - Google Patents

System for providing pet information sharing service using harness camera Download PDF

Info

Publication number
KR102328981B1
KR102328981B1 KR1020200123569A KR20200123569A KR102328981B1 KR 102328981 B1 KR102328981 B1 KR 102328981B1 KR 1020200123569 A KR1020200123569 A KR 1020200123569A KR 20200123569 A KR20200123569 A KR 20200123569A KR 102328981 B1 KR102328981 B1 KR 102328981B1
Authority
KR
South Korea
Prior art keywords
harness
companion animal
camera
user terminal
data
Prior art date
Application number
KR1020200123569A
Other languages
Korean (ko)
Inventor
황도연
Original Assignee
주식회사 디랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디랩스 filed Critical 주식회사 디랩스
Priority to KR1020200123569A priority Critical patent/KR102328981B1/en
Application granted granted Critical
Publication of KR102328981B1 publication Critical patent/KR102328981B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/80Information retrieval; Database structures therefor; File system structures therefor of semi-structured data, e.g. markup language structured data such as SGML, XML or HTML
    • G06F16/84Mapping; Conversion
    • G06K9/00221
    • G06K9/00362
    • G06K9/00926
    • G06K9/36
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Databases & Information Systems (AREA)
  • Finance (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Provided is a system for providing companion animal information sharing service using a harness camera. The system comprises: a harness camera that is installed or provided opposite the face of a companion animal to photograph the face of the companion animal, is fixed and supported on a harness worn on part or the entire body of the companion animal, and outputs image data of the face of the companion animal; a user terminal that uploads the image data received from the harness camera in real time through wireless or wired communications, and outputs result data based on an analysis result of the image data; and a sharing service providing server that includes a registration unit that maps and registers the user terminal and the harness camera from the user terminal, an extraction unit that pre-processes and then extracts a facial region or body region, which is an object included in the image data received from the harness camera via the user terminal, a storage unit that labels and maps a tag to the facial region or the body region and stores the tag, a reception unit that transmits the labeled tag to the user terminal to receive feedback, and a sharing unit that shares the image data and the tag corresponding to the facial region or the body region if the feedback is positive.

Description

하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템{SYSTEM FOR PROVIDING PET INFORMATION SHARING SERVICE USING HARNESS CAMERA}Companion animal information sharing service using harness camera {SYSTEM FOR PROVIDING PET INFORMATION SHARING SERVICE USING HARNESS CAMERA}

본 발명은 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템에 관한 것으로, 하네스 카메라를 반려동물의 얼굴 또는 신체를 촬영하도록 설치하고 이를 공유함으로써 빅데이터 구축 및 연구자료로 공유하도록 하는 플랫폼을 제공한다.The present invention relates to a system for providing information sharing service for companion animals using a harness camera, and provides a platform for building and sharing big data as research data by installing a harness camera to photograph the face or body of a companion animal and sharing it.

반려동물에 대한 사회적 인식의 발달과 가구형태의 변화로 인해 우리나라의 반려동물 수가 증가하고 있다. 이에 따라 반려동물을 위한 고품질 양육방법과 헬스케어에 대한 관심이 많아지면서 반려동물의 사료와 의약품, 생활용품, 의료서비스 등을 포함한 연관산업도 급속도로 성장하고 있으며 2020년 현재 약 6조원 규모로 성장하였다. 반려동물 양육가구 비율이 높은 미국, 영국, 독일, 프랑스, 일본 등의 국가는 반려동물 건강에 대한 다양한 연구와 데이터 관리를 진행해왔고, 의료상품 및 서비스 산업도 발달하고 있다. 최근에는 인간의 개인맞춤의료서비스와 같이, 반려동물의 행동 및 건강상태를 수시로 파악하고 검진자료를 바탕으로 솔루션을 제공하는 시스템 및 모바일앱 등이 영국과 일본에서 개발되었다. 그리고 반려동물의 놀이와 운동량 등을 측정하고 동일 품종과 비교하여 정보를 제공하는 헬스케어서비스 제품이 미국과 오스트리아에서 출시되었다.The number of companion animals in Korea is increasing due to the development of social awareness of companion animals and changes in household types. Accordingly, as interest in high-quality parenting methods and health care for companion animals increases, related industries including companion animal feed, medicines, daily necessities, and medical services are also growing rapidly and growing to about KRW 6 trillion as of 2020. did. Countries such as the United States, United Kingdom, Germany, France, and Japan, which have a high proportion of households raising companion animals, have been conducting various research and data management on companion animal health, and medical products and service industries are also developing. Recently, systems and mobile apps have been developed in the UK and Japan, such as personalized medical services for humans, that frequently check the behavior and health of companion animals and provide solutions based on the examination data. In addition, healthcare service products that measure the play and exercise of companion animals and provide information by comparing them with the same breed were launched in the US and Austria.

이때, 반려동물을 관찰하고 원격지에서 자동으로 관리하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2020-0036783호(2020년04월07일 공개) 및 한국공개특허 제2019-0041185호(2019년04월22일 공개)에는, 부재 중 반려동물을 실시간으로 모니터링하거나 대화 가능하고 보호자의 녹음된 음성을 들려줄 수 있도록 하되, 특히 단순히 먹이를 제공하는 것이 아니라 먹이를 다양한 힘으로 던져줄 수 있도록 하여 놀이를 수행할 수 있도록, 이동통신 단말기에서 반려동물의 상태를 모니터링하기 위한 카메라모듈, 보호자와 반려동물 간 대화를 위한 오디오모듈, 먹이를 저장하는 푸드탱크, 푸드탱크의 먹이를 추출하여 발사대로 이동시키는 추출수단의 구성과, 원격지의 반려동물 보호자에게 반려동물의 상황을 정확히 파악할 수 있도록 반려동물을 감지하고, 수용 공간으로 들어온 반려동물의 체중을 감지하며, 수용 공간을 촬영하고 수용 공간으로 들어온 반려동물의 체온을 감지하고, 수용 공간에 조명을 제공함으로써, 조도, 온도 및 사료급여를 제어 및 조절할 수 있는 구성이 각각 개시되어 있다.At this time, a method for observing companion animals and automatically managing them from a remote location has been researched and developed. In No. 0041185 (published on April 22, 2019), companion animals can be monitored in real time while they are away or can talk, and the recorded voice of the guardian can be heard. A camera module for monitoring the status of companion animals in a mobile communication terminal, an audio module for conversation between the guardian and companion animals, a food tank that stores food, and food from the food tank so that they can be thrown so that they can play. The composition of the extraction means to extract and move it to the launch pad, detects the companion animal so that the companion animal can accurately understand the situation of the companion animal, detects the weight of the companion animal that has entered the accommodation space, and shoots the accommodation space. A configuration capable of controlling and regulating illumination, temperature, and feed supply by sensing the body temperature of a companion animal entering the accommodation space and providing lighting to the accommodation space is disclosed.

다만, 상술한 구성은 반려동물의 상태를 시각적으로 확인하기 위해서는 대부분 고정식 CCTV를 응용한 제품으로 각 방을 보기 위해 다수의 CCTV를 필요로 하거나 반려동물의 행동반경을 제한하는 방법을 사용하게 된다. 이 중에서 스마트폰을 키패드처럼 사용하여 원격 조종할 수 있는 제품도 상용화 되어 있으나 반려동물의 특징이나 특정 행동 패턴을 인식하여 자동으로 대상을 추적하는 제품은 아직 상용화 되어 있지 않다. 또 객체 검출 시스템은 일반적으로 영상 프레임에 대한 차 연산을 통해 객체를 검출하거나 적외선 센서를 이용하여 인체의 열을 감지하는 형태로 구성되어지기 때문에, 특정 객체를 검출하기에는 어려움이 많다. 이에, 타국에 비하여 반려동물의 행동연구를 위한 자료가 절대적으로 부족한 상황에서, 이동성을 가지면서도 반려동물을 시각적으로 분석할 수 있는 토대를 마련할 수 있는 영상을 수집하여 연구의 기반을 마련할 수 있는 플랫폼의 연구 및 개발이 요구된다.However, in order to visually check the condition of the companion animal, most of the above-described configuration is a product to which a fixed CCTV is applied, and a number of CCTVs are required to view each room or a method of limiting the range of motion of the companion animal is used. Among them, products that can be remotely controlled by using a smartphone as a keypad have been commercialized, but products that automatically track the target by recognizing the characteristics or specific behavioral patterns of companion animals have not been commercialized yet. In addition, since the object detection system is generally configured to detect an object through a difference operation on an image frame or to detect the heat of a human body using an infrared sensor, it is difficult to detect a specific object. Accordingly, in a situation where data for behavioral research of companion animals is absolutely insufficient compared to other countries, it is possible to prepare a basis for research by collecting images that can provide a basis for visual analysis of companion animals while having mobility. Research and development of a platform that exists is required.

본 발명의 일 실시예는, 반려동물의 안면 또는 신체를 촬영할 수 있도록 안면 또는 신체에 대향하는 방향에 고정되는 하네스 카메라를 이용하여 반려동물의 안면 데이터 및 신체 데이터를 수집하여 연구자 또는 연구기관에서 이용할 수 있도록 공유하되, 빅데이터 구축에 필요한 전처리 및 라벨링 과정을 자신의 반려동물을 가장 잘 아는 반려자가 처리해주거나 리뷰나 피드백을 줌으로써 전처리 및 라벨링 과정의 정확도를 높일 수 있도록 하고, 연구자 또는 연구기관에서 안면 데이터 및 신체 데이터의 이용료를 반려동물의 특성에 맞게 분석된 사료나 간식으로 지급함으로써 반려자인 사용자의 참여도를 높일 수 있으며, 궁극적으로 반려동물 행동연구 분야 발전을 이뤄낼 수 있는, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention collects facial data and body data of a companion animal using a harness camera fixed in a direction opposite to the face or body so that the face or body of the companion animal can be photographed to be used by researchers or research institutes. However, the pre-processing and labeling process necessary for building big data can be handled by the companion who knows his or her companion animal best, or the accuracy of the pre-processing and labeling process can be increased by giving a review or feedback, and the researcher or research institute Companion using a harness camera can increase the participation of users who are companion animals by paying the usage fee for data and body data as feed or snacks analyzed according to the characteristics of companion animals, and ultimately develop the field of companion animal behavior research. A method for providing an animal information sharing service may be provided. However, the technical task to be achieved by the present embodiment is not limited to the technical task as described above, and other technical tasks may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 반려동물의 안면을 촬영하도록 안면 방향으로 대향되도록 설치 또는 구비되고, 반려동물의 신체 일부 또는 전부에 채워진 하네스를 통하여 고정 및 지지되며, 반려동물의 안면을 촬영한 영상 데이터를 출력하는 하네스 카메라, 하네스 카메라로부터 수신한 영상 데이터를 무선 또는 유선 통신을 통하여 실시간으로 업로드하고, 영상 데이터의 분석결과에 기반한 결과 데이터를 출력하는 사용자 단말 및 사용자 단말로부터 사용자 단말 및 하네스 카메라를 매핑하여 등록하는 등록부, 하네스 카메라로부터 사용자 단말을 경유하여 수신된 영상 데이터 내에 포함된 객체인 안면 영역 또는 신체 영역을 전처리 후 추출하는 추출부, 안면 영역 또는 신체 영역에 태그를 라벨링 및 매핑하여 저장하는 저장부, 라벨링된 태그를 사용자 단말로 전송하여 피드백을 수신하는 수신부, 피드백이 긍정(Positive) 피드백인 경우 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 태그를 공유하는 공유부를 포함하는 공유 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention is installed or provided to face in the face direction to photograph the face of the companion animal, and is fixed through a harness filled in part or all of the body of the companion animal. and a harness camera that outputs image data of a companion animal's face, uploads image data received from the harness camera in real time through wireless or wired communication, and outputs result data based on the analysis result of the image data A registration unit that maps and registers a user terminal and a harness camera from a user terminal and a user terminal, an extractor that extracts the face region or body region, which is an object included in the image data received from the harness camera via the user terminal, after preprocessing, the facial region Alternatively, a storage unit that labels and maps a tag to a body region and stores it, a receiver that transmits the labeled tag to a user terminal to receive feedback, and when the feedback is positive feedback, image data corresponding to the face region or body region and and a sharing service providing server including a sharing unit for sharing tags.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 반려동물의 안면 또는 신체를 촬영할 수 있도록 안면 또는 신체에 대향하는 방향에 고정되는 하네스 카메라를 이용하여 반려동물의 안면 데이터 및 신체 데이터를 수집하여 연구자 또는 연구기관에서 이용할 수 있도록 공유하되, 빅데이터 구축에 필요한 전처리 및 라벨링 과정을 자신의 반려동물을 가장 잘 아는 반려자가 처리해주거나 리뷰나 피드백을 줌으로써 전처리 및 라벨링 과정의 정확도를 높일 수 있도록 하고, 연구자 또는 연구기관에서 안면 데이터 및 신체 데이터의 이용료를 반려동물의 특성에 맞게 분석된 사료나 간식으로 지급함으로써 반려자인 사용자의 참여도를 높일 수 있으며, 궁극적으로 반려동물 행동연구 분야 발전을 이뤄낼 수 있다.According to any one of the above-described problem solving means of the present invention, facial data and body data of a companion animal are collected using a harness camera fixed to a direction opposite to the face or body so that the face or body of the companion animal can be photographed. Share it for use by researchers or research institutes, but allow a companion who knows your companion animal best to handle the pre-processing and labeling process necessary for building big data, or to increase the accuracy of the pre-processing and labeling process by giving a review or feedback, By paying the usage fee for facial data and body data by researchers or research institutes as feeds or snacks analyzed according to the characteristics of companion animals, it is possible to increase the participation of users who are companion animals, and ultimately achieve development in the field of companion animal behavior research. .

도 1은 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 공유 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a view for explaining a system for providing a companion animal information sharing service using a harness camera according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a shared service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which a companion animal information sharing service using a harness camera according to an embodiment of the present invention is implemented.
5 is an operation flowchart illustrating a method of providing a companion animal information sharing service using a harness camera according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated, and one or more other features However, it is to be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded in advance.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially", etc. to the extent used throughout the specification are used in a sense at or close to the numerical value when the manufacturing and material tolerances inherent in the stated meaning are presented, and serve to enhance the understanding of the present invention. To help, precise or absolute figures are used to prevent unfair use by unscrupulous infringers of the stated disclosure. As used throughout the specification of the present invention, the term “step for (to)” or “step for” does not mean “step for”.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware. Meanwhile, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. Thus, as an example, '~' refers to components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functions provided in the components and '~ units' may be combined into a smaller number of components and '~ units' or further separated into additional components and '~ units'. In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by the terminal, apparatus, or device may be performed instead of in a server connected to the terminal, apparatus, or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means mapping or matching the terminal's unique number or personal identification information, which is the identification data of the terminal. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 공유 서비스 제공 서버(300), 적어도 하나의 하네스 카메라(400), 적어도 하나의 연구기관 서버(500)를 포함할 수 있다. 다만, 이러한 도 1의 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a view for explaining a system for providing a companion animal information sharing service using a harness camera according to an embodiment of the present invention. Referring to FIG. 1 , a system 1 for providing a companion animal information sharing service using a harness camera includes at least one user terminal 100 , a sharing service providing server 300 , at least one harness camera 400 , and at least one of the research institute server 500 may be included. However, since the companion animal information sharing service providing system 1 using the harness camera of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 공유 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 공유 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 하네스 카메라(400), 적어도 하나의 연구기관 서버(500)와 연결될 수 있다. 또한, 적어도 하나의 하네스 카메라(400)는, 네트워크(200)를 통하여 공유 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 연구기관 서버(500)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 공유 서비스 제공 서버(300) 및 적어도 하나의 하네스 카메라(400)과 연결될 수 있다. In this case, each component of FIG. 1 is generally connected through a network 200 . For example, as shown in FIG. 1 , at least one user terminal 100 may be connected to the shared service providing server 300 through the network 200 . In addition, the shared service providing server 300 may be connected to at least one user terminal 100 , at least one harness camera 400 , and at least one research institute server 500 through the network 200 . In addition, at least one harness camera 400 may be connected to the shared service providing server 300 through the network 200 . In addition, the at least one research institute server 500 may be connected to at least one user terminal 100 , the shared service providing server 300 , and at least one harness camera 400 through the network 200 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure in which information exchange is possible between each node, such as a plurality of terminals and servers, and an example of such a network includes a local area network (LAN), a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television networks, and the like. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi (Wi-Fi) , Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( Near-Field Communication) networks, satellite broadcast networks, analog broadcast networks, Digital Multimedia Broadcasting (DMB) networks, and the like are included, but are not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including the singular and the plural, and even if at least one term does not exist, each element may exist in the singular or plural, and may mean the singular or plural. it will be self-evident In addition, that each component is provided in singular or plural may be changed according to embodiments.

본 발명의 각 구성요소를 설명하기 이전에, 각 구성요소가 하는 일이 각각 배분된 이유에 대해 먼저 설명하기로 한다. 이하에서 설명된 내용들은 후술할 구성을 설명하면서 중복하여 설명하지 않는다.Before describing each component of the present invention, the reason why the work of each component is distributed will be first described. The contents described below will not be repeatedly described while describing the configuration to be described later.

본 발명의 일 실시예에서는 사용자 단말(100)을 경유하여 업로드된 영상 데이터를 공유 서비스 제공 서버(300)에서 먼저 분류하여 태그를 라벨링 한 후, 이를 맞는지의 여부를 다시 사용자 단말(100)로 전송하여 확인하여 컨펌을 받고, 컨펌을 받은 영상 데이터만 훈련 데이터셋 및 테스트 데이터셋으로 인공지능 알고리즘을 구축할 수 있도록 하거나, 빅데이터를 구축하거나 연구를 하려는 연구기관 서버(500)로 공유 및 판매를 할 수 있도록 한다. In one embodiment of the present invention, the image data uploaded via the user terminal 100 is first classified by the sharing service providing server 300 and the tag is labeled, and then whether it is correct is transmitted to the user terminal 100 again. to confirm and receive confirmation, and allow only the confirmed video data to build an artificial intelligence algorithm with the training dataset and test dataset, or share and sell to the research institute server 500 that wants to build big data or conduct research. make it possible

물론, 기계적으로 라벨링을 하거나 사람이 일일이 수작업을 할 수도 있지만, 반려동물과 오랜시간 함께 한 반려인은 말이 통하지 않아도 표정을 보거나 짖는 소리나 우는 소리만 들어도 또는 흘끗 보는 눈빛만 보아도 무엇을 원하는지 또는 무엇을 말하려는지를 아는 경우가 있다. 이는 해당 동물마다 유사한 점도 있지만 각 종이나 개별 반려동물의 특성에 따라 서로 달라질 수 있기 때문에 연구기관에서 또는 해당 반려동물을 키워보지 않은 사람들이 일괄적으로 수동 또는 자동 라벨링을 해버리는 경우 정확하지 않은 데이터셋으로 인공지능 알고리즘 훈련을 시작하는 불상사를 일으킬 수 있게 된다. 입력 데이터가 정확하지 않으면 훈련된 결과나 모델링되는 인공지능 알고리즘도 또한 정확하지 않은 것은 자명한 사실이다. Of course, labeling can be done mechanically or by manual labor, but a companion who has been with a pet for a long time can't understand what they are talking about, but even if they see their expression, hear a barking or cry, or just a glance, they can see what they want or what they want. Sometimes you know what you're talking about. Although there are similarities for each animal, it can be different depending on the characteristics of each species or individual companion animal, so manual or automatic labeling at a research institute or by people who have never raised the companion animal in batches may be inaccurate. The dataset can cause misfortune to start training artificial intelligence algorithms. It is self-evident that if the input data is not accurate, neither the trained result nor the artificial intelligence algorithm being modeled will be accurate.

이에 따라, 사용자 단말(100)은 공유 서비스 제공 서버(300)에서 라벨링한 결과에 대해 맞는지 또는 아닌지, 아니라면 무슨 태그가 적당한지를 골라줄 수 있다. 물론, 처음부터 사용자 단말(100)에서 모두 태그를 라벨링하는 것이 가장 이상적이겠지만, 이는 고객인 사용자에게 "일(Task)"이 되어버리기 때문에 본 발명의 서비스를 이용하지 않을 가능성이 존재한다. 따라서, 본 발명의 일 실시예에서는 공유 서비스 제공 서버(300)에서 전처리 후 기계적으로 기존 데이터를 기반으로 라벨링을 한 후, 이를 맞는지만 인간인 사용자가 컨펌하면 되도록 플랫폼을 구성함으로써, 정확한 정보도 얻으면서 사용자도 귀찮게 느끼지 않을 수 있도록 한다. Accordingly, the user terminal 100 may select whether or not a tag is appropriate for the result labeled by the shared service providing server 300 . Of course, it would be ideal to label all tags in the user terminal 100 from the beginning, but since this becomes a "task" for the user who is a customer, there is a possibility that the service of the present invention will not be used. Therefore, in one embodiment of the present invention, after pre-processing in the shared service providing server 300, and after labeling based on the existing data, the platform is configured so that the user, who is a human, has to confirm this, even though it is correct, to obtain accurate information. and so that users do not feel annoyed.

참고로, 인공지능 알고리즘을 모델링하기 위해서는, 로우 데이터를 수집하고, 전처리 후 해당 로우 데이터(영상 데이터)가 무엇을 의미하는지를 파악하기 위한 "태그"를 부착하는 라벨링 작업을 거친다. 그 후에는 [영상 데이터-태그]가 훈련 데이터셋 및 테스트 데이터셋으로 인공지능 알고리즘에 들어가게 되며, 이를 훈련(학습) 및 테스트한 인공지능 알고리즘은 이후 유사한 영상 데이터가 질의로 입력되는 경우, 훈련했던 "태그"를 출력함으로써 해당 영상 데이터가 무엇을 의미하는지를 출력하게 된다. 상술한 매커니즘을 바탕으로 이하의 구성요소를 설명한다.For reference, in order to model an AI algorithm, raw data is collected, and after preprocessing, a labeling operation is performed to attach a “tag” to identify what the raw data (image data) means. After that, [image data-tag] is entered into the artificial intelligence algorithm as a training dataset and a test dataset, and the artificial intelligence algorithm that has been trained (learning) and tested is subsequently trained when similar image data is input as a query. By outputting "tag", what the corresponding image data means is output. The following components will be described based on the above-described mechanism.

적어도 하나의 사용자 단말(100)은, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 반려동물을 등록하고 하네스 카메라(400)를 구입한 경우 하네스 카메라(400)와 자신의 반려동물의 정보를 등록하는 단말일 수 있다. 그리고, 사용자 단말(100)은, 공유 서비스 제공 서버(300) 또는 연구기관 서버(500)에서 라벨링한 태그가 맞는지의 여부를 체크하는 사용자의 단말일 수 있다. 또한, 사용자 단말(100)은, 실시간으로 반려동물의 상태를 공유받을 수도 있고 반려동물의 상태를 해석한 정보를 공유 서비스 제공 서버(300)로부터 수신하는 단말일 수 있고, 사용자 단말(100)이 업로드하거나 컨펌한 태그의 용량, 종류, 숫자 등에 기반하여 공유 서비스 제공 서버(300)로부터 보상으로 포인트를 지급받거나 사료나 간식 등을 살 때 포인트를 이용함으로써 결과적으로 할인된 가격에 물건을 살 수 있는 단말일 수 있다.At least one user terminal 100 is a harness camera 400 when a companion animal is registered and the harness camera 400 is purchased using a web page, an app page, a program or an application related to the companion animal information sharing service using the harness camera. ) and a terminal that registers information of its companion animal. In addition, the user terminal 100 may be a user terminal that checks whether a tag labeled by the shared service providing server 300 or the research institute server 500 is correct. In addition, the user terminal 100 may receive the state of the companion animal to be shared in real time, or may be a terminal that receives information interpreting the state of the companion animal from the sharing service providing server 300 , and the user terminal 100 Based on the capacity, type, number, etc. of the uploaded or confirmed tag, you receive points as a reward from the sharing service providing server 300 It may be a terminal.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one user terminal 100 may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100, for example, as a wireless communication device that guarantees portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) terminal, a smart phone, a smart pad, a tablet PC, etc. may include all kinds of handheld-based wireless communication devices.

공유 서비스 제공 서버(300)는, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 공유 서비스 제공 서버(300)는, 적어도 하나의 반려동물 안면 또는 신체 데이터를 수집하고 전처리 및 라벨링 후 훈련 데이터셋 및 테스트 데이터셋을 만들기 전에, 라벨링된 태그가 맞는지 사용자 단말(100)로 전송하여 컨펌을 받는 서버일 수 있다. 만약, 사용자 단말(100)의 컨펌이 없다면 라벨링된 태그를 그대로 이용할 수 있다. 그리고, 공유 서비스 제공 서버(300)은 훈련 데이터셋 및 테스트 데이터셋을 적어도 하나의 연구기관 서버(500)로 공유할 수도 있고, 자체적으로 빅데이터를 구축하여 인공지능 알고리즘을 모델링하는 서버일 수 있다. 또한, 공유 서비스 제공 서버(300)는, 사용자 단말(100)에서 하네스 카메라(400)를 구입한 경우 또는 하네스 카메라(400)를 등록하는 경우, 사용자 단말(100)과 하네스 카메라(400)를 매핑하여 저장하는 서버일 수 있다. 그리고, 공유 서비스 제공 서버(300)는, 하네스 카메라(400)로부터 촬영된 안면 또는 신체 데이터를 실시간으로 수신하고 이를 분석한 후 이상행동이 존재하는 경우 이를 사용자 단말(100)로 알려주고, 분석된 상태에 따라 적어도 하나의 급여 장치(미도시)를 제어하거나 홈 네트워크로 연동된 적어도 하나의 장치(미도시)를 제어하는 서버일 수 있다. The sharing service providing server 300 may be a server that provides a companion animal information sharing service web page, an app page, a program, or an application using a harness camera. Then, the shared service providing server 300 collects at least one companion animal facial or body data, and sends it to the user terminal 100 whether the labeled tag is correct before making a training dataset and a test dataset after pre-processing and labeling. It may be a server that receives the confirmation. If there is no confirmation of the user terminal 100, the labeled tag may be used as it is. And, the shared service providing server 300 may share the training dataset and the test dataset with at least one research institute server 500, or it may be a server that builds big data by itself to model an artificial intelligence algorithm. . In addition, the shared service providing server 300 maps the user terminal 100 and the harness camera 400 when the harness camera 400 is purchased from the user terminal 100 or when the harness camera 400 is registered. It may be a server that stores it. Then, the shared service providing server 300 receives the facial or body data photographed from the harness camera 400 in real time, analyzes it, and informs the user terminal 100 if there is an abnormal behavior, and the analyzed state In some cases, it may be a server that controls at least one payroll device (not shown) or controls at least one device (not shown) linked to a home network.

여기서, 공유 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the shared service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop.

적어도 하나의 하네스 카메라(400)는, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 반려동물의 안면을 촬영한 영상 데이터를 공유 서비스 제공 서버(300)로 직접 또는 간접 업로드하는 장치일 수 있다. 이때, 하네스 카메라(400)는 다중 카메라(미도시)를 더 포함할 수 있고, 다중 카메라는 반려동물의 얼굴이 아닌 신체를 촬영하는 카메라일 수 있다. 또, 하네스 카메라(400)는, 하네스, 즉 반려동물의 몸을 감싸면서 리드줄을 묶어놓을 수 있는 끈 등에 고정되는 카메라일 수 있다. 그리고, 하네스 카메라(400)는 장거리 통신 모듈이 내장되지 않은 이상 가정에 구축된 홈 네트워크를 통하거나 사용자 단말(100)을 AP로 하여 공유 서비스 제공 서버(300)로 영상 데이터를 업로드하는 카메라일 수 있다.The at least one harness camera 400 directly transmits image data obtained by photographing the face of a companion animal using a companion animal information sharing service related web page, app page, program or application using the harness camera to the sharing service providing server 300 . Or it may be an indirect uploading device. In this case, the harness camera 400 may further include a multi-camera (not shown), and the multi-camera may be a camera that captures the body of the companion animal instead of the face. In addition, the harness camera 400 may be a camera fixed to a harness, that is, a string capable of tying a lead string while wrapping the body of the companion animal. In addition, the harness camera 400 may be a camera that uploads image data to the shared service providing server 300 through a home network built in the home or using the user terminal 100 as an AP unless a long-distance communication module is built-in. have.

여기서, 적어도 하나의 하네스 카메라(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 하네스 카메라(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 하네스 카메라(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one harness camera 400 may be implemented as a computer that can connect to a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one harness camera 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one harness camera 400 is, for example, a wireless communication device that ensures portability and mobility, including navigation, Personal Communication System (PCS), Global System for Mobile communications (GSM), Personal Digital Cellular (PDC), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) terminal, a smart phone, a smart pad, a tablet PC, etc. may include all kinds of handheld-based wireless communication devices.

적어도 하나의 연구기관 서버(500)는, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하거나 이용하지 않고 반려동물의 데이터셋을 종합 관리 서비스 제공 서버(300)로부터 공유받거나 구매하는 연구기관의 서버일 수 있다. 이때, 연구기관 서버(500)에서 연구를 한 후 얻어낸 명제나 이론에 기반하여 종합 관리 서비스 제공 서버(300)는 사용자 단말(100)의 반려동물의 행동이나 질병을 분석하거나 추정할 수 있고 종합 관리 서비스 제공 서버(300)는 사용자 단말(100)로 전송할 수 있다.At least one research institute server 500 uses a companion animal information sharing service-related web page, an app page, a program, or an application using a harness camera or a companion animal data set without using the comprehensive management service server 300 It may be a server of a research institution that is shared or purchased from. At this time, the comprehensive management service providing server 300 can analyze or estimate the behavior or disease of the companion animal of the user terminal 100 based on the proposition or theory obtained after the research in the research institution server 500, and comprehensive management The service providing server 300 may transmit to the user terminal 100 .

여기서, 적어도 하나의 연구기관 서버(500)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 연구기관 서버(500)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 연구기관 서버(500)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one research institute server 500 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser, a desktop, and a laptop. In this case, the at least one research institute server 500 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one research institute server 500, for example, as a wireless communication device that guarantees portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular) , PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband) Internet) terminals, smartphones, smart pads, tablet PCs, etc. may include all types of handheld-based wireless communication devices.

도 2는 도 1의 시스템에 포함된 공유 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram for explaining a shared service providing server included in the system of FIG. 1, and FIGS. 3 and 4 are an implementation of a companion animal information sharing service using a harness camera according to an embodiment of the present invention. It is a drawing for explaining an embodiment.

도 2를 참조하면, 공유 서비스 제공 서버(300)는, 등록부(310), 추출부(320), 저장부(330), 수신부(340), 공유부(350), 포인트부(360), 추천부(370) 및 빅데이터화부(380)를 포함할 수 있다.Referring to FIG. 2 , the shared service providing server 300 includes a registration unit 310 , an extracting unit 320 , a storage unit 330 , a receiving unit 340 , a sharing unit 350 , a point unit 360 , and a recommendation. It may include a unit 370 and a big data conversion unit 380 .

본 발명의 일 실시예에 따른 공유 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 적어도 하나의 하네스 카메라(400), 및 적어도 하나의 연구기관 서버(500)로 하네스 카메라를 이용한 반려동물 정보 공유 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 적어도 하나의 하네스 카메라(400), 및 적어도 하나의 연구기관 서버(500)는, 하네스 카메라를 이용한 반려동물 정보 공유 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 적어도 하나의 하네스 카메라(400), 및 적어도 하나의 연구기관 서버(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.At least one user terminal 100, at least one harness camera 400, and at least one research When transmitting a companion animal information sharing service application, program, app page, web page, etc. using a harness camera to the institution server 500 , at least one user terminal 100 , at least one harness camera 400 , and at least One research institute server 500 may install or open a companion animal information sharing service application using a harness camera, a program, an app page, a web page, and the like. In addition, the service program may be driven in at least one user terminal 100 , at least one harness camera 400 , and at least one research institute server 500 using a script executed in a web browser. Here, the web browser is a program that enables the use of a web (WWW: World Wide Web) service, and refers to a program that receives and displays hypertext written in HTML (Hyper Text Mark-up Language), for example, Netscape. , Explorer, Chrome, and the like. In addition, the application means an application on the terminal, for example, includes an app (App) executed in a mobile terminal (smartphone).

도 2를 참조하면, 등록부(310)는, 사용자 단말(100)로부터 사용자 단말(100) 및 하네스 카메라(400)를 매핑하여 등록할 수 있다. 사용자 단말(100)은, 하네스 카메라(400)로부터 수신한 영상 데이터를 무선 또는 유선 통신을 통하여 실시간으로 업로드하고, 영상 데이터의 분석결과에 기반한 결과 데이터를 출력할 수 있다. 하네스 카메라(400)는, 반려동물의 안면을 촬영하도록 안면 방향으로 대향되도록 설치 또는 구비되고, 반려동물의 신체 일부 또는 전부에 채워진 하네스를 통하여 고정 및 지지되며, 반려동물의 안면을 촬영한 영상 데이터를 출력할 수 있다.Referring to FIG. 2 , the registration unit 310 may register the mapping between the user terminal 100 and the harness camera 400 from the user terminal 100 . The user terminal 100 may upload the image data received from the harness camera 400 in real time through wireless or wired communication, and output result data based on the analysis result of the image data. The harness camera 400 is installed or provided to face in the face direction to photograph the face of the companion animal, is fixed and supported through a harness filled in part or all of the body of the companion animal, and image data obtained by photographing the face of the companion animal can be printed out.

추출부(320)는, 하네스 카메라(400)로부터 사용자 단말(100)을 경유하여 수신된 영상 데이터 내에 포함된 객체인 안면 영역 또는 신체 영역을 전처리 후 추출할 수 있다. 이때, YOLO를 이용할 수 있는데 YOLO는 바운더리 박스, 즉 경계박스를 설정할 수 있고 이 내부의 객체를 인지 및 실시간으로 검출하여 분석할 수 있기 때문이다. 물론, YOLO 이외에도 다양한 방법이 사용될 수는 있다.The extractor 320 may extract the facial region or body region, which is an object included in the image data received from the harness camera 400 via the user terminal 100 , after pre-processing. In this case, YOLO can be used because YOLO can set a boundary box, that is, a bounding box, and recognize and analyze an object inside it in real time. Of course, various methods other than YOLO may be used.

저장부(330)는, 안면 영역 또는 신체 영역에 태그를 라벨링 및 매핑하여 저장할 수 있다. 이때, 안면 영역 또는 신체 영역에 태그를 라벨링하기 위해, 상세하게는 라벨링 자체를 "사람"이 아닌 "기계"가 처리하게 하기 위해서는, 해당 라벨링을 위한 인공지능 알고리즘이 별도로 요구된다. 이를 위해서, 초기에는 사람의 관찰과 선정 과정이 요구된다. 즉, 이후 인공지능 모델링을 위하여, 라벨링을 위한 인공지능 알고리즘 모델링이라고 정의할 수 있다. The storage unit 330 may label and map the tag to the face region or the body region and store the label. At this time, in order to label a tag on a face region or a body region, specifically, in order to allow a “machine” rather than a “human” to process the labeling itself, an artificial intelligence algorithm for the corresponding labeling is separately required. For this, human observation and selection process are required initially. That is, for later artificial intelligence modeling, it can be defined as artificial intelligence algorithm modeling for labeling.

관찰을 통하여 복수의 행동 중 가장 많은 빈도 수를 나타내는 12 가지 행동을 선정할 수 있다. 선정된 행동은 예를 들어, Lying, Sitting, Standing, Shivering, Shaking, Barking, Eating, Drinking, Jumping, Slow-walking, Walking, Running일 수 있으나 이에 한정되지 않는다. 예를 들어, 질병에 걸린 강아지를 판단하기 위해서는 질병에 걸린 강아지의 영상과 행동분류가 요구될 수 있고, 이를 추가할 수도 있다. 행동을 분류하기 위해서는, 우선 Segmentation Tool을 이용하여 개의 행동을 분류할 수 있고 태깅할 수 있다. 수집된 비디오 영상을 분석하여 선정한 12가지 행동에 맞는 개의 행동과 시작 부분과 끝 부분을 잘라 수동으로 태깅할 수 있다.Through observation, 12 behaviors showing the highest frequency among multiple behaviors can be selected. The selected behavior may be, for example, Lying, Sitting, Standing, Shivering, Shaking, Barking, Eating, Drinking, Jumping, Slow-walking, Walking, Running, but is not limited thereto. For example, in order to determine a diseased dog, images and behavioral classification of a diseased dog may be required, and this may be added. In order to classify the behavior, first, the behavior of the dog can be classified and tagged using the Segmentation Tool. By analyzing the collected video images, it is possible to manually tag the dog's behavior and the beginning and the end according to the selected 12 behaviors.

행동분류에 대한 정확도를 높이기 위해서는 태깅된 개의 행동데이터를 SVM 알고리즘을 이용하여 분류할 수 있다. 이렇게 분류된 데이터는 5 Fold-verication 방법을 이용하여 기계 학습과 성능 평가에 사용될 수 있다. 전체 데이터를 학습에 이용할 데이터와 테스트에 이용할 데이터로 나누어 복수의 테스트를 진행할 수 있으며, 이에 따른 정확도의 평균값을 구하여 기계 학습 알고리즘에 적용하여 성능을 평가할 수 있다. 감정분류파트는 각종 전문가로부터 초기에 수동으로 개에게 나타나는 감정들을 선정하도록 한다. 선정된 감정은 예를 들어, Pain, Hunger, Fear, Lonely, Enjoy, Comofort로 선정될 수 있으나 증가, 변형 또는 삭제되는 것을 배제하지 않는다. 수의사나 강아지 행동 전문가가 직접 개의 행동을 관찰하고 선정된 12가지 행동과 6가지 감정을 비교하여 어떠한 행동을 할 때 어떠한 감정상태인지를 감정분류 대쉬보드를 이용하여 태깅할 수 있다. In order to increase the accuracy of the behavior classification, the behavior data of the tagged dog can be classified using the SVM algorithm. The classified data can be used for machine learning and performance evaluation using the 5 fold-verication method. A plurality of tests can be performed by dividing the entire data into data to be used for learning and data to be used for testing. The emotion classification part allows various experts to manually select the emotions that appear in the dog at the beginning. The selected emotion may be selected as, for example, Pain, Hunger, Fear, Lonely, Enjoy, or Comofort, but does not exclude increase, transformation or deletion. A veterinarian or a dog behavior expert directly observes the dog's behavior and compares the selected 12 behaviors with 6 emotions.

이렇게 인간에 의한 분류 및 정의가 완료된 후에는, 개의 행동 데이터에 따른 개의 감정을 분석 및 예측하여 라벨링을 수행하도록 인공지능 모델을 구성할 수 있다. 데이터 수집을 통하여 얻은 개의 행동 동영상과, 세그멘테이션 툴을 이용한 수동 태그 그래프, 및 기계학습과 성능평가에 따른 예상 태깅 그래프, 그리고 개의 6가지 감정 그래프로 이루어질 수 있다. 각 행동에 따른 감정들에 대해서는 예측 결과값의 평균값을 구하여 감정 테이블을 작성할 수 있고, 시간축에 다른 행동에 대한 감정을 예측할 수 있게 된다. 이렇게 식별-모니터링-추적-행동인식-감정인식이 완료되면, 이 데이터들을 각 사용자별로 저장하여 저장부(330)의 입력 데이터로 이용할 수 있고, 더 나아가 사용자에게 알려줄 수도 있다. 이에 따라, 사용자가 반려동물과 있는 시간이 적어 제대로 파악하지 못했던 이상행동이나 감정들을 더욱 자세히 파악할 수 있게 하고, 저장부(330)에서는 입력 데이터를 자동으로 습득할 수 있게 된다.After the classification and definition by humans is completed in this way, the artificial intelligence model can be configured to perform labeling by analyzing and predicting the dog's emotions according to the dog's behavior data. It can consist of a dog behavior video obtained through data collection, a manual tag graph using a segmentation tool, an expected tagging graph according to machine learning and performance evaluation, and six emotion graphs of dogs. For emotions according to each action, an average value of the prediction result can be obtained to create an emotion table, and emotions for other actions can be predicted on the time axis. When identification-monitoring-tracking-behavioral recognition-emotion recognition is completed in this way, these data can be stored for each user and used as input data of the storage unit 330 , and furthermore, the user can be informed. Accordingly, it is possible to understand in more detail abnormal behaviors or emotions that the user has not been able to properly grasp due to the small amount of time spent with the companion animal, and the storage unit 330 can automatically acquire input data.

수신부(340)는, 라벨링된 태그를 사용자 단말(100)로 전송하여 피드백을 수신할 수 있다. 예를 들어, A 영상에서 "진돌이"라는 반려동물이 하울링을 하고 있고, 이를 "외로움"이라고 저장부(330)에서 태그를 라벨링하였다면, 수신부(340)는 사용자 단말(100)로 전송하여, 이 장면이 현재 진돌이가 외로워하는 장면이 맞는지를 확인받는 것이다. 물론, 사용자 단말(100)의 사용자는 자신의 일이 아니기 때문에 이를 일일이 대답해주지 않을 수 있다. 이때에는 상술한 전문가의 의견을 토대로 라벨링한 결과인 태그를 그대로 사용할 수 있다.The receiver 340 may receive feedback by transmitting the labeled tag to the user terminal 100 . For example, if a companion animal called “Jindol” is howling in video A, and the storage unit 330 labels the tag as “loneliness”, the receiver 340 transmits it to the user terminal 100, It is to be confirmed whether the scene is the scene where Jindol is currently lonely. Of course, since the user of the user terminal 100 is not his/her own business, he/she may not answer them one by one. In this case, the tag, which is a result of labeling based on the expert opinion described above, may be used as it is.

공유부(350)는, 피드백이 긍정(Positive) 피드백인 경우 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 태그를 공유할 수 있다. 적어도 하나의 연구기관 서버(500)는, 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 태그를 공유받아 빅데이터를 구축할 수 있다. 즉, 연구기관에서 동물행동이나 질병 또는 이상증세를 연구하기 위해서는 자료가 필요한데 한국에는 리서치를 위한 자료가 충분하지 않다. 발전한 산업의 규모를 연구가 따라가지 못하고 있는데, 한국의 높은 용적률을 반영하듯 한국의 반려동물들은 대부분 아파트나 집합건물 등에 거주하고 있다. 이러한 집합건물에서는 외국의 넓은 마당에서 키우는 것과는 다른 특성을 나타내고 발생되는 피해 또한 다르다. 집 간격이 넓은 곳에서는 강아지가 짖는 행동이 문제행동이 되지 않지만, 그렇지 않은 한국에서는 민원의 이유나 분쟁의 이유가 되기 때문이다. 이에 따라, "한국"에 살고 있는 강아지, 이를 포함한 여러 반려동물의 특성을 연구하기 위해서는 현재 한국이라는 환경에 살고 있는 반려동물들의 자료가 필요하다. 이를 위하여, 본 발명의 일 실시예서는 한국 반려동물들의 특성을 파악하기 위해 한국의 사용자로부터 반려동물의 영상 데이터를 수집하고 라벨링을 한 상태의 데이터셋을 이를 연구기관이나 연구자에게 무료 또는 유료로 배포하는 것이다.The sharing unit 350 may share the tag with image data corresponding to the face region or the body region when the feedback is positive feedback. The at least one research institute server 500 may construct big data by sharing image data and tags corresponding to the face region or the body region. In other words, research institutes need data to study animal behavior, disease, or abnormal symptoms, but there are not enough data for research in Korea. Research has not been able to keep up with the scale of the developed industry, and as if reflecting Korea's high floor area ratio, most Korean companion animals live in apartments or collective buildings. These collective buildings show different characteristics from those grown in foreign yards, and the damage caused is also different. This is because the barking behavior of a dog is not a problem behavior in a place where the distance between houses is wide, but in Korea where it is not, it becomes a reason for complaints or disputes. Accordingly, in order to study the characteristics of dogs and other companion animals living in "Korea", data on companion animals currently living in Korea are needed. To this end, an embodiment of the present invention collects image data of companion animals from Korean users in order to understand the characteristics of companion animals in Korea and distributes the labeled dataset to research institutions or researchers for free or for a fee. will do

포인트부(360)는, 사용자 단말(100)에서 전송한 영상 데이터의 용량 및 피드백률(Rate)에 기반하여 사용자 단말(100)로 보상에 대응하는 포인트를 적립할 수 있다. 이때, 보상은 사용자 단말(100)에서 촬영하여 업로드한 용량에 비례할 수도 있고, 실제로 의미있는 태그와 영상 데이터의 종류와 숫자에 기반할 수도 있다. 예를 들어, 6 시간을 촬영했는데 6 시간 내내 강아지가 잠만 자고 있었다면 의미있는 태그가 라벨링되기는 어렵다. 즉 영상 데이터의 용량은 많은데 학습을 위한 의미있는 영상 데이터가 추출되었다고 보기는 어렵다. 이에 따라, 종류나 용량 등에 기반하여 보상을 제공할 수 있다. 이러한 경우 나날이 늘어가는 반려동물 관리비용을 조금이나마 포인트로 충당할 수 있고 사료나 간식을 살 때 포인트를 이용하거나 사료나 간식을 무료로 보상으로 지급하는 경우 사용자는 반려동물을 케어하는데 들어가는 비용에 대한 부담을 덜 수 있다.The point unit 360 may accumulate points corresponding to compensation to the user terminal 100 based on the feedback rate and the capacity of the image data transmitted from the user terminal 100 . In this case, the compensation may be proportional to the capacity photographed and uploaded by the user terminal 100 , or may be based on the type and number of actually meaningful tags and image data. For example, if you filmed 6 hours and the puppy was sleeping all 6 hours, it would be difficult to label meaningful tags. In other words, although the amount of image data is large, it is difficult to say that meaningful image data for learning has been extracted. Accordingly, compensation may be provided based on the type or capacity. In this case, it is possible to cover the ever-increasing cost of managing pets with points, and if you use points to buy feed or snacks or if feed or treats are provided as compensation for free, the user pays for the cost of caring for pets. can ease the burden.

추천부(370)는, 사용자 단말(100)에서 전송한 영상 데이터 내 객체인 반려동물을 분석한 결과에 기반하여 적어도 하나의 반려동물 용품을 추출하고 사용자 단말(100)로 추천할 수 있다. 이때, 라벨링된 태그가 검증되었으므로, 해당 태그를 이용할 수 잇다. 예를 들어, 추천부(370)는, 사용자 단말(100)에서 선택한 적어도 하나의 질병 태그 및 적어도 하나의 제품 태그를 포함하거나 태그 간 유사도가 기 설정된 유사도를 초과하는 적어도 하나의 상품을 리스트업하여 추출할 수 있다. 예를 들어, 사용자가 선택한 태그가 A,B,C이고, 판매자가 판매하는 "가" 사료가 A,B,C를 모두 포함한다면, "가" 사료를 추출하면 되겠지만, 태그가 복잡다단해지는 경우 사용자가 선택한 특성, 즉 태그를 모두 반영한 제품이 없을 수도 있다. 이때에는, 가장 유사한 태그를 선택해야 하는데, 벡터화된 태그가 상술한 바와 같이 존재하므로, 유클라디안 거리나 코사인 유사도에 의해 유사도를 측정할 수 있고, 유사도가 높은순으로 상품을 추출하여 리스트업할 수 있다. 이때, 유클라디안 거리나 코사인 유사도는 공지기술과 동일하므로 상세히 설명하지는 않는다.The recommendation unit 370 may extract at least one companion animal product and recommend it to the user terminal 100 based on a result of analyzing the companion animal, which is an object in the image data transmitted from the user terminal 100 . At this time, since the labeled tag has been verified, the corresponding tag can be used. For example, the recommendation unit 370 lists at least one product including at least one disease tag and at least one product tag selected from the user terminal 100, or at least one product whose similarity between tags exceeds a preset similarity. can be extracted. For example, if the tags selected by the user are A, B, and C, and the "A" feed sold by the seller includes all of A, B, and C, you can extract the "A" feed, but when the tag becomes complicated There may not be a product that reflects all of the user-selected characteristics, i.e., tags. In this case, the most similar tag should be selected. Since the vectorized tag exists as described above, the similarity can be measured by the Euclidean distance or the cosine similarity, and products can be extracted and listed in the order of the highest similarity. have. At this time, since the Euclidean distance and the cosine similarity are the same as those of the known technology, they will not be described in detail.

이때, 각 키워드나 태그 간의 유사도(상품 키워드(OR 태그) vs. 문항 또는 답변 키워드(OR 태그))는, 단어를 벡터로 표현하고 단어 간의 가중치를 유클라디안 거리 및 코사인 유사도로 표현함으로써 다른 단어를 사용했다고 할지라도, 동일한 용어를 지칭하는 경우에는 정(Positive)의 피드백을 제공하도록 할 수 있다. 또, 서술된 사용자 텍스트의 한국어 문장을 형태소 해석하여 단어를 추출하고 단어들의 출현빈도 등을 근거로 자동 피드백을 제공하거나, 형태소 해석의 한계를 극복하기 위하여 단어의 개념 정보를 추출하고 이를 유사도 측정에 반영하거나, 단어간의 구문 관계, 의미관계를 반영하는 방법을 이용할 수도 있다. 또한, 답변의 문장에 대한 구문의미분석을 적용하고 그 결과인 구문, 격의미 정보를 활용하거나 구문의미분석의 결과인 구문의미트리를 비교하는 방식, 구문의미트리를 비교하는 비교기를 이용하는 방법 등도 이용될 수 있다. At this time, the degree of similarity between each keyword or tag (product keyword (OR tag) vs. question or answer keyword (OR tag)) is different by expressing the word as a vector and expressing the weight between the words as the Euclidean distance and cosine similarity. Even if used, positive feedback can be provided when referring to the same term. In addition, in order to extract words by morphological analysis of the described user text and to provide automatic feedback based on the frequency of occurrence of words, or to overcome the limitations of morpheme analysis, conceptual information of words is extracted and used to measure similarity. A method of reflecting or reflecting a syntactic relationship between words and a semantic relationship may be used. In addition, the method of applying syntactic semantic analysis to the sentences of the answer and using the resulting syntax and case semantic information, or comparing the syntactic semantic tree resulting from the syntactic semantic analysis, and using a comparator to compare the syntactic semantic tree are also used. can be

빅데이터화부(380)는, 피드백이 긍정(Positive) 피드백인 경우 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 태그를 매핑하여 데이터셋(DataSet)으로 하는 빅데이터를 구축할 수 있다. 만약, 사용자 단말(100)로부터 피드백이 오지 않거나 훈련 데이터셋이 부족한 경우 또는 더 학습이 필요한 경우, 로우 데이터의 수집을 위하여 웹크롤러와 같은 봇(Bot)을 이용할 수 있다. 여기서, 봇은, 웹 매크로(Macro) 봇일 수 있으나 이에 한정되지 않는다. 매크로 프로그램은 단순/반복적 작업을 자동으로 프로그램화하여 처리하는 소프트웨어로 통상 수작업을 통해 이루어지는 키보드 및 마우스 입력값, 입력순서 등의 작업을 사전에 입력하여 자동적, 반복적으로 실행하도록 함으로써 컴퓨터를 이용한 단순작업의 효율성을 증대시키는 데 사용된다. 매크로 프로그램을 이용하여 단순/반복적 작업을 자동화하는 것 자체는 효율적인 업무처리를 위하여 필요하고, 아울러 매크로 프로그램은 허용된 명령을 자동화하는 방식으로 구성될 수 있다.When the feedback is positive feedback, the big data conversion unit 380 may construct big data as a dataset by mapping image data corresponding to the face region or the body region and tags. If there is no feedback from the user terminal 100 or the training dataset is insufficient or further learning is required, a bot such as a web crawler may be used to collect raw data. Here, the bot may be a web macro bot, but is not limited thereto. A macro program is a software that automatically programs and processes simple/repetitive tasks. Simple tasks using a computer are usually performed manually by inputting tasks such as keyboard and mouse input values and input sequence in advance to automatically and repeatedly execute them. used to increase the efficiency of Automating simple/repetitive tasks using a macro program is necessary for efficient business processing, and the macro program can be configured in a way that automates permitted commands.

이때, 데이터셋은 사용자 단말(100)에서 입력한 영상 데이터 내에 포함된 반려동물의 종(Species), 나이(Age), 보유 질환, 체중 및 키를 포함하는 반려동물 정보를 포함할 수 있다. 또, 빅데이터화부(380)는, 사용자 단말(100)로부터 수집한 반려동물 정보, 영상 데이터 및 긍정 피드백을 받은 태그를 포함한 로우 데이터(Raw Data)를 병렬 및 분산하여 저장하고, 저장된 로우 데이터 내에 포함된 비정형(Unstructed) 데이터, 정형(Structured) 데이터 및 반정형 데이터(Semi-structured)를 정제하고, 메타 데이터로 분류를 포함한 전처리를 실시하고, 전처리된 데이터를 데이터 마이닝(Data Mining)을 포함하는 분석을 실시할 수 있다.In this case, the dataset may include companion animal information including the species, age, disease, weight, and height of the companion animal included in the image data input from the user terminal 100 . In addition, the big data conversion unit 380 parallelly and distributedly stores raw data including companion animal information, image data, and tags that have received positive feedback collected from the user terminal 100, and stores it in the stored raw data. Refining the included unstructured data, structured data and semi-structured data, performing preprocessing including classification as meta data, and data mining the preprocessed data. analysis can be performed.

덧붙여서, 빅데이터화부(380)는 적어도 하나의 동물병원 단말로부터 반려동물의 진료 기록 데이터(Electronic Medical Record) 및 진단코드인 ANICOM 코드를 수집하여 학습 데이터를 생성하고, 랜덤 포레스트(Random Forest)를 이용하여 학습을 진행하여 증상이 질의로 입력되는 경우 진단코드가 출력되어 예상 질병으로 리포트가 되도록 할 수 있다. 상술한 공유부(350)에서는 영상을 기반으로 이상행동이나 질병증상을 수집하고 분류했다면, 빅데이터화부(380)에서는 질병코드와 증상 텍스트 데이터에 기반하여 질병을 분류하고 학습하며, 이후 새로운 증상들이 입력되었을 때 질병코드를 추출하도록 이루어진다.In addition, the big data conversion unit 380 collects the companion animal's medical record data (Electronic Medical Record) and the ANICOM code, which is a diagnostic code, from at least one veterinary hospital terminal to generate learning data, and uses a random forest. Thus, when a symptom is input as a query, a diagnosis code is output and a report can be made as an expected disease. If the above-described sharing unit 350 collects and classifies abnormal behavior or disease symptoms based on the image, the big data conversion unit 380 classifies and learns the disease based on the disease code and symptom text data, and then new symptoms are generated. When inputted, the disease code is extracted.

빅데이터화부(380)는, 진단 보조 모델을 구축하기 위하여 우선 병원간 산재된 자료를 수집할 수 있고, 병원 간 상이한 데이터 포맷과 코드 일치 등의 데이터 포맷 전처리 작업과 증상 및 진단코드를 통합하고 분류하는 작업을 수행할 수 있다. 진단 분류를 위한 모델은 랜덤 포레스트(Random Forest) 모델을 기반으로 구축될 수 있다. 랜덤 포레스트 모델은, 반려동물의 개인정보, 증상, 검사결과의 입력에 대해 가능성이 높은 진단명 리스트를 출력할 수 있도록 구축된다. 랜덤 포레스트 모델의 구축 과정은 크게 세 개의 파트로 나뉜다. 첫 번째는, ANICOM 코드 통합 과정, 두 번째는 반려동물 EMR 확진 데이터의 전처리 및 통합 과정, 세 번째는 랜덤 포레스트 학습 과정이다.The big data conversion unit 380 may first collect scattered data between hospitals in order to build a diagnosis assistance model, and integrate and classify data format preprocessing tasks such as matching different data formats and codes between hospitals and symptoms and diagnostic codes. can do the job. A model for diagnostic classification may be built based on a random forest model. The random forest model is built to output a list of diagnosis names with a high probability of inputting personal information, symptoms, and test results of companion animals. The construction process of the random forest model is divided into three parts. The first is the ANICOM code integration process, the second is the preprocessing and integration of companion animal EMR confirmation data, and the third is the random forest learning process.

실제 동물병원에서 사용할 정도의 진단 정확도를 위해서는 많은 진료 기록 데이터(EMR, Electronic Medical Record)가 필수적이므로, 최대한 여러 동물병원으로부터 많은 양의 데이터를 수집해야 한다. 다만, 진료 기록 데이터의 속성 명칭이 병원별로 상이하며, 무엇보다도 통일된 진단명 범주가 존재하지 않아 동물병원마다 다른 코드를 사용하고 있는 것이 현 실정이고, 또한, 병원마다 사용하는 검사장비의 차이로 인해 동일 검사항목에 대한 검사결과 수치의 불일치 문제가 존재한다. 이런 데이터 통합 시 발생하는 문제들을 해결하기 위해 데이터 속성 일치 작업, 일본의 ANICOM 코드를 활용하여 22개의 진단코드로 수정하는 코드화 과정, 장비별 검사결과 수치를 상호 보정하고 이를 등급화(Discretization)하는 전처리 작업이 요구된다.Since a lot of medical record data (EMR, Electronic Medical Record) is essential for diagnostic accuracy to be used in an actual veterinary hospital, it is necessary to collect a large amount of data from as many animal hospitals as possible. However, the attribute name of the medical record data is different for each hospital, and above all, the current situation is that different codes are used for each veterinary hospital because there is no unified diagnosis name category. There is a problem of discrepancy between the test result values for the same test item. In order to solve these data integration problems, the data attribute matching operation, the coding process of using the Japanese ANICOM code to modify 22 diagnostic codes, and the preprocessing of discretizing and mutually calibrating the test result values for each equipment work is required

데이터 통합과정에서 중요한 작업 중의 하나가 병원별로 상이한 진단명을 통일하는 것이다. 아쉽게도 한국에는 아직 통합된 반려동물 진단코드가 존재하지 않는다. 이런 이유로, 이미 검증이 완료되고 일본에서 사용 중인 질환 코드인 ANICOM 코드를 사용하여 진단명을 코드화할 수 있으나 일본 외에도 유럽이나 미국과 같은 반려동물이 잘 발달된 나라의 진단코드를 이용할 수도 있다. 해당 코드는 질환명을 대분류 및 소분류로 분류하고 있다. 대분류는 16개로 구성되어 있으며, 각 대분류마다 소분류 진단명이 있으며 총 303개로 구성되어 있다. 여기서 대분류는 이국적인 동물에 해당하는 경우는 제외하여 소분류는 291개로 축소될 수 있다. 대분류는 소화기, 순환기, 호흡기, 비뇨기 등으로 구성되는데, 예를 들어 소화기 대분류 속에 위염, 장염, 구토, 설사 등의 소분류로 세분화된다. 최종 진단 분류는 데이터 수가 적은 8,9,11의 대분류를 제외한 나머지 대분류 12개와 다빈도 질환(291개의 질환 중 반려동물에게 주로 발생하는 질환) 10개를 추가하여 총 22개의 진단 클래스로 설정할 수 있다. 이는 소분류 차원(291개 클래스)에서의 진단 분류 모델을 구축하기에는 취합된 데이터의 개수가 충분하지 않기 때문이며, 대분류 차원에서의 진단이 갖는 낮은 임상적 효용성을 높이기 위해 소분류 중 상위 10개의 다빈도 질환을 대분류 범주에 추가할 수 있다. 다빈도 질환은 기존 대분류에 속한 질환이기 때문에 중복되지 않도록 해당되는 대분류에서 제거할 수 있다.One of the important tasks in the data integration process is to unify different diagnosis names for each hospital. Unfortunately, there is no integrated companion animal diagnosis code in Korea yet. For this reason, the diagnosis name can be coded using the ANICOM code, which is a disease code that has already been verified and is used in Japan. The code classifies disease names into major and minor categories. There are 16 major categories, and each major category has a sub-category diagnosis name, which is a total of 303. Here, the sub-categories can be reduced to 291 except for the case of exotic animals. The major category consists of digestive, circulatory, respiratory, and urinary organs. For example, in the digestive major category, it is subdivided into sub-categories such as gastritis, enteritis, vomiting, and diarrhea. The final diagnostic classification can be set to a total of 22 diagnostic classes by adding 12 major categories and 10 frequent diseases (out of 291 diseases that occur mainly in companion animals) except for the 8, 9, and 11 major categories with a small number of data. . This is because the number of collected data is not sufficient to build a diagnostic classification model in the small classification dimension (291 classes). It can be added to a large category. Because frequent disease is a disease belonging to an existing large category, it can be removed from the corresponding large category so that it does not overlap.

두 번째로, 반려동물 EMR 확진 데이터의 전처리 및 통합 과정이다. 동물병원으로부터 동일한 증상과 진단을 수집하더라도 모든 동물병원에서 동일한 증상명, 검사 항목명을 사용하지 않기 때문에 데이터 통합하기 전에 전처리 과정이 필수적이다. 기본적인 반려동물의 품종, 나이, 성별의 정보는 그대로 사용할 수 있다. 전처리 과정은 총 세 단계로 ① 증상의 코드화, ② 검사항목의 기준명칭 통합, ③ 검사결과의 등급화로 구성된다. 증상 속성의 경우는 진찰 중에 수의사가 입력한 의견으로서 대부분이 텍스트 형태로 되어 있으므로 범주화(Categorization)할 수 있고, 진단 속성과 마찬가지로 수의사의 검증을 통해 총 80개의 증상 범주로 표준 코드화할 수 있다. 수집한 데이터의 통합 작업에서 의 또 다른 어려운 점은 동물병원에서 사용하고 있는 검사장비(총 장비 개수는 혈액검사 장비 9개, 화학검사 장비 14개)의 속성(EMR상의 항목명칭, 검사결과 수치 범위 등)이 동일하지 않을 수 있다. 동종 검사장비의 검사명칭을 일치하기 위해 수의사의 검증을 받아 64개의 기준검사명칭으로 통합하는 과정을 더 거칠 수 있다. 또한, 제조사가 달라서 검사 수치의 범위가 상이한 동종 검사장비의 측정 결과 수치를 통합하기 위해 각 검사장비의 정상범위 참조치(Normal range)를 기준으로 재설정할 수 있다. Second, it is the pre-processing and integration process of companion animal EMR confirmation data. Even if the same symptoms and diagnoses are collected from veterinary hospitals, the preprocessing process is essential before data integration because all veterinary hospitals do not use the same symptom name and test item name. The basic pet's breed, age, and gender information can be used as it is. The pre-processing process consists of a total of three steps: ① symptom coding, ② integration of standard names of test items, and ③ grading of test results. In the case of symptom attributes, opinions input by veterinarians during examination are mostly in text form, so they can be categorized and, like diagnostic attributes, can be standardized into a total of 80 symptom categories through validation by a veterinarian. Another difficulty in integrating the collected data is the properties of the test equipment (the total number of equipment is 9 blood test equipment and 14 chemical test equipment) used in veterinary hospitals (name of item in EMR, range of test results) etc.) may not be the same. In order to match the test names of the same type of test equipment, the process of integrating them into 64 standard test names can be further processed after being verified by a veterinarian. In addition, in order to integrate the measurement result values of the same type of inspection equipment that have different inspection values due to different manufacturers, it can be reset based on the normal range of each inspection equipment.

세 번째 단계는 랜덤 포레스트 학습 단계이다. 반려동물 진단 분류 모델은 147개의 예측 인자를 기반으로 22개의 진단 클래스 중에서 가능성 높은 진단 정보를 제공한다고 가정하면, 머신러닝의 이론상, 6,500여 개의 데이터 개수에 대하여 147의 입력 차원은 상당히 고차원이다. 또한, 의료 분야라는 특성상 추론 결과에 대한 사용자의 해석 가능성(Interpretability)도 모델의 선택에서 중요한 요소이다. 이러한 점을 고려하여 랜덤 포레스트 모델을 채택할 수 있는데, 그 이유는 랜덤 포레스트 모델은, 고차원의 데이터를 다루기 위해서 랜덤성에 의해 트리들이 조금씩 다른 특성을 갖고 각 트리들의 예측들이 비상관화하기 때문이다. 또한, 다양한 예측 인자로 인해 생기는 노이즈 역시 다루기 위해 랜덤화 한다. The third stage is the random forest learning stage. Assuming that the companion animal diagnostic classification model provides diagnostic information with high probability among 22 diagnostic classes based on 147 predictive factors, in theory of machine learning, the input dimension of 147 for the number of 6,500 data sets is quite high. In addition, due to the nature of the medical field, the user's interpretability for inference results is also an important factor in model selection. In consideration of this point, a random forest model can be adopted, because the random forest model has slightly different properties due to randomness in order to handle high-dimensional data, and the predictions of each tree are non-correlated. In addition, we randomize to deal with noise caused by various predictors.

랜덤 포레스트는 기존의 분류 회귀 트리의 발전된 형태이다. 분류 회귀 트리는 설명변수 또는 예측 인자의 비선형성과 상호작용을 최대한 활용하여 변수에 대한 영향을 판단하는 기법이다. 설명변수를 중요도 기준에 따라 줄기(Branch)를 만들고 리프 노드(Leaf Node)에서 반응변수에 관한 판단을 내린다. 이때, 리프 노드에서의 높은 가능성(Probability)를 갖는 상위 5개 클래스(진단 분류명)를 사용자에게 제시한다. 147개의 속성을 갖는 입력에 대해 22개 진단 범주 중 1 개의 진단만을 제시하는 방식보다는 22개 클래스 중 높은 가능성을 갖는 상위 5 개의 진단 범주를 해당 범주의 확률과 함께 제공하는 방식이, 수의사 1 인이 진단하는 1 차 동물병원 특성상 진단 보조 시스템의 효용성이 배가 될 수 있다. 물론, 상술한 방법 이외에도 다양한 방법으로 질병을 도출하거나 증상에 대한 진단명을 도출가능함은 자명하다 할 것이며, 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.The random forest is an evolution of the existing classification regression tree. Classification regression tree is a technique for judging the influence on variables by maximizing the nonlinearity and interaction of explanatory variables or predictors. A branch is created for explanatory variables according to importance criteria, and judgments are made about response variables at leaf nodes. At this time, the top 5 classes (diagnostic classification names) with high probability in the leaf node are presented to the user. Rather than presenting only one diagnosis out of 22 diagnostic categories for an input with 147 attributes, the method of providing the top 5 diagnostic categories with the highest probability out of 22 classes with the probability of the corresponding category is better than the method of presenting only one diagnosis among 22 diagnostic categories. Due to the nature of the primary veterinary hospital that diagnoses, the effectiveness of the diagnostic assistance system can be doubled. Of course, it will be obvious that a disease can be derived or a diagnosis name for a symptom can be derived by various methods other than the above-described method, and it is not limited to the listed ones and is not excluded for reasons not listed.

이하, 상술한 도 2의 공유 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the shared service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as an example. However, it will be apparent that the embodiment is only one of various embodiments of the present invention and is not limited thereto.

도 3을 참조하면, (a) 공유 서비스 제공 서버(300)는 사용자 단말(100)로부터 반려동물 정보를 등록받고 하네스 카메라(400)를 연동시킨다. 그리고, (b) 공유 서비스 제공 서버(300)는 업로드된 영상 데이터 내 객체를 식별하고 객체의 안면인식을 통하여 현재 행동상태 및 감정상태 등을 파악한 후 태그를 라벨링한다. 그리고 나서, 사용자 단말(100)로 영상 데이터와 태그를 전송하여 태그가 제대로 라벨링 되었는지를 컨펌받는다. 또한, (c) 이렇게 수집된 다양한 사용자의 다양한 반려동물의 행동이나 감정상태를 데이터셋으로 구축한 후, 공유 서비스 제공 서버(300)는 적어도 하나의 연구기관 서버(500)를 이를 무료 또는 유료로 배포하고, (d) 사용자 단말(100)에게는 판매된 대금의 수익금 일부를 분배하거나 무료 사료 등을 지급하는 보상 프로세스를 진행한다.Referring to FIG. 3 , (a) the shared service providing server 300 registers companion animal information from the user terminal 100 and interlocks the harness camera 400 . And, (b) the shared service providing server 300 identifies the object in the uploaded image data, identifies the current behavioral state and emotional state through facial recognition of the object, and then labels the tag. Then, image data and the tag are transmitted to the user terminal 100 to confirm whether the tag is properly labeled. In addition, (c) after constructing the collected behaviors or emotional states of various companion animals of various users as a dataset, the shared service providing server 300 provides the at least one research institution server 500 for free or for a fee. distribution, and (d) a compensation process of distributing a portion of the proceeds of the sale price to the user terminal 100 or providing free feed, etc. is performed.

도 4를 참조하면, (a) 공유 서비스 제공 서버(300)는 사용자 단말(100)에서 반려동물의 질병이나 질환 또는 건강상태에 대한 정보를 수집하는 경우, 이를 영상 데이터, 태그와 함께 별도로 수집된 EMR 자료를 이용하여 함께 빅데이터를 구축할 수도 있고 이 정보를 제공한 사용자 단말(100)로 간식이나 장난감 등 보상을 제공할 수도 있다. (b) 사용자 단말(100)은 이 보상을 간식이나 사료로 교환할 수도 있고 할인을 받는 용도로 사용할 수도 있다. (c) 이렇게 행동-감정 등이 학습되었거나 이상행동에 대한 분석이 완료되는 경우 이를 이용하여 공유 서비스 제공 서버(300)는 하네스 카메라(400)로 실시간으로 수집된 영상을 분석하고 이를 사용자 단말(100)로 알려줄 수 있으며, 사용자 단말(100)에서 미리 설정한 음성을 출력하거나 사용자 단말(100)과 실시간 음성 채널을 이용하여 사용자의 음성이 하네스 카메라(400)나 홈 네트워크가 구축된 경우 인공지능 스피커(미도시) 등으로 출력될 수 있도록 한다.Referring to FIG. 4 , (a) the shared service providing server 300 collects information about a disease, disease, or health condition of a companion animal from the user terminal 100, and collects it separately along with image data and tags. Big data may be built together using EMR data, or rewards such as snacks or toys may be provided to the user terminal 100 that has provided this information. (b) The user terminal 100 may exchange this reward for snacks or feed, or use it for a discount. (c) In this way, when behavior-emotions, etc. are learned or analysis of abnormal behavior is completed, the shared service providing server 300 analyzes the image collected in real time with the harness camera 400 and uses it to analyze the image collected by the user terminal 100 ), and when the user terminal 100 outputs a preset voice or uses the user terminal 100 and a real-time voice channel to hear the user's voice from the harness camera 400 or the home network is established, the artificial intelligence speaker (not shown) and so on.

이와 같은 도 2 내지 도 4의 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described for the method of providing the companion animal information sharing service using the harness camera of FIGS. 2 to 4 are the same as those described above for the method of providing the companion animal information sharing service using the harness camera through FIG. 1 or Since it can be easily inferred from the described content, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.5 is a diagram illustrating a process in which data is transmitted/received between components included in the system for providing a companion animal information sharing service using the harness camera of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process in which data is transmitted and received between each component will be described with reference to FIG. 5, but the present application is not limited to such an embodiment, and the example shown in FIG. 5 according to the various embodiments described above will be described. It is apparent to those skilled in the art that the data transmission/reception process may be changed.

도 5를 참조하면, 공유 서비스 제공 서버는, 사용자 단말로부터 사용자 단말 및 하네스 카메라를 매핑하여 등록하고(S5100), 하네스 카메라로부터 사용자 단말을 경유하여 수신된 영상 데이터 내에 포함된 객체인 안면 영역 또는 신체 영역을 전처리 후 추출한다(S5200).Referring to FIG. 5 , the shared service providing server maps and registers a user terminal and a harness camera from a user terminal (S5100), and a facial area or body that is an object included in image data received from the harness camera via the user terminal. The region is extracted after pre-processing (S5200).

또한, 공유 서비스 제공 서버는, 안면 영역 또는 신체 영역에 태그를 라벨링 및 매핑하여 저장하고(S5300), 라벨링된 태그를 사용자 단말로 전송하여 피드백을 수신한다(S5400).In addition, the shared service providing server labels and maps the tag to the facial region or the body region and stores it (S5300), and transmits the labeled tag to the user terminal to receive feedback (S5400).

마지막으로, 공유 서비스 제공 서버는, 피드백이 긍정(Positive) 피드백인 경우 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 태그를 공유한다(S5500).Finally, when the feedback is positive feedback, the shared service providing server shares the tag with image data corresponding to the face region or body region ( S5500 ).

상술한 단계들(S5100~S5500)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5500)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5500) is only an example, and is not limited thereto. That is, the order between the above-described steps ( S5100 to S5500 ) may be mutually changed, and some of these steps may be simultaneously executed or deleted.

이와 같은 도 5의 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described with respect to the method for providing the companion animal information sharing service using the harness camera of FIG. 5 are the same as those described above for the method for providing the companion animal information sharing service using the harness camera through FIGS. 1 to 4, or Since it can be easily inferred from the described content, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method for providing a companion animal information sharing service using a harness camera according to an embodiment described with reference to FIG. 5 is also in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. can be implemented. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include any computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.In the method of providing a companion animal information sharing service using a harness camera according to an embodiment of the present invention described above, an application basically installed in a terminal (which may include a program included in a platform or an operating system basically installed in the terminal) may be executed by the application store server, an application or an application (ie, a program) directly installed in the master terminal through an application providing server such as a web server related to the application or the corresponding service by the user. In this sense, the method for providing a companion animal information sharing service using a harness camera according to an embodiment of the present invention described above is implemented as an application (ie, a program) installed basically in a terminal or directly installed by a user, and is It may be recorded on a computer-readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (7)

반려동물의 안면을 촬영하도록 안면 방향으로 대향되도록 설치 또는 구비되고, 상기 반려동물의 신체 일부 또는 전부에 채워진 하네스를 통하여 고정 및 지지되며, 상기 반려동물의 안면을 촬영한 영상 데이터를 출력하는 하네스 카메라;
상기 하네스 카메라로부터 수신한 영상 데이터를 무선 또는 유선 통신을 통하여 실시간으로 업로드하고, 상기 영상 데이터의 분석결과에 기반한 결과 데이터를 출력하는 사용자 단말; 및
상기 사용자 단말로부터 상기 사용자 단말 및 하네스 카메라를 매핑하여 등록하는 등록부, 상기 하네스 카메라로부터 상기 사용자 단말을 경유하여 수신된 영상 데이터 내에 포함된 객체인 안면 영역 또는 신체 영역을 전처리 후 추출하는 추출부, 상기 안면 영역 또는 신체 영역에 태그를 라벨링 및 매핑하여 저장하는 저장부, 상기 라벨링된 태그를 상기 사용자 단말로 전송하여 피드백을 수신하는 수신부, 상기 피드백이 긍정(Positive) 피드백인 경우 상기 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 상기 태그를 공유하는 공유부를 포함하는 공유 서비스 제공 서버;
를 포함하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
A harness camera that is installed or provided to face in the face direction so as to photograph the face of the companion animal, is fixed and supported through a harness filled in part or all of the body of the companion animal, and outputs image data of the face of the companion animal ;
a user terminal for uploading the image data received from the harness camera in real time through wireless or wired communication, and outputting result data based on the analysis result of the image data; and
a registration unit for mapping and registering the user terminal and the harness camera from the user terminal; A storage unit for labeling, mapping, and storing tags on a face region or body region, a receiver unit for transmitting the labeled tag to the user terminal to receive feedback, and if the feedback is positive feedback, the facial region or body region a sharing service providing server including a sharing unit for sharing image data corresponding to and the tag;
Companion animal information sharing service providing system using a harness camera that includes.
제 1 항에 있어서,
상기 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템은,
상기 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 상기 태그를 공유받아 빅데이터를 구축하는 적어도 하나의 연구기관 서버;
를 더 포함하는 것을 특징으로 하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
The method of claim 1,
Companion animal information sharing service providing system using the harness camera,
at least one research institute server configured to construct big data by sharing the tag and image data corresponding to the face region or body region;
Companion animal information sharing service providing system using a harness camera, characterized in that it further comprises.
제 1 항에 있어서,
상기 공유 서비스 제공 서버는,
상기 사용자 단말에서 전송한 영상 데이터의 용량 및 피드백률(Rate)에 기반하여 상기 사용자 단말로 보상에 대응하는 포인트를 적립하는 포인트부;
를 더 포함하는 것을 특징으로 하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
The method of claim 1,
The shared service providing server,
a point unit for accumulating points corresponding to compensation to the user terminal based on the capacity and feedback rate of the image data transmitted from the user terminal;
Companion animal information sharing service providing system using a harness camera, characterized in that it further comprises.
제 1 항에 있어서,
상기 공유 서비스 제공 서버는,
상기 사용자 단말에서 전송한 영상 데이터 내 객체인 반려동물을 분석한 결과에 기반하여 적어도 하나의 반려동물 용품을 추출하고 상기 사용자 단말로 추천하는 추천부;
를 더 포함하는 것을 특징으로 하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
The method of claim 1,
The shared service providing server,
a recommendation unit that extracts at least one companion animal product based on a result of analyzing the companion animal, which is an object in the image data transmitted from the user terminal, and recommends it to the user terminal;
Companion animal information sharing service providing system using a harness camera, characterized in that it further comprises.
제 1 항에 있어서,
상기 공유 서비스 제공 서버는,
상기 피드백이 긍정(Positive) 피드백인 경우 상기 안면 영역 또는 신체 영역에 대응하는 영상 데이터와 상기 태그를 매핑하여 데이터셋(DataSet)으로 하는 빅데이터를 구축하는 빅데이터화부;
를 더 포함하는 것을 특징으로 하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
The method of claim 1,
The shared service providing server,
a big data conversion unit for constructing big data as a dataset by mapping the tag with the image data corresponding to the face region or body region when the feedback is positive feedback;
Companion animal information sharing service providing system using a harness camera, characterized in that it further comprises.
제 5 항에 있어서,
상기 데이터셋은 상기 사용자 단말에서 입력한 상기 영상 데이터 내에 포함된 반려동물의 종(Species), 나이(Age), 보유 질환, 체중 및 키를 포함하는 반려동물 정보를 포함하는 것을 특징으로 하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
6. The method of claim 5,
The dataset is a harness camera comprising companion animal information including species, age, disease, weight and height of companion animals included in the image data input from the user terminal. Companion animal information sharing service providing system using
제 5 항에 있어서,
상기 빅데이터화부는,
상기 사용자 단말로부터 수집한 반려동물 정보, 영상 데이터 및 긍정 피드백을 받은 태그를 포함한 로우 데이터(Raw Data)를 병렬 및 분산하여 저장하고, 상기 저장된 로우 데이터 내에 포함된 비정형(Unstructed) 데이터, 정형(Structured) 데이터 및 반정형 데이터(Semi-structured)를 정제하고, 메타 데이터로 분류를 포함한 전처리를 실시하고, 상기 전처리된 데이터를 데이터 마이닝(Data Mining)을 포함하는 분석을 실시하는 것을 특징으로 하는 하네스 카메라를 이용한 반려동물 정보 공유 서비스 제공 시스템.
6. The method of claim 5,
The big data conversion unit,
Companion animal information collected from the user terminal, image data, and raw data including tags receiving positive feedback are stored in parallel and distributed, and unstructured data and structured data included in the stored raw data are stored. ) Refining data and semi-structured data, performing pre-processing including classification as metadata, and analyzing the pre-processed data including data mining. Companion animal information sharing service providing system using
KR1020200123569A 2020-09-24 2020-09-24 System for providing pet information sharing service using harness camera KR102328981B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200123569A KR102328981B1 (en) 2020-09-24 2020-09-24 System for providing pet information sharing service using harness camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200123569A KR102328981B1 (en) 2020-09-24 2020-09-24 System for providing pet information sharing service using harness camera

Publications (1)

Publication Number Publication Date
KR102328981B1 true KR102328981B1 (en) 2021-11-23

Family

ID=78694760

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200123569A KR102328981B1 (en) 2020-09-24 2020-09-24 System for providing pet information sharing service using harness camera

Country Status (1)

Country Link
KR (1) KR102328981B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102501092B1 (en) * 2022-09-15 2023-02-17 주식회사 서랩 Smart rope holder and pets managemant convergence system using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028022A (en) * 2017-09-08 2019-03-18 주식회사 한라홀딩스 Method and apparatus for providing a graphic user interface that shows behavior and emotion of a pet
KR20190041775A (en) * 2017-10-13 2019-04-23 주식회사 테오아 Method for registration and identity verification of using companion animal’s muzzle pattern
KR102176934B1 (en) * 2020-09-24 2020-11-10 주식회사 디랩스 System for providing pet total care service using face recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028022A (en) * 2017-09-08 2019-03-18 주식회사 한라홀딩스 Method and apparatus for providing a graphic user interface that shows behavior and emotion of a pet
KR20190041775A (en) * 2017-10-13 2019-04-23 주식회사 테오아 Method for registration and identity verification of using companion animal’s muzzle pattern
KR102176934B1 (en) * 2020-09-24 2020-11-10 주식회사 디랩스 System for providing pet total care service using face recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102501092B1 (en) * 2022-09-15 2023-02-17 주식회사 서랩 Smart rope holder and pets managemant convergence system using the same

Similar Documents

Publication Publication Date Title
Koltes et al. A vision for development and utilization of high-throughput phenotyping and big data analytics in livestock
García et al. A systematic literature review on the use of machine learning in precision livestock farming
Tassinari et al. A computer vision approach based on deep learning for the detection of dairy cows in free stall barn
De Chaumont et al. Real-time analysis of the behaviour of groups of mice via a depth-sensing camera and machine learning
KR102304088B1 (en) Method of providing pet care service with big data
KR102176934B1 (en) System for providing pet total care service using face recognition
KR102271991B1 (en) System of providing customized information for companion animal care and method thereof
Rao et al. On-farm welfare monitoring system for goats based on Internet of Things and machine learning
KR102315991B1 (en) Device and system for managing livestck remotly using artificial intelligence
KR20210147206A (en) System for providing checkup service for supplying pet customized merchandise
KR102328981B1 (en) System for providing pet information sharing service using harness camera
KR102494373B1 (en) Method, apparatus and system for providing baby health diagnosis solution by using diaperstool image
KR102532554B1 (en) System for providing health care service usign internet of things smart pet littering device
Belani et al. Towards ontology-based requirements engineering for IoT-supported well-being, aging and health
KR102202810B1 (en) Automatic opinion generation system for livestock diagnosis using veterinary experience knowledge and professional information
Neethirajan et al. Social network analysis in farm animals: Sensor-based approaches
KR102186371B1 (en) System for providing customized pet management service using multi-tag
Ali et al. Application of artificial intelligence in monitoring of animal health and welfare
Mertes et al. Assessing neophobia and exploration while accounting for social context: An example application in scimitar-horned oryx
Fuentes et al. Toward A Dairy Ontology to Support Precision Farming.
Linhares et al. FeedEfficiencyService: An architecture for the comparison of data from multiple studies related to dairy cattle feed efficiency indices
KR102488264B1 (en) System for providing artificial intelligence based feeding management service using status information of pet
KR102248586B1 (en) Livestock diagnosis support system using veterinary experience knowledge
KR102422223B1 (en) Apparatus for Care Service of Companion Animal and Driving Method Thereof
Bardon et al. RFIDeep: Unfolding the potential of deep learning for radio‐frequency identification

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant