KR102452932B1 - 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템 - Google Patents

지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템 Download PDF

Info

Publication number
KR102452932B1
KR102452932B1 KR1020220008761A KR20220008761A KR102452932B1 KR 102452932 B1 KR102452932 B1 KR 102452932B1 KR 1020220008761 A KR1020220008761 A KR 1020220008761A KR 20220008761 A KR20220008761 A KR 20220008761A KR 102452932 B1 KR102452932 B1 KR 102452932B1
Authority
KR
South Korea
Prior art keywords
animal
abandoned
map
user terminal
platform service
Prior art date
Application number
KR1020220008761A
Other languages
English (en)
Inventor
정우석
Original Assignee
정우석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정우석 filed Critical 정우석
Priority to KR1020220008761A priority Critical patent/KR102452932B1/ko
Application granted granted Critical
Publication of KR102452932B1 publication Critical patent/KR102452932B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • G09B29/006Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes
    • G09B29/007Representation of non-cartographic information on maps, e.g. population distribution, wind direction, radiation levels, air and sea routes using computer methods

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Educational Administration (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Development Economics (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Ecology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템이 제공되며, 발견제보 메뉴를 선택한 후, GPS 신호를 기반으로 지도상 유기동물의 위치를 설정하고, 카메라를 구동시켜 유기동물을 촬영하여 발견제보 이벤트를 출력하는 적어도 하나의 사용자 단말 및 적어도 하나의 사용자 단말에서 발견제보 메뉴가 선택되는 경우 GPS 신호를 기반으로 지도 상 적어도 하나의 사용자 단말의 위치를 설정하여 표시하는 표시부, 적어도 하나의 사용자 단말의 카메라를 구동시켜 사진을 촬영하도록 제어하는 촬영제어부, GPS 신호에 따른 유기동물의 위치 및 사진을 지도 상에 매핑하여 저장하는 저장부를 포함하는 플랫폼 서비스 제공 서버를 포함한다.

Description

지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템{SYSTEM FOR PROVIDING MAP BASED STRAY ANIMAL MANAGEMENT PLATFORM SERVICE}
본 발명은 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템에 관한 것으로, 지도 기반으로 유기동물 또는 실종동물의 제보위치를 오버레이하고 예상활동영역을 확정한 후 구조를 요청하는 플랫폼을 제공한다.
한국 반려동물의 양육인구 및 관련 산업 규모는 매년 최고치를 경신하며 급성장하고 있다. 이와 더불어 비록 반려동물에 대한 보호 및 복지에 대한 관심과 의식수준도 높아지고 있지만, 구조 또는 보호되는 유기동물도 유래 없이 증가하고 있는 실정이며 열악한 사육환경 등에 따른 동물학대도 급증하고 있다. 1991년에 동물에 대한 학대행위를 방지하고 국민의 동물보호정신을 함양하기 위하여 동물보호법이 제정되었고 그 이후 꽤 오랜 시간이 흘렀지만 동물학대와 유기에 대한 뉴스는 끊임없이 보도되고 있다. 동물을 고의로 유기하는 경우도 있지만 반려동물의 특성으로 인하여 잃어버리는 경우도 잦은데, 대부분 전단지를 붙이거나 포인핸드와 같은 플랫폼에 보호소에 들어온 이후에야 등록되어 공유되는 경우가 많아, 반려동물을 잃어버린 주인들이 찾고 있음에도 찾지 못하거나, 각 관계기관의 관할구역이 서로 달라 먼 곳의 보호소로 이동되거나, 공고 기간 도과로 인해 찾은 후엔 이미 안락사된 경우가 많다.
이때, 구조에서부터 입양까지의 과정에서 유기동물을 통합 관리하거나 실종동물과 유기동물을 매칭하여 주인을 찾아주는 플랫폼이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국등록특허 제10-1673682호(2016년11월07일 공고) 및 한국공개특허 제2018-0070057호(2018년06월26일 공개)에는, 유기동물 발견 단말로부터 유기동물의 영상, 상태정보 및 발견위치 정보를 수신하고, 정보를 기반으로 유기동물의 품종, 나이 및 건강상태를 진단하며, 진단결과를 반영하여 관계기관을 선정한 후 선정된 관계기관 단말로 유기동물 발견정보 및 진단결과를 전달하고, 진단결과, 입양신청정보 및 실종동물등록정보를 비교하여 양육후보자를 선정한 후 입양절차를 중개하는 구성과, 유기동물의 정면사진, 보호장소 및 유기장소를 포함하는 정보를 입력받아 검색포털에 저장하고, 실종동물의 정면사진과 유기동물의 정면사진을 비교한 후 얼굴을 매칭하며, 얼굴인식 매칭률이 기 설정된 값 이상인 경우 실종신고 단말로 안내하는 구성이 각각 개시되어 있다.
다만, 전자의 경우 유기동물을 발견한 경우 지도 기반으로 데이터를 저장하지 않기 때문에 어느 지역에서 헤매고 있는지 또는 예상활동반경을 알 수 없고, 이에 따라 구조자나 구조대가 하루 종일 추적하며 따라다니면서 예상활동반경을 한정하며, 예상활동반경 내에 미끼로 유인한 후 트랩을 설치한 후에야 유기동물을 구조할 수 있다. 후자의 경우에도 유기동물의 정면사진을 찍어 비교한다는 것은 이미 유기동물을 포획했다는 의미인데, 대부분의 동물이 유기된 후에는 사람을 무서워하기 때문에 사람을 피해 달아나거나 도망치기가 일쑤이고, 정면사진을 얻지 못하는 경우 상술한 구성은 무용지물이 된다. 이에, 유기동물 및 실종동물을 지도 기반으로 표시하고, 제보된 위치를 기반으로 예상활동반경을 확정하며, 확정된 예상활동반경 내에서 수색을 한 후 구조할 수 있도록 하는 플랫폼의 연구 및 개발이 요구된다.
본 발명의 일 실시예는, 유기동물 및 실종동물에 대한 제보를 GPS 위치를 이용하여 지도 기반으로 아이콘화하여 오버레이하고, 유기동물 및 실종동물에 대한 예상활동반경이 설정되는 경우 설정된 예상활동반경 내에서 구조 및 수색작업을 시작하도록 하여 효율성을 높이며, 기 등록된 실종동물과 제보된 유기동물 간 유사도에 기반하여 실종동물을 찾을 수 있도록 돕고, SOS 구조요청이 기 설정된 수 이상 존재하는 경우 SOS 구조요청을 활성화하여 즉시 구조대를 투입할 수 있도록 하며, 동물 쉼터의 위치를 지도상에 출력하고 야외에서 생활하는 동물의 실시간 상태를 공유할 수 있도록 함으로써 쉼터 및 동물의 개체 수를 실시간으로 파악할 수 있도록 하는, 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 발견제보 메뉴를 선택한 후, GPS 신호를 기반으로 지도상 유기동물의 위치를 설정하고, 카메라를 구동시켜 유기동물을 촬영하여 발견제보 이벤트를 출력하는 적어도 하나의 사용자 단말 및 적어도 하나의 사용자 단말에서 발견제보 메뉴가 선택되는 경우 GPS 신호를 기반으로 지도 상 적어도 하나의 사용자 단말의 위치를 설정하여 표시하는 표시부, 적어도 하나의 사용자 단말의 카메라를 구동시켜 사진을 촬영하도록 제어하는 촬영제어부, GPS 신호에 따른 유기동물의 위치 및 사진을 지도 상에 매핑하여 저장하는 저장부를 포함하는 플랫폼 서비스 제공 서버를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 유기동물 및 실종동물에 대한 제보를 GPS 위치를 이용하여 지도 기반으로 아이콘화하여 오버레이하고, 유기동물 및 실종동물에 대한 예상활동반경이 설정되는 경우 설정된 예상활동반경 내에서 구조 및 수색작업을 시작하도록 하여 효율성을 높이며, 시민의 능동적 및 자발적 참여를 지향하고 시민 스스로가 유기동물 보호에 관여하게 됨으로써, 유기동물 문제에 대한 사회 전반의 인식을 제고할 수 있으며, 기 등록된 실종동물과 제보된 유기동물 간 유사도에 기반하여 실종동물을 찾을 수 있도록 돕고, SOS 구조요청이 기 설정된 수 이상 존재하는 경우 SOS 구조요청을 활성화하여 즉시 구조대를 투입할 수 있도록 하며, 동물 쉼터의 위치를 지도상에 출력하고 야외에서 생활하는 동물의 실시간 상태를 공유할 수 있도록 함으로써 쉼터 및 동물의 개체 수를 실시간으로 파악할 수 있도록 한다.
도 1은 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 플랫폼 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 플랫폼 서비스 제공 서버(300), 적어도 하나의 지역 가맹점 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 플랫폼 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 플랫폼 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 지역 가맹점 단말(400)과 연결될 수 있다. 또한, 적어도 하나의 지역 가맹점 단말(400)은, 네트워크(200)를 통하여 플랫폼 서비스 제공 서버(300)와 연결될 수 있다.
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
적어도 하나의 사용자 단말(100)은, 지도 기반 유기동물 관리 플랫폼 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 유기동물을 발견제보하거나 실종동물을 실종제보하는 사용자의 단말일 수 있다.
여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
플랫폼 서비스 제공 서버(300)는, 지도 기반 유기동물 관리 플랫폼 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 플랫폼 서비스 제공 서버(300)는, 사용자 단말(100)로부터 유기동물 또는 실종동물로 제보된 위치를 지도 상에 표시하여 출력하는 서버일 수 있다. 플랫폼 서비스 제공 서버(300)는, 구조SOS 요청이 온 숫자를 카운트하여 기 설정된 숫자를 초과하는 경우 즉시 구조SOS를 활성화시키고 구조대를 출동시키는 서버일 수 있다. 또한, 플랫폼 서비스 제공 서버(300)는, 길고양이의 쉼터 및 길고양이의 상태를 사용자 단말(100)로부터 업로드받고 이를 지도상에 표시하는 서버일 수 있다.
여기서, 플랫폼 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
적어도 하나의 지역 가맹점 단말(400)은, 지도 기반 유기동물 관리 플랫폼 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하는 동물병원, 반려동물카페, 반려동물용품점, 반려동물미용실 등의 단말일 수 있다. 지역 가맹점 단말(400)은 상호, 영업시간, 위치 등을 업로드하고, 플랫폼 서비스 제공 서버(300)의 리워드인 지역화폐를 결제에 사용하는 단말일 수 있다. 또, 지역 가맹점 단말(400)이 동물병원인 경우 유기동물을 입양하거나 임시보호할 때 건강검진을 할인 또는 무료로 제공하는 단말일 수 있다.
여기서, 적어도 하나의 지역 가맹점 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 지역 가맹점 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 지역 가맹점 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
도 2는 도 1의 시스템에 포함된 플랫폼 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 플랫폼 서비스 제공 서버(300)는, 표시부(310), 촬영제어부(320), 저장부(330), 동일개체확인부(340), 예상활동반경설정부(350), 실종제보부(360), SOS처리부(370), AR모드부(380), 3D모델링부(391), 지역화폐연계부(393) 및 지역상권구축부(395)를 포함할 수 있다.
본 발명의 일 실시예에 따른 플랫폼 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 지역 가맹점 단말(400)로 지도 기반 유기동물 관리 플랫폼 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 지역 가맹점 단말(400)은, 지도 기반 유기동물 관리 플랫폼 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 지역 가맹점 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.
도 2를 참조하면, 표시부(310)는, 적어도 하나의 사용자 단말(100)에서 발견제보 메뉴가 선택되는 경우 GPS 신호를 기반으로 지도 상 적어도 하나의 사용자 단말(100)의 위치를 설정하여 표시할 수 있다. 적어도 하나의 사용자 단말(100)은, 발견제보 메뉴를 선택한 후, GPS 신호를 기반으로 지도상 유기동물의 위치를 설정하고, 카메라를 구동시켜 유기동물을 촬영하여 발견제보 이벤트를 출력할 수 있다. 이때, 유기동물이 바로 제보자와 함께 있지 않는 한, 유기동물의 GPS 위치는 사용자 단말(100)의 GPS 위치와 동일할 수가 없다. 유기동물, 고양이는 물론이고 사람에게 친근한 강아지마저 길거리 생활을 하다보면 경계심이 늘기 때문에 쉽사리 잡히지 않고 인간이 접근하는 경우 도망가버린다. 최근 스마트폰의 카메라가 1 개가 아니라 2 개 이상인 스테레오 카메라(Stereo Camera) 또는 멀티 카메라인점을 이용하여, 깊이 카메라가 아니더라도, 또는 LiDAR와 같은 센서가 없더라도 영상 기반으로 객체, 즉 실종동물이나 유기동물까지의 거리 및 방향을 측정하여 발견된 위치를 정확히 지도 상에 표시할 수 있는 구성을 더 부가할 수 있다.
<SURF 알고리즘을 이용한 특징점 매칭>
스테레오 카메라는 사람의 눈과 같은 역할을 통하여 단일 카메라로는 얻기 어려운 거리 정보까지 획득할 수 있다. 이때, SURF(Speeded Up Robust Features)알고리즘은 SIFT(Scale Invariant Feature Transform) 알고리즘에서 처리 속도를 향상시킨 알고리즘이다. SURF 알고리즘은 이미지 블러나 회전, 크기 변형에 강하며, 뷰포인트(Viewpoint)의 변화나 조명 변화에 약한 특징을 가지고 있다.
SURF 알고리즘을 구현하기 위해서는 Hessian 검출기를 이용하여 Blob 특징을 검출하고 특징 주변의 기술자를 생성하여 특징점 매칭을 한다. 여기서 Hessian 검출기는 Hessian Matrix를 이용하는데, 이는 다변수 함수가 극값을 가질 때, 그것이 극대인지 극소인지 판정할 때 사용된다. 또한 Blob 특징은 얼룩과 같이 밝기, 색상 등이 주변과 다른 특징을 가지는 지역을 말한다.
<시차를 이용한 거리 계산>
스테레오를 이용하면 동일한 물체에 대해서 두 장의 이미지를 얻을 수 있다. 예를 들어, 두 장의 이미지는 기저선(Base Line)만큼 서로 떨어져 있는 상태이다. 그로 인하여 두 이미지에서 서로 대응되는 점이라도, 이미지 상 좌표 값 차이가 발생하게 된다. 이를 이격도(Disparity)라고 한다. 이때, 물체에 대한 거리 정보를 얻기 위해서는 이격도를 파악해야 하는데, 이는 물체와 카메라 사이의 거리가 멀어질수록 줄어들게 된다. 이격도를 구하기 위해서는 이하 수학식 1을 이용할 수 있다.
Figure 112022007655810-pat00001
Figure 112022007655810-pat00002
여기서 B는 스테레오 카메라에 있는 두 카메라 사이의 거리이며, f는 카메라의 초점거리(Focal Length), z는 객체에서부터 원점까지의 거리이다. 수학식 1을 변환하면 수학식 2와 같이 이격도, 기저선 및 카메라의 초점거리에 기초하여 거리를 구할 수 있다. 이때, 방향은 사용자 단말(100) 내 지자기센서를 이용하여 방위각이나 방향을 파악할 수 있다. 거리 및 방향이 도출되었으므로 유기동물 또는 실종동물이 위치한 지점을 추정할 수 있고, 이 추정된 위치를 지도 상에 표시할 수 있다.
촬영제어부(320)는, 적어도 하나의 사용자 단말(100)의 카메라를 구동시켜 사진을 촬영하도록 제어할 수 있다. 촬영제어부(320)는, 다급한 상황에 스마트폰 락 화면을 언락시키고, 카메라 앱 아이콘을 찾아서 또 이를 촬영해야 하는 번거로움을 없애기 위해, 유기동물이나 실종동물을 발견했을 때 사람들이 자주 쓰는 단어, 예를 들어, "어? 저기 있다!" 라는 등의 단어가 음성발화된 경우 바로 본 발명의 일 실시예에 따른 애플리케이션을 구동시켜 카메라를 구동하도록 할 수 있다. 이때, 촬영을 할 때 터치를 해서 촬영을 하게 되는데 이때 손떨림이 있으면 유기동물이 뭉개지게 촬영되거나, 카메라 화면을 보다가 동물을 놓치는 경우가 많기 때문에, 동물 형상이 객체로 인식되는 즉시 사람의 개입없이 자동으로 촬영되도록 제어할 수 있다.
저장부(330)는, GPS 신호에 따른 유기동물의 위치 및 사진을 지도 상에 매핑하여 저장할 수 있다. 이렇게 저장을 할 때 후술하는 딥러닝 등의 이미지 인식 기술을 이용하여 중복된 동물이 등록된 것은 아닌지 기 저장된 실종동물 또는 유기동물의 이미지와 비교를 수행한 후 중복이 아닌 경우 새로운 유기동물의 ID를 부여하여 지도 상에 출력할 수 있다. 중복이 아닌 경우를 파악하기 위해서는 우선 사용자 단말(100)로 유사도가 기 설정된 값을 초과한 기 등록된 실종동물 또는 유기동물의 이미지를 업로드하고, 이 중에 유사한 것이 있는지에 대해 사용자에게 확인을 받는 절차를 더 거칠 수 있다. 또, 자주 출몰하는 지역의 시간대를 함께 저장해둠으로써, 그 시간대에 해당 지역을 지나가는 사용자 단말(100)로 유기동물 또는 실종동물의 얼굴을 팝업시키고 혹시 이 실종동물이나 유기동물을 본 경우 제보를 해달라는 메시지를 출력시킬 수도 있다. 최근 코로나로 인하여 안전문자가 많이 오지만, 자신의 위치 또는 상황과 맞지 않는 문자가 계속 옴에 따른 피로도가 높다. 이에 해당 지역을 지나가는 사람 또는 해당 지역에 거주하는 사람들에게만 선별적으로 보낼 수도 있다.
동일개체확인부(340)는, 적어도 하나의 사용자 단말(100)에서 유기동물의 사진을 촬영한 경우, 사진 내 객체를 추출하고, 기 발견제보된 유기동물의 사진과의 유사도가 기 설정된 유사도를 만족하는 적어도 하나의 유기동물의 사진을 지도 상에 썸네일을 포함한 제 1 아이콘으로 오버레이하며, 적어도 하나의 사용자 단말(100)에서 제 1 아이콘을 선택하는 경우, 기 발견제보된 유기동물의 사진 및 제보 데이터를 출력한 후 동일 유기동물인지의 여부를 확인받을 수 있다. 이때, 제 1 아이콘은 초록색 핀(Pin) 형상일 수 있다.
동일개체확인부(340) 적어도 하나의 사용자 단말(100)에서 촬영한 유기동물의 사진을 데이터베이스로 저장하고, 각 유기동물의 사진 내 객체 간 유사도를 적어도 하나의 인공지능 알고리즘을 이용하여 분석하며, 유사도에 따른 일치율을 퍼센테이지로 출력할 수 있다.
이를 위하여, 딥러닝 이미지 분석을 이용한 동물 외형 분석 기술을 이용할 수 있다. 딥러닝 이미지 분석을 이용한 동물 외형분석기술은 동물 이미지에서 특징점을 찾기 위한 CNN(Convolution Neural Network)과 구글에서 제공하는 딥러닝 프레임워크인 TensorFlow를 이용하여 동물의 외형을 분석할 수 있다. 사람의 생김새가 모두 다르듯이 동물 또한 생김새가 모두 다르다. 인간의 얼굴의 특징점을 눈썹, 눈, 코, 입 간의 비율, 간격 등을 이용하여 식별하듯, 같은 종끼리 비슷하게 생겼더라도 눈, 코, 입부터 다리, 몸통, 꼬리 등 골격의 크기와 비율이 다른 것을 이용한다. 또한, 귀가 세워져 있는지, 쳐져 있는지 혹은 얼굴이나 몸에 무늬가 있는지, 무늬는 어떠한 모양을 하고 있는지 등 다양한 특징을 가지고 있는데, 본 발명의 일 실시예는,이를 이용하여 CNN을 통해 동물들의 외형 골격에서 특징점을 찾아내고 Tensor Flow로 신체비율의 정보를 분석하여 각 동물들의 고유한 외형정보를 얻을 수 있다. 이렇게 동물의 외형만으로 고유 정보를 얻을 수 있고 이를 통해 각 개체를 특정할 수 있다.
이때, 멀리 있는 경우, 즉 사용자와 촬영 객체(유기동물, 실종동물) 간 거리가 먼 경우에는 얼굴의 특징점이나 무늬가 정확히 파악이 안되기 때문에 제 1 단계로, 외형 골격이나 비율, 예를 들어, 몸통과 다리의 비율, 얼굴의 크기와 몸통의 길이 간의 비율이나 길이를 이용하여 식별하고, 제 2 단계로 가까이에서 촬영된 경우에는 얼굴의 특징점이나 비문 또는 털의 무늬를 이용하여 식별할 수 있도록 할 수도 있다. 여기서, 외형 골격을 구하기 위해서는 상술한 Tensor Flow 외에도, 스켈레톤(Skeleton) 정보를 OpenPose 알고리즘을 이용하여 추출한 후, 각 부위별 비율이나 길이 등을 이용하여 동일 객체(동물)인지의 여부를 확인할 수도 있다.
<이미지 보정>
어두운 영상을 밝게 하는 방법에는 단순 영상 처리를 활용하는 경우와 딥러닝을 활용하는 경우도 있다. 딥러닝을 활용하는 경우에는 실내와 야외 사진을 구분 없이 학습을 시켜 어두운 이미지의 내부 색들을 학습된 데이터 중 비슷한 색상으로 복원시켜주는 기술이 존재한다. 단순 영상 처리로는 전체적인 명암을 일정하게 조절하거나 RGB 색상에 대한 밝기 값을 가지고 어두운 부분과 밝은 부분의 차이를 계산한 중간 밝기를 적용하는 퍼치 스트레칭 방법도 있다. 본 발명의 일 실시예에서는 히스토그램 평활화(Histogram Equalization)를 이용하여 이미지를 보정할 수 있다. 흑백 영상에 히스토그램 평활화를 적용하면 영상의 명암 분포가 균일하게 변화되어 어두운 부분이 개선되는 효과를 얻을 수 있다. 이러한 명암의 차이는 흑백 영상에서 어두워서 잘 안 보이는 영역이나 빛으로 인해 주변과 비교해 밝은 부분을 보정 하여 딥러닝 인식률을 향상시킨다.
움직이는 객체를 찾아내기 위해서는 배경과 움직이는 객체를 분리하는 작업이 필요하다. 그 작업을 할 수 있는 기술이 전경 분리(Background Subtrac-tion)이다. 전경 분리는 새로운 프레임이 들어올 때, 이전 프레임과 비교하여 이전 프레임과 현재 프레임의 차이를 가지고 움직이는 객체를 찾는다. 전경 분리를 하면 움직이는 객체를 찾을 수 있어 움직이는 동물의 영역을 추출하여 딥러닝 인식에 사용할 수 있다. 만약 유기동물을 찾긴 했지만 전체 영역이 불분명하게 촬영된 경우에는 딥러닝을 하기 위해 관심 영역을 추출하면 몸통이 잘린 형태가 나오기 때문에 좋지 않다. 이러한 문제를 해결하기 위해 모폴로지(Morphology)의 침식(Erode)과 팽창(Dilate)를 이용할 수 있다. 이를 이용하면 나뭇잎이 흔들거리거나 벌레가 나타날 때 발생할 수 있는 자그마한 노이즈도 제거할 수 있다. 모폴로지가 적용된 후, 모폴로지가 필요보다 적게 적용이 되면 유기동물 형태의 일부가 잘리거나 노이즈가 없어지지 않는 경우가 있다. 이러한 경우에는 형태가 완전하지 않아 딥러닝 인식을 실패할 수도 있고 노이즈를 인식하느라 유기동물을 인식하는 시간이 지연될 수 있다. 이러한 상황을 고려하면 유기동물의 크기보다 조금 크게 모폴로지를 적용하여 딥러닝 인식에 무리가 없도록 설정할 수 있다.
딥러닝 인식을 할 때, 배경이 많이 포함된 이미지 보다 찾고자 하는 객체만 있는 경우에 딥러닝 정확도가 향상된다. 찾고자 하는 객체 이외에 이미지에 포함된 다른 영역 연산하는 과정이 줄어들기 때문이다. 전경 분리와 모폴로지를 거친 영상을 히스토그램 평활화를 거친 영상과 겹치면 히스토그램 평활화 영상에 유기동물이 어디에 있는지 나타낼 수 있다. 관심 영역 추출(Region of Interest)을 위하여 박스를 이용할 수 있고, 박스의 좌표를 이용하면 유기동물의 영역을 추출할 수 있다. 이렇게 찾고자 하는 객체가 잘 보이는 이미지를 이용하면 딥러닝 인식 결과가 향상될 수 있다.
예상활동반경설정부(350)는, 적어도 하나의 사용자 단말(100)의 발견제보 이벤트를 누적한 후, 지도 상 제 1 아이콘을 노드(Node)로 제 1 아이콘 간을 연결하는 간선(Edge)을 생성하고, 간선이 이루는 영역을 유기동물의 예상활동반경으로 설정하여 구조 이벤트를 출력할 수 있다. 예를 들어, GPS 위치가 A-B-C-D-E에서 발견되었다고 가정하면 A-B-C-D-E가 이루는 영역 내를 수색하도록 할 수 있다. 다만, 발견된 위치를 중심으로 활동반경을 설정할 수도 있고 동물의 품종이나 크기 등에 따라 서로 다른 반경을 설정할 수도 있다. 이때 각 위치에서 제보된 시각을 함께 매핑함으로써 어느 시간대에 어디에 있는지를 추정가능하도록 안내를 할 수도 있다.
실종제보부(360)는, 적어도 하나의 사용자 단말(100)로부터 실종제보 메뉴가 선택되는 경우, 실종된 실종동물의 사진, 이름, 나이, 성별 및 특징을 포함하는 실종동물 데이터를 입력받고, 적어도 하나의 사용자 단말(100)의 GPS 신호로 감지된 위치 또는 적어도 하나의 사용자 단말(100)이 설정한 지도 상 위치에 실종동물의 사진을 썸네일로 포함하는 제 2 아이콘을 오버레이할 수 있다. 이때, 제 2 아이콘은 붉은색 핀(Pin) 형상일 수 있다. 한국은 각 지자체, 사설 보호소, 농림축산부 등 각기 서로 다른 기관이나 주체가 유기동물을 보호하고 관리하기 때문에 반려동물을 잃어버린 주인이 이 모든 것을 알고, 모두 찾아보기 이전까지는 보호소에 있음에도 찾지 못해 안락사당하는 경우가 허다하다.
이에, 반려동물의 종을 인공지능으로 판별하고, 각기 서로 다른 홈페이지나 웹사이트에 존재하는 유기견 공고 또는 임시보호글을 수집하여 통합검색해줄 수 있다. 한국에서 가장 많이 키우는 말티즈, 푸들, 포메라니안, 시츄 등의 종을 골라 인공지능을 학습시키고, 오버피팅을 막기 위해 드롭아웃(Dropout)을 추가하고 최대풀링(Max Pooling)을 사용할 수 있다. 유기동물 또는 실종동물은 지도 기반으로 원하는 조건을 더 추가하여 검색할 수 있도록 한다. 이때, 소셜미디어를 통해서도 목격글이 올라오고 블로그에 임시보호글 등이 올라오기도 하므로 각 기관 뿐만 아니라 소셜미디어, 블로그 등도 위치 태그가 있다면 이를 기반으로 지도 상에 표시해줄 수 있도록 한다. 표시를 할 때에는 상술한 바와 같이 실종제보 중복은 아닌지에 대해 먼저 판단하도록 유사한 사진을 리스트업한 후 사용자 단말(100)로 전송해줄 수 있다.
SOS처리부(370)는, 적어도 하나의 사용자 단말(100)에서 구조가 시급한 유기동물에 대하여 GPS 기반으로 사진을 업로드한 후 SOS 이벤트를 출력하는 경우, 사진을 썸네일로 포함하는 제 3 아이콘을 지도 상에 오버레이하고, SOS 이벤트가 출력된 사진 내 구조객체가 동일하고 기 설정된 숫자를 만족하는 경우 제 3 아이콘을 변형시켜 SOS 이벤트를 활성화시킬 수 있다. 이때, 제 3 아이콘은 불이 타오르는 아이콘 형상일 수 있다. 물론 이 형상 외에도 긴급함을 알리는 형상이나 이모티콘 또는 이미지 등이며 어느 것이든 가능하다.
AR(Augemented Reality)모드부(380)는, 적어도 하나의 사용자 단말(100)에서 발견제보 메뉴를 선택한 후 카메라를 구동되면, 카메라로 촬영되고 있는 객체가 동물인 경우 셔터를 눌러 사진으로 저장되도록 할 수 있다. 이를 위하여, AR모드부(380)는, 동물 형상을 인식 및 식별하는 기능을 포함하는 인공지능 알고리즘을 이용하거나 내장할 수 있다. 이때, 이미지 인식을 이용하기 위해서 가장 중요한 것은 얼굴 방향이 정면일 때 이미지를 획득하는 것이다. 얼굴 방향이 정면일 때 생체정보를 온전하게 수집할 수 있고, 최대한 같은 형태로 이미지를 수집해야 개체 인식률을 높일 수 있기 때문이다. 일반 반려동물 조차도 주인이 원할 때 정면을 바라봐주지 않는데 유기동물은 사람을 회피하는 성향으로 더더욱 사람쪽을 바라보지 않는다. 이때 사용자가 제보를 위해 카메라를 켜기 위해 핸드폰이라도 꺼내려고 하면 유기동물들은 쏜살같이 사라진다.
이에, 생체정보 이미지 획득 확률을 높이기 위해서는 초당 30프레임 이상의 실시간 영상에서 유기동물이 정면을 바라보고 있는지 아닌지를 판단하여 정면일 때 바로 이미지를 획득하도록 제어되어야 한다. 눈과 코 검출을 위해 실시간 처리가 가능하며 정확도도 우수한 YOLOv3과 YOLOv4 알고리즘을 이용할 수 있다. YOLO(You Only Look Once)는 하나의 합성곱 신경망(Convolutional Network)이 이미지를 한번 보는 것으로 객체의 위치검출(Localization)과 분류(Classification)를 동시에 수행하여 실시간 처리에 최적화된 딥러닝 알고리즘이다. 이 알고리즘은 계속 수정되고 발전해오면서 여러 형태로 존재하며, YOLOv3와 YOLOv4는 가장 최근에 공개된 모델이다. 객체 검출 알고리즘의 구조는 Backbone, Neck, Head(Dense Prediction) 세 부분으로 구성된다. Backbone은 특징지도(Feature Map) 추출을 위해 활용되는 이미 학습된 네트워크이고, Neck은 Backbone의 다른 단계에서 다른 특징지도를 추출하기 위해 Backbone과 Head 사이에 존재하는 계층(Layer)이며, Head는 실제로 객체검출을 담당하는 부분이다.
YOLOv3는 darknet53을 Backbone으로 적용하고 FPN(Feature Pyramid Network)을 Neck으로 사용하며, Head는 경계상자에 객체가 있는지를 판단하기 위한 점수와 그 객체가 어떤 클래스(Class)인지 분류하기 위한 클래스별 확률을 동시에 예측하는 구조로 되어있다. YOLOv4는 최신 딥러닝 기술을 접목하여 YOLOv3를 개선한 모델이며, CSPdarknet53을 Backbone에 적용하고, SPP(Spatial Pyramid Pooling)과 PAN(Path Aggregation Network)을 Neck으로 사용하며, Head는 YOLOv3의 구조를 가진다.
<얼굴 정면판별을 위한 정보>
유기동물의 얼굴 움직임의 방향을 Yaw, Pitch, Roll로 나타낸다. Yaw, Pitch, Roll은 각각 Z축 기준 회전, X축 기준 회전, Y축 기준 회전을 의미한다. 유기동물 얼굴에서 Roll 방향의 틀어짐은 생체정보 이미지의 변형에 크게 영향을 주지 않고, 두 눈을 연결하는 선의 틀어진 각도를 구해 쉽게 보정할 수 있다. 따라서 얼굴 정면 여부는 Yaw와 Pitch 방향 틀어짐으로만 판단한다. 사람의 얼굴 방향 추정에 사용된 기하학적 방법을 응용하여 Yaw와 Pitch 방향 틀어짐에 대한 정보를 제공하는 다섯 가지 요소를 추출하고 표시한다. 첫 번째는 두 눈과 코의 중심점을 연결하는 삼각형의 3개의 내각 값이고, 이는 Yaw와 Pitch 방향에 대한 정보를 제공한다. 두 번째는 두 눈의 중심점을 연결하는 선의 길이와 그 선에서 수직으로 코와 연결된 선의 길이의 비율이고, Pitch 방향에 대한 정보를 제공한다. 세 번째는 두 눈 중심점을 연결하는 선과 그 선에서 수직으로 코와 연결된 선이 만나는 지점에서 왼쪽 눈까지의 길이와 오른쪽 눈까지의 길이의 비율이고, Yaw 방향의 정보를 제공한다. 네 번째는 검출된 왼쪽 눈과 오른쪽 눈의 경계상자 면적 비율이고, Yaw 방향의 정보를 제공한다. 다섯 번째는 검출된 눈과 코의 경계상자에서 코 면적 대비 왼쪽 눈의 면적과 오른쪽 눈의 면적 비율이고, 이 또한 Yaw 방향의 정보를 제공한다.
<얼굴 정면 여부 판별>
상술한 얼굴 방향 정보를 이용하여 얼굴 방향이 정면인지를 판별하기 위해 딥러닝 방법인 MLP(Multi-Layer Perceptron)과 대표적인 기계학습 분류기인 RF(Random Forest), SVM(Support Vector Machine)을 이용할 수 있다. MLP 분류기는 입력층(Input Layer), 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성되는 딥러닝 알고리즘이다. MLP 분류기 성능에 영향을 주는 요소에는 은닉층의 수, 각 층의 노드(Node) 수, 활성화 함수(Activation), 최적화 알고리즘(Optimizer), L2 일반화 파라미터(Alpha), 학습속도(Learning Rate)가 있다. RF 분류기는 나무 형태로 데이터를 분류하는 의사결정 나무(Decision Tree) 분류기를 같은 형태로 여러 개 사용하고 투표를 통해 최종적으로 분류하는 알고리즘이다. RF 분류기 성능에 영향을 주는 요소에는 의사결정 나무의 수(Estimator), 최대깊이(Max Depth), 하위 노드 분리를 위한 최소 샘플 수(Min Samples Split), 노드가 되기 위한 최소 샘플 수(Min Samples Leaf) 등이 있다. SVM 분류기는 근접한 샘플들 사이의 거리를 최대화하는 결정경계(Decision Boundary)를 찾아 데이터를 분류하는 알고리즘이다. SVM 분류기 성능에 영향을 주는 요소에는 커널(Kernel), 일반화 파라미터(C), 감마(Gamma)가 있다. 이때, 성능에 영향을 많이 주는 변수를 선정하고, 가장 성능이 좋은 조합을 찾기 위해 Grid Search 알고리즘을 사용할 수 있으며, 성능 검증에는 최근 보편적으로 사용되는 K-겹 교차검증 방법을 사용할 수 있다.
3D모델링부(391)는, 도 3m과 같이 실종신고 또는 발견제보의 과정에서 인공지능의 오차를 보정할 수 있도록 3D 모델링 기능을 더 포함할 수 있다. 많은 게임들에서 캐릭터 커스터마이징 기능이 널리 활용되고 있는 것에서 착안하여, 자신이 제보하고자 하는 동물의 모습을 인공지능이 1 차적으로 사진 등을 통해서 3D 모델링의 형태로 동물의 모습을 구체화해주면, 제보자가 오차가 있는 부분을 직접 세부 조정하여 최대한 자신이 인식한 동물의 형태와 일치율을 높일 수 있도록 조정할 수 있는 기능이다. 즉, 3D모델링부(391)는 적어도 하나의 게임엔진을 이용하여 사용자 단말(100)에서 제보를 할 때 기 저장된 인공지능 알고리즘의 오차를 보정하도록 3D 모델링 기능을 제공하고, 3D 모델링 기능으로 유기동물의 2D 데이터를 3D 데이터로 제공한 후, 사용자 단말(100)에서 오차를 보정하도록 인터페이스를 제공할 수 있다.
상술한 구성을 포함하는 경우, 본 발명의 플랫폼 내에 반려동물 용품샵 등을 운영함에 있어서도 3D 모델링 기능을 사용해 실제와 비슷하게 모델링된 자신의 반려동물에게 가상으로 구매하고자 하는 옷을 입혀볼 수 있는 등 상업적으로도 활용할 수 있는 유용한 서비스가 될 수 있다. 반려동물용 의류시장의 확산세와 달리, 아직까지 반려동물의 경우 사람처럼 옷의 정확한 치수를 파악하기 위해서는 직접 입혀보는 것 외에는 마땅한 방법이 없는데, 3D모델링 기능으로 자신의 반려동물 체형에 맞게 모델링을 하고 마찬가지로 모델링된 상품을 입혀본다면 그 기술의 활용폭이 유기동물 제보에 도움을 주는 것에 더해 확장될 수 있다.
동물형상 모델링을 위한 표본은 다수의 3D 전신 스캔 데이터로부터 시작된다. 그 스캔 데이터로부터 동물형상 변동(Animal Body Shape Variation)에 대한 통계적 분석이 가능하도록 하기 위해, 모든 표본 모델들간의 상응관계를 만족하는 동물형상 데이터베이스를 구축한다. 그리고 구축된 데이터베이스로부터 주성분분석(Principal Component Analysis, PCA)를 수행함으로써, 동물형상의 변동에 대한 경향성을 추정한다. 끝으로 추정된 동물형상과 키, 몸통길이, 얼굴크기, 꼬리길이 등의 동물형상 측정 파라미터 간의 선형 맵핑(Linear mapping)을 통한 그들간의 상관관계를 정의함으로써, 그 파라미터를 따르는 새로운 동물형상 모델을 생성할 수 있고, 이에 대응하는 치수 데이터를 가지는 의상을 골라 사용자에게 전달할 수도 있다.
지역화폐연계부(393)는, 적어도 하나의 사용자 단말(100)에서 기 지정된 활동을 한 경우 적어도 하나의 사용자 단말(100)로 지역화폐로 리워드를 지급하며, 리워드를 이용하여 적어도 하나의 지역 가맹점에서 결제가 되도록 연계할 수 있다. 지역상권구축부(395)는, 적어도 하나의 동물병원, 반려동물카페, 반려동물미용실 및 반려동물용품점을 포함하는 적어도 하나의 지역 가맹점을 모집하고, 적어도 하나의 지역 가맹점의 위치, 상호 및 특징을 수집하여 지역 상권 네트워크를 구축할 수 있다.
덧붙여서 캣맘커뮤니티부(미도시)는, 적어도 하나의 사용자 단말(100)로부터 적어도 하나의 급식소 위치를 GPS 신호를 이용하여 실시간으로 수집한 후 지도 상에 표시하고, 치료 또는 보호를 필요로 하는 길고양이의 위치 및 특징 데이터를 수신하여 지도 상에 표시할 수 있다.
이하, 상술한 도 2의 플랫폼 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.
도 3a를 참조하면, 본 발명의 플랫폼(가칭, 길동무)은 입양에만 집중된 애플리케이션, 부족한 유기동물의 위치, 분산된 민간 참여 루트를 통합하기 위해 도 3c와 같은 지도를 중심으로 유기동물의 위치정보를 수집하는 지역 기반 플랫폼을 제공한다. 본 발명의 일 실시예에 따른 플랫폼은 실종된 사람을 찾는 Amber Alert와 같이 본 애플리케이션을 이용하는 사용자로부터 제보를 받고 제보된 위치를 지도 상에 표시해줌으로써 GPS가 없어도 각 유기동물 또는 실종동물들의 위치를 트래킹할 수 있도록 한다. 도 3d와 같이 제보에 집중하며, 직관적인 지도 기반으로 동네 이웃들과 힘을 합쳐 착한 사마리안법과 같이 유기동물을 줄이고 실종동물은 안락사 되기 이전에 주인의 품으로 돌아갈 수 있도록 한다.
도 3e와 같이 [유기동물 제보]는, 카메라 버튼을 눌러 발견제보를 클릭한 후, 발견 당시의 모습이 담긴 사진을 첨부하고 동물의 특징을 입력하면, 기 저장된 데이터를 자동으로 분석하여 표시된 다른 사진 중 동일한 개체를 안내해주고, 사용자로 하여금 선택을 하도록 한다. 이렇게 등록을 한 후 사용자 단말(100)에서 유기제보한 동물이 지도 상에 표시되었는지를 확인하도록 한다. 지도에서 핀을 누르면 구글의 타임라인(TimeLine)처럼 지도 상에 날짜, 시각, 이동한 속도 등을 표시할 수 있도록 하고, 반려인들이 강아지와 함께 산책을 하면서 적극적으로 제보를 할 수 있도록 포인트를 제공하고 포인트는 지역화폐로 전환하여 지역 가맹점에서 사용할 수 있도록 한다.
도 3f와 같이 [실종동물 제보]는, 카메라 버튼을 눌러 발견제보를 클릭한 후, 잃어버린 동물의 모습이 담긴 사진을 첨부하고 동물의 특징을 입력하고, 포상금을 설정하며, 이렇게 등록을 한 후 사용자 단말(100)에서 실종제보한 동물이 지도 상에 표시되었는지를 확인하도록 한다. 실종동물에 대한 제보가 들어오면 등록한 사용자 단말(100)로 알림이 전달되고, 검색창을 통하여 사용자 단말(100)에서 등록한 핀과 겹치지 않은 비슷한 개체가 있는지의 여부를 확인할 수 있도록 한다. 도 3g와 같은 [지역주민 SOS]는, 실종신고 접수나 유기동물이 다친 경우와 같이 구조가 시급한 동물의 핀에 설정할 수 있는데, 단 5 인 이상이 동참해야 지도상에 핀(아이콘)이 불타는 형태로 SOS 기능이 활성화된다. 공지사항에는 지역별로 전파가 필요한 내용을 입력할 수 있고, 사용자에게 공지를 메인 공지로 띄우고 싶다면 포인트를 추가로 사용하도록 한다.
도 3h는 AR모드인데, 일반적인 AR은 AR 객체를 증강시켜 화면에 표시해주는 것이지만, 본 발명의 AR모드는 동물의 모습을 즉각적으로 포착하기 위한 모드를 의미한다. 화면 안에 들어온 동물을 자동으로 인식하여 눈으로 보기 힘든 숨어있는 동물의 움직임을 감지할 수 있는 모드이다. 도 3i와 같은 일치율 분석은 기존 제보가 들어와있는 주변 동물들의 외형을 분석하여 즉각적으로 일치율을 분석하고, 포인트를 사용하여 정밀분석을 의뢰할 수 있고, AR모드에서 자동인식되는 순간 바로 일치율을 측정할 수 있고, 인공지능의 정밀분석을 통해 동일한 개체인지 확인한 후 새로운 제보로 등록할 수 있다. 도 3j와 같이 확률적인 활동반경을 계산하여 제보 위치에 대한 데이터가 누적되면, 위치를 특정하고 구조를 개시할 수 있다.
도 3k는 [우리동네 도감 시스템]인데, 사용자가 설정한 우리 동네 내에 신고된 유기동물을 모아서 보여주는 메뉴이다. 도감완성률, 즉 제보한 동물의 수에 따라 포인트 적립 보너스를 받을 수 있고, 지역별 제휴 상권 내 할인율 등 혜택을 증가시킬 수도 있다. 부정제보를 막기 위해 [AR모드에서 발견 및 일치율 검사]라는 조건을 충족시에만 도감에 수록을 가능하도록 할 수 있다. 도감은 나무위키나 위키피디아와 같이 각 동물에 대해 상세한 설명을 작성할 수 있도록 하고 누구나 참여가능하도록 할 수 있다. 도 3l은 [가디언 등록 기능]인데, 유기동물을 발견하고 제보할 정도의 정성이 있는 사용자는 측은지심에 유기동물을 돌보아주는 가디언 역할을 수행하기도 한다. 이에, 입양 전 임시작명을 통해 사용자는 가디언이 될 수 있고, 최초 제보자가 일정기간 내 포인트로 작명하지 않으면, 포인트 경매 입찰 방식으로 작명권한을 부여할 수 있고, 가디언은 구조 및 입양을 위한 크라우드 펀딩을 모금할 수 있고 또 개최할 수 있다. 지도에 표시되는 유기동물의 대표 사진을 선택할 수 있고, 구조 이후 입양 우선권을 부여받을 수 있다.
도 4a와 같이 직관적인 인터페이스, 충성도 높은 소비자 특성, 지역 네트워크 연계성 및 틈새시장 공략으로 플랫폼을 활성화시킬 수 있고, 도 4b와 같이 사용자 타겟을 설정한 후, 도 4c와 같이 단계별 사용자를 확보할 수 있고, 도 4d와 같은 각종 동물보호단체, 도 4e 및 도 4f와 같은 캣맘 커뮤니티, 도 4g와 같이 봉사시간이 부족한 중고등학생, 도 4h와 같이 반려인 전체를 위한 플랫폼을 구축할 수 있다. 도 4i와 같이 지역 기반으로 네트워크를 구축하여 도 4j와 같이 동물병원 네트워크, 도 4k 및 도 4l과 같은 지역화폐 연계, 도 4m과 같은 지역마케팅을 도입함으로써 플랫폼에 회원을 유치하고 수익을 발생시킬 수 있다
이와 같은 도 2 내지 도 4의 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5는 본 발명의 일 실시예에 따른 도 1의 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.
도 5를 참조하면, 플랫폼 서비스 제공 서버는, 적어도 하나의 사용자 단말에서 발견제보 메뉴가 선택되는 경우 GPS 신호를 기반으로 지도 상 적어도 하나의 사용자 단말의 위치를 설정하여 표시한다(S5100).
그리고, 플랫폼 서비스 제공 서버는, 적어도 하나의 사용자 단말의 카메라를 구동시켜 사진을 촬영하도록 제어하고(S5200), GPS 신호에 따른 유기동물의 위치 및 사진을 지도 상에 매핑하여 저장한다(S5300).
상술한 단계들(S5100~S5300)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5300)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.
이와 같은 도 5의 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5를 통해 설명된 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 지도 기반 유기동물 관리 플랫폼 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (7)

  1. 발견제보 메뉴를 선택한 후, GPS 신호를 기반으로 지도상 유기동물의 위치를 설정하고, 카메라를 구동시켜 유기동물을 촬영하여 발견제보 이벤트를 출력하는 적어도 하나의 사용자 단말; 및
    상기 적어도 하나의 사용자 단말에서 상기 발견제보 메뉴가 선택되는 경우 GPS 신호를 기반으로 지도 상 상기 적어도 하나의 사용자 단말의 위치를 설정하여 표시하는 표시부, 상기 적어도 하나의 사용자 단말의 카메라를 구동시켜 사진을 촬영하도록 제어하는 촬영제어부, 상기 GPS 신호에 따른 유기동물의 위치 및 사진을 상기 지도 상에 매핑하여 저장하는 저장부를 포함하는 플랫폼 서비스 제공 서버;
    를 포함하고,
    상기 플랫폼 서비스 제공 서버는,
    상기 적어도 하나의 사용자 단말에서 구조가 시급한 유기동물에 대하여 GPS 기반으로 사진을 업로드한 후 SOS 이벤트를 출력하는 경우, 상기 사진을 썸네일로 포함하는 제 3 아이콘을 지도 상에 오버레이하고, 상기 SOS 이벤트가 출력된 상기 사진 내 구조객체가 동일하고 기 설정된 숫자를 만족하는 경우 상기 제 3 아이콘을 변형시켜 상기 SOS 이벤트를 활성화시키는 SOS처리부;
    를 더 포함하는 것을 특징으로 하는 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템.
  2. 제 1 항에 있어서,
    상기 플랫폼 서비스 제공 서버는,
    상기 적어도 하나의 사용자 단말에서 상기 유기동물의 사진을 촬영한 경우, 사진 내 객체를 추출하고, 기 발견제보된 유기동물의 사진과의 유사도가 기 설정된 유사도를 만족하는 적어도 하나의 유기동물의 사진을 지도 상에 썸네일을 포함한 제 1 아이콘으로 오버레이하며, 상기 적어도 하나의 사용자 단말에서 상기 제 1 아이콘을 선택하는 경우, 기 발견제보된 유기동물의 사진 및 제보 데이터를 출력한 후 동일 유기동물인지의 여부를 확인받는 동일개체확인부;
    를 더 포함하고,
    상기 적어도 하나의 사용자 단말에서 촬영한 유기동물의 사진을 데이터베이스로 저장하고, 각 유기동물의 사진 내 객체 간 유사도를 적어도 하나의 인공지능 알고리즘을 이용하여 분석하며, 상기 유사도에 따른 일치율을 퍼센테이지로 출력하는 것을 특징으로 하는 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템.
  3. 제 2 항에 있어서,
    상기 플랫폼 서비스 제공 서버는,
    상기 적어도 하나의 사용자 단말의 발견제보 이벤트를 누적한 후, 지도 상 상기 제 1 아이콘을 노드(Node)로 상기 제 1 아이콘 간을 연결하는 간선(Edge)을 생성하고, 상기 간선이 이루는 영역을 유기동물의 예상활동반경으로 설정하여 구조 이벤트를 출력하는 예상활동반경설정부;
    를 더 포함하는 것을 특징으로 하는 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템.
  4. 제 1 항에 있어서,
    상기 플랫폼 서비스 제공 서버는,
    상기 적어도 하나의 사용자 단말로부터 실종제보 메뉴가 선택되는 경우, 실종된 실종동물의 사진, 이름, 나이, 성별 및 특징을 포함하는 실종동물 데이터를 입력받고, 상기 적어도 하나의 사용자 단말의 GPS 신호로 감지된 위치 또는 상기 적어도 하나의 사용자 단말이 설정한 지도 상 위치에 상기 실종동물의 사진을 썸네일로 포함하는 제 2 아이콘을 오버레이하는 실종제보부;
    를 더 포함하는 것을 특징으로 하는 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템.
  5. 삭제
  6. 제 1 항에 있어서,
    상기 플랫폼 서비스 제공 서버는,
    상기 적어도 하나의 사용자 단말에서 상기 발견제보 메뉴를 선택한 후 카메라를 구동되면, 상기 카메라로 촬영되고 있는 객체가 동물인 경우 셔터를 눌러 사진으로 저장되도록 하는 AR(Augemented Reality)모드부;
    를 더 포함하는 것을 특징으로 하는 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템.
  7. 제 1 항에 있어서,
    상기 플랫폼 서비스 제공 서버는,
    적어도 하나의 게임엔진을 이용하여 상기 사용자 단말에서 제보를 할 때 기 저장된 인공지능 알고리즘의 오차를 보정하도록 3D 모델링 기능을 제공하고, 상기 3D 모델링 기능으로 상기 유기동물의 2D 데이터를 3D 데이터로 제공한 후, 상기 사용자 단말에서 오차를 보정하도록 인터페이스를 제공하는 3D모델링부;
    를 더 포함하는 것을 특징으로 하는 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템.
KR1020220008761A 2022-01-20 2022-01-20 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템 KR102452932B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220008761A KR102452932B1 (ko) 2022-01-20 2022-01-20 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220008761A KR102452932B1 (ko) 2022-01-20 2022-01-20 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템

Publications (1)

Publication Number Publication Date
KR102452932B1 true KR102452932B1 (ko) 2022-10-11

Family

ID=83599052

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220008761A KR102452932B1 (ko) 2022-01-20 2022-01-20 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템

Country Status (1)

Country Link
KR (1) KR102452932B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070034273A (ko) * 2005-09-23 2007-03-28 삼성전자주식회사 이동통신 시스템에서 위성항법 시스템 단말을 이용한 긴급상황 알림 방법 및 장치
KR20100136270A (ko) * 2009-06-18 2010-12-28 박용수 동물 위치 추적 시스템 및 방법
KR20180070057A (ko) * 2016-12-16 2018-06-26 주식회사 아렌네 실종 반려동물과 유기 반려동물의 매칭을 위한 방법, 시스템 및 컴퓨터 판독가능 기록 매체
US20200090627A1 (en) * 2016-11-29 2020-03-19 Sony Corporation Display control device, display control method, and program
KR102347545B1 (ko) * 2020-12-10 2022-01-05 신성길 애완동물 인식 서비스 시스템
KR20220004348A (ko) * 2020-07-03 2022-01-11 건국대학교 글로컬산학협력단 유기동물 관리 장치 및 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070034273A (ko) * 2005-09-23 2007-03-28 삼성전자주식회사 이동통신 시스템에서 위성항법 시스템 단말을 이용한 긴급상황 알림 방법 및 장치
KR20100136270A (ko) * 2009-06-18 2010-12-28 박용수 동물 위치 추적 시스템 및 방법
US20200090627A1 (en) * 2016-11-29 2020-03-19 Sony Corporation Display control device, display control method, and program
KR20180070057A (ko) * 2016-12-16 2018-06-26 주식회사 아렌네 실종 반려동물과 유기 반려동물의 매칭을 위한 방법, 시스템 및 컴퓨터 판독가능 기록 매체
KR20220004348A (ko) * 2020-07-03 2022-01-11 건국대학교 글로컬산학협력단 유기동물 관리 장치 및 시스템
KR102347545B1 (ko) * 2020-12-10 2022-01-05 신성길 애완동물 인식 서비스 시스템

Similar Documents

Publication Publication Date Title
Xu et al. Automated cattle counting using Mask R-CNN in quadcopter vision system
Chen et al. Wildlife surveillance using deep learning methods
WO2020151084A1 (zh) 目标对象的监控方法、装置及系统
US7953686B2 (en) Sensor and actuator based validation of expected cohort behavior
US20090240695A1 (en) Unique cohort discovery from multimodal sensory devices
KR102176934B1 (ko) 안면인식을 이용한 반려동물 종합 관리 서비스 제공 시스템
Fong et al. AI-enabled technologies that fight the coronavirus outbreak
Kumar et al. Application of internet of things in image processing
CN111753697B (zh) 智能宠物管理系统及其管理方法
US11910784B2 (en) Animal visual identification, tracking, monitoring and assessment systems and methods thereof
SE1930281A1 (en) METHOD FOR CALCULATING DEVIATION RELATIONS OF A POPULATION
JP6787831B2 (ja) 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法
KR102333143B1 (ko) 무인 계수 서비스 제공 시스템
KR102296274B1 (ko) 사용자 학습 기반 딥러닝 객체 인식 서비스 제공 방법
US20140077932A1 (en) Method and system for alerting an owner of a lost animal
CA3029643A1 (en) System and method for automatically detecting and classifying an animal in an image
Wang Exploring intelligent image recognition technology of football robot using omnidirectional vision of internet of things
Morchid et al. Intelligent detection for sustainable agriculture: A review of IoT-based embedded systems, cloud platforms, DL, and ML for plant disease detection
KR102452932B1 (ko) 지도 기반 유기동물 관리 플랫폼 서비스 제공 시스템
CN111079617A (zh) 家禽识别方法、装置、可读存储介质及电子设备
US20240046493A1 (en) Information processing device, information processing method, and program
Wu et al. Super-resolution fusion optimization for poultry detection: a multi-object chicken detection method
KR20220124446A (ko) 머신러닝 기반 동물상 테스트 서비스 제공 방법 및 시스템
Babu et al. Leaf Disease Detection Using Machine Learning (ML)
Oludare Multimodal Data Enhancement and Augmentation Methodologies for Developing Robust Artificial Intelligence Systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant