KR102607174B1 - Counting method of objects included in multiple images using an image analysis server and object counting system - Google Patents

Counting method of objects included in multiple images using an image analysis server and object counting system Download PDF

Info

Publication number
KR102607174B1
KR102607174B1 KR1020200153993A KR20200153993A KR102607174B1 KR 102607174 B1 KR102607174 B1 KR 102607174B1 KR 1020200153993 A KR1020200153993 A KR 1020200153993A KR 20200153993 A KR20200153993 A KR 20200153993A KR 102607174 B1 KR102607174 B1 KR 102607174B1
Authority
KR
South Korea
Prior art keywords
images
user terminal
image
analysis server
image analysis
Prior art date
Application number
KR1020200153993A
Other languages
Korean (ko)
Other versions
KR20220067370A (en
Inventor
임상규
Original Assignee
주식회사 메딜리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메딜리티 filed Critical 주식회사 메딜리티
Priority to KR1020200153993A priority Critical patent/KR102607174B1/en
Priority to CN202180076688.XA priority patent/CN116457840A/en
Priority to JP2023528639A priority patent/JP7474546B2/en
Priority to PCT/KR2021/010824 priority patent/WO2022108044A1/en
Priority to CA3198777A priority patent/CA3198777A1/en
Publication of KR20220067370A publication Critical patent/KR20220067370A/en
Priority to US18/198,188 priority patent/US20230306630A1/en
Application granted granted Critical
Publication of KR102607174B1 publication Critical patent/KR102607174B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61JCONTAINERS SPECIALLY ADAPTED FOR MEDICAL OR PHARMACEUTICAL PURPOSES; DEVICES OR METHODS SPECIALLY ADAPTED FOR BRINGING PHARMACEUTICAL PRODUCTS INTO PARTICULAR PHYSICAL OR ADMINISTERING FORMS; DEVICES FOR ADMINISTERING FOOD OR MEDICINES ORALLY; BABY COMFORTERS; DEVICES FOR RECEIVING SPITTLE
    • A61J7/00Devices for administering medicines orally, e.g. spoons; Pill counting devices; Arrangements for time indication or reminder for taking medicine
    • A61J7/02Pill counting devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지 분석 서버, 이미지 분석 서버를 이용한 객체 카운팅 방법 및 객체 카운팅 시스템에 관한 것이다.
본 발명의 일 측면에 따르면, 사용자 단말기에 의해 하나 이상의 객체를 포함하고 있는 이미지를 입력 받는 단계; 이미지 분석 서버에 의해 각각의 상기 객체에 대해 복수 개의 박스를 형성하고, 복수 개의 상기 박스 중 상기 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하는 단계; 및 이미지 분석 서버에 의해 남아 있는 박스의 개수를 카운팅하고, 박스에 대응하는 개수를 사용자 단말기에 전송하는 단계를 포함하는 이미지 분석 서버를 이용한 객체 카운팅 방법이 제공될 수 있다.
The present invention relates to an image analysis server, an object counting method using an image analysis server, and an object counting system.
According to one aspect of the present invention, receiving an image containing one or more objects is input by a user terminal; forming a plurality of boxes for each object by an image analysis server, leaving only the number of boxes corresponding to the object among the plurality of boxes and deleting the remaining boxes; And an object counting method using an image analysis server may be provided, including counting the number of boxes remaining by the image analysis server and transmitting the number corresponding to the box to the user terminal.

Description

이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법 및 객체 카운팅 시스템 {Counting method of objects included in multiple images using an image analysis server and object counting system}Counting method of objects included in multiple images using an image analysis server and object counting system}

본 발명은 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법 및 객체 카운팅 시스템에 관한 것이다.The present invention relates to a method and object counting system for counting objects included in a plurality of images using an image analysis server.

고령화 사회로 진입함에 따라 병원을 찾는 환자의 수요가 증가하고 있으며, 그에 따라 투약되는 약의 종류나 개수도 증가하고 있다. As we enter an aging society, the demand of patients visiting hospitals is increasing, and the type and number of drugs administered are also increasing accordingly.

그러나, 소규모 약국이나 병원에서 환자에게 알약을 투약하거나 재고조사를 하는 경우 수작업으로 알약의 개수를 세어야 하는 불편함이 있다. 뿐만 아니라, 사람이 수작업으로 알약을 세는 경우, 정해진 개수의 약보다 적게 투약되거나 많게 투약되는 실수가 많이 발생하고 있다.However, when administering pills to patients or conducting inventory checks at small pharmacies or hospitals, there is the inconvenience of having to count the number of pills manually. In addition, when people manually count pills, many errors occur, such as administering less or more than the set number of pills.

이러한 문제점을 해소하고자 대규모 약국이나 병원에서는 알약을 세는 장치를 도입하여 사용하고 있으나, 이러한 장치는 고가여서 소규모 약국이나 병원에서는 현실적으로 구매가 어렵다는 문제점이 있다. To solve this problem, large-scale pharmacies and hospitals are introducing and using pill-counting devices, but these devices are expensive, making it difficult for small-scale pharmacies or hospitals to purchase them.

또한, 이러한 장비는 한번에 여러 종류의 알약을 카운팅 할 수 없는 문제점도 있다. Additionally, this equipment has the problem of not being able to count multiple types of pills at once.

특허문헌: 한국공개공보 10-2016-0057187 (2016.05.23 공개)Patent document: Korea Publication No. 10-2016-0057187 (published on May 23, 2016)

본 발명의 실시예들은 상기와 같은 문제를 해결하기 위해 제안된 것으로서, 한번에 다수의 객체 플레이트에 놓여져 있는 객체(예를 들어, 알약)의 개수를 카운팅 할 수 있는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법 및 객체 카운팅 시스템을 제공하고자 한다. Embodiments of the present invention have been proposed to solve the above problem, and are based on multiple images using an image analysis server that can count the number of objects (e.g., pills) placed on multiple object plates at once. The goal is to provide a counting method and object counting system for included objects.

또한, 복잡하고 고가의 장비의 도입없이 간단하게 객체(예를 들어, 알약)의 개수를 카운팅 할 수 있는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법 및 객체 카운팅 시스템을 제공하고자 한다.In addition, we aim to provide a method and object counting system for counting objects included in multiple images using an image analysis server that can simply count the number of objects (e.g., pills) without introducing complex and expensive equipment. .

또한, 밀접하게 붙어 있는 객체(예를 들어, 알약)의 개수를 정확하게 카운팅 할 수 있는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법 및 객체 카운팅 시스템을 제공하고자 한다.In addition, we aim to provide a method and object counting system for counting objects included in a plurality of images using an image analysis server that can accurately count the number of closely attached objects (for example, pills).

본 발명의 일 실시예에 따르면, 사용자 단말기에 의해 하나의 이미지가 입력될 수 있는 단일 분석 모드 또는 복수 개의 이미지가 입력될 수 있는 멀티 분석 모드가 선택되는 단계; 멀티 분석 모드가 선택되는 경우, 사용자 단말기에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되고, 입력된 복수 개의 이미지가 이미지 분석 서버로 전송되는 단계; 이미지 분석 서버에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계; 및 사용자 단말기에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계를 포함하는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법이 제공될 수 있다.According to one embodiment of the present invention, selecting a single analysis mode in which one image can be input or a multi-analysis mode in which a plurality of images can be input by the user terminal; When a multi-analysis mode is selected, inputting a plurality of images containing one or more objects by the user terminal and transmitting the plurality of input images to an image analysis server; Counting the number of objects included in each of the plurality of images by the image analysis server; A method of counting objects included in a plurality of images using an image analysis server may be provided, including displaying the number of objects included in each of the plurality of images by the user terminal.

또한, 사용자 단말기에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 디스플레이되는 단계는, 사용자 단말기의 멀티 분석창에 복수 개의 이미지가 표시되는 단계: 사용자 단말기의 멀티 분석창에 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계; 사용자 단말기의 종류 표시부에 복수 개의 이미지 각각이 포함하고 있는 객체의 종류가 표시되는 단계; 및 사용자 단말기의 토탈 개수 표시부에 복수 개의 이미지 모두에 포함된 객체의 합이 표시되는 단계를 포함하는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법이 제공될 수 있다.In addition, the step of displaying the number of objects included in each of the plurality of images by the user terminal includes the step of displaying a plurality of images in the multi-analysis window of the user terminal: each of the plurality of images in the multi-analysis window of the user terminal Displaying the number of objects included; Displaying the type of object included in each of the plurality of images on the type display of the user terminal; A method of counting objects included in a plurality of images using an image analysis server may be provided, including displaying the sum of the objects included in all of the plurality of images on the total number display of the user terminal.

또한, 사용자 단말기에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되는 단계는, 사용자 단말기가 멀티 분석 보조기구의 단말기 안착부에 안착되는 단계; 객체가 놓여진 복수 개의 객체 플레이트가 이동벨트에 안착되는 단계; 이동벨트의 이동에 따라 복수 개의 객체 플레이트가 순차적으로 사용자 단말기 하단에 위치하는 단계; 및 각각의 객체 플레이트가 상기 사용자 단말기 하단에 일정시간 머무른 후 이동함으로써 복수 개의 객체 플레이트가 사용자 단말기 하단으로 이동하고, 상기 사용자 단말기가 각각의 객체 플레이트에 놓여진 객체를 촬영하여 복수 개의 이미지를 생성하는 단계를 포함하는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법이 제공될 수 있다.In addition, the step of inputting a plurality of images containing one or more objects by the user terminal includes the step of seating the user terminal on the terminal seating portion of the multi-analysis assistance device; A step of seating a plurality of object plates on which objects are placed on a moving belt; Step of sequentially positioning a plurality of object plates at the bottom of the user terminal as the moving belt moves; And each object plate stays at the bottom of the user terminal for a certain period of time and then moves, thereby moving the plurality of object plates to the bottom of the user terminal, and generating a plurality of images by the user terminal photographing the object placed on each object plate. A method of counting objects included in a plurality of images using an image analysis server including a may be provided.

또한, 상기 객체가 놓여진 복수 개의 객체 플레이트가 이동벨트에 안착되는 단계 이후에, 객체 플레이트가 이동하여 객체 플레이트에 놓여진 객체가 멀티 분석 보조기구의 센서의 전면을 통과하는 단계를 포함하는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법이 제공될 수 있다.In addition, after the step of seating the plurality of object plates on which the objects are placed on the moving belt, the object plates move so that the objects placed on the object plates pass the front of the sensor of the multi-analysis assistance device. A method for counting objects included in a plurality of images may be provided.

또한, 이미지 분석 서버에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계 이후에, 이미지 분석 서버의 종류 판단모듈에 의해 객체와 종류 인식표가 매칭되어 객체의 종류가 판단되는 단계를 더 포함하는 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법이 제공될 수 있다.In addition, after the step of counting the number of objects contained in each of the plurality of images by the image analysis server, a step of determining the type of the object by matching the object and the type identification tag by the type determination module of the image analysis server is further performed. A method of counting objects included in a plurality of images using an image analysis server may be provided.

본 발명의 다른 실시예에 따르면, 객체를 놓을 수 있는 공간을 제공하고, 문자, 바코드 및 일정 기호 중 하나 이상으로 제공되는 종류 인식표를 포함하는 객체 플레이트; 상기 객체 플레이트를 촬영하여, 상기 객체 플레이트에 놓여진 하나 이상의 객체를 포함하는 이미지와 종류 인식표를 포함하는 이미지를 입력받을 수 있는 사용자 단말기; 및 상기 이미지에 포함된 객체의 개수 및 객체의 종류를 판단할 수 있는 이미지 분석 서버를 포함하는 객체 카운팅 시스템이 제공될 수 있다. According to another embodiment of the present invention, an object plate that provides a space for placing an object and includes a type identification tag provided in one or more of letters, barcodes, and certain symbols; A user terminal capable of photographing the object plate and receiving an image including one or more objects placed on the object plate and an image including a type identification tag; And an object counting system including an image analysis server capable of determining the number and type of objects included in the image may be provided.

또한, 상기 객체 카운팅 시스템은, 상기 객체 플레이트와 기 설정된 거리 이격되어 사용자 단말기가 놓여질 수 있는 단말기 안착부를 포함하는 멀티 분석 보조기구를 더 포함하는 객체 카운팅 시스템이 제공될 수 있다. In addition, the object counting system may be provided with a multi-analysis auxiliary device including a terminal seating portion on which a user terminal can be placed at a preset distance from the object plate.

또한, 상기 객체 카운팅 시스템은, 복수 개의 객체 플레이트가 안착되고, 상기 복수 개의 객체 플레이트를 상기 사용자 단말기의 하단으로 이동시킬 수 있는 이동벨트를 더 포함하는 객체 카운팅 시스템이 제공될 수 있다. In addition, the object counting system may be provided on which a plurality of object plates are seated and further includes a moving belt capable of moving the plurality of object plates to the bottom of the user terminal.

또한, 상기 멀티 분석 보조기구는 객체 플레이트가 이동하는 하단부; 사용자 단말기가 놓여 질 수 있는 단말기 안착부를 포함하는 상면부; 및 상기 하단부와 상기 상면부를 연결하는 측면부를 포함하는 객체 카운팅 시스템이 제공될 수 있다. In addition, the multi-analysis assistance device includes a lower part where the object plate moves; An upper surface portion including a terminal seating portion on which a user terminal can be placed; And an object counting system including a side portion connecting the lower portion and the upper portion may be provided.

또한, 상기 멀티 분석 보조기구의 일측에는 상기 객체 플레이트에 놓여진 복수 개의 객체의 높이를 스캔할 수 있는 센서가 제공되고, 상기 센서는 상기 객체 플레이트에 놓여진 객체 중 일정 범위를 초과하는 객체를 감지하는 경우 상기 사용자 단말기로 경고 신호를 발송할 수 있는 객체 카운팅 시스템이 제공될 수 있다. In addition, a sensor capable of scanning the heights of a plurality of objects placed on the object plate is provided on one side of the multi-analysis assistant, and the sensor detects objects exceeding a certain range among the objects placed on the object plate. An object counting system capable of sending a warning signal to the user terminal may be provided.

또한, 상기 하단부와 상기 상면부 사이의 거리가 조절될 수 있도록, 상기 측면부는 길이 조절가능하게 제공되는 객체 카운팅 시스템이 제공될 수 있다. Additionally, an object counting system may be provided in which the side portion is provided with an adjustable length so that the distance between the lower portion and the upper portion can be adjusted.

또한, 상기 이동벨트는 폐 곡선을 이루도록 제공되는 객체 카운팅 시스템이 제공될 수 있다.Additionally, the moving belt may be provided with an object counting system provided to form a closed curve.

본 발명의 실시예들에 따른 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법 및 객체 카운팅 시스템은 한번에 다수의 객체 플레이트에 놓여져 있는 객체(예를 들어, 알약)의 개수를 카운팅 할 수 있는 장점이 있다. The method and object counting system for counting objects included in a plurality of images using an image analysis server according to embodiments of the present invention can count the number of objects (for example, pills) placed on multiple object plates at once. There is an advantage.

또한, 복잡하고 고가의 장비의 도입없이 간단하게 객체(예를 들어, 알약)의 개수를 카운팅 할 수 있는 효과가 있다. In addition, there is an effect of simply counting the number of objects (eg, pills) without introducing complex and expensive equipment.

도 1은 본 발명의 일 실시예에 따른 객체 카운팅 시스템을 개략적으로 나타내는 도면이다.
도 2는 도 1의 이미지 분석 서버의 구성을 개략적으로 나타내는 도면이다.
도 3은 도 2의 이미지 분석 서버의 제2 박스 제거모듈의 하위 구성을 개략적으로 나타내는 도면이다.
도 4는 도 1의 객체 카운팅 시스템에 의해 실행되는 이미지 분석 서버를 이용한 객체 카운팅 방법을 개략적으로 나타내는 순서도이고,
도 5는 도 4의 S1 내지 S3 단계 중 S2 단계에 대해 보다 자세히 도시한 순서도이다.
도 6는 도 5의 S32 내지 S36 단계 중 S36 단계에 대해 보다 자세히 도시한 순서도이다.
도 7는 도 1에 도시된 사용자 단말기에 의해 객체를 입력받는 것을 개념적으로 나타낸 도면이다.
도 8는 도 1의 이미지 분석 서버에 의해 객체 인식 딥러닝 모델인 RetinaNet이 실행되어 하나의 알약에 대해 복수 개의 박스가 형성된 것을 개념적으로 나타낸 도면이다.
도 9은 도 1의 이미지 분석 서버에 의해 박스를 제거하는 알고리즘인 NMS(non maximum suppression)가 실행됨으로써, 하나의 알약(객체)에 형성된 박스를 개념적으로 나타낸 도면이다.
도 10은 도 6에 도시된 S36 단계의 이해를 돕기 위해 개념적으로 도시한 도면이다.
도 11은 도 1의 객체 카운팅 시스템을 이용하여 복수 개의 이미지를 이미지 분석 서버로 전송하고, 복수 개의 이미지 각각에 포함된 하나 이상의 객체를 카운팅하는 순서도를 개략적으로 나타내는 도면이고,
도 12는 단일 분석 모드와 멀티 분석 모드인 경우 도 1의 사용자 단말기에 나타나는 화면을 나타내는 도면이다.
도 13은 멀티 분석 모드인 경우 이미지 분석 서버에 의해 분석이 완료된 복수 개의 이미지 각각에 포함된 객체의 개수 및 종류가 도 1의 사용자 단말기의 화면에 나타나는 도면이다.
도 14는 도 1의 사용자 단말기가 안착될 수 있는 멀티 분석 보조기구를 개략적으로 나타내는 도면이다.
도 15는 멀티 분석 모드를 용이하게 실시하기 위한 도 14의 멀티 분석 보조기구 및 이동벨트를 개략적으로 나타내는 도면이다.
1 is a diagram schematically showing an object counting system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing the configuration of the image analysis server of FIG. 1.
FIG. 3 is a diagram schematically showing the sub-configuration of the second box removal module of the image analysis server of FIG. 2.
Figure 4 is a flowchart schematically showing an object counting method using an image analysis server executed by the object counting system of Figure 1;
FIG. 5 is a flowchart showing step S2 among steps S1 to S3 in FIG. 4 in more detail.
FIG. 6 is a flowchart showing step S36 among steps S32 to S36 of FIG. 5 in more detail.
FIG. 7 is a diagram conceptually showing an object being input by the user terminal shown in FIG. 1.
Figure 8 is a diagram conceptually showing that RetinaNet, an object recognition deep learning model, is executed by the image analysis server of Figure 1 to form a plurality of boxes for one pill.
FIG. 9 is a diagram conceptually showing a box formed in one pill (object) by executing NMS (non maximum suppression), an algorithm for removing boxes, by the image analysis server of FIG. 1.
FIG. 10 is a conceptual diagram to help understand step S36 shown in FIG. 6.
FIG. 11 is a diagram schematically showing a flowchart of transmitting a plurality of images to an image analysis server and counting one or more objects included in each of the plurality of images using the object counting system of FIG. 1;
FIG. 12 is a diagram illustrating a screen displayed on the user terminal of FIG. 1 in single analysis mode and multi-analysis mode.
FIG. 13 is a diagram showing the number and type of objects included in each of a plurality of images for which analysis has been completed by the image analysis server on the screen of the user terminal of FIG. 1 in the multi-analysis mode.
FIG. 14 is a diagram schematically showing a multi-analysis assistance device on which the user terminal of FIG. 1 can be mounted.
FIG. 15 is a diagram schematically showing the multi-analysis auxiliary device and moving belt of FIG. 14 for easily performing the multi-analysis mode.

도 1은 본 발명의 일 실시예에 따른 객체 카운팅 시스템(1)을 개략적으로 나타내는 도면이다.Figure 1 is a diagram schematically showing an object counting system 1 according to an embodiment of the present invention.

도 1을 참조하면, 객체 카운팅 시스템(1)은 이미지 분석 서버(10)와 사용자 단말기(20)와 관리자 단말기(30)를 포함할 수 있다. Referring to FIG. 1, the object counting system 1 may include an image analysis server 10, a user terminal 20, and an administrator terminal 30.

여기서, 이미지 분석 서버(10)와 사용자 단말기(20)와 관리자 단말기(30)는 서로 독립적인 장치로 제공되어 통신망(40)을 통해 데이터 통신하거나, 또는 이미지 분석 서버(10)와 관리자 단말기(30)는 하나의 물리적인 장치로 구성되어 직접 데이터 통신 가능하게 제공될 수 있다. Here, the image analysis server 10, the user terminal 20, and the administrator terminal 30 are provided as independent devices and communicate data through the communication network 40, or the image analysis server 10 and the administrator terminal 30 ) is composed of one physical device and can be provided to enable direct data communication.

본 실시예에서는 이미지 분석 서버(10)와 사용자 단말기(20)와 관리자 단말기(30)는 별개의 독립적인 장치로 제공되는 것을 예로 들어 설명한다. In this embodiment, the image analysis server 10, the user terminal 20, and the administrator terminal 30 are provided as separate and independent devices.

본 실시예의 객체 카운팅 시스템(1)은 이미지에 포함된 객체의 개수를 정확하게 카운팅할 수 있는 시스템으로 이해될 수 있다. The object counting system 1 of this embodiment can be understood as a system that can accurately count the number of objects included in an image.

구체적으로, 사용자는 사용자 단말기(20)를 통해 객체를 촬영하면, 촬영된 객체를 포함하는 이미지는 이미지 분석 서버(10)에 전송되고, 이미지 분석 서버(10)에 의해 기 설정된 알고리즘을 거쳐 이미지에 나타난 객체의 개수가 카운팅될 수 있다. Specifically, when a user photographs an object through the user terminal 20, the image including the photographed object is transmitted to the image analysis server 10, and is converted into the image through an algorithm preset by the image analysis server 10. The number of objects that appear can be counted.

본 실시예에서 객체는 일정 형상을 갖는 알약인 것을 예로 들어 설명한다. 사용자 단말기(20)에 의해 촬영된 객체가 알약인 경우, 본 실시예의 객체 카운팅 시스템(1)은 약국 및 병원에서 사용 가능한 알약의 개수를 카운팅 하는 시스템으로 이해될 수 있다. In this embodiment, the object is explained as an example of a pill having a certain shape. When the object captured by the user terminal 20 is a pill, the object counting system 1 of this embodiment can be understood as a system that counts the number of pills available in pharmacies and hospitals.

다만, 본 발명의 사상은 이에 한정되지 않으며, 객체는 일정 형상을 갖는 모든 물건을 포함할 수 있다. However, the spirit of the present invention is not limited to this, and the object may include any object having a certain shape.

이미지 분석 서버(10)는 사용자 단말기(20)로부터 이미지 데이터를 수신하고, 이미지에 나타난 객체의 개수를 카운팅하는데 필요한 데이터를 처리하는 서버로 이해될 수 있다. The image analysis server 10 may be understood as a server that receives image data from the user terminal 20 and processes data necessary to count the number of objects appearing in the image.

하나의 이미지에 포함된 객체는 동일한 크기 및 형상을 갖는 동일한 종류의 객체일 수 있다. 즉, 이미지 분석 서버(10)는 하나의 이미지에 포함된 동일한 객체를 카운팅 할 수 있다. Objects included in one image may be the same type of object with the same size and shape. That is, the image analysis server 10 can count the same object included in one image.

다만, 본 발명의 사상은 이에 한정되는 것은 아니며, 하나의 이미지에 포함된 객체는 서로 다른 크기 및 형상을 갖는 서로 다른 종류의 객체일 수 있으며, 이 경우 이미지 분석 서버(10)는 하나의 이미지에 포함된 서로 다른 종류의 객체를 카운팅 할 수도 있다. However, the spirit of the present invention is not limited to this, and objects included in one image may be different types of objects with different sizes and shapes. In this case, the image analysis server 10 You can also count the different types of objects included.

사용자 단말기(20)는 후술하는 객체 플레이트에 놓여진 객체를 촬영하여 이미지로 나타낼 수 있다. The user terminal 20 can photograph an object placed on an object plate, which will be described later, and display it as an image.

또한, 사용자 단말기(20)는 이미지 분석 서버(10)와 통신 가능한 장치로서, 이동형 단말 또는 컴퓨팅 장치로 구현되는 고정형 단말일 수 있다. Additionally, the user terminal 20 is a device capable of communicating with the image analysis server 10 and may be a mobile terminal or a fixed terminal implemented as a computing device.

예를 들어, 사용자 단말기(20)는 객체를 촬영할 수 있는 카메라를 포함하는 스마트폰, 노트북, 태블릿 PC, 웨어러블 기기, 컴퓨터 등을 포함할 수 있다. 다만, 사용자 단말기(20)는 이러한 예에 한정되지 않으며, 별도의 카메라로 제공될 수도 있다. For example, the user terminal 20 may include a smartphone, a laptop, a tablet PC, a wearable device, a computer, etc. including a camera capable of photographing an object. However, the user terminal 20 is not limited to this example and may be provided as a separate camera.

관리자 단말기(30)는 이미지 분석 서버(10)를 통해 사용자 단말기(20)에 제공하는 기능을 업데이트하거나, 일정 명령을 입력할 수 있는 장치로 이해될 수 있다. 예를 들어, 관리자 단말기(30)는 이미지 분석 서버(10)와 통신 가능한 스마트폰, 노트북, 태블릿 PC, 웨어러블 기기, 컴퓨터 등을 포함할 수 있다. The administrator terminal 30 can be understood as a device that can update functions provided to the user terminal 20 through the image analysis server 10 or input a certain command. For example, the manager terminal 30 may include a smartphone, laptop, tablet PC, wearable device, computer, etc. capable of communicating with the image analysis server 10.

도 2는 도 1의 이미지 분석 서버(10)의 구성을 개략적으로 나타내는 도면이고, 도 3은 도 2의 이미지 분석 서버(10)의 제2 박스 제거모듈(330)의 하위 구성을 개략적으로 나타내는 도면이다.FIG. 2 is a diagram schematically showing the configuration of the image analysis server 10 of FIG. 1, and FIG. 3 is a diagram schematically showing the sub-configuration of the second box removal module 330 of the image analysis server 10 of FIG. 2. am.

도 2 및 도 3을 참조하면 이미지 분석 서버(10)는 메모리(200), 프로세서(300) 및 통신 모듈(400)을 포함할 수 있다. Referring to FIGS. 2 and 3 , the image analysis server 10 may include a memory 200, a processor 300, and a communication module 400.

프로세서(300)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(200) 또는 통신 모듈(400)로부터 프로세서(300)로 제공될 수 있다. 그 외에 명령은 이미지 분석 서버(10)를 구성하는 각각의 구성요소들 간의 통신 채널을 통해 프로세서(300)로 제공될 수 있다.The processor 300 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the processor 300 from the memory 200 or the communication module 400. In addition, commands may be provided to the processor 300 through a communication channel between each component constituting the image analysis server 10.

프로세서(300)는 객체에 대해 복수 개의 박스를 형성하고, 복수 개의 상기 박스 중 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하기 위해 필요한 데이터의 입출력, 데이터의 처리, 데이터의 관리, 통신망(40)을 이용한 통신 등 다양한 기능을 수행할 수 있다. 이를 실행하기 위한 프로세서(300)의 구체적인 구성요소들은 후술한다. The processor 300 forms a plurality of boxes for an object, maintains only the number of boxes corresponding to the object among the plurality of boxes, and deletes the remaining boxes. Data input/output, data processing, data management, communication network ( 40) It can perform various functions such as communication using . Specific components of the processor 300 for executing this will be described later.

또한, 프로세서(300)의 구성요소들은 딥러닝으로 미리 학습된 인공신경망을 포함할 수 있다. 예를 들어, 프로세서(300)의 구성요소들 중 적어도 하나는 후술하는 RetinaNet을 실현하는 인공신경망일 수 있으며, 이에 대한 자세한 설명은 후술한다.Additionally, components of the processor 300 may include an artificial neural network previously trained through deep learning. For example, at least one of the components of the processor 300 may be an artificial neural network that implements RetinaNet, which will be described in detail later.

메모리(200)는 컴퓨터에서 판독 가능한 기록매체로서 RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. The memory 200 is a computer-readable recording medium and may include a non-permanent mass storage device such as RAM (Random Access Memory), ROM (Read Only Memory), and a disk drive.

프로세서(300)는 메모리(200)에 저장된 프로그램 코드를 로딩하여 객체를 카운팅 하는데 이용하거나, 객체의 종류를 판단하는데 이용할 수 있다. 이러한 프로그램 코드는 별도의 컴퓨터에서 판독 가능한 기록 매체(예를 들어 DVD, 메모리 카드 등)로부터 로딩되거나, 다른 장치로부터 통신 모듈(400)을 통해 전달되어 메모리(200)에 저장될 수 있다. The processor 300 may load the program code stored in the memory 200 and use it to count objects or determine the type of object. These program codes may be loaded from a recording medium (eg, DVD, memory card, etc.) readable by a separate computer, or may be transferred from another device through the communication module 400 and stored in the memory 200.

또한, 메모리(200)에는 객체에 대해 복수 개의 박스를 형성하고, 복수 개의 상기 박스 중 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하기 위해 필요한 데이터를 저장할 수 있는 데이터베이스(210)가 제공될 수 있다. In addition, the memory 200 may be provided with a database 210 capable of storing data necessary to form a plurality of boxes for an object and delete the remaining boxes, leaving only the number of boxes corresponding to the object among the plurality of boxes. You can.

통신 모듈(400)은 통신망(40)을 통해 사용자 단말기(20)와 이미지 분석 서버(10), 또는 관리자 단말기(30)와 이미지 분석 서버(10)가 서로 통신하기 위한 기능을 제공할 수 있다. The communication module 400 may provide a function for the user terminal 20 and the image analysis server 10 or the administrator terminal 30 and the image analysis server 10 to communicate with each other through the communication network 40.

이미지 분석 서버(10)는 물리적인 구성인 박스 설정모듈(310), 제1 박스 제거모듈(320), 제2 박스 제거모듈(330), 알약 계수 판단모듈(340), 카운팅 모듈(350), 및 종류 판단모듈(360)을 포함할 수 있다. 또한, 제2 박스 제거모듈(330)은 기준 박스 설정부(331), 집합 박스 설정부(332), 비교 공간 설정부(333) 및 알약 계수 비교에 의한 박스 제거부(334)를 포함할 수 있으며, 이에 대한 자세한 설명은 후술한다The image analysis server 10 includes a physical configuration of a box setting module 310, a first box removal module 320, a second box removal module 330, a pill count determination module 340, a counting module 350, and a type determination module 360. In addition, the second box removal module 330 may include a reference box setting unit 331, a set box setting unit 332, a comparison space setting unit 333, and a box removal unit 334 by pill coefficient comparison. A detailed explanation of this will be provided later.

도 4는 도 1의 객체 카운팅 시스템(1)에 의해 실행되는 이미지 분석 서버를 이용한 객체 카운팅 방법을 개략적으로 나타내는 순서도이고, 도 5는 도 4의 S1 내지 S3 단계 중 S2 단계에 대해 보다 자세히 도시한 순서도이고, 도 6는 도 5의 S32 내지 S36 단계 중 S36 단계에 대해 보다 자세히 도시한 순서도이고, 도 7는 도 1에 도시된 사용자 단말기(20)에 의해 객체를 입력받는 것을 개념적으로 나타낸 도면이고, 도 8는 도 1의 이미지 분석 서버(10)에 의해 객체 인식 딥러닝 모델인 RetinaNet이 실행되어 하나의 알약에 대해 복수 개의 박스가 형성된 것을 개념적으로 나타낸 도면이며, 도 9은 도 1의 이미지 분석 서버(10)에 의해 박스를 제거하는 알고리즘인 NMS(non maximum suppression)가 실행됨으로써, 하나의 알약(객체)에 형성된 박스를 개념적으로 나타낸 도면이다. FIG. 4 is a flowchart schematically showing an object counting method using an image analysis server executed by the object counting system 1 of FIG. 1, and FIG. 5 shows step S2 of steps S1 to S3 in FIG. 4 in more detail. It is a flowchart, and FIG. 6 is a flowchart showing step S36 among steps S32 to S36 of FIG. 5 in more detail, and FIG. 7 is a diagram conceptually showing receiving an object by the user terminal 20 shown in FIG. 1. , FIG. 8 is a diagram conceptually showing that RetinaNet, an object recognition deep learning model, is executed by the image analysis server 10 of FIG. 1 to form a plurality of boxes for one pill, and FIG. 9 is an image analysis of FIG. 1. This is a diagram conceptually showing a box formed in one pill (object) by executing NMS (non maximum suppression), an algorithm for removing boxes, by the server 10.

도 4및 도 9를 참조하면, 이미지 분석 서버를 이용한 객체 카운팅 방법은 사용자 단말기(20)에 의해 하나 이상의 객체를 포함하고 있는 이미지를 입력 받는 단계(S1); 이미지 분석 서버(10)에 의해 각각의 상기 객체에 대해 복수 개의 박스를 형성하고, 복수 개의 상기 박스 중 상기 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하는 단계(S2); 이미지 분석 서버(10)에 의해 남아 있는 박스를 카운팅하고, 박스에 대응하는 개수를 사용자 단말기(20)에 전송하는 단계(S3)를 포함할 수 있다.Referring to Figures 4 and 9, the object counting method using an image analysis server includes the step of receiving an image containing one or more objects by the user terminal 20 (S1); Forming a plurality of boxes for each object by the image analysis server 10, leaving only the number of boxes corresponding to the object among the plurality of boxes and deleting the remaining boxes (S2); It may include a step (S3) of counting the remaining boxes by the image analysis server 10 and transmitting the number corresponding to the boxes to the user terminal 20.

이미지 분석 서버(10)에 의해 카운팅될 수 있는 하나의 이미지에 포함된 객체는 동일한 크기 및 형상을 갖는 동일한 종류의 객체, 또는 서로 다른 크기 및 형상을 갖는 복수 개의 종류의 객체를 포함할 수 있다. Objects included in one image that can be counted by the image analysis server 10 may include the same type of object with the same size and shape, or a plurality of types of objects with different sizes and shapes.

본 실시예에서는 이미지 분석 서버(10)에 의해 카운팅되는 하나의 이미지에 포함된 객체는 동일한 종류의 객체인 것을 예를 들어 설명한다.In this embodiment, the object included in one image counted by the image analysis server 10 is explained as an example of the same type of object.

또한, 이하에서는 객체는 알약인 것을 예를 들어 상술한 과정에 대해 보다 자세히 설명한다. In addition, below, the above-described process will be described in more detail, taking as an example that the object is a pill.

먼저, 사용자 단말기(20)에 의해 하나 이상의 객체(예를 들어, 알약)를 포함하고 있는 이미지를 입력 받는 단계(S1)에 대해 구체적으로 설명하면 다음과 같다. First, the step S1 of receiving an image containing one or more objects (eg, pills) by the user terminal 20 will be described in detail as follows.

사용자는 객체 플레이트(50)에 동일한 크기 및 형상을 갖는 동일한 종류의 알약을 놓고(도 7의(a) 참조), 사용자 단말기(20)를 통해 알약에 대한 이미지를 촬영할 수 있다(도 7의(b) 참조).The user can place the same type of pill with the same size and shape on the object plate 50 (see (a) of FIG. 7) and take an image of the pill through the user terminal 20 (see (a) of FIG. 7). see b)).

이때, 객체 플레이트(50)에는 알약이 포개지지 않게 놓여야 한다.At this time, the pills must be placed on the object plate 50 so that they do not overlap.

다만 본 발명의 사상은 이에 한정되는 것은 아니며, 객체 카운팅 시스템(1)은 후술하는 멀티 분석 보조기구(60) 또는 이미지 분석 서버(10)에 의해 알약이 포개짐을 경고하는 기능을 포함하고 있을 수 있다. 이에 대한 자세한 설명은 후술한다. However, the idea of the present invention is not limited to this, and the object counting system 1 may include a function to warn that pills are overlapped by the multi-analysis assistant 60 or the image analysis server 10, which will be described later. . A detailed explanation of this will be provided later.

객체 플레이트(50)는 알약이 놓여질 수 있는 평평한 판일 수 있고, 알약과 대비되는 색상 또는 알약과 다른 색상으로 제공될 수 있다. 예를 들어, 알약이 흰색으로 제공되는 경우, 객체 플레이트(50)는 검정색으로 제공될 수 있다. The object plate 50 may be a flat plate on which a pill can be placed, and may be provided in a color that contrasts with the pill or in a color different from the pill. For example, if the pill is provided in white, the object plate 50 may be provided in black.

그 후, 사용자 단말기(20)에 의해 촬영된 알약을 포함하고 있는 이미지는 이미지 분석 서버(10)로 전송될 수 있다. Thereafter, the image containing the pill captured by the user terminal 20 may be transmitted to the image analysis server 10.

본 실시예에서는 사용자가 사용자 단말기(20)를 파지하여 이미지를 촬영하는 것을 예로 들어 설명하나, 본 발명의 사상은 이에 한정되는 것은 아니며 사용자 단말기(20)를 후술하는 멀티 분석 보조기구(60)에 놓고 이미지를 촬영할 수도 있으며(도 14 참조), 이에 대한 자세한 설명은 후술한다. In this embodiment, the user holds the user terminal 20 and takes an image as an example, but the spirit of the present invention is not limited to this and the user terminal 20 is used in the multi-analysis assistance device 60, which will be described later. You can also take an image by placing it (see FIG. 14), and a detailed explanation of this will be provided later.

다음으로, 이미지 분석 서버(10)에 의해 각각의 상기 객체(예를 들어, 알약)에 대해 복수 개의 박스를 형성하고, 복수 개의 상기 박스 중 상기 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하는 단계(S2)에 대해 구체적으로 설명하면 다음과 같다. Next, a plurality of boxes are formed for each object (e.g., a pill) by the image analysis server 10, and the remaining boxes are deleted, leaving only the number of boxes corresponding to the object among the plurality of boxes. The detailed description of the step (S2) is as follows.

이미지 분석 서버(10)는 사용자 단말기(20)로부터 동일한 종류의 복수 개의 알약를 포함하고 있는 이미지를 전송받을 수 있다. The image analysis server 10 may receive an image containing a plurality of pills of the same type from the user terminal 20.

그 후, 이미지 분석 서버(10)의 박스 설정모듈(310)에 의해 하나의 객체에 대해 복수 개의 박스를 형성할 수 있다(S32). Afterwards, a plurality of boxes can be formed for one object by the box setting module 310 of the image analysis server 10 (S32).

예를 들어, 박스 설정모듈(310)은 객체 인식 딥러닝 모델인 RetinaNet을 실행하는 인공 신경망으로 제공될 수 있다. RetinaNet이 실행되는 경우, 각각의 알약에 대해 복수 개의 박스를 형성할 수 있다. 다만, 박스 설정모듈(310)에 의해 실행될 수 있는 객체 인식 딥러닝 모델은 RetinaNet에 한정되지 않으며, 박스 설정모듈(310)은 YOLO 중 CenterNet 하나 이상을 실행하는 것을 포함할 수 있다. For example, the box setting module 310 may be provided as an artificial neural network running RetinaNet, an object recognition deep learning model. When RetinaNet is running, multiple boxes can be created for each pill. However, the object recognition deep learning model that can be executed by the box setting module 310 is not limited to RetinaNet, and the box setting module 310 may include executing one or more CenterNet among YOLO.

RetinaNet을 이용하는 경우 박스를 사용하여 객체를 검출하는 방법에서 신경 회로망을 학습함에 있어 객체 샘플의 수가 배경의 샘플의 수에 비하여 매우 적고 이로 인하여 나타나는 문제점을 해결할 수 있다. When using RetinaNet, when learning a neural network in the method of detecting objects using boxes, the number of object samples is very small compared to the number of background samples, and the problems that arise due to this can be solved.

구체적으로, RetinaNet은 backbone 네트워크와 두개의 task-specific subnetworks로 구성된 통합된 하나의 네트워크일 수 있다. backbone 네트워크는 입력된 전체 이미지에 대해서 convolutional feature map을 계산하는 역할을 수행한다. 첫번째 subnet은 backbone의 결과에서 convolutional 하게 객체 구분(object classification)을 수행하는 단계이며, 두번째 subnet은 convolutional하게 박스(bounding box)를 추정하는 역할을 수행할 수 있다.Specifically, RetinaNet may be an integrated network consisting of a backbone network and two task-specific subnetworks. The backbone network is responsible for calculating a convolutional feature map for the entire input image. The first subnet is a step that performs object classification convolutionally from the results of the backbone, and the second subnet can perform the role of convolutionally estimating the box (bounding box).

도 8은 박스 설정모듈(310)에 의해 객체 인식 딥러닝 모델인 RetinaNet이 실행됨으로써, 하나의 알약(객체)에 대해 복수 개의 박스(B)가 형성된 것을 개념적으로 나타낸 도면이다.Figure 8 is a diagram conceptually showing that a plurality of boxes (B) are formed for one pill (object) by executing RetinaNet, an object recognition deep learning model, by the box setting module 310.

박스 설정모듈(310)에 의해 RetinaNet이 실행되는 경우, 알약이 밀접하게 붙어있는 경우, 하나의 알약에 대해 복수 개의 박스가 형성되는바, 알약의 개수와 박스의 개수가 동일하지 않다. 따라서, 알약이 밀접하게 붙어 있는 경우에도 알약의 개수를 정확하게 카운팅하기 위해서는, RetinaNet이 실행된 후, RetinaNet에 의해 형성된 복수 개의 박스 중 일부를 제거하는 단계를 거쳐야 한다. When RetinaNet is executed by the box setting module 310, if the pills are closely adjacent to each other, a plurality of boxes are formed for one pill, and the number of pills and the number of boxes are not the same. Therefore, in order to accurately count the number of pills even when the pills are closely attached, after RetinaNet is executed, a step must be taken to remove some of the plurality of boxes formed by RetinaNet.

구체적으로, 박스 설정모듈(310)에 의해 RetinaNet이 실행된 후, 이미지 분석 서버(10)의 제1 박스 제거모듈(320)에 의해 하나의 객체에 형성된 복수 개의 박스 중 일부를 제거하는 알고리즘이 실행될 수 있다(S34). Specifically, after RetinaNet is executed by the box setting module 310, an algorithm for removing some of a plurality of boxes formed in one object by the first box removal module 320 of the image analysis server 10 will be executed. (S34).

예를 들어, 제1 박스 제거모듈(320)에 의해 실행되는 알고리즘은 NMS(non maximum suppression) 일 수 있다. 여기서, NMS(non maximum suppression)는 현재 픽셀을 기준으로 주변의 픽셀과 비교했을 때, 최대값인 경우는 남기로, 아닐 경우는 제거하는 비최대값 억제 알고리즘으로 이해될 수 있다. For example, the algorithm executed by the first box removal module 320 may be non maximum suppression (NMS). Here, NMS (non maximum suppression) can be understood as a non-maximum value suppression algorithm that, when comparing the current pixel with surrounding pixels, retains the maximum value and removes the other pixels.

도 9는 제1 박스 제거모듈(320)에 의해 박스를 제거하는 알고리즘인 NMS(non maximum suppression)가 실행됨으로써, 하나의 알약(객체)에 형성된 박스를 개념적으로 나타낸다. Figure 9 conceptually shows a box formed in one pill (object) by executing NMS (non maximum suppression), an algorithm for removing boxes, by the first box removal module 320.

NMS(non maximum suppression)가 실행된 후에도, 알약들이 매우 밀접하게 붙어 있는 경우에는, 알약의 개수와 박스의 개수가 다를 수 있다. Even after NMS (non maximum suppression) is executed, if the pills are very close together, the number of pills and the number of boxes may be different.

예를 들어, 도 9을 참조하면 매우 밀접하게 붙어 있는 알약 3개에 5개의 박스(B1, B2, B3, B4, B5)가 형성된 것을 알 수 있다. 이 경우, 제2 박스 제거모듈(330)에 하나의 객체에 하나의 박스만을 남기고 나머지 박스를 삭제하는 단계가 실행될 수 있다(S36). 여기서, 제2 박스 제거모듈(330)는 기준 박스 설정부(331), 집합 박스 설정부(332), 비교 공간 설정부(333), 알약 계수 비교에 의한 박스 제거부(334)를 포함할 수 있으며, 이와 같은 구성에 의해 아래와 같이 S36단계가 실행될 수 있다(도 6 참조). For example, referring to Figure 9, it can be seen that five boxes (B1, B2, B3, B4, B5) are formed in three pills that are very closely attached. In this case, a step of leaving only one box for one object and deleting the remaining boxes may be performed in the second box removal module 330 (S36). Here, the second box removal module 330 may include a reference box setting unit 331, a set box setting unit 332, a comparison space setting unit 333, and a box removal unit 334 by pill coefficient comparison. And with this configuration, step S36 can be executed as follows (see FIG. 6).

구체적으로, S36 단계는, 기준 박스 설정부(331)에 의해 남아있는 박스 중에서 임의의 박스를 기준 박스로 설정하는 단계(S361); 집합 박스 설정부(332)에 의해 상기 기준 박스와 겹치는 박스들의 집합인 집합 박스를 설정하는 단계(S362); 비교 공간 설정부(333)에 의해 상기 기준 박스가 차지하는 공간 중 상기 집합 박스와 겹치는 공간을 제거하여, 상기 기준 박스에서 남아 있는 공간을 비교 공간으로 설정하는 단계(S363); 알약 계수 비교에 의한 박스 제거부(334)에 의해 상기 비교 공간과 상기 기준 박스가 차지하는 공간의 비율이 알약 계수 보다 큰 경우 상기 기준 박스로 설정된 박스를 남기고, 상기 비교 공간과 상기 기준 박스가 차지하는 공간의 비율이 알약 계수 보다 작은 경우 상기 기준 박스로 설정된 박스를 제거하는 단계(S364)를 포함할 수 있다(도 5 참조).Specifically, step S36 includes setting a random box among the remaining boxes as a reference box by the reference box setting unit 331 (S361); Setting a set box, which is a set of boxes overlapping the reference box, by the set box setting unit 332 (S362); A step of removing a space overlapping with the set box from the space occupied by the reference box by the comparison space setting unit 333 and setting the remaining space in the reference box as a comparison space (S363); If the ratio of the space occupied by the comparison space and the reference box is greater than the pill coefficient by the box removal unit 334 by pill coefficient comparison, a box set as the reference box is left, and the space occupied by the comparison space and the reference box is left. If the ratio is less than the pill coefficient, a step (S364) of removing the box set as the reference box may be included (see FIG. 5).

도 10은 도 6에 도시된 S36 단계의 이해를 돕기 위해 개념적으로 도시한 도면이다. FIG. 10 is a conceptual diagram to help understand step S36 shown in FIG. 6.

도 1 내지 도 10을 참조하여, S36 단계에 대해 예를 들어 설명하면 아래와 같다. With reference to FIGS. 1 to 10, step S36 is described as an example as follows.

제1 박스 제거모듈(320)에 의해 S34 단계가 실행되는 경우, 밀접하게 붙어있는 알약에 대해 알약 보다 많은 개수의 박스가 형성(예를 들어, 3개의 알약에 의해 5개의 박스(B1 내지 B5)가 형성 )될 수 있다. When step S34 is executed by the first box removal module 320, a larger number of boxes than pills are formed for closely attached pills (for example, 5 boxes (B1 to B5) by 3 pills) ) can be formed.

이 경우, 5개의 남아있는 박스(B1 내지 B5) 중에서 임의의 박스인 제1 박스(B1)를 기준 박스로 설정하고, 제1 박스(B1)와 겹치는 박스들인 제2 박스(B2), 제4 박스(B4) 및 제5 박스(B5)를 집합 박스로 설정한다. In this case, the first box (B1), which is a random box among the five remaining boxes (B1 to B5), is set as the reference box, and the second box (B2) and the fourth box that overlap the first box (B1) are Box B4 and fifth box B5 are set as collection boxes.

그 후, 제1 박스(B1)가 차지하는 공간 중에서 집합 박스(B2, B4, B5)와 겹치는 공간을 제거하여, 남아 있는 공간을 비교 공간(C)으로 설정한다.Afterwards, the space overlapping with the set boxes (B2, B4, B5) is removed from the space occupied by the first box (B1), and the remaining space is set as the comparison space (C).

그 후, 비교 공간(C)과 기준 박스인 제1 박스(B1)가 차지하는 공간의 비율이 알약 계수 보다 크므로 (비교 공간(C)/기준 박스(B1)가 차지하는 공간) > 알약 계수), 기준 박스로 설정된 제1 박스(B1)는 남아 있을 수 있다.Afterwards, since the ratio of the space occupied by the comparison space (C) and the first box (B1), which is the reference box, is greater than the pill coefficient (comparison space (C)/space occupied by the reference box (B1) > pill coefficient), The first box B1 set as the reference box may remain.

여기서, 알약 계수는 객체(알약)가 존재할 수 있는 공간을 나타내는 것으로서, 객체(알약)의 크기 및 형상에 따라 다르게 설정될 수 있으며, 알약 계수는 0 초과 1 미만(예를 들어, 알약 계수는 0.85)의 값으로 설정될 수 있다. Here, the pill coefficient represents the space where an object (pill) can exist, and can be set differently depending on the size and shape of the object (pill). The pill coefficient is greater than 0 and less than 1 (for example, the pill coefficient is 0.85 ) can be set to a value of

이와 같은, 알약 계수는 이미지 분석 서버(10)의 알약 계수 판단모듈(340)에 의해 설정될 수 있다. As such, the pill coefficient may be set by the pill coefficient determination module 340 of the image analysis server 10.

구체적으로, 객체(알약)의 크기 및 형상에 따른 알약 계수는 데이터베이스(210)에 저장되어 있을 수 있으며, 사용자 단말기(20)로부터 이미지 분석 서버(10)에 객체(알약)을 포함하는 이미지가 전송되는 경우, 알약 계수 판단모듈(340)은 객체(알약)의 크기 및 형상에 따라 데이터베이스(210)에 저장된 알약 계수를 매칭시켜, 객체의 종류에 따라 알약 계수를 다르게 설정할 수 있다. 개념적으로, 알약의 크기가 커질 수록, 알약 계수는 0과 1 사이에서 커질 수 있다.Specifically, the pill coefficient according to the size and shape of the object (pill) may be stored in the database 210, and an image including the object (pill) is transmitted from the user terminal 20 to the image analysis server 10. If so, the pill coefficient determination module 340 can match the pill coefficient stored in the database 210 according to the size and shape of the object (pill) and set the pill coefficient differently depending on the type of object. Conceptually, as the size of the pill increases, the pill coefficient can increase between 0 and 1.

마찬가지로, 제4 박스(B4)를 기준 박스로 설정하는 경우, 비교 공간과 기준 박스인 제4 박스(B4)가 차지하는 공간의 비율은 알약 계수 보다 작으므로, 기준 박스로 설정된 제4 박스(B4)는 제거될 수 있다. Likewise, when the fourth box (B4) is set as the reference box, the ratio of the space occupied by the comparison space and the fourth box (B4), which is the reference box, is smaller than the pill coefficient, so the fourth box (B4) set as the reference box can be removed.

이와 같이, S361 내지 S364 단계를 거치는 경우, 밀접하게 붙어 있는 객체가 있더라도, 객체의 개수와 박스의 개수를 동일하게 할 수 있다. In this way, when going through steps S361 to S364, even if there are objects that are closely adjacent to each other, the number of objects and the number of boxes can be made the same.

그 후, 이미지 분석 서버(10)에 의해 남아 있는 박스를 카운팅하고, 박스에 대응하는 개수를 사용자 단말기(20)에 전송하는 단계(S3)가 실행될 수 있다.Thereafter, a step (S3) of counting the remaining boxes by the image analysis server 10 and transmitting the number corresponding to the boxes to the user terminal 20 may be performed.

구체적으로, 이미지 분석 서버(10)의 카운팅 모듈(350)은 남아 있는 박스를 카운팅하여 사용자 단말기(20)에 전송하고, 사용자 단말기(20)는 카운팅된 개수를 디스플레이하거나, 스피커를 통해 사용자에게 음성으로 전달할 수 있다. Specifically, the counting module 350 of the image analysis server 10 counts the remaining boxes and transmits them to the user terminal 20, and the user terminal 20 displays the counted number or sends a voice message to the user through a speaker. It can be passed on.

또한, 이미지 분석 서버(10)에 의해 분석된 객체의 종류 및 카운팅된 객체의 개수는 매칭되어 데이터베이스(210)에 저장될 수 있으며, 사용자는 사용자 단말기(20)를 통해 객체의 종류 및 카운팅된 객체의 개수에 대한 이력을 조회할 수도 있다. In addition, the type of object analyzed by the image analysis server 10 and the number of counted objects may be matched and stored in the database 210, and the user may check the type of object and the number of counted objects through the user terminal 20. You can also check the history of the number of .

이와 같은 과정을 거쳐, 사용자는 수십개 내지 수만개의 알약에 대해 이미지를 찍어 이미지 분석 서버(10)로 전송하기만 하면, 알약의 정확학 개수가 카운팅되어 사용자에게 알려줄 수 있는바, 약국 또는 병원에서 알약의 재고 조사에 소요되는 시간을 줄 일 수 있다.Through this process, the user simply takes images of dozens to tens of thousands of pills and transmits them to the image analysis server 10, and the exact number of pills can be counted and notified to the user. It can reduce the time required for inventory research.

또한, 상술한 프로세서는 사용자 단말기(20)에 어플리케이션 형태로 설치되거나, 웹페이지로 제공될 수 있고, 사용자는 어플리케이션을 다운받거나 웹 페이지에 접속하여, 이미지를 업로드 하기만 하면, 이미지에 포함된 알약의 개수가 사용자에게 자동으로 전달될 수 있다. In addition, the above-described processor can be installed in the form of an application on the user terminal 20 or provided as a web page, and the user can download the application or access the web page and simply upload the image, and the pill included in the image The number can be automatically delivered to the user.

이하에서는, 상술한 이미지 분석 서버(10)의 하위 구성인 박스 설정모듈(310), 제1 박스 제거모듈(320), 제2 박스 제거모듈(330), 알약 계수 판단모듈(340) 및 카운팅 모듈(350)에 대해 보다 자세히 설명한다.Hereinafter, the box setting module 310, the first box removal module 320, the second box removal module 330, the pill count determination module 340, and the counting module, which are sub-configurations of the image analysis server 10 described above. (350) is explained in more detail.

상술한 바와 같이 박스 설정모듈(310)은 객체 인식 딥러닝 모델을 실행하여, 각각의 상기 객체에 대해 복수 개의 박스를 형성할 수 있다. As described above, the box setting module 310 may execute an object recognition deep learning model to form a plurality of boxes for each object.

제1 박스 제거모듈(320)은 각각의 객체에 형성된 복수 개의 박스 중 일부를 제거하는 알고리즘을 실행할 수 있다. The first box removal module 320 may execute an algorithm to remove some of the plurality of boxes formed in each object.

제2 박스 제거모듈(330)은 하나의 객체에 대해 하나의 박스만을 남기고 나머지 박스를 삭제할 수 있다.The second box removal module 330 may leave only one box for one object and delete the remaining boxes.

구체적으로, 제2 박스 제거모듈(330)은 기준 박스 설정부(331), 집합 박스 설정부(332), 비교 공간 설정부(333) 및 알약 계수 비교에 의한 박스 제거부(334)를 포함할 수 있으며,Specifically, the second box removal module 330 may include a reference box setting unit 331, a set box setting unit 332, a comparison space setting unit 333, and a box removal unit 334 by pill coefficient comparison. You can,

기준 박스 설정부(331)는 남아있는 박스 중에서 임의의 박스를 기준 박스로 설정할 수 있다.The reference box setting unit 331 can set any box among the remaining boxes as the reference box.

집합 박스 설정부(332)는 기준 박스와 겹치는 박스들의 집합인 집합 박스를 설정할 수 있다. The set box setting unit 332 can set a set box, which is a set of boxes that overlap a reference box.

비교 공간 설정부(333)는 기준 박스가 차지하는 공간 중 집합 박스와 겹치는 공간을 제거하여, 기준 박스에서 남아 있는 공간을 비교 공간으로 설정할 수 있다. The comparison space setting unit 333 may remove the space overlapping with the set box from the space occupied by the reference box and set the space remaining in the reference box as the comparison space.

알약 계수 비교에 의한 박스 제거부(334)는 비교 공간과 기준 박스가 차지하는 공간의 비율이 알약 계수 보다 큰 경우, 기준 박스로 설정된 박스를 남기고, 비교 공간과 기준 박스가 차지하는 공간의 비율이 알약 계수 보다 작은 경우, 기준 박스로 설정된 박스를 제거할 수 있다. If the ratio of the space occupied by the comparison space and the standard box is greater than the pill coefficient, the box removal unit 334 by pill coefficient comparison leaves a box set as the reference box, and the ratio of the space occupied by the comparison space and the standard box is the pill coefficient. If it is smaller, you can remove the box set as the reference box.

알약 계수 판단모듈(340)은 이미지에 나타난 객체의 크기 및 형상에 따라 상기 데이터베이스(210)에 저장된 알약 계수를 매칭시킬 수 있다. The pill coefficient determination module 340 may match the pill coefficient stored in the database 210 according to the size and shape of the object appearing in the image.

카운팅 모듈(350)은 객체에 대응되는 개수의 박스를 카운팅하여 사용자 단말기(20)에 전송할 수 있다. The counting module 350 can count the number of boxes corresponding to the object and transmit the number to the user terminal 20.

도 11은 도 1의 객체 카운팅 시스템(1)을 이용하여 복수 개의 이미지를 이미지 분석 서버(10)로 전송하고, 복수 개의 이미지 각각에 포함된 하나 이상의 객체를 카운팅하는 순서도를 개략적으로 나타내는 도면이고, 도 12는 단일 분석 모드와 멀티 분석 모드인 경우 도 1의 사용자 단말기(20)에 나타나는 화면을 나타내는 도면이며, 도 13은 멀티 분석 모드인 경우 이미지 분석 서버(10)에 의해 분석이 완료된 복수 개의 이미지 각각에 포함된 객체의 개수 및 종류가 도 1의 사용자 단말기(20)의 화면에 나타나는 도면이다. FIG. 11 is a diagram schematically showing a flowchart of transmitting a plurality of images to the image analysis server 10 using the object counting system 1 of FIG. 1 and counting one or more objects included in each of the plurality of images, FIG. 12 is a diagram showing a screen that appears on the user terminal 20 of FIG. 1 in the case of single analysis mode and multi-analysis mode, and FIG. 13 shows a plurality of images for which analysis has been completed by the image analysis server 10 in the case of multi-analysis mode. The number and type of objects included in each are shown on the screen of the user terminal 20 in FIG. 1.

상술한 실시예의 객체 카운팅 시스템(1)에서는 사용자 단말기(20)를 통해 하나의 이미지를 이미지 분석 서버(10)로 전송하고, 하나의 이미지에 포함된 복수 개의 객체를 이미지 분석 서버(10)로 분석하는것을 예로 들어 설명하였으나, 이하에서는 복수 개의 이미지를 이미지 분석 서버(10)로 전송하고, 복수 개의 이미지 각각에 포함된 복수 개의 객체를 분석하는 실시예에 대한 객체 카운팅 시스템(1)에 대해 설명한다. In the object counting system 1 of the above-described embodiment, one image is transmitted to the image analysis server 10 through the user terminal 20, and a plurality of objects included in one image are analyzed by the image analysis server 10. Although described as an example, the following describes the object counting system 1 for an embodiment of transmitting a plurality of images to the image analysis server 10 and analyzing a plurality of objects included in each of the plurality of images. .

이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법의 설명에 앞서, 도 12 및 도 13을 참조하여 사용자 단말기(20)의 화면을 설명하면 다음과 같다.Before explaining the method of counting objects included in a plurality of images using an image analysis server, the screen of the user terminal 20 will be described with reference to FIGS. 12 and 13 as follows.

사용자 단말기(20)의 화면은 이미지 확대부(111), 단일 분석버튼(112), 멀티 분석버튼(113), 이미지 입력버튼(114), 멀티 분석창(115) 및 토탈 개수 표시부(119)를 포함할 수 있다.The screen of the user terminal 20 includes an image magnification unit 111, a single analysis button 112, a multi analysis button 113, an image input button 114, a multi analysis window 115, and a total number display unit 119. It can be included.

이미지 확대부(111)에는 사용자 단말기(20)에 의해 촬영 중이거나 촬영된 이미지가 표시될 수 있다.The image enlarger 111 may display an image being captured or captured by the user terminal 20.

멀티 분석창(115)에는 사용자 단말기(20)에 의해 촬영된 복수 개의 이미지가 표시될 수 있고, 이미지 분석 서버(10)에 의해 분석된 이미지 각각에 대한 객체의 개수가 표시될 수 있다. A plurality of images captured by the user terminal 20 may be displayed in the multi-analysis window 115, and the number of objects for each image analyzed by the image analysis server 10 may be displayed.

또한, 멀티 분석창(115)에는 각각의 이미지를 선택할 수 있는 이미지 선택창(115a)과 이미지 분석 서버(10)에 의해 분석이 완료된 각각의 이미지의 개수를 표시할 수 있는 개수 표시부(115b)가 제공될 수 있다. 또한, 멀티 분석창(115)은 각각의 이미지를 삭제할 수 있는 삭제 버튼(116)이 제공될 수 있다. In addition, the multi-analysis window 115 includes an image selection window 115a for selecting each image and a count display unit 115b for displaying the number of images for which analysis has been completed by the image analysis server 10. can be provided. Additionally, the multi-analysis window 115 may be provided with a delete button 116 that can delete each image.

종류 표시부(118)는 이미지 선택창(115a)에 의해 선택된 이미지가 포함하고 있는 객체의 종류를 표시할 수 있다. The type display unit 118 can display the type of object included in the image selected by the image selection window 115a.

토탈 개수 표시부(119)는 멀티 분석창(115)에 표시된 복수 개의 이미지 모두에 포함된 객체의 합을 표시할 수 있다. The total number display unit 119 may display the sum of objects included in all of the plurality of images displayed in the multi-analysis window 115.

도 11 내지 도 13을 참조하면, 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법은, 사용자 단말기(20)에 의해 하나의 이미지가 입력될 수 있는 단일 분석 모드 또는 복수 개의 이미지가 입력될 수 있는 멀티 분석 모드가 선택되는 단계(S10); 멀티 분석 모드가 선택되는 경우 사용자 단말기(20)에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되고, 입력된 복수 개의 이미지가 이미지 분석 서버(10)로 전송되는 단계(S20); 이미지 분석 서버(10)에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계(S30); 사용자 단말기(20)에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계(S40)를 포함할 수 있다. Referring to FIGS. 11 to 13, the method of counting objects included in a plurality of images using an image analysis server uses a single analysis mode in which one image can be input by the user terminal 20 or a plurality of images can be input. A step in which a possible multi-analysis mode is selected (S10); When the multi-analysis mode is selected, a plurality of images containing one or more objects are input by the user terminal 20, and the plurality of input images are transmitted to the image analysis server 10 (S20); Counting the number of objects included in each of the plurality of images by the image analysis server 10 (S30); It may include a step (S40) in which the number of objects included in each of the plurality of images is displayed by the user terminal 20.

먼저, 사용자 단말기(20)에 의해 하나의 이미지가 입력될 수 있는 단일 분석 모드 또는 복수 개의 이미지가 입력될 수 있는 멀티 분석 모드가 선택되는 단계(S10)에 대해 구체적으로 설명하면 다음과 같다.First, a detailed description of the step (S10) in which a single analysis mode in which one image can be input or a multi-analysis mode in which a plurality of images can be input is selected by the user terminal 20 is as follows.

사용자는 사용자 단말기(20)를 통해 단일 분석 모드 또는 멀티 분석 모드를 선택할 수 있다. The user can select a single analysis mode or a multi-analysis mode through the user terminal 20.

구체적으로, 사용자는 사용자 단말기(20)의 화면에 나타난 단일 분석버튼(112)을 터치 또는 클릭함으로써 단일 분석 모드를 실행시킬 수 있고, 멀티 분석버튼(113)을 터치 또는 클릭함으로써 멀티 분석 모드를 실행시킬 수 있다. Specifically, the user can execute a single analysis mode by touching or clicking the single analysis button 112 displayed on the screen of the user terminal 20, and execute the multi-analysis mode by touching or clicking the multi-analysis button 113. You can do it.

여기서, 단일 분석 모드가 선택되는 경우, 사용자 단말기(20)를 통해 하나의 이미지만이 촬영되고, 하나의 이미지가 이미지 분석 서버(10)로 전송되어 하나의 이미지만이 분석되는 것으로 이해될 수 있다. Here, when the single analysis mode is selected, only one image is captured through the user terminal 20, and one image is transmitted to the image analysis server 10, so that only one image is analyzed. .

또한, 멀티 분석 모드가 선택되는 경우, 사용자 단말기(20)에 의해 복수 개의 이미지가 촬영되고, 복수 개의 이미지가 이미지 분석 서버(10)로 전송되어 복수 개의 이미지 모두가 분석되는 것으로 이해될 수 있다. Additionally, when the multi-analysis mode is selected, it can be understood that a plurality of images are captured by the user terminal 20, the plurality of images are transmitted to the image analysis server 10, and all of the plurality of images are analyzed.

또한, 멀티 분석 모드가 선택되는 경우, 사용자 단말기(20)에는 촬영할 이미지의 수를 선택할 수 있는 입력창(도면 미도시)이 제공될 수 있으며, 이 경우 사용자가 선택할 이미지의 수 만큼 이미지를 촬영하여 생성할 수 있다. In addition, when the multi-analysis mode is selected, the user terminal 20 may be provided with an input window (not shown) for selecting the number of images to be captured. In this case, images as many as the number of images to be selected may be captured by the user. can be created.

예를 들어, A환자에게 5종류의 알약을 제공해야 하는 경우, 사용자는 입력창에 5를 입력할 수 있으며, 5개의 이미지가 입력되는 경우, 5개의 이미지는 이미지 분석 서버(10)로 전송될 수 있다. For example, if 5 types of pills must be provided to patient A, the user can enter 5 in the input window, and if 5 images are input, the 5 images will be transmitted to the image analysis server 10. You can.

다음으로, 멀티 분석 모드가 선택되는 경우, 사용자 단말기(20)에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되고, 입력된 복수 개의 이미지가 이미지 분석 서버(10)로 전송되는 단계(S20)에 대해 구체적으로 설명하면 다음과 같다. Next, when the multi-analysis mode is selected, a plurality of images containing one or more objects are input by the user terminal 20, and the plurality of input images are transmitted to the image analysis server 10 (S20) ) is explained in detail as follows.

사용자가 멀티 분석 모드를 선택하는 경우, 사용자 단말기(20)의 화면 상에는 멀티 분석창(115)이 활성화 되고, 촬영된 복수 개의 이미지는 멀티 분석창(115)에 표시될 수 있다. When the user selects the multi-analysis mode, the multi-analysis window 115 is activated on the screen of the user terminal 20, and a plurality of captured images may be displayed in the multi-analysis window 115.

사용자는 멀티 분석창(115)에 표시된 복수 개의 이미지를 편집할 수 있다. 예를 들어, 사용자는 멀티 분석창(115)의 삭제 버튼(116)을 터치 또는 클릭하여 분석을 원하지 않는 이미지를 삭제할 수 있다. The user can edit multiple images displayed in the multi-analysis window 115. For example, the user can delete images that do not want to be analyzed by touching or clicking the delete button 116 of the multi-analysis window 115.

사용자 단말기(20)에 의해 하나 이상의 알약을 포함하고 있는 복수 개의 이미지가 입력(촬영)되는 경우, 사용자는 사용자 단말기(20)를 통해 이미지에 나타난 알약의 종류를 입력할 수 있다. 다만 본 발명의 사상은 이에 한정되는 것은 아니며, 알약의 종류는 후술하는 멀티 분석 보조기구(60) 및/또는 이미지 분석 서버(10) 등에 의해 자동적으로 파악될수도 있다. 이에 대한 자세한 설명은 후술한다. When a plurality of images containing one or more pills are input (photographed) by the user terminal 20, the user can input the type of pill shown in the images through the user terminal 20. However, the spirit of the present invention is not limited to this, and the type of pill may be automatically identified by the multi-analysis assistance device 60 and/or the image analysis server 10, which will be described later. A detailed explanation of this will be provided later.

이와 같이 입력된 복수 개의 이미지는 이미지 분석 서버(10)에 전송될 수 있다. The plurality of images input in this way can be transmitted to the image analysis server 10.

다음으로, 이미지 분석 서버(10)에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계(S30)에 대해 설명한다. Next, a step (S30) in which the number of objects included in each of the plurality of images is counted by the image analysis server 10 will be described.

구체적으로, S30단계는 이미지 분석 서버(10)에 의해 복수 개의 이미지 각각이 포함하고 있는 각각의 객체에 대해 복수 개의 박스를 형성하고, 각각의 이미지에 형성된 복수 개의 박스 중 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하는 단계; 이미지 분석 서버(10)에 의해 복수 개의 이미지 각각에 남아 있는 박스의 개수를 카운팅하고, 복수 개의 이미지 각각에 남아 있는 박스에 대응하는 개수를 사용자 단말기(20)에 전송하는 단계를 포함할 수 있다.Specifically, in step S30, a plurality of boxes are formed for each object included in each of the plurality of images by the image analysis server 10, and the number of boxes corresponding to the object among the plurality of boxes formed in each image is Deleting the remaining boxes leaving only the box; It may include counting the number of boxes remaining in each of the plurality of images by the image analysis server 10 and transmitting the number corresponding to the boxes remaining in each of the plurality of images to the user terminal 20.

여기서, 각각의 이미지에 포함된 객체의 카운팅 방법은 상술한 S2 및 S3와 동일한바, 이에 대한 자세한 설명은 상술한 S2 및 S3에 갈음한다. Here, the counting method of objects included in each image is the same as S2 and S3 described above, and the detailed description thereof will replace S2 and S3 described above.

다음으로, 사용자 단말기(20)에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계(S40)에 대해 설명한다. Next, a step (S40) in which the number of objects included in each of the plurality of images is displayed by the user terminal 20 will be described.

구체적으로, S40 단계는, 사용자 단말기(20)의 멀티 분석창(115)에 복수 개의 이미지가 표시되는 단계: 사용자 단말기(20)의 멀티 분석창(115)에 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계; 사용자 단말기(20)의 종류 표시부(118)에 복수 개의 이미지 각각이 포함하고 있는 객체의 종류가 표시되는 단계; 사용자 단말기(20)의 토탈 개수 표시부(119)에 복수 개의 이미지 모두에 포함된 객체의 합이 표시되는 단계를 포함할 수 있다(도 13 참조). Specifically, step S40 is a step in which a plurality of images are displayed in the multi-analysis window 115 of the user terminal 20: an object included in each of the plurality of images in the multi-analysis window 115 of the user terminal 20 A step in which the number of is displayed; Displaying the type of object included in each of the plurality of images on the type display unit 118 of the user terminal 20; It may include displaying the sum of objects included in all of the plurality of images on the total number display unit 119 of the user terminal 20 (see FIG. 13).

예를 들어, 멀티 분석창(115)에는 4개의 이미지가 표시되고, 각각의 이미지의 일측(예를 들어, 하단)에는 알약의 개수가 표시된다. For example, four images are displayed in the multi-analysis window 115, and the number of pills is displayed on one side (eg, bottom) of each image.

또한, 멀티 분석창(115)의 일측에는 종류 표시부(118)가 제공되고, 종류 표시부(118)에는 선택된 이미지의 종류(예를 들어, 넥시움정)가 표시될 수 있다. 이때, 멀티 분석창(115)에 나타난 복수 개의 이미지 중 선택된 이미지는 선택되지 않은 이미지와 다른 색상으로 표시될 수 있다. In addition, a type display unit 118 is provided on one side of the multi-analysis window 115, and the type of the selected image (eg, Nexium tablets) may be displayed on the type display unit 118. At this time, the selected image among the plurality of images displayed in the multi-analysis window 115 may be displayed in a different color from the unselected image.

한편, 본 실시예의 객체 카운팅 시스템(1)은 상술한 S10단계의 멀티 분석 모드에서 복수 개의 이미지를 입력하기 위한 멀티 분석 보조기구(60) 및 이동벨트(70)를 더 포함할 수 있다. Meanwhile, the object counting system 1 of this embodiment may further include a multi-analysis assistance device 60 and a moving belt 70 for inputting a plurality of images in the multi-analysis mode of step S10 described above.

도 14는 도 1의 사용자 단말기(20)가 안착될 수 있는 멀티 분석 보조기구(60)를 개략적으로 나타내는 도면이고, 도 15는 멀티 분석 모드를 용이하게 실시하기 위한 도 14의 멀티 분석 보조기구(60) 및 이동벨트(70)를 개략적으로 나타내는 도면이다. FIG. 14 is a diagram schematically showing the multi-analysis auxiliary device 60 on which the user terminal 20 of FIG. 1 can be mounted, and FIG. 15 shows the multi-analysis auxiliary device of FIG. 14 for easily performing the multi-analysis mode ( This is a diagram schematically showing the 60) and the moving belt 70.

도 14 및 도 15를 참조하면, 본 실시예의 객체 카운팅 시스템(1)은 멀티 분석 모드를 용이하게 실시하기 위한 멀티 분석 보조기구(60) 및 이동벨트(70)를 더 포함할 수 있다.Referring to FIGS. 14 and 15 , the object counting system 1 of this embodiment may further include a multi-analysis auxiliary device 60 and a moving belt 70 to easily perform the multi-analysis mode.

멀티 분석 보조기구(60)는 사용자 단말기(20)가 안착될 수 있는 기구로 이해될 수 있으며, 이동벨트(70)는 복수 개의 객체 플레이트(50)를 이동시킬 수 있는 장치로 이해될 수 있다. The multi-analysis assistance device 60 can be understood as a device on which the user terminal 20 can be seated, and the moving belt 70 can be understood as a device that can move a plurality of object plates 50.

도 14와 도 15에 도시된 멀티 분석 보조기구(60)와 이동벨트(70)가 제공되는 경우, S20에서 상술한 사용자 단말기(20)에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되는 단계가 용이하게 실현될 수 있다. When the multi-analysis auxiliary device 60 and the moving belt 70 shown in FIGS. 14 and 15 are provided, a plurality of images containing one or more objects are input by the user terminal 20 described above in S20. The steps can be easily realized.

구체적으로, 사용자 단말기(20)에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되는 단계는, 사용자 단말기(20)가 멀티 분석 보조기구(60)의 단말기 안착부(67)에 안착되는 단계; 객체가 놓여진 복수 개의 객체 플레이트(50)가 이동벨트(70)에 안착되는 단계; 이동벨트(70)의 이동에 따라 복수 개의 객체 플레이트(50)가 순차적으로 사용자 단말기(20) 하단에 위치하는 단계; 및 각각의 객체 플레이트(50)가 상기 사용자 단말기(20) 하단에 일정시간 머무른 후 이동함으로써 복수 개의 객체 플레이트(50)가 사용자 단말기(20) 하단을 이동하고, 상기 사용자 단말기(20)가 각각의 객체 플레이트(50)에 놓여진 객체를 촬영하여 복수 개의 이미지를 생성하는 단계를 포함할 수 있다. Specifically, the step of inputting a plurality of images containing one or more objects by the user terminal 20 includes the step of seating the user terminal 20 on the terminal seating portion 67 of the multi-analysis assistance device 60. ; A step of seating a plurality of object plates 50 on which objects are placed on the moving belt 70; Step of sequentially positioning a plurality of object plates 50 at the bottom of the user terminal 20 as the moving belt 70 moves; And each object plate 50 stays at the bottom of the user terminal 20 for a certain period of time and then moves, so that the plurality of object plates 50 move at the bottom of the user terminal 20, and the user terminal 20 moves to each of the object plates 50. It may include generating a plurality of images by photographing an object placed on the object plate 50.

또한, 상술한 실시예에서는 동일한 종류의 객체의 개수만 카운팅하는 실시예에 대해서 서술하였으나, 종류 인식표(52)를 포함하는 객체 플레이트(50)를 이용하는 경우, 객체 카운팅 시스템(1)은 서로 다른 종류의 객체를 판단할 수도 있다. In addition, in the above-described embodiment, an embodiment in which only the number of objects of the same type is counted has been described. However, when using the object plate 50 including the type identification tag 52, the object counting system 1 may be used to count different types of objects. You can also judge the object of .

구체적으로, 객체 플레이트(50)의 일측에는 문자, 바코드 및 일정 기호 중 하나 이상으로 제공되는 종류 인식표(52)가 제공될 수 있다. 이러한 종류 인식표(52)에 의해 객체(알약)의 종류가 판별될 수 있다.Specifically, a type identification tag 52 provided in one or more of letters, barcodes, and certain symbols may be provided on one side of the object plate 50. The type of object (pill) can be determined by this type identification tag 52.

예를 들어, 사용자는 객체 플레이트(50)에 부착된 종류 인식표(52)에 따라 서로 다른 종류의 알약을 객체 플레이트(50)에 놓을 수 있으며, 사용자 단말기(20)는 객체 플레이트(50)의 종류 인식표(52)를 촬영하여, 종류 인식표(52)와 객체를 함께 포함하는 이미지를 생성하거나, 또는 객체를 포함하고 있는 이미지와 종류 인식표(52)를 포함하고 있는 이미지를 각각 생성하여, 이미지 분석 서버(10)에 의해 종류 인식표(52)와 객체를 매칭시켜 분석함으로써 객체의 종류 및 개수를 판단할 수 있다. 이때, 이미지 분석 서버(10)의 프로세서(300)는 종류 인식표(52)를 판별할 수 있는 종류 판단모듈(360)을 더 포함할 수 있다. For example, the user can place different types of pills on the object plate 50 according to the type identification tag 52 attached to the object plate 50, and the user terminal 20 determines the type of object plate 50. By photographing the identification tag 52, an image containing both the type identification tag 52 and the object is generated, or by creating an image containing the object and an image containing the type identification tag 52, respectively, and creating an image analysis server. By (10), the type and number of objects can be determined by matching and analyzing the type identification tag 52 and the object. At this time, the processor 300 of the image analysis server 10 may further include a type determination module 360 capable of determining the type identification tag 52.

이 경우, 상술한 이미지 분석 서버(10)에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계(S30) 이후에, 이미지 분석 서버(10)의 종류 판단모듈(360)에 의해 객체와 종류 인식표(52)가 매칭되어 객체의 종류가 판단되는 단계; 및 사용자 단말기(20)에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수 및 종류가 표시되는 단계가 실행될 수 있다. In this case, after the step (S30) in which the number of objects included in each of the plurality of images is counted by the image analysis server 10, the type determination module 360 of the image analysis server 10 determines the object type. A step of determining the type of the object by matching the type identification tag 52; And a step of displaying the number and type of objects included in each of the plurality of images may be performed by the user terminal 20.

구체적으로, 종류 인식표(52)에 따른 객체의 종류에 대한 데이터는 데이터베이스(210)에 저장되어 있고, 종류 판단모듈(360)은 데이터베이스(210)에 저장된 객체의 종류에 대한 데이터를 받아와 객체의 종류를 판단할 수 있다. Specifically, data about the type of the object according to the type identification tag 52 is stored in the database 210, and the type determination module 360 receives data about the type of the object stored in the database 210 and determines the type of the object. You can judge the type.

예를 들어, 종류 인식표(52)가 기호1234로 제공되고 데이터베이스(210)에는 기호1234에 대응되는 객체의 종류가 넥시움정으로 저장되어 있는 경우, 사용자는 기호 1234가 표시된 객체 플레이트(50)에 넥시움정을 놓음으로써, 이미지 분석 서버(10)에 의해 별도의 번거로운 작업 없이 용이하게 객체의 종류를 인식할 수 있다. For example, if the type identification tag 52 is provided with the symbol 1234 and the type of object corresponding to the symbol 1234 is stored in the database 210 as Nexium tablets, the user enters Nexium tablets on the object plate 50 displayed with the symbol 1234. By setting the definition, the type of object can be easily recognized by the image analysis server 10 without additional cumbersome work.

이하에서는, 상술한 객체의 종류를 판단할 수 있는 물리적 장치에 대해 보다 자세히 설명한다. Below, a physical device capable of determining the type of the above-described object will be described in more detail.

본 발명의 일 실시예에 따른 객체 카운팅 시스템(1)은 객체를 놓을 수 있는 공간을 제공하고, 문자, 바코드 및 일정 기호 중 하나 이상으로 제공되는 종류 인식표(52)를 포함하는 객체 플레이트(50); 객체 플레이트(50)를 촬영하여, 객체 플레이트(50)에 놓여진 하나 이상의 객체를 포함하는 이미지와 종류 인식표(52)를 포함하는 이미지를 생성할 수 있는 사용자 단말기(20); 및 이미지에 포함된 객체의 개수 및 객체의 종류를 판단할 수 있는 이미지 분석 서버(10)를 포함할 수 있다. 여기서, 객체와 종류 인식표(52)는 하나의 이미지로 촬영될 수도 있고, 별개의 이미지로 촬영될수도 있다. The object counting system 1 according to an embodiment of the present invention includes an object plate 50 that provides a space for placing an object and includes a type identification tag 52 provided in one or more of letters, barcodes, and certain symbols. ; A user terminal 20 capable of photographing the object plate 50 to generate an image including one or more objects placed on the object plate 50 and an image including a type identification tag 52; and an image analysis server 10 capable of determining the number and type of objects included in the image. Here, the object and the type identification tag 52 may be photographed as one image or as separate images.

객체 플레이트(50)는, 객체가 놓여질 수 있는 평편한 안착부(55);및 상기 안착부(55)의 외측에 배치되고, 문자, 바코드 및 일정 기호 중 하나 이상으로 제공되는 종류 인식표(52)를 포함할 수 있다.The object plate 50 includes a flat seating portion 55 on which an object can be placed; and a type identification tag 52 disposed outside the seating portion 55 and provided with one or more of letters, barcodes, and certain symbols. may include.

또한, 객체 카운팅 시스템(1)은 객체 플레이트(50)와 기 설정된 거리 이격되어 사용자 단말기(20)가 놓여질 수 있는 단말기 안착부(67)를 포함하는 멀티 분석 보조기구(60)를 더 포함할 수 있다. In addition, the object counting system 1 may further include a multi-analysis auxiliary device 60 including a terminal seating portion 67 on which the user terminal 20 can be placed, spaced apart from the object plate 50 at a preset distance. there is.

멀티 분석 보조기구(60)는 객체 플레이트(50)가 이동하는 하단부(62); 사용자 단말기(20)가 놓여 질 수 있는 단말기 안착부(67)를 포함하는 상면부(66); 및 상기 하단부(62)와 상면부(66)를 연결하는 측면부(64)를 포함할 수 있다. 여기서, 측면부(64)의 높이는 객체 플레이트(50)와 사용자 단말기(20)가 이격된 거리로 이해될 수 있으며, 측면부(64)는 높이 조절이 가능하게 제공될 수 있다. The multi-analysis auxiliary device 60 includes a lower portion 62 along which the object plate 50 moves; an upper surface portion 66 including a terminal seating portion 67 on which the user terminal 20 can be placed; And it may include a side part 64 connecting the lower part 62 and the upper surface part 66. Here, the height of the side portion 64 may be understood as the distance between the object plate 50 and the user terminal 20, and the side portion 64 may be provided with an adjustable height.

이러한 멀티 분석 보조기구(60)를 이용하는 경우, 사용자 단말기(20)를 단말기 안착부(67)에 놓고 객체를 촬영하여 이미지를 생성할 수 있는바, 객체 플레이트(50)에 놓여진 객체의 이미지를 용이하게 촬영할 수 있다. When using this multi-analysis assistant 60, an image can be created by placing the user terminal 20 on the terminal seating part 67 and photographing the object, making it easy to image the object placed on the object plate 50. You can take pictures easily.

또한, 멀티 분석 보조기구(60)는 객체 플레이트(50)에 놓여진 객체의 겹쳐짐을 판단할 수 있는 센서(69)를 포함할 수 있다. Additionally, the multi-analysis assistant 60 may include a sensor 69 that can determine the overlap of objects placed on the object plate 50.

예를 들어, 센서(69)는 멀티 분석 보조기구(60)의 측면부(64)에 제공되고, 객체 플레이트(50)는 센서(69) 전면을 지나가고, 센서(69)는 객체 플레이트(50)가 이동됨에 따라 객체 플레이트(50)에 놓여진 객체의 높이를 스캔할 수 있다. 여기서, 객체의 높이는 객체 플레이트(50)의 안착부(55)로부터 수직방향으로 측정한 길이로 이해될 수 있다. For example, the sensor 69 is provided on the side portion 64 of the multi-analysis assistant 60, the object plate 50 passes in front of the sensor 69, and the sensor 69 has the object plate 50. As it moves, the height of the object placed on the object plate 50 can be scanned. Here, the height of the object can be understood as the length measured in the vertical direction from the seating portion 55 of the object plate 50.

즉, 사용자 단말기(20)에 의해 촬영된 이미지는 객체의 일측면(상면)을 촬영하는 것으로 이해될 수 있고, 멀티 분석 보조기구(60)에 부착된 센서(69)는 객체의 다른면(측면)을 스캔하는 것으로 이해될 수 있다. In other words, the image captured by the user terminal 20 can be understood as capturing one side (top surface) of the object, and the sensor 69 attached to the multi-analysis assistant 60 can capture the other side (side surface) of the object. ) can be understood as scanning.

객체 플레이트(50)가 센서(69)의 전면을 지나감에 따라, 센서(69)는 객체 플레이트(50)에 놓여진 모든 객체들을 스캔할 수 있고, 객체 플레이트(50)에 놓여진 객체들 중에서 일정 범위를 초과하는 객체가 스캔되는 경우, 사용자에게 알려줄 수 있다.As the object plate 50 passes in front of the sensor 69, the sensor 69 can scan all objects placed on the object plate 50 and a certain range of objects placed on the object plate 50. If more objects are scanned, the user can be notified.

이때, 멀티 분석 보조기구(60)에는 센서(69)와 연결된 스피커(도면 미도시)가 제공되어, 경고음을 통해 알려주거나, 또는 센서(69)로부터 사용자 단말기(20)로 신호를 전송하여, 사용자 단말기(20)를 통해 사용자에게 경고음 또는 경고표시를 해줄 수 있다. At this time, the multi-analysis assistant 60 is provided with a speaker (not shown) connected to the sensor 69, which notifies the user through a warning sound or transmits a signal from the sensor 69 to the user terminal 20, A warning sound or warning display can be provided to the user through the terminal 20.

이 경우, 사용자는 객체 플레이트(50)에 놓여진 객체를 점검하여, 객체들이 겹쳐짐이 없이 다시 놓을 수 있다. In this case, the user can check the objects placed on the object plate 50 and place them again without the objects overlapping.

또한, 객체 카운팅 시스템(1)은, 복수 개의 객체 플레이트(50)가 안착하고, 상기 복수 개의 객체 플레이트(50)를 상기 사용자 단말기(20) 하단으로 이동시킬 수 있는 이동벨트(70)를 더 포함할 수 있다. In addition, the object counting system 1 further includes a moving belt 70 on which a plurality of object plates 50 are seated and capable of moving the plurality of object plates 50 to the bottom of the user terminal 20. can do.

여기서, 이동벨트(70)는 폐곡선을 이루게 제공될 수 있다. 이 경우, 폐곡선을 이루는 이동벨트(70)에 복수 개의 객체 플레이트(50)를 올려놓음으로써, 다수의 객체 플레이트(50)를 활용하여 알약의 개수를 카운팅 할 수 있다. Here, the moving belt 70 may be provided to form a closed curve. In this case, by placing a plurality of object plates 50 on the moving belt 70 forming a closed curve, the number of pills can be counted using the plurality of object plates 50.

또한, 복수 개의 객체 플레이트(50)가 제공되는 경우, 복수 개의 객체 플레이트(50)의 안착부(55)의 색상은 서로 다르게 제공될 수 있다. Additionally, when a plurality of object plates 50 are provided, the colors of the seating portions 55 of the plurality of object plates 50 may be provided differently.

예를 들어, 빨간색 계열의 객체가 놓여지는 객체 플레이트(50)는 녹색 계열로 제공될 수 있고, 흰색 계열의 객체가 놓여지는 객체 플레이트(50)의 안착부(55)의 색상은 검정색 계열로 제공될 수 있다. 이 경우, 이미지 분석 서버(10)는 객체와 바탕색을 구분하여, 더욱 용이하게 객체를 인식할 수 있다. For example, the object plate 50 on which a red-colored object is placed may be provided in a green color, and the color of the seating portion 55 of the object plate 50 on which a white-colored object is placed may be provided in a black color. It can be. In this case, the image analysis server 10 can recognize the object more easily by distinguishing between the object and the background color.

이상 본 발명의 실시예에 따른 이미지 분석 서버(10), 이를 포함하는 객체 카운팅 시스템(1), 이미지 분석 서버를 이용한 객체 카운팅 방법 및 이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법을 구체적인 실시 형태로서 설명하였으나, 이는 예시에 불과한 것으로서 본 발명은 이에 한정되지 않는 것이며, 본 명세서에 개시된 기초 사상에 따르는 최광의 범위를 갖는 것으로 해석되어야 한다. 당업자는 개시된 실시 형태들을 조합, 치환하여 적시되지 않은 실시 형태를 실시할 수 있으나, 이 역시 본 발명의 권리범위를 벗어나지 않는 것이다. 이외에도 당업자는 본 명세서에 기초하여 개시된 실시형태를 용이하게 변경 또는 변형할 수 있으며, 이러한 변경 또는 변형도 본 발명의 권리범위에 속함은 명백하다.The image analysis server 10 according to an embodiment of the present invention, the object counting system 1 including the same, an object counting method using an image analysis server, and a method of counting objects included in a plurality of images using an image analysis server are described above. Although described as a specific embodiment, this is merely an example and the present invention is not limited thereto, and should be construed as having the widest scope following the basic ideas disclosed in this specification. A person skilled in the art may combine and substitute the disclosed embodiments to implement embodiments not specified, but this also does not deviate from the scope of the present invention. In addition, a person skilled in the art can easily change or modify the embodiments disclosed based on the present specification, and it is clear that such changes or modifications also fall within the scope of the present invention.

1: 객체 카운팅 시스템 10: 이미지 분석 서버
20: 사용자 단말기 30: 관리자 단말기
50: 객체 플레이트 60: 멀티 분석 보조기구
70: 이동벨트
1: Object counting system 10: Image analysis server
20: user terminal 30: administrator terminal
50: object plate 60: multi analysis aid
70: Moving belt

Claims (12)

사용자 단말기에 의해 하나의 이미지가 입력될 수 있는 단일 분석 모드 또는 복수 개의 이미지가 입력될 수 있는 멀티 분석 모드가 선택되는 단계;
멀티 분석 모드가 선택되는 경우, 사용자 단말기에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되는 단계;
입력된 복수 개의 이미지가 이미지 분석 서버로 전송되는 단계;
이미지 분석 서버에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계; 및
사용자 단말기에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계를 포함하고,
상기 이미지 분석 서버에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계는,
상기 이미지 분석 서버에 의해 복수 개의 이미지 각각이 포함하고 있는 각각의 객체에 대해 복수 개의 박스를 형성하고, 각각의 이미지에 형성된 복수 개의 박스 중 객체에 대응하는 개수의 박스만을 남기고 나머지 박스를 삭제하는 단계;
상기 이미지 분석 서버에 의해 복수 개의 이미지 각각에 남아 있는 박스의 개수를 카운팅하고, 복수 개의 이미지 각각에 남아 있는 박스에 대응하는 개수를 사용자 단말기에 전송하는 단계를 포함하고,
상기 사용자 단말기는,
촬영중인 이미지가 표시될 수 있는 이미지 확대부; 및
촬영된 복수 개의 이미지가 표시될 수 있고, 분석된 이미지 각각이 포함하고 있는 객체의 개수가 표시될 수 있고, 복수 개의 이미지를 편집할 수 있는 멀티 분석창을 포함하고,
상기 단일 분석 모드가 선택되는 경우, 상기 사용자 단말기에 의해 하나의 이미지만 촬영되고 상기 이미지 분석 서버에 의해 하나의 이미지만 분석되고,
상기 멀티 분석 모드가 선택되는 경우, 상기 사용자 단말기에 의해 복수 개의 이미지가 촬영되고 상기 이미지 분석 서버에 의해 복수 개의 이미지가 분석되고, 상기 사용자 단말기의 화면 상에는 상기 멀티 분석창이 활성화되는
이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법.
Selecting a single analysis mode in which one image can be input or a multi-analysis mode in which a plurality of images can be input by the user terminal;
When a multi-analysis mode is selected, inputting a plurality of images containing one or more objects by the user terminal;
Transmitting a plurality of input images to an image analysis server;
Counting the number of objects included in each of the plurality of images by the image analysis server; and
A step of displaying the number of objects included in each of the plurality of images by the user terminal,
The step of counting the number of objects contained in each of the plurality of images by the image analysis server,
Forming a plurality of boxes for each object included in each of the plurality of images by the image analysis server, leaving only the number of boxes corresponding to the object among the plurality of boxes formed in each image and deleting the remaining boxes. ;
Counting the number of boxes remaining in each of the plurality of images by the image analysis server, and transmitting the number corresponding to the box remaining in each of the plurality of images to the user terminal,
The user terminal is,
An image enlarger where the image being shot can be displayed; and
A plurality of captured images can be displayed, the number of objects included in each analyzed image can be displayed, and a multi-analysis window can be used to edit the plurality of images,
When the single analysis mode is selected, only one image is captured by the user terminal and only one image is analyzed by the image analysis server,
When the multi-analysis mode is selected, a plurality of images are captured by the user terminal, a plurality of images are analyzed by the image analysis server, and the multi-analysis window is activated on the screen of the user terminal.
A method for counting objects included in multiple images using an image analysis server.
제1 항에 있어서,
사용자 단말기에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계는,
사용자 단말기의 멀티 분석창에 복수 개의 이미지가 표시되는 단계:
사용자 단말기의 멀티 분석창에 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 표시되는 단계;
사용자 단말기의 종류 표시부에 복수 개의 이미지 각각이 포함하고 있는 객체의 종류가 표시되는 단계; 및
사용자 단말기의 토탈 개수 표시부에 복수 개의 이미지 모두에 포함된 객체의 합이 표시되는 단계를 포함하는
이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법.
According to claim 1,
The step in which the number of objects contained in each of a plurality of images is displayed by the user terminal,
Steps in which multiple images are displayed in the multi-analysis window of the user terminal:
Displaying the number of objects included in each of the plurality of images in the multi-analysis window of the user terminal;
Displaying the type of object included in each of the plurality of images on the type display of the user terminal; and
Including the step of displaying the sum of objects included in all of the plurality of images on the total number display of the user terminal.
A method for counting objects included in multiple images using an image analysis server.
제1 항에 있어서,
사용자 단말기에 의해 하나 이상의 객체를 포함하고 있는 복수 개의 이미지가 입력되는 단계는,
사용자 단말기가 멀티 분석 보조기구의 단말기 안착부에 안착되는 단계;
객체가 놓여진 복수 개의 객체 플레이트가 이동벨트에 안착되는 단계;
이동벨트의 이동에 따라 복수 개의 객체 플레이트가 순차적으로 사용자 단말기 하단에 위치하는 단계; 및
각각의 객체 플레이트가 상기 사용자 단말기 하단에 일정시간 머무른 후 이동함으로써 복수 개의 객체 플레이트가 사용자 단말기 하단으로 이동하고, 상기 사용자 단말기가 각각의 객체 플레이트에 놓여진 객체를 촬영하여 복수 개의 이미지를 생성하는 단계를 포함하는
이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법.
According to claim 1,
The step of inputting a plurality of images containing one or more objects by the user terminal,
A step in which the user terminal is seated on the terminal seating portion of the multi-analysis assistance device;
A step of seating a plurality of object plates on which objects are placed on a moving belt;
Step of sequentially positioning a plurality of object plates at the bottom of the user terminal as the moving belt moves; and
Each object plate stays at the bottom of the user terminal for a certain period of time and then moves, thereby moving the plurality of object plates to the bottom of the user terminal, and generating a plurality of images by photographing the object placed on each object plate by the user terminal. containing
A method for counting objects included in multiple images using an image analysis server.
제3 항에 있어서,
상기 객체가 놓여진 복수 개의 객체 플레이트가 이동벨트에 안착되는 단계 이후에,
객체 플레이트가 이동하여 객체 플레이트에 놓여진 객체가 멀티 분석 보조기구의 센서의 전면을 통과하는 단계를 포함하는
이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법.
According to clause 3,
After the step in which the plurality of object plates on which the object is placed are seated on the moving belt,
The object plate is moved so that the object placed on the object plate passes through the front of the sensor of the multi-analysis aid.
A method for counting objects included in multiple images using an image analysis server.
제1 항에 있어서,
이미지 분석 서버에 의해 복수 개의 이미지 각각이 포함하고 있는 객체의 개수가 카운팅되는 단계 이후에,
이미지 분석 서버의 종류 판단모듈에 의해 객체와 종류 인식표가 매칭되어 객체의 종류가 판단되는 단계를 더 포함하는
이미지 분석 서버를 이용한 복수 개의 이미지에 포함된 객체의 카운팅 방법.


According to claim 1,
After the number of objects contained in each of the plurality of images is counted by the image analysis server,
Further comprising the step of determining the type of the object by matching the object and the type identification tag by the type determination module of the image analysis server.
A method for counting objects included in multiple images using an image analysis server.


삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200153993A 2020-11-17 2020-11-17 Counting method of objects included in multiple images using an image analysis server and object counting system KR102607174B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020200153993A KR102607174B1 (en) 2020-11-17 2020-11-17 Counting method of objects included in multiple images using an image analysis server and object counting system
CN202180076688.XA CN116457840A (en) 2020-11-17 2021-08-13 Image analysis server, object counting method using image analysis server, and object counting system
JP2023528639A JP7474546B2 (en) 2020-11-17 2021-08-13 IMAGE ANALYSIS SERVER, OBJECT COUNTING METHOD USING IMAGE ANALYSIS SERVER, AND OBJECT COUNTING SYSTEM
PCT/KR2021/010824 WO2022108044A1 (en) 2020-11-17 2021-08-13 Image analysis server, object counting method using image analysis server, and object counting system
CA3198777A CA3198777A1 (en) 2020-11-17 2021-08-13 Image analysis server, object counting method using image analysis server, and object counting system
US18/198,188 US20230306630A1 (en) 2020-11-17 2023-05-16 Image analysis server, object counting method using image analysis server, and object counting syste

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200153993A KR102607174B1 (en) 2020-11-17 2020-11-17 Counting method of objects included in multiple images using an image analysis server and object counting system

Publications (2)

Publication Number Publication Date
KR20220067370A KR20220067370A (en) 2022-05-24
KR102607174B1 true KR102607174B1 (en) 2023-11-28

Family

ID=81806111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200153993A KR102607174B1 (en) 2020-11-17 2020-11-17 Counting method of objects included in multiple images using an image analysis server and object counting system

Country Status (2)

Country Link
KR (1) KR102607174B1 (en)
CN (1) CN116457840A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010041968A1 (en) * 2000-02-11 2001-11-15 Hamilton Rodney N. Pharmacy pill counting vision system
US20160343120A1 (en) * 2006-04-03 2016-11-24 Jbs Usa, Llc System and method for analyzing and processing food product
JP2019076568A (en) * 2017-10-26 2019-05-23 Phcホールディングス株式会社 Drug sorting apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110000789A (en) * 2009-06-29 2011-01-06 (주)쓰리디미디어솔루션코리아 Method and system for automatically counting number and position of products on a shelf in a shop based on image recognition technology
KR20160057187A (en) 2014-11-13 2016-05-23 (주)제이브이엠 Drug packing appearatus and method for managing drug
KR20180020017A (en) * 2016-08-17 2018-02-27 한국전자통신연구원 Medication monitoring apparatus and operating method therof
KR102314520B1 (en) * 2019-03-22 2021-10-20 홍익대학교 산학협력단 Apparatus and method for detecting object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010041968A1 (en) * 2000-02-11 2001-11-15 Hamilton Rodney N. Pharmacy pill counting vision system
US20160343120A1 (en) * 2006-04-03 2016-11-24 Jbs Usa, Llc System and method for analyzing and processing food product
JP2019076568A (en) * 2017-10-26 2019-05-23 Phcホールディングス株式会社 Drug sorting apparatus

Also Published As

Publication number Publication date
KR20220067370A (en) 2022-05-24
CN116457840A (en) 2023-07-18

Similar Documents

Publication Publication Date Title
CN108520229B (en) Image detection method, image detection device, electronic equipment and computer readable medium
CN103975342B (en) The system and method for capturing and handling for mobile image
US10789504B2 (en) Method and device for extracting information in histogram
CN104820836B (en) Identification device and recognition methods
JP2020507836A (en) Tracking surgical items that predicted duplicate imaging
CN110008944A (en) OCR recognition methods and device, storage medium based on template matching
TWI254891B (en) Face image detection method, face image detection system, and face image detection program
JP5799817B2 (en) Finger position detection device, finger position detection method, and computer program for finger position detection
CN109816745A (en) Human body thermodynamic chart methods of exhibiting and Related product
CN107403160A (en) Image detecting method, equipment and its storage device in a kind of intelligent driving scene
JP2007081458A (en) Image processing apparatus and control method of image processing apparatus
JPWO2016152334A1 (en) Color measuring device and color measuring method
CN112836653A (en) Face privacy method, device and apparatus and computer storage medium
CN115862113A (en) Stranger abnormity identification method, device, equipment and storage medium
CN110363111B (en) Face living body detection method, device and storage medium based on lens distortion principle
KR102505705B1 (en) Image analysis server, object counting method using the same and object counting system
CN110110110A (en) One kind is to scheme to search drawing method, device, electronic equipment and storage medium
CN112507986B (en) Multi-channel human face in-vivo detection method and device based on neural network
JP2008067321A (en) Data registration management apparatus
JP2008204184A (en) Image processor, image processing method, program and recording medium
KR102607174B1 (en) Counting method of objects included in multiple images using an image analysis server and object counting system
US20230316697A1 (en) Association method, association system, and non-transitory computer-readable storage medium
CN117095417A (en) Screen shot form image text recognition method, device, equipment and storage medium
CN115860026A (en) Bar code detection method and device, bar code detection equipment and readable storage medium
JP7474546B2 (en) IMAGE ANALYSIS SERVER, OBJECT COUNTING METHOD USING IMAGE ANALYSIS SERVER, AND OBJECT COUNTING SYSTEM

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right