KR102124568B1 - System for payment solution service based on object recognition in image with machine learning using artificial intelligent - Google Patents

System for payment solution service based on object recognition in image with machine learning using artificial intelligent Download PDF

Info

Publication number
KR102124568B1
KR102124568B1 KR1020190141252A KR20190141252A KR102124568B1 KR 102124568 B1 KR102124568 B1 KR 102124568B1 KR 1020190141252 A KR1020190141252 A KR 1020190141252A KR 20190141252 A KR20190141252 A KR 20190141252A KR 102124568 B1 KR102124568 B1 KR 102124568B1
Authority
KR
South Korea
Prior art keywords
product
image
store terminal
learning
terminal
Prior art date
Application number
KR1020190141252A
Other languages
Korean (ko)
Inventor
오우택
Original Assignee
주식회사 라스컴
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 라스컴 filed Critical 주식회사 라스컴
Priority to KR1020190141252A priority Critical patent/KR102124568B1/en
Application granted granted Critical
Publication of KR102124568B1 publication Critical patent/KR102124568B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems

Abstract

Provided is an image recognition based unmanned payment system using artificial intelligence and big data. The system comprises: a scanner photographing a product and transmitting the photographed product image; a store terminal recognizing an object included in the product image transmitted from the scanner, and outputting a product identification code pre-mapped to the recognized object and stored; a sales terminal recognizing a product name and a product price using the product identification code outputted from the store terminal and performing payment; and an unmanned payment service providing server, wherein the unmanned payment service providing server comprises a receiving part receiving at least one product image photographed from the scanner through the store terminal, a performing part using at least one received product image to perform artificial intelligence learning for recognizing an object which is a product in the product image, and a provision part providing the learning results to the store terminal such that in the store terminal, the object is recognized in the product image.

Description

인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템{SYSTEM FOR PAYMENT SOLUTION SERVICE BASED ON OBJECT RECOGNITION IN IMAGE WITH MACHINE LEARNING USING ARTIFICIAL INTELLIGENT}Image recognition based unmanned payment system using artificial intelligence and big data{SYSTEM FOR PAYMENT SOLUTION SERVICE BASED ON OBJECT RECOGNITION IN IMAGE WITH MACHINE LEARNING USING ARTIFICIAL INTELLIGENT}

본 발명은 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 관한 것으로, 다양한 환경에서 수집된 제품 이미지를 인공지능 기반 기계학습으로 트레이닝함으로써 이미지 스캔만으로도 제품 인식 및 결제가 가능한 플랫폼을 제공한다.The present invention relates to an unmanned payment system based on image recognition using artificial intelligence and big data, and provides a platform capable of product recognition and payment only by scanning images by training product images collected in various environments with artificial intelligence-based machine learning.

최저임금 인상에 따라 영세 자영업자들이 어려움을 토로하고 이에 항의하는 시위도 뉴스에 보고되고 있는 요즘, 대표적인 업종으로 우리 주변에서 쉽게 접할 수 있는 것이 편의점이다. 골목마다 우후죽순처럼 생겨나는 편의점은 한정된 시장에서 파이를 나눌 수 밖에 없는 구조이고, 인건비 상승으로 인해 수익률은 더욱 악화될 수밖에 없다. 이렇게 문제가 부각된 요인으로 24시간 영업을 하면서 아르바이트생을 고용하며 부담하는 인건비 비중이 높아졌다는 점이다. 이에 대한 대책으로 인건비 부담이 없는 무인점포가 속속 등장하고 있으며, 센서를 이용하여 물건을 결제하는 아마존 고(Amazon Go), 보사노바(Bossa nova)라는 재고파악 AI 로봇을 채용한 월마트, 중국 최대한 온라인 쇼핑몰 알리바바의 얼굴인식 연동 알리페이를 채용한 헤마(Hema) 등이 대표적이다.Convenience stores are easily accessible around us as a representative industry these days, as small self-employed people are struggling with protests against the minimum wage and protests are reported in the news. Convenience stores, which appear like stalks in every alley, are forced to share pies in a limited market, and the return on labor is bound to worsen due to rising labor costs. The reason for this problem was that the proportion of the labor cost burdened by hiring part-time jobs while operating for 24 hours increased. As a countermeasure against this, unmanned stores with no burden of labor costs are appearing one after another, and Wal-Mart, which employs a stock AI robot called Amazon Go and Bossa Nova, which uses a sensor to pay for goods, is available online in China. Hema, which adopted Alipay, which is linked to face recognition in the shopping mall Alibaba, is a representative example.

이때, 인체로부터 정보를 획득하여 무인점포를 운용하는 방법이 연구 및 개발되었는데, 이와 관련하여, 선행기술인 한국공개특허 제2019-0008075호(2019년01월23일 공개)에는, 사용자의 신체 일부로부터 개인 정보를 획득하고, 개인 정보를 제 1 서버에 전송하고, 제 1 서버로부터 개인 정보의 인증을 수신하는 구성, 인증 장치가 인증을 수신하면 사용자가 점포에 입장 또는 퇴장할 수 있도록 게이트를 여는 구성, 사용자의 신체 일부로부터 개인 정보를 획득하고, 개인 정보를 제 2 서버에 전송하고, 제 2 서버로부터 개인 정보의 인증을 수신하면 상품 금액을 결제하는 구성이 개시되어 있다.At this time, a method of acquiring information from the human body and operating an unmanned store has been researched and developed. In this regard, in Korean Patent Publication No. 2019-0008075 (published on January 23, 2019), a user's body Configuration for acquiring personal information, transmitting personal information to the first server, receiving authentication of personal information from the first server, and opening the gate to allow the user to enter or leave the store when the authentication device receives authentication , A configuration is disclosed in which personal information is obtained from a user's body part, personal information is transmitted to a second server, and payment of a product amount is received when authentication of the personal information is received from the second server.

다만, 물품에 모두 바코드가 찍혀있다고 할지라도 이를 스캔하는 것은 익숙하지 않은 사용자라면 하기가 어렵고 결국에는 점원을 호출하거나 점원이 스캔하는 방식으로 회귀하게 된다. 또, 물품에 모두 바코드가 찍혀있지 않은 경우에는 자체적으로 모델링 및 라벨링을 실시해야 하는데 이 또한 소형 매장에서는 불가하고 가격표만 붙이는 상태이기 때문에 정산을 할 때 인력자원 및 시간이 낭비된다. 그리고, 이미지 인식으로 물품을 구분하는 경우에도 이미지가 각기 다른 각도나 조명 등에서 촬영되는 경우 객체 인식도가 현저히 떨어지기 때문에 어려우며, RFID 태그 등을 모든 물품에 부착하는 경우 인식률은 좋으나 모든 제품에 모두 RFID 태그를 부착해야 하므로 인건비 및 원가상승의 문제점이 존재한다.However, even if all the barcodes are stamped on the product, it is difficult for an unfamiliar user to scan it, and eventually the salesman calls or returns to the scanning method. In addition, if all of the items are not barcoded, modeling and labeling must be carried out on their own. In addition, it is impossible in small stores, and because only the price tag is attached, manpower and time are wasted when settingtle. In addition, even when classifying items by image recognition, it is difficult because object recognition is significantly reduced when images are taken at different angles or lights, and when RFID tags are attached to all items, the recognition rate is good, but all products are RFID tags There is a problem of labor cost and cost increase since it must be attached.

본 발명의 일 실시예는, 이미지 스캔을 통하여 물품을 인식할 수 있도록 다양한 각도 및 조명 환경 하에서 촬영한 이미지를 인공지능 알고리즘으로 학습을 진행하여 객체의 인식도를 높이고, 학습이 진행된 데이터를 각 매장의 매장 단말과 동기화를 실시하여 매장에서 물품이 스캔된 경우 인식할 수 있도록 하며, 이미지를 인식하지 못하는 경우 판매 단말로부터 제품의 식별코드를 수신하여 이미지를 재학습하도록 함으로써 노이즈를 포함한 다양한 환경에 강인한 이미지 인식 및 무인 결제가 가능토록 하는, 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.According to an embodiment of the present invention, images acquired under various angles and lighting environments are trained using artificial intelligence algorithms to increase recognition of objects, and data that has undergone learning is stored in each store so that objects can be recognized through image scanning. By synchronizing with the store terminal, it is possible to recognize when an item is scanned in the store, and if the image is not recognized, the product receives an identification code of the product from the sales terminal and re-learns the image, so that it is robust to various environments including noise. An unmanned payment system based on image recognition using artificial intelligence and big data, which enables recognition and unmanned payment, can be provided. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 제품을 촬영하고, 촬영된 제품 이미지를 전송하는 스캐너, 스캐너로부터 전송된 제품 이미지 내 포함된 객체를 인식하고, 인식된 객체에 기 매핑되어 저장된 제품 식별코드를 출력하는 매장 단말, 매장 단말로부터 출력된 제품 식별코드로 제품명 및 제품가격을 인식하고 결제를 수행하는 판매 단말, 및 스캐너로부터 촬영된 적어도 하나의 제품 이미지를 매장 단말을 경유하여 수신하는 수신부, 수신된 적어도 하나의 제품 이미지를 이용하여 제품 이미지 내의 제품인 객체를 인식하기 위한 인공지능 학습을 진행하는 진행부, 학습이 진행된 결과를 매장 단말로 제공하여 매장 단말에서 제품 이미지 내에서 객체를 인식하도록 하는 제공부를 포함하는 무인 결제 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention, a product for photographing, and a scanner for transmitting the photographed product image, recognizes an object included in the product image transmitted from the scanner, and is recognized A store terminal that outputs the product identification code stored by being mapped to an object, a sales terminal that recognizes the product name and product price with the product identification code output from the store terminal, and performs payment, and stores at least one product image taken from the scanner A receiving unit that receives via a terminal, a progressing unit that performs artificial intelligence learning for recognizing an object that is a product in a product image using at least one received product image, and provides a result of the learning to a store terminal to store products at the store terminal And an unmanned payment service providing server including a providing unit for recognizing an object in the image.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 이미지 스캔을 통하여 물품을 인식할 수 있도록 다양한 각도 및 조명 환경 하에서 촬영한 이미지를 인공지능 알고리즘으로 학습을 진행하여 객체의 인식도를 높이고, 학습이 진행된 데이터를 각 매장의 매장 단말과 동기화를 실시하여 매장에서 물품이 스캔된 경우 인식할 수 있도록 하며, 이미지를 인식하지 못하는 경우 판매 단말로부터 제품의 식별코드를 수신하여 이미지를 재학습하도록 함으로써 노이즈를 포함한 다양한 환경에 강인한 이미지 인식 및 무인 결제가 가능케 하고, 바코드나 QR 코드를 포함한 2차원 또는 3차원 태그를 붙이지 못하는 신선 식품의 판매 자동화를 구현할 수 있고, 고객의 줄서는 시간을 줄일 수 있으며, 판매점원의 교육 및 학습을 포함한 자원을 들이지 않아도 결제가 가능하고, IT 기기에 취약한 고령자나 모바일 결제 시스템을 갖추지 못한 미성년자까지 수용할 수 있다.According to any one of the above-described problem solving means of the present invention, images acquired under various angles and lighting environments are learned with an artificial intelligence algorithm to recognize objects through image scanning, thereby increasing object recognition and learning. Synchronize the progressed data with the store terminal of each store so that it can be recognized when the goods are scanned in the store. If the image is not recognized, receive the product identification code from the sales terminal and re-learn the image to reduce noise. It enables strong image recognition and unattended payment in various environments, including automated sales of fresh foods that cannot attach 2D or 3D tags, including barcodes or QR codes, and reduces customer line-up time. Payment is possible without spending resources including original education and learning, and it can accommodate elderly people who are vulnerable to IT devices or even minors who do not have a mobile payment system.

도 1은 본 발명의 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 무인 결제 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 인공지능 이미지 객체인식기반 무인 결제 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 도 1의 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템을 설명하기 위한 동작 흐름도이다.
1 is a view for explaining an unmanned payment system based on image recognition using artificial intelligence and big data according to an embodiment of the present invention.
FIG. 2 is a block diagram for explaining an unattended payment service providing server included in the system of FIG. 1.
3 is a diagram for explaining an embodiment in which an unmanned payment service based on artificial intelligence image object recognition according to an embodiment of the present invention is implemented.
4 is a diagram illustrating a process in which data is transmitted and received between each component included in the image recognition-based unmanned payment system using artificial intelligence and big data of FIG. 1 according to an embodiment of the present invention.
5 is an operation flowchart for explaining an unmanned payment system based on image recognition using artificial intelligence and big data according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . Also, when a part is said to "include" a certain component, it means that the component may further include other components, not exclude other components, unless specifically stated otherwise. However, it should be understood that the existence or addition possibilities of numbers, steps, actions, components, parts or combinations thereof are not excluded in advance.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially", and the like used throughout the specification are used in or at a value close to the value when manufacturing and substance tolerances unique to the stated meaning are given, and the understanding of the present invention. To aid, accurate or absolute figures are used to prevent unscrupulous use of the disclosed disclosure by unscrupulous infringers. The term "~(step)" or "step of" as used in the entire specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term “unit” includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In the present specification, some of the operations or functions described as performed by the terminal, the device, or the device may be performed instead on a server connected to the corresponding terminal, device, or device. Similarly, some of the operations or functions described as being performed by the server may be performed in a terminal, apparatus, or device connected to the corresponding server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means that the unique number of the terminal or identification information of the individual, which is identification data of the terminal, is mapped or matched. Can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템(1)은, 적어도 하나의 매장 단말(100), 무인 결제 서비스 제공 서버(300), 적어도 하나의 스캐너(400), 적어도 하나의 판매 단말(500)을 포함할 수 있다. 다만, 이러한 도 1의 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a view for explaining an unmanned payment system based on image recognition using artificial intelligence and big data according to an embodiment of the present invention. 1, the image recognition-based unmanned payment system 1 using artificial intelligence and big data includes at least one store terminal 100, an unmanned payment service providing server 300, and at least one scanner 400, It may include at least one sales terminal 500. However, the unmanned payment system 1 based on image recognition using artificial intelligence and big data of FIG. 1 is only an embodiment of the present invention, and thus the present invention is not limitedly interpreted through FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 매장 단말(100)은 네트워크(200)를 통하여 무인 결제 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 무인 결제 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 매장 단말(100), 적어도 하나의 스캐너(400), 적어도 하나의 판매 단말(500)과 연결될 수 있다. 또한, 적어도 하나의 스캐너(400)는, 네트워크(200)를 통하여 매장 단말(100) 및 무인 결제 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 적어도 하나의 판매 단말(500)은, 네트워크(200)를 통하여 적어도 하나의 매장 단말(100), 무인 결제 서비스 제공 서버(300)와 연결될 수 있다.At this time, each component of FIG. 1 is generally connected through a network (network, 200). For example, as illustrated in FIG. 1, at least one store terminal 100 may be connected to the server 300 for providing an unmanned payment service through the network 200. In addition, the unmanned payment service providing server 300 may be connected to at least one store terminal 100, at least one scanner 400, and at least one sales terminal 500 through the network 200. Also, the at least one scanner 400 may be connected to the store terminal 100 and the unmanned payment service providing server 300 through the network 200. Also, the at least one sales terminal 500 may be connected to the at least one store terminal 100 and the unmanned payment service providing server 300 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network means a connection structure capable of exchanging information between each node such as a plurality of terminals and servers, and examples of such a network include RF, 3GPP (3rd Generation Partnership Project) network, and LTE (Long Term) Evolution (Evolution) network, 5GPP (5th Generation Partnership Project) network, WIMAX (World Interoperability for Microwave Access) network, Internet (Internet), Local Area Network (LAN), Wireless Local Area Network (LAN), Wide Area Network (WAN) , PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, and the like.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if the term at least one does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, it may be said that each component is provided in a singular or plural form, depending on the embodiment.

적어도 하나의 매장 단말(100)은, 인공지능 이미지 객체인식기반 무인 결제 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 제품 이미지 내의 객체인 제품을 식별하고, 식별정보를 판매 단말(500)로 전송하여 결제 및 정산이 되도록 하는 단말일 수 있다. 이를 위해, 적어도 하나의 매장 단말(100)은, 제품 이미지 내 객체를 모델링하고 이를 식별하도록 라벨링을 수행하는 단말일 수 있다. 그리고, 적어도 하나의 매장 단말(100)은, 무인 결제 서비스 제공 서버(300)에서 학습 및 재학습한 결과와 동기화되어 제품을 인식할 수 있도록 하는 단말일 수 있다. 또한, 적어도 하나의 매장 단말(100)은 스캐너(400) 및 판매 단말(500)과 연결되어 스캐너(400)에서 스캔 또는 촬영한 제품 이미지를 식별하고, 식별코드를 판매 단말(500)로 전송함으로써 판매 단말(500)에서 제품을 결제할 수 있도록 하는 단말일 수 있다. 그리고, 적어도 하나의 매장 단말(100)은, 무인 결제 서비스 제공 서버(300)와 클라우드로 연결되는 경우 삭제되거나 판매 단말(500)과 통합되어 구현될 수도 있는 단말일 수 있다. 이때, 판매 단말(500)은, 매장 단말(100)의 기능 및 동작을 SaaS(Software as a Service), PaaS(Platform as a Service), IaaS(Infrastructure as a Service) 중 어느 하나 또는 적어도 하나의 조합으로 구현하는 단말일 수 있다. 이 역도 마찬가지이다(Vice Versa).The at least one store terminal 100 identifies an object that is an object in a product image using a web page, an app page, a program, or an application related to unmanned payment service based on artificial intelligence image object recognition and sells identification information to the sales terminal 500 It may be a terminal that is sent to the payment and settlement. To this end, the at least one store terminal 100 may be a terminal that models an object in a product image and performs labeling to identify it. Further, the at least one store terminal 100 may be a terminal that can recognize a product in synchronization with a result of learning and re-learning from the unmanned payment service providing server 300. In addition, the at least one store terminal 100 is connected to the scanner 400 and the sales terminal 500 to identify a product image scanned or photographed by the scanner 400 and transmits an identification code to the sales terminal 500 It may be a terminal that enables the product to be paid by the sales terminal 500. In addition, the at least one store terminal 100 may be a terminal that may be deleted or integrated with the sale terminal 500 when connected to the cloud with the unattended payment service providing server 300. At this time, the sales terminal 500, the function and operation of the store terminal 100 SaaS (Software as a Service), PaaS (Platform as a Service), IaaS (Infrastructure as a Service) any one or a combination of at least one It may be a terminal implemented by. The reverse is also true (Vice Versa).

여기서, 적어도 하나의 매장 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 매장 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 매장 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one store terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like. At this time, the at least one store terminal 100 may be implemented as a terminal that can access a remote server or terminal through a network. The at least one store terminal 100 is, for example, a wireless communication device in which portability and mobility are guaranteed, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), International Mobile Telecommunication (IMT)-2000, Code Division Multiple Access (CDMA)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet ) It may include all kinds of handheld-based wireless communication devices such as a terminal, a smartphone, a smartpad, and a tablet PC.

무인 결제 서비스 제공 서버(300)는, 인공지능 이미지 객체인식기반 무인 결제 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 무인 결제 서비스 제공 서버(300)는, 스캐너(400)로부터 매장 단말(100)을 경유하여 수신되는 적어도 하나의 제품 이미지를 수집하는 서버일 수 있다. 또한, 무인 결제 서비스 제공 서버(300)는, 수집된 제품 이미지가 다양한 환경에서 수집된 경우, 노이즈 또는 환경 변화에 강건한 객체 인식을 수행하기 위해 인공지능 기반 기계학습을 진행하는 서버일 수 있다. 그리고, 무인 결제 서비스 제공 서버(300)는, 학습된 결과를 매장 단말(100)로 공유함으로써, 스캐너(400)에서 스캔된 제품을 매장 단말(100)에서 자체적으로 식별하도록 하는 서버일 수 있다. 또한, 무인 결제 서비스 제공 서버(300)는, 매장 단말(100)이 복수인 경우 복수의 매장 단말(100)에서 수신되는 제품 이미지를 학습하되, 매장 단말(100)에서 인식을 하지 못하는 경우에는, 인식이 되지 못한 제품 이미지를 매장 단말(100)로부터 수신하고, 이때 제품의 식별코드를 입력하도록 함으로써, 제품을 식별하고, 식별된 제품의 이미지로 입력하여 재학습 및 트레이닝을 시키는 서버일 수 있다. 그리고, 무인 결제 서비스 제공 서버(300)는, 판매 단말(500)에서 O2O 서비스(Online to Offline)를 이용하여 사용자 단말(미도시)과 통신하도록 하고, 간편결제 또는 자동결제가 되도록 하는 서버일 수 있다. 그리고, 무인 결제 서비스 제공 서버(300)는, 매장 단말(100)이 클라우드로 판매 단말(500)에 통합되는 경우, IaaS, PaaS, SaaS 등을 이용하여 판매 단말(500)에서 매장 단말(100)의 기능이 동작되도록 하는 서버일 수 있다.The unmanned payment service providing server 300 may be a server that provides an artificial intelligence image object recognition-based unmanned payment service web page, app page, program, or application. In addition, the unmanned payment service providing server 300 may be a server that collects at least one product image received from the scanner 400 via the store terminal 100. Also, the unmanned payment service providing server 300 may be a server that performs artificial intelligence-based machine learning to perform object recognition robust to noise or environmental changes when the collected product images are collected in various environments. In addition, the unmanned payment service providing server 300 may be a server that automatically identifies the product scanned by the scanner 400 in the store terminal 100 by sharing the learned result with the store terminal 100. In addition, when the unmanned payment service providing server 300 learns product images received from the plurality of store terminals 100 when the store terminals 100 are plural, when the store terminal 100 does not recognize, It may be a server that receives an unrecognized product image from the store terminal 100 and inputs an identification code of the product, thereby identifying the product and inputting it as an image of the identified product for re-learning and training. In addition, the unmanned payment service providing server 300 may be a server that allows the sales terminal 500 to communicate with a user terminal (not shown) using an O2O service (Online to Offline), and enables simple payment or automatic payment. have. And, the unattended payment service providing server 300, when the store terminal 100 is integrated into the sale terminal 500 in the cloud, the store terminal 100 from the sale terminal 500 using IaaS, PaaS, SaaS, etc. It may be a server that allows the function of.

여기서, 무인 결제 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the unmanned payment service providing server 300 may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like.

적어도 하나의 스캐너(400)는, 인공지능 이미지 객체인식기반 무인 결제 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 객체를 촬영 또는 스캔하는 장치일 수 있다. 이때, 적어도 하나의 스캐너(400)는 하부면의 플레이트 상에 무게감지센서 등을 더 구비하여 무게를 잴 수 있는 장치일 수 있고, 촬영 또는 스캔된 이미지와 무게 등의 정보를 매장 단말(100)로 전송하는 장치일 수 있다.The at least one scanner 400 may be a device that photographs or scans an object using an artificial intelligence image object recognition-based unmanned payment service related web page, app page, program, or application. At this time, the at least one scanner 400 may be a device capable of weighing by further including a weight sensor on the plate on the lower surface, and store information such as a photographed or scanned image and weight in the store terminal 100 It may be a device transmitting to.

적어도 하나의 판매 단말(500)은, 인공지능 이미지 객체인식기반 무인 결제 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 결제 프로세스를 진행하고 정산을 하는 단말일 수 있고, 예를 들어, POS(Point of Sale)일 수 있다. 그리고, 적어도 하나의 판매 단말(500)은, 스캐너(400)에서 이미지 촬영이 완료된 후 매장 단말(100)에서 제품의 식별코드를 리턴하는 경우, 이를 수신하여 결제수단이 입력되면 제품을 판매처리하고 재고수량을 감소시키며 영수증 등을 발행하도록 하는 단말일 수 있다. 여기서, 적어도 하나의 판매 단말(500)은, 사용자 단말에서 O2O로 결제를 수행하는 경우, 무인 결제 서비스 제공 서버(300)로부터 매장 단말(100)을 경유하여 결제 이벤트를 수신하고 결제 완료 처리를 하는 단말일 수 있다. The at least one sales terminal 500 may be a terminal that performs a payment process and setstles using an artificial intelligence image object recognition-based unmanned payment service-related web page, app page, program, or application, for example, POS (Point of Sale). And, at least one sales terminal 500, when the scanner 400 returns the identification code of the product after the photographing is completed, the store terminal 100 receives this, and when the payment method is input, the product is sold and processed. It may be a terminal that reduces inventory quantity and issues receipts. Here, when the at least one sales terminal 500 performs payment with O2O from the user terminal, receives a payment event from the unattended payment service providing server 300 via the store terminal 100 and processes payment completion. It may be a terminal.

여기서, 적어도 하나의 판매 단말(500)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 판매 단말(500)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 판매 단말(500)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one sales terminal 500 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, navigation, a laptop equipped with a web browser (WEB Browser), a desktop, a laptop, and the like. At this time, the at least one sales terminal 500 may be implemented as a terminal capable of accessing a remote server or terminal through a network. The at least one sales terminal 500 is, for example, a wireless communication device in which portability and mobility are guaranteed, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), Personal Handyphone System (PHS), Personal Digital Assistant (PDA), International Mobile Telecommunication (IMT)-2000, Code Division Multiple Access (CDMA)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet ) It may include all kinds of handheld-based wireless communication devices such as a terminal, a smartphone, a smartpad, and a tablet PC.

도 2는 도 1의 시스템에 포함된 무인 결제 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 인공지능 이미지 객체인식기반 무인 결제 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.FIG. 2 is a block diagram illustrating an unmanned payment service providing server included in the system of FIG. 1, and FIG. 3 is an embodiment of an artificial intelligence image object recognition-based unmanned payment service according to an embodiment of the present invention It is a drawing for explaining.

도 2를 참조하면, 무인 결제 서비스 제공 서버(300)는, 수신부(310), 진행부(320), 제공부(330), 요청부(340)를 포함할 수 있다.Referring to FIG. 2, the unmanned payment service providing server 300 may include a receiving unit 310, a progressing unit 320, a providing unit 330, and a requesting unit 340.

본 발명의 일 실시예에 따른 무인 결제 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 매장 단말(100), 적어도 하나의 스캐너(400), 및 적어도 하나의 판매 단말(500)로 인공지능 이미지 객체인식기반 무인 결제 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 매장 단말(100), 적어도 하나의 스캐너(400), 및 적어도 하나의 판매 단말(500)은, 인공지능 이미지 객체인식기반 무인 결제 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 매장 단말(100), 적어도 하나의 스캐너(400), 및 적어도 하나의 판매 단말(500)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hyper text mark-up language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 익스플로러(Explorer), 크롬(chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함한다.Unattended payment service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one store terminal 100, at least one scanner 400, and at least one sale When transmitting the artificial intelligence image object recognition-based unmanned payment service application, program, app page, web page, etc. to the terminal 500, at least one store terminal 100, at least one scanner 400, and at least one The sales terminal 500 may install or open an artificial intelligence image object recognition-based unmanned payment service application, program, app page, web page, or the like. In addition, the service program may be driven in at least one store terminal 100, at least one scanner 400, and at least one sales terminal 500 using a script executed in a web browser. Here, the web browser is a program that enables the use of the world wide web (WWW) service, and refers to a program that receives and displays hypertext described in HTML (hyper text mark-up language), for example, Explorer , Chrome, and the like. Further, the application means an application on the terminal, and includes, for example, an app that is executed on a mobile terminal (smartphone).

도 2를 참조하면, 수신부(310)는, 스캐너(400)로부터 촬영된 적어도 하나의 제품 이미지를 매장 단말(100)을 경유하여 수신할 수 있다. 이때, 스캐너(400)는, 제품을 촬영하고, 촬영된 제품 이미지를 전송할 수 있지만, 바코드 또는 QR코드 등을 스캔하는 것을 배제하지 않는다. 또한 이미지와 바코드 또는 QR코드 등을 함께 스캔하고 인식하는 것을 배제하지 않는다. 그리고, 스캐너(400)가 무게감지센서나 압전센서를 포함하는 경우 제품 이미지와 함께 감지한 무게를 전송하게 되는데, 수신부(310)는 이미지 및 데이터를 함께 수신할 수 있다.Referring to FIG. 2, the receiver 310 may receive at least one product image photographed from the scanner 400 via the store terminal 100. At this time, the scanner 400 may photograph a product and transmit the photographed product image, but does not exclude scanning a barcode or a QR code. It also does not exclude scanning and recognizing images and barcodes or QR codes together. In addition, when the scanner 400 includes a weight sensor or a piezoelectric sensor, the weight sensed together with the product image is transmitted, and the receiver 310 may receive the image and data together.

진행부(320)는, 수신된 적어도 하나의 제품 이미지를 이용하여 제품 이미지 내의 제품인 객체를 인식하기 위한 인공지능 학습을 진행할 수 있다. 이때, 물품의 형태, 예를 들어, 색이나 모양 자체를 이용하여 물품을 인식하도록 하면, 바코드를 찾을 필요가 사라지고 바코드의 손상이나 인식 문제를 걱정할 필요가 없다. 또한 스캐너를 잡을 필요가 없어지므로 스캐닝 과정과 포장 과정이 분리되는 문제 역시 해결할 수 있다. 이미지 인식을 위해서는 크게 인공지능 알고리즘으로 트레이닝(Training)하는 단계와 적용 단계로 나눌 수 있는데, 진행부(320)에서는 전자를 설명한다. 우선, 진행부(320)는 데이터 수집을 해야 한다. 이미지 인식을 위해서는 먼저 딥러닝 모델 트레이닝 과정에 필요한 데이터셋을 마련해야 한다. 이를 위해 시스템에 적용하고자 하는 제품들을 선정하고 데이터를 수집하는 과정이 필요하다. 예를 들어, 편의점에서 판매하는 대표적인 상품으로 캔 음료, 담배, 라면, 휴지 등을 이용할 수 있으나 나열한 것들로 한정되지 않는다. 수집 방법으로는 크롤링 또는 직접 수집이나 촬영을 포함할 수 있고 데이터 선별 작업을 통해 데이터셋의 신뢰성을 향상시킬 수 있다. 두 번째로는 진행부(320)는 데이터셋 정렬을 수행한다. 데이터셋으로 만들기 위해서는 각각 다른 사진들의 크기를 일정하게 만들어 주는 Resize 작업을 거쳐야 하는데, 그 이유는 가로, 세로의 비율이 다른 사진들을 일괄적으로 Resize를 진행하면 왜곡이 일어날 수 있고 이는 트레이닝 과정에서 낮은 정확도의 원인이 되기 때문에 정사각형으로 Cropping 하는 작업을 거친 후 Resize를 진행할 수 있다. 그 후 이미지 회전, 반전 작업을 통해 데이터셋을 확장시킨다.The progress unit 320 may perform artificial intelligence learning for recognizing an object that is a product in a product image using at least one received product image. At this time, if the article is recognized using the shape of the article, for example, color or shape itself, the need to find the barcode disappears and there is no need to worry about the barcode damage or recognition problem. In addition, since the need to hold the scanner is eliminated, the problem of separating the scanning process from the packaging process can also be solved. For image recognition, it can be largely divided into a training step and an application step using an artificial intelligence algorithm, and the former explains the former. First, the progress unit 320 must collect data. In order to recognize images, first, a data set necessary for a deep learning model training process must be prepared. For this, it is necessary to select products to be applied to the system and collect data. For example, canned beverages, cigarettes, ramen, tissues, etc. can be used as representative products sold at convenience stores, but are not limited to those listed. Collection methods may include crawling or direct collection or shooting, and data screening can improve the reliability of the dataset. Secondly, the progress unit 320 performs data set alignment. In order to make it into a dataset, it is necessary to undergo a resize operation that makes the size of different photos constant. The reason is that if you resize photos with different aspect ratios in bulk, distortion may occur, which is low during training. Since it is a cause of accuracy, it can be resized after a square cropping operation. After that, the dataset is expanded by rotating and inverting the image.

세 번째로 진행부(320)는 데이터셋 제작을 실시한다. 하나의 사진에서 픽셀마다 각각 RGB채널로 분리하고 모든 픽셀의 분리가 끝나면 Label(레이블) 정보를 추가할 수 있다. 이러한 방식으로 모든 사진에 대한 작업을 진행하여 데이터셋을 제작한다. 네 번째로 진행부(320)는, 딥러닝 모델(Mobilenet) 코드 컨버팅을 수행할 수 있다. 파이썬(Python)으로 구현된 딥러닝 모델을 그대로 라즈베리파이에서 실행하면 속도가 매우 느리기 때문에 딜레이가 발생하여 시스템 목표를 충족시키기 어렵다. 따라서 시스템의 속도를 보장하기 위해 Python 코드를 C 코드로 컨버팅하는 작업이 필요하다. 트레이닝 분은 Python 코드를 활용해 고성능 PC에서 가중치 값만 추출해 내고 물품의 종류를 판단하는 부분을 컨버팅하여 라즈베리파이에 구현한다. 다섯 번째로 진행부(320)는, 딥러닝 모델 트레이닝을 진행한다. 데이터셋을 딥러닝 모델에 트레이닝 시켜 가중치 값을 생성한다. 이때, Python으로 구현된 코드에서는 가중치 값이 Pickle 파일로 형성이 되는데 C로 컨버팅된 코드는 Pickle 파일을 로드하는데 오랜 시간이 걸리기 때문에, 속도 보장을 위해 가중치 값을 텍스트 파일로 변환하여 저장할 수 있다. 물론, 상술한 방법 이외에도 다양한 방법으로 이미지를 학습 및 트레이닝시킬 수 있으며 나열된 것들로 한정되지 않고 다양한 실시예에 따른 변형 및 변경이 가능함은 자명하다 할 것이다.Third, the progress unit 320 performs data set production. In one picture, each pixel is divided into RGB channels, and after all the pixels are separated, label information can be added. In this way, we work on all the photos to produce a dataset. Fourth, the progress unit 320 may perform deep learning model (Mobilenet) code conversion. If you run deep learning model implemented in Python in Raspberry Pi as it is, it is very slow, so there is a delay and it is difficult to meet the system goal. Therefore, it is necessary to convert Python code to C code to ensure the speed of the system. The training person uses the Python code to extract only the weight value from the high-performance PC and converts the part that determines the type of the product to implement it in Raspberry Pi. Fifth, the progress unit 320 performs deep learning model training. The dataset is trained in a deep learning model to generate weight values. At this time, in the code implemented in Python, the weight value is formed as a pickle file. Since the code converted to C takes a long time to load the pickle file, the weight value can be converted into a text file and saved to ensure speed. Of course, in addition to the above-described method, the image can be learned and trained in various ways, and it is obvious that variations and modifications according to various embodiments are not limited to those listed.

여기서, 진행부(320)는, 인공지능 학습을 진행할 때, 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 반지도 학습(Semi-Supervised Learning), 및 강화 학습(Reinforcement Learning) 중 어느 하나 또는 적어도 하나의 조합으로 학습을 진행할 수 있다.Here, the progress unit 320, when performing artificial intelligence learning, supervised learning (Supervised Learning), unsupervised learning (Unsupervised Learning), semi-supervised learning (Semi-Supervised Learning), and reinforcement learning (Reinforcement Learning) Learning may be conducted in one or at least one combination.

제공부(330)는, 학습이 진행된 결과를 매장 단말(100)로 제공하여 매장 단말(100)에서 제품 이미지 내에서 객체를 인식하도록 한다. 이에 따라, 매장 단말(100)은, 스캐너(400)로부터 전송된 제품 이미지 내 포함된 객체를 인식하고, 인식된 객체에 기 매핑되어 저장된 제품 식별코드를 출력할 수 있고, 판매 단말(500)은, 매장 단말(100)로부터 출력된 제품 식별코드로 제품명 및 제품가격을 인식하고 결제를 수행할 수 있다. 이때, 제공부(330)는, 진행부(320)에서 설명되지 않았던 후자, 즉 적용 단계를 진행하게 되는데, 물품을 인식할 때 스캐너(400)에서 자동으로 물품을 인식하게 할 수 있다. 예를 들어, 아두이노와 연결된 2개의 초음파 센서를 이용하여 물품이 존재함을 인식하고 라즈베리파이와의 시리얼 통신을 통해 신호를 전송하는 것으로 활성화할 수 있다. 그리고, 제공부(330)는, 아두이노로부터 물픔이 존재한다는 신호를 받은 라즈베리파이는 장착되어 있는 스캐너(400)로 인식된 물품을 촬영하고 Cropping 및 Resize 후 텍스트 파일로 변환하여 저장할 수 있다. 그 다음에 제공부(330)는 매장 단말(100)을 통하여 이미지 인식 및 데이터 전달을 수행하게 하는데, 라즈베리파이는 딥러닝 모델에 가중치를 로드하여 인식된 제품이 무엇인지 판단하고 데이터베이스에서 제품의 가격, 이름 등 상세 정보를 로드해 계산서에 추가하고 판매 단말(500)에서 계산서를 출력하게 한다. 물론, 상술한 방법에 한정되지 않고 다양한 방법이 이용가능함은 자명하다 할 것이다.The providing unit 330 provides the result of learning to the store terminal 100 so that the store terminal 100 recognizes an object in the product image. Accordingly, the store terminal 100 may recognize an object included in the product image transmitted from the scanner 400, and may output a product identification code that is pre-mapped and stored in the recognized object, and the sales terminal 500 may , Recognizing the product name and product price with the product identification code output from the store terminal 100 and performing payment. At this time, the providing unit 330 proceeds to the latter, that is, the application step, which has not been described in the proceeding unit 320. When the article is recognized, the scanner 400 may automatically recognize the article. For example, two ultrasonic sensors connected to an Arduino can be activated by recognizing the existence of an item and transmitting a signal through serial communication with a Raspberry Pi. Then, the providing unit 330, the Raspberry Pi receives a signal from the Arduino that there is a bite, can capture the object recognized by the attached scanner 400, crop and resize it, and convert it into a text file and save it. Then, the providing unit 330 allows image recognition and data transmission through the store terminal 100. Raspberry Pi loads the weight into the deep learning model to determine what the recognized product is and the price of the product in the database. Loads detailed information such as a name, adds it to the bill, and outputs the bill from the sales terminal 500. Of course, it will be apparent that various methods are not limited to the above-described method.

요청부(340)는, 스캐너(400)로부터 매장 단말(100)을 경유하여 수신된 제품 이미지 내 객체를 인식할 수 없는 경우, 매장 단말(100)을 경유하여 판매 단말(500)로 제품 식별코드를 입력하도록 요청할 수 있다. 이때, 제품 식별코드가 입력되는 경우, 인식할 수 없었던 제품 이미지를 인공지능 재학습을 위한 입력 데이터로 전송할 수 있다. 여기서, 재학습을 위해서 CNN인 컨볼루션 신경망이 이용될 수 있다. 컨볼루션 신경망은 입력의 특징을 추출하는 컨볼루션 계층, 추출된 특징으로 결과를 추론하는 완전결합(Fully Connected) 계층, 컨볼루션 계층의 출력(Feature Map)의 크기를 줄여주는 풀링(Pooling) 계층으로 구성될 수 있다. 컨볼루션 계층에서는 가중치 필터 행렬과 입력 행렬이 컨볼루션 연산이 된다. 즉, 그 필터 행렬과 상응하는 입력을 곱한 후, 그 값을 더한 결과(Partial Sum)를 출력 행렬에 순차적으로 저장할 수 있다. 컨볼루션 계층은 반복적인 곱셈과 덧셈 연산 때문에, 컨볼루션 신경망의 연산시간의 대부분은 컨볼루션 계층에서 소모된다. 풀링 계층은 컨볼루션 계층에서 생성된 출력 행렬의 크기를 줄이고, 줄어든 출력 행렬은 오버피팅(Over-Fitting) 문제를 줄여줄 수 있다. 출력 행렬을 줄이는 방법은 크기가 2×2 혹은 3×3인 가중치 필터가 2 또는 3 만큼 이동하면서 가중치 필터 행렬과 교차하는 입력 행렬의 값 중에서 가장 큰 값을 출력 행렬에 저장하는 방법으로 이루어지는데, 완전연결 계층은 신경망의 마지막 부분에 존재하며 컨볼루션 계층을 통해 얻은 특징들을 종합하여 결과를 추론하게 된다. 가중치 필터 행렬의 크기는 입력과 출력 행렬의 크기에 의해 정해진다. The requesting unit 340, when the object in the product image received from the scanner 400 via the store terminal 100 cannot be recognized, the product identification code to the sales terminal 500 via the store terminal 100 You can ask to enter. At this time, when the product identification code is input, the product image that could not be recognized may be transmitted as input data for re-learning artificial intelligence. Here, a convolutional neural network, which is a CNN, can be used for re-learning. The convolutional neural network is composed of a convolutional layer that extracts the features of the input, a fully connected layer that infers the results with the extracted features, and a pooling layer that reduces the size of the feature map of the convolutional layer. Can be configured. In the convolution layer, the weight filter matrix and the input matrix are convolution operations. That is, after multiplying the filter matrix and the corresponding input, the result of adding the value (Partial Sum) may be sequentially stored in the output matrix. Because the convolutional layer is an iterative multiplication and addition operation, most of the computation time of the convolutional neural network is consumed in the convolutional layer. The pooling layer can reduce the size of the output matrix generated by the convolution layer, and the reduced output matrix can reduce the over-fitting problem. The method of reducing the output matrix consists of a method in which a weight filter having a size of 2×2 or 3×3 is moved by 2 or 3, and the largest value among the values of the input matrix crossing the weight filter matrix is stored in the output matrix. The fully connected layer exists at the end of the neural network, and the results obtained by synthesizing features obtained through the convolution layer are inferred. The size of the weight filter matrix is determined by the size of the input and output matrices.

여기서, 본 발명의 일 실시예에서는, 완전히 학습이 끝난 이미지 데이터를 재학습하는 과정에서는 가지치기 과정을 적용함으로써 불필요한 가중치와 연결을 줄일 수 있도록 구성될 수 있다. 즉, 학습이 끝난 가중치 필터 행렬에 낮은 차수 근사로 가중치 필터 행렬의 크기를 줄일 수 있는데, 완전 연결 계층에 적용하고 컨볼루션 계층에 적용하지 않는 것을 기본으로 한다. 그 이유는, 컨볼루션 계층에 가지치기를 적용하는 경우 신경망의 정확도가 크게 낮아지기 때문이다. 따라서, 본 발명의 일 실시예에서는, 컨볼루션 계층에 낮은 차수 근사를 먼저 적용하여 다수의 가중치들을 소수의 가중치로 값을 집약한 후에, 가지치기를 적용하는 방법을 이용할 수 있다. 그 결과로 신경망의 크기가 작아져서 가중치의 저장과 연산을 줄이고, 정확도 손실도 최소화될 수 있다.Here, in an embodiment of the present invention, in the process of re-learning the image data that has been completely learned, it may be configured to reduce unnecessary weight and connection by applying a pruning process. That is, the size of the weight filter matrix can be reduced by a low-order approximation to the learned weight filter matrix, which is applied to the fully connected layer and not to the convolution layer. This is because the accuracy of the neural network is greatly reduced when pruning is applied to the convolution layer. Accordingly, in an embodiment of the present invention, a method of applying pruning after applying a low order approximation to a convolution layer first, and then converging a number of weights with a small number of weights may be used. As a result, the size of the neural network is reduced, reducing the storage and computation of weights, and the loss of accuracy can be minimized.

이를 위해, 가속화 알고리즘은, 먼저, 학습이 완료된 신경망의 모든 계층에 낮은 차수 근사를 적용하고, 완전 결합 계층은 가중치의 절대값이 0에 가까운 값부터 전체 가중치의 90%를 가지치기를 적용할 수 있다. 다음으로, 각 계층들의 희소성을 조사하는데, 기준값은 첫 번째 컨볼루션 계층에서 가중치의 절대값의 크기가 하위 x%가 되는 값이 될 수 있다. x는 재학습을 진행할 단말 또는 서버의 메모리 크기에 따라 초기값이 변경될 수 있다. 결정된 기준값 이하의 값은 0으로 간주되고, 희소성은 계층의 가중치 중 0이 차지하는 비율을 의미할 수 있다. 기준값에 의해 조사된 각 계층의 희소성을 기준으로 가지치기를 선택된 컨볼루션 계층부터 가지치기를 적용할 수 있다. 다음으로, 낮은 차수 근사와 가지치기 기법들에 의한 Top-1 정확도 손실을 복원하기 위해 재학습을 진행할 수 있다.To this end, the acceleration algorithm, first, applies a low-order approximation to all the layers of the neural network where learning is completed, and the fully coupled layer can apply pruning 90% of the total weight from the value where the absolute value of the weight is close to 0. have. Next, to examine the scarcity of each layer, the reference value may be a value in which the magnitude of the absolute value of the weight in the first convolution layer becomes the lower x%. The initial value of x may be changed according to the memory size of the terminal or server to be retrained. Values below the determined reference value are regarded as 0, and scarcity may mean a ratio occupied by 0 of the weights of the layer. Pruning can be applied from the selected convolutional layer to pruning based on the scarcity of each layer examined by the reference value. Next, re-learning can be performed to restore Top-1 accuracy loss by low order approximation and pruning techniques.

두 번째로 낮은 차수 근사를 시행하는데, 낮은 차수 근사는 Top-1 정확도의 큰 손실 없이 신경망의 크기를 줄여 연산 속도를 향상 시키는 방법이다. 컨볼루션 계층의 가중치 필터 행렬은 작지만, 다수의 가중치 필터 행렬이 존재한다. 따라서 많은 연산이 다층의 컨볼루션 계층에서 발생하고, 완전 연결 계층은 가중치가 집중되어 있어 신경망의 전체적인 크기에 영향을 주기 때문에, 이러한 각 계층들에 낮은 차수 근사 기법을 사용하여 신경망의 크기를 줄일 수 있다. 낮은 차수 근사는 특이값 분해(Singular Value Decomposition)를 통해 행렬을 분해하고 본 행렬과 차이가 적게 나는 작은 차수(Rank)를 구하여 행렬의 크기를 줄일 수 있다.The second low-order approximation is performed, and the low-order approximation is a method of improving the computation speed by reducing the size of the neural network without significant loss of Top-1 accuracy. The weight filter matrix of the convolution layer is small, but there are multiple weight filter matrices. Therefore, since many operations occur in the multi-layer convolutional layer, and the fully connected layer is concentrated in weight, affecting the overall size of the neural network, the size of the neural network can be reduced by using a low-order approximation technique for each of these layers. have. The low-order approximation can reduce the size of the matrix by decomposing the matrix through singular value decomposition and finding a small order (Rank) that is less different from the matrix.

세 번째로, 가지치기 기법을 이용하는데, 상술한 바와 같이 가지치기 기법은 학습이 끝난 컨볼루션 신경망에서 중요하지 않은 가중치를 제거하는 방법이다. 가지치기 기법에서는 각 계층에서 남겨놓을 가중치 비율이 결정되면, 0에 가장 근접한 가중치부터 제거될 수 있다. 각 계층이 Top-1 정확도에 미치는 영향이 다르므로, 동일한 가중치 비율로 계층들이 가지치기 기법이 적용된다면, Top-1 정확도가 크게 낮아질 수 있다. 따라서, 본 발명의 일 실시예는, 낮은 차수 근사 후에 각 계층마다 Top-1 정확도에 영향이 작아지도록 다른 비율로 가중치 가지치기를 한다. 가지치기를 적용하기 위한 기준값은 첫 번째 컨볼루션 계층의 가중치 희소성이 10%가 되는 값으로 설정할 수 있으나 이에 한정되지는 않는다. Thirdly, the pruning technique is used. As described above, the pruning technique is a method of removing insignificant weights from the learned convolutional neural network. In the pruning technique, when the weight ratio to be left in each layer is determined, the weight closest to 0 can be removed. Since each layer has a different effect on Top-1 accuracy, if the pruning techniques are applied at the same weight ratio, the Top-1 accuracy may be significantly lowered. Therefore, in one embodiment of the present invention, after lower order approximation, the weights are pruned at different ratios so that the influence on Top-1 accuracy is small for each layer. The reference value for applying pruning may be set to a value such that the weight scarcity of the first convolution layer is 10%, but is not limited thereto.

첫 번째 컨볼루션 계층의 희소성을 바탕으로 기준값을 설정한 이유는 첫 번째 컨볼루션 계층에서는 입력 영상의 경계(Edge)를 인지하기 때문에, 컨볼루션 계층 중에서 가중치 희소성이 가장 낮다. 계속되는 상위 컨볼루션 계층을 통해 연산이 진행되면, 경계 부분의 가중치들이 소수의 가중치들로 더 집중된다. 첫 번째 컨볼루션 계층의 가중치 희소성이 20%가 되는 기준값의 경우, 완전 결합 계층에서는 대부분의 가중치를 0에 근접한 값으로 인지하기 때문에 가지치기 기법을 적용하면 Top-1 정확도가 크게 하락할 수 있다. 반복적인 실험의 결과로 첫 번째 컨볼루션 계층의 희소성이 10% 이내가 되는 기준값으로 설정할 수 있으나 이 역시 고정된 값이 아니다. 다음으로, 시스템의 메모리 크기에 따라 가지치기를 수행할 컨볼루션 계층을 선택할 수 있다. 그 메모리의 크기가 작다면, 낮은 컨볼루션 계층부터 가지치기를 수행하는 것이 바람직하지만, Top-1 정확도는 낮아지고, 재학습의 시간이 늘어날 수 있다. 반대로, 그 메모리 크기가 크다면, 높은 컨볼루션 계층부터 가지치기를 수행하는 것이 좋지만, Top-1 정확도 높아지고, 재학습의 시간은 짧아질 수 있다. The reason for setting the reference value based on the scarcity of the first convolution layer is that the first convolution layer recognizes the edge of the input image, so the weight sparse is the lowest among the convolution layers. When the operation is performed through the continuous upper convolution layer, the weights of the boundary portion are more concentrated with a small number of weights. In the case of the reference value in which the weight constancy of the first convolutional layer is 20%, since the full coupling layer recognizes most of the weights as close to 0, applying the pruning technique can significantly reduce the Top-1 accuracy. As a result of repeated experiments, the scarcity of the first convolution layer can be set as a reference value within 10%, but this is also not a fixed value. Next, it is possible to select a convolutional layer to perform pruning according to the memory size of the system. If the size of the memory is small, it is desirable to perform pruning from a low convolutional layer, but the Top-1 accuracy is reduced and the time for re-learning can be increased. Conversely, if the memory size is large, it is better to perform pruning from a high convolutional layer, but the top-1 accuracy is increased, and the time for re-learning can be shortened.

이렇게 재학습을 할 때 컨볼루션 신경망 기반 딥러닝에서 가지치기를 하는 경우, 제한된 컴퓨팅 자원 또는 네트워킹 자원 내에서 또는 제한된 시간 내에 수행될 수 있으므로 초기 학습 시간보다 줄어들 수 있고 초기에 들었던 자원보다 훨씬 적은 자원만으로도 재학습이 가능해진다. 본 발명의 가속화 알고리즘은 낮은 차수 근사와 가중치 가지치기 방법을 적용하여 신경망의 크기를 효율적으로 줄일 수 있기 때문에, 필요한 메모리가 적아지고, 연산량도 줄어들어 추론의 속도가 향상되며, 재학습의 시간도 크게 줄일 수 있어서 인공지능 서비스를 더 빠르고 신속하게 제공할 수 있게 된다. 물론, 재학습을 수행하는 방법이 상술한 방법으로 한정되지는 않는다.When re-learning, pruning in convolutional neural network-based deep learning can be performed within limited computing resources or networking resources, or within a limited time, so it can be shorter than the initial learning time and much less than the initial resources Just re-learning becomes possible. Since the acceleration algorithm of the present invention can efficiently reduce the size of a neural network by applying a low-order approximation and a weight pruning method, the required memory is reduced, the amount of computation is reduced, the speed of inference is improved, and the time for re-learning is greatly increased. It can be reduced to provide AI services faster and faster. Of course, the method of performing re-learning is not limited to the above-described method.

덧붙여서, 매장 단말(100)은, 제품의 적어도 하나의 제품 이미지 내에서 제품인 객체를 인식하도록 모델링 및 라벨링 진행을 수행할 수 있다. 그리고, 복수의 매장이 존재하는 경우, 매장 단말(100)은, 복수의 매장에 설치된 복수의 매장 단말(100)을 포함하고, 무인 결제 서비스 제공 서버(300)는, 복수의 매장 단말(100)과 클라우드(Cloud) 플랫폼으로 연결되어 복수의 매장 단말(100)에서 인식한 적어도 하나의 제품 이미지를 학습 데이터로 수집할 수 있다. 이때, IaaS, SaaS, PaaS 중 어느 하나 또는 적어도 하나의 조합이 이용가능함은 상술한 바와 같다.In addition, the store terminal 100 may perform a modeling and labeling process to recognize an object that is a product within at least one product image of the product. In addition, when a plurality of stores exist, the store terminal 100 includes a plurality of store terminals 100 installed in a plurality of stores, and the unmanned payment service providing server 300 includes a plurality of store terminals 100 And a cloud platform, and at least one product image recognized by the plurality of store terminals 100 may be collected as learning data. At this time, any one or a combination of IaaS, SaaS, and PaaS is available as described above.

또한, 무인 결제 서비스 제공 서버(300)는, 제품 이미지 내 객체를 허프 변환(Hough Transformation), 패턴 인식(Pattern Recognition), 및 템플릿 매칭(Template Matching) 중 어느 하나 또는 적어도 하나의 조합을 이용하여 인식할 수도 있다. 또는, 무인 결제 서비스 제공 서버(300)는, 제품 이미지 내 객체를 OpenCV(Open Source Computer Vision)으로 처리하여 객체를 이진화처리하고, 픽셀로 이루어진 이미지를 레이블링을 이용하여 픽셀 단위에서 인접한 영역끼리 그룹을 형성시키고, 픽셀의 값이 기 설정된 허용 임계값을 초과하는 지점은 이진화 처리를 수행하며, 이진화 레이블링을 통하여 색상을 추출 및 인식하고, OCR(Optical character recognition)의 침식(Dilate)과 팽창(Erode)을 이용하여 객체를 인식할 수 있으나 이에 한정되는 것은 아니다.Also, the unmanned payment service providing server 300 recognizes an object in the product image using any one or a combination of Hough Transformation, Pattern Recognition, and Template Matching. You may. Alternatively, the unattended payment service providing server 300 processes the objects in the product image with Open Source Computer Vision (OpenCV) to binarize the objects, and groups the adjacent regions in the pixel unit by using the labeling of the image made of pixels. Formation, the point where the value of the pixel exceeds a predetermined allowable threshold value, performs binarization, extracts and recognizes color through binarization labeling, dilates and expands (OCR) optical character recognition Objects may be recognized using but are not limited thereto.

이하, 상술한 도 2의 무인 결제 서비스 제공 서버의 구성에 따른 동작 과정을 도 3을 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, the operation process according to the configuration of the unmanned payment service providing server of FIG. 2 will be described in detail with reference to FIG. 3 as an example. However, the embodiment is only one of various embodiments of the present invention, it will be apparent that it is not limited thereto.

도 3을 참조하면, (a) 무인 결제 서비스 제공 서버(300)는 적어도 하나의 스스캐너(400)에서 촬영을 하여 매장 단말(100)을 통하여 수집되는 경우, (b) 적어도 하나의 제품 이미지로부터 객체와 배경을 분리하고, 추출된 객체를 입력 데이터로 학습 및 트레이닝을 시작한다. 그리고, 무인 결제 서비스 제공 서버(300)는 학습 내용이 매장 단말(100)에 전수될 수 있도록 데이터를 동기화하고 (c) 적용 단계에서 스캐너(400)에서 객체가 감지 및 촬영된 경우 매장 단말(100)에서 제품을 식별하고 판매 단말(500)을 통하여 결제가 수행되도록 한다. 그리고, (d) O2O 서비스(Offline to Online)를 이용하여 간편결제가 될 수 있도록 하고, 미성년자의 경우에는 부모 단말 또는 법정대리인 단말로 결제 요청을 전송함으로써 결제가 완료될 수 있도록 한다. 판매 단말(500)에서 신용카드를 이용하여 결제를 하는 것은 공지기술과 같으므로 상세한 설명은 생략한다.Referring to FIG. 3, (a) when the unattended payment service providing server 300 is photographed through at least one scanner 400 and collected through the store terminal 100, (b) from at least one product image The object and the background are separated, and the extracted object starts learning and training with input data. Then, the unmanned payment service providing server 300 synchronizes data so that learning contents can be transmitted to the store terminal 100, and (c) in the application step, when an object is detected and photographed in the scanner 400, the store terminal 100 ) To identify the product and make payment through the sales terminal 500. And, (d) O2O service (Offline to Online) can be used to facilitate payment, and in the case of a minor, payment can be completed by sending a payment request to the parent terminal or a legal representative terminal. The payment using the credit card in the sales terminal 500 is the same as the known technology, and thus detailed description is omitted.

덧붙여서, 무인 결제 서비스 제공 서버(300)는, 차단기 등의 개폐장치를 통과하면 스캔된 제품들이 자동결제되도록 구성할 수도 있고, 결제를 하지 않는 경우 개폐장치를 통과하지 못하도록 구성될 수도 있다. 다만, 이를 위해서는 개폐장치가 RFID 리더기로 구성되고 각 제품에 RFID 태그 등을 더 구비해야 할 수도 있다.In addition, the unattended payment service providing server 300 may be configured to automatically scan the scanned products when they pass through an opening and closing device such as a breaker, or may be configured to not pass through the opening and closing device when payment is not made. However, for this, the opening/closing device may be configured with an RFID reader, and each product may further include an RFID tag.

이와 같은 도 2 및 도 3의 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.2 and 3, the image recognition-based unmanned payment system using artificial intelligence and big data is not described above. The image recognition-based unmanned payment system using artificial intelligence and big data was previously described with reference to FIG. 1. Since the contents can be easily inferred from the same or described contents, the following description will be omitted.

도 4는 본 발명의 일 실시예에 따른 도 1의 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 4를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 4에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.4 is a diagram illustrating a process in which data is transmitted and received between each component included in the image recognition-based unmanned payment system using artificial intelligence and big data of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process in which data is transmitted and received between each of the components will be described with reference to FIG. 4, but the present application is not limited to such an embodiment, and is illustrated in FIG. 4 according to various embodiments described above. It is apparent to those skilled in the art that the process of transmitting and receiving data can be changed.

도 4를 참조하면, 스캐너(400)로부터 제품 이미지가 매장 단말(100)로 수신되면(S4100), 매장 단말(100)은 제품 이미지를 모델링 및 라벨링을 실시하고(S4200), 제품 식별코드가 라벨링으로 부여된 경우 식별코드와 제품 이미지를, 식별코드가 부여되지 않았으면 무인 결제 서비스 제공 서버(300)에서 부착하도록 제품 이미지만을 무인 결제 서비스 제공 서버(300)로 전송한다(S4300).4, when a product image is received from the scanner 400 to the store terminal 100 (S4100), the store terminal 100 models and labels the product image (S4200), and the product identification code is labeled. If it is granted, the identification code and the product image, if the identification code is not provided, transmits only the product image to the unattended payment service providing server 300 so that the unattended payment service providing server 300 attaches (S4300).

그리고, 무인 결제 서비스 제공 서버(300)는 제품 이미지를 수집했으면(S4400), 배경을 분리하여 객체를 추출하고(S4410), 추출된 객체를 이미지 인식을 위한 학습을 진행하며(S4430), 학습된 객체에 제품 식별코드를 매핑하거나, 제품 식별코드를 생성하여 부여 및 매핑한다(S4450). 이때, 이미지 수집, 배경 분리, 식별코드 생성 및 부여는 당연히 데이터베이스를 구축할 때 사전에 이루어지는 것이지만, 실제로 매장에서 테스트한 결과나 실제 스캔 결과를 이용하여 재학습하는 경우를 가정하여 설명하는 것이다. 또, 무인 결제 서비스 제공 서버(300)는 이렇게 학습된 결과를 매장 단말(100)로 전송하여 매장 단말(100)에서 각 제품을 인식할 수 있도록 동기화한다(S4500).Then, when the unmanned payment service providing server 300 collects the product image (S4400), the background is separated to extract an object (S4410), and the extracted object is trained for image recognition (S4430), and the learned The product identification code is mapped to the object, or the product identification code is generated and assigned and mapped (S4450). At this time, image collection, background separation, identification code generation and granting are of course made in advance when building a database, but it will be described on the assumption that re-learning is performed using the results of testing in the store or the actual scan results. In addition, the unmanned payment service providing server 300 transmits the learned result to the store terminal 100 to synchronize so that the store terminal 100 can recognize each product (S4500).

한편, 판매 단말(500)에서 결제를 시작하는 경우(S4600), 매장 단말(100)은, 스캐너(400)와 연동하여(S4700) 제품 이미지를 촬영하거나, 스캐너(400)에서 초음파 센서 등을 제품이 위치함을 인식하면 제품 이미지를 촬영하도록 한다(S4710). 그리고, 매장 단말(100)은 스캐너(400)로부터 수신된 제품 이미지가 인식가능한 경우(S4750), 판매 단말(500)로 제품 식별코드를 전송하여(S4900), 결제 프로세스를 진행하도록 하고(S4920), 인식이 가능하지 않은 경우(S4750) 판매 단말(500)로 제품 식별코드의 입력을 요청하여(S4900), 수신된 제품 식별코드와 인식이 불가능했던 제품 이미지를 입력값으로 재학습을 실시한다. 이때, 재학습된 결과는 매장 단말(100)과 실시간으로 공유될 수 있다.On the other hand, when the payment is started from the sales terminal 500 (S4600), the store terminal 100, in conjunction with the scanner 400 (S4700) to take a product image, or the scanner 400, such as ultrasonic sensors Upon recognizing this location, a product image is photographed (S4710). Then, when the product image received from the scanner 400 is recognizable (S4750), the store terminal 100 transmits the product identification code to the sales terminal 500 (S4900), and proceeds with the payment process (S4920). , If recognition is not possible (S4750), requests the input of the product identification code to the sales terminal 500 (S4900), and re-learns the received product identification code and the product image that could not be recognized as input values. At this time, the re-learned result may be shared in real time with the store terminal 100.

상술한 단계들(S4100~S4920)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S4100~S4920)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S4100 to S4920) is only an example, and is not limited thereto. That is, the order between the above-described steps (S4100 ~ S4920) may be mutually variable, some of which may be executed or deleted simultaneously.

이와 같은 도 4의 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 3을 통해 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The above description of the unmanned payment system based on image recognition using artificial intelligence and big data of FIG. 4 is described above with reference to the image recognition based unmanned payment system using artificial intelligence and big data through FIGS. 1 to 3. Since the contents can be easily inferred from the same or described contents, the following description will be omitted.

도 5는 본 발명의 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템을 설명하기 위한 동작 흐름도이다. 도 5를 참조하면, 무인 결제 서비스 제공 서버는, 스캐너로부터 촬영된 적어도 하나의 제품 이미지를 매장 단말을 경유하여 수신한다(S5100).5 is an operation flowchart for explaining an unmanned payment system based on image recognition using artificial intelligence and big data according to an embodiment of the present invention. 5, the unmanned payment service providing server receives at least one product image photographed from a scanner via a store terminal (S5100).

그리고, 무인 결제 서비스 제공 서버, 수신된 적어도 하나의 제품 이미지를 이용하여 제품 이미지 내의 제품인 객체를 인식하기 위한 인공지능 학습을 진행한다(S5200).Then, using the unmanned payment service providing server, the received at least one product image to perform artificial intelligence learning for recognizing an object that is a product in the product image (S5200).

또한, 무인 결제 서비스 제공 서버는, 학습이 진행된 결과를 매장 단말로 제공하여 매장 단말에서 제품 이미지 내에서 객체를 인식한다(S5300).In addition, the unmanned payment service providing server recognizes the object in the product image at the store terminal by providing the result of learning to the store terminal (S5300).

이와 같은 도 5의 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The above description of the unmanned payment system based on image recognition using artificial intelligence and big data in FIG. 5 is described above with reference to the image recognition based unmanned payment system using artificial intelligence and big data through FIGS. 1 to 4. Since the contents can be easily inferred from the same or described contents, the following description will be omitted.

도 5를 통해 설명된 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An unmanned payment system based on image recognition using artificial intelligence and big data according to an embodiment described with reference to FIG. 5 is in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer Can also be implemented as Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, the computer-readable medium may include any computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The unmanned payment system based on image recognition using artificial intelligence and big data according to an embodiment of the present invention described above may include an application installed in a terminal (which may include a program included in a platform or an operating system basically mounted in the terminal). It may be executed by an application (i.e., a program) installed directly on the master terminal through an application providing server such as an application store server, an application, or a web server related to a corresponding service. In this sense, the image recognition-based unmanned payment system using artificial intelligence and big data according to an embodiment of the present invention described above is implemented as an application (that is, a program) basically installed in a terminal or directly installed by a user, and is provided in the terminal. It may be recorded on a computer readable recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustration only, and those skilled in the art to which the present invention pertains can understand that the present invention can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

Claims (7)

제품을 촬영하고, 촬영된 제품 이미지를 전송하는 스캐너;
상기 스캐너로부터 전송된 제품 이미지 내 포함된 객체를 인식하고, 상기 인식된 객체에 기 매핑되어 저장된 제품 식별코드를 출력하는 매장 단말;
상기 매장 단말로부터 출력된 제품 식별코드로 제품명 및 제품가격을 인식하고 결제를 수행하는 판매 단말; 및
상기 스캐너로부터 촬영된 적어도 하나의 제품 이미지를 상기 매장 단말을 경유하여 수신하는 수신부, 상기 수신된 적어도 하나의 제품 이미지를 이용하여 상기 제품 이미지 내의 제품인 객체를 인식하기 위한 인공지능 학습을 진행하는 진행부, 상기 학습이 진행된 결과를 상기 매장 단말로 제공하여 상기 매장 단말에서 제품 이미지 내에서 객체를 인식하도록 하는 제공부를 포함하는 무인 결제 서비스 제공 서버;를 포함하고,
상기 무인 결제 서비스 제공 서버는, 상기 스캐너로부터 상기 매장 단말을 경유하여 수신된 제품 이미지 내 객체를 인식할 수 없는 경우, 상기 매장 단말을 경유하여 상기 판매 단말로 제품 식별코드를 입력하도록 요청하는 요청부를 더 포함하며, 상기 제품 식별코드가 입력되는 경우 상기 인식할 수 없었던 제품 이미지를 인공지능 재학습을 위한 입력 데이터로 전송하고,
상기 무인 결제 서비스 제공 서버는, 상기 제품 이미지 내 객체를 허프 변환(Hough Transformation), 패턴 인식(Pattern Recognition), 및 템플릿 매칭(Template Matching) 중 어느 하나 또는 적어도 하나의 조합을 이용하여 인식하며,
상기 무인 결제 서비스 제공 서버는, 상기 제품 이미지 내 객체를 OpenCV(Open Source Computer Vision)으로 처리하여 객체를 이진화처리하고, 픽셀로 이루어진 이미지를 레이블링을 이용하여 픽셀 단위에서 인접한 영역끼리 그룹을 형성시키고, 상기 픽셀의 값이 기 설정된 허용 임계값을 초과하는 지점은 이진화 처리를 수행하며, 이진화 레이블링을 통하여 색상을 추출 및 인식하고, OCR(Optical character recognition)의 침식(Dilate)과 팽창(Erode)을 이용하여 객체를 인식하는 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템.
A scanner that photographs a product and transmits the photographed product image;
A store terminal recognizing an object included in the product image transmitted from the scanner, and outputting a product identification code stored in a mapping to the recognized object;
A sales terminal that recognizes a product name and a product price with a product identification code output from the store terminal and performs payment; And
A receiving unit for receiving at least one product image photographed from the scanner via the store terminal, and a progress unit for performing artificial intelligence learning to recognize an object as a product in the product image using the received at least one product image , An unmanned payment service providing server including a provision unit that provides the result of the learning to the store terminal so that the store terminal recognizes an object in a product image.
The unmanned payment service providing server, when the object in the product image received from the scanner via the store terminal cannot be recognized, requests a request unit to input a product identification code to the sales terminal via the store terminal In addition, when the product identification code is input, the unrecognized product image is transmitted as input data for AI re-learning,
The server for providing an unmanned payment service recognizes an object in the product image using any one or a combination of Hough Transformation, Pattern Recognition, and Template Matching,
The unmanned payment service providing server processes an object in the product image with Open Source Computer Vision (OpenCV) to binarize the object, and forms a group of adjacent regions in a pixel unit using labeling of an image made of pixels, The point where the value of the pixel exceeds a preset allowable threshold value performs binarization processing, extracts and recognizes color through binarization labeling, and uses dilation and expansion of optical character recognition (OCR). Unmanned payment system based on image recognition using artificial intelligence and big data to recognize objects.
제 1 항에 있어서,
상기 매장 단말은,
상기 제품의 적어도 하나의 제품 이미지 내에서 상기 제품인 객체를 인식하도록 모델링 및 라벨링 진행을 수행하는 것을 특징으로 하는 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템.
According to claim 1,
The store terminal,
An unmanned payment system based on image recognition using artificial intelligence and big data, characterized in that modeling and labeling are performed to recognize the object that is the product within at least one product image of the product.
제 1 항에 있어서,
복수의 매장이 존재하는 경우, 상기 매장 단말은, 복수의 매장에 설치된 복수의 매장 단말을 포함하고,
상기 무인 결제 서비스 제공 서버는, 상기 복수의 매장 단말과 클라우드(Cloud) 플랫폼으로 연결되어 상기 복수의 매장 단말에서 인식한 적어도 하나의 제품 이미지를 학습 데이터로 수집하는 것을 특징으로 하는 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템.
According to claim 1,
When a plurality of stores exist, the store terminal includes a plurality of store terminals installed in a plurality of stores,
The unmanned payment service providing server is connected to the plurality of store terminals and a cloud platform, and collects at least one product image recognized by the plurality of store terminals as learning data. Unmanned payment system based on image recognition.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 진행부는,
상기 인공지능 학습을 진행할 때, 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 반지도 학습(Semi-Supervised Learning), 및 강화 학습(Reinforcement Learning) 중 어느 하나 또는 적어도 하나의 조합으로 학습을 진행하는 것을 특징으로 하는 인공지능과 빅데이터를 이용한 이미지 인식 기반 무인 결제 시스템.
According to claim 1,
The progress unit,
When performing the artificial intelligence learning, learning by any one or a combination of at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning Unmanned payment system based on image recognition using artificial intelligence and big data, characterized by proceeding.
KR1020190141252A 2019-11-06 2019-11-06 System for payment solution service based on object recognition in image with machine learning using artificial intelligent KR102124568B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190141252A KR102124568B1 (en) 2019-11-06 2019-11-06 System for payment solution service based on object recognition in image with machine learning using artificial intelligent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190141252A KR102124568B1 (en) 2019-11-06 2019-11-06 System for payment solution service based on object recognition in image with machine learning using artificial intelligent

Publications (1)

Publication Number Publication Date
KR102124568B1 true KR102124568B1 (en) 2020-06-18

Family

ID=71142901

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190141252A KR102124568B1 (en) 2019-11-06 2019-11-06 System for payment solution service based on object recognition in image with machine learning using artificial intelligent

Country Status (1)

Country Link
KR (1) KR102124568B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021261686A1 (en) * 2020-06-25 2021-12-30 주식회사 딥엑스 Portable artificial neural network device
KR20220001939A (en) 2020-06-30 2022-01-06 주식회사 디투리소스 Payment and Stock Control System for Unmanned Convenience Store
KR102410634B1 (en) 2021-10-15 2022-06-22 도시공유플랫폼 주식회사 Method, device and system for providing unattended sales service based on artificial intelligence
KR102424316B1 (en) * 2021-11-08 2022-07-22 윤종선 Self-checkout system and method for self-service cafeteria
WO2022186613A1 (en) * 2021-03-05 2022-09-09 (주) 제이엘케이 Artificial intelligence-based unattended product image automatic reading and payment system with self-supervised learning system through interworking with payment terminal applied thereto
KR102488953B1 (en) * 2022-03-16 2023-01-17 주식회사 보띠에 System for providing pre-owned luxury checking service using colorbook
KR20230015023A (en) 2021-07-22 2023-01-31 주식회사 신세계아이앤씨 System for recognition of customer behavior based on image and method thereof
KR20230038957A (en) * 2021-09-13 2023-03-21 인하대학교 산학협력단 Goods detection method and system using POS camera
KR102561878B1 (en) * 2023-02-24 2023-08-01 주식회사 벨텍소프트 Ai blue ocr reading system and method based on machine learning
WO2023195786A1 (en) * 2022-04-07 2023-10-12 대한민국(농촌진흥청장) Fluorescent silk information code recognition method and device using same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101778605B1 (en) * 2017-02-21 2017-09-14 주식회사 엑시냅스 Method And Apparatus For Recognizing Vehicle License Plate
KR101824446B1 (en) * 2017-07-24 2018-02-01 한국기술교육대학교 산학협력단 A reinforcement learning based vehicle number recognition method for CCTV
KR101858530B1 (en) * 2017-07-14 2018-05-17 주식회사 코리아세븐 Unattended store system, method for controlling the system, computer program for executing the method, and unattended payment device
KR101850315B1 (en) * 2018-01-22 2018-05-31 주식회사 엑사스코프 Apparatus for self-checkout applied to hybrid product recognition
KR101960900B1 (en) * 2018-10-12 2019-03-21 주식회사 에스피씨네트웍스 Method for recognizing products

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101778605B1 (en) * 2017-02-21 2017-09-14 주식회사 엑시냅스 Method And Apparatus For Recognizing Vehicle License Plate
KR101858530B1 (en) * 2017-07-14 2018-05-17 주식회사 코리아세븐 Unattended store system, method for controlling the system, computer program for executing the method, and unattended payment device
KR101824446B1 (en) * 2017-07-24 2018-02-01 한국기술교육대학교 산학협력단 A reinforcement learning based vehicle number recognition method for CCTV
KR101850315B1 (en) * 2018-01-22 2018-05-31 주식회사 엑사스코프 Apparatus for self-checkout applied to hybrid product recognition
KR101960900B1 (en) * 2018-10-12 2019-03-21 주식회사 에스피씨네트웍스 Method for recognizing products

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021261686A1 (en) * 2020-06-25 2021-12-30 주식회사 딥엑스 Portable artificial neural network device
KR20220001939A (en) 2020-06-30 2022-01-06 주식회사 디투리소스 Payment and Stock Control System for Unmanned Convenience Store
KR102416277B1 (en) * 2020-06-30 2022-07-04 주식회사 디투리소스 Payment and Stock Control System for Unmanned Convenience Store
WO2022186613A1 (en) * 2021-03-05 2022-09-09 (주) 제이엘케이 Artificial intelligence-based unattended product image automatic reading and payment system with self-supervised learning system through interworking with payment terminal applied thereto
KR20230015023A (en) 2021-07-22 2023-01-31 주식회사 신세계아이앤씨 System for recognition of customer behavior based on image and method thereof
KR20230038957A (en) * 2021-09-13 2023-03-21 인하대학교 산학협력단 Goods detection method and system using POS camera
KR102605923B1 (en) * 2021-09-13 2023-11-24 인하대학교 산학협력단 Goods detection system and method using POS camera
KR102410634B1 (en) 2021-10-15 2022-06-22 도시공유플랫폼 주식회사 Method, device and system for providing unattended sales service based on artificial intelligence
KR102424316B1 (en) * 2021-11-08 2022-07-22 윤종선 Self-checkout system and method for self-service cafeteria
KR102488953B1 (en) * 2022-03-16 2023-01-17 주식회사 보띠에 System for providing pre-owned luxury checking service using colorbook
WO2023195786A1 (en) * 2022-04-07 2023-10-12 대한민국(농촌진흥청장) Fluorescent silk information code recognition method and device using same
KR102561878B1 (en) * 2023-02-24 2023-08-01 주식회사 벨텍소프트 Ai blue ocr reading system and method based on machine learning

Similar Documents

Publication Publication Date Title
KR102124568B1 (en) System for payment solution service based on object recognition in image with machine learning using artificial intelligent
US10936915B2 (en) Machine learning artificial intelligence system for identifying vehicles
KR101861198B1 (en) Method for acquiring Semantic tag of Digital Image and device for the same
US10289927B2 (en) Image integration search based on human visual pathway model
Demir et al. Detection of land-cover transitions in multitemporal remote sensing images with active-learning-based compound classification
Heipke et al. Deep learning for geometric and semantic tasks in photogrammetry and remote sensing
CN101288077A (en) Use of image-derived information as search criteria for internet and other search engines
CN102831200A (en) Commodity propelling method and device based on image character recognition
CN104881770A (en) Express bill information identification system and express bill information identification method
CN110532431B (en) Short video keyword extraction method and device and storage medium
CN109034694B (en) Production raw material intelligent storage method and system based on intelligent manufacturing
US20210034907A1 (en) System and method for textual analysis of images
CN113627411A (en) Super-resolution-based commodity identification and price matching method and system
CN111784372A (en) Store commodity recommendation method and device
Grechikhin et al. User modeling on mobile device based on facial clustering and object detection in photos and videos
CN114550051A (en) Vehicle loss detection method and device, computer equipment and storage medium
CN114550053A (en) Traffic accident responsibility determination method, device, computer equipment and storage medium
CN113762050A (en) Image data processing method, apparatus, device and medium
CN114241459B (en) Driver identity verification method and device, computer equipment and storage medium
CN117115571A (en) Fine-grained intelligent commodity identification method, device, equipment and medium
Das et al. Hybrid descriptor definition for content based image classification using fusion of handcrafted features to convolutional neural network features
CN110956459A (en) Commodity processing method and system
CN115170471A (en) Part identification method and device based on image identification model
Devi Priya et al. Automated cattle classification and counting using hybridized mask R-CNN and YOLOv3 algorithms
KR20180065501A (en) Method, apparatus, system and computer program for image retrieval

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant