WO2020196945A1 - Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium - Google Patents

Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium Download PDF

Info

Publication number
WO2020196945A1
WO2020196945A1 PCT/KR2019/003518 KR2019003518W WO2020196945A1 WO 2020196945 A1 WO2020196945 A1 WO 2020196945A1 KR 2019003518 W KR2019003518 W KR 2019003518W WO 2020196945 A1 WO2020196945 A1 WO 2020196945A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
article
appraisal
artificial intelligence
model
Prior art date
Application number
PCT/KR2019/003518
Other languages
French (fr)
Korean (ko)
Inventor
김의선
Original Assignee
김의선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김의선 filed Critical 김의선
Priority to PCT/KR2019/003518 priority Critical patent/WO2020196945A1/en
Publication of WO2020196945A1 publication Critical patent/WO2020196945A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present disclosure relates to an artificial intelligence emotion system, an artificial intelligence emotion method, and a recording medium.
  • the present disclosure provides an artificial intelligence emotion system, an artificial intelligence emotion method, and a recording medium capable of greatly improving the problems of the prior art, including the above problems.
  • An embodiment of the present disclosure includes a customer terminal and an emotion server that performs an assessment of an article based on image data transmitted from the customer terminal through a network, wherein the appraisal server determines a model of the article by deep learning.
  • It is an artificial intelligence emotion system that includes an artificial intelligence-based emotion engine that has been learned so as to be able to perform, and the emotion engine determines whether the product corresponds to the authenticity of the model by performing image signal processing on one or more point portions of the product. I can.
  • An embodiment of the present disclosure includes an appraisal server for appraising an article based on image data of an article transmitted online through a network, wherein the appraisal server determines a model of the article based on the image data transmitted online.
  • a model evaluation to determine, a genuine evaluation of determining whether the product corresponds to the genuineness of the model by performing image signal processing on one or more point portions of the product, and replacement of one or more point parts of the product, State evaluation for determining at least one factor among deformation, contamination, and discoloration, and condition evaluation for determining the condition index of the article based on this, and evaluation value determination for determining the evaluated value of the article based on the condition index
  • An embodiment of the present disclosure may be a computer-readable recording medium in which a computer program for executing the artificial intelligence method is recorded.
  • an artificial intelligence emotion system an artificial intelligence emotion method, and a recording medium capable of greatly improving the problems of the prior art, including the above problems.
  • FIG. 1 is a block diagram showing a schematic configuration of an artificial intelligence emotion system 1 according to an embodiment of the present disclosure.
  • FIGS. 2A to 2G are diagrams schematically showing an example of an operation screen of an emotion application executed in the customer terminal 30.
  • 3 is a flow chart showing an emotion procedure executed in the emotion server 10.
  • 4A and 4B are diagrams showing an example of a procedure for displaying model information of an article through the customer terminal 30.
  • 5A to 5F are diagrams for explaining examples of authenticity emotions performed by the emotion engine installed in the emotion server 10.
  • FIG. 6 is a diagram illustrating an example of a big data-based price database DB for calculating an appraised price.
  • a part is “connected” or “connected” with another part, not only is it directly connected or connected, but also indirectly connected or connected through another medium or component in the middle It can also include the case where it is.
  • a part may further include, rather than excluding, other components other than the described components, unless specifically stated otherwise, and one or more other features or components It does not exclude the possibility of the presence or addition of, parts, steps, actions, or combinations thereof.
  • FIG. 1 is a block diagram showing a schematic configuration of an artificial intelligence emotion system 1 according to an embodiment of the present disclosure.
  • the artificial intelligence emotion system 1 may include an emotion server 10, a manager terminal 20, and a customer terminal 30.
  • the artificial intelligence emotion system 1 may further include a data crawler 40.
  • the emotion server 10, the manager terminal 20, the customer terminal 30, and the data crawler 40 are connected to the network (N) and can communicate with each other through the network (N).
  • the emotion server 10 may be a device that manages and controls the overall operation of the artificial intelligence emotion system.
  • the emotion server 10 can manage and control the transmission/reception, processing, input and output of various data (including electrical signals and/or information) as a whole according to a control command from the manager terminal 20 and/or its own operation program.
  • the emotion server 10 may include, for example, a data processing unit such as a CPU, a data memory unit such as RAM and ROM, a communication unit for transmitting and receiving data, various input/output terminals for input/output of data, and the like.
  • the emotion server 10 may include an emotion engine for performing an emotion, software such as a computer program required for system operation, and a database for storing various data used for emotion.
  • the emotion server 10 may communicate with the manager terminal 20 and/or the data crawler 40 as necessary to perform a task necessary for the emotion.
  • the appraisal server 10 may receive data on an item to be appraised from the customer terminal 30, perform an appraisal based thereon, and then transmit data regarding the appraisal result to the customer terminal 30.
  • the emotion server 10 may include a service server for providing a remote service to the customer terminal 30.
  • the emotion engine mounted in the emotion server 10 may include an artificial intelligence-based image processing engine that determines the model of the product, whether it is authentic, or the like, through an image captured by the user's customer terminal 30.
  • the appraisal engine may further include a big data-based price determination engine that determines an appraisal value according to the determined product model information. Details will be described later.
  • the manager terminal 20 may be a device through which the manager accesses the artificial intelligence emotion system 1 through the network N.
  • the manager may communicate with the emotion server 10 or the data crawler 40 by accessing the network N through the manager terminal 20.
  • the manager terminal 20 may also communicate with the customer terminal 30 through the network N as necessary.
  • the manager terminal 20 may include various input/output means capable of communication such as transmitting a control command or the like to the emotion server 10 or the data crawler 40 or receiving a processing result of data from these devices.
  • the manager terminal 20 may include a desktop computer as well as a mobile input/output means such as a notebook computer, a tablet computer, and a smart phone.
  • the manager terminal 20 can store and execute manager software or a database required for the operation of the artificial intelligence appraisal system 1.
  • the customer terminal 30 may be a device for a user who wants to appraise an article to access the artificial intelligence appraisal system 1 through a network N.
  • the customer terminal 30 may include various input/output means capable of communicating with the emotion server 10.
  • the customer terminal 30 may store and execute an emotion application in order to transmit and receive data necessary for the emotion.
  • the emotion application may be downloaded by connecting directly to the emotion server 10 or by accessing an Internet website, a web store, a mobile store, etc. that provide an application for downloading.
  • the emotion application may be provided by being stored in a recording medium such as a CD, USB, or SD.
  • the data crawler 40 is a device that collects, stores, processes and/or updates (hereinafter referred to as "crawling") data necessary for the operation of the artificial intelligence emotion system 1 through the network N Can be
  • the data crawler 40 may be a server device such as the emotion server 10.
  • the data crawler 40 may build a database necessary for the emotion engine of the emotion server 10 or an assessment value calculation engine, and store and execute software necessary for crawling data.
  • the data crawler 40 may perform crawling or input/output of data at any time and/or periodically according to a control command from the emotion server 10 or the manager terminal 20 and/or its own operation program.
  • the data crawler 40 may be configured to be connected only to the emotion server 10 and to be operated only by the emotion server 10 as necessary.
  • the network N may include various types of wired or wireless communication networks that connect the emotion server 10, the manager terminal 20, the customer terminal 30, and the data crawler 40 to each other so as to communicate with each other.
  • the network N is an Internet network that provides server-client web services, and may include, for example, a wired or wireless Internet network such as LAN, WAN, 4G, 5G, WIFI, and the like.
  • the network N may be configured such that at least some of the emotion server 10, the manager terminal 20, and the data crawler 40 are connected only through a closed internal communication network such as a local intranet, if necessary.
  • FIGS. 2A to 2G are diagrams schematically showing an example of an operation screen of an emotion application executed in the customer terminal 30.
  • FIG. 2A to 2G illustrate a case of using a smartphone as an example of the customer terminal 30, but the customer terminal 30 is not limited thereto, and data including image information such as photos and videos of an article It goes without saying that various input/output means that can be transmitted through the network N and received and confirmed the result of the emotion can be used.
  • a user may access a mobile store that provides an application for download, or the like, and download and execute an emotion application to the customer terminal 30.
  • the transaction icon is an online marketplace where users can place information on a list, status, price, etc. of goods and trade with each other, or an online shopping mall where an administrator places information on the list, status, and price of goods and sells and/or rents them.
  • it may be an icon for moving to a screen providing a service such as a rental shop.
  • the wallet icon may be an icon for moving to a screen providing a service for users to input, store, and pay for information on a mobile payment method such as card, cash, coupon, and the like.
  • the emotion icon may be an icon for moving to a screen providing an artificial intelligence emotion service according to the present disclosure with respect to an item for which the user desires emotion.
  • the notification icon may be an icon for moving to a screen displaying contents of a received message with the user as a recipient.
  • the setting icon may be an icon for moving to a screen for designating or changing various settings or operations of an application.
  • the home screen may further include a member sign-up icon.
  • the member sign-up icon may be an icon for entering information such as a user's name, age, gender, address, and contact information, setting an ID and password, and moving to a screen for signing up as a member.
  • an account for a member may be provided.
  • the emotion server 10 may preferentially receive and/or process data input through the account for a member. Data transmitted and received through the account for members may be continuously managed while being stored and updated in the emotion server 10.
  • a guide phrase describing a service provided by each icon may be displayed on the screen.
  • a guide phrase such as "Try changing the item to a cache now” may be displayed on the upper part of the service icon display unit 32a.
  • the home screen 32 displays a category icon indicating a category of an item handled by a transaction service or an emotion service on the screen. 32b).
  • the category icon may include an icon representing the name or image of an item such as a laptop, tablet, mobile, bag, watch, wallet, shoes, etc. I can.
  • a guide phrase such as "coming soon" may be displayed along with an icon indicating the name or image of the product. Since the product category may be automatically determined by the emotion engine, when the emotion icon is pressed or touched, the category icon screen may not be displayed and the screen may be moved directly to the next screen.
  • the home screen 32 may move to the emotion item photographing screen 34 as shown in FIGS. 2B to 2F.
  • the emotional article photographing screen 34 may include a screen window of a camera for acquiring image signal data such as a photograph or a video of an article.
  • the image signal data of the emotional article can be acquired by photographing the emotional article through the screen window of the camera.
  • the emotion item photographing screen 34 may include a photographing sequence guide unit 34a, an image photographing unit 34b, and a help display unit 34c.
  • the photographing sequence guide unit 34a may be a screen for guiding a user of a photographing sequence of an article, a photographing part, a photographing method, and the like.
  • the photographing sequence guide unit 34a allows the user to sequentially touch numbers such as 1, 2, 3, and jjs displayed on the screen, and take pictures according to the guidance displayed on the screen, so that the data necessary for the evaluation of the article is acquired. I can guide you.
  • the image photographing unit 34b is a screen window of a camera for photographing an emotional article, and may include a target window T for positioning a photographing object in a correct position.
  • the target window T may include four bracket marks located at each corner of the substantially rectangular screen window, and an approximately cross-shaped target mark positioned at the center of the screen window to position the center of the target.
  • the target window T can move its position or change its size by touching a finger.
  • the target window T may be configured to recognize the photographing portion of the emotion item by itself and automatically adjust the position or size of the target window T according to a predetermined format.
  • the help display unit 34c may specifically describe a photographing method or present a standard photographed image to help the user accurately photograph. For example, when the help display unit 34c is touched, a guide phrase such as "Please remove the obstacles around and take a picture of the front of the product on a clean background" is displayed, or the standard of each shooting step according to the category of the emotion item Sample images can be presented.
  • the user when the user selects the watch as the category of the emotion item, when the user touches the "1" icon on the photographing sequence guide 34a, the user can move to the front photographing screen of FIG. 2C.
  • the front photographing screen displays, for example, a target window T for assisting in front photographing of the watch on the image photographing unit 34b, and displays "1.
  • a guide phrase such as "Please take a picture” and a photograph button (B) can be displayed.
  • the help display unit 34c is touched, an exemplary sample image in which the front of the watch is correctly photographed may be displayed on the screen.
  • the user touches the "2" icon on the photographing sequence guide 34a, the user can move to the rear photographing screen of FIG. 2D.
  • the screen On the back side of the screen, along with the target window (T) and the shooting button (B), it is possible to display a guide phrase such as "2. Take a picture of the inner side of the watch", and a sample image of the back side of the watch correctly. .
  • the user After completing photographing on the back side of the watch, if the user touches the "3" icon on the photographing sequence guide 34a, the user can move to the band photographing screen of FIG. 2E.
  • the band shooting screen along with the target window (T) and the shooting button (B), can display a guide phrase such as "3. Take a picture with the watch band", and a sample image of the watch band correctly. .
  • the user After completing the band photographing of the watch, if the user touches the "4" icon on the photographing sequence guide 34a, the user can move to the clip photographing screen of FIG. 2F.
  • a guide phrase such as "4. Take a clip (locked part) of the watch", and a sample video of the clip of the watch correctly shot are displayed. can do.
  • the emotion application selects whether or not to store the data such as photos and videos acquired by shooting in the customer terminal 30 after the user completes shooting for each shooting site according to the guidance of the shooting sequence guide 34a. You can display more screens.
  • the emotion application may further display a screen for additionally inputting other information about the emotion item.
  • the emotion application may further display a screen for selecting whether to transmit data for emotion after all procedures for acquiring data necessary for emotion are completed. In addition, it is of course possible to further configure various screens according to the user's convenience or providing a remote emotion service.
  • the appraisal server 10 executes an appraisal procedure based on the transmitted data. And, the result can be transmitted to the customer terminal 30. More details will be described later.
  • the evaluation result by the emotion server 10 may be transmitted to the customer terminal 30.
  • the received emotion result may be displayed on a notification icon of the emotion application.
  • the user touches the notification icon after executing the emotion application the user may move to the emotion result screen 35 as shown in FIG. 2G.
  • the emotion result screen 35 may display an emotion result by the emotion server 10 together with data such as a photo for specifying an emotion item.
  • the evaluation result may be displayed on the screen, for example, a guide phrase such as "appraisal has been completed", whether or not the item is genuine, an exact model name or production year of the item to be judged, the state of the item to be judged, and the like.
  • the emotion result may provide an emotion report created by the emotion server 10.
  • an appraisal icon representing an appraisal can be displayed on the appraisal result screen 35, and when the user touches the appraisal icon, the appraisal can be configured to view the appraisal created by the appraisal server 10.
  • Such an appraisal may be created by an artificial intelligence appraisal engine to be described later.
  • the appraisal may simply present an appraisal result such as whether the product is genuine or appraised value, or provide a method of presenting in detail the basis for the appraisal result, such as the condition of the product.
  • the appraisal may be classified as a service item provided only to users who have subscribed as members.
  • the appraisal application itself does not transmit the video data of the item to the appraisal server 10
  • a result of "not appraised” may be displayed.
  • 3 is a flow chart showing an emotion procedure executed in the emotion server 10.
  • the emotion server 10 may execute an emotion application installed in the customer terminal 30 by a user to execute an emotion procedure based on image data of an article photographed and transmitted.
  • the appraisal procedure 10 may proceed in the order of model appraisal, genuine appraisal, state appraisal, appraiser determination, and result transmission.
  • the appraisal server 10 may perform a model appraisal for determining an accurate model of the article.
  • the model evaluation may proceed in the order of a product group classification for classifying which product group (category) the emotion product belongs to, a brand classification for classifying a brand of the emotion product, and a model classification for classifying a model of the emotion product.
  • the emotion server 10 may include an emotion engine for processing image data of an article to perform an article evaluation.
  • the emotion engine is an artificial intelligence (AI)-based image processing engine that learns to identify objects in an image by machine learning techniques, especially deep learning techniques, and can recognize objects by itself and distinguish them from other objects based on this. .
  • AI artificial intelligence
  • This emotion engine learns a large amount of image data according to product group, brand, model, status, etc., it identifies the product in the image transmitted by the user by the already learned and evolved artificial intelligence, and the product group, brand, model of the product is Of course, you can accurately determine the condition of the item.
  • image data according to an item list such as a product group, a brand, and a model may be collected through the data crawler 40, and based on this, the emotion engine may be continuously learned.
  • the emotion server 10 may perform deep learning learning of the emotion engine at any time and/or periodically through communication with the data crawler 40.
  • Product model evaluation based on deep learning determines whether a corresponding product is an item handled by this service through an image captured by a user, and specifically recognizes a model of a specific product group and transmits the result.
  • the deep learning engine recognizes an object learned in an image, and can use open sources such as Google's tensorflow and yolo.
  • the primary product group classification as to whether it corresponds to an item handled by the product appraisal service can be determined by mounting a recognition engine in an appraisal application of the customer terminal 30. Through this, it is possible to reduce the load on the appraisal server 10 by determining within the appraisal application of the customer terminal 30 without proceeding to the appraisal server 10 for items other than the handling product group.
  • the captured image may be transmitted and determined by the artificial intelligence emotion engine of the emotion server 10.
  • the emotion application mobile emotion app stored in the customer terminal 30 performs product group classification and handling item classification, and then transmits a brand and model confirmation request to the emotion server 10
  • the brand and/or model information finally confirmed by this is returned from the appraisal server 10 and reported to the customer terminal 30, and/or transmitted to the service server 12, and then the subsequent process can be performed.
  • model information such as a model name, a manufacturing year, a serial number, and a photograph, that can specify a model of an article may be displayed on the customer terminal 30.
  • the appraisal server 10 may perform a genuine appraisal for determining whether the product in the image transmitted by the user is a genuine or a counterfeit of a corresponding model.
  • 5A to 5F are diagrams for explaining examples of authenticity emotions performed by the emotion engine installed in the emotion server 10.
  • the emotion engine extracts a specific location or part (hereinafter referred to as a point part) that can determine the characteristics of the product from the image data transmitted by the user, and processes the image signal of the image data corresponding to the point part of the product. According to this model information, it is possible to determine whether it is a genuine product.
  • the emotion engine may automatically extract and/or process and process a point portion of a corresponding model from image data transmitted by a user.
  • a button, buckle, and logo-marked portion of a bag corresponding to a specific model may be exemplified to the photographing user in advance so that the user can transmit an image photographed about the point portion.
  • the ratio for each stroke and the aspect ratio of the logo size may be constant.
  • the authenticity of such a logo can be determined by the following algorithm.
  • the Y value can be used in the YCbCr conversion equation (ITU-R BT.601) of Equation (1) below to obtain a gray image for the input image of FIG. 5A.
  • Equations (2) and (3) below represent a bilateral filter.
  • I filtered (x) represents the resulting image
  • I represents the input image
  • x represents the coordinates of the current pixel.
  • denotes the window size for filtering
  • W p denotes the difference in brightness and the weight for the spatial short distance.
  • FIG. 5C shows the result.
  • edge detection may be performed.
  • the Gaussian difference method can be used.
  • contouring is performed on the detected edge component to find a bounding box of the logo portion as shown in FIG. 5D.
  • contouring for example, a findContour of OpenCV, an image processing library, can be used.
  • the coordinates of the bounding box found as above are respectively p1 to p4
  • the length ratio of the width and height can be obtained to calculate the ratio information for the size of the logo.
  • the length ratio ⁇ can be calculated as follows.
  • Equation (5) the width and height of the bounding box are calculated, and the ratio between them is calculated, and the authenticity can be determined by comparing the reference value for the authenticity and the ratio value calculated from the input image.
  • the authenticity assessment may be performed by extracting various point parts that can be identified by an image, such as, for example, the shape or material of a specific part of the article, gloss or color, printed or engraved letters or numbers, and stitching status.
  • an image such as, for example, the shape or material of a specific part of the article, gloss or color, printed or engraved letters or numbers, and stitching status.
  • Such a point portion may learn various image data through deep learning, and the emotion engine itself may automatically extract a specific portion of a specific item as a point portion.
  • the emotion engine can collect a large amount of data for not only the genuine model but also the fake model and learn in advance through deep learning.
  • models determined as a fake product may include a specific part in which the characteristics of the fake product manufacturer appear.
  • the emotion engine can determine whether it is a fake product by extracting a point part for determining whether it is a fake product model.
  • the appraisal engine performs both genuine and fake discrimination for the appraised item, and determines the result, for example, a genuine index indicating a degree of proximity to a genuine model and/or a degree of proximity to a counterfeit model. It can be displayed in the form of a displayed fake index. Such a genuine index and/or a fake index may be displayed in a form such as numbers, letters, percentages, etc. that the user can easily understand at a time.
  • the authenticity index may be displayed so that a score from 0 to 100 is assigned to the evaluation result, and a value closer to 100 indicates a real product, and a value closer to 0 indicates a false product. The same is true of the false goods index.
  • Genuine or fake index can be displayed in the range of 0-10, and genuine 1 and fake are displayed in various forms, such as 0.
  • a discrimination algorithm may be added and updated based on image signal processing and deep learning technology for various methods of distinguishing authentic products for each product.
  • the appraisal server 10 may transmit the result of the genuine appraisal to the customer terminal 30 in advance.
  • the appraisal server 10 may immediately perform a state appraisal of the appraised article without reporting the result of the appraisal of the authenticity.
  • the state emotion may be an emotion for determining at what level the storage state of the emotional article is.
  • the storage condition of an article can be determined by a condition factor.
  • Status factors include, for example, a replacement state indicating whether a specific part or part of an article has been replaced, a deformed state indicating whether it is deformed due to damage or damage, a contaminated state indicating contamination due to adhesion of foreign substances, etc., and discoloration or discoloration due to use. It may include a discoloration state indicating whether or not.
  • Each article may include areas that are easily replaced, deformed, contaminated or discolored depending on the type of article or its model.
  • the preservation state can be determined by extracting such a region as a point region for state evaluation.
  • State emotion can be executed by the emotion engine described above.
  • the appraisal engine learns a large amount of video data according to the preservation status of the item and the point where it can be determined, by deep learning, and based on this, the preservation status of the item from the video data transmitted by the user. Can be identified.
  • the learning data on the storage state of such articles may be data crawled from time to time and/or regularly through the data crawler 40, and based on this, continuous learning and evolution of the emotion engine may be performed.
  • the emotion engine may determine the state of the article through image signal processing by extracting and/or processing a point portion capable of determining the state of the article from the image data transmitted by the user.
  • the emotion engine determines status factors such as replacement, deformation, contamination, and/or discoloration, based on the same algorithm as the image processing algorithm for determining authenticity, for each point part for status determination. Can be judged.
  • a specific part that frequently undergoes deformation may be extracted as a point part for determining whether or not it is deformed.
  • the emotion engine may learn in advance a large amount of data on the deformation of the point portion and determine whether or not the emotion item is deformed based on this. For replacement, contamination, discoloration, etc., the corresponding point parts can be learned in advance by the emotion engine to determine the presence or absence. It goes without saying that various other image processing algorithms can be employed to determine the state.
  • the emotion engine may display the result in the form of a condition index indicating the storage state of the article after performing all state determination on the emotion article.
  • This status index can be displayed in a form such as numbers, letters, percentages, etc. that the user can easily understand at a time. For example, if there is replacement, deformation, contamination, or discoloration in the point area, it may be marked as 1, and if not, it may be marked as 0.
  • the emotion engine learns a large amount of data in advance by dividing the replacement, deformation, contamination or discoloration of the point portion for state determination into “upper”, “middle”, and “lower”, and replaces, transforms, and When the contamination or discoloration state is "top”, “medium”, and “bottom", it can be displayed in the form of scores of "1", “2", and “3", respectively.
  • the emotion engine can also learn by subdividing the state of an article into three or more stages.
  • the score of the state index can be displayed in various ways, such as a range of 1 to 10 and a range of 1 to 100.
  • the emotion server 10 reconstructs image data such as photographs and videos taken by the user to obtain a virtual reality or augmented reality.
  • the same three-dimensional model can be constructed.
  • a standardized 3D model can be constructed, and based on this, extraction of a point portion, a genuine feeling, a state feeling, etc. can be performed more accurately and easily.
  • the emotion result may be three-dimensionally displayed in the form of augmented reality or the like on the 3D model. As a result, it is possible to easily recognize the state of the article, the result of the evaluation, and the like in a more realistic and intuitive manner.
  • the emotion server 10 may determine an assessed value.
  • the determination of the appraisal price may be executed by a big data-based price determination engine mounted in the appraisal server 10.
  • the appraised value may be determined by the following appraised price calculation model.
  • FIG. 6 is a diagram illustrating an example of a big data-based price database DB for calculating an appraised price.
  • the price DB may include an article definition table and a price table.
  • the article definition table may record and store IDs such as article names and article numbers according to the product group, brand, model, etc. of the emotional article.
  • the price table may record and store the price according to the ID of each item as a product price.
  • the commodity prices recorded in the price table may be collected at any time and/or periodically from a price reference site designated in advance by a price DB operation agent.
  • Product prices recorded in the price reference site and the price table may be automatically designated or updated by data crawling by the data crawler 40.
  • the appraisal server 10 may notify the manager terminal 20 of a signal requesting registration of information for price determination by designating the ID of the corresponding item.
  • the manager may additionally register price information in the price table directly through the manager terminal 20. If the item is deleted from the designated or collected price reference site, you can designate the item from another site and add the designated site and the collected item to the price DB operation agent.
  • the product price recorded in the price table may be the highest price of the ID item collected from the price reference site. That is, the price of the item with the best preservation status can be specified as the price of the ID item.
  • the average price of an average price of the ID item collected from a plurality of price reference sites may be recorded as the price of the ID item. That is, the item in the average storage state of the model can be specified by the price of the ID item.
  • the pricing engine may determine the appraised price based on these commodity prices and the state index described above.
  • a constant weighting coefficient may be assigned to each of the factors representing the state of storage of the article, that is, the state of replacement, deformation, contamination, and discoloration.
  • the weighting factor may be a factor representing a share of the price of the appraised article.
  • Assessed value commodity price-(commodity price x weighting factor x status index)
  • the commodity price of an article is 1, a weighting factor of 0.4 for replacement, 0.3 for deformation, 0.2 for contamination, and 0.1 for discoloration can be given.
  • the state index becomes 1
  • the weighting factor becomes 0.3
  • a value obtained by dividing the weighting factor of the state factor by the total number of point regions for determining the state factor is sub-weighting factor
  • the product of the weighting factor of the state factor and the state index can be obtained.
  • the appraisal engine records the lowest or average price of the ID item collected from the price reference site as a commodity price in the price table, and if there is no item corresponding to the above-described depreciation or is good, the value corresponding to the depreciation is The appraisal value can also be determined by the addition method to be added.
  • the appraised value may be determined by reflecting the business cost or profit rate of the manager providing the goods appraisal service in the appraised price calculation.
  • the emotion engine learns not only the genuine data but also the fake data through deep learning, it performs both genuine product determination and false product determination, thereby providing a product appraisal service capable of performing more accurate authenticity determination.
  • the appraisal engine may provide a product appraisal service capable of distinguishing prices according to the preservation status of the goods by performing state determination to determine the storage status of the goods and calculating the status index.
  • the pricing engine not only determines the product price by collecting a large amount of information on the price of the product based on big data, but also calculates the depreciation of the product based on the state index calculated by the appraisal engine to discriminate according to the storage status of the product. You can calculate this possible appraised value. Accordingly, the user may be provided with a specific appraised value determined by more objective and consistent criteria according to the preservation status of the item for which the appraisal is requested.
  • the artificial intelligence appraisal system and the artificial intelligence appraisal method according to an embodiment of the present disclosure may be employed in various commerce and financial services such as online pawn shops, second-hand transactions, and mortgage loans, as well as appraisal services using mobile.
  • the artificial intelligence emotion system and the artificial intelligence emotion method are produced as a control logic or program including instructions executable by a computer such as a program module executed by a computer and recorded in a computer-readable recording medium. It can also be implemented in a form.
  • the computer-readable recording medium may be any available medium that can be accessed by a computer, and may include both volatile and nonvolatile media, and removable and non-removable media.
  • the computer-readable recording medium may include a computer storage medium.
  • Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

Abstract

Disclosed is an artificial intelligence appraisal system comprising a customer terminal and an appraisal server for appraising an item on the basis of image data transmitted online from the customer terminal through a network, wherein the appraisal server comprises an artificial intelligence-based appraisal engine trained by deep learning so that a model of the item can be distinguished, and the appraisal engine distinguishes whether the item corresponds to a genuine product of the model by performing image signal processing on one or more point parts of the item.

Description

인공지능 감정 시스템, 인공지능 감정 방법 및 기록 매체Artificial intelligence emotion system, artificial intelligence emotion method and recording medium
본 개시는 인공지능 감정 시스템, 인공 지능 감정 방법 및 기록 매체에 관한 것이다.The present disclosure relates to an artificial intelligence emotion system, an artificial intelligence emotion method, and a recording medium.
귀금속, 시계, 의류, 가방, 구두, 지갑 등의 명품류나, 고미술품, 도자기, 서화, 공예품 등의 예술작품과 같은 고가의 물품들은 그 희귀성으로 인해 중고 물품인 경우에도 고가로 거래되는 경우가 많다. 이러한 고가품들은 전당포 등에 담보로 맡기면 적지 않은 현금으로 교환할 수 있다. 이 때문에, 이러한 고가품들은 그 모조품이나 위작들이 시장에 유통되는 경우가 많다.Luxury items such as precious metals, watches, clothing, bags, shoes, wallets, and high-priced items such as artworks such as antiques, ceramics, calligraphy and crafts are often traded at high prices even if they are used items due to their rarity. . These high-value items can be exchanged for a lot of cash if you leave them as collateral at a pawn shop. For this reason, these high-value products are often circulated in the market for counterfeits or counterfeits.
종래에는, 이러한 고가품들을 포함하는 유체 동산(corporeal movables)의 감정은 오랫동안 감정업에 종사해온 전문 감정사가 전당포 등에 상주하면서 그 진위 여부나 가격 등을 감정하여 왔다. 최근에는, 전당포를 직접 방문하지 않더라도, 원격지에서 소유자가 촬영한 물품의 사진을 컴퓨터나 스마트폰 등의 단말기를 사용하여 유선 또는 무선 네트워크를 통해 전송하면, 전송된 사진에 기초하여 물품의 진품 여부나 시장 가격에 대한 정보 등을 제공해주는 원격 감정 서비스가 연구되고 있다.Conventionally, the appraisal of corporate movables including such high-value items has been assessed by a professional appraiser, who has been engaged in the appraisal business for a long time, while residing in a pawnshop or the like to appraise its authenticity or price. In recent years, even if you do not visit the pawnshop in person, if you transmit a picture of an item taken by the owner at a remote location through a wired or wireless network using a terminal such as a computer or smartphone, you will be able to determine whether the item is genuine based on the transmitted picture. A remote appraisal service that provides information on market prices and the like is being studied.
그러나, 본 발명자의 연구에 의하면, 기존의 방식들은 대부분 감정사의 개인적 경험에 의존하고 있어 과학적이고 표준화된 방식에 따라 일관되게 감정이 이루어지지 못하는 문제가 있다. 또한, 물품의 사진에 기반한 기존의 감정 방식은 감정의 정확도가 크게 떨어지는 문제가 있다. 따라서, 과학적이고 표준화된 방식으로 일관되게 감정을 수행할 수 있고, 보다 정확한 감정을 수행할 수 있으며, 감정 결과에 기초하여 보다 정확하고 객관적인 감정가를 제시할 수 있는 원격 감정 시스템의 개발이 요구되고 있다.However, according to the research of the present inventors, since most of the existing methods depend on the personal experience of the appraiser, there is a problem that the emotion cannot be consistently performed according to a scientific and standardized method. In addition, there is a problem in that the accuracy of the emotion is greatly degraded in the existing emotion method based on a photograph of an article. Therefore, there is a need to develop a remote appraisal system capable of consistently performing appraisal in a scientific and standardized manner, performing more accurate appraisal, and presenting more accurate and objective appraiser based on appraisal results. .
본 개시는 상술한 문제점들을 포함하여 종래 기술의 문제점을 크게 개선할 수 있는 인공지능 감정 시스템, 인공지능 감정 방법 및 기록 매체를 제공한다.The present disclosure provides an artificial intelligence emotion system, an artificial intelligence emotion method, and a recording medium capable of greatly improving the problems of the prior art, including the above problems.
본 개시의 일 실시형태는, 고객 단말과, 고객 단말로부터 네트워크를 통해 전송된 영상 데이터에 기초하여 물품의 감정을 행하는 감정 서버를 포함하고, 상기 감정 서버는 딥러닝에 의해 물품의 모델을 판별할 수 있도록 학습된 인공지능 기반의 감정 엔진을 포함하고, 상기 감정 엔진은 상기 물품의 하나 이상의 포인트 부위에 대한 영상 신호 처리를 수행하여 상기 물품이 상기 모델의 진품에 해당하는지를 판별하는 인공지능 감정 시스템일 수 있다.An embodiment of the present disclosure includes a customer terminal and an emotion server that performs an assessment of an article based on image data transmitted from the customer terminal through a network, wherein the appraisal server determines a model of the article by deep learning. It is an artificial intelligence emotion system that includes an artificial intelligence-based emotion engine that has been learned so as to be able to perform, and the emotion engine determines whether the product corresponds to the authenticity of the model by performing image signal processing on one or more point portions of the product. I can.
본 개시의 일 실시형태는, 네트워크를 통해 온라인 전송된 물품의 영상 데이터에 기초하여 물품을 감정하는 감정 서버를 포함하고, 상기 감정 서버는, 온라인 전송된 상기 영상 데이터에 기초하여 상기 물품의 모델을 결정하는 모델 감정과, 상기 물품의 하나 이상의 포인트 부위에 대한 영상 신호 처리를 수행하여 상기 물품이 상기 모델의 진품에 해당하는지 여부를 판별하는 진품 감정과, 상기 물품의 하나 이상의 포인트 부위에 대한 교체, 변형, 오염 및 변색 중 하나 이상의 인자를 판정하기 위한 영상 신호 처리를 수행하고, 이에 기초하여 상기 물품의 상태 지수를 결정하는 상태 감정과, 상기 상태 지수에 근거하여 상기 물품의 감정가를 결정하는 감정가 결정을 실행하는 인공지능 감정 방법일 수 있다.An embodiment of the present disclosure includes an appraisal server for appraising an article based on image data of an article transmitted online through a network, wherein the appraisal server determines a model of the article based on the image data transmitted online. A model evaluation to determine, a genuine evaluation of determining whether the product corresponds to the genuineness of the model by performing image signal processing on one or more point portions of the product, and replacement of one or more point parts of the product, State evaluation for determining at least one factor among deformation, contamination, and discoloration, and condition evaluation for determining the condition index of the article based on this, and evaluation value determination for determining the evaluated value of the article based on the condition index It may be an artificial intelligence emotion method that executes.
본 개시의 일 실시형태는, 상기 인공지능 감정 방법을 실행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체일 수 있다.An embodiment of the present disclosure may be a computer-readable recording medium in which a computer program for executing the artificial intelligence method is recorded.
본 개시에 따르면, 상술한 문제점들을 포함하여 종래 기술의 문제점을 크게 개선할 수 있는 인공지능 감정 시스템, 인공지능 감정 방법 및 기록 매체를 제공할 수 있다.According to the present disclosure, it is possible to provide an artificial intelligence emotion system, an artificial intelligence emotion method, and a recording medium capable of greatly improving the problems of the prior art, including the above problems.
그 밖에 본 개시에 따른 다양한 실시형태들 및 그 목적, 구성, 작용, 효과, 이점 등은 첨부 도면을 참조하여 이하의 발명의 설명에서 자세하게 설명한다.In addition, various embodiments according to the present disclosure and their objects, configurations, actions, effects, advantages, and the like will be described in detail in the following description of the invention with reference to the accompanying drawings.
도 1은 본 개시의 일 실시형태에 따른 인공지능 감정 시스템(1)의 개략적인 구성을 나타내는 블록도이다.1 is a block diagram showing a schematic configuration of an artificial intelligence emotion system 1 according to an embodiment of the present disclosure.
도 2a 내지 도 2g는 고객 단말(30)에서 실행되는 감정 애플리케이션의 작동 화면의 예를 개략적으로 나타낸 도면이다.2A to 2G are diagrams schematically showing an example of an operation screen of an emotion application executed in the customer terminal 30.
도 3은 감정 서버(10)에서 실행되는 감정 절차를 나타내는 순서도이다.3 is a flow chart showing an emotion procedure executed in the emotion server 10.
도 4a 및 도 4b는 고객 단말(30)을 통해 물품의 모델 정보를 표시하는 절차의 예를 나타낸 도면이다.4A and 4B are diagrams showing an example of a procedure for displaying model information of an article through the customer terminal 30.
도 5a 내지 도 5f는 감정 서버(10)에 탑재된 감정 엔진에서 수행하는 진품 감정의 예를 설명하는 도면이다.5A to 5F are diagrams for explaining examples of authenticity emotions performed by the emotion engine installed in the emotion server 10.
도 6은 감정가 산출을 위한 빅테이터 기반의 가격 데이터베이스(DB)의 일 예를 나타내는 도면이다.6 is a diagram illustrating an example of a big data-based price database DB for calculating an appraised price.
이하, 본 개시의 일 실시형태에 대하여 첨부 도면을 참조하여 상세히 설명한다. 이하의 설명에서 "일 실시형태"는 본 개시에 대한 이해를 돕기 위해 제시된 예시적인 실시형태를 의미하며, 본 개시가 이하에 설명된 예시적인 실시형태로만 제한되는 것은 아니다. 첨부 도면은 설명의 편의를 위해 그 구성의 일부 또는 전부를 확대, 과장하거나, 간략히 도시 또는 생략하여 도시한 것일 수 있다.Hereinafter, an embodiment of the present disclosure will be described in detail with reference to the accompanying drawings. In the following description, “one embodiment” means an exemplary embodiment presented to aid in understanding the present disclosure, and the present disclosure is not limited to the exemplary embodiments described below. For convenience of description, the accompanying drawings may be partially enlarged, exaggerated, or simplified or omitted.
발명의 설명 전체에서, 어떤 부분이 다른 부분과 "연결" 또는 "접속"되어 있다고 설명할 경우, 직접적으로 연결 또는 접속되어 있는 경우뿐만 아니라, 중간에 다른 매체 또는 구성요소를 통해 간접적으로 연결 또는 접속되어 있는 경우도 포함할 수 있다. 어떤 부분이 어떤 구성요소를 "포함"한다고 설명할 경우, 특별히 달리 표현하지 않는 한, 기재된 구성요소 이외의 다른 구성요소를 제외하는 것이 아니라 더 포함할 수 있으며, 하나 또는 그 이상의 다른 특징이나 구성요소, 부품, 단계, 동작 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는다.Throughout the description of the invention, when it is described that a part is "connected" or "connected" with another part, not only is it directly connected or connected, but also indirectly connected or connected through another medium or component in the middle It can also include the case where it is. When it is described that a part "includes" a certain component, it may further include, rather than excluding, other components other than the described components, unless specifically stated otherwise, and one or more other features or components It does not exclude the possibility of the presence or addition of, parts, steps, actions, or combinations thereof.
먼저, 본 개시의 일 실시형태에 따른 인공지능 감정 시스템(1)의 전체적인 구성에 대해 설명한다.First, the overall configuration of the artificial intelligence emotion system 1 according to an embodiment of the present disclosure will be described.
도 1은 본 개시의 일 실시형태에 따른 인공지능 감정 시스템(1)의 개략적인 구성을 나타내는 블록도이다.1 is a block diagram showing a schematic configuration of an artificial intelligence emotion system 1 according to an embodiment of the present disclosure.
도 1을 참조하면, 인공지능 감정 시스템(1)은 감정 서버(10), 관리자 단말(20) 및 고객 단말(30)을 포함할 수 있다. 인공지능 감정 시스템(1)은 데이터 크롤러(40)를 더 포함할 수 있다. 감정 서버(10), 관리자 단말(20), 고객 단말(30) 및 데이터 크롤러(40)는 네트워크(N)에 접속되고, 네트워크(N)를 통해 상호 통신할 수 있다.Referring to FIG. 1, the artificial intelligence emotion system 1 may include an emotion server 10, a manager terminal 20, and a customer terminal 30. The artificial intelligence emotion system 1 may further include a data crawler 40. The emotion server 10, the manager terminal 20, the customer terminal 30, and the data crawler 40 are connected to the network (N) and can communicate with each other through the network (N).
감정 서버(10)는 인공지능 감정 시스템의 전체적인 작동을 관리 및 제어하는 장치일 수 있다. 감정 서버(10)는 관리자 단말(20)로부터의 제어 명령 및/또는 자체적인 운용 프로그램에 따라 각종 데이터(전기적 신호 및/또는 정보를 포함한다)의 송수신, 처리, 입출력 등을 전체적으로 관리 및 제어할 수 있다. 감정 서버(10)는, 예컨대, CPU와 같은 데이터의 처리 유닛, RAM, ROM과 같은 데이터의 메모리 유닛, 데이터의 송수신을 위한 통신 유닛, 데이터의 입출력을 위한 각종 입출력 단자 등을 포함할 수 있다. 감정 서버(10)는 감정을 수행하기 위한 감정 엔진, 시스템 운용에 필요한 컴퓨터 프로그램 등의 소프트웨어, 감정에 사용되는 각종 데이터를 저장하는 데이터베이스 등을 포함할 수 있다. 감정 서버(10)는 필요에 따라 관리자 단말(20) 및/또는 데이터 크롤러(40)와 통신하여 감정에 필요한 작업을 수행할 수 있다. 감정 서버(10)는 고객 단말(30)로부터 감정의 대상이 되는 물품에 관한 데이터를 수신하고, 이에 기초하여 감정을 수행한 후, 감정 결과에 관한 데이터를 고객 단말(30)로 송신할 수 있다. 이를 위해 감정 서버(10)는 고객 단말(30)로의 원격 서비스 제공을 위한 서비스 서버를 포함할 수 있다.The emotion server 10 may be a device that manages and controls the overall operation of the artificial intelligence emotion system. The emotion server 10 can manage and control the transmission/reception, processing, input and output of various data (including electrical signals and/or information) as a whole according to a control command from the manager terminal 20 and/or its own operation program. I can. The emotion server 10 may include, for example, a data processing unit such as a CPU, a data memory unit such as RAM and ROM, a communication unit for transmitting and receiving data, various input/output terminals for input/output of data, and the like. The emotion server 10 may include an emotion engine for performing an emotion, software such as a computer program required for system operation, and a database for storing various data used for emotion. The emotion server 10 may communicate with the manager terminal 20 and/or the data crawler 40 as necessary to perform a task necessary for the emotion. The appraisal server 10 may receive data on an item to be appraised from the customer terminal 30, perform an appraisal based thereon, and then transmit data regarding the appraisal result to the customer terminal 30. . To this end, the emotion server 10 may include a service server for providing a remote service to the customer terminal 30.
감정 서버(10)에 탑재된 감정 엔진은 사용자의 고객 단말(30)에서 촬영한 영상을 통해 물품의 모델과 진품 여부, 상태 등을 판별하는 인공지능 기반의 영상 처리 엔진을 포함할 수 있다. 감정 엔진은 판별된 물품 모델 정보에 따라 감정가를 결정하는 빅데이터 기반의 가격 결정 엔진을 더 포함할 수 있다. 자세한 사항은 후술한다.The emotion engine mounted in the emotion server 10 may include an artificial intelligence-based image processing engine that determines the model of the product, whether it is authentic, or the like, through an image captured by the user's customer terminal 30. The appraisal engine may further include a big data-based price determination engine that determines an appraisal value according to the determined product model information. Details will be described later.
관리자 단말(20)은 관리자가 네트워크(N)를 통해 인공지능 감정 시스템(1)에 접속하는 장치일 수 있다. 관리자는 관리자 단말(20)을 통해 네트워크(N)에 접속하여 감정 서버(10)나 데이터 크롤러(40)와 통신할 수 있다. 관리자 단말(20)은 필요에 따라 네트워크(N)를 통해 고객 단말(30)과도 통신할 수 있다. 관리자 단말(20)은 감정 서버(10)나 데이터 크롤러(40)에 제어 명령 등을 송신하거나 이들 장치로부터 데이터의 처리 결과를 수신하는 등의 통신이 가능한 다양한 입출력 수단을 포함할 수 있다. 예컨대, 관리자 단말(20)은 데스크탑 컴퓨터는 물론, 노트북, 태블릿, 스마트폰 등과 같은 모바일 입출력 수단을 포함할 수 있다. 관리자 단말(20)은 인공지능 감정 시스템(1)의 운용에 필요한 관리자용의 소프트웨어나 데이터 베이스를 저장하고 실행할 수 있다.The manager terminal 20 may be a device through which the manager accesses the artificial intelligence emotion system 1 through the network N. The manager may communicate with the emotion server 10 or the data crawler 40 by accessing the network N through the manager terminal 20. The manager terminal 20 may also communicate with the customer terminal 30 through the network N as necessary. The manager terminal 20 may include various input/output means capable of communication such as transmitting a control command or the like to the emotion server 10 or the data crawler 40 or receiving a processing result of data from these devices. For example, the manager terminal 20 may include a desktop computer as well as a mobile input/output means such as a notebook computer, a tablet computer, and a smart phone. The manager terminal 20 can store and execute manager software or a database required for the operation of the artificial intelligence appraisal system 1.
고객 단말(30)은 물품의 감정을 원하는 사용자가 네트워크(N)를 통해 인공지능 감정 시스템(1)에 접속하기 위한 장치일 수 있다. 고객 단말(30)은 감정 서버(10)와 통신이 가능한 다양한 입출력 수단을 포함할 수 있다. 고객 단말(30)은 감정에 필요한 데이터의 송수신을 위해 감정 애플리케이션을 저장하고 실행할 수 있다. 이러한 감정 애플리케이션은 감정 서버(10)에 직접 접속하거나, 다운로드용 애플리케이션을 제공하는 인터넷 웹사이트, 웹 스토어, 모바일 스토어 등에 접속하여 다운로드할 수 있다. 감정 애플리케이션은 CD, USB, SD 등의 기록 매체에 저장되어 제공될 수도 있다.The customer terminal 30 may be a device for a user who wants to appraise an article to access the artificial intelligence appraisal system 1 through a network N. The customer terminal 30 may include various input/output means capable of communicating with the emotion server 10. The customer terminal 30 may store and execute an emotion application in order to transmit and receive data necessary for the emotion. The emotion application may be downloaded by connecting directly to the emotion server 10 or by accessing an Internet website, a web store, a mobile store, etc. that provide an application for downloading. The emotion application may be provided by being stored in a recording medium such as a CD, USB, or SD.
데이터 크롤러(40)는 네트워크(N)를 통해 인공지능 감정 시스템(1)의 운용에 필요한 데이터의 수집, 저장, 가공 및/또는 갱신(이하, "크롤링"(crawling)이라 한다)을 수행하는 장치일 수 있다. 데이터 크롤러(40)는 감정 서버(10)와 같은 서버 장치일 수 있다. 데이터 크롤러(40)는 감정 서버(10)의 감정 엔진이나 감정가 산출 엔진에 필요한 데이터베이스를 구축하고, 데이터의 크롤링에 필요한 소프트웨어를 저장하고 실행할 수 있다. 데이터 크롤러(40)는 감정 서버(10)나 관리자 단말(20)로부터의 제어 명령 및/또는 자체적인 운용 프로그램에 따라 수시로 및/또는 주기적으로 데이터의 크롤링이나 입출력을 수행할 수 있다. 데이터 크롤러(40)는 필요에 따라 감정 서버(10)에만 접속되고, 감정 서버(10)에 의해서만 작동되도록 구성될 수도 있다. The data crawler 40 is a device that collects, stores, processes and/or updates (hereinafter referred to as "crawling") data necessary for the operation of the artificial intelligence emotion system 1 through the network N Can be The data crawler 40 may be a server device such as the emotion server 10. The data crawler 40 may build a database necessary for the emotion engine of the emotion server 10 or an assessment value calculation engine, and store and execute software necessary for crawling data. The data crawler 40 may perform crawling or input/output of data at any time and/or periodically according to a control command from the emotion server 10 or the manager terminal 20 and/or its own operation program. The data crawler 40 may be configured to be connected only to the emotion server 10 and to be operated only by the emotion server 10 as necessary.
네트워크(N)는 감정 서버(10), 관리자 단말(20), 고객 단말(30) 및 데이터 크롤러(40) 사이를 상호 통신 가능하게 연결하는 다양한 형태의 유선 또는 무선 통신 네트워크를 포함할 수 있다. 네트워크(N)는 서버-클라이언트 웹 서비스를 제공하는 인터넷 네트워크로서, 예컨대, LAN, WAN, 4G, 5G, WIFI 등의 유선 또는 무선 인터넷망을 포함할 수 있다. 네트워크(N)는 필요에 따라 감정 서버(10), 관리자 단말(20) 및 데이터 크롤러(40)의 적어도 일부가 로컬 인트라넷과 같은 폐쇄형 내부 통신망으로만 연결되도록 구성될 수도 있다.The network N may include various types of wired or wireless communication networks that connect the emotion server 10, the manager terminal 20, the customer terminal 30, and the data crawler 40 to each other so as to communicate with each other. The network N is an Internet network that provides server-client web services, and may include, for example, a wired or wireless Internet network such as LAN, WAN, 4G, 5G, WIFI, and the like. The network N may be configured such that at least some of the emotion server 10, the manager terminal 20, and the data crawler 40 are connected only through a closed internal communication network such as a local intranet, if necessary.
이하, 상술한 구성을 포함하는 인공지능 감정 시스템(1)을 이용하는 본 개시의 일 실시형태에 따른 인공지능 감정 방법에 대해 도면을 참조하여 상세히 설명한다.Hereinafter, an artificial intelligence emotion method according to an embodiment of the present disclosure using the artificial intelligence emotion system 1 including the above-described configuration will be described in detail with reference to the drawings.
먼저, 고객 단말(30)에서 실행되는 감정 애플리케이션의 작동에 대해 설명한다.First, the operation of the emotion application executed in the customer terminal 30 will be described.
도 2a 내지 도 2g는 고객 단말(30)에서 실행되는 감정 애플리케이션의 작동 화면의 예를 개략적으로 나타낸 도면이다.2A to 2G are diagrams schematically showing an example of an operation screen of an emotion application executed in the customer terminal 30.
도 2a 내지 도 2g에서는 고객 단말(30)의 예로서 스마트폰을 사용하는 경우를 예시하였지만, 고객 단말(30)은 이에 한정되는 것은 아니며, 물품의 사진, 동영상 등의 영상 정보를 포함하는 데이터를 네트워크(N)를 통해 송신하고 그에 따른 감정 결과를 수신하여 확인할 수 있는 다양한 입출력 수단이 채용될 수 있음은 물론이다.2A to 2G illustrate a case of using a smartphone as an example of the customer terminal 30, but the customer terminal 30 is not limited thereto, and data including image information such as photos and videos of an article It goes without saying that various input/output means that can be transmitted through the network N and received and confirmed the result of the emotion can be used.
도 2a를 참조하면, 먼저, 사용자는 다운로드용 애플리케이션을 제공하는 모바일 스토어 등에 접속하여, 고객 단말(30)에 감정 애플리케이션을 다운로드하여 실행할 수 있다.Referring to FIG. 2A, first, a user may access a mobile store that provides an application for download, or the like, and download and execute an emotion application to the customer terminal 30.
감정 애플리케이션을 실행하면, 홈 화면(32)이 표시될 수 있다. 홈 화면(32)은 서비스 아이콘 표시부(32a)를 포함할 수 있다. 서비스 아이콘 표시부(32a)는, 예컨대, 사용자가 원하는 서비스의 종류를 선택할 수 있는 서비스 아이콘을 화면 상에 표시할 수 있다. 서비스 아이콘은, 예컨대, 거래, 지갑, 감정, 알림, 설정 등의 서비스를 표시하는 하나 이상의 아이콘을 포함할 수 있다.When the emotion application is executed, the home screen 32 may be displayed. The home screen 32 may include a service icon display unit 32a. The service icon display unit 32a may display, for example, a service icon on the screen that allows the user to select a desired service type. The service icon may include one or more icons representing services such as, for example, transaction, wallet, emotion, notification, and settings.
거래 아이콘은 사용자들이 물품의 목록, 상태, 가격 등에 관한 정보를 올려놓고 상호 거래할 수 있는 온라인 장터나, 관리자가 물품의 목록, 상태, 가격 등에 관한 정보를 올려놓고 판매 및/또는 대여하는 온라인 쇼핑몰 또는 대여샵 등과 같은 서비스를 제공하는 화면으로 이동하기 위한 아이콘일 수 있다. 지갑 아이콘은 사용자들이 카드, 현금, 쿠폰 등과 같은 모바일 결제 수단의 정보를 입력, 저장하고 결제할 수 있는 서비스를 제공하는 화면으로 이동하기 위한 아이콘일 수 있다. 감정 아이콘은 사용자가 감정을 원하는 물품에 대해 본 개시에 따른 인공지능 감정 서비스를 제공하는 화면으로 이동하기 위한 아이콘일 수 있다. 알림 아이콘은 사용자를 수신자로 하여 수신되는 메시지의 내용을 표시하는 화면으로 이동하기 위한 아이콘일 수 있다. 설정 아이콘은 애플케이션의 여러가지 설정이나 작동을 지정하거나 변경하기 위한 화면으로 이동하기 위한 아이콘일 수 있다.The transaction icon is an online marketplace where users can place information on a list, status, price, etc. of goods and trade with each other, or an online shopping mall where an administrator places information on the list, status, and price of goods and sells and/or rents them. Alternatively, it may be an icon for moving to a screen providing a service such as a rental shop. The wallet icon may be an icon for moving to a screen providing a service for users to input, store, and pay for information on a mobile payment method such as card, cash, coupon, and the like. The emotion icon may be an icon for moving to a screen providing an artificial intelligence emotion service according to the present disclosure with respect to an item for which the user desires emotion. The notification icon may be an icon for moving to a screen displaying contents of a received message with the user as a recipient. The setting icon may be an icon for moving to a screen for designating or changing various settings or operations of an application.
홈 화면은 이러한 서비스 아이콘 이외에도 회원 가입 아이콘 등을 더 포함할 수 있다. 회원 가입 아이콘은 사용자의 성명, 나이, 성별, 주소, 연락처 등의 정보를 입력하고 아이디와 패스워드를 설정하여 회원으로 가입할 수 있는 화면으로 이동하기 위한 아이콘일 수 있다. 회원 가입 아이콘을 누르거나 터치하여 회원 가입 절차를 완료하면 회원용의 계정이 제공될 수 있다. 회원용의 계정이 제공되면, 감정 서버(10)는 회원용의 계정을 통해 입력되는 데이터를 우선적으로 수신 및/또는 처리할 수 있다. 회원용의 계정을 통해 송수신되는 데이터는 감정 서버(10)에 저장 및 갱신되면서 지속적으로 관리될 수 있다.In addition to the service icon, the home screen may further include a member sign-up icon. The member sign-up icon may be an icon for entering information such as a user's name, age, gender, address, and contact information, setting an ID and password, and moving to a screen for signing up as a member. When the member sign-up process is completed by tapping or touching the member sign-up icon, an account for a member may be provided. When an account for a member is provided, the emotion server 10 may preferentially receive and/or process data input through the account for a member. Data transmitted and received through the account for members may be continuously managed while being stored and updated in the emotion server 10.
서비스 아이콘을 누르거나 터치하면, 각 아이콘에 의해 제공되는 서비스를 설명하는 안내 문구가 화면상에 표시될 수 있다. 예컨대, 감정 아이콘을 터치하면, "물건을 지금 캐시로 바꿔 보세요"와 같은 안내 문구가 서비스 아이콘 표시부(32a)의 상부에 표시될 수 있다.When a service icon is pressed or touched, a guide phrase describing a service provided by each icon may be displayed on the screen. For example, when the emotion icon is touched, a guide phrase such as "Try changing the item to a cache now" may be displayed on the upper part of the service icon display unit 32a.
도 2a를 참조하면, 사용자가, 예컨대, 거래 아이콘 또는 감정 아이콘을 누르거나 터치하면, 홈 화면(32)은 거래 서비스 또는 감정 서비스에서 취급하는 물품의 카테고리를 나타내는 카테고리 아이콘을 화면 상의 카테고리 아이콘 표시부(32b)에 표시할 수 있다.Referring to FIG. 2A, when a user presses or touches a transaction icon or an emotion icon, for example, the home screen 32 displays a category icon indicating a category of an item handled by a transaction service or an emotion service on the screen. 32b).
카테고리 아이콘은 랩탑(laptop), 태블릿(tablet), 모바일(mobile), 가방(bag), 시계(watch), 지갑(wallet), 신발(shoes) 등과 같은 물품의 명칭이나 이미지를 나타내는 아이콘을 포함할 수 있다. 아직 서비스가 제공되지 않는 물품은 물품의 명칭이나 이미지를 표시하는 아이콘과 함께 "coming soon" 등의 안내 문구를 표시할 수 있다. 물품 카테고리는 감정 엔진에 의해 자동적으로 판정될 수도 있으므로, 감정 아이콘을 누르거나 터치하면, 카테고리 아이콘 화면을 표시하지 않고 다음 화면으로 바로 이동할 수도 있다.The category icon may include an icon representing the name or image of an item such as a laptop, tablet, mobile, bag, watch, wallet, shoes, etc. I can. For items for which the service is not yet provided, a guide phrase such as "coming soon" may be displayed along with an icon indicating the name or image of the product. Since the product category may be automatically determined by the emotion engine, when the emotion icon is pressed or touched, the category icon screen may not be displayed and the screen may be moved directly to the next screen.
감정 아이콘의 선택시에, 또는 카테고리 아이콘 중 어느 하나의 선택시에, 홈 화면(32)은 도 2b 내지 도 2f와 같은 감정 물품 촬영 화면(34)으로 이동할 수 있다.When selecting the emotion icon or when selecting any one of the category icons, the home screen 32 may move to the emotion item photographing screen 34 as shown in FIGS. 2B to 2F.
도 2b를 참조하면, 감정 물품 촬영 화면(34)은 물품의 사진, 동영상 등의 영상 신호 데이터를 취득하기 위한 카메라의 화면창을 포함할 수 있다. 이 카메라의 화면창을 통해 감정 물품을 촬영하여 감정 물품의 영상 신호 데이터를 취득할 수 있다.Referring to FIG. 2B, the emotional article photographing screen 34 may include a screen window of a camera for acquiring image signal data such as a photograph or a video of an article. The image signal data of the emotional article can be acquired by photographing the emotional article through the screen window of the camera.
감정 물품 촬영 화면(34)은 촬영 순서 안내부(34a), 영상 촬영부(34b) 및 도움말 표시부(34c)를 포함할 수 있다.The emotion item photographing screen 34 may include a photographing sequence guide unit 34a, an image photographing unit 34b, and a help display unit 34c.
촬영 순서 안내부(34a)는 사용자에게 물품의 촬영 순서, 촬영 부위, 촬영 방법 등을 안내하기 위한 화면일 수 있다. 촬영 순서 안내부(34a)는 사용자가 화면 상에 표시된 ①, ②, ③, 쪋 등의 번호를 차례로 터치하여, 화면 상에 표시되는 안내에 따라 촬영을 행하면, 물품의 감정에 필요한 데이터가 취득되도록 안내할 수 있다.The photographing sequence guide unit 34a may be a screen for guiding a user of a photographing sequence of an article, a photographing part, a photographing method, and the like. The photographing sequence guide unit 34a allows the user to sequentially touch numbers such as ①, ②, ③, and jjs displayed on the screen, and take pictures according to the guidance displayed on the screen, so that the data necessary for the evaluation of the article is acquired. I can guide you.
영상 촬영부(34b)는 감정 물품의 촬영을 위한 카메라의 화면창으로서, 촬영 대상을 정위치에 위치시키기 위한 타켓창(T)을 포함할 수 있다. 타켓창(T)은 대략 사각형 화면창의 각 모서리 부분에 위치한 4개의 꺽쇠 마크와, 타켓의 중심을 위치시키기 위해 화면창의 중심에 위치한 대략 십자형의 타켓 마크를 포함할 수 있다. 타켓창(T)은 손가락의 터치 등에 의해 그 위치를 이동시키거나 크기를 변경할 수 있다. 타켓창(T)은 스스로 감정 물품의 촬영 부위를 인식하고, 타켓창(T)의 위치나 크기를 미리 정해진 포맷에 맞추어 자동적으로 조절하도록 구성될 수도 있다.The image photographing unit 34b is a screen window of a camera for photographing an emotional article, and may include a target window T for positioning a photographing object in a correct position. The target window T may include four bracket marks located at each corner of the substantially rectangular screen window, and an approximately cross-shaped target mark positioned at the center of the screen window to position the center of the target. The target window T can move its position or change its size by touching a finger. The target window T may be configured to recognize the photographing portion of the emotion item by itself and automatically adjust the position or size of the target window T according to a predetermined format.
도움말 표시부(34c)는 사용자의 정확한 촬영을 돕기 위해 촬영 방법을 구체적으로 설명하거나, 표준적인 촬영 이미지 등을 제시할 수 있다. 예컨대, 도움말 표시부(34c)를 터치하면, "주변에 장애물을 제거해주시고 깨끗한 배경을 바탕으로 제품의 정면을 촬영해 주세요"와 같은 안내 문구를 표시하거나, 감정 물품의 카테고리에 맞게 각 촬영 단계의 표준적인 샘플 영상을 제시할 수 있다.The help display unit 34c may specifically describe a photographing method or present a standard photographed image to help the user accurately photograph. For example, when the help display unit 34c is touched, a guide phrase such as "Please remove the obstacles around and take a picture of the front of the product on a clean background" is displayed, or the standard of each shooting step according to the category of the emotion item Sample images can be presented.
예컨대, 사용자가 감정 물품의 카테고리로서 시계를 선택한 경우, 촬영 순서 안내부(34a) 상의 "①"번 아이콘을 터치하면, 도 2c의 정면 촬영 화면으로 이동할 수 있다. 정면 촬영 화면은, 예컨대, 영상 촬영부(34b) 상에 시계의 정면 촬영을 돕기 위한 타켓창(T)을 표시함과 아울러, 타켓창(T)의 하부에 "1. 물건의 정면에서 전체를 촬영하세요"와 같은 안내 문구와 촬영 버튼(B)을 표시할 수 있다. 이 때, 도움말 표시부(34c)을 터치하면, 시계의 정면을 올바르게 촬영한 예시적인 샘플 영상을 화면에 표시할 수 있다.For example, when the user selects the watch as the category of the emotion item, when the user touches the "①" icon on the photographing sequence guide 34a, the user can move to the front photographing screen of FIG. 2C. The front photographing screen displays, for example, a target window T for assisting in front photographing of the watch on the image photographing unit 34b, and displays "1. The whole from the front of the object in the lower part of the target window T" A guide phrase such as "Please take a picture" and a photograph button (B) can be displayed. In this case, if the help display unit 34c is touched, an exemplary sample image in which the front of the watch is correctly photographed may be displayed on the screen.
시계의 정면 촬영을 완료한 후, 사용자가 촬영 순서 안내부(34a) 상의 "②"번 아이콘을 터치하면, 도 2d의 이면 촬영 화면으로 이동할 수 있다. 이면 촬영 화면은, 타켓창(T) 및 촬영 버튼(B)과 함께, "2. 시계의 안쪽면을 촬영하세요"와 같은 안내 문구, 시계의 이면을 올바르게 촬영한 샘플 영상 등을 표시할 수 있다.After the front photographing of the watch is completed, if the user touches the "②" icon on the photographing sequence guide 34a, the user can move to the rear photographing screen of FIG. 2D. On the back side of the screen, along with the target window (T) and the shooting button (B), it is possible to display a guide phrase such as "2. Take a picture of the inner side of the watch", and a sample image of the back side of the watch correctly. .
시계의 이면 촬영을 완료한 후, 사용자가 촬영 순서 안내부(34a) 상의 "③"번 아이콘을 터치하면, 도 2e의 밴드 촬영 화면으로 이동할 수 있다. 밴드 촬영 화면은, 타켓창(T) 및 촬영 버튼(B)과 함께, "3. 시계의 밴드와 함께 촬영하세요"와 같은 안내 문구, 시계의 밴드를 올바르게 촬영한 샘플 영상 등을 표시할 수 있다.After completing photographing on the back side of the watch, if the user touches the "③" icon on the photographing sequence guide 34a, the user can move to the band photographing screen of FIG. 2E. The band shooting screen, along with the target window (T) and the shooting button (B), can display a guide phrase such as "3. Take a picture with the watch band", and a sample image of the watch band correctly. .
시계의 밴드 촬영을 완료한 후, 사용자가 촬영 순서 안내부(34a) 상의 "④"번 아이콘을 터치하면, 도 2f의 클립 촬영 화면으로 이동할 수 있다. 클립 촬영 화면은, 타켓창(T) 및 촬영 버튼(B)과 함께, "4. 시계의 클립(잠금부분)을 촬영하세요"와 같은 안내 문구, 시계의 클립을 올바르게 촬영한 샘플 영상 등을 표시할 수 있다.After completing the band photographing of the watch, if the user touches the "④" icon on the photographing sequence guide 34a, the user can move to the clip photographing screen of FIG. 2F. On the clip shooting screen, along with the target window (T) and the shooting button (B), a guide phrase such as "4. Take a clip (locked part) of the watch", and a sample video of the clip of the watch correctly shot are displayed. can do.
감정 애플리케이션은, 사용자가 촬영 순서 안내부(34a)의 안내에 따라 각 촬영 부위에 대한 촬영을 완료한 후, 촬영에 의해 취득된 사진, 동영상 등의 데이터를 고객 단말(30)에 저장할 것인지를 선택할 수 있는 화면을 더 표시할 수 있다. 감정 애플리케이션은 감정 물품에 대한 기타 정보를 추가로 입력할 수 있는 화면을 더 표시할 수 있다. 감정 애플리케이션은, 감정에 필요한 데이터를 취득하기 위한 절차가 모두 완료된 후, 감정을 위해 데이터를 전송할 것인지를 선택할 수 있는 화면을 더 표시할 수 있다. 그 밖에 원격 감정 서비스의 제공이나 사용자의 편의에 따른 다양한 화면을 더 구성할 수 있음은 물론이다.The emotion application selects whether or not to store the data such as photos and videos acquired by shooting in the customer terminal 30 after the user completes shooting for each shooting site according to the guidance of the shooting sequence guide 34a. You can display more screens. The emotion application may further display a screen for additionally inputting other information about the emotion item. The emotion application may further display a screen for selecting whether to transmit data for emotion after all procedures for acquiring data necessary for emotion are completed. In addition, it is of course possible to further configure various screens according to the user's convenience or providing a remote emotion service.
사용자가 상술한 감정 애플리케이션의 실행을 통해 취득한 데이터를 고객 단말(30)로부터 네트워크(N)를 통해 감정 서버(10)로 전송하면, 감정 서버(10)는 전송된 데이터에 기초하여 감정 절차를 실행하고, 그 결과를 고객 단말(30)로 전송할 수 있다. 보다 자세한 사항은 후술하기로 한다.When the user transmits the data acquired through execution of the above-described appraisal application from the customer terminal 30 to the appraisal server 10 through the network N, the appraisal server 10 executes an appraisal procedure based on the transmitted data. And, the result can be transmitted to the customer terminal 30. More details will be described later.
감정 서버(10)에 의한 감정 결과는 고객 단말(30)로 전송될 수 있다. 감정 결과가 고객 단말(30)로 전송되면, 감정 애플리케이션의 알림 아이콘에 감정 결과가 수신된 것이 표시될 수 있다. 사용자가 감정 애플리케이션을 실행한 후 알림 아이콘을 터치하면, 도 2g와 같은 감정 결과 화면(35)으로 이동할 수 있다.The evaluation result by the emotion server 10 may be transmitted to the customer terminal 30. When the emotion result is transmitted to the customer terminal 30, the received emotion result may be displayed on a notification icon of the emotion application. When the user touches the notification icon after executing the emotion application, the user may move to the emotion result screen 35 as shown in FIG. 2G.
도 2g를 참조하면, 감정 결과 화면(35)은 감정 물품을 특정할 수 있는 사진 등의 데이터와 함께, 감정 서버(10)에 의한 감정 결과를 표시할 수 있다. 감정 결과는, 예컨대, "감정이 완료되었습니다"와 같은 안내 문구, 감정 물품의 진품 여부, 감정 물품의 정확한 모델명이나 생산연도, 감정 물품의 상태, 감정가 등을 화면에 표시할 수 있다. 감정 결과는 감정 서버(10)에 의해 작성된 감정서를 제공할 수도 있다. 예컨대, 감정 결과 화면(35)에 감정서를 나타내는 감정서 아이콘을 표시하고, 사용자가 감정서 아이콘을 터치하면, 감정 서버(10)에 의해 작성된 감정서를 열람할 수 있도록 구성할 수 있다. 이러한 감정서는 후술하는 인공지능 감정 엔진에 의해 작성될 수 있다. 감정서는 물품의 진품 여부나 감정가와 같은 감정 결과를 간단히 제시할 수도 있고, 물품의 상태 등과 같이 감정 결과에 이르게 된 근거를 상세히 제시하는 방식을 제공될 수도 있다. 감정서는 회원으로 가입된 사용자에게만 제공되는 서비스 항목으로 분류될 수도 있다.Referring to FIG. 2G, the emotion result screen 35 may display an emotion result by the emotion server 10 together with data such as a photo for specifying an emotion item. The evaluation result may be displayed on the screen, for example, a guide phrase such as "appraisal has been completed", whether or not the item is genuine, an exact model name or production year of the item to be judged, the state of the item to be judged, and the like. The emotion result may provide an emotion report created by the emotion server 10. For example, an appraisal icon representing an appraisal can be displayed on the appraisal result screen 35, and when the user touches the appraisal icon, the appraisal can be configured to view the appraisal created by the appraisal server 10. Such an appraisal may be created by an artificial intelligence appraisal engine to be described later. The appraisal may simply present an appraisal result such as whether the product is genuine or appraised value, or provide a method of presenting in detail the basis for the appraisal result, such as the condition of the product. The appraisal may be classified as a service item provided only to users who have subscribed as members.
한편, 사용자가 입력한 물품에 관한 데이터나 영상이 인공지능 감정 시스템(1)에서 취급하는 물품의 품목 리스트에 없는 경우에는, 물품의 영상 데이터를 감정 서버(10)에 전송하지 않고, 감정 애플리케이션 자체에서 "감정 품목이 아닙니다"와 같은 결과를 판정하여 화면에 표시할 수 있다. 또한, 감정 서버(10)에서의 감정 결과, 진품 여부를 감정하기 어려운 물품인 경우 등에는 "감정 불가"라는 결과를 표시할 수도 있다.On the other hand, if the data or video related to the item input by the user is not in the item list of items handled by the artificial intelligence appraisal system 1, the appraisal application itself does not transmit the video data of the item to the appraisal server 10, You can judge a result such as "not an emotion item" and display it on the screen. In addition, in the case of a result of the evaluation in the emotion server 10 or a product in which it is difficult to determine whether it is genuine or not, a result of "not appraised" may be displayed.
다음으로, 감정 서버(10)에서 실행되는 감정 절차에 대해 상세히 설명한다.Next, an evaluation procedure executed in the emotion server 10 will be described in detail.
도 3은 감정 서버(10)에서 실행되는 감정 절차를 나타내는 순서도이다.3 is a flow chart showing an emotion procedure executed in the emotion server 10.
도 3을 참조하면, 감정 서버(10)는, 사용자가 고객 단말(30)에 탑재된 감정 애플리케이션을 실행하여 촬영 및 전송한 물품의 영상 데이터에 기초하여 감정 절차를 실행할 수 있다. 감정 절차(10)는 모델 감정, 진품 감정, 상태 감정, 감정가 결정 및 결과 전송의 순서로 진행될 수 있다.Referring to FIG. 3, the emotion server 10 may execute an emotion application installed in the customer terminal 30 by a user to execute an emotion procedure based on image data of an article photographed and transmitted. The appraisal procedure 10 may proceed in the order of model appraisal, genuine appraisal, state appraisal, appraiser determination, and result transmission.
먼저, 감정 서버(10)는, 물품의 영상을 촬영한 데이터가 전송되면, 물품의 정확한 모델을 판별하기 위한 모델 감정을 실행할 수 있다. 모델 감정은 감정 물품이 어떤 상품군(카테고리)에 속하는지를 분류하는 상품군 분류, 감정 물품의 브랜드를 분류하는 브랜드 분류, 및 감정 물품의 모델을 분류하는 모델 분류의 순서로 진행될 수 있다. 이를 위해 감정 서버(10)는 물품의 영상 데이터를 처리하여 물품 감정을 실행하기 위한 감정 엔진을 포함할 수 있다.First, when data photographing an image of an article is transmitted, the appraisal server 10 may perform a model appraisal for determining an accurate model of the article. The model evaluation may proceed in the order of a product group classification for classifying which product group (category) the emotion product belongs to, a brand classification for classifying a brand of the emotion product, and a model classification for classifying a model of the emotion product. To this end, the emotion server 10 may include an emotion engine for processing image data of an article to perform an article evaluation.
감정 엔진은 인공 지능(AI) 기반의 영상 처리 엔진으로서, 머신 러닝 기법, 특히 딥러닝 기법에 의해 영상 내의 물체를 식별하는 것을 학습하고, 이에 기초하여 스스로 물체를 인식하고 다른 물체와 구별할 수 있다. 이러한 감정 엔진은 상품군, 브랜드, 모델, 상태 등에 따른 대량의 영상 데이터를 학습시켜 두면, 이미 학습되고 진화된 인공지능에 의해 사용자가 전송한 영상 속의 물품을 식별하여 해당 물품의 상품군, 브랜드, 모델은 물론 물품의 상태까지 정확히 판별할 수 있다. 이러한 감정 엔진의 딥러닝을 위한 학습 데이터는 데이터 크롤러(40)를 통해 상품군, 브랜드, 모델 등의 품목 리스트에 따른 영상 데이터를 수집할 수 있고 이에 기초하여 감정 엔진의 지속적인 학습이 이루어질 수 있다. 이를 위해 감정 서버(10)는 데이터 크롤러(40)와의 통신을 통해 수시로 및/또는 정기적으로 감정 엔진의 딥러닝 학습을 실행할 수 있다.The emotion engine is an artificial intelligence (AI)-based image processing engine that learns to identify objects in an image by machine learning techniques, especially deep learning techniques, and can recognize objects by itself and distinguish them from other objects based on this. . When this emotion engine learns a large amount of image data according to product group, brand, model, status, etc., it identifies the product in the image transmitted by the user by the already learned and evolved artificial intelligence, and the product group, brand, model of the product is Of course, you can accurately determine the condition of the item. As the learning data for deep learning of the emotion engine, image data according to an item list such as a product group, a brand, and a model may be collected through the data crawler 40, and based on this, the emotion engine may be continuously learned. To this end, the emotion server 10 may perform deep learning learning of the emotion engine at any time and/or periodically through communication with the data crawler 40.
딥러닝 기반의 물품 모델 감정은 사용자가 촬영한 영상을 통해 해당 상품이 본 서비스의 취급 품목인지를 판별하며, 구체적으로는 특정 상품군의 모델을 인식하여 그 결과를 전송할 수 있다. 딥러닝 엔진은 영상 내에 학습된 물체를 인식하는 것으로서, 구글의 텐서플로(tensorflow), 욜로(yolo) 등의 오픈 소스를 활용할 수 있다.Product model evaluation based on deep learning determines whether a corresponding product is an item handled by this service through an image captured by a user, and specifically recognizes a model of a specific product group and transmits the result. The deep learning engine recognizes an object learned in an image, and can use open sources such as Google's tensorflow and yolo.
물품 감정 서비스에서 취급하는 품목에 해당하는지에 대한 1차적인 상품군 분류는 고객 단말(30)의 감정 애플리케이션에 인식 엔진을 탑재하여 판별할 수 있다. 이를 통해 취급 상품군이 아닌 물품에 대해서는 감정 서버(10)까지 진행하지 않고, 고객 단말(30)의 감정 애플리케이션 내에서 판단하여 감정 서버(10)에 걸리는 부하를 낮출 수 있다.The primary product group classification as to whether it corresponds to an item handled by the product appraisal service can be determined by mounting a recognition engine in an appraisal application of the customer terminal 30. Through this, it is possible to reduce the load on the appraisal server 10 by determining within the appraisal application of the customer terminal 30 without proceeding to the appraisal server 10 for items other than the handling product group.
그 후, 브랜드 및 실제 모델을 분류하기 위해서는 촬영한 영상을 전송하여 감정 서버(10)의 인공지능 감정 엔진에서 판단할 수 있다. 예컨대, 도 4a에 도시된 바와 같이, 고객 단말(30)에 저장된 감정 애플리케이션(모바일 감정 앱)은 상품군 분류, 취급 품목 분류를 수행한 후, 감정 서버(10)에 대해 브랜드 및 모델 확인 요청을 전송하고, 이에 의해 최종 확인된 브랜드 및/또는 모델 정보를 감정 서버(10)로부터 회신 받아서 이를 고객 단말(30)에 보고하거나, 및/또는 서비스 서버(12)로 전송한 후, 이후 과정을 진행할 수 있다. 예컨대, 도 4b와 같이 물품의 모델을 특정할 수 있는 모델명, 제조연도, 일련번호, 사진 등의 모델 정보를 고객 단말(30)에 표시할 수 있다.Thereafter, in order to classify the brand and the actual model, the captured image may be transmitted and determined by the artificial intelligence emotion engine of the emotion server 10. For example, as shown in FIG. 4A, the emotion application (mobile emotion app) stored in the customer terminal 30 performs product group classification and handling item classification, and then transmits a brand and model confirmation request to the emotion server 10 And, the brand and/or model information finally confirmed by this is returned from the appraisal server 10 and reported to the customer terminal 30, and/or transmitted to the service server 12, and then the subsequent process can be performed. have. For example, as shown in FIG. 4B, model information, such as a model name, a manufacturing year, a serial number, and a photograph, that can specify a model of an article may be displayed on the customer terminal 30.
다음으로, 감정 서버(10)는 사용자가 전송한 영상 속의 물품이 해당 모델의 진품인지 가품인지를 판별하는 진품 감정을 실행할 수 있다.Next, the appraisal server 10 may perform a genuine appraisal for determining whether the product in the image transmitted by the user is a genuine or a counterfeit of a corresponding model.
도 5a 내지 도 5f는 감정 서버(10)에 탑재된 감정 엔진에서 수행하는 진품 감정의 예를 설명하는 도면이다.5A to 5F are diagrams for explaining examples of authenticity emotions performed by the emotion engine installed in the emotion server 10.
감정 엔진은 사용자가 전송한 영상 데이터로부터 물품의 특징을 판별할 수 있는 특정 위치나 부위(이하, 포인트 부위라 한다)를 추출하여, 물품의 포인트 부위에 해당하는 영상 데이터의 영상 신호 처리를 통해 물품이 모델 정보에 따른 진품에 해당하는지 여부를 판별할 수 있다. 감정 엔진은 사용자가 전송한 영상 데이터로부터 해당 모델의 포인트 부위를 자동적으로 추출 및/또는 가공하여 처리할 수도 있다. 또한, 예컨대, 도 5a와 같이 특정한 모델에 해당하는 가방의 단추, 버클, 로고가 찍힌 부위 등을 촬영 사용자에게 미리 예시하여 사용자가 이 포인트 부위에 대해 촬영한 영상을 전송하도록 할 수도 있다.The emotion engine extracts a specific location or part (hereinafter referred to as a point part) that can determine the characteristics of the product from the image data transmitted by the user, and processes the image signal of the image data corresponding to the point part of the product. According to this model information, it is possible to determine whether it is a genuine product. The emotion engine may automatically extract and/or process and process a point portion of a corresponding model from image data transmitted by a user. In addition, for example, as shown in FIG. 5A, a button, buckle, and logo-marked portion of a bag corresponding to a specific model may be exemplified to the photographing user in advance so that the user can transmit an image photographed about the point portion.
예컨대, 도 5a에 나타난 바와 같은 해당 브랜드의 로고는, 진품일 경우 각 획에 대한 비율과 로고 크기의 가로 세로 비율이 일정할 수 있다. 이러한 로고의 진품 판별은 아래와 같은 알고리즘에 의해 시행될 수 있다.For example, when the logo of the corresponding brand as shown in FIG. 5A is genuine, the ratio for each stroke and the aspect ratio of the logo size may be constant. The authenticity of such a logo can be determined by the following algorithm.
먼저, 도 5a의 입력 영상에 대한 그레이(gray) 영상을 얻기 위해 아래 수식 (1)의 YCbCr 변환식(ITU-R BT.601)에서 Y 값을 사용할 수 있다. First, the Y value can be used in the YCbCr conversion equation (ITU-R BT.601) of Equation (1) below to obtain a gray image for the input image of FIG. 5A.
[수식 1][Equation 1]
Figure PCTKR2019003518-appb-img-000001
...(1)
Figure PCTKR2019003518-appb-img-000001
...(One)
위 수식(1)에서 Y'에 대한 영상은 도 5b의 그레이 영상과 같다.The image for Y'in Equation (1) above is the same as the gray image of FIG. 5B.
다음으로, 영상에서 나타나는 잡음제거 및 로고를 선명하게 하기 위한 바이래터럴 필터(bilateral filter)를 적용할 수 있다. 아래 수식(2) 및 (3)은 바이래터럴 필터를 나타낸다.Next, a bilateral filter for removing noise appearing in an image and sharpening a logo may be applied. Equations (2) and (3) below represent a bilateral filter.
[수식 2][Equation 2]
Figure PCTKR2019003518-appb-img-000002
...(2)
Figure PCTKR2019003518-appb-img-000002
...(2)
[수식 3][Equation 3]
Figure PCTKR2019003518-appb-img-000003
...(3)
Figure PCTKR2019003518-appb-img-000003
...(3)
수식(2)에서, I filtered(x)는 결과 영상을 나타내며 I는 입력 영상, x는 현재 pixel의 좌표를 나타낸다. Ω는 필터링(filtering)을 위한 윈도우(window) 크기를 나타내고, W p는 밝기 차이와 공간적 근거리에 대한 가중치를 나타낸다.In equation (2), I filtered (x) represents the resulting image, I represents the input image, and x represents the coordinates of the current pixel. Ω denotes the window size for filtering, and W p denotes the difference in brightness and the weight for the spatial short distance.
이러한 과정을 통해 밝기 차이가 많이 나는 에지(edge) 성분은 유지하면서 잡음은 제거할 수 있으며, 도 5c는 그 결과를 나타낸다.Through this process, noise can be removed while maintaining the edge component having a large difference in brightness, and FIG. 5C shows the result.
다음으로, 에지 디텍션(edge detection)을 수행할 수 있다. 여기서는 가우시안 차분법(Difference of Gaussian)을 사용할 수 있다. Next, edge detection may be performed. Here, the Gaussian difference method can be used.
[수식 4][Equation 4]
Figure PCTKR2019003518-appb-img-000004
...(4)
Figure PCTKR2019003518-appb-img-000004
...(4)
두 개의 가우시안 필터(Gaussian filter)의 크기를 달리하여 그 차이를 이용해 에지 성분을 도출할 수 있다. 그 후, 검출한 에지 성분에 대해 컨투어링(contouring)을 수행하여 도 5d와 같이 로고 부분의 바운딩 박스(bounding box)를 찾을 수 있다. 컨투어링에는, 예컨대, 이미지 처리 라이브러리인 오픈시브이(OpenCV)의 파인드컨투어(findContour)를 사용할 수 있다. 위와 같이 찾은 바운딩 박스의 좌표를 각각 p1 내지 p4라고 할 때, 로고의 크기에 대한 비율 정보를 계산하기 위해 가로와 세로의 길이 비를 구할 수 있다. 길이 비율 θ는 다음과 같이 계산할 수 있다.It is possible to derive an edge component using the difference by varying the size of the two Gaussian filters. After that, contouring is performed on the detected edge component to find a bounding box of the logo portion as shown in FIG. 5D. For contouring, for example, a findContour of OpenCV, an image processing library, can be used. When the coordinates of the bounding box found as above are respectively p1 to p4, the length ratio of the width and height can be obtained to calculate the ratio information for the size of the logo. The length ratio θ can be calculated as follows.
[수식 5][Equation 5]
Figure PCTKR2019003518-appb-img-000005
...(5)
Figure PCTKR2019003518-appb-img-000005
...(5)
수식 (5)와 같이 바운딩 박스의 가로와 세로의 길이를 구하고 이들 사이의 비율을 계산하여 진품에 대한 기준 값과 입력 영상으로부터 계산한 비율 값의 비교를 통해 진품 여부를 판단할 수 있다.As shown in Equation (5), the width and height of the bounding box are calculated, and the ratio between them is calculated, and the authenticity can be determined by comparing the reference value for the authenticity and the ratio value calculated from the input image.
상술한 부위 이외에도, 진품 감정은, 예컨대, 물품의 특정 부위의 형상이나 재질, 광택이나 색상, 인쇄 또는 각인된 문자나 숫자, 바느질 상태 등과 같이 영상으로 판별 가능한 다양한 포인트 부위를 추출하여 실행될 수 있다. 이러한 포인트 부위는 딥러닝을 통해 다양한 영상 데이터를 학습하여 감정 엔진 스스로가 특정 물품의 특정 부위를 자동적으로 포인트 부위로 추출할 수도 있다.In addition to the above-described parts, the authenticity assessment may be performed by extracting various point parts that can be identified by an image, such as, for example, the shape or material of a specific part of the article, gloss or color, printed or engraved letters or numbers, and stitching status. Such a point portion may learn various image data through deep learning, and the emotion engine itself may automatically extract a specific portion of a specific item as a point portion.
한편, 물품이 진품인 경우에도 진품 판별을 위해 추출한 포인트 부위가 파손, 변색 등에 의해 변형되어 감정에 영향을 미치는 경우에는 판정 오류가 발생할 우려가 있다. 이 때문에 감정 엔진은 진품 모델뿐만이 아니라 가품 모델에 대해서도 대량의 데이터를 수집하여 딥러닝을 통해 미리 학습할 수 있다.On the other hand, even if the article is genuine, there is a risk that a judgment error may occur if the point portion extracted for authenticity determination is deformed due to damage, discoloration, etc. and affects emotion. For this reason, the emotion engine can collect a large amount of data for not only the genuine model but also the fake model and learn in advance through deep learning.
예컨대, 가품의 제조는 특정한 가품 제조업자에 의해 이루어지는 경우가 많기 때문에, 가품으로 판정된 모델들은 이러한 가품 제조업자의 특징이 나타나는 특정한 부위를 포함할 수 있다. 이러한 가품의 특정한 부위의 형상이나 특징을 포함하는 영상 데이터를 딥러닝을 통해 학습함으로써 감정 엔진 스스로 가품 모델인지를 판별하기 위한 포인트 부위를 추출하여 가품 여부를 결정할 수 있다.For example, since the manufacture of a fake product is often performed by a specific fake product manufacturer, models determined as a fake product may include a specific part in which the characteristics of the fake product manufacturer appear. By learning the image data including the shape or feature of a specific part of the fake product through deep learning, the emotion engine can determine whether it is a fake product by extracting a point part for determining whether it is a fake product model.
또한, 일부 부위의 교체, 수선 등에 의해 진품 모델에 가품 부위가 포함된 경우도 있다. 따라서, 감정 엔진은 감정 물품에 대한 진품 판별과 가품 판별을 모두 실행하고, 그 결과를, 예컨대, 진품 모델에 근접하는 정도를 표시하는 진품 지수(genuine index) 및/또는 가품 모델에 근접하는 정도를 표시하는 가품 지수(fake index)의 형태로 표시할 수 있다. 이러한 진품 지수 및/또는 가품 지수는 사용자가 한번에 쉽게 이해할 수 있는 숫자, 문자, 백분율 등과 같은 형태로 표시할 수 있다. 예컨대, 진품 지수는 감정 결과에 대해 0부터 100까지의 점수를 부여하고, 100에 가까울수록 진품, 0에 가까울수록 가품을 나타내도록 표시할 수 있다. 가품 지수의 경우도 마찬가지이다. 진품 또는 가품 지수는 0~10의 범위에서 표시할 수도 있고, 진품 1, 가품은 0으로 표시하는 등 다양한 형태로 표시할 수 있다.In addition, in some cases, fake parts are included in the genuine model due to replacement or repair of some parts. Accordingly, the appraisal engine performs both genuine and fake discrimination for the appraised item, and determines the result, for example, a genuine index indicating a degree of proximity to a genuine model and/or a degree of proximity to a counterfeit model. It can be displayed in the form of a displayed fake index. Such a genuine index and/or a fake index may be displayed in a form such as numbers, letters, percentages, etc. that the user can easily understand at a time. For example, the authenticity index may be displayed so that a score from 0 to 100 is assigned to the evaluation result, and a value closer to 100 indicates a real product, and a value closer to 0 indicates a false product. The same is true of the false goods index. Genuine or fake index can be displayed in the range of 0-10, and genuine 1 and fake are displayed in various forms, such as 0.
이외에도 각각의 물품에 대한 다양한 진품 구별 방법에 대해 영상신호처리 및 딥러닝 기술을 바탕으로 판별 알고리즘이 추가 및 업데이트될 수 있음은 물론이다.In addition, it goes without saying that a discrimination algorithm may be added and updated based on image signal processing and deep learning technology for various methods of distinguishing authentic products for each product.
진품 감정이 완료된 후, 감정 서버(10)는 진품 감정의 결과를 고객 단말(30)에 미리 전송할 수 있다. 감정 서버(10)는 진품 감정의 결과를 보고하지 않고 바로 감정 물품의 상태 감정을 실행할 수 있다.After the genuine appraisal is completed, the appraisal server 10 may transmit the result of the genuine appraisal to the customer terminal 30 in advance. The appraisal server 10 may immediately perform a state appraisal of the appraised article without reporting the result of the appraisal of the authenticity.
상태 감정은 감정 물품의 보존 상태가 어떤 레벨인지를 판별하기 위한 감정일 수 있다. 물품의 보존 상태는 상태 인자(condition factor)에 의해 파악될 수 있다. 상태 인자는, 예컨대, 물품의 특정 부품이나 부위의 교체 여부를 나타내는 교체 상태, 손상이나 파손에 의한 변형 여부를 나타내는 변형 상태, 이물질의 부착 등에 의한 오염 여부를 나타내는 오염 상태, 사용에 의한 변색이나 탈색 여부를 나타내는 변색 상태 등을 포함할 수 있다. 각각의 물품은 물품이나 그 모델의 종류에 따라 쉽게 교체, 변형, 오염 또는 변색되는 부위를 포함할 수 있다. 이러한 부위를 상태 감정을 위한 포인트 부위로 추출하여 보존 상태를 판별할 수 있다.The state emotion may be an emotion for determining at what level the storage state of the emotional article is. The storage condition of an article can be determined by a condition factor. Status factors include, for example, a replacement state indicating whether a specific part or part of an article has been replaced, a deformed state indicating whether it is deformed due to damage or damage, a contaminated state indicating contamination due to adhesion of foreign substances, etc., and discoloration or discoloration due to use. It may include a discoloration state indicating whether or not. Each article may include areas that are easily replaced, deformed, contaminated or discolored depending on the type of article or its model. The preservation state can be determined by extracting such a region as a point region for state evaluation.
상태 감정은 상술한 감정 엔진에 의해 실행될 수 있다. 진품 감정에서와 같이, 감정 엔진은 물품의 보존 상태 및 이를 판별할 수 있는 포인트 부위에 따른 대량의 영상 데이터를 딥러닝에 의해 학습하고, 이에 기초하여 사용자가 전송한 영상 데이터로부터 물품의 보존 상태를 판별할 수 있다. 이러한 물품의 보존 상태에 관한 학습 데이터는 데이터 크롤러(40)를 통해 수시로 및/또는 정기적으로 데이터 크롤링될 수 있고, 이에 기초하여 감정 엔진의 지속적인 학습과 진화가 이루어질 수 있다.State emotion can be executed by the emotion engine described above. As in genuine appraisal, the appraisal engine learns a large amount of video data according to the preservation status of the item and the point where it can be determined, by deep learning, and based on this, the preservation status of the item from the video data transmitted by the user. Can be identified. The learning data on the storage state of such articles may be data crawled from time to time and/or regularly through the data crawler 40, and based on this, continuous learning and evolution of the emotion engine may be performed.
감정 엔진은 사용자가 전송한 영상 데이터로부터 물품의 상태를 판별할 수 있는 포인트 부위를 추출 및/또는 가공하여 영상 신호 처리를 통해 물품의 상태를 판별할 수 있다. 감정 엔진은 상태 판별을 위한 각각의 포인트 부위에 대해, 예컨대, 상술한 진품 판별을 위한 영상 처리 알고리즘과 동일한 알고리즘에 기초하여, 교체 여부, 변형 여부, 오염 여부 및/또는 변색 여부와 같은 상태 인자를 판정할 수 있다.The emotion engine may determine the state of the article through image signal processing by extracting and/or processing a point portion capable of determining the state of the article from the image data transmitted by the user. The emotion engine determines status factors such as replacement, deformation, contamination, and/or discoloration, based on the same algorithm as the image processing algorithm for determining authenticity, for each point part for status determination. Can be judged.
예컨대, 도 5a의 브랜드 로고와 같이, 자주 변형이 발생하는 특정 부위가 변형 여부를 판별하기 위한 포인트 부위로서 추출될 수 있다. 감정 엔진은 이 포인트 부위의 변형에 관한 대량의 데이터를 미리 학습하고 이에 기초하여 감정 물품의 변형 유무를 판별할 수 있다. 교체, 오염, 변색 등에 대해서는 해당 포인트 부위들을 감정 엔진에 미리 학습시켜 그 유무를 판별하게 할 수 있다. 상태 판별을 위해 다른 다양한 영상 처리 알고리즘을 채용할 수 있음은 물론이다.For example, like the brand logo of FIG. 5A, a specific part that frequently undergoes deformation may be extracted as a point part for determining whether or not it is deformed. The emotion engine may learn in advance a large amount of data on the deformation of the point portion and determine whether or not the emotion item is deformed based on this. For replacement, contamination, discoloration, etc., the corresponding point parts can be learned in advance by the emotion engine to determine the presence or absence. It goes without saying that various other image processing algorithms can be employed to determine the state.
감정 엔진은, 감정 물품에 대한 상태 판별을 모두 실행한 후, 그 결과를 물품의 보존 상태를 표시하는 상태 지수(condition index)의 형태로 표시할 수 있다. 이러한 상태 지수는 사용자가 한번에 쉽게 이해할 수 있는 숫자, 문자, 백분율 등과 같은 형태로 표시할 수 있다. 예컨대, 포인트 부위에 교체, 변형, 오염 또는 변색이 있으면 1, 없으면 0으로 표시할 수 있다.The emotion engine may display the result in the form of a condition index indicating the storage state of the article after performing all state determination on the emotion article. This status index can be displayed in a form such as numbers, letters, percentages, etc. that the user can easily understand at a time. For example, if there is replacement, deformation, contamination, or discoloration in the point area, it may be marked as 1, and if not, it may be marked as 0.
또한, 감정 엔진은 상태 판별을 위한 포인트 부위의 교체, 변형, 오염 또는 변색 상태를 각각 "상", "중", "하"로 구분하여 미리 대량의 데이터를 학습하고 이에 기초하여 교체, 변형, 오염 또는 변색 상태가 "상", "중", "하"인 경우에 대해 각각 "1", "2", "3"의 점수 형태로 표시할 수 있다. 감정 엔진은 물품의 상태를 3단계 이상으로 세분화하여 학습할 수도 있다. 그 밖에 상태 지수의 점수를 1~10의 범위, 1~100의 범위 등 다양하게 표시할 수 있음은 물론이다.In addition, the emotion engine learns a large amount of data in advance by dividing the replacement, deformation, contamination or discoloration of the point portion for state determination into "upper", "middle", and "lower", and replaces, transforms, and When the contamination or discoloration state is "top", "medium", and "bottom", it can be displayed in the form of scores of "1", "2", and "3", respectively. The emotion engine can also learn by subdividing the state of an article into three or more stages. In addition, it goes without saying that the score of the state index can be displayed in various ways, such as a range of 1 to 10 and a range of 1 to 100.
이상에서는 사진을 기반으로 한 2차원 판별 기법을 주로 설명하였지만, 감정 서버(10)는 사용자가 촬영한 사진, 동영상 등의 영상 데이터를 재구성하여 가상 현실(virtual reality)이나 증강 현실(augmented reality)과 같은 3차원 모델을 구성할 수 있다. 이에 의해, 정형화된 3차원 모델을 구성하고, 이에 기초하여 포인트 부위의 추출, 진품 감정, 상태 감정 등을 보다 정확하고 용이하게 수행할 수 있다. 또한, 감정 결과는 이러한 3차원 모델 상에 증강 현실 등의 형태로 입체적으로 표시될 수 있다. 이에 의해, 물품의 상태, 감정 결과 등을 보다 실감 있고 직관적인 방식으로 용이하게 인지할 수 있다.In the above, a two-dimensional discrimination technique based on photographs has been mainly described, but the emotion server 10 reconstructs image data such as photographs and videos taken by the user to obtain a virtual reality or augmented reality. The same three-dimensional model can be constructed. Thereby, a standardized 3D model can be constructed, and based on this, extraction of a point portion, a genuine feeling, a state feeling, etc. can be performed more accurately and easily. In addition, the emotion result may be three-dimensionally displayed in the form of augmented reality or the like on the 3D model. As a result, it is possible to easily recognize the state of the article, the result of the evaluation, and the like in a more realistic and intuitive manner.
다음으로, 감정 서버(10)는 상태 감정을 완료한 후, 감정가 결정을 실행할 수 있다. 감정가 결정은 감정 서버(10)에 탑재된 빅데이터 기반의 가격 결정 엔진에 의해 실행될 수 있다. 감정가는 아래와 같은 감정가 산출 모델에 의해 결정될 수 있다.Next, after completing the state evaluation, the emotion server 10 may determine an assessed value. The determination of the appraisal price may be executed by a big data-based price determination engine mounted in the appraisal server 10. The appraised value may be determined by the following appraised price calculation model.
도 6은 감정가 산출을 위한 빅테이터 기반의 가격 데이터베이스(DB)의 일 예를 나타내는 도면이다.6 is a diagram illustrating an example of a big data-based price database DB for calculating an appraised price.
도 6을 참조하면, 가격 DB는 물품 정의 테이블 및 가격 테이블을 포함할 수 있다. 물품 정의 테이블은 감정 물품의 상품군, 브랜드, 모델 등에 따라 물품명, 물품번호 등의 아이디(ID)를 기록하고 저장할 수 있다. 가격 테이블은 각각의 물품의 ID에 따른 가격을 상품가로서 기록하고 저장할 수 있다.Referring to FIG. 6, the price DB may include an article definition table and a price table. The article definition table may record and store IDs such as article names and article numbers according to the product group, brand, model, etc. of the emotional article. The price table may record and store the price according to the ID of each item as a product price.
가격 테이블에 기록되는 상품가는 가격 DB 운용 에이전트(agent)에 의해 미리 지정된 가격 참조 사이트로부터 수시로 및/또는 주기적으로 수집될 수 있다. 이러한 가격 참조 사이트 및 가격 테이블에 기록되는 상품가는 데이터 크롤러(40)에 의한 데이터 크롤링에 의해 자동적으로 지정 또는 업데이트될 수도 있다.The commodity prices recorded in the price table may be collected at any time and/or periodically from a price reference site designated in advance by a price DB operation agent. Product prices recorded in the price reference site and the price table may be automatically designated or updated by data crawling by the data crawler 40.
지정되거나 수집된 가격 참조 사이트에 해당 물품이 없는 경우에는, 감정 서버(10)는 해당 물품의 ID를 지정하여 가격 결정을 위한 정보 등록 요청하는 신호를 관리자 단말(20)에 통지할 수 있다. 이러한 요청이 통지되면, 관리자는 관리자 단말(20)을 통해 직접 가격 테이블에 가격 정보를 추가적으로 등록할 수 있다. 지정되거나 수집된 가격 참조 사이트에서 해당 물품이 삭제될 경우에는, 타 사이트의 물품을 지정하고 지정 사이트 및 수집된 물품을 가격 DB 운용 에이전트에 추가할 수 있다.When there is no corresponding item on the designated or collected price reference site, the appraisal server 10 may notify the manager terminal 20 of a signal requesting registration of information for price determination by designating the ID of the corresponding item. When this request is notified, the manager may additionally register price information in the price table directly through the manager terminal 20. If the item is deleted from the designated or collected price reference site, you can designate the item from another site and add the designated site and the collected item to the price DB operation agent.
가격 테이블에 기록되는 상품가는 가격 참조 사이트로부터 수집된 해당 ID 물품의 최고가일 수 있다. 즉, 보존 상태가 가장 좋은 물품의 가격을 해당 ID 물품의 가격으로 특정할 수 있다. 다르게는, 복수의 가격 참조 사이트로부터 수집된 해당 ID 물품의 가격을 평균한 평균가를 해당 ID 물품의 가격으로 기록할 수 있다. 즉, 해당 모델의 평균적인 보존 상태에 있는 물품을 해당 ID 물품의 가격으로 특정할 수 있다.The product price recorded in the price table may be the highest price of the ID item collected from the price reference site. That is, the price of the item with the best preservation status can be specified as the price of the ID item. Alternatively, the average price of an average price of the ID item collected from a plurality of price reference sites may be recorded as the price of the ID item. That is, the item in the average storage state of the model can be specified by the price of the ID item.
가격 결정 엔진은 이러한 상품가와 상술한 상태 지수에 기초하여 감정가를 결정할 수 있다.The pricing engine may determine the appraised price based on these commodity prices and the state index described above.
예컨대, 물품의 보존 상태를 나타내는 각각의 인자들, 즉, 교체, 변형, 오염 및 변색 상태에 대해 각각 일정한 가중 계수(weighting coefficient)를 부여할 수 있다. 가중 계수는 감정 물품의 가격에 있어서 차지하는 비중을 나타내는 계수일 수 있다. 이러한 가중 계수에 상술한 상태 지수를 곱함으로써, 물품의 보존 상태의 저하에 따른 감가의 정도를 나타내는 감가도(price discount rate)를 산출할 수 있다. 따라서, 감정가는 아래와 같은 감산법에 의해 결정될 수 있다.For example, a constant weighting coefficient may be assigned to each of the factors representing the state of storage of the article, that is, the state of replacement, deformation, contamination, and discoloration. The weighting factor may be a factor representing a share of the price of the appraised article. By multiplying this weighting factor by the above-described condition index, it is possible to calculate a price discount rate indicating the degree of depreciation caused by the deterioration of the storage condition of the article. Therefore, the appraised value can be determined by the following subtraction method.
감정가 = 상품가 - (상품가 x 가중 계수 x 상태 지수)Assessed value = commodity price-(commodity price x weighting factor x status index)
예컨대, 물품의 상품가를 1이라고 할 때, 교체에 대해서는 0.4, 변형에 대해서는 0.3, 오염에 대해서는 0.2, 변색에 대해서는 0.1의 가중 계수를 부여할 수 있다. 물품의 포인트 부위에 교체가 있는 경우, 예컨대, 상태 지수는 1이 되고, 가중 계수는 0.3이 되므로, 감가도는 0.3이 될 수 있다. 따라서, 감정가는 1-(1x0.3x1)= 0.7로 결정될 수 있다. 즉, 물품에 교체가 있는 경우, 상품가의 30%가 감가되어 상품가의 70%가 감정가로 결정될 수 있다. For example, when the commodity price of an article is 1, a weighting factor of 0.4 for replacement, 0.3 for deformation, 0.2 for contamination, and 0.1 for discoloration can be given. When there is a replacement at the point portion of the article, for example, the state index becomes 1 and the weighting factor becomes 0.3, so the depreciation may be 0.3. Therefore, the appraised value may be determined as 1-(1x0.3x1)=0.7. That is, when there is a replacement for the product, 30% of the product price may be depreciated and 70% of the product price may be determined as the appraised price.
또한, 교체, 변형 등의 각 상태 인자를 판정하기 위한 포인트 부위가 복수개인 경우에는, 예컨대, 해당 상태 인자의 가중 계수를 해당 상태 인자를 판정하기 위한 포인트 부위의 총 개수로 나눈 값을 서브 가중 계수로 하고, 해당 상태 인자의 각 포인트 부위에 대한 서브 가중 계수와 상태 지수의 곱을 모두 합산함으로써, 해당 상태 인자의 가중 계수와 상태 지수의 곱의 값을 구할 수 있다.In addition, when there are a plurality of point regions for determining each state factor such as replacement or transformation, for example, a value obtained by dividing the weighting factor of the state factor by the total number of point regions for determining the state factor is sub-weighting factor And, by summing all the products of the sub-weighting factor and the state index for each point of the state factor, the product of the weighting factor of the state factor and the state index can be obtained.
다르게는, 감정 엔진은 가격 참조 사이트로부터 수집된 해당 ID 물품의 최저가 또는 평균가를 상품가로서 가격 테이블에 기록하고, 상술한 감가도에 해당하는 항목이 없거나 양호할 경우에, 감가도에 해당하는 값을 가산하는 가산법에 의해 감정가를 결정할 수도 있다.Alternatively, the appraisal engine records the lowest or average price of the ID item collected from the price reference site as a commodity price in the price table, and if there is no item corresponding to the above-described depreciation or is good, the value corresponding to the depreciation is The appraisal value can also be determined by the addition method to be added.
이 밖에도 감정가는 물품 감정 서비스를 제공하는 관리자의 사업 비용이나 수익율 등을 감정가 산출에 반영하여 결정될 수도 있다.In addition, the appraised value may be determined by reflecting the business cost or profit rate of the manager providing the goods appraisal service in the appraised price calculation.
상술한 본 개시의 일 실시형태에 따른 감정 시스템 및 감정 방법에 의하면, 딥러닝을 통해 학습되고 진화된 인공지능 기반의 감정 엔진을 탑재한 감정 서버(10)에 의해 사용자가 온라인 전송한 물품의 영상에 대한 영상 신호 처리를 수행하여 진품 감정을 행하므로, 물품이 해당 모델의 진품인지를 보다 과학적이고 표준적인 방법으로 정확하고 신속하게 판별할 수 있는 물품 감정 서비스를 제공할 수 있다.According to the emotion system and the emotion method according to an embodiment of the present disclosure described above, an image of an article transmitted online by a user by an emotion server 10 equipped with an artificial intelligence based emotion engine learned and evolved through deep learning. Since the authenticity assessment is performed by performing image signal processing on the product, it is possible to provide a product assessment service capable of accurately and quickly discriminating whether the product is a genuine product of the corresponding model in a more scientific and standard way.
또한, 감정 엔진은 딥러닝을 통해 진품 데이터뿐만이 아니라 가품 데이터에 대해서도 학습되어 진품 판별과 가품 판별을 모두 실행하므로, 보다 정확한 진품 판별을 수행할 수 있는 물품 감정 서비스를 제공할 수 있다.In addition, since the emotion engine learns not only the genuine data but also the fake data through deep learning, it performs both genuine product determination and false product determination, thereby providing a product appraisal service capable of performing more accurate authenticity determination.
또한, 감정 엔진은 물품의 보존 상태를 판별할 수 있는 상태 판별을 수행하고 상태 지수로 산출함으로써 물품의 보존 상태에 따른 가격 구별이 가능한 물품 감정 서비스를 제공할 수 있다.In addition, the appraisal engine may provide a product appraisal service capable of distinguishing prices according to the preservation status of the goods by performing state determination to determine the storage status of the goods and calculating the status index.
또한, 가격 결정 엔진은 빅데이터 기반 하에 상품 가격에 관한 대량의 정보를 수집하여 상품가를 결정할 뿐만 아니라, 감정 엔진이 산출한 상태 지수에 기초하여 물품의 감가도를 산출함으로써 물품의 보존 상태에 따라 차별이 가능한 감정가를 산출할 수 있다. 이에 따라 사용자는 감정을 의뢰한 물품의 보존 상태에 따라 보다 객관적이고 일관된 기준에 의해 정해지는 구체적인 감정가를 제공받을 수 있다.In addition, the pricing engine not only determines the product price by collecting a large amount of information on the price of the product based on big data, but also calculates the depreciation of the product based on the state index calculated by the appraisal engine to discriminate according to the storage status of the product. You can calculate this possible appraised value. Accordingly, the user may be provided with a specific appraised value determined by more objective and consistent criteria according to the preservation status of the item for which the appraisal is requested.
본 개시의 일 실시형태에 따른 인공지능 감정 시스템 및 인공지능 감정 방법은 모바일을 이용한 감정 서비스는 물론 온라인 상의 전당포, 중고거래, 담보 대출 등 다양한 상거래, 금융 서비스 등에 채용될 수 있다.The artificial intelligence appraisal system and the artificial intelligence appraisal method according to an embodiment of the present disclosure may be employed in various commerce and financial services such as online pawn shops, second-hand transactions, and mortgage loans, as well as appraisal services using mobile.
본 개시의 일 실시형태에 인공지능 감정 시스템 및 인공지능 감정 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 제어 로직 또는 프로그램으로 제작되어 컴퓨터 판독 가능한 기록 매체에 기록된 형태로도 구현될 수 있다. 컴퓨터 판독 가능한 기록 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 또한, 컴퓨터 판독 가능한 기록 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. In one embodiment of the present disclosure, the artificial intelligence emotion system and the artificial intelligence emotion method are produced as a control logic or program including instructions executable by a computer such as a program module executed by a computer and recorded in a computer-readable recording medium. It can also be implemented in a form. The computer-readable recording medium may be any available medium that can be accessed by a computer, and may include both volatile and nonvolatile media, and removable and non-removable media. Also, the computer-readable recording medium may include a computer storage medium. Computer storage media may include both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
본 개시는 상술한 실시형태로만 제한되지 않으며, 통상의 기술자에 의해 다양한 수정 및 변경이 가능하다. 또한, 상술한 각 실시형태에서 설명한 각각의 구성요소나 방법, 각각의 적용예나 그 변형예 등은 각각 필요에 따라 적절히 상호 결합되거나 또는 별개로 분리되어 구현될 수 있다. 따라서, 본 개시에 따른 권리범위는 이하의 특허청구범위에 기재된 기술적 구성 및 그 균등범위를 포함하는 모든 변형예와 다른 실시형태를 포함하도록 광의적으로 해석되어야 할 것이다.The present disclosure is not limited only to the above-described embodiments, and various modifications and changes are possible by a person skilled in the art. In addition, each component or method described in each of the above-described embodiments, each application example, or a modified example thereof may be appropriately combined with each other or separately and implemented separately as necessary. Accordingly, the scope of the rights according to the present disclosure should be interpreted broadly to include all modifications and other embodiments including the technical configurations and their equivalents described in the following claims.

Claims (10)

  1. 고객 단말과,With the customer terminal,
    고객 단말로부터 네트워크를 통해 전송된 영상 데이터에 기초하여 물품의 감정을 행하는 감정 서버를 포함하고,Including an appraisal server that performs appraisal of the article based on the video data transmitted from the customer terminal through the network,
    상기 감정 서버는 딥러닝에 의해 물품의 모델을 판별할 수 있도록 학습된 인공지능 기반의 감정 엔진을 포함하고,The emotion server includes an artificial intelligence-based emotion engine that has been trained to determine a model of the product by deep learning,
    상기 감정 엔진은 상기 물품의 하나 이상의 포인트 부위에 대한 영상 신호 처리를 수행하여 상기 물품이 상기 모델의 진품에 해당하는지를 판별하는 인공지능 감정 시스템.The emotion engine is an artificial intelligence emotion system that determines whether the product corresponds to a genuine product of the model by performing image signal processing on one or more point portions of the product.
  2. 제1 항에 있어서,The method of claim 1,
    상기 감정 엔진은 딥러닝에 의해 상기 모델의 가품에 관한 영상을 학습하고, 상기 물품의 하나 이상의 포인트 부위에 대한 영상 신호 처리를 수행하여 상기 물품이 상기 모델의 가품에 해당하는지를 판별하는 인공지능 감정 시스템.The emotion engine is an artificial intelligence emotion system that learns an image related to the fake product of the model by deep learning, and determines whether the product corresponds to the fake product of the model by performing image signal processing on one or more point portions of the product. .
  3. 제1 항에 있어서,The method of claim 1,
    상기 감정 서버의 딥러닝 학습을 위한 데이터 크롤링을 수행하기 위한 데이터 크롤러를 더 포함하는 인공지능 감정 시스템.Artificial intelligence emotion system further comprising a data crawler for performing data crawling for deep learning learning of the emotion server.
  4. 제1 항에 있어서,The method of claim 1,
    상기 감정 서버는 상기 영상 데이터로부터 상기 물품의 3차원 모델을 가상 현실 또는 증강 현실에 의해 구성하고, 이 3차원 모델로부터 상기 물품의 하나 이상의 포인트 부위를 추출하고,The emotion server constructs a three-dimensional model of the article from the image data using virtual reality or augmented reality, and extracts one or more point portions of the article from the three-dimensional model,
    상기 감정 엔진은 상기 3차원 모델로부터 추출된 상기 하나 이상의 포인트 부위에 대해 상기 영상 신호 처리를 수행하는 인공지능 감정 시스템.The emotion engine is an artificial intelligence emotion system that processes the image signal on the at least one point portion extracted from the 3D model.
  5. 제1 항에 있어서,The method of claim 1,
    상기 감정 엔진은 상기 물품의 하나 이상의 포인트 부위에 대한 교체, 변형, 오염, 변색 중 하나 이상의 상태 인자를 판정하기 위한 영상 신호 처리를 수행하고, 이에 기초하여 상기 물품의 보존 상태를 나타내기 위한 상태 지수를 결정하는 인공지능 감정 시스템.The emotion engine performs image signal processing for determining one or more status factors among replacement, deformation, contamination, and discoloration of one or more point portions of the article, and based on this, a status index for indicating the storage status of the article Artificial intelligence emotion system that determines the.
  6. 제3 항에 있어서,The method of claim 3,
    상기 감정 엔진은 상기 하나 이상의 상태 인자의 각각에 대해 가중 계수를 부여하고, 상기 상태 지수와 상기 가중 계수의 곱에 의해 물품의 감가도를 산출하고, 상기 감가도에 기초하여 상기 물품의 감정가를 결정하는 인공지능 감정 시스템.The appraisal engine assigns a weighting factor to each of the one or more status factors, calculates a depreciation of the article by product of the status index and the weighting factor, and determines the appraised value of the article based on the depreciation. Artificial intelligence emotion system.
  7. 제6 항에 있어서,The method of claim 6,
    상기 감정 서버는 상기 물품의 모델에 따라 물품의 ID를 등록하고, 상기 ID에 해당하는 물품의 가격 정보를 제공하는 가격 참조 사이트로부터 취득한 상품가를 기록하는 빅테이터 기반의 가격 데이터 베이스를 포함하는 인공지능 감정 시스템.The appraisal server registers the ID of the article according to the model of the article, and the artificial intelligence includes a big data-based price database that records the merchandise price obtained from a price reference site that provides price information of the article corresponding to the ID. Emotion system.
  8. 네트워크를 통해 온라인 전송된 물품의 영상 데이터에 기초하여 물품을 감정하는 감정 서버를 포함하고,Including an appraisal server for appraising the article based on the video data of the article transmitted online through the network,
    상기 감정 서버는,The emotion server,
    온라인 전송된 상기 영상 데이터에 기초하여 상기 물품의 모델을 결정하는 모델 감정과,A model assessment for determining a model of the article based on the image data transmitted online,
    상기 물품의 하나 이상의 포인트 부위에 대한 영상 신호 처리를 수행하여 상기 물품이 상기 모델의 진품에 해당하는지 여부를 판별하는 진품 감정과,A genuine appraisal for determining whether the item corresponds to the genuine item of the model by performing image signal processing on one or more point portions of the item;
    상기 물품의 하나 이상의 포인트 부위에 대한 교체, 변형, 오염 및 변색 중 하나 이상의 인자를 판정하기 위한 영상 신호 처리를 수행하고, 이에 기초하여 상기 물품의 상태 지수를 결정하는 상태 감정과,A state assessment of performing image signal processing for determining one or more factors among replacement, deformation, contamination, and discoloration of one or more point portions of the article, and determining a state index of the article based thereon,
    상기 상태 지수에 근거하여 상기 물품의 감정가를 결정하는 감정가 결정을 실행하는 인공지능 감정 방법.An artificial intelligence appraisal method for performing appraisal determination for determining appraisal value of the article based on the state index.
  9. 제8 항에 있어서,The method of claim 8,
    상기 감정 서버는 상기 물품의 모델에 따라 물품의 ID를 등록하고, 상기 ID에 해당하는 물품의 가격 정보를 제공하는 가격 참조 사이트로부터 취득한 상품가를 기록하는 빅테이터 기반의 가격 데이터 베이스를 포함하는 인공지능 감정 방법.The appraisal server registers the ID of the article according to the model of the article, and the artificial intelligence includes a big data-based price database that records the merchandise price obtained from a price reference site that provides price information of the article corresponding to the ID. Emotion method.
  10. 제8 항에 기재된 인공지능 감정 방법을 실행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a computer program for executing the artificial intelligence analysis method according to claim 8 is recorded.
PCT/KR2019/003518 2019-03-26 2019-03-26 Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium WO2020196945A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003518 WO2020196945A1 (en) 2019-03-26 2019-03-26 Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003518 WO2020196945A1 (en) 2019-03-26 2019-03-26 Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium

Publications (1)

Publication Number Publication Date
WO2020196945A1 true WO2020196945A1 (en) 2020-10-01

Family

ID=72608478

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003518 WO2020196945A1 (en) 2019-03-26 2019-03-26 Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium

Country Status (1)

Country Link
WO (1) WO2020196945A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816690B1 (en) * 2022-02-03 2023-11-14 Inmar Supply Chain Solutions, LLC Product exchange system including product condition based pricing in electronic marketplace and related methods

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110188712A1 (en) * 2010-02-04 2011-08-04 Electronics And Telecommunications Research Institute Method and apparatus for determining fake image
KR20160109404A (en) * 2015-03-11 2016-09-21 김수현 Method and apparatus for appraising item
KR20170099266A (en) * 2016-02-23 2017-08-31 주식회사 딥이메진 Single real picture authentication system based on the deep learning
KR101794332B1 (en) * 2017-05-10 2017-11-06 주식회사 우디 method for estimating genuine article
KR20180010419A (en) * 2016-07-21 2018-01-31 김대영 Method for servicing a loan of pawn based on estimation of merchandise

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110188712A1 (en) * 2010-02-04 2011-08-04 Electronics And Telecommunications Research Institute Method and apparatus for determining fake image
KR20160109404A (en) * 2015-03-11 2016-09-21 김수현 Method and apparatus for appraising item
KR20170099266A (en) * 2016-02-23 2017-08-31 주식회사 딥이메진 Single real picture authentication system based on the deep learning
KR20180010419A (en) * 2016-07-21 2018-01-31 김대영 Method for servicing a loan of pawn based on estimation of merchandise
KR101794332B1 (en) * 2017-05-10 2017-11-06 주식회사 우디 method for estimating genuine article

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816690B1 (en) * 2022-02-03 2023-11-14 Inmar Supply Chain Solutions, LLC Product exchange system including product condition based pricing in electronic marketplace and related methods

Similar Documents

Publication Publication Date Title
KR102358607B1 (en) Artificial intelligence appraisal system, artificial intelligence appraisal method and storage medium
JP7038543B2 (en) Information processing equipment, systems, control methods for information processing equipment, and programs
CN110033293B (en) Method, device and system for acquiring user information
WO2019171573A1 (en) Self-checkout system, purchased product management method, and purchased product management program
JP6069565B1 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND PROGRAM
JP6500374B2 (en) Image processing apparatus and image processing program
JP2019020986A (en) Human flow analysis method, human flow analysis device, and human flow analysis system
US20190244282A1 (en) Computerized exchange network
CN109978552B (en) Payment processing method, device and equipment based on identity card information
EP4075399A1 (en) Information processing system
CN106570703A (en) Commodity object identification information processing method and device
JP2022042014A (en) Control method, program, information processing device, and information processing system
CN109074498A (en) Visitor's tracking and system for the region POS
US11232511B1 (en) Computer vision based tracking of item utilization
JP4742083B2 (en) Information terminal and computer program
WO2020083283A1 (en) Payment method capable of automatically recognizing payment amount
WO2020196945A1 (en) Artificial intelligence appraisal system, artificial intelligence appraisal method, and recording medium
US20230102033A1 (en) Payment processing system, payment processing method, and recording medium
KR102274588B1 (en) Method and server for registering merchandise information
CN115935222A (en) Article checking method and system of intelligent container
JP2022036983A (en) Self-register system, purchased commodity management method and purchased commodity management program
JP2021039784A (en) Purchase product estimation device
JP2021105945A (en) Processor, processing method, and program
JP2019083058A (en) Image processor and image processing program
KR20160005180A (en) System of online show-window for several companies sharing the fashion medels

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921311

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19921311

Country of ref document: EP

Kind code of ref document: A1