WO2021166632A1 - 情報処理システム、情報処理装置、情報処理方法 - Google Patents

情報処理システム、情報処理装置、情報処理方法 Download PDF

Info

Publication number
WO2021166632A1
WO2021166632A1 PCT/JP2021/003757 JP2021003757W WO2021166632A1 WO 2021166632 A1 WO2021166632 A1 WO 2021166632A1 JP 2021003757 W JP2021003757 W JP 2021003757W WO 2021166632 A1 WO2021166632 A1 WO 2021166632A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
control unit
container
imaging
processing system
Prior art date
Application number
PCT/JP2021/003757
Other languages
English (en)
French (fr)
Inventor
暁艶 戴
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to EP21756408.7A priority Critical patent/EP4109428A4/en
Priority to US17/904,457 priority patent/US20230093572A1/en
Priority to CN202180015275.0A priority patent/CN115136216A/zh
Publication of WO2021166632A1 publication Critical patent/WO2021166632A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • G07G1/0054Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
    • G07G1/0063Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles with means for detecting the geometric dimensions of the article of which the code is read, such as its size or height, for the verification of the registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures

Definitions

  • the present invention relates to an information processing system, an information processing device, and an information processing method.
  • Patent Document 1 discloses an invention that tracks the time from when a product is taken out of a shopping cart to when it is placed in a storage bag and determines whether or not the product is properly scanned. Has been done.
  • the information processing system which is one aspect of the present disclosure, includes a first imaging unit and a control unit that performs processing on an image captured by the first imaging unit, and controls the above.
  • the unit includes performing processing based on the image captured in the first step of putting the object in the container and the image captured in the second step of taking the object out of the container.
  • the information processing apparatus which is one aspect of the present disclosure includes a control unit that performs processing on an image captured by the first imaging unit, and the control unit is imaged in the first stage of putting an object in a container. It includes performing processing based on the image captured in the second step of taking the image and the object out of the container.
  • the first imaging unit takes an image in the first step of putting the object in the container, and the first step of taking the object out of the container.
  • the imaging unit includes imaging, and processing is performed based on the image captured by the first imaging unit in the first step and the image captured by the first imaging unit in the second step. ..
  • FIG. 1 is a functional block diagram showing a schematic configuration of an information processing system according to the present disclosure.
  • FIG. 2 is an image diagram relating to an imaging method and the like in the first stage.
  • FIG. 3 is an image diagram relating to an imaging method and the like in the second stage.
  • FIG. 4A is a first flowchart of an information processing method of the information processing system according to the first embodiment of the present disclosure.
  • FIG. 4B is a second flowchart of an information processing method of the information processing system according to the first embodiment of the present disclosure.
  • FIG. 5 is an image diagram relating to a modified example of the imaging method and the like in the first stage.
  • FIG. 6A is a first flowchart of an information processing method of the information processing system according to the second embodiment of the present disclosure.
  • FIG. 6B is a second flowchart of an information processing method of the information processing system according to the second embodiment of the present disclosure.
  • FIG. 7A is a first flowchart of an information processing method of the information processing system according to the third embodiment of the present disclosure.
  • FIG. 7B is a second flowchart of an information processing method of the information processing system according to the third embodiment of the present disclosure.
  • FIG. 8 is an image diagram of a modified example of the first list used in the information processing method of the information processing system according to the first to third embodiments of the present disclosure.
  • the information processing system includes a first imaging unit 1 and a control unit 2. Further, the information processing system may be configured to include the notification unit 3 and the sensor 4.
  • the solid arrows connecting each functional block indicate the flow of control signals or data to be communicated.
  • the communication indicated by the arrow may be either wired or wireless, or may be a combination of both.
  • the first imaging unit 1 captures an image of an object that is taken in and out of the container 11 that temporarily stores the object.
  • the first image pickup unit 1 includes an image pickup optical system and an image pickup element in order to take an image of an object and generate an image.
  • the imaging optical system includes, for example, one or more lenses and optical members such as an aperture.
  • the lens may be any lens regardless of the focal length, and may be, for example, a general lens, a wide-angle lens including a fisheye lens, or a zoom lens having a variable focal length.
  • the imaging optical system forms a subject image on the light receiving surface of the image sensor.
  • the image sensor includes, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. The image sensor captures a subject image formed on a light receiving surface to generate an image.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal-Oxide Semiconductor
  • the first imaging unit 1 may continuously capture a still image at an arbitrary frame, or may capture a still image discontinuously at a specific timing. Further, the first imaging unit 1 may capture a moving image.
  • the first imaging unit 1 may be provided in any form as long as it can image an object to be taken in and out of the container 11 including the shopping cart or the shopping cart.
  • a container 11 for example, in the form of a mobile electronic terminal including a smartphone or a business terminal, or in a product shelf, ceiling, cash register, etc. in a retail store. May be good.
  • the container 11 when the container 11 is provided, it is easy to take an image of an object that is taken in and out of the container 11.
  • the container 11 may include a holder for holding the portable electronic terminal. In the following description, it is assumed that the container 11 is provided (also shown in FIG. 1 as being provided in the container 11).
  • the image captured by the first imaging unit 1 is transmitted to the control unit 2 via the communication unit 12 provided together with the first imaging unit 1.
  • Communication unit 12 (hereinafter, communication unit 12 of the container), 22 (communication unit 22 of the control unit), 31 (notification unit) including those provided in the container 11, the control unit 2, the notification unit 3 and the sensor 4 described later.
  • the communication unit 31) and 41 (sensor communication unit 41) are configured to include either or both of a wired / wireless module.
  • the communication units 12, 22, 31 and 41 do not have to have the same configuration, and may have different configurations. Communication units 12, 22, 31 and 41 transmit and receive control signals or data.
  • the control unit 2 performs processing based on the image captured by the first image pickup unit 1.
  • the control unit 2 includes a calculation unit 21, a communication unit 22 of the control unit, and a storage unit 23 as internal modules. Further, the control unit 2 physically includes a processor including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an FPGA (Field-Programmable Gate Array), and the like as the calculation unit 21, and a storage unit 23 in addition to the processor.
  • the configuration includes, for example, any one or more of a semiconductor memory, a magnetic memory, an optical memory, and the like.
  • the semiconductor memory may include a volatile memory and a non-volatile memory.
  • the magnetic memory may include, for example, a hard disk, a magnetic tape, or the like.
  • the optical memory may include, for example, a CD (Compact Disc), a DVD (Digital Paris Disc), a BD (Blu-ray (registered trademark) Disc), and the like.
  • the calculation unit 21 performs, for example, control related to the imaging of the first imaging unit 1 and object detection / recognition related to the image captured by the first imaging unit 1 as processing based on the image captured by the first imaging unit 1. You may perform processing, data processing related to the recognition result, control related to the notification of the notification unit 3 related to the data processing result, and the like.
  • the data processing related to the recognition result includes, for example, status management of the recognition result. Status management includes, for example, adding or deleting the recognition result of an object to the list regarding the addition or deletion of the object in the container 11.
  • the calculation unit 21 may output the recognition result and the attribute information of the recognition result, including, for example, the object name (trade name) of the recognized object, the price, the moving direction of the object, and the reliability.
  • the moving direction of the object includes, for example, binary information as to whether the object is put into the container 11 or taken out of the container 11.
  • the reliability is a numerical value of how reliable the recognition result is, and it can be said that the higher the reliability, the higher the accuracy of the recognition result.
  • the communication unit 22 of the control unit may transmit and receive the following control signals or data, for example. 1.
  • the image captured by the first imaging unit 1 is received from the communication unit 12 of the container. 2.
  • the signal acquired by the sensor 4 is received from the communication unit 41 of the sensor. 3.
  • the control signal of the first imaging unit 1 is transmitted to the communication unit 12 of the container.
  • the control signal of the notification unit 3 is transmitted to the communication unit 31 of the notification unit.
  • the storage unit 23 is based on the recognition result and the recognition result obtained by the object detection / recognition process performed by the calculation unit 21 based on the image captured by the first imaging unit 1 and the image captured by the first imaging unit 1. At least one or more of the processing result of the processing performed, the signal acquired from the sensor 4, the program related to the processing in the information processing system, and the like may be stored.
  • control unit 2 does not necessarily have to be on-premises, and processing may be performed in the cloud on the Web service. Further, the control unit 2 may divide the function such that the processing is performed on-premises or in the cloud for each module. For example, the calculation unit 21 may perform processing in the cloud. In addition, the storage unit 23 may perform processing on-premises.
  • the notification unit 3 performs notification based on a control signal or the like from the control unit 2 via the communication unit 31 of the notification unit.
  • the content to be notified may include, for example, a recognition result obtained by the control unit 2 or a process based on the recognition result, and the result obtained by the process.
  • the notification unit 3 includes, for example, one that appeals to the sense of sight, hearing, or touch as a means for performing the above-mentioned notification. Therefore, the notification unit 3 may be configured to include, for example, a display, a lamp, a speaker, a motor, and the like. Further, the notification unit 3 may include, for example, an input unit for making corrections or performing a definite input regarding the notified recognition result or the like.
  • the input unit may include, for example, a mouse, a keyboard, a microphone, and a touch sensor, and the touch sensor may be provided on the display as a touch display.
  • the sensor 4 monitors the movement of the purchaser or the object, and transmits the detection data obtained by monitoring to the control unit 2.
  • the sensor 4 includes, for example, a weight sensor, an infrared sensor, an image pickup optical system, and a second image pickup unit including an image pickup element. Further, the control unit 2 may perform the arithmetic processing related to these control or detection data, or the sensor 4 may separately include a sensor 4 corresponding to the control unit 2 and perform this.
  • the sensor 4 When the sensor 4 is provided in the container 11, for example, the sensor 4 may be provided as a weight sensor at the bottom of the container 11. When the weight detected by the weight sensor changes, it is assumed that an object is added or deleted in the container 11, and the control unit 2 or the weight sensor performs imaging by the first imaging unit 1 based on the detection result of the weight sensor. Trigger signal may be generated.
  • the senor 4 when the sensor 4 is provided outside the container 11, it may be provided on a product shelf or a ceiling inside a retail store, for example.
  • a weight sensor when a weight sensor is provided on the product shelf as the sensor 4, and the weight detected by the weight sensor changes, the weight sensor may generate a trigger signal assuming that an object is added or deleted in the container 11.
  • a second imaging unit is provided on the ceiling as a sensor 4, and a specific movement (for example, a purchaser puts an object on a product shelf) to add or remove an object from the image captured by the second imaging unit to the container 11.
  • the imaging unit may generate a trigger signal.
  • FIG. 2 is an image diagram relating to an imaging method and the like in the first stage of putting an object into the container 11.
  • the first step here includes a step of selecting a product (object) that the purchaser intends to purchase. That is, the first stage can be rephrased as the pre-recognition stage, which is before the purchaser confirms the product to be purchased (confirmation of the product recognition result) in the specific area including the checkout counter for accounting processing.
  • control unit 2 can acquire an image in which the object A (object) is put into the container 11 by transmitting the image captured by the first imaging unit 1 to the control unit 2. ..
  • control unit 2 performs object detection / recognition processing based on the image and acquires the recognition result.
  • FIG. 3 is an image diagram relating to an imaging method and the like in the second stage of taking the object out of the container 11.
  • the second step here includes the step of accounting for the goods that the purchaser intends to purchase.
  • the second stage can be rephrased as the recognition confirmation stage in which the product to be purchased in a specific area is confirmed.
  • the first imaging unit 1 images a marker provided in a specific area and transmits the captured image to the control unit 2. do.
  • the control unit 2 shifts from the first stage to the second stage. That is, it can be said that the first stage is before the control unit 2 recognizes the marker provided in the specific area, and the second stage is after the marker is recognized.
  • the weight is increased by providing a weight sensor in another means, for example, a specific area, and placing the container 11 on the weight sensor. It may be based on the weight sensor detecting the change, or it may be based on the fact that a sensor is separately provided in the container 11 and the sensor separately detects a specific signal or an object including a marker provided in a specific area. You may.
  • the first imaging unit 1 transmits the image of the captured object A to the control unit 2.
  • control unit 2 performs object detection / recognition processing based on the image and acquires the recognition result.
  • control unit 2 performs final determination processing of the recognition result based on the images captured in each of the first step of putting the object in the container 11 and the second step of taking the object out of the container 11.
  • control unit 2 may transmit a control signal so as to notify the notification unit 3 of the recognition result of the final confirmation process. Further, even if the control unit 2 transmits a control signal so as to notify the notification unit 3 of the recognition result of the object imaged by the first imaging unit 1 in the second stage before the final determination process of the recognition result. good. For example, according to FIG. 3, when the respective recognition results acquired based on the images of the object A captured in the first step and the second step match the "apple", the notification unit 3 is notified as "apple”. Is displayed.
  • the first imaging unit 1 continuously images at an arbitrary frame rate, and the control unit 2 is imaged by the first imaging unit 1. Object detection and object recognition are performed based on the obtained image. Then, the first to fourth lists are used as the method of managing the status of the recognition result, and the control unit 2 performs the final determination process of the recognition result based on these lists.
  • control unit 2 adds the object determined to be the object put into the container 11 as the purchase candidate product to the first list for storing the recognition result of the purchase candidate product.
  • control unit 2 adds the product determined to have been taken out from the container 11 as a purchased product to the second list for storing the recognition result of the purchased product.
  • the control unit 2 directly sets the recognition result of the object included in the second list as the final finalized purchase product. , Add to the third list that stores the recognition result of the final confirmed purchased product, and confirm the recognition result of the object. If the first list and the second list do not exactly match, the recognition result of the matched object is added to the third list, and the recognition result of the non-matching object, that is, the recognition result of the final recognition failure product. To each of the fourth lists that store.
  • the control unit 2 may perform the settlement process based on the recognition result stored in the third list, and the recognition result and recognition of the object whose recognition has failed based on the recognition result stored in the fourth list.
  • Candidate objects may be displayed in the notification unit 3 in a list format, and the customer may be suggested to make corrections using the input unit provided in the notification unit 3.
  • the processing based on the third list or the fourth list may be the same in the second and subsequent embodiments.
  • ⁇ S001> The first imaging unit 1 continuously starts imaging at an arbitrary frame rate. After that, the process proceeds to ⁇ S002>.
  • ⁇ S002> The control unit 2 determines that it is the first stage. After that, the process proceeds to ⁇ S003>.
  • ⁇ S003> The control unit 2 determines whether to shift from the first stage to the second stage. As the determination method, for example, the methods described in paragraphs [0035] to [0037] may be used. When the control unit 2 determines that the transition from the first stage to the second stage should be performed, the control unit 2 shifts from the first stage to the second stage. Then, the process proceeds to ⁇ S008>. If the control unit 2 does not determine that the transition from the first stage to the second stage should be performed, the process proceeds to ⁇ S004>.
  • ⁇ S004> The control unit 2 determines whether the object is detected based on the image captured by the first image pickup unit 1. When the control unit 2 detects an object, the process proceeds to ⁇ S005>. If the control unit 2 does not detect the object, the process returns to ⁇ S003>.
  • a known object detection method may be used.
  • Known object detection methods include, for example, a method using segmentation, semantic segmentation and / or a bounding box, or machine learning including pattern matching or deep learning in combination with object recognition described later. ..
  • ⁇ S005> The control unit 2 recognizes an object based on the object detection result. After that, the process proceeds to ⁇ S006>.
  • object recognition method a well-known object recognition method may be used.
  • object recognition techniques include, for example, machine learning including pattern matching or deep learning.
  • the control unit 2 determines whether the recognition result should be added to the first list as a purchase candidate product. Criteria for determining that the object should be added include, for example, that the reliability of the recognition result is equal to or higher than a predetermined threshold value, and that it is determined that the movement of the object is to be thrown into the container 11.
  • the process proceeds to ⁇ S007>. If the control unit 2 does not determine that the recognition result should be added to the first list as a purchase candidate product, the recognition result is discarded and the process returns to ⁇ S003>.
  • control unit 2 adds the recognition result to the first list. After that, the process returns to ⁇ S003>.
  • ⁇ S008> The control unit 2 determines whether the object is detected based on the image captured by the first image pickup unit 1. When the control unit 2 detects an object, the process proceeds to ⁇ S009>. If the control unit 2 does not detect the object, the process proceeds to ⁇ S011>.
  • control unit 2 recognizes an object based on the object detection result. Then, the process proceeds to ⁇ S010>.
  • ⁇ S011> The control unit 2 determines whether the second stage should be completed. As a determination method, for example, there is a case where an object is not detected for a certain period of time. If the control unit 2 determines that the second stage is completed, the process proceeds to ⁇ S012>. If the control unit 2 does not determine that the second stage is completed, the process returns to ⁇ S008>.
  • ⁇ S012> The control unit 2 determines whether the recognition results included in the first list and the second list completely match. If the recognition results included in the first list and the second list are exactly the same, the process proceeds to ⁇ S013>. If the recognition results included in the first list and the second list do not completely match, the process proceeds to ⁇ S014>.
  • control unit 2 copies the recognition result included in the second list and adds it to the third list. After that, the information processing system ends the process.
  • the control unit 2 copies the recognition result included in the second list and adds it to the third list. Then, regarding the recognition result of the object that does not match in the first list and the second list, the recognition result of the object that does not match is added to the fourth list. After that, the control unit 2 performs processing based on the third list and the fourth list, and then ends the entire processing.
  • the imaging timing of the first imaging unit 1 is estimated by predicting the timing when the purchaser puts the object in the container 11. Then, the first imaging unit 1 performs imaging based on the estimated imaging timing. By this method, the first imaging unit 1 does not need to continuously perform imaging.
  • FIG. 5 is an image diagram relating to an imaging method and the like in the first stage in the second embodiment.
  • the sensor 4 is added as a new configuration requirement as compared with FIG. 2 and the first embodiment.
  • the sensor 4 here is provided on the ceiling inside the retail store, but the actual pattern is not limited to this.
  • the sensor 4 monitors the container 11 and / or the customer holding the container 11 and transmits the acquired detection data to the control unit 2.
  • the control unit 2 determines whether the object A is put into the container 11 based on the detection data acquired by the sensor 4. As a determination method, for example, the methods described in paragraphs [0027] to [0030] may be used.
  • control unit 2 determines that the object A is to be put into the container 11 based on the detection data acquired by the sensor 4, the control unit 2 transmits a trigger signal for performing imaging to the first imaging unit 1.
  • the first imaging unit 1 When the first imaging unit 1 receives a trigger signal from the control unit 2, it performs imaging. After that, the first imaging unit 1 transmits the captured image to the control unit 2.
  • FIG. 5 is an explanation of the imaging method in the first stage, a similar imaging method may be used in the second stage as well.
  • ⁇ S102> The control unit 2 predicts the timing at which the purchaser puts the object into the container 11 based on the detection data acquired by the sensor 4. Then, the process proceeds to ⁇ S103>.
  • the control unit 2 determines whether it is the timing for the first imaging unit 1 to take an image based on the prediction result of the timing when the purchaser puts the object into the container 11. When the first imaging unit 1 determines that it is the timing for imaging, the control unit 2 transmits a trigger signal to the first imaging unit 1. Then, the process proceeds to ⁇ S104>. If it is determined that it is not the timing for the first imaging unit 1 to perform imaging, the process returns to ⁇ S102>.
  • ⁇ S104> The first imaging unit 1 images an object based on a trigger signal from the control unit 2. Then, the process proceeds to ⁇ S105>.
  • ⁇ S105> This process corresponds to ⁇ S005> of the first embodiment. After executing this process, the process proceeds to ⁇ S106>.
  • ⁇ S106> This process corresponds to ⁇ S006> of the first embodiment.
  • the control unit 2 determines that the recognition result should be added to the first list as a purchase candidate product, the process proceeds to ⁇ S107>. If the control unit 2 does not determine that the recognition result should be added to the first list as a purchase candidate product, the recognition result is discarded and the process returns to ⁇ S102>.
  • ⁇ S108> This process corresponds to ⁇ S003> of the first embodiment.
  • the control unit 2 determines that the transition from the first stage to the second stage should be performed, the control unit 2 shifts from the first stage to the second stage. Then, the process proceeds to ⁇ S109>. If the control unit 2 does not determine that the transition from the first stage to the second stage should be performed, the process returns to ⁇ S102>.
  • the control unit 2 predicts the timing at which the purchaser takes out the object from the container 11 based on the detection data acquired by the sensor 4. Then, the process proceeds to ⁇ S110>.
  • ⁇ S110> This process corresponds to ⁇ S103>.
  • the control unit 2 transmits a trigger signal to the first imaging unit 1. Then, the process proceeds to ⁇ S111>. If it is determined that it is not the timing for the first imaging unit 1 to perform imaging, the process returns to ⁇ S109>.
  • ⁇ S114> This process corresponds to ⁇ S011> of the first embodiment. If the control unit 2 determines that the second stage is completed, the process proceeds to ⁇ S115>. If the control unit 2 does not determine that the second stage is completed, the process returns to ⁇ S109>.
  • ⁇ S115> This process corresponds to ⁇ S012> of the first embodiment. If the recognition results included in the first list and the second list are exactly the same, the process proceeds to ⁇ S116>. If the recognition results included in the first list and the second list do not completely match, the process proceeds to ⁇ S117>.
  • ⁇ S116> and ⁇ S117> This process corresponds to ⁇ S013> and ⁇ S014>, respectively.
  • the control unit 2 executes each process, performs a process based on the third list and the fourth list, and then ends the entire process.
  • the information processing method of the information processing system according to the third embodiment of the present disclosure will be described.
  • the recognition rate in object recognition based on the image captured by the first imaging unit 1 in the first step is a predetermined condition (for example).
  • the recognition rate meets an arbitrary threshold such as 90% or more
  • it is directly added to the third list.
  • the control unit 2 confirms that all the objects have been added to the third list, the object recognition based on the image captured in the second stage is not performed. It is expected that this method will reduce the amount of data processed by the control unit 2.
  • ⁇ S206> The control unit 2 determines whether the recognition rate obtained by object recognition based on the image captured by the first image pickup unit 1 in the first step satisfies a predetermined condition. If it is determined that the recognition result satisfies the predetermined condition, the process proceeds to ⁇ S207>. If it is not determined that the recognition result satisfies the predetermined condition, the process proceeds to ⁇ S208>.
  • control unit 2 adds the recognition result to the first list. Then, the process proceeds to ⁇ S209>.
  • ⁇ S209> This process corresponds to ⁇ S108> of the second embodiment.
  • the control unit 2 determines that the transition from the first stage to the second stage should be performed, the control unit 2 shifts from the first stage to the second stage. Then, the process proceeds to ⁇ S210>. If the control unit 2 does not determine that the transition from the first stage to the second stage should be performed, the process returns to ⁇ S202>.
  • the control unit 2 determines whether the first list is an empty value, that is, whether all the recognized objects satisfy the predetermined conditions. If it is determined that the first list is empty, the information processing system ends the process as it is. If it is not determined that the first list is empty, the process proceeds to ⁇ S211>.
  • ⁇ S212> This process corresponds to ⁇ S110> of the second embodiment.
  • the control unit 2 transmits a trigger signal to the first imaging unit 1. Then, the process proceeds to ⁇ S213>. If it is determined that it is not the timing for the first imaging unit 1 to perform imaging, the process returns to ⁇ S211>.
  • ⁇ S216> This process corresponds to ⁇ S114> of the second embodiment. If the control unit 2 determines that the second stage is completed, the process proceeds to ⁇ S217>. If the control unit 2 does not determine that the second stage is completed, the process returns to ⁇ S211>.
  • ⁇ S217> The control unit 2 determines whether the recognition result included in the second list and the combination of the recognition results included in the first list and the third list completely match. If the combination of the recognition results included in the first list and the third list is an exact match, the process proceeds to ⁇ S218>. If the combination of the recognition results included in the first list and the third list does not completely match, the process proceeds to ⁇ S219>.
  • control unit 2 adds the recognition result of the object to the third list or the fourth list, but it is described in paragraphs [0025] and [0026], for example.
  • the control unit 2 sends a control signal to the notification unit 3 based on the third list or the fourth list. You may send it.
  • the notification unit 3 displays the recognition result of the object whose recognition has failed and the recognition candidate object based on the fourth list in a list format, and suggests that the customer corrects the object using the input unit provided in the notification unit 3. You may.
  • the notification unit 3 may notify the customer, the employee of the retail store, or the like of an error warning when the recognition result of the object is included in the fourth list.
  • the notification unit 3 may display the total amount based on the third list and the fourth list reflecting the above-mentioned correction by the customer, and suggest the customer to perform accounting treatment.
  • the first list has already been made based on the moving direction of the object included in the recognition result of the first imaging unit 1 in the first step.
  • the control unit 2 may delete the recognition result of the object taken out of the container 11 from the first list.
  • the collation with the first list is performed after the generation of the second list is completed. At the same time as adding the recognition result, it may be collated whether the added recognition result is included in the first list.
  • the control unit 2 performs processing based on the first to fourth lists, but as shown in FIG. 8, for example.
  • the "first list” corresponding to the first list represented by the binary value of Yes / No (hereinafter Y / N).
  • the recognition result added in the first stage is given Y to the recognition result in the first imaging
  • the recognition result added in the second stage is given Y to the recognition result in the second imaging. You can.
  • Y is given to the recognition result in the first imaging and the recognition existence in the second imaging to the recognition result of the object recognized in both the first stage and the second stage, and the object is recognized in the first stage.
  • the recognition result of the object that was not recognized in the second stage was given Y for the recognition in the first imaging and N for the recognition in the second imaging, and was not recognized in the first stage.
  • N is given to the recognition result in the first imaging and Y is given to the recognition result in the second imaging to the recognition result of the recognized object.
  • the apple having the ID number 1 is given Y for both the first imaged and the second imaged, and the control unit 2 finally confirms the apple corresponding to the third list. It may be processed as a purchased product.
  • N is assigned to either one of the recognition in the first imaging and the recognition in the second imaging, and the control unit 2 assigns none and mandarin oranges. It may be treated as a final recognition failure product corresponding to the fourth list.
  • the control unit 2 temporarily stores an object recognition result in the first stage whose recognition rate does not satisfy a predetermined condition in the storage unit 23.
  • the control unit 2 may urge the customer via the notification unit 3 to image only those having a low recognition rate by the first imaging unit 1.
  • the notification unit 3 includes a display
  • a display having a low recognition rate may be extracted from the captured image and displayed. That is, if the recognition rate of the object recognition satisfies the predetermined condition in the first stage, the process of finalizing the recognition result is performed as it is, and the recognition rate of the object recognition does not satisfy the predetermined condition in the first stage.
  • the object may be processed based on the image captured by the first imaging unit 1 in the second stage, and the control unit 2 may execute the processing.
  • the customer uses the container 11, but the customer does not necessarily use the container 11, for example, the customer's own hand. It is also expected to be held at.
  • the information processing system may be provided, for example, on a product shelf, a ceiling, or the like in a retail store instead of providing the first imaging unit 1 in the container 11.
  • the first imaging unit 1 constantly tracks customers.
  • the first list may always be associated with the customer.
  • the first imaging unit 1 that images an object in the first stage and the second stage is the same.
  • the first image pickup unit 1 in the first stage is provided in the container 11, and the first image pickup unit 1 in the second stage is provided in the cash register terminal.
  • different ones may be used.
  • the solutions of the present disclosure have been described as an information processing system, an information processing device, and an information processing method, but the present disclosure can also be realized as an aspect including these. , These can be realized as a program substantially corresponding to these, and as a storage medium on which the program is recorded, and it should be understood that these are also included in the scope of the present disclosure.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Studio Devices (AREA)

Abstract

第1の撮像部(1)と、前記第1の撮像部(1)によって撮像された画像に関する処理を行う制御部(2)とを備え、前記制御部(2)は、物体を容器(11)に入れる第1の段階において撮像された画像及び前記物体を前記容器(11)外に出す第2の段階おいて撮像された画像に基づいて処理を行う、情報処理システム。

Description

情報処理システム、情報処理装置、情報処理方法 関連出願の相互参照
 本出願は、2020年2月18日に日本国に特許出願された特願2020-25605の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本発明は、情報処理システム、情報処理装置及び情報処理方法に関するものである。
 小売業での購買商品の精算において、例えば特許文献1では、商品が買い物かごから取り出されてから収納袋に入れられるまでを追跡し、商品が適切にスキャンされたか否かを判断する発明が開示されている。
特開2011-54038
 上述した目的を達成するため、本開示の一側面である情報処理システムは、第1の撮像部と、前記第1の撮像部によって撮像された画像に関する処理を行う制御部とを備え、前記制御部は、物体を容器に入れる第1の段階において撮像された画像及び前記物体を前記容器外に出す第2の段階において撮像された画像に基づいて処理を行うことを含む。
 また、本開示の一側面である情報処理装置は、第1の撮像部によって撮像された画像に関する処理を行う制御部を備え、前記制御部は、物体を容器に入れる第1の段階において撮像された画像及び前記物体を前記容器外に出す第2の段階において撮像された画像に基づいて処理を行うことを含む。
 また、本開示の一側面である情報処理方法は、物体を容器に入れる第1の段階において第1の撮像部が撮像を行い、前記物体を前記容器外に出す第2の段階において前記第1の撮像部が撮像を行い、前記第1の段階において前記第1の撮像部が撮像した画像及び前記第2の段階において前記第1の撮像部が撮像した画像に基づいて処理を行うことを含む。
図1は、本開示に係る情報処理システムの概略構成を示す機能ブロック図である。 図2は、第1の段階における撮像方法等に関するイメージ図である。 図3は、第2の段階における撮像方法等に関するイメージ図である。 図4Aは、本開示の第1の実施形態に係る情報処理システムの情報処理方法に関する第1のフローチャート図である。 図4Bは、本開示の第1の実施形態に係る情報処理システムの情報処理方法に関する第2のフローチャート図である。 図5は、第1の段階における撮像方法等の変形例に関するイメージ図である。 図6Aは、本開示の第2の実施形態に係る情報処理システムの情報処理方法に関する第1のフローチャート図である。 図6Bは、本開示の第2の実施形態に係る情報処理システムの情報処理方法に関する第2のフローチャート図である。 図7Aは、本開示の第3の実施形態に係る情報処理システムの情報処理方法に関する第1のフローチャート図である。 図7Bは、本開示の第3の実施形態に係る情報処理システムの情報処理方法に関する第2のフローチャート図である。 図8は、本開示の第1乃至第3の実施形態に係る情報処理システムの情報処理方法で用いる第1のリストの変形例のイメージ図である。
 以下、本開示に係る情報処理システムの実施形態について、図面を参照して説明する。
 図1に示すように、本開示に係る情報処理システムは、第1の撮像部1、制御部2を含んで構成される。また、情報処理システムは、報知部3、センサ4を含んで構成されてよい。
 以後の図において、各機能ブロックを結ぶ実線の矢印は、制御信号または通信されるデータの流れを示す。矢印が示す通信は、有線/無線のどちらであってもよく、また、両者の組み合わせであってもよい。
 第1の撮像部1は、物体を一時的に保管する容器11に出し入れする物体の撮像を行う。
 物体の撮像を行って画像を生成するため、第1の撮像部1は、撮像光学系及び撮像素子を含んで構成される。撮像光学系は、例えば1個以上のレンズ及び絞りなどの光学部材を含む。レンズは、焦点距離に囚われずどのようなものであってもよく、例えば一般的なレンズ、魚眼レンズを含む広角レンズまたは焦点距離が可変であるズームレンズであってもよい。撮像光学系は、被写体像を撮像素子の受光面に結像させる。撮像素子は、例えばCCD(Charge Coupled Device)イメージセンサまたはCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどを含む。撮像素子は、受光面上に結像された被写体像を撮像して画像を生成する。
 なお、第1の撮像部1は、任意のフレームにて連続的に静止画を撮像してもよいし、特定のタイミングにて静止画を非連続的に撮像してもよい。また、第1の撮像部1は動画を撮像してもよい。
 また、第1の撮像部1は、買い物かごまたはショッピングカートを含む容器11に出し入れする物体の撮像ができるのであれば、どのような形態にて備えられてもよい。例えば容器11に備えられてもよいし、例えばスマートフォンや業務用端末を含む携帯電子端末等の形で備えられてもよいし、小売店の店内の商品棚や天井、キャッシュレジスタ等に備えられてもよい。特に、容器11に備えられる場合、容器11に出し入れする物体の撮像が容易である。また、第1の撮像部1が携帯電子端末に備えられる場合、容器11は携帯電子端末を保持するホルダーを備えてもよい。なお、以下の説明では、容器11に備えられるものとする(図1においても容器11に備えられているものとして示す)。
 また、第1の撮像部1が撮像した画像は、第1の撮像部1と併せて備えられる通信部12を経由して制御部2に送信される。
 容器11、後述する制御部2、報知部3及びセンサ4に備えられるものを含む、通信部12(以下、容器の通信部12),22(制御部の通信部22),31(報知部の通信部31)及び41(センサの通信部41)は、有線/無線モジュールのどちらか、または両方を含んで構成される。通信部12,22,31及び41はいずれも同一の構成である必要はなく、それぞれ異なる構成であってよい。通信部12,22,31及び41は、制御信号またはデータの送受信を行う。
 制御部2は、第1の撮像部1が撮像した画像に基づく処理等を行う。
 制御部2は、内部モジュールとして、演算部21、制御部の通信部22、保存部23を含んで構成される。また、制御部2は、物理的に、演算部21として、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)またはFPGA(Field-Programmable Gate Array)などを含むプロセッサと、それに加えて保存部23として、例えば半導体メモリ、磁気メモリ、及び光メモリ等の何れか一つ以上を含んで構成される。半導体メモリは、揮発性メモリ及び不揮発性メモリを含んでよい。磁気メモリは、例えばハードディスク及び磁気テープ等を含んでよい。光メモリは、例えばCD(Compact Disc)、DVD(Digital Versatile Disc)、及びBD(Blu-ray(登録商標)Disc)等を含んで構成されてもよい。
 演算部21は、第1の撮像部1が撮像した画像に基づく処理等として、例えば第1の撮像部1の撮像に係る制御、第1の撮像部1が撮像した画像に係る物体検出/認識処理、認識結果に係るデータ処理およびデータ処理結果に係る報知部3の報知に係る制御等を行ってよい。認識結果に係るデータ処理は、例えば認識結果のステータス管理を含む。ステータス管理は、例えば容器11内に物体が追加または削除されたことに関するリストへの物体の認識結果の追加または削除を行うことを含む。
 演算部21は、認識結果及び認識結果の属性情報として、例えば認識した物体の物体名(商品名)、値段、物体の移動方向、信頼度を含んで出力してよい。物体の移動方向とは、例えば物体が容器11内に投入されたか/容器11外に取り出されたかの2値情報であることを含む。例えば信頼度とは、認識結果がどれほど信頼できるものかを数値化したものであり、高い信頼度を得るほど認識結果の確度が高いといえる。
 制御部の通信部22は、例えば次のような制御信号またはデータの送受信を行ってよい。1.容器の通信部12から第1の撮像部1が撮像した画像を受信する。2.センサの通信部41からセンサ4が取得した信号を受信する。3.演算部21と各種制御信号またはデータの送受信をする。4.容器の通信部12へ第1の撮像部1の制御信号を送信する。5.報知部の通信部31へ報知部3の制御信号を送信する。
 保存部23は、第1の撮像部1が撮像した画像、第1の撮像部1が撮像した画像に基づいて演算部21が行う物体検出/認識処理によって得られた認識結果、認識結果に基づいて行った処理の処理結果、センサ4から取得した信号または情報処理システムでの処理に関するプログラム等の少なくとも何れか1つ以上を保存してよい。
 なお、制御部2は必ずしもオンプレミスである必要はなく、Webサービス上のクラウドにて処理を行ってよい。また、制御部2は、モジュール単位でオンプレミスまたはクラウドで処理を行うといったように機能の分割をしてもよい。例えば演算部21はクラウドにて処理を行ってもよい。また、保存部23はオンプレミスにて処理を行ってもよい。
 報知部3は、報知部の通信部31を経由して、制御部2からの制御信号等に基づいて報知を行う。報知する内容は、例えば制御部2が得た認識結果または認識結果に基づいて処理を行い、その処理によって得られた結果を含んでよい。
 報知部3は、上述した報知を行うための手段として、例えば視覚、聴覚または触覚に訴えるものを含む。そのため、報知部3は例えばディスプレイ、ランプ、スピーカ、モータ等を含んで構成されてもよい。また、報知部3は、例えば報知された認識結果等に関して修正を行ったり、確定入力を行ったりするための入力部を備えてよい。入力部とは、例えばマウス、キーボード、マイク、タッチセンサを含んでよく、タッチセンサについてはタッチディスプレイとしてディスプレイに備えられてもよい。
 センサ4は、購買者または物体の動きを監視し、監視して得られた検知データを制御部2に送信する。
 センサ4は、例えば重量センサ、赤外線センサ、撮像光学系及び撮像素子を含んで構成される第2の撮像部を含む。また、これらの制御または検知データに関する演算処理については、制御部2が行ってもよいし、センサ4が別途制御部2に相当するものを備え、これを行ってもよい。
 センサ4は、容器11に備えられる場合、例えば容器11の底に重量センサとして備えられてもよい。重量センサが検知する重量が変化した場合、容器11内に物体が追加または削除されたとして、重量センサの検知結果に基づいて制御部2または重量センサは第1の撮像部1が撮像を行うためのトリガ信号を生成してもよい。
 また、センサ4は、容器11外に備えられる場合、例えば小売店の店内の商品棚や天井に備えられてもよい。例えばセンサ4として重量センサが商品棚に備えられ、重量センサが検知する重量が変化した場合、容器11内に物体が追加または削除されたとして、重量センサはトリガ信号を生成してもよい。同じく、例えばセンサ4として第2の撮像部が天井に備えられ、第2の撮像部が撮像した画像から容器11に物体を追加または削除しようとする特定の動き(例えば購買者が物体を商品棚から取り出す動作、物体が商品棚から動く軌跡など)が検出された場合、容器11内に物体が追加または削除されたとして、第2の撮像部の撮像した画像に基づいて制御部2または第2の撮像部はトリガ信号を生成してもよい。
 次に、図2及び3を用いて第1の段階及び第2の段階における撮像方法等について簡単に説明する。
 図2は、物体を容器11に入れる第1の段階における撮像方法等に関するイメージ図である。ここでの第1の段階とは、購買者が購入しようとする商品(物体)を選ぶ段階を意味することを含む。つまり第1の段階とは、購買者が会計処理を行うレジカウンターを含む特定のエリアにおいて購入する商品の確定(商品の認識結果の確定)を行う前である認識確定前段階と換言できる。
 図2によると、制御部2が、第1の撮像部1が撮像した画像が制御部2に送信されることによって、物体A(物体)が容器11に投入される画像を取得することができる。
 次に、制御部2は画像に基づいて物体検出/認識処理を行い、認識結果を取得する。
 図3は、物体を容器11外に出す第2の段階における撮像方法等に関するイメージ図である。ここでの第2の段階とは、購買者が購入しようとする商品の会計処理を行う段階を意味することを含む。つまり第2の段階とは、特定のエリアにて購入する商品の確定を行う認識確定段階と換言できる。
 図3によると、まず第1の段階から第2の段階に移行するために、例えば第1の撮像部1は特定のエリアに設けられたマーカを撮像し、撮像した画像を制御部2に送信する。その後、制御部2は第1の段階から第2の段階へ移行する。つまり制御部2が特定のエリアに設けられたマーカを認識する以前を第1の段階とし、マーカを認識した以降を第2の段階とすることと換言できる。
 なお、第1の段階から第2の段階に移行したことを決定するためには、他の手段、例えば特定のエリアに重量センサを設け、重量センサの上に容器11が置かれることによって重量が変化することを重量センサが検知することに基づいてもよいし、容器11に別途センサを設け、別途センサが特定のエリアに設けられたマーカを含む特定の信号または物体等を検知することに基づいてもよい。
 第2の段階に移行した後に容器11から物体Aが取り出された場合、第1の撮像部1は撮像した物体Aの画像を制御部2へ送信する。
 次に、制御部2は画像に基づいて物体検出/認識処理を行い、認識結果を取得する。
 その後、制御部2は物体を容器11に入れる第1の段階及び前記物体を前記容器11外に出す第2の段階のそれぞれにおいて撮像された画像に基づいて認識結果の最終確定処理を行う。
 このとき、制御部2は、最終確定処理を行った認識結果を報知部3に報知させるように制御信号を送信してもよい。また、制御部2は、第2の段階で第1の撮像部1が撮像した物体の認識結果を、認識結果の最終確定処理前に報知部3に報知させるように制御信号を送信してもよい。例えば、図3によると、第1の段階及び第2の段階で撮像した物体Aの画像に基づいて取得したそれぞれの認識結果が「りんご」と一致した場合、報知部3には「りんご」と表示される。
 次に、本開示の第1の実施形態に係る情報処理システムの情報処理方法を説明する。本開示の第1の実施形態に係る情報処理システムの情報処理方法において、第1の撮像部1は任意のフレームレートで連続的に撮像を行い、制御部2は第1の撮像部1が撮像した画像に基づいて物体検出及び物体認識を行う。そして、認識結果のステータス管理の方法として第1乃至第4のリストを用い、これらのリストに基づいて制御部2は認識結果の最終確定処理を行う。
 そして、第1の段階において制御部2は、容器11に投入された物体であると判断されたものを購買候補商品として、購買候補商品の認識結果を格納する第1のリストに追加する。
 また、第2の段階において制御部2は、容器11から取り出されたものであると判断されたものを購買商品として、購買商品の認識結果を格納する第2のリストに追加する。
 そして、第1のリストと第2のリストとが完全一致しているかを検証し、完全一致した場合、制御部2はそのまま最終確定購買商品として、第2のリストに含まれる物体の認識結果を、最終確定購買商品の認識結果を格納する第3のリストに追加し、物体の認識結果を確定する。また、第1のリストと第2のリストとが完全一致ではなかった場合、一致した物体の認識結果を第3のリストに、一致しなかった物体の認識結果、即ち最終認識失敗商品の認識結果を格納する第4のリストにそれぞれ追加する。
 制御部2は、第3のリストに格納された認識結果に基づいて精算処理を行ってよく、また、第4のリストに格納された認識結果に基づいて認識が失敗した物体の認識結果及び認識候補の物体をリスト形式で報知部3にて表示し、顧客が報知部3に備えられる入力部を用いて修正するよう示唆してもよい。第3のリストまたは第4のリスト基づく処理は、第2の実施形態以降においても同じであってもよい。
 以下、図4A、図4Bに基づいて本開示の第1の実施形態に係る情報処理システムの処理フローを説明する。
 <S001>第1の撮像部1は、任意のフレームレートで連続的に撮像を開始する。その後、<S002>に進む。
 <S002>制御部2は、第1の段階であると決定する。その後、<S003>に進む。
 <S003>制御部2は、第1の段階から第2の段階へ移行すべきかを判断する。判断方法として、例えば段落[0035]乃至[0037]に記載の方法を用いてよい。制御部2が第1の段階から第2の段階へ移行すべきと判断した場合、制御部2は、第1の段階から第2の段階へ移行する。その後、<S008>に進む。制御部2が第1の段階から第2の段階へ移行すべきと判断しなかった場合、<S004>に進む。
 <S004>制御部2は、第1の撮像部1が撮像した画像に基づいて物体検出したかを判断する。制御部2が物体検出した場合、<S005>に進む。制御部2が物体検出しなかった場合、<S003>に戻る。
 なお、物体検出の手法として、公知に用いられている物体検出手法を用いてよい。公知に用いられている物体検出手法とは、例えばセグメンテーション、セマンティックセグメンテーション及び/またはバウンディングボックスを利用する方法、もしくは後述する物体認識と併せてパターンマッチングまたは深層学習を含む機械学習を行うことが挙げられる。
 <S005>制御部2は、物体検出結果に基づいて物体認識を行う。その後、<S006>に進む。
 なお、物体認識の手法として、公知に用いられている物体認識手法を用いてよい。公知に用いられている物体認識手法とは、例えばパターンマッチングまたは深層学習を含む機械学習を含む。
 <S006>制御部2は、認識結果を購買候補商品として第1のリストに追加すべきかを判断する。追加するべきとの判断基準として、例えば認識結果の信頼度が所定の閾値以上であること、物体の移動が容器11内へ投入されるものであると判断されたことが挙げられる。制御部2が認識結果を購買候補商品として第1のリストに追加すべきと判断した場合、<S007>に進む。制御部2が認識結果を購買候補商品として第1のリストに追加すべきと判断しなかった場合、当該認識結果を破棄したうえで<S003>に戻る。
 <S007>制御部2は、認識結果を第1のリストに追加する。その後、<S003>に戻る。
 <S008>制御部2は、第1の撮像部1が撮像した画像に基づいて物体検出したかを判断する。制御部2が物体検出した場合、<S009>に進む。制御部2が物体検出しなかった場合、<S011>に進む。
 <S009>制御部2は、物体検出結果に基づいて物体認識を行う。その後、<S010>に進む。
 <S010>制御部2は、認識結果を第2のリストに追加する。その後、<S011>に進む。
 <S011>制御部2は、第2の段階を終了すべきか判断する。判断方法として、例えば一定時間物体の検出がない場合が挙げられる。制御部2が第2の段階を終了すると判断した場合、<S012>に進む。制御部2が第2の段階を終了すると判断しなかった場合、<S008>に戻る。
 <S012>制御部2は、第1のリストと第2のリストに含まれる認識結果が完全一致するかを判断する。第1のリストと第2のリストに含まれる認識結果が完全一致する場合、<S013>に進む。第1のリストと第2のリストに含まれる認識結果が完全一致しなかった場合、<S014>に進む。
 <S013>制御部2は、第2のリストに含まれる認識結果をコピーし、第3のリストに追加する。その後、情報処理システムは処理を終了する。
 <S014>制御部2は第1のリストと第2のリストとで一致した物体の認識結果については、第2のリストに含まれる認識結果をコピーして第3のリストに追加する。そして、第1のリストと第2のリストとで一致しなかった物体の認識結果については、一致しなかった物体の認識結果を第4のリストに追加する。その後、制御部2は第3のリスト及び第4のリストに基づく処理を行い、その後全体処理を終了する。
 次に、本開示の第2の実施形態に係る情報処理システムの情報処理方法を説明する。本開示の第1の実施形態に係る情報処理システムの情報処理方法では連続的に撮像を行っているが、制御部2が扱うデータ量が増加する懸念がある。よって本開示の第2の実施形態に係る情報処理システムの情報処理方法では、購買者が容器11に物体を入れるタイミングを予測することで第1の撮像部1の撮像タイミングを推定する。そして、推定した撮像タイミングに基づいて第1の撮像部1は撮像を行う。この方法によって、第1の撮像部1は連続的に撮像を行う必要がなくなる。
 図5は、第2の実施形態での第1の段階における撮像方法等に関するイメージ図である。図5は、図2及び第1の実施形態と比較して、センサ4が新たな構成要件として追加されている。なお、ここでのセンサ4は小売店の店内の天井に備えられているが、実際にはこのパターンに限られない。
 センサ4は容器11及び/または容器11を保持する顧客を監視し、取得した検知データを制御部2に送信する。
 制御部2は、物体Aが容器11に投入されるかをセンサ4が取得する検知データに基づいて判断する。判断方法として、例えば段落[0027]乃至[0030]に記載の方法を用いてもよい。
 制御部2は、センサ4が取得する検知データに基づいて物体Aが容器11に投入されると判断した場合、第1の撮像部1に対して撮像を行うためのトリガ信号を送信する。
 第1の撮像部1は、制御部2からトリガ信号を受信した場合、撮像を行う。その後第1の撮像部1は、撮像した画像を制御部2に送信する。
 なお、図5は第1の段階における撮像方法についての説明ではあるが、第2の段階においても類似の撮像方法を用いてよい。
 以下、図6A、図6Bに基づいて本開示の第2の実施形態に係る情報処理システムの処理フローを説明する。
 <S101>本処理は第1の実施形態の<S002>に対応する。本処理の実行後、<S102>に進む。
 <S102>制御部2は、センサ4が取得した検知データに基づいて、購買者が物体を容器11に投入するタイミングを予測する。その後、<S103>に進む。
 <S103>制御部2は、購買者が物体を容器11に投入するタイミングの予測結果に基づいて第1の撮像部1が撮像をするタイミングであるかを判断する。第1の撮像部1が撮像をするタイミングであると判断した場合、制御部2はトリガ信号を第1の撮像部1に送信する。その後、<S104>に進む。第1の撮像部1が撮像をするタイミングではないと判断した場合、<S102>に戻る。
 <S104>第1の撮像部1は、制御部2からのトリガ信号に基づいて物体の撮像を行う。その後、<S105>に進む。
 <S105>本処理は第1の実施形態の<S005>に対応する。本処理の実行後、<S106>に進む。
 <S106>本処理は第1の実施形態の<S006>に対応する。制御部2が認識結果を購買候補商品として第1のリストに追加すべきと判断した場合、<S107>に進む。制御部2が認識結果を購買候補商品として第1のリストに追加すべきと判断しなかった場合、当該認識結果を破棄したうえで<S102>に戻る。
 <S107>本処理は第1の実施形態の<S007>に対応する。本処理の実行後、<S108>に進む。
 <S108>本処理は第1の実施形態の<S003>に対応する。制御部2が第1の段階から第2の段階へ移行すべきと判断した場合、制御部2は、第1の段階から第2の段階へ移行する。その後、<S109>に進む。制御部2が第1の段階から第2の段階へ移行すべきと判断しなかった場合、<S102>に戻る。
 <S109>制御部2は、センサ4が取得した検知データに基づいて、購買者が物体を容器11から出すタイミングを予測する。その後、<S110>に進む。
 <S110>本処理は<S103>に対応する。第1の撮像部1が撮像をするタイミングであると判断した場合、制御部2はトリガ信号を第1の撮像部1に送信する。その後、<S111>に進む。第1の撮像部1が撮像をするタイミングではないと判断した場合、<S109>に戻る。
 <S111>乃至<S113>これらの処理はそれぞれ<S104>、<S105>及び<S010>に対応する。<S111>の処理後は<S112>に、<S112>の処理後は<S113>に、<S113>の処理後は<S114>に進む。
 <S114>本処理は第1の実施形態の<S011>に対応する。制御部2が第2の段階を終了すると判断した場合、<S115>に進む。制御部2が第2の段階を終了すると判断しなかった場合、<S109>に戻る。
 <S115>本処理は第1の実施形態の<S012>に対応する。第1のリストと第2のリストに含まれる認識結果が完全一致する場合、<S116>に進む。第1のリストと第2のリストに含まれる認識結果が完全一致しなかった場合、<S117>に進む。
 <S116>及び<S117>本処理はそれぞれ<S013>及び<S014>に対応する。制御部2はそれぞれの処理の実行及び第3のリスト及び第4のリストに基づく処理を行い、その後全体処理を終了する。
 次に、本開示の第3の実施形態に係る情報処理システムの情報処理方法を説明する。本開示の第1及び第2の実施形態に係る情報処理システムの情報処理方法では第1の段階及び第2の段階で撮像した画像に基づく認識結果がそれぞれ一致するかという判定処理を必ず行っているが、例えば第1の段階での認識結果で高い認識率が出た場合など、必ずしも2回の撮像及び撮像した画像に基づいて処理が必要とは限らない場合も想定される。よって本開示の第3の実施形態に係る情報処理システムの情報処理方法では、第1の段階にて第1の撮像部1が撮像した画像に基づく物体認識での認識率が所定の条件(例えば認識率が90%以上など、任意の閾値)を満たした場合、直接第3のリストに追加する。全ての物体が第3のリストに追加されたことを制御部2が確認した場合、第2の段階で撮像した画像に基づく物体認識を行わない。この方法によって、制御部2のデータ処理量が削減されることが期待される。
 以下、図7A、図7Bに基づいて本開示の第1の実施形態に係る情報処理システムの処理フローを説明する。
 <S201>乃至<S205>これらの処理はそれぞれ第2の実施形態の<S101>乃至<S105>に対応する。<S201>の処理後は<S202>に、<S202>の処理後は<S203>に、<S203>の処理後は<S204>に、<S204>の処理後は<S205>に、<S205>の処理後は<S206>に進む。
 <S206>制御部2は、第1の段階にて第1の撮像部1が撮像した画像に基づいて物体認識で得られた認識率が所定の条件を満たしているかを判断する。認識結果が所定の条件を満たしていると判断した場合、<S207>に進む。認識結果が所定の条件を満たしていると判断しなかった場合、<S208>に進む。
 <S207>制御部2は、認識結果を第3のリストに追加する。その後、<S209>に進む。
 <S208>制御部2は、認識結果を第1のリストに追加する。その後、<S209>に進む。
 <S209>本処理は第2の実施形態の<S108>に対応する。制御部2が第1の段階から第2の段階へ移行すべきと判断した場合、制御部2は、第1の段階から第2の段階へ移行する。その後、<S210>に進む。制御部2が第1の段階から第2の段階へ移行すべきと判断しなかった場合、<S202>に戻る。
 <S210>制御部2は、第1のリストが空値、即ち全ての認識した物体が所定の条件を満たしていたかを判断する。第1のリストが空値であると判断した場合、そのまま情報処理システムは処理を終了する。第1のリストが空値であると判断しなかった場合、<S211>に進む。
 <S211>本処理は第2の実施形態の<S109>に対応する。本処理の実行後、<S212>に進む。
 <S212>本処理は第2の実施形態の<S110>に対応する。第1の撮像部1が撮像をするタイミングであると判断した場合、制御部2はトリガ信号を第1の撮像部1に送信する。その後、<S213>に進む。第1の撮像部1が撮像をするタイミングではないと判断した場合、<S211>に戻る。
 <S213>乃至<S215>これらの処理はそれぞれ第2の実施形態の<S111>乃至<S113>に対応する。<S213>の処理後は<S214>に、<S214>の処理後は<S215>に、<S215>の処理後は<S216>に進む。
 <S216>本処理は第2の実施形態の<S114>に対応する。制御部2が第2の段階を終了すると判断した場合、<S217>に進む。制御部2が第2の段階を終了すると判断しなかった場合、<S211>に戻る。
 <S217>制御部2は、第2のリストに含まれる認識結果と、第1のリスト及び第3のリストに含まれる認識結果とを組み合わせたものとが完全一致するかを判断する。第1のリスト及び第3のリストに含まれる認識結果を組み合わせたものが完全一致する場合、<S218>に進む。第1のリスト及び第3のリストに含まれる認識結果を組み合わせたものが完全一致しなかった場合、<S219>に進む。
 <S218>及び<S219>これらの処理はそれぞれ第2の実施形態の<S116>及び<S117>に対応する。それぞれの処理の実行を以てして、情報処理システムは処理を終了する。
 ここまでが、第1乃至第3の実施形態に係る情報処理システムの情報処理方法の説明である。
 なお、ここまでの説明では、制御部2が物体の認識結果を第3のリストまたは第4のリストに追加することまでの言及となっているが、例えば段落[0025]及び[0026]にあるように、制御部2が物体の認識結果を第3のリストまたは第4のリストに追加した後、制御部2は、第3のリストまたは第4のリストに基づいて報知部3へ制御信号を送信してもよい。
 例えば報知部3は、第4のリストに基づいて認識が失敗した物体の認識結果及び認識候補の物体をリスト形式で表示し、顧客が報知部3に備えられる入力部を用いて修正するよう示唆してもよい。
 また、報知部3は、第4のリストに物体の認識結果が含まれている場合、エラー警告を顧客または小売店の従業員等に通知してもよい。
 また、報知部3は、第3のリスト及び先述した顧客による修正を反映した第4のリストに基づいて合算金額を表示し、顧客に会計処理を行うよう示唆してもよい。
 例えば第1乃至第3の実施形態に係る情報処理システムの情報処理方法において、第1の段階で第1の撮像部1の認識結果に含まれる物体の移動方向に基づいて、既に第1のリストに追加されている物体が容器11外に取り出されることを制御部2が検出した場合、制御部2は容器11外に取り出された物体の認識結果を第1のリストから削除してもよい。
 また、第1乃至第3の実施形態に係る情報処理システムの情報処理方法において、第2のリストの生成が完了した後に第1のリストとの照合を行っているが、例えば第2のリストに認識結果を追加すると同時に追加した認識結果が第1のリストに含まれるかを照合してもよい。
 また、第1乃至第3の実施形態に係る情報処理システムの情報処理方法において、制御部2は第1乃至第4のリストに基づいて処理を行っているが、図8に示すように、例えば第2乃至第4のリストを用いずに、第1のリストに含まれる認識結果の属性として、Yes/No(以下Y/N)の2値で表される第1のリストに対応する「第1撮像での認識有」、第2のリストに対応する「第2撮像での認識有」を新たに用いてもよい(以下鍵括弧は省略)。この場合、第1の段階で追加された認識結果には第1撮像での認識有にYを、第2の段階で追加された認識結果には第2撮像での認識有にYを付与してよい。つまり、第1の段階及び第2の段階共に認識された物体の認識結果には第1撮像での認識有及び第2撮像での認識有にYが付与され、第1の段階では認識されたが第2の段階では認識されなかった物体の認識結果には、第1撮像での認識有にY、第2撮像での認識有にNが付与され、第1の段階では認識されなかったが第2の段階では認識された物体の認識結果には第1撮像での認識有にN、第2撮像での認識有にYが付与されることとなる。
 例えば図8を参照すると、ID番号が1のりんごは、第1の撮像有及び第2の撮像有共にYが付与されており、制御部2は、りんごを第3のリストに対応する最終確定購買商品として処理してもよい。一方、ID番号が2及び3のなし及びみかんは、第1撮像での認識有及び第2撮像での認識有の何れか一方にNが付与されており、制御部2は、なし及びみかんを第4のリストに対応する最終認識失敗商品として処理してもよい。
 また、第3の実施形態に係る情報処理システムの情報処理方法において、制御部2は、第1の段階での物体の認識結果で認識率が所定の条件を満たさないものを保存部23に一時的に保存させ、第2の段階において制御部2は認識率が低いもののみを第1の撮像部1によって撮像させることを、報知部3を介して顧客に促してもよい。例えば、報知部3がディスプレイを含む場合、ディスプレイに認識率が低いものを撮像画像から抽出して表示してもよい。即ち、第1の段階で物体認識の認識率が所定の条件を満たすものはそのまま認識結果の最終確定を行う処理を、また、第1の段階で物体認識の認識率が所定の条件を満たさないものは第2の段階で第1の撮像部1が撮像した画像に基づいて処理を、制御部2は実行してもよい。
 また、第1乃至第3の実施形態に係る情報処理システムの情報処理方法において、顧客は容器11を用いることとなっているが、必ずしも顧客は容器11を用いるわけではなく、例えば顧客自身の手で保持することも想定される。その場合、情報処理システムは、例えば第1の撮像部1を容器11に備える代わりに小売店の店内の商品棚や天井等に備えてもよく、例えば第1の撮像部1は顧客を常時トラッキングし、第1のリストと顧客との紐づけを常に行ってもよい。
 また、第1乃至第3の実施形態に係る情報処理システムの情報処理方法において、第1の段階及び第2の段階で物体の撮像を行う第1の撮像部1は同一のものであるが、必ずしもそうである必要はなく、例えば第1の段階での第1の撮像部1は容器11に備えたものを、第2の段階での第1の撮像部1はキャッシュレジスタ端末に備えたものとするように、それぞれ異なるものを用いてもよい。
 さらに、これまでに述べたように、本開示の解決手段を情報処理システム、情報処理装置及び情報処理方法として説明してきたが、本開示はこれらを含む態様としても実現し得るものであり、また、これらに実質的に相当するプログラム、プログラムを記録した記憶媒体としても実現し得るものであり、本開示の範囲にはこれらも包含されるものと理解されたい。
 本開示を諸図面および実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および/または修正を行うことが容易であることに注意されたい。従って、これらの変形および/または修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部などに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
 なお、ここでは、特定の機能を実行する種々のモジュール及び/又はユニットを有するものとしてのシステムを開示しており、これらのモジュール及びユニットは、その機能性を簡略に説明するために模式的に示されたものであって、必ずしも、特定のハードウェア及び/又はソフトウェアを示すものではないことに留意されたい。その意味において、これらのモジュール、ユニット、その他の構成要素は、ここで説明された特定の機能を実質的に実行するように実装されたハードウェア及び/又はソフトウェアであればよい。異なる構成要素の種々の機能は、ハードウェア及び/もしくはソフトウェアのいかなる組合せ又は分離したものであってもよく、それぞれ別々に、又はいずれかの組合せにより用いることができる。このように、本開示内容の種々の側面は、多くの異なる態様で実施することができ、それらの態様はすべて本開示内容の範囲に含まれる。
 1   第1の撮像部
 2   制御部
 3   報知部
 4   センサ
 11  容器
 12  容器の通信部
 21  演算部
 22  制御部の通信部
 23  保存部
 31  報知部の通信部
 41  センサの通信部

Claims (14)

  1.  第1の撮像部と、
     前記第1の撮像部によって撮像された画像に関する処理を行う制御部とを備え、
     前記制御部は、物体を容器に入れる第1の段階において撮像された画像及び前記物体を前記容器外に出す第2の段階において撮像された画像に基づいて処理を行う、
    情報処理システム。
  2.  前記制御部は、前記第1の段階及び前記第2の段階のそれぞれで撮像された画像に含まれる前記物体を認識し、前記物体の認識結果に基づいて前記処理を行う、請求項1に記載の情報処理システム。
  3.  前記制御部は、前記認識結果のステータス管理を行う、請求項2に記載の情報処理システム。
  4.  前記ステータス管理は、前記第1の段階で撮像された前記画像において認識された前記物体を第1のリストに追加し、
      前記第2の段階で撮像された前記画像において認識された前記物体を第2のリストに追加することを前記制御部が行うことを含む、請求項3に記載の情報処理システム。
  5.  前記制御部は、前記第1のリスト及び前記第2のリストに基づいて前記物体の認識結果を確定する、請求項4に記載の情報処理システム。
  6.  前記第1の撮像部は前記容器に備えられる、請求項1乃至5の何れか一項に記載の情報処理システム。
  7.  前記第1の段階は、特定のエリアにおいて前記物体の認識結果の確定を行う前である認識確定前段階であり、
     前記第2の段階は、前記特定のエリアにおいて、前記認識結果の確定を行う認識確定段階である、請求項1乃至6の何れか一項に記載の情報処理システム。
  8.  前記制御部は、前記制御部が前記特定のエリアに設けられたマーカを認識する以前の場合、前記認識確定前段階であるとし、
      前記マーカを認識した以降の場合、前記認識確定段階であるとする、請求項7に記載の情報処理システム。
  9.  前記第1の撮像部は、別途備えるセンサの検知結果に基づいて撮像を行う、請求項1乃至8の何れか一項に記載の情報処理システム。
  10.  前記センサは、前記容器に備えられる重量センサであり、
     前記第1の撮像部は、前記重量センサが検知した総重量が変化した場合、撮像を行う、請求項9に記載の情報処理システム。
  11.  前記センサは、前記容器外に備えられる重量センサ、赤外線センサまたは第2の撮像部である、請求項9に記載の情報処理システム。
  12.  前記物体は、購買者が購入しようとする商品である、請求項1乃至11の何れか一項に記載の情報処理システム。
  13.  第1の撮像部によって撮像された画像に関する処理を行う制御部を備え、
     前記制御部は、物体を容器に入れる第1の段階において撮像された画像及び前記物体を前記容器外に出す第2の段階において撮像された画像に基づいて処理を行う、
    情報処理装置。
  14.  物体を容器に入れる第1の段階において第1の撮像部が撮像を行い、
     前記物体を前記容器外に出す第2の段階において前記第1の撮像部が撮像を行い、
     前記第1の段階において前記第1の撮像部が撮像した画像及び前記第2の段階において前記第1の撮像部が撮像した画像に基づいて処理を行う、
    情報処理方法。
     
PCT/JP2021/003757 2020-02-18 2021-02-02 情報処理システム、情報処理装置、情報処理方法 WO2021166632A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21756408.7A EP4109428A4 (en) 2020-02-18 2021-02-02 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING METHOD
US17/904,457 US20230093572A1 (en) 2020-02-18 2021-02-02 Information processing system, information processing apparatus, and information processing method
CN202180015275.0A CN115136216A (zh) 2020-02-18 2021-02-02 信息处理系统、信息处理装置、信息处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-025605 2020-02-18
JP2020025605A JP7483400B2 (ja) 2020-02-18 2020-02-18 情報処理システム、情報処理装置、情報処理方法

Publications (1)

Publication Number Publication Date
WO2021166632A1 true WO2021166632A1 (ja) 2021-08-26

Family

ID=77391371

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/003757 WO2021166632A1 (ja) 2020-02-18 2021-02-02 情報処理システム、情報処理装置、情報処理方法

Country Status (5)

Country Link
US (1) US20230093572A1 (ja)
EP (1) EP4109428A4 (ja)
JP (2) JP7483400B2 (ja)
CN (1) CN115136216A (ja)
WO (1) WO2021166632A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505700A (zh) * 2021-07-12 2021-10-15 北京字跳网络技术有限公司 一种图像处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054038A (ja) 2009-09-03 2011-03-17 Toshiba Tec Corp セルフチェックアウト端末装置およびその制御プログラム
JP2014235530A (ja) * 2013-05-31 2014-12-15 Kddi株式会社 セルフショッピングシステム、携帯端末、コンピュータプログラムおよびセルフショッピング方法
JP2015106380A (ja) * 2013-12-02 2015-06-08 富士通フロンテック株式会社 セルフチェックアウト端末
JP2016057813A (ja) * 2014-09-09 2016-04-21 サインポスト株式会社 商品管理システムおよび商品管理方法
JP2020025605A (ja) 2018-08-09 2020-02-20 錢立生 手押し車減速装置及びそれを応用した手押し車

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157328A (ja) * 2015-02-25 2016-09-01 東芝テック株式会社 計量システム、商品販売データ処理装置及びプログラム
SG11201807291PA (en) * 2016-02-29 2018-09-27 Signpost Corp Information processing system
JP6283806B2 (ja) * 2016-06-01 2018-02-28 サインポスト株式会社 情報処理システム
JP6339633B2 (ja) * 2016-06-28 2018-06-06 新日鉄住金ソリューションズ株式会社 システム、情報処理装置、情報処理方法、及び、プログラム
US20180197218A1 (en) * 2017-01-12 2018-07-12 Verizon Patent And Licensing Inc. System and method for object detection in retail environment
US10600043B2 (en) * 2017-01-31 2020-03-24 Focal Systems, Inc. Automated checkout system through mobile shopping units
GB2562095B (en) * 2017-05-05 2020-07-15 Arm Kk An electronic label and methods and system therefor
JP6842400B2 (ja) * 2017-11-06 2021-03-17 東芝テック株式会社 商品データ処理システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054038A (ja) 2009-09-03 2011-03-17 Toshiba Tec Corp セルフチェックアウト端末装置およびその制御プログラム
JP2014235530A (ja) * 2013-05-31 2014-12-15 Kddi株式会社 セルフショッピングシステム、携帯端末、コンピュータプログラムおよびセルフショッピング方法
JP2015106380A (ja) * 2013-12-02 2015-06-08 富士通フロンテック株式会社 セルフチェックアウト端末
JP2016057813A (ja) * 2014-09-09 2016-04-21 サインポスト株式会社 商品管理システムおよび商品管理方法
JP2020025605A (ja) 2018-08-09 2020-02-20 錢立生 手押し車減速装置及びそれを応用した手押し車

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4109428A4

Also Published As

Publication number Publication date
EP4109428A4 (en) 2023-11-08
US20230093572A1 (en) 2023-03-23
JP2024024076A (ja) 2024-02-21
JP7483400B2 (ja) 2024-05-15
JP2021131638A (ja) 2021-09-09
CN115136216A (zh) 2022-09-30
EP4109428A1 (en) 2022-12-28

Similar Documents

Publication Publication Date Title
JP7422792B2 (ja) 環境内のコンピュータビジョン駆動型アプリケーションのためのシステムおよび方法
US11960998B2 (en) Context-aided machine vision
US20220084234A1 (en) Method and electronic device for identifying size of measurement target object
WO2016147612A1 (ja) 画像認識装置、システム、画像認識方法、および、記録媒体
JP7314961B2 (ja) 忘れ物検知システム、忘れ物検知装置および忘れ物検知プログラム
WO2021166632A1 (ja) 情報処理システム、情報処理装置、情報処理方法
US12008531B2 (en) Methods and systems of a multistage object detection and tracking checkout system
WO2022084390A1 (en) Embedded device based detection system
JP2023504871A (ja) 不正検出システムおよび方法
CA2936766A1 (en) Detecting and responding to potentially fraudulent tender
EP3629276A1 (en) Context-aided machine vision item differentiation
JP2025024245A (ja) 情報処理システム、情報処理装置、情報処理方法
WO2022158494A1 (ja) 表示装置及び表示方法
US20190378389A1 (en) System and Method of Detecting a Potential Cashier Fraud
KR102644685B1 (ko) 리뷰 신뢰도 검증 장치 및 방법
WO2021176840A1 (ja) 登録確認装置、制御方法、およびプログラム
JP2010087937A (ja) 映像検出装置、映像検出方法および映像検出プログラム
US20170083891A1 (en) Information processing apparatus and information processing method
CN113762315B (zh) 图像检测方法、装置、电子设备和计算机可读介质
US12147859B2 (en) Logistics control system and method by using camera
US20230057369A1 (en) Image data registration system and image data registration method
JP7290842B2 (ja) 情報処理システム、情報処理システムの制御方法、プログラム
JP7566497B2 (ja) 情報処理装置、システム、情報処理装置の制御方法、及びプログラム
JP7384267B2 (ja) 処理装置、処理方法及びプログラム
JP2024119433A (ja) 購入支援装置、購入支援方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21756408

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021756408

Country of ref document: EP

Effective date: 20220919