WO2019167272A1 - 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム - Google Patents

画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム Download PDF

Info

Publication number
WO2019167272A1
WO2019167272A1 PCT/JP2018/008109 JP2018008109W WO2019167272A1 WO 2019167272 A1 WO2019167272 A1 WO 2019167272A1 JP 2018008109 W JP2018008109 W JP 2018008109W WO 2019167272 A1 WO2019167272 A1 WO 2019167272A1
Authority
WO
WIPO (PCT)
Prior art keywords
product
user interface
touch panel
image
identification
Prior art date
Application number
PCT/JP2018/008109
Other languages
English (en)
French (fr)
Inventor
壮馬 白石
岩元 浩太
秀雄 横井
二徳 高田
恵美 北川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2020503243A priority Critical patent/JP7006767B2/ja
Priority to US16/977,127 priority patent/US11599867B2/en
Priority to PCT/JP2018/008109 priority patent/WO2019167272A1/ja
Publication of WO2019167272A1 publication Critical patent/WO2019167272A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/12Cash registers electronically operated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/204Point-of-sale [POS] network systems comprising interface for record bearing medium or carrier for electronic funds transfer or payment credit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/206Point-of-sale [POS] network systems comprising security or operator identification provisions, e.g. password entry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • G07G1/0045Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
    • G07G1/0054Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
    • G07G1/0063Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles with means for detecting the geometric dimensions of the article of which the code is read, such as its size or height, for the verification of the registration

Definitions

  • the present invention relates to a technique for supporting business in a store.
  • Patent Document 1 a processing device recognizes a product existing on a mounting table using an image generated by an imaging device directed to the product mounting table, and the projection device recognizes the recognized product and / or Or the technique which projects the image regarding accounting processing on the mounting surface of a mounting base is disclosed.
  • the present inventor studied using a touch panel instead of the projection device. In addition, the present inventor studied to improve the operability of the apparatus used for accounting processing by effectively using this touch panel.
  • One of the objects of the present invention is to provide a technique for improving the operability of an apparatus used for accounting processing.
  • the image identification cash register apparatus of the present invention is Image acquisition means for acquiring an image of the product placed on the touch panel display; Product identification means for identifying the product in the image; Display control means for displaying on the touch panel display a user interface that receives an input necessary for the accounting process of the product according to the identification result of the product; Processing execution means for executing processing based on input to the user interface; Is provided.
  • the image identification cash register system of the present invention is A touch panel display used as a product placement surface; An imaging device that photographs the product and generates an image of the product; Image acquisition means for acquiring an image of a product placed on the touch panel display; Product identification means for identifying the product in the image; Display control means for displaying on the touch panel display a user interface that receives an input necessary for the accounting process of the product according to the identification result of the product; Processing execution means for executing processing based on an input to the user interface; Is provided.
  • the accounting method of the present invention is: Computer Obtain an image of the product placed on the touch panel display, Identify the product in the image, According to the identification result of the product, a user interface for receiving input necessary for the accounting process of the product is displayed on the touch panel display, Performing processing based on input to the user interface; Including that.
  • the program of the present invention causes a computer to execute the above accounting method.
  • each block diagram represents a functional unit configuration, not a hardware unit configuration.
  • FIG. 1 is a diagram illustrating a configuration example of an image identification registration system 1. 1 is merely an example, and the image identification registration system 1 according to the present invention is not limited to the configuration depicted in FIG. As shown in FIG. 1, the image identification registration system 1 includes an image identification registration device 10, an imaging device 30, and a touch panel display 40. The image identification registration device 10 is connected to the imaging device 30 and the touch panel display 40 by wiring or the like (not shown).
  • the touch panel display 40 displays various images on its display surface.
  • the touch panel display 40 has a function of accepting an input by a touch operation using a finger or a touch pen.
  • the display surface of the touch panel display 40 is also used as a placement surface on which the product P is placed, as illustrated.
  • the imaging device 30 is arranged so as to include the touch panel display 40 in the imaging range.
  • the imaging device 30 captures the product P placed on the display surface of the touch panel display 40 and generates an image showing the product P.
  • the image generated by the imaging device 30 is transmitted to the image identification register device 10.
  • the image identification register device 10 of the present embodiment includes an image acquisition unit 110, a product identification unit 120, a display control unit 130, and a process execution unit 140.
  • the image acquisition unit 110 acquires an image generated by the imaging device 30.
  • the product identification unit 120 identifies a product shown in the image acquired by the image acquisition unit 110.
  • the product identification unit 120 identifies a product shown in the image generated by the imaging device 30 using a known object recognition technology (for example, a classifier constructed by pattern matching or machine learning). Can do. Even if a plurality of products are shown in the image generated by the imaging device 30, the products can be individually identified using a known object recognition algorithm.
  • the display control unit 130 causes the touch panel display 40 to display a user interface that receives an input necessary for the accounting process of the product according to the product identification result by the product identification unit 120.
  • the “product accounting process” means a series of cash register operations performed when a product is purchased at a store.
  • the process execution unit 140 executes a process based on an input to the user interface displayed on the touch panel display 40. A specific example of the operation of the process execution unit 140 will be described in another embodiment.
  • the image identification registration system 1 may be realized by hardware (for example, a hard-wired electronic circuit) that implements each functional component, or a combination of hardware and software (for example, an electronic circuit and the same). Or a combination of programs for controlling the above.
  • hardware for example, a hard-wired electronic circuit
  • software for example, an electronic circuit and the same.
  • a combination of programs for controlling the above for example, a case where the image identification registration system 1 is realized by a combination of hardware and software will be further described.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the image identification registration system 1.
  • the image identification registration device 10 includes a bus 1010, a processor 1020, a memory 1030, a storage device 1040, an input / output interface 1050, and a network interface 1060.
  • the bus 1010 is a data transmission path through which the processor 1020, the memory 1030, the storage device 1040, the input / output interface 1050, and the network interface 1060 exchange data with each other.
  • the method of connecting the processors 1020 and the like to each other is not limited to bus connection.
  • the processor 1020 is a processor realized by a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 1030 is a main storage device realized by a RAM (Random Access Memory) or the like.
  • the storage device 1040 is an auxiliary storage device realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a memory card, a ROM (Read Only Memory), or the like.
  • the storage device 1040 stores program modules that implement the functions of the image identification registration device 10 (such as the image acquisition unit 110, the product identification unit 120, the display control unit 130, and the process execution unit 140).
  • the processor 1020 reads each program module onto the memory 1030 and executes it, thereby realizing each function corresponding to the program module.
  • the input / output interface 1050 is an interface for connecting the image identification registration device 10 and various input / output devices.
  • the image identification registration device 10 is connected to the imaging device 30 and the touch panel display 40 via an input / output interface 1050.
  • the imaging device 30 is, for example, a camera equipped with a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. As illustrated, the imaging device 30 is installed so that the touch panel display 40 (and the product P placed on the touch panel display 40) is included in the imaging range. The imaging device 30 captures the product P placed on the touch panel display 40 and generates an image in which the product P is reflected.
  • CCD Charge-Coupled Device
  • CMOS Complementary Metal-Oxide Semiconductor
  • the touch panel display 40 is a display device with a touch function.
  • the touch panel display 40 is also used as a mounting surface for the product P. Therefore, as the touch panel display 40, a flat display such as LCD (Liquid Crystal Display), PDP (Plasma Display Panel), organic EL (Electro Luminescence), or the like is preferably used.
  • the input / output interface 1050 is connected to an accounting processing device (not shown).
  • the accounting processing device includes, for example, a barcode scanner, cashier, drawer, automatic change machine, receipt printer, input device such as a keyboard and mouse, and output device such as a speaker.
  • a store-dedicated or customer-specific display may be connected to the image identification register device 10 via the input / output interface 1050.
  • the network interface 1060 is an interface for connecting the image identification registration device 10 to a network.
  • This network is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the method of connecting the network interface 1060 to the network may be a wireless connection or a wired connection.
  • FIG. 2 is merely an example, and the hardware configuration of the image identification registration system 1 is not limited to the example of FIG.
  • the image identification registration device 10 may be connected to the imaging device 30 and the touch panel display 40 via the network interface 1060.
  • FIG. 3 is a sequence diagram illustrating the flow of processing executed by the image identification registration system 1 according to the first embodiment.
  • the image acquisition unit 110 acquires a captured image generated by the imaging device 30 (S102).
  • the imaging device 30 constantly outputs the sensing result (captured image) of the image sensor to the image acquisition unit 110.
  • the imaging device 30 may be configured to generate an image in response to an instruction from the image acquisition unit 110.
  • the product identification unit 120 determines whether a product exists in the captured image acquired by the image acquisition unit 110 (S104).
  • the product identification unit 120 is based on an output result obtained by inputting a captured image (or a feature amount extracted from the captured image) acquired by the image acquisition unit 110 into a product identification engine (not shown). It can be determined whether or not a product exists in the captured image.
  • the product identification unit 120 may determine whether or not the object is a product by performing template matching after detecting the region of the object from the captured image using the edge feature amount or the like.
  • the image acquisition unit 110 acquires a new captured image generated by the imaging device 30, and the product identification unit 120 includes the new captured image. It is determined whether or not there is a product.
  • the product identification unit 120 adds the product identification result to the list and stores it in the memory 1030, for example. Further, the display control unit 130 generates drawing data of a user interface for accepting an input necessary for the accounting process of the product in response to the product identification unit 120 identifying the product, and transmits the drawing data to the touch panel display 40 ( S106).
  • the touch panel display 40 displays the user interface on the touch panel display 40 using the drawing data acquired from the display control unit 130 (S108).
  • an input is performed on the user interface displayed on the touch panel display 40 (S110)
  • information on the input performed on the user interface is transmitted to the image identification register device 10 (S112).
  • the process execution unit 140 identifies the process corresponding to the input to the user interface acquired in the process of S112, and executes the identified process (S114).
  • the user interface is displayed on the touch panel display 40 according to the identification result of the product. .
  • This user interface accepts input necessary for merchandise accounting. And a process is performed based on the input performed with respect to the user interface.
  • the input operation necessary for the accounting process of the product can be completed on the touch panel display 40. That is, the number of times of switching the device to be operated in the accounting process of the product from the touch panel display 40 to another device is reduced. Therefore, the effect of improving the operability for the user of the image identification registration system 1 can be expected. Furthermore, by effectively using the touch panel display 40 as in the present embodiment, the image identification cash register system 1 can easily acquire an action from a customer (for example, a product cancel operation) in the accounting process.
  • a customer for example, a product cancel operation
  • the display control unit 130 causes the touch panel display 40 to display a user interface (hereinafter referred to as a “first user interface”) for proceeding to the payment process for the commodity price.
  • FIG. 4 is a diagram illustrating an example of a first user interface displayed by the display control unit 130.
  • a state where the product P is placed on the display surface of the touch panel display 40 is depicted.
  • a subtotal button UI1 first user interface
  • the state of being done is drawn. In this case, the following processing is executed.
  • the product identification unit 120 identifies the product by analyzing an image showing the product P. Then, the display control unit 130 displays a mark M indicating that the product has been identified on the touch panel display 40 as depicted in the lower half of FIG.
  • the display control unit 130 holds in advance a conversion rule for converting “coordinates in the image generated by the imaging device 30” into “coordinates on the display surface of the touch panel display 40 (the mounting surface of the product P)”. ing. Then, the display control unit 130 converts the position (coordinates) of the product P in the image into the position (coordinates) on the display surface of the touch panel display 40 based on the conversion rule, for example, a frame surrounding the converted position.
  • a mark M can be displayed.
  • the display control unit 130 displays a subtotal button UI1 (first user interface) as illustrated on the touch panel display 40 in response to the identification of the product P.
  • the display control unit 130 can determine the display position of the subtotal button UI1 (first user interface) based on the position of the product P.
  • the display control unit 130 displays a subtotal button UI1 (first user interface) in the vicinity of the product P.
  • the display control unit 130 determines, as a display position of the subtotal button UI1 (first user interface), an area that is within a predetermined distance from the position of the product P and has no other products or other display. can do.
  • the display control unit 130 analyzes the image acquired by the image acquisition unit 110 and identifies an area within the predetermined distance from the position of the product P and where no other product or other display exists. be able to.
  • the process execution unit 140 executes a payment process for the product price in response to an input (for example, a pressing operation) to the subtotal button UI1 (first user interface). For example, the process execution unit 140 transmits an instruction to the display control unit 130 to display a payment process screen S1 as shown in FIG.
  • FIG. 5 is a diagram illustrating an example of a payment processing screen.
  • FIG. 5 illustrates a screen S1 on which various payment methods (electronic money, credit card, points granted by a loyalty program, coupon ticket, cash voucher, cash) can be selected. The customer can select a desired payment method on the screen S1 and pay for the merchandise.
  • FIG. 6 and FIG. 7 are diagrams illustrating an example of a payment processing screen displayed by the display control unit 130.
  • FIG. 6 illustrates a screen S2 having an input form for receiving input of a signature for personal authentication.
  • FIG. 7 illustrates a screen S3 having an input form that accepts input of a personal identification PIN (Personal Identification Number).
  • PIN Personal Identification Number
  • the process execution unit 140 transmits an instruction to the display control unit 130 to display the payment process screen S2 as shown in FIG. 6 or the payment process screen S3 as shown in FIG. 7 on the touch panel. .
  • the payment processing screen S2 is displayed, the customer signs the input form on the screen. Thereby, the process execution part 140 can acquire the locus
  • the payment processing screen S3 is displayed, the customer inputs his / her PIN code on the input form on the screen. Thereby, the process execution part 140 can acquire the PIN code of the customer.
  • the process execution unit 140 can complete the credit settlement process using the customer signature or PIN code.
  • the PIN code is highly confidential information. Therefore, the process execution unit 140 may display an input form as illustrated in FIG. 7 on a touch panel display dedicated to a customer (not shown) instead of the touch panel display 40.
  • the purchaser of a product may be identified with an identification card such as an employee ID card.
  • an identification card such as an employee ID card.
  • the image identification registration system 1 has a configuration as shown in FIG.
  • FIG. 8 is a diagram showing a configuration example of the image identification registration system 1 in the second specific example.
  • the image identification registration device 10 further includes a purchaser information acquisition unit 150.
  • the purchaser information acquisition unit 150 acquires purchaser identification information.
  • the purchaser identification information is information that can identify the purchaser of the product.
  • the employee number stored in the IC tag of the employee ID card, the face image of the employee described in the employee ID card, etc. can be used as purchaser identification information.
  • the purchaser information acquisition unit 150 can acquire purchaser identification information such as an employee number from the employee ID card using a card reader (not shown).
  • the purchaser information acquisition unit 150 uses the imaging device 30 or another imaging device (not shown) to capture the employee number or face image by photographing the face of the employee ID card on which the employee number or face image is printed. Images can be obtained.
  • the process execution unit 140 can acquire purchaser identification information by analyzing the image acquired by the purchaser information acquisition unit 150. For example, when the employee number is included in the image, the process execution unit 140 can read the employee number (purchaser identification information) from the image using OCR (Optical Character Recognition) technology. In addition, the process execution unit 140 can acquire information for identifying the person (purchaser) by performing face authentication using the face image of the employee ID card. And the process execution part 140 performs the payment process of goods price, when the input with respect to a 1st user interface as shown in FIG. 5 is performed, and purchaser identification information is acquired.
  • OCR Optical Character Recognition
  • a function for preventing impersonation used by another person's employee ID card may be added.
  • the process execution unit 140 transmits an instruction to the display control unit 130 and accepts input of personal authentication information (hereinafter referred to as “second interface”). May be further displayed on the touch panel display 40.
  • FIG. 9 is a diagram illustrating an example of a second user interface displayed by the display control unit 130.
  • FIG. 9 illustrates, as a specific example of the second user interface, an input form UI2-1 that receives an input of a signature for personal authentication and an input form UI2-2 that allows a customer to input a predetermined trace pattern.
  • the process execution unit 140 can authenticate the person by comparing the signature and the trajectory pattern input to these input forms with information registered in advance.
  • the display control unit 130 causes the touch panel display 40 to display a user interface (hereinafter referred to as “third user interface”) for determining the product price as a purchase target product.
  • the display control unit 130 can display a third user interface as illustrated in FIGS. 10 to 12 on the touch panel display 40.
  • 10 to 12 are diagrams illustrating an example of a third user interface displayed by the display control unit 130.
  • FIG. 10 to 12 are diagrams illustrating an example of a third user interface displayed by the display control unit 130.
  • FIG. 10 shows a state where a registration button UI3-1 (third interface) is displayed in the vicinity of the product P.
  • a selectable user interface UI3-2 (third interface) including a product identification result (product name here) by the product identification unit 120 is displayed in the vicinity of the product P. Is drawn.
  • the product identification unit 120 identifies the product P placed on the touch panel display 40 using the image acquired by the image acquisition unit 110. At this time, the product identification unit 120 transmits the position information of the product P in the image to the display control unit 130. Then, the display control unit 130 converts the position (coordinates) of the product P in the image into a position (coordinates) on the display surface of the touch panel display 40 based on the above conversion rule. Then, the display control unit 130 determines the display positions of the registration button UI3-1 and the user interface UI3-2 (third interface) based on the position of the product P.
  • the display control unit 130 selects an area within a predetermined distance from the position of the product P and where there is no other product or other display on the registration button UI3-1 and the user interface UI3-2 (third interface).
  • the display position can be determined.
  • the display control unit 130 analyzes the image acquired by the image acquisition unit 110 and identifies an area within the predetermined distance from the position of the product P and where no other product or other display exists. be able to.
  • the process execution unit 140 purchases the product identified by the product identification unit 120 in response to an input (for example, a pressing operation) to the registration button UI3-1 or the user interface UI3-2 (third user interface). Determine as the target product. Specifically, the process execution unit 140 adds information on the product identified by the product identification unit 120 to the purchase target product list stored in the memory 1030, for example. In addition, when the product P on the touch panel display 40 is registered as a purchase target product, the process execution unit 140 transmits an instruction to the display control unit 130 to indicate that the product P is registered as the purchase target product. M may be displayed.
  • the display control unit 130 blinks the frame-shaped mark M when the product is identified by the product identification unit 120, and stops blinking the frame-shaped mark M when the product is registered as the product to be purchased. May be displayed at all times. Further, the display control unit 130 is configured to change the color of the mark M, the density of display, and the like depending on whether the product is identified by the product identification unit 120 or the product is registered as the product to be purchased. May be.
  • the product identification unit 120 identifies the product using an image, the identification result may not be uniquely determined.
  • a plurality of products may be identified as product candidates placed on the touch panel display 40.
  • the display control unit 130 causes the touch panel display 40 to display a user interface UI3-3 for selecting any of a plurality of products identified as candidates as illustrated in FIG. May be.
  • the process execution unit 140 determines the product selected by the user interface UI3-3 as the product to be purchased. Specifically, the process execution unit 140 is selected on the user interface UI3-3 from the plurality of products identified by the product identification unit 120 in the purchase target product list stored in the memory 1030, for example. Add product information.
  • the display control unit 130 displays on the touch panel display 40 a user interface including an image of the product identified by the product identification unit 120 in addition to (or instead of) the product name. You may let them.
  • the “image of the product identified by the product identification unit 120” displayed here is not an image acquired by the image acquisition unit 110.
  • the “image of the product identified by the product identification unit 120” is registered in advance in, for example, a predetermined storage device (for example, the storage device 1040).
  • the display control unit 130 can read an image corresponding to the identified product from the product images stored in advance in the storage device 1040 or the like using the product identification result by the product identification unit 120.
  • the display control unit 130 causes the touch panel display 40 to display a user interface (hereinafter referred to as “fourth user interface”) for correcting the identification result of the product identification unit 120.
  • FIG. 13 is a diagram illustrating an example of a fourth user interface displayed by the display control unit 130.
  • FIG. 13 illustrates a user interface UI4 including a product identification result by the product identification unit 120 and a correction button for correcting the identification result.
  • the product identification unit 120 identifies the product P placed on the touch panel display 40 using the image acquired by the image acquisition unit 110. At this time, the product identification unit 120 transmits the position information of the product P in the image to the display control unit 130. Then, the display control unit 130 converts the position (coordinates) of the product P in the image into a position (coordinates) on the display surface of the touch panel display 40 based on the above conversion rule. Then, the display control unit 130 determines the display position of the user interface UI4 (fourth interface) based on the position of the product P.
  • the display control unit 130 determines the display position of the user interface UI4 (fourth interface) based on the position of the product P.
  • the display control unit 130 can determine, as a display position of the user interface UI4 (fourth interface), an area that is within a predetermined distance from the position of the product P and does not have other products or other displays. . Note that the display control unit 130 analyzes the image acquired by the image acquisition unit 110 and identifies an area within the predetermined distance from the position of the product P and where no other product or other display exists. be able to.
  • UI4 fourth interface
  • the process execution unit 140 executes a process of correcting the identification result of the product identification unit 120 in response to an input (for example, pressing operation of the correction button) to the user interface UI4 (fourth user interface).
  • the process execution unit 140 transmits an instruction to the display control unit 130 to display an input form (not shown) for inputting a correct product name on the touch panel display 40.
  • the process execution unit 140 acquires information about the product from the product name input in the input form displayed in this way, and transmits the information to the display control unit 130 as correction information.
  • the display control unit 130 updates (corrects) the display on the touch panel display 40 using the product information acquired from the processing execution unit 140.
  • the process execution unit 140 may cause the product identification unit 120 to re-execute the identification process for the product P on the touch panel display 40. At this time, the process execution unit 140 notifies the product identification unit 120 that the current product identification result is incorrect. The product identification unit 120 re-executes the product identification process after excluding the product currently identified in accordance with the notification from the process execution unit 140 in advance. Thereby, it is possible to prevent an erroneous identification result from being displayed again.
  • the display control unit 130 causes the touch panel display 40 to display a user interface (hereinafter referred to as “fifth user interface”) for canceling the purchase of the product.
  • the display control unit 130 can display a third user interface as shown in FIGS. 14 to 16 on the touch panel display 40.
  • 14 to 16 are diagrams illustrating an example of a fifth user interface displayed by the display control unit 130.
  • FIG. 14 shows a state in which a cancel button UI5-1 (fifth interface) is displayed in the vicinity of the product P.
  • a user interface UI5-2 (fifth interface) including a cancel button is displayed in the vicinity of the product P together with a product identification result (product name here) by the product identification unit 120. Is drawn.
  • the product identification unit 120 identifies the product P placed on the touch panel display 40 using the image acquired by the image acquisition unit 110. At this time, the product identification unit 120 transmits the position information of the product P in the image to the display control unit 130. Then, the display control unit 130 converts the position (coordinates) of the product P in the image into a position (coordinates) on the display surface of the touch panel display 40 based on the above conversion rule. Then, the display control unit 130 determines the display positions of the cancel button UI5-1 and the user interface UI5-2 (fifth interface) based on the position of the product P.
  • the display control unit 130 selects an area within a predetermined distance from the position of the product P, where no other product or other display exists, by using the cancel button UI5-1 and the user interface UI5-2 (fifth interface).
  • the display position can be determined.
  • the display control unit 130 analyzes the image acquired by the image acquisition unit 110 and identifies an area within the predetermined distance from the position of the product P and where no other product or other display exists. be able to.
  • FIG. 16 shows a state in which the cancel button U5-3 is displayed in the area where the product P is placed on the touch panel display 40.
  • the product identification unit 120 identifies the product P placed on the touch panel display 40 using the image acquired by the image acquisition unit 110. At this time, the product identification unit 120 transmits the position information of the product P in the image to the display control unit 130. Then, the display control unit 130 converts the position (coordinates) of the product P in the image into a position (coordinates) on the display surface of the touch panel display 40 based on the above conversion rule. Then, for example, the display control unit 130 displays the cancel button UI5-3 at the center of the position of the product P (the region of the product P). In the example of FIG. 16, when the product P is placed on the touch panel display 40, the cancel button U5-3 cannot be visually recognized. In this case, when the customer removes the product P from the touch panel display 40 in order to cancel the purchase of the product P, the cancel button U5-3 becomes visible.
  • the process execution unit 140 cancels the purchase of the corresponding product in response to an input (for example, a pressing operation) to the fifth user interface illustrated in FIGS. 14 to 16. Specifically, the process execution unit 140, for example, from the list of identification results (identified products) of the product identification unit 120 stored in the memory 1030 or the like, for the product for which the fifth user interface is input. Delete information. And the display control part 130 cancels
  • the display control unit 130 may be configured to display a fifth user interface when the product P is removed (moved) from the touch panel display 40. .
  • FIG. 17 is a diagram illustrating an example of a fifth user interface displayed by the display control unit 130.
  • the registration button U3-1 first user interface
  • the lower half of FIG. 17 illustrates how the display on the touch panel display 40 changes when the product P is removed from the touch panel display 40.
  • the display control unit 130 displays a fifth user interface as shown in the figure near the area where the removed product P is located.
  • U5-4 is displayed.
  • the process execution unit 140 executes a process of canceling the purchase of the product. If “No” is pressed here, the process execution unit 140 outputs a message prompting the product to be returned to the position of the mark M using the touch panel display 40 or a speaker (not shown).
  • the display control unit 130 may display a comprehensive user interface combining the user interfaces shown in the first to sixth specific examples on the touch panel display 40 (example: FIG. 17).
  • FIG. 18 is a diagram illustrating an example of a comprehensive user interface displayed by the display control unit 130. In the example of FIG. 18, a total including a subtotal button (first user interface), a registration button (third user interface), a correction button (fourth user interface), and a cancel button (fifth user interface).
  • a typical user interface UI is illustrated. The operation when each button is pressed is as described in each specific example.
  • the display control unit 130 causes the touch panel display 40 to display a user interface (hereinafter referred to as “sixth user interface”) for acquiring the trajectory of the pointing object on the touch panel display 40.
  • the instruction object is an object that performs a touch operation on the touch panel display 40, and specifically, is a person's finger or a touch pen.
  • FIG. 19 is a diagram illustrating an example of a sixth user interface displayed by the display control unit 130.
  • a state where a balloon-type input area UI6 is displayed as the sixth user interface is depicted.
  • the customer or the store clerk moves the pointing object on the input area UI6 to draw a predetermined locus.
  • the process execution unit 140 acquires the drawn trajectory, the process execution unit 140 executes processing according to the acquired trajectory.
  • the process execution unit 140 can specify the process to be executed according to the acquired trajectory with reference to information illustrated in FIG.
  • FIG. 20 is a diagram illustrating an example of information defining a process to be executed according to the locus of the pointing object.
  • FIG. 20 is a diagram illustrating an example of information defining a process to be executed according to the locus of the pointing object.
  • FIG. 20 illustrates a table that stores the locus of the pointing object and information on the process to be executed in association with each other.
  • FIG. 20 is merely an example, and information defining a process to be executed in accordance with the locus of the pointing object is not limited to FIG.
  • a process to be executed may be defined according to a trajectory corresponding to an operation that can be performed on the touch panel display 40 (for example, a double tap operation or a swipe operation).
  • the process execution unit 140 first determines the shape of the locus drawn in the input area UI6. For example, assume that a circular locus (or a shape close to a circle) is drawn in the input area.
  • the process execution unit 140 registers the product identified by the product identification unit 120 (here, a product whose product name is “XXX”) as a purchase target. Further, for example, it is assumed that a locus of a cross mark (or a shape close to the cross mark) is drawn in the input area. In this case, the process execution unit 140 executes a process of canceling the purchase of the product identified by the product identification unit 120 (here, the product whose product name is “XXX”). For example, assume that a locus of a triangle (or a shape close to a triangle) is drawn in the input area.
  • the process execution unit 140 executes a process of correcting the identification result of the product identification unit 120 (here, the identification result “product name: XXX”). Further, for example, assume that a square (or a shape close to a square) locus is drawn in the input area. In this case, the process execution unit 140 executes a product price payment process.
  • the display control unit 130 may display information A indicating processing executed for each locus on the touch panel display 40. By displaying this information A, it is possible for the customer and the store clerk to easily grasp what kind of trajectory should be drawn in order to execute a desired process.
  • the present invention can be applied to a so-called semi-self method and a self-method as well as a general method in which operations from registration of purchased products to payment of a price are performed by an apparatus for a store clerk.
  • a cash register device for merchandise registration and a payment device for payment are provided separately.
  • the registering device for product registration can have the function of the image identification registering device 10 described above.
  • a customer operates a device from registration of a purchased product to payment of a price.
  • the device operated by the customer can have the function of the image identification register device 10 described above.
  • the process execution unit 140 operates as follows, for example.
  • the process execution unit 140 first detects the position of an instruction object (for example, a user's hand or finger) in an image displayed on the display surface of the display or an image projected from the projector.
  • the process execution unit 140 can detect and track the position of the pointing object using a known object recognition algorithm.
  • the process execution unit 140 can determine whether or not there is an input to the user interface (user interface projected on the projection plane) displayed on the display based on the detection position of the pointing object.
  • the process execution unit 140 executes a process corresponding to the input as described in the above embodiments. To do.
  • Image acquisition means for acquiring an image of the product placed on the touch panel display;
  • Product identification means for identifying the product in the image;
  • Display control means for displaying on the touch panel display a user interface that receives an input necessary for the accounting process of the product according to the identification result of the product;
  • Processing execution means for executing processing based on input to the user interface;
  • An image identification register device 2.
  • the display control means displays on the touch panel display a first user interface for proceeding to a product price payment process.
  • the image identification cash register apparatus described in 1. 3.
  • the process execution means executes the payment process for the commodity price when the input to the first user interface and the acquisition of the purchaser identification information are completed.
  • the display control means displays a second user interface for accepting input of the purchaser's personal authentication information on the touch panel display in response to acquisition of the purchaser identification information.
  • the display control means displays a third user interface for determining the product as a purchase target product on the touch panel display. 1. To 4.
  • the image identification registration device according to any one of the above. 6).
  • the display control means displays a user interface including a product identification result by the product identification means on the touch panel display as the third user interface. 5.
  • the display control unit uses a user interface for selecting any of the plurality of products as the third user interface on the touch panel display. Display, 6).
  • the display control means displays a fourth user interface for correcting the identification result of the product identification means on the touch panel display. 1. To 7.
  • the display control means displays a fifth user interface for canceling the purchase of the product on the touch panel display; 1. To 8.
  • the display control means causes the touch panel display to display a sixth user interface for obtaining a locus of the pointing object on the touch panel display,
  • the process execution means executes a process corresponding to the trajectory of the pointing object acquired by the sixth user interface.
  • the display control means determines the display position of the user interface based on the position of the product placed on the touch panel display. 1. To 10. The image identification registration device according to any one of the above.
  • a touch panel display used as a product placement surface; An imaging device that photographs the product and generates an image of the product; Image acquisition means for acquiring an image of a product placed on the touch panel display; Product identification means for identifying the product in the image; Display control means for displaying on the touch panel display a user interface that receives an input necessary for the accounting process of the product according to the identification result of the product; Processing execution means for executing processing based on an input to the user interface; An image identification cash register system. 13. The display control means displays on the touch panel display a first user interface for proceeding to a product price payment process. 12 The image identification cash register system described in 1.
  • the process execution means executes the payment process for the commodity price when the input to the first user interface and the acquisition of the purchaser identification information are completed.
  • the image identification cash register system described in 1. The display control means displays a second user interface for accepting input of the purchaser's personal authentication information on the touch panel display in response to acquisition of the purchaser identification information. 14 The image identification cash register system described in 1. 16.
  • the display control means displays a third user interface for determining the product as a purchase target product on the touch panel display. 12 To 15.
  • the image identification cash register system according to any one of the above.
  • the display control means displays a user interface including a product identification result by the product identification means on the touch panel display as the third user interface. 16.
  • the image identification cash register system described in 1. When a plurality of products are identified as candidates by the product identification unit, the display control unit uses a user interface for selecting any of the plurality of products as the third user interface on the touch panel display. Display, 17. The image identification cash register system described in 1. 19. The display control means displays a fourth user interface for correcting the identification result of the product identification means on the touch panel display. 12 To 18. The image identification cash register system according to any one of the above. 20. The display control means displays a fifth user interface for canceling the purchase of the product on the touch panel display; 12 To 19. The image identification cash register system according to any one of the above. 21.
  • the display control means causes the touch panel display to display a sixth user interface for obtaining a locus of the pointing object on the touch panel display,
  • the process execution means executes a process corresponding to the trajectory of the pointing object acquired by the sixth user interface. 12
  • the display control means determines the display position of the user interface based on the position of the product placed on the touch panel display. 12 To 21.
  • the image identification cash register system according to any one of the above. 23.
  • Computer Obtain an image of the product placed on the touch panel display, Identify the product in the image, According to the identification result of the product, a user interface for receiving input necessary for the accounting process of the product is displayed on the touch panel display, Performing processing based on input to the user interface; Accounting method including that.
  • the computer is Displaying on the touch panel display a first user interface for proceeding to a payment process for a commodity price; 23.
  • the computer is Obtaining purchaser identifying information for identifying a purchaser of the product; When the input to the first user interface and the acquisition of the purchaser identification information are completed, the product price payment process is executed. 24.
  • the computer is Displaying a second user interface for accepting input of the purchaser's personal authentication information on the touch panel display in response to acquisition of the purchaser identification information; 25.
  • the computer is Displaying a third user interface for determining the product as a product to be purchased on the touch panel display; 23. To 26.
  • the accounting method according to any one of the above. 28.
  • the computer is A user interface including the product identification result is displayed on the touch panel display as the third user interface; 27.
  • the computer is When a plurality of products are identified as candidates, a user interface for selecting any of the plurality of products is displayed on the touch panel display as the third user interface. 28.
  • the computer is A fourth user interface for correcting the product identification result is displayed on the touch panel display; 23. To 29.
  • the computer is A fifth user interface for canceling the purchase of the product is displayed on the touch panel display; 23. To 30.
  • the computer is Determining the display position of the user interface based on the position of the product placed on the touch panel display; 23. To 32. The accounting method according to any one of the above. 34. 23. To 33. A program for executing the accounting method according to any one of the above.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Computer Security & Cryptography (AREA)
  • Geometry (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

画像識別レジシステム(1)は、画像識別レジ装置(10)、撮像装置(30)、およびタッチパネルディスプレイ(40)を含んで構成される。タッチパネルディスプレイ(40)は、商品の載置面としても利用される。撮像装置(30)は、タッチパネルディスプレイ(40)上に載置された商品(P)を撮影し、その商品(P)の画像を生成する。画像識別レジ装置(10)は、タッチパネルディスプレイ(40)上に載置された商品(P)の画像を取得する画像取得部(110)と、画像に写っている商品を識別する商品識別部(120)と、商品の識別結果に応じて、商品の会計処理に必要な入力を受け付けるユーザインタフェースをタッチパネルディスプレイ上に表示させる表示制御部(130)と、ユーザインタフェースに対する入力に基づいて処理を実行する処理実行部(140)と、を備える。

Description

画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム
 本発明は、店舗での業務を支援する技術に関する。
 下記特許文献1には、処理装置が、商品の載置台に向けられた撮像装置により生成された画像を用いて載置台上に存在する商品を認識し、投影装置が、認識された商品及び/又は載置台の載置面上に会計処理に関する像を投影する技術が開示されている。
国際公開第2017/126253号
 本発明者は、投影装置の代わりにタッチパネルを利用することを検討した。その上で、本発明者は、このタッチパネルを有効利用して、会計処理に用いる装置の操作性を改善することを検討した。
 本発明の目的の一つは、会計処理に用いる装置の操作性を改善する技術を提供することである。
 本発明の画像識別レジ装置は、
 タッチパネルディスプレイ上に載置された商品の画像を取得する画像取得手段と、
 前記画像に写っている商品を識別する商品識別手段と、
 前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させる表示制御手段と、
 前記ユーザインタフェースに対する入力に基づく処理を実行する処理実行手段と、
 を備える。
 本発明の画像識別レジシステムは、
 商品の載置面として利用されるタッチパネルディスプレイと、
 前記商品を撮影して前記商品の画像を生成する撮像装置と、
 前記タッチパネルディスプレイ上に載置された商品の画像を取得する画像取得手段と、
 前記画像に写っている商品を識別する商品識別手段と、
 前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させる表示制御手段と、
 前記ユーザインタフェースに対する入力に基づいて処理を実行する処理実行手段と、
 を備える。
 本発明の会計処理方法は、
 コンピュータが、
 タッチパネルディスプレイ上に載置された商品の画像を取得し、
 前記画像に写っている商品を識別し、
 前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
 前記ユーザインタフェースに対する入力に基づいて処理を実行する、
 ことを含む。
 本発明のプログラムは、コンピュータに上述の会計処理方法を実行させる。
 本発明によれば、会計処理に用いる装置の操作性を改善することができる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
画像識別レジシステムの構成例を示す図である。 画像識別レジシステムのハードウエア構成を例示するブロック図である。 第1実施形態の画像識別レジシステムにより実行される処理の流れを例示するシーケンス図である。 表示制御部により表示される第1のユーザインタフェースの一例を示す図である。 表示制御部により表示される支払い処理用画面の一例を示す図である。 表示制御部により表示される支払い処理用画面の一例を示す図である。 表示制御部により表示される支払い処理用画面の一例を示す図である。 第2の具体例における画像識別レジシステムの構成例を示す図である。 表示制御部により表示される第2のユーザインタフェースの一例を示す図である。 表示制御部により表示される第3のユーザインタフェースの一例を示す図である。 表示制御部により表示される第3のユーザインタフェースの一例を示す図である。 表示制御部により表示される第3のユーザインタフェースの一例を示す図である。 表示制御部により表示される第4のユーザインタフェースの一例を示す図である。 表示制御部により表示される第5のユーザインタフェースの一例を示す図である。 表示制御部により表示される第5のユーザインタフェースの一例を示す図である。 表示制御部により表示される第5のユーザインタフェースの一例を示す図である。 表示制御部により表示される第5のユーザインタフェースの一例を示す図である。 表示制御部により表示される総合的なユーザインタフェースの一例を示す図である。 表示制御部により表示される第6のユーザインタフェースの一例を示す図である。 指示オブジェクトの軌跡に応じて実行すべき処理を定義する情報の一例を示す図である。
 以下、本発明の実施形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
 [実施形態]
 〔システム構成例〕
 図1は、画像識別レジシステム1の構成例を示す図である。なお、図1はあくまで例示であり、本発明に係る画像識別レジシステム1は図1に描かれる構成に限定されない。図1に示されるように、画像識別レジシステム1は、画像識別レジ装置10、撮像装置30、およびタッチパネルディスプレイ40を含んで構成される。画像識別レジ装置10は、図示しない配線等によって撮像装置30、およびタッチパネルディスプレイ40と接続されている。
 タッチパネルディスプレイ40は、様々な画像をその表示面上に表示する。また、タッチパネルディスプレイ40は、指やタッチペンなどを用いたタッチ操作による入力を受け付ける機能を有する。また、タッチパネルディスプレイ40の表示面は、図示されるように、商品Pを載置する載置面としても利用される。
 図1に示されるように、撮像装置30は、タッチパネルディスプレイ40を撮像範囲に含むように配置されている。撮像装置30は、タッチパネルディスプレイ40の表示面上に載置された商品Pを撮影して、商品Pが写っている画像を生成する。撮像装置30により生成された画像は、画像識別レジ装置10に送信される。
 図1に例示されるように、本実施形態の画像識別レジ装置10は、画像取得部110、商品識別部120、表示制御部130を、および処理実行部140を備える。画像取得部110は、撮像装置30により生成された画像を取得する。商品識別部120は、画像取得部110により取得された画像に写っている商品を識別する。例えば、商品識別部120は、既知の物体認識技術(例えば、パターンマッチングや機械学習により構築された識別器など)を用いて、撮像装置30により生成された画像に写っている商品を識別することができる。また、撮像装置30により生成された画像に複数の商品が写っている場合であっても、既知の物体認識アルゴリズムを用いて、それらの商品をそれぞれ個別に識別することができる。表示制御部130は、商品識別部120による商品の識別結果に応じて、その商品の会計処理に必要な入力を受け付けるユーザインタフェースをタッチパネルディスプレイ40上に表示させる。ここで、「商品の会計処理」とは、店舗で商品を購入する際に行われるレジ業務の一連の処理を意味する。処理実行部140は、タッチパネルディスプレイ40上に表示されたユーザインタフェースに対する入力に基づいて処理を実行する。処理実行部140の動作の具体的な例については、他の実施形態で説明する。
 〔ハードウエア構成例〕
 画像識別レジシステム1は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、画像識別レジシステム1がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図2は、画像識別レジシステム1のハードウエア構成を例示するブロック図である。
 画像識別レジ装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
 バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
 メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
 ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は画像識別レジ装置10の各機能(画像取得部110、商品識別部120、表示制御部130、および処理実行部140など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。
 入出力インタフェース1050は、画像識別レジ装置10と各種入出力デバイスとを接続するためのインタフェースである。図2では、画像識別レジ装置10は、撮像装置30およびタッチパネルディスプレイ40と、入出力インタフェース1050を介して接続されている。撮像装置30は、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを搭載するカメラである。撮像装置30は、図示されるように、タッチパネルディスプレイ40(およびタッチパネルディスプレイ40上に載置される商品P)を撮像範囲に含むように設置される。撮像装置30は、タッチパネルディスプレイ40上に載置された商品Pを撮影して、その商品Pが写る画像を生成する。タッチパネルディスプレイ40は、タッチ機能付きの表示デバイスである。なお、タッチパネルディスプレイ40は、商品Pの載置面としても利用される。そのため、タッチパネルディスプレイ40としては、好ましくは、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro Luminescence)などの平面型ディスプレイが利用される。また、入出力インタフェース1050には、図示しない会計処理用機器が接続されている。会計処理用機器は、例えば、バーコードスキャナ、キャッシャ、ドロワ、自動釣銭機、レシートプリンタ、キーボードやマウスなどの入力機器、スピーカーなどの出力機器を含む。また、会計処理用機器として、店員専用または顧客専用のディスプレイ(タッチパネルディスプレイ40とは異なるディスプレイ)が、入出力インタフェース1050を介して画像識別レジ装置10と接続されていてもよい。
 ネットワークインタフェース1060は、画像識別レジ装置10をネットワークに接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1060がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 図2は、あくまで一例であり、画像識別レジシステム1のハードウエア構成は図2の例に制限されない。例えば、画像識別レジ装置10は、ネットワークインタフェース1060を介して、撮像装置30およびタッチパネルディスプレイ40と接続されていてもよい。
 〔処理の流れ〕
 図3を用いて、本実施形態の画像識別レジシステム1により実行される処理の流れを説明する。図3は、第1実施形態の画像識別レジシステム1により実行される処理の流れを例示するシーケンス図である。
 まず、画像取得部110は、撮像装置30により生成された撮影画像を取得する(S102)。例えば、撮像装置30は、イメージセンサのセンシング結果(撮影画像)を、画像取得部110に常時出力している。また、撮像装置30は、画像取得部110の指示に応じて、画像を生成するように構成されていてもよい。そして、商品識別部120は、画像取得部110により取得された撮影画像の中に商品が存在するか否かを判定する(S104)。例えば、商品識別部120は、画像取得部110により取得された撮影画像(または撮影画像から抽出される特徴量)を商品識別エンジン(図示せず)に入力して得られる出力結果に基づいて、撮影画像の中に商品が存在するか否かを判定することができる。その他にも、商品識別部120は、エッジ特徴量などを用いて撮影画像の中から物体の領域を検出した後、テンプレートマッチングなどを行って当該物体が商品か否かを判定してもよい。
 撮影画像の中に商品が存在しない場合(S104:NO)、画像取得部110は、撮像装置30により生成される新たな撮影画像を取得し、商品識別部120は、その新たな撮影画像の中に商品が存在する否かを判定する。
 一方、撮影画像の中に商品が存在する場合(S104:YES)、商品識別部120は、商品の識別結果をリストに追加して、例えばメモリ1030などに保存する。また、表示制御部130は、商品識別部120が商品を識別したことに応じて、商品の会計処理で必要な入力を受け付けるためのユーザインタフェースの描画データを生成し、タッチパネルディスプレイ40に送信する(S106)。タッチパネルディスプレイ40は、表示制御部130から取得した描画データを用いて、ユーザインタフェースをタッチパネルディスプレイ40上に表示させる(S108)。そして、タッチパネルディスプレイ40に表示されたユーザインタフェース上で入力が行われた場合(S110)、当該ユーザインタフェースに対して行われた入力の情報が、画像識別レジ装置10に送信される(S112)。処理実行部140は、S112の処理で取得した、ユーザインタフェースに対する入力に応じた処理を特定し、その特定した処理を実行する(S114)。
 以上、本実施形態では、タッチパネルディスプレイ40上に載置された商品が写る画像を用いてその商品が識別されると、その商品の識別結果に応じてタッチパネルディスプレイ40上にユーザインタフェースが表示される。このユーザインタフェースは、商品の会計処理に必要な入力を受け付ける。そして、ユーザインタフェースに対して行われた入力に基づいて、処理が実行される。
 これにより、商品の会計処理で必要な入力操作を、タッチパネルディスプレイ40上で完結させることができる。つまり、商品の会計処理において操作すべき装置をタッチパネルディスプレイ40からその他の装置に切り替える回数が減る。よって、画像識別レジシステム1の利用者の操作性を改善する効果が見込める。更に、本実施形態のようにタッチパネルディスプレイ40を有効利用することにより、会計処理における顧客からのアクション(例えば、商品のキャンセル操作など)を画像識別レジシステム1が簡易に取得することができる。
 〔具体例〕
 以下、上述の画像識別レジシステム1による具体的な動作例について説明する。
 <第1の具体例>
 本具体例において、表示制御部130は、商品代金の支払い処理に進むためのユーザインタフェース(以下、「第1のユーザインタフェース」と表記)を、タッチパネルディスプレイ40上に表示させる。
 図4は、表示制御部130により表示される第1のユーザインタフェースの一例を示す図である。図4の上半分には、タッチパネルディスプレイ40の表示面上に、商品Pが載置されている様子が描かれている。また、図4の下半分には、タッチパネルディスプレイ40の表示面上に載置された商品Pが識別されたことに応じて、タッチパネルディスプレイ40上に小計ボタンUI1(第1のユーザインタフェース)が表示される様子が描かれている。この場合、以下に示すような処理が実行される。
 まず、商品識別部120は、商品Pが写る画像を解析することによって、その商品を識別する。すると、表示制御部130は、図4の下半部に描かれているように、商品を識別したことを示すマークMをタッチパネルディスプレイ40上に表示する。なお、表示制御部130は、「撮像装置30により生成された画像での座標」を「タッチパネルディスプレイ40の表示面(商品Pの載置面)での座標」に変換する変換ルールを予め保持している。そして、表示制御部130は、当該変換ルールに基づいて画像内の商品Pの位置(座標)をタッチパネルディスプレイ40の表示面での位置(座標)に変換し、例えば変換した位置を囲むように枠状のマークMを表示させることができる。また、表示制御部130は、商品Pが識別されたことに応じて、図示されるような小計ボタンUI1(第1のユーザインタフェース)をタッチパネルディスプレイ40上に表示させる。表示制御部130は、小計ボタンUI1(第1のユーザインタフェース)の表示位置を、商品Pの位置に基づいて決定することができる。図4の例では、表示制御部130は、商品Pの近傍に小計ボタンUI1(第1のユーザインタフェース)を表示させている。この場合、表示制御部130は、例えば、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域を小計ボタンUI1(第1のユーザインタフェース)の表示位置として決定することができる。なお、表示制御部130は、画像取得部110により取得された画像を解析するなどして、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域を特定することができる。
 処理実行部140は、小計ボタンUI1(第1のユーザインタフェース)に対する入力(例えば、押下操作)に応じて、商品代金の支払い処理を実行する。例えば、処理実行部140は、表示制御部130に指示を送信して、図5に示されるような支払い処理用画面S1をタッチパネルディスプレイ40上に表示させる。図5は、支払い処理用画面の一例を示す図である。図5には、様々な支払方法(電子マネー、クレジットカード、ロイヤリティプログラムで付与されたポイント、クーポン券や金券、現金)を選択可能な画面S1が例示されている。顧客は、画面S1において所望の支払方法を選択して、商品代金の支払いを行うことができる。
 また、処理実行部140は、画面S1においてクレジットカード払いなど、本人認証が必要な支払い方法が選択された場合、本人認証用の情報の入力を受け付ける画面(例:図6、図7)を更に表示させてもよい。図6および図7は、表示制御部130により表示される支払い処理用画面の一例を示す図である。図6では、本人認証用の署名の入力を受け付ける入力フォームを有する画面S2が例示されている。図7では、本人認証用のPIN(Personal Identification Number)の入力を受け付ける入力フォームを有する画面S3が例示されている。図6または図7の画面が表示される場合、以下のような処理が実行される。
 まず、図5の画面S1において「クレジットカード」が選択された後、図示しないカードリーダなどによりクレジットカードが読み込まれる。すると、処理実行部140は、表示制御部130に指示を送信して、図6に示されるような支払い処理用画面S2または図7に示されるような支払い処理用画面S3をタッチパネル上に表示させる。支払い処理用画面S2が表示された場合、顧客は当該画面上の入力フォームに署名する。これにより、処理実行部140は、タッチパネルディスプレイ40上での署名の軌跡を取得することができる。また、支払い処理用画面S3が表示された場合、顧客は当該画面上の入力フォームで自身のPINコードを入力する。これにより、処理実行部140はその顧客のPINコードを取得することができる。そして、処理実行部140は、顧客の署名やPINコードを使って、クレジット決済の処理を完了させることができる。なお、PINコードについては秘匿性の高い情報である。そのため、処理実行部140は、図7に例示されるような入力フォームを、タッチパネルディスプレイ40ではなく、図示しない顧客専用のタッチパネルディスプレイなどに表示させてもよい。
 <第2の具体例>
 社員食堂などにおいて、社員証といった身分証明書をもって商品の購入者を識別することが行われることもある。本具体例において、画像識別レジシステム1は、図8に示すような構成を有する。
 図8は、第2の具体例における画像識別レジシステム1の構成例を示す図である。図8に示されるように、本具体例において、画像識別レジ装置10は、購入者情報取得部150を更に備える。購入者情報取得部150は、購入者識別情報を取得する。購入者識別情報は、商品の購入者を識別可能な情報である。上述の社員食堂のケースでは、例えば、社員証のICタグに記憶された社員番号や、社員証に記載された社員の顔画像などが、購入者識別情報として利用され得る。この場合、購入者情報取得部150は、図示しないカードリーダなどを用いて、社員証から社員番号等の購入者識別情報を取得することができる。また、購入者情報取得部150は、撮像装置30あるいは図示しない他の撮像装置を用いて、社員番号や顔画像が印刷された社員証の面を撮影することによって、社員番号や顔画像が写っている画像を取得することができる。処理実行部140は、購入者情報取得部150により取得された画像を解析することによって、購入者識別情報を取得することができる。例えば、画像に社員番号が含まれている場合、処理実行部140は、OCR(Optical Character Recognition)技術を用いて、画像から社員番号(購入者識別情報)を読み取ることができる。また、処理実行部140は、社員証の顔画像を用いた顔認証を行うことにより、その人物(購入者)を識別する情報を取得することができる。そして、処理実行部140は、図5に示されるような第1のユーザインタフェースに対する入力が行われ、かつ、購入者識別情報が取得された場合に、商品代金の支払い処理を実行する。
 なお、本具体例において、他人の社員証などが使ったなりすましを防止する機能を追加してもよい。例えば、処理実行部140は、購入者識別情報が取得された場合、表示制御部130に指示を送信して、本人認証用情報の入力を受け付けるユーザインタフェース(以下、「第2インタフェース」と表記)をタッチパネルディスプレイ40上に更に表示させてもよい。
 図9は、表示制御部130により表示される第2のユーザインタフェースの一例を示す図である。図9には、第2のユーザインタフェースの具体例として、本人認証用の署名の入力を受け付ける入力フォームUI2-1、および、顧客が予め定めた軌跡パターンを入力させる入力フォームUI2-2が例示されている。処理実行部140は、これらの入力フォームに対して入力された、署名や軌跡パターンを予め登録された情報と比較することによって、本人認証を行うことができる。
 <第3の具体例>
 本具体例において、表示制御部130は、商品代金を購入対象の商品として決定するためのユーザインタフェース(以下、「第3のユーザインタフェース」と表記)を、タッチパネルディスプレイ40上に表示させる。表示制御部130は、例えば、図10乃至図12に示されるような第3のユーザインタフェースをタッチパネルディスプレイ40上に表示させることができる。図10乃至図12は、表示制御部130により表示される第3のユーザインタフェースの一例を示す図である。
 図10では、商品Pの近傍に登録ボタンUI3-1(第3のインタフェース)が表示されている様子が描かれている。
 また、図11では、商品Pの近傍に、商品識別部120による商品の識別結果(ここでは、商品名)を含む選択可能なユーザインタフェースUI3-2(第3のインタフェース)が表示されている様子が描かれている。
 図10および図11の場合、例えば以下のような処理が実行される。まず、商品識別部120が、画像取得部110により取得された画像を用いて、タッチパネルディスプレイ40上に載置された商品Pを識別する。このとき、商品識別部120は、画像内での商品Pの位置情報を表示制御部130に送信する。そして、表示制御部130は、上述の変換ルールに基づいて画像内の商品Pの位置(座標)をタッチパネルディスプレイ40の表示面での位置(座標)に変換する。そして、表示制御部130は、登録ボタンUI3-1およびユーザインタフェースUI3-2(第3のインタフェース)の表示位置を、商品Pの位置に基づいて決定する。例えば、表示制御部130は、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域を登録ボタンUI3-1およびユーザインタフェースUI3-2(第3のインタフェース)の表示位置として決定することができる。なお、表示制御部130は、画像取得部110により取得された画像を解析するなどして、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域を特定することができる。
 また、処理実行部140は、登録ボタンUI3-1やユーザインタフェースUI3-2(第3のユーザインタフェース)に対する入力(例えば、押下操作)に応じて、商品識別部120により識別された商品を、購入対象の商品として決定する。具体的には、処理実行部140は、例えばメモリ1030などに保存している購入対象の商品リストに、商品識別部120により識別された商品の情報を追加する。また、タッチパネルディスプレイ40上の商品Pが購入対象の商品として登録された場合において、処理実行部140は、表示制御部130に指示を送信し、購入対象の商品として登録されたこと示す特殊なマークMを表示させてもよい。例えば、表示制御部130は、商品識別部120により商品が識別された段階では枠状のマークMを点滅させておき、購入対象の商品として登録された段階で枠状のマークMの点滅を止めて常時表示させるようにしてもよい。また、表示制御部130は、商品識別部120により商品が識別された段階か、購入対象の商品として商品が登録された段階かによって、マークMの色や表示の濃さなどを変えるように構成されていてもよい。
 なお、商品識別部120は画像を用いて商品を識別しているため、その識別結果が一意に定まらない場合もある。例えば、複数の商品が、タッチパネルディスプレイ40上に載置された商品の候補として識別される場合もある。このような場合において、表示制御部130は、図12に例示されるように、候補として識別された複数の商品のいずれかを選択するためのユーザインタフェースUI3-3をタッチパネルディスプレイ40上に表示させてもよい。この場合、処理実行部140は、ユーザインタフェースUI3-3で選択された商品を、購入対象の商品として決定する。具体的には、処理実行部140は、例えばメモリ1030などに保存している購入対象の商品リストに、商品識別部120により識別された複数の商品のうち、ユーザインタフェースUI3-3上で選択された商品の情報を追加する。
 上述の図11および図12の例において、表示制御部130は、商品名に加えて(或いは代わりに)、商品識別部120により識別された商品の画像を含むユーザインタフェースをタッチパネルディスプレイ40上に表示させてもよい。なお、ここで表示される「商品識別部120により識別された商品の画像」は、画像取得部110により取得された画像ではない。「商品識別部120により識別された商品の画像」は、例えば、所定の記憶装置(例えば、ストレージデバイス1040)に予め登録されている。表示制御部130は、商品識別部120による商品の識別結果を用いて、ストレージデバイス1040などに予め記憶された商品の画像の中から、識別された商品に対応する画像を読み出すことができる。
 <第4の具体例>
 本具体例において、表示制御部130は、商品識別部120の識別結果を訂正するためのユーザインタフェース(以下、「第4のユーザインタフェース」と表記)を、タッチパネルディスプレイ40上に表示させる。
 図13は、表示制御部130により表示される第4のユーザインタフェースの一例を示す図である。図13では、商品識別部120による商品の識別結果と共に、その識別結果を訂正させるための訂正ボタンを含むユーザインタフェースUI4が例示されている。
 図13の場合、例えば以下のような処理が実行される。まず、商品識別部120が、画像取得部110により取得された画像を用いて、タッチパネルディスプレイ40上に載置された商品Pを識別する。このとき、商品識別部120は、画像内での商品Pの位置情報を表示制御部130に送信する。そして、表示制御部130は、上述の変換ルールに基づいて画像内の商品Pの位置(座標)をタッチパネルディスプレイ40の表示面での位置(座標)に変換する。そして、表示制御部130は、ユーザインタフェースUI4(第4のインタフェース)の表示位置を、商品Pの位置に基づいて決定する。例えば、表示制御部130は、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域をユーザインタフェースUI4(第4のインタフェース)の表示位置として決定することができる。なお、表示制御部130は、画像取得部110により取得された画像を解析するなどして、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域を特定することができる。
 処理実行部140は、ユーザインタフェースUI4(第4のユーザインタフェース)に対する入力(例えば、訂正ボタンの押下操作)に応じて、商品識別部120の識別結果を訂正する処理を実行する。一例として、処理実行部140は、表示制御部130に指示を送信し、正しい商品名を入力するための入力フォーム(図示せず)をタッチパネルディスプレイ40上に表示させる。処理実行部140は、このように表示された入力フォームに入力された商品名からその商品の情報を取得し、訂正用の情報として表示制御部130に送信する。表示制御部130は、処理実行部140から取得した商品の情報を用いて、タッチパネルディスプレイ40上の表示を更新(訂正)する。また、他の一例として、処理実行部140は、商品識別部120に、タッチパネルディスプレイ40上の商品Pの識別処理を再実行させてもよい。このとき、処理実行部140は、現状の商品の識別結果が誤っていることを商品識別部120に通知する。商品識別部120は、処理実行部140からの通知に従って今識別されている商品を予め除外した上で、商品の識別処理を再実行する。これにより、誤った識別結果が再度表示されることを防止できる。
 <第5の具体例>
 本具体例において、表示制御部130は、商品の購入をキャンセルするためのユーザインタフェース(以下、「第5のユーザインタフェース」と表記)を、タッチパネルディスプレイ40上に表示させる。表示制御部130は、例えば、図14乃至図16に示されるような第3のユーザインタフェースをタッチパネルディスプレイ40上に表示させることができる。図14乃至図16は、表示制御部130により表示される第5のユーザインタフェースの一例を示す図である。
 図14では、商品Pの近傍にキャンセルボタンUI5-1(第5のインタフェース)が表示されている様子が描かれている。
 また、図15では、商品Pの近傍に、商品識別部120による商品の識別結果(ここでは、商品名)と共にキャンセルボタンを含むユーザインタフェースUI5-2(第5のインタフェース)が表示されている様子が描かれている。
 図14および図15の場合、例えば、以下のような処理が実行される。まず、商品識別部120が、画像取得部110により取得された画像を用いて、タッチパネルディスプレイ40上に載置された商品Pを識別する。このとき、商品識別部120は、画像内での商品Pの位置情報を表示制御部130に送信する。そして、表示制御部130は、上述の変換ルールに基づいて画像内の商品Pの位置(座標)をタッチパネルディスプレイ40の表示面での位置(座標)に変換する。そして、表示制御部130は、キャンセルボタンUI5-1およびユーザインタフェースUI5-2(第5のインタフェース)の表示位置を、商品Pの位置に基づいて決定する。例えば、表示制御部130は、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域をキャンセルボタンUI5-1およびユーザインタフェースUI5-2(第5のインタフェース)の表示位置として決定することができる。なお、表示制御部130は、画像取得部110により取得された画像を解析するなどして、商品Pの位置から所定の距離内であって他の商品や他の表示が存在しない領域を特定することができる。
 また、図16では、タッチパネルディスプレイ40上で商品Pが載置されている領域に、キャンセルボタンU5-3が表示される様子が描かれている。
 図16の場合、例えば、以下のような処理が実行される。まず、商品識別部120が、画像取得部110により取得された画像を用いて、タッチパネルディスプレイ40上に載置された商品Pを識別する。このとき、商品識別部120は、画像内での商品Pの位置情報を表示制御部130に送信する。そして、表示制御部130は、上述の変換ルールに基づいて画像内の商品Pの位置(座標)をタッチパネルディスプレイ40の表示面での位置(座標)に変換する。そして、表示制御部130は、例えば、キャンセルボタンUI5-3を、商品Pの位置(商品Pの領域)の中央に表示させる。図16の例では、タッチパネルディスプレイ40上に商品Pが載置されている場合、キャンセルボタンU5-3を視認することはできない。この場合、商品Pの購入をキャンセルするために顧客が商品Pをタッチパネルディスプレイ40上から取り除くことによって、キャンセルボタンU5-3が見えるようになる。
 また、処理実行部140は、図14乃至図16に例示する第5のユーザインタフェースに対する入力(例えば、押下操作)に応じて、対応する商品の購入をキャンセルする。具体的には、処理実行部140は、例えばメモリ1030などに保存している商品識別部120の識別結果(識別された商品)のリストから、第5のユーザインタフェースの入力が行われた商品の情報を削除する。そして、表示制御部130は、商品の情報が削除されたことに応じて、例えば各図に例示されるマークMの表示を取り消す。
 また、表示制御部130は、図17に示すように、タッチパネルディスプレイ40上から商品Pが取り除かれた(移動された)場合に、第5のユーザインタフェースを表示するように構成されていてもよい。
 図17は、表示制御部130により表示される第5のユーザインタフェースの一例を示す図である。図17の上半分では、図10と同様に、商品Pの近傍に登録ボタンU3-1(第1のユーザインタフェース)が表示されている様子が描かれている。図17の下半分では、タッチパネルディスプレイ40上から商品Pが取り除かれた場合に、タッチパネルディスプレイ40の表示がどのように変化するかが描かれている。具体的には、タッチパネルディスプレイ40上から商品Pが取り除かれた場合、表示制御部130は、取り除かれた商品Pが位置していた領域の近傍に、図に示されるような第5のユーザインタフェースU5-4を表示する。ここで、「はい」が押下された場合、上述したように、処理実行部140は、商品の購入をキャンセルする処理を実行する。また、ここで「いいえ」が押下された場合、処理実行部140は、商品をマークMの位置に戻すよう促すメッセージを、タッチパネルディスプレイ40または図示しないスピーカーなどを用いて出力する。
 <第7の具体例>
 表示制御部130は、第1乃至第6の具体例で示されるユーザインタフェースを組み合わせた総合的なユーザインタフェースをタッチパネルディスプレイ40上に表示してもよい(例:図17)。図18は、表示制御部130により表示される総合的なユーザインタフェースの一例を示す図である。図18の例では、小計ボタン(第1のユーザインタフェース)、登録ボタン(第3のユーザインタフェース)、訂正ボタン(第4のユーザインタフェース)、および、キャンセルボタン(第5のユーザインタフェース)を含む総合的なユーザインタフェースUIが例示されている。なお、各ボタンを押下した場合の動作は、各具体例で説明したとおりである。
 <第8の具体例>
 本具体例において、表示制御部130は、タッチパネルディスプレイ40上での指示オブジェクトの軌跡を取得するためのユーザインタフェース(以下、「第6のユーザインタフェース」と表記)を、タッチパネルディスプレイ40上に表示させる。ここで、指示オブジェクトとは、タッチパネルディスプレイ40でのタッチ操作を行う物体であり、具体的には、人物の指やタッチペンなどである。
 図19は、表示制御部130により表示される第6のユーザインタフェースの一例を示す図である。図19の例では、第6のユーザインタフェースとして、吹き出し型の入力領域UI6が表示されている様子が描かれている。顧客や店員は、この入力領域UI6上で指示オブジェクトを動かして、所定の軌跡を描く。処理実行部140は、描かれた軌跡を取得すると、取得した軌跡に応じた処理を実行する。例えば、処理実行部140は、図20に例示されるような情報を参照して、取得した軌跡に応じて実行すべき処理を特定することができる。図20は、指示オブジェクトの軌跡に応じて実行すべき処理を定義する情報の一例を示す図である。図20では、指示オブジェクトの軌跡と、実行すべき処理の情報とを対応付けて記憶するテーブルが例示されている。なお、図20はあくまで一例であり、指示オブジェクトの軌跡に応じて実行すべき処理を定義する情報は図20に限定されない。例えば、タッチパネルディスプレイ40で可能な操作(例えば、ダブルタップ操作やスワイプ操作など)に対応する軌跡に応じて実行すべき処理が定義されていてもよい。処理実行部140は、まず、入力領域UI6において描かれた軌跡の形状を判定する。例えば、入力領域において円形(あるいは、円に近い形状)の軌跡が描かれたとする。この場合、処理実行部140は、商品識別部120により識別された商品(ここでは、商品名が「XXX」という商品)を購入対象として登録する。また、例えば、入力領域においてバツ印(あるいは、バツ印に近い形状)の軌跡が描かれたとする。この場合、処理実行部140は、商品識別部120により識別された商品(ここでは、商品名が「XXX」という商品)の購入をキャンセルする処理を実行する。また、例えば、入力領域において三角形(あるいは、三角形に近い形状)の軌跡が描かれたとする。この場合、処理実行部140は、商品識別部120の識別結果(ここでは、「商品名:XXX」という識別結果)を訂正する処理を実行する。また、例えば、入力領域において四角形(あるいは、四角形に近い形状)の軌跡が描かれたとする。この場合、処理実行部140は、商品代金の支払い処理を実行する。
 また、図19に示されるように、表示制御部130は、軌跡別に実行される処理を示す情報Aをタッチパネルディスプレイ40上に表示してもよい。この情報Aを表示することで、顧客や店員が、所望の処理を実行するためにどのような軌跡を描けばよいかを容易に把握することができる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 例えば、本発明は、購入商品の登録から代金の支払いまでの操作を店員用の装置で行う一般的な方式のみならず、所謂セミセルフ方式やセルフ方式にも適用できる。セミセルフ方式では、商品登録用のレジ装置と代金支払い用の精算装置が別々に設けられている。そして、この商品登録用のレジ装置に、上述の画像識別レジ装置10の機能を持たせることができる。また、セルフ方式では、購入商品の登録から代金の支払いまでを顧客が操作する装置で行う。そして、この顧客が操作する装置に、上述の画像識別レジ装置10の機能を持たせることができる。
 また、本発明に係る画像識別レジシステム1において、タッチパネルディスプレイ40の代わりに、タッチ機能を有さないディスプレイや、投影面に画像を投影するプロジェクターなどが利用されてもよい。この場合、処理実行部140は、例えば次のように動作する。処理実行部140は、まず、ディスプレイの表示面に表示された画像またはプロジェクターから投影された画像の中の指示オブジェクト(例えばユーザの手や指など)の位置を検出する。なお、処理実行部140は、既知の物体認識アルゴリズムを利用して、指示オブジェクトの位置を検出および追跡することができる。そして、処理実行部140は、指示オブジェクトの検出位置に基づいて、ディスプレイに表示されたユーザインタフェース(投影面に投影されたユーザインタフェース)に対する入力の有無を判断できる。そして、ディスプレイに表示されたユーザインタフェース(投影面に投影されたユーザインタフェース)に対する入力があった場合、処理実行部140は、上述の各実施形態で説明したように、入力に対応する処理を実行する。
 また、上述の説明で用いたシーケンス図では、複数の工程(処理)が順番に記載されているが、それらの工程の実行順序は、その記載の順番に制限されない。図示される工程の実行順序は、内容的に支障のない範囲で変更することができる。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
 タッチパネルディスプレイ上に載置された商品の画像を取得する画像取得手段と、
 前記画像に写っている商品を識別する商品識別手段と、
 前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させる表示制御手段と、
 前記ユーザインタフェースに対する入力に基づく処理を実行する処理実行手段と、
 を備える画像識別レジ装置。
2.
 前記表示制御手段は、商品代金の支払い処理に進むための第1のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 1.に記載の画像識別レジ装置。
3.
 前記商品の購入者を識別する購入者識別情報を取得する購入者情報取得手段を更に備え、
 前記処理実行手段は、前記第1のユーザインタフェースに対する入力、および、前記購入者識別情報の取得が完了した場合に、前記商品代金の支払い処理を実行する、
 2.に記載の画像識別レジ装置。
4.
 前記表示制御手段は、前記購入者の本人認証用情報の入力を受け付ける第2のユーザインタフェースを、前記購入者識別情報の取得に応じて前記タッチパネルディスプレイ上に表示させる、
 3.に記載の画像識別レジ装置。
5.
 前記表示制御手段は、前記商品を購入対象の商品として決定するための第3のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 1.から4.のいずれか1つに記載の画像識別レジ装置。
6.
 前記表示制御手段は、前記商品識別手段による商品の識別結果を含むユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
 5.に記載の画像識別レジ装置。
7.
 前記表示制御手段は、前記商品識別手段により複数の商品が候補として識別された場合、当該複数の商品のいずれかを選択するためのユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
 6.に記載の画像識別レジ装置。
8.
 前記表示制御手段は、前記商品識別手段の識別結果を訂正するための第4のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 1.から7.のいずれか1つに記載の画像識別レジ装置。
9.
 前記表示制御手段は、前記商品の購入をキャンセルするための第5のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 1.から8.のいずれか1つに記載の画像識別レジ装置。
10.
 前記表示制御手段は、前記タッチパネルディスプレイ上での指示オブジェクトの軌跡を取得するための第6のユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
 前記処理実行手段は、前記第6のユーザインタフェースで取得された前記指示オブジェクトの軌跡に対応する処理を実行する、
 1.に記載の画像識別レジ装置。
11.
 前記表示制御手段は、前記タッチパネルディスプレイ上に載置された前記商品の位置に基づいて、前記ユーザインタフェースの表示位置を決定する、
 1.から10.のいずれか1つに記載の画像識別レジ装置。
12.
 商品の載置面として利用されるタッチパネルディスプレイと、
 前記商品を撮影して前記商品の画像を生成する撮像装置と、
 前記タッチパネルディスプレイ上に載置された商品の画像を取得する画像取得手段と、
 前記画像に写っている商品を識別する商品識別手段と、
 前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させる表示制御手段と、
 前記ユーザインタフェースに対する入力に基づいて処理を実行する処理実行手段と、
 を備える画像識別レジシステム。
13.
 前記表示制御手段は、商品代金の支払い処理に進むための第1のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 12.に記載の画像識別レジシステム。
14.
 前記商品の購入者を識別する購入者識別情報を取得する購入者情報取得手段を更に備え、
 前記処理実行手段は、前記第1のユーザインタフェースに対する入力、および、前記購入者識別情報の取得が完了した場合に、前記商品代金の支払い処理を実行する、
 13.に記載の画像識別レジシステム。
15.
 前記表示制御手段は、前記購入者の本人認証用情報の入力を受け付ける第2のユーザインタフェースを、前記購入者識別情報の取得に応じて前記タッチパネルディスプレイ上に表示させる、
 14.に記載の画像識別レジシステム。
16.
 前記表示制御手段は、前記商品を購入対象の商品として決定するための第3のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 12.から15.のいずれか1つに記載の画像識別レジシステム。
17.
 前記表示制御手段は、前記商品識別手段による商品の識別結果を含むユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
 16.に記載の画像識別レジシステム。
18.
 前記表示制御手段は、前記商品識別手段により複数の商品が候補として識別された場合、当該複数の商品のいずれかを選択するためのユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
 17.に記載の画像識別レジシステム。
19.
 前記表示制御手段は、前記商品識別手段の識別結果を訂正するための第4のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 12.から18.のいずれか1つに記載の画像識別レジシステム。
20.
 前記表示制御手段は、前記商品の購入をキャンセルするための第5のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 12.から19.のいずれか1つに記載の画像識別レジシステム。
21.
 前記表示制御手段は、前記タッチパネルディスプレイ上での指示オブジェクトの軌跡を取得するための第6のユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
 前記処理実行手段は、前記第6のユーザインタフェースで取得された前記指示オブジェクトの軌跡に対応する処理を実行する、
 12.に記載の画像識別レジシステム。
22.
 前記表示制御手段は、前記タッチパネルディスプレイ上に載置された前記商品の位置に基づいて、前記ユーザインタフェースの表示位置を決定する、
 12.から21.のいずれか1つに記載の画像識別レジシステム。
23.
 コンピュータが、
 タッチパネルディスプレイ上に載置された商品の画像を取得し、
 前記画像に写っている商品を識別し、
 前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
 前記ユーザインタフェースに対する入力に基づいて処理を実行する、
 ことを含む会計処理方法。
24.
 前記コンピュータが、
 商品代金の支払い処理に進むための第1のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 ことを含む23.に記載の会計処理方法。
25.
 前記コンピュータが、
 前記商品の購入者を識別する購入者識別情報を取得し、
 前記第1のユーザインタフェースに対する入力、および、前記購入者識別情報の取得が完了した場合に、前記商品代金の支払い処理を実行する、
 ことを含む24.に記載の会計処理方法。
26.
 前記コンピュータが、
 前記購入者の本人認証用情報の入力を受け付ける第2のユーザインタフェースを、前記購入者識別情報の取得に応じて前記タッチパネルディスプレイ上に表示させる、
 ことを含む25.に記載の会計処理方法。
27.
 前記コンピュータが、
 前記商品を購入対象の商品として決定するための第3のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 ことを含む23.から26.のいずれか1つに記載の会計処理方法。
28.
 前記コンピュータが、
 前記商品の識別結果を含むユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
 ことを含む27.に記載の会計処理方法。
29.
 前記コンピュータが、
 複数の商品が候補として識別された場合、当該複数の商品のいずれかを選択するためのユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
 ことを含む28.に記載の会計処理方法。
30.
 前記コンピュータが、
 前記商品の識別結果を訂正するための第4のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 ことを含む23.から29.のいずれか1つに記載の会計処理方法。
31.
 前記コンピュータが、
 前記商品の購入をキャンセルするための第5のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
 ことを含む23.から30.のいずれか1つに記載の会計処理方法。
32.
 前記コンピュータが
 前記タッチパネルディスプレイ上での指示オブジェクトの軌跡を取得するための第6のユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
 前記第6のユーザインタフェースで取得された前記指示オブジェクトの軌跡に対応する処理を実行する、
 ことを含む23.に記載の会計処理方法。
33.
 前記コンピュータが、
 前記タッチパネルディスプレイ上に載置された前記商品の位置に基づいて、前記ユーザインタフェースの表示位置を決定する、
 ことを含む23.から32.のいずれか1つに記載の会計処理方法。
34.
 コンピュータに、23.から33.のいずれか1つに記載の会計処理方法を実行させるプログラム。

Claims (14)

  1.  タッチパネルディスプレイ上に載置された商品の画像を取得する画像取得手段と、
     前記画像に写っている商品を識別する商品識別手段と、
     前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させる表示制御手段と、
     前記ユーザインタフェースに対する入力に基づく処理を実行する処理実行手段と、
     を備える画像識別レジ装置。
  2.  前記表示制御手段は、商品代金の支払い処理に進むための第1のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
     請求項1に記載の画像識別レジ装置。
  3.  前記商品の購入者を識別する購入者識別情報を取得する購入者情報取得手段を更に備え、
     前記処理実行手段は、前記第1のユーザインタフェースに対する入力、および、前記購入者識別情報の取得が完了した場合に、前記商品代金の支払い処理を実行する、
     請求項2に記載の画像識別レジ装置。
  4.  前記表示制御手段は、前記購入者の本人認証用情報の入力を受け付ける第2のユーザインタフェースを、前記購入者識別情報の取得に応じて前記タッチパネルディスプレイ上に表示させる、
     請求項3に記載の画像識別レジ装置。
  5.  前記表示制御手段は、前記商品を購入対象の商品として決定するための第3のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
     請求項1から4のいずれか1項に記載の画像識別レジ装置。
  6.  前記表示制御手段は、前記商品識別手段による商品の識別結果を含むユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
     請求項5に記載の画像識別レジ装置。
  7.  前記表示制御手段は、前記商品識別手段により複数の商品が候補として識別された場合、当該複数の商品のいずれかを選択するためのユーザインタフェースを、前記第3のユーザインタフェースとして前記タッチパネルディスプレイ上に表示させる、
     請求項6に記載の画像識別レジ装置。
  8.  前記表示制御手段は、前記商品識別手段の識別結果を訂正するための第4のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
     請求項1から7のいずれか1項に記載の画像識別レジ装置。
  9.  前記表示制御手段は、前記商品の購入をキャンセルするための第5のユーザインタフェースを、前記タッチパネルディスプレイ上に表示させる、
     請求項1から8のいずれか1項に記載の画像識別レジ装置。
  10.  前記表示制御手段は、前記タッチパネルディスプレイ上での指示オブジェクトの軌跡を取得するための第6のユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
     前記処理実行手段は、前記第6のユーザインタフェースで取得された前記指示オブジェクトの軌跡に対応する処理を実行する、
     請求項1に記載の画像識別レジ装置。
  11.  前記表示制御手段は、前記タッチパネルディスプレイ上に載置された前記商品の位置に基づいて、前記ユーザインタフェースの表示位置を決定する、
     請求項1から10のいずれか1項に記載の画像識別レジ装置。
  12.  商品の載置面として利用されるタッチパネルディスプレイと、
     前記商品を撮影して前記商品の画像を生成する撮像装置と、
     前記タッチパネルディスプレイ上に載置された商品の画像を取得する画像取得手段と、
     前記画像に写っている商品を識別する商品識別手段と、
     前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させる表示制御手段と、
     前記ユーザインタフェースに対する入力に基づいて処理を実行する処理実行手段と、
     を備える画像識別レジシステム。
  13.  コンピュータが、
     タッチパネルディスプレイ上に載置された商品の画像を取得し、
     前記画像に写っている商品を識別し、
     前記商品の識別結果に応じて、前記商品の会計処理に必要な入力を受け付けるユーザインタフェースを前記タッチパネルディスプレイ上に表示させ、
     前記ユーザインタフェースに対する入力に基づいて処理を実行する、
     ことを含む会計処理方法。
  14.  コンピュータに、請求項13に記載の会計処理方法を実行させるプログラム。
PCT/JP2018/008109 2018-03-02 2018-03-02 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム WO2019167272A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020503243A JP7006767B2 (ja) 2018-03-02 2018-03-02 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム
US16/977,127 US11599867B2 (en) 2018-03-02 2018-03-02 Image identification register apparatus, image identification register system, checkout processing method, and program
PCT/JP2018/008109 WO2019167272A1 (ja) 2018-03-02 2018-03-02 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/008109 WO2019167272A1 (ja) 2018-03-02 2018-03-02 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2019167272A1 true WO2019167272A1 (ja) 2019-09-06

Family

ID=67806019

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008109 WO2019167272A1 (ja) 2018-03-02 2018-03-02 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11599867B2 (ja)
JP (1) JP7006767B2 (ja)
WO (1) WO2019167272A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7435758B2 (ja) 2020-05-20 2024-02-21 日本電気株式会社 処理システム、処理方法及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007305039A (ja) * 2006-05-15 2007-11-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP2009163330A (ja) * 2007-12-28 2009-07-23 Toshiba Tec Corp 商品販売データ処理装置及びコンピュータプログラム
JP2010049429A (ja) * 2008-08-20 2010-03-04 Toshiba Tec Corp カード処理端末及びコンピュータプログラム
US20100158310A1 (en) * 2008-12-23 2010-06-24 Datalogic Scanning, Inc. Method and apparatus for identifying and tallying objects
JP2013008103A (ja) * 2011-06-22 2013-01-10 Toshiba Tec Corp 提供商品確認装置、プログラム、および提供商品確認方法
JP2013145526A (ja) * 2012-01-16 2013-07-25 Toshiba Tec Corp 情報処理装置、店舗システム及びプログラム
JP2013186875A (ja) * 2012-03-12 2013-09-19 Dainippon Printing Co Ltd 会計管理システム及びレジシステム
JP2016110480A (ja) * 2014-12-09 2016-06-20 カシオ計算機株式会社 商品登録装置および商品登録方法
US20170017944A1 (en) * 2015-07-15 2017-01-19 Toshiba Tec Kabushiki Kaisha Commodity-sales-data processing apparatus, commodity-sales-data processing method, and computer-readable storage medium
JP2017062703A (ja) * 2015-09-25 2017-03-30 シャープ株式会社 商品情報入力機能を備えた複合機

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163331A (ja) 2007-12-28 2009-07-23 Toshiba Tec Corp 商品販売データ処理装置及びコンピュータプログラム
US9594983B2 (en) * 2013-08-02 2017-03-14 Digimarc Corporation Learning systems and methods
US9367203B1 (en) * 2013-10-04 2016-06-14 Amazon Technologies, Inc. User interface techniques for simulating three-dimensional depth
US10128890B2 (en) * 2014-09-09 2018-11-13 Ppip Llc Privacy and security systems and methods of use
JP7060230B2 (ja) 2016-01-21 2022-04-26 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007305039A (ja) * 2006-05-15 2007-11-22 Sony Corp 情報処理装置および方法、並びにプログラム
JP2009163330A (ja) * 2007-12-28 2009-07-23 Toshiba Tec Corp 商品販売データ処理装置及びコンピュータプログラム
JP2010049429A (ja) * 2008-08-20 2010-03-04 Toshiba Tec Corp カード処理端末及びコンピュータプログラム
US20100158310A1 (en) * 2008-12-23 2010-06-24 Datalogic Scanning, Inc. Method and apparatus for identifying and tallying objects
JP2013008103A (ja) * 2011-06-22 2013-01-10 Toshiba Tec Corp 提供商品確認装置、プログラム、および提供商品確認方法
JP2013145526A (ja) * 2012-01-16 2013-07-25 Toshiba Tec Corp 情報処理装置、店舗システム及びプログラム
JP2013186875A (ja) * 2012-03-12 2013-09-19 Dainippon Printing Co Ltd 会計管理システム及びレジシステム
JP2016110480A (ja) * 2014-12-09 2016-06-20 カシオ計算機株式会社 商品登録装置および商品登録方法
US20170017944A1 (en) * 2015-07-15 2017-01-19 Toshiba Tec Kabushiki Kaisha Commodity-sales-data processing apparatus, commodity-sales-data processing method, and computer-readable storage medium
JP2017062703A (ja) * 2015-09-25 2017-03-30 シャープ株式会社 商品情報入力機能を備えた複合機

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7435758B2 (ja) 2020-05-20 2024-02-21 日本電気株式会社 処理システム、処理方法及びプログラム
US11935373B2 (en) 2020-05-20 2024-03-19 Nec Corporation Processing system, processing method, and non-transitory storage medium

Also Published As

Publication number Publication date
JPWO2019167272A1 (ja) 2021-02-18
US11599867B2 (en) 2023-03-07
JP7006767B2 (ja) 2022-01-24
US20210049574A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7060230B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6999404B2 (ja) 物品認識装置及び物品認識方法
US20170293820A1 (en) Image processing device
WO2015159601A1 (ja) 情報処理装置
US20170091743A1 (en) Checkout system, accounting machine, and control program
JP6863296B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6601890B1 (ja) 商品購入支援システム、商品購入支援装置及びpos端末装置
US20140249950A1 (en) Store system
JP7006767B2 (ja) 画像識別レジ装置、画像識別レジシステム、会計処理方法、およびプログラム
US11587103B2 (en) Object detection system using image recognition, object detection device using image recognition, object detection method using image recognition, and non-transitory storage medium
EP3518143B1 (en) Article recognition device and commodity settlement device
WO2019186974A1 (ja) 画像識別レジ装置、画像識別レジシステム、商品情報表示方法、およびプログラム
JP6947283B2 (ja) 店舗装置、店舗システム、画像取得方法、およびプログラム
JP6398331B2 (ja) 情報処理装置、制御方法、及びプログラム
JP7214967B2 (ja) 商品情報取得装置、商品情報取得方法、およびプログラム
JP2019061427A (ja) 情報コード読取システム
WO2019181035A1 (ja) 登録システム、登録方法及びプログラム
JP6532114B1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7172060B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020170963A1 (ja) 処理装置、処理方法及びプログラム
WO2019186975A1 (ja) 会計装置、会計システム、商品識別方法、およびプログラム
JP2018129037A (ja) 物品認識装置及び物品認識方法
JP2022010292A (ja) 登録装置、登録方法及びプログラム
JP2020021504A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019139712A (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18908244

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020503243

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18908244

Country of ref document: EP

Kind code of ref document: A1