JP2021099629A - Information processing system, information processing device, and information processing method - Google Patents

Information processing system, information processing device, and information processing method Download PDF

Info

Publication number
JP2021099629A
JP2021099629A JP2019230748A JP2019230748A JP2021099629A JP 2021099629 A JP2021099629 A JP 2021099629A JP 2019230748 A JP2019230748 A JP 2019230748A JP 2019230748 A JP2019230748 A JP 2019230748A JP 2021099629 A JP2021099629 A JP 2021099629A
Authority
JP
Japan
Prior art keywords
image
information processing
processing system
captured
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019230748A
Other languages
Japanese (ja)
Inventor
暁艶 戴
Xiao Yan Dai
暁艶 戴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019230748A priority Critical patent/JP2021099629A/en
Priority to US17/756,882 priority patent/US20230013468A1/en
Priority to PCT/JP2020/045287 priority patent/WO2021112234A1/en
Priority to CN202080084524.7A priority patent/CN114766033A/en
Publication of JP2021099629A publication Critical patent/JP2021099629A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing system, an information processing device, and an information processing method capable of specifying what commodity an object is with high accuracy.SOLUTION: An information processing system 10 includes an imaging part 16 for generating an image signal by imaging, and an information processing device 18. The information processing device acquires a picked-up image corresponding to the image signal, and specifies an object corresponding to a partial image included in at least one of two picked-up images on the basis of a difference image between the two picked-up images having different imaging times.SELECTED DRAWING: Figure 2

Description

本開示は、情報処理システム、情報処理装置及び情報処理方法に関する。 The present disclosure relates to an information processing system, an information processing device, and an information processing method.

従来、商品の代金の清算のために、物体が何れの商品であるかを特定する情報処理システムが求められている。例えば、所定エリアに置かれた1つ以上の物体を複数方向からそれぞれ撮像した複数の画像に基づいて、物体が何れの商品であるかを特定する情報処理システムが知られている(特許文献1)。 Conventionally, in order to settle the price of a product, an information processing system that identifies which product the object is has been required. For example, there is known an information processing system that identifies which product an object is based on a plurality of images obtained by capturing one or more objects placed in a predetermined area from a plurality of directions (Patent Document 1). ).

特開2017−220198号公報JP-A-2017-220198

従来の情報処理システムには、改善の余地がある。 There is room for improvement in conventional information processing systems.

かかる点に鑑みてなされた本開示の目的は、改善された、情報処理システム、情報処理装置及び情報処理方法を提供することにある。 An object of the present disclosure made in view of this point is to provide an improved information processing system, information processing apparatus and information processing method.

本開示の一実施形態に係る情報処理システムは、撮像により画像信号を生成する撮像部と、情報処理装置とを備える。前記情報処理装置は、前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する。 The information processing system according to the embodiment of the present disclosure includes an imaging unit that generates an image signal by imaging and an information processing device. The information processing device acquires a captured image corresponding to the image signal, and corresponds to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times. Identify the object to be used.

本開示の一実施形態に係る情報処理装置は、通信部と、制御部とを備える。前記通信部は、撮像により画像信号を生成する撮像部と通信可能である。前記制御部は、前記通信部によって前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する。 The information processing device according to the embodiment of the present disclosure includes a communication unit and a control unit. The communication unit can communicate with an imaging unit that generates an image signal by imaging. The control unit acquires a captured image corresponding to the image signal by the communication unit, and is included in at least one of the two captured images based on the difference image of the two captured images having different imaging times. Identify the object that corresponds to the image.

本開示の一実施形態に係る情報処理方法は、撮像により画像信号を生成することを含む。前記情報処理方法は、前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定することを含む。 The information processing method according to the embodiment of the present disclosure includes generating an image signal by imaging. The information processing method acquires a captured image corresponding to the image signal, and corresponds to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times. Includes identifying the object to be.

本開示の一実施形態によれば、改善された、情報処理システム、情報処理装置及び情報処理方法が提供され得る。 According to one embodiment of the present disclosure, an improved information processing system, information processing apparatus and information processing method may be provided.

本開示の一実施形態に係る精算システムの全体構成を示す図である。It is a figure which shows the whole structure of the settlement system which concerns on one Embodiment of this disclosure. 図1に示す情報処理システムの全体構成を示す図である。It is a figure which shows the whole structure of the information processing system shown in FIG. 図2に示す情報処理システムの機能ブロック図である。It is a functional block diagram of the information processing system shown in FIG. 本開示の一実施形態に係る撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る差分画像の一例を示す図である。It is a figure which shows an example of the difference image which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る差分画像の一例を示す図である。It is a figure which shows an example of the difference image which concerns on one Embodiment of this disclosure. 本開示の一実施形態に係る情報処理システムの物体特定処理を示すフローチャートである。It is a flowchart which shows the object identification process of the information processing system which concerns on one Embodiment of this disclosure. 本開示の他の実施形態に係る撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which concerns on other embodiment of this disclosure. 本開示の他の実施形態に係る撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which concerns on other embodiment of this disclosure. 本開示の他の実施形態に係る情報処理システムの物体特定処理を示すフローチャートである。It is a flowchart which shows the object identification process of the information processing system which concerns on other embodiment of this disclosure. 本開示のさらに他の実施形態に係る情報処理システムの全体構成を示す図である。It is a figure which shows the whole structure of the information processing system which concerns on still another Embodiment of this disclosure. 本開示のさらに他の実施形態に係る情報処理システムの物体特定処理を示すフローチャートである。It is a flowchart which shows the object identification process of the information processing system which concerns on still another Embodiment of this disclosure. 本開示のさらに他の実施形態に係る差分画像の一例を示す図である。It is a figure which shows an example of the difference image which concerns on still another Embodiment of this disclosure. 本開示のさらに他の実施形態に係る情報処理システムの差分画像に対する物体認識を示すフローチャートである。It is a flowchart which shows the object recognition with respect to the difference image of the information processing system which concerns on still another Embodiment of this disclosure. 本開示のさらに他の実施形態に係る情報処理システムの全体構成を示す図である。It is a figure which shows the whole structure of the information processing system which concerns on still another Embodiment of this disclosure.

以下、本開示に係る実施形態について、図面を参照して説明する。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings.

図1に示すように、精算システム11は、少なくとも1つの情報処理システム10と、サーバ12とを含む。サーバ12は、物理サーバであってよいし、クラウドサーバであってよい。情報処理システム10とサーバ12とは、ネットワーク13を介して通信可能である。ネットワーク13は、無線、有線、又は、無線及び有線の組み合わせであってよい。 As shown in FIG. 1, the settlement system 11 includes at least one information processing system 10 and a server 12. The server 12 may be a physical server or a cloud server. The information processing system 10 and the server 12 can communicate with each other via the network 13. The network 13 may be wireless, wired, or a combination of wireless and wired.

情報処理システム10は、コンビニエンスストア及びスーパーマーケット等の任意の店舗に、配置されてよい。情報処理システム10は、店舗のキャッシュレジスタ端末として構成されてよい。情報処理システム10は、顧客が後述の載置台14に載置した商品を撮像することにより、撮像画像を生成する。情報処理システム10は、生成した撮像画像中の物体が、店舗の何れの商品であるかを特定する。本開示において「撮像画像中の物体」は、撮像画像中の、画像として描画される物体の像を意味する。情報処理システム10は、特定した商品情報を、ネットワーク13を介してサーバ12に送信する。当該商品情報には、商品名及び商品の数等が含まれ得る。サーバ12は、商品情報に基づいて、顧客に対する請求金額を算出する。サーバ12は、請求金額を、ネットワーク13を介して情報処理システム10に送信する。情報処理システム10は、顧客に請求金額を提示することにより、顧客に請求金額の支払いを要求する。 The information processing system 10 may be arranged in any store such as a convenience store and a supermarket. The information processing system 10 may be configured as a cash register terminal of a store. The information processing system 10 generates an captured image by capturing an image of a product placed on a mounting table 14 described later by a customer. The information processing system 10 identifies which product in the store the object in the generated captured image is. In the present disclosure, the "object in the captured image" means an image of an object drawn as an image in the captured image. The information processing system 10 transmits the specified product information to the server 12 via the network 13. The product information may include the product name, the number of products, and the like. The server 12 calculates the amount billed to the customer based on the product information. The server 12 transmits the billed amount to the information processing system 10 via the network 13. The information processing system 10 requests the customer to pay the billed amount by presenting the billed amount to the customer.

図2に示すように、情報処理システム10は、カメラ16(撮像部)と、情報処理装置18とを含む。情報処理システム10は、載置台14と、支持柱15と、表示装置17とを含んでよい。 As shown in FIG. 2, the information processing system 10 includes a camera 16 (imaging unit) and an information processing device 18. The information processing system 10 may include a mounting table 14, a support column 15, and a display device 17.

載置台14は、載置面14aを含む。顧客は、会計時に、購入したい商品を載置面14aに載置する。本実施形態では、載置面14aは、略長方形状である。ただし、載置面14aは、任意の形状であってよい。 The mounting table 14 includes a mounting surface 14a. At the time of checkout, the customer places the product he / she wants to purchase on the mounting surface 14a. In the present embodiment, the mounting surface 14a has a substantially rectangular shape. However, the mounting surface 14a may have any shape.

支持柱15は、載置台14の側部から、載置面14aの法線方向の一方に向けて延びる。当該法線方向の一方は、載置面14aの法線方向のうち、載置面14aから離れる方向であってよい。支持柱15の先端には、カメラ16が位置する。 The support pillar 15 extends from the side portion of the mounting table 14 toward one of the mounting surfaces 14a in the normal direction. One of the normal directions may be a direction away from the mounting surface 14a among the normal directions of the mounting surface 14a. The camera 16 is located at the tip of the support column 15.

カメラ16は、撮像により撮像画像に相当する画像信号を生成する。本実施形態では、カメラ16は、載置台14の載置面14aを撮像する。ただし、カメラ16が撮像する範囲は、載置面14aの少なくとも一部であればよく、載置面14aを超える範囲であってもよい。また、カメラ16が撮像する範囲は、載置台14の載置面14aに限定されない。例えば、カメラ16が撮像する範囲は、後述の図17に示すような、買い物かご214の中であってよい。 The camera 16 generates an image signal corresponding to the captured image by imaging. In the present embodiment, the camera 16 images the mounting surface 14a of the mounting table 14. However, the range imaged by the camera 16 may be at least a part of the mounting surface 14a, and may be a range exceeding the mounting surface 14a. Further, the range of imaging by the camera 16 is not limited to the mounting surface 14a of the mounting table 14. For example, the range imaged by the camera 16 may be in the shopping cart 214 as shown in FIG. 17 described later.

カメラ16は、載置台14の載置面14aを撮像可能に、配置されていてよい。カメラ16は、載置面14aに光軸が垂直になるように、配置されていてよい。カメラ16は、支持柱15の先端に、配置されていてよい。カメラ16は、載置台14の載置面14aを撮像可能に、例えば支持柱15の先端に、固定されていてよい。 The camera 16 may be arranged so that the mounting surface 14a of the mounting table 14 can be imaged. The camera 16 may be arranged so that the optical axis is perpendicular to the mounting surface 14a. The camera 16 may be arranged at the tip of the support column 15. The camera 16 may be fixed to, for example, the tip of the support column 15 so that the mounting surface 14a of the mounting table 14 can be imaged.

カメラ16は、情報処理装置18から、撮像開始を指示する信号を取得し得る。カメラ16は、撮像開始を指示する信号を取得すると、撮像を開始し得る。カメラ16は、撮像により生成した画像信号を、通信線を介して情報処理装置18に、出力する。カメラ16は、任意のフレームレートで連続的に撮像を実行する。カメラ16は、連続的に撮像を実行することにより、撮像時刻が異なる画像信号を生成し得る。ただし、カメラ16は、所定トリガーに基づいて、静止画を随時撮像してよい。 The camera 16 can acquire a signal instructing the start of imaging from the information processing device 18. The camera 16 may start imaging when it acquires a signal instructing the start of imaging. The camera 16 outputs the image signal generated by the imaging to the information processing device 18 via the communication line. The camera 16 continuously performs imaging at an arbitrary frame rate. The camera 16 can generate image signals having different imaging times by continuously performing imaging. However, the camera 16 may capture a still image at any time based on a predetermined trigger.

表示装置17は、液晶ディスプレイ等の任意のディスプレイを含んで構成されてよい。表示装置17は、情報処理装置18から取得した信号に基づいて、画像を表示する。例えば、表示装置17は、情報処理装置18から、商品の請求金額を示す信号を取得し得る。表示装置17は、当該商品の請求金額を示す信号に基づいて、請求金額を示す画像を表示し得る。 The display device 17 may be configured to include an arbitrary display such as a liquid crystal display. The display device 17 displays an image based on the signal acquired from the information processing device 18. For example, the display device 17 may acquire a signal indicating the billing amount of the product from the information processing device 18. The display device 17 may display an image showing the billed amount based on the signal indicating the billed amount of the product.

表示装置17は、タッチスクリーン機能を有してよい。表示装置17は、載置台14の近辺の近くに配置されてよい。表示装置17は、顧客が商品を載置台14に置く際に、顧客の方を向くように、配置されていてよい。 The display device 17 may have a touch screen function. The display device 17 may be arranged near the mounting table 14. The display device 17 may be arranged so as to face the customer when the customer places the product on the mounting table 14.

情報処理装置18は、載置台14の近辺に配置されてよい。図3に示すように、情報処理装置18は、制御部23を含む。情報処理装置18は、通信部20と、入力部21と、記憶部22とを含んでよい。 The information processing device 18 may be arranged in the vicinity of the mounting table 14. As shown in FIG. 3, the information processing device 18 includes a control unit 23. The information processing device 18 may include a communication unit 20, an input unit 21, and a storage unit 22.

通信部20は、任意の通信モジュールを含む。当該任意の通信モジュールは、通信線を介してカメラ16と通信可能な通信モジュール、通信線を介して表示装置17と通信可能なモジュール、及び、ネットワーク13を介してサーバ12と通信可能な通信モジュールを含んでよい。カメラ16と通信部20との間の通信線、及び、表示装置17と通信部20との間の通信線は、有線又は無線を含んで構成されていてよい。 The communication unit 20 includes an arbitrary communication module. The arbitrary communication module includes a communication module capable of communicating with the camera 16 via a communication line, a module capable of communicating with a display device 17 via a communication line, and a communication module capable of communicating with a server 12 via a network 13. May include. The communication line between the camera 16 and the communication unit 20 and the communication line between the display device 17 and the communication unit 20 may be configured to include wired or wireless.

入力部21は、ユーザ入力を検出可能な1つ以上のインターフェースを含む。例えば、入力部21は、物理キー、静電容量キー及びタッチスクリーンの少なくとも何れかを含んで構成されてよい。本実施形態においては、入力部21は、タッチスクリーンである。タッチスクリーンである入力部21は、表示装置17と一体として設けられている。 The input unit 21 includes one or more interfaces capable of detecting the user input. For example, the input unit 21 may include at least one of a physical key, a capacitance key, and a touch screen. In the present embodiment, the input unit 21 is a touch screen. The input unit 21, which is a touch screen, is provided integrally with the display device 17.

記憶部22は、RAM(Random Access Memory)及びROM(Read Only Memory)等の任意の記憶デバイスを含む。記憶部22は、制御部23を機能させる多様なプログラム及び制御部23が用いる多様な情報を記憶する。 The storage unit 22 includes an arbitrary storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The storage unit 22 stores various programs that make the control unit 23 function and various information used by the control unit 23.

記憶部22は、店舗の商品データを記憶してよい。当該商品データは、後述の物体検出及び物体認識等に用いられ得る。商品データは、商品を識別する識別子と対応付けられた、商品画像及び商品のパッケージに付された文字等を含んでよい。以下、商品を識別する識別子は、便宜上、商品名であるものとする。 The storage unit 22 may store the product data of the store. The product data can be used for object detection, object recognition, etc., which will be described later. The product data may include a product image, characters attached to the product package, and the like associated with an identifier that identifies the product. Hereinafter, the identifier that identifies the product shall be the product name for convenience.

制御部23は、1つ以上のプロセッサ及びメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び、特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部23は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及び、SiP(System In a Package)の何れかであってよい。 The control unit 23 includes one or more processors and a memory. The processor may include a general-purpose processor that loads a specific program and executes a specific function, and a dedicated processor specialized for a specific process. The dedicated processor may include an application specific integrated circuit (ASIC). The processor may include a programmable logic device (PLD). The PLD may include an FPGA (Field-Programmable Gate Array). The control unit 23 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).

制御部23は、通信部20によって、ネットワーク13を介してサーバ12から、上述の商品データを取得してよい。制御部23は、取得した商品データを、記憶部22に記憶させてよい。 The control unit 23 may acquire the above-mentioned product data from the server 12 via the network 13 by the communication unit 20. The control unit 23 may store the acquired product data in the storage unit 22.

制御部23は、カメラ16に、撮像開始を指示する信号を、通信部20によって送信し得る。制御部23は、情報処理装置18が起動したときに、撮像開始を指示する信号を送信してよい。制御部23は、撮像開始を指示するユーザ入力を、入力部21によって検出したとき、撮像開始を指示する信号を送信してよい。当該ユーザ入力は、店員によって、店舗の開店時等に、入力部21から入力され得る。 The control unit 23 may transmit a signal instructing the start of imaging to the camera 16 by the communication unit 20. The control unit 23 may transmit a signal instructing the start of imaging when the information processing device 18 is activated. When the input unit 21 detects the user input instructing the start of imaging, the control unit 23 may transmit a signal instructing the start of imaging. The user input can be input by the clerk from the input unit 21 at the time of opening the store or the like.

制御部23は、カメラ16から、画像信号を、通信部20によって取得する。制御部23は、画像信号を取得することにより、画像信号に相当する撮像画像を取得し得る。制御部23は、取得した撮像画像を記憶部22に記憶させてよい。カメラ16によって撮像時刻が異なる画像信号が生成されることにより、制御部23は、撮像時刻が異なる撮像画像を取得し得る。ここで、顧客は、複数の商品を購入する場合、次々に、商品を載置台14の載置面14aに載置し得る。顧客が商品を次々に載置台14の載置面14aに載置することにより、撮像画像には、当該撮像画像の撮像時間が進むに連れて、次々に載置台14に載置されていく商品が映り得る。例えば、制御部23は、図4、図5及び図6に示すような、撮像画像30,31,32を取得し得る。 The control unit 23 acquires an image signal from the camera 16 by the communication unit 20. By acquiring the image signal, the control unit 23 can acquire the captured image corresponding to the image signal. The control unit 23 may store the acquired captured image in the storage unit 22. By generating image signals having different imaging times by the camera 16, the control unit 23 can acquire captured images having different imaging times. Here, when the customer purchases a plurality of products, the customers can place the products on the mounting surface 14a of the mounting table 14 one after another. By placing the products on the mounting surface 14a of the mounting table 14 one after another by the customer, the products are mounted on the mounting table 14 one after another as the imaging time of the captured image advances. Can be reflected. For example, the control unit 23 can acquire the captured images 30, 31 and 32 as shown in FIGS. 4, 5 and 6.

図4に示すような撮像画像30は、撮像時刻t0に撮像された画像である。撮像時刻t0では、載置台14の載置面14aには、商品等が載置されていない。撮像画像30は、載置台14の載置面14aに対応する画像を含む。 The captured image 30 as shown in FIG. 4 is an image captured at the imaging time t0. At the imaging time t0, no product or the like is placed on the mounting surface 14a of the mounting table 14. The captured image 30 includes an image corresponding to the mounting surface 14a of the mounting table 14.

図5に示すような撮像画像31は、撮像時刻t1に撮像された画像である。撮像時刻t1は、撮像時刻t0よりも、後の時刻である。撮像時刻t1では、バターが載置台14の載置面14aに載置されている。撮像画像31は、部分画像31aを含む。部分画像31aは、撮像画像31の一部である。部分画像31aは、バターに対応する。 The captured image 31 as shown in FIG. 5 is an image captured at the imaging time t1. The imaging time t1 is a time after the imaging time t0. At the imaging time t1, butter is placed on the mounting surface 14a of the mounting table 14. The captured image 31 includes a partial image 31a. The partial image 31a is a part of the captured image 31. The partial image 31a corresponds to butter.

図6に示すような撮像画像32は、撮像時刻t2に撮像された画像である。撮像時刻t2は、撮像時刻t1よりも、後の時刻である。撮像時刻t2では、バター及びおにぎりが、載置台14の載置面14aに載置されている。おにぎりは、顧客がバターを載置台14に載置した後に、載置される。おにぎりは、バターの一部に重ねられている。撮像画像32は、部分画像32aと、部分画像32bとを含む。部分画像32a及び部分画像32bは、撮像画像32の一部である。部分画像32aは、バターに対応する。部分画像32bは、おにぎりに対応する。おにぎりがバターの一部に重ねられていることにより、部分画像32aは、図5に示すような部分画像31aとは異なり、一部が欠けている。 The captured image 32 as shown in FIG. 6 is an image captured at the imaging time t2. The imaging time t2 is a time after the imaging time t1. At the imaging time t2, the butter and the rice ball are placed on the mounting surface 14a of the mounting table 14. The rice balls are placed after the customer places the butter on the mounting table 14. The rice balls are layered on a piece of butter. The captured image 32 includes a partial image 32a and a partial image 32b. The partial image 32a and the partial image 32b are a part of the captured image 32. The partial image 32a corresponds to butter. The partial image 32b corresponds to a rice ball. Due to the onigiri being superimposed on a part of the butter, the partial image 32a is partially missing, unlike the partial image 31a as shown in FIG.

制御部23は、撮像時刻の異なる2つの撮像画像に基づいて、差分画像を生成する。例えば、制御部23は、2つの撮像画像にそれぞれ含まれる各画素の輝度値の差分を算出することにより、差分画像を生成してよい。ここで、制御部23は、撮像時刻の異なる2つの撮像画像に差分があると判定する場合、差分画像を生成してよい。以下、2つの撮像画像に差分があるか否かを判定する処理の一例を説明する。 The control unit 23 generates a difference image based on two captured images having different imaging times. For example, the control unit 23 may generate a difference image by calculating the difference in the brightness values of each pixel included in each of the two captured images. Here, when the control unit 23 determines that there is a difference between two captured images having different imaging times, the control unit 23 may generate a difference image. Hereinafter, an example of the process of determining whether or not there is a difference between the two captured images will be described.

制御部23は、物体検出によって、撮像画像中の物体の数を検出する。本開示において「物体検出」は、検出の対象となる物体を、撮像画像中の背景及び他の物体から区別して検出することを意味する。検出の対象となる物体は、情報処理システム10が配置されている店舗の商品である。制御部23は、公知の物体検出方法によって撮像画像中の物体を検出することにより、物体の数を検出してよい。公知の物体検出方法の一例として、セグメンテーション、セマンティックセグメンテーション及び/又はバウンディングボックスを利用する方法が挙げられる。制御部23は、公知の物体認証方法によって、撮像画像中の物体の数を検出してよい。公知の物体認証方法の一例として、深層学習等の機械学習及び/又は特徴量パターンマッチングを利用する方法が挙げられる。 The control unit 23 detects the number of objects in the captured image by object detection. In the present disclosure, "object detection" means that an object to be detected is detected separately from the background and other objects in the captured image. The object to be detected is a product of a store in which the information processing system 10 is arranged. The control unit 23 may detect the number of objects by detecting the objects in the captured image by a known object detection method. As an example of a known object detection method, there is a method using segmentation, semantic segmentation and / or a bounding box. The control unit 23 may detect the number of objects in the captured image by a known object authentication method. As an example of a known object authentication method, there is a method using machine learning such as deep learning and / or feature amount pattern matching.

制御部23は、撮像画像中の個別に検出された物体の数が変化したか否か判定する。制御部23は、最新の検出処理で検出された物体の数と、最新の物体検出の処理の1つ前の検出処理で検出された物体の数とを比較することにより、撮像画像中の個別に検出された物体の数が変化したか否か判定してよい。このような構成により、2つの撮像画像に差分があるか否かが判定され得る。 The control unit 23 determines whether or not the number of individually detected objects in the captured image has changed. The control unit 23 compares the number of objects detected by the latest detection process with the number of objects detected by the detection process immediately before the latest object detection process, and thereby individually in the captured image. It may be determined whether or not the number of detected objects has changed. With such a configuration, it can be determined whether or not there is a difference between the two captured images.

制御部23は、個別に検出された物体の数が変化したと判定する場合、物体の数が変化したときの撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の撮像画像とを用いて、差分画像を生成する。物体の数が変化したときの撮像画像の撮像時刻よりも前の撮像時刻の撮像画像として、物体の数が変化したときの撮像画像の撮像時刻よりも、所定時間前に撮像された撮像画像が用いられてよい。所定時間は、顧客が1つの商品を載置台14に載置してから次の商品を載置台14に載置するまでに要する時間を想定して、適宜設定されてよい。又は、物体の数が変化したときの撮像画像の撮像時刻よりも前の撮像時刻の撮像画像として、物体の数が変化する前の撮像画像が用いられてよい。当該物体の数が変化する前の撮像画像は、物体の数が変化する前の撮像画像の中で、最新のものであってよい。本実施形態では、物体の数が変化したときの撮像画像の撮像時刻よりも前の撮像時刻の撮像画像として、物体の数が変化する前の撮像画像が用いられる。 When the control unit 23 determines that the number of individually detected objects has changed, the control unit 23 determines that the captured image when the number of objects has changed and the captured image at the imaging time earlier than the imaging time of the captured image. Is used to generate a difference image. As an image captured at an imaging time before the imaging time of the captured image when the number of objects changes, an captured image captured at a predetermined time before the imaging time of the captured image when the number of objects changes May be used. The predetermined time may be appropriately set assuming the time required from the customer placing one product on the mounting table 14 to mounting the next product on the mounting table 14. Alternatively, as the captured image at the imaging time before the imaging time of the captured image when the number of objects changes, the captured image before the number of objects changes may be used. The captured image before the number of the objects changes may be the latest one among the captured images before the number of the objects changes. In the present embodiment, the captured image before the number of objects changes is used as the captured image at the imaging time before the capturing time of the captured image when the number of objects changes.

例えば、検出処理にて、制御部23は、撮像画像30の中の物体の数をゼロ個と検出する。次の検出処理にて、制御部23は、撮像画像31の中の物体の数を1個と検出する。制御部23は、最新の検出処理にて検出した物体の数の1個と、最新の検出処理の1つ前の検出処理で検出された物体の数のゼロ個とを比較することにより、撮像画像31中の個別に検出された物体の数が変化したと判定する。制御部23は、物体の数が1個に変化した撮像画像31と、物体の数が1個に変化する前の撮像画像30とを用いて、図7に示すような、差分画像40を生成する。差分画像40は、部分画像40aを含む。部分画像40aは、ゼロではない画素が連続する領域である。部分画像40aは、撮像画像31の部分画像31aと、部分画像31aに対応する撮像画像30の部分との間の差分値に基づいて生成され得る。部分画像40aは、2つの撮像画像すなわち撮像画像30及び撮像画像31のうちの、撮像画像31に含まれる部分画像31aに対応する。 For example, in the detection process, the control unit 23 detects that the number of objects in the captured image 30 is zero. In the next detection process, the control unit 23 detects the number of objects in the captured image 31 as one. The control unit 23 takes an image by comparing one of the number of objects detected by the latest detection process with zero of the number of objects detected by the detection process immediately before the latest detection process. It is determined that the number of individually detected objects in the image 31 has changed. The control unit 23 generates a difference image 40 as shown in FIG. 7 by using the captured image 31 in which the number of objects is changed to one and the captured image 30 in which the number of objects is changed to one. To do. The difference image 40 includes a partial image 40a. The partial image 40a is a region where non-zero pixels are continuous. The partial image 40a can be generated based on the difference value between the partial image 31a of the captured image 31 and the portion of the captured image 30 corresponding to the partial image 31a. The partial image 40a corresponds to the partial image 31a included in the captured image 31 of the two captured images, that is, the captured image 30 and the captured image 31.

例えば、検出処理にて、制御部23は、撮像画像32の中の物体を2個と検出する。当該検出処理の1つ前の検出処理は、撮像画像31に対する検出処理であるとする。制御部23は、最新の検出処理にて検出した物体の数の2個と、最新の検出処理の1つ前の検出処理で検出された物体の数の1個とを比較することにより、撮像画像32の中の個別に検出された物体の数が変化したと判定する。制御部23は、物体の数が2個に変化した撮像画像32と、物体の数が2個に変化する前の撮像画像31とを用いて、図8に示すような、差分画像41を生成する。差分画像41は、部分画像41aを含む。部分画像41aは、ゼロではない画素が連続する領域である。部分画像41aは、撮像画像32の部分画像3bと、部分画像32bに対応する撮像画像31の部分との間の差分値に基づいて生成され得る。部分画像41aは、2つの撮像画像すなわち撮像画像31及び撮像画像32のうちの、撮像画像32に含まれる部分画像32bに対応する。 For example, in the detection process, the control unit 23 detects two objects in the captured image 32. It is assumed that the detection process immediately before the detection process is the detection process for the captured image 31. The control unit 23 takes an image by comparing two of the number of objects detected by the latest detection process with one of the number of objects detected by the detection process immediately before the latest detection process. It is determined that the number of individually detected objects in the image 32 has changed. The control unit 23 generates a difference image 41 as shown in FIG. 8 by using the captured image 32 in which the number of objects is changed to two and the captured image 31 before the number of objects is changed to two. To do. The difference image 41 includes a partial image 41a. The partial image 41a is a region where non-zero pixels are continuous. The partial image 41a can be generated based on the difference value between the partial image 3b of the captured image 32 and the portion of the captured image 31 corresponding to the partial image 32b. The partial image 41a corresponds to the partial image 32b included in the captured image 32 of the two captured images, that is, the captured image 31 and the captured image 32.

制御部23は、差分画像40,41に対して物体認識を実行することにより、撮像画像30〜32の少なくとも何れかに含まれる部分画像に対応する物体を特定する。差分画像に対する物体認識は、差分画像中の部分画像を解析することにより、当該部分画像に対応する物体の識別子すなわち名称を特定することを含んでよい。差分画像に対する物体認識は、差分画像から物体を検出することを含んでよい。制御部23は、公知の物体認識方法を、差分画像に対して実行してよい。公知の物体認識方法の一例として、深層学習等の機械学習、文字認識、及び/又は、特徴量パターンマッチングを利用する方法が挙げられる。制御部23は、差分画像40に対して物体認識を実行することにより、部分画像40aを検出して、部分画像40aに対応する物体の商品名が「バター」であると特定する。制御部23は、差分画像41に対して物体認識を実行することにより、物体に対応する部分画像41aを検出して、部分画像41aに対応する物体の商品名が「おにぎり」であることを特定する。 The control unit 23 identifies an object corresponding to a partial image included in at least one of the captured images 30 to 32 by executing object recognition on the difference images 40 and 41. Object recognition for a difference image may include identifying an identifier, or name, of an object corresponding to the partial image by analyzing the partial image in the difference image. Object recognition for a difference image may include detecting an object from the difference image. The control unit 23 may execute a known object recognition method on the difference image. As an example of a known object recognition method, there is a method using machine learning such as deep learning, character recognition, and / or feature amount pattern matching. The control unit 23 detects the partial image 40a by executing the object recognition on the difference image 40, and identifies that the product name of the object corresponding to the partial image 40a is "butter". The control unit 23 detects the partial image 41a corresponding to the object by executing the object recognition for the difference image 41, and identifies that the product name of the object corresponding to the partial image 41a is "rice ball". To do.

制御部23は、会計の要求を指示するユーザ入力を、入力部21によって検出したとき、差分画像の生成を終了する。会計の要求を指示するユーザ入力は、顧客が商品を全て載置台14に載置させた後、顧客によって入力部21から入力され得る。又は、制御部23は、撮像画像中の物体の数が変化したと判定してから所定時間経過しても、撮像画像中から個別に検出される物体の数が変化しない場合、差分画像の生成を終了してよい。所定時間は、顧客が1つの商品を載置台14に載置してから次の商品を載置台14に載置するまでに要すると想定される時間よりも、長い時間であってよい。 When the input unit 21 detects the user input instructing the accounting request, the control unit 23 ends the generation of the difference image. The user input instructing the accounting request can be input from the input unit 21 by the customer after the customer has placed all the products on the mounting table 14. Alternatively, if the control unit 23 does not change the number of objects individually detected in the captured image even after a predetermined time has elapsed after determining that the number of objects in the captured image has changed, the control unit 23 generates a difference image. May be terminated. The predetermined time may be longer than the time expected to be required from the customer placing one product on the mounting table 14 to mounting the next product on the mounting table 14.

制御部23は、物体を特定する処理を終了すると、特定した商品情報を、ネットワーク13を介してサーバ12に、通信部20によって送信する。当該商品情報には、商品名及び商品の数等が含まれ得る。サーバ12は、当該商品情報を、ネットワーク13を介して情報処理装置18から取得する。サーバ12は、当該商品情報に基づいて、顧客に対して請求すべき請求金額を算出する。サーバ12は、請求金額を示す信号を、ネットワーク13を介して情報処理装置18に送信する。制御部23は、ネットワーク13を介してサーバ12から、請求金額を示す信号を、通信部20によって取得する。制御部23は、請求金額を示す信号を、通信部20によって表示装置17に送信する。 When the control unit 23 finishes the process of identifying the object, the control unit 23 transmits the specified product information to the server 12 via the network 13 by the communication unit 20. The product information may include the product name, the number of products, and the like. The server 12 acquires the product information from the information processing device 18 via the network 13. The server 12 calculates the billing amount to be billed to the customer based on the product information. The server 12 transmits a signal indicating the billing amount to the information processing device 18 via the network 13. The control unit 23 acquires a signal indicating the billing amount from the server 12 via the network 13 by the communication unit 20. The control unit 23 transmits a signal indicating the billed amount to the display device 17 by the communication unit 20.

図9は、本開示の一実施形態に係る情報処理システム10の物体特定処理を示すフローチャートである。制御部23は、カメラ16からの画像信号の取得を開始すると、物体特定処理を開始してよい。制御部23は、カメラ16から取得した画像信号を、記憶部22に記憶させてよい。また、制御部23は、顧客の会計が終了した後、再び、物体特定処理を開始してよい。 FIG. 9 is a flowchart showing an object identification process of the information processing system 10 according to the embodiment of the present disclosure. When the control unit 23 starts acquiring the image signal from the camera 16, the object identification process may be started. The control unit 23 may store the image signal acquired from the camera 16 in the storage unit 22. Further, the control unit 23 may start the object identification process again after the customer's accounting is completed.

制御部23は、撮像画像中の物体の数を検出する(ステップS10)。制御部23は、撮像画像中の個別に検出された物体の数が変化したか否か判定する(ステップS11)。 The control unit 23 detects the number of objects in the captured image (step S10). The control unit 23 determines whether or not the number of individually detected objects in the captured image has changed (step S11).

制御部23は、個別に検出された物体の数が変化したと判定する場合(ステップS11:YES)、ステップS12の処理に進む。一方、制御部23は、個別に検出された物体の数が変化しないと判定する場合(ステップS11:NO)、ステップS10の処理に戻る。 When the control unit 23 determines that the number of individually detected objects has changed (step S11: YES), the control unit 23 proceeds to the process of step S12. On the other hand, when the control unit 23 determines that the number of individually detected objects does not change (step S11: NO), the control unit 23 returns to the process of step S10.

ステップS12の処理では、制御部23は、物体の数が変化したときの撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の撮像画像とを用いて、差分画像を生成する。ステップS13の処理では、制御部23は、差分画像に対して物体認識を実行することにより、物体を特定する。 In the process of step S12, the control unit 23 generates a difference image by using the captured image when the number of objects changes and the captured image at the imaging time before the imaging time of the captured image. In the process of step S13, the control unit 23 identifies the object by executing the object recognition for the difference image.

ステップS14の処理では、制御部23は、会計の要求を指示するユーザ入力を、入力部21によって検出したか否か判定する。制御部23は、会計の要求を指示するユーザ入力を、入力部21によって検出したと判定する場合(ステップS14:YES)、ステップS15の処理に進む。一方、制御部23は、会計を指示するユーザ入力を、入力部21によって検出したと判定しない場合(ステップS14:Nо)、ステップS10の処理に戻る。 In the process of step S14, the control unit 23 determines whether or not the user input instructing the accounting request is detected by the input unit 21. When the control unit 23 determines that the user input instructing the accounting request has been detected by the input unit 21 (step S14: YES), the control unit 23 proceeds to the process of step S15. On the other hand, if the control unit 23 does not determine that the user input instructing accounting has been detected by the input unit 21 (step S14: Nо), the control unit 23 returns to the process of step S10.

ステップS15の処理では、制御部23は、特定した商品情報を、通信部20によってサーバ12に送信する。 In the process of step S15, the control unit 23 transmits the specified product information to the server 12 by the communication unit 20.

ここで、制御部23は、ステップS11の処理にて個別に検出された物体の数が変化したと判定してから、所定時間経過しても、撮像画像中から個別に検出された物体の数が変化しない場合、ステップS15の処理に進んでよい。 Here, the control unit 23 determines that the number of individually detected objects in the process of step S11 has changed, and even after a lapse of a predetermined time, the number of individually detected objects in the captured image has passed. If does not change, the process of step S15 may proceed.

このように本実施形態に係る情報処理システム10では、情報処理装置18によって、撮像時刻の異なる2つの撮像画像から、差分画像が生成される。2つの撮像画像の何れかが物体に対応する部分画像を複数含む場合でも、これら複数の部分画像は、別個の差分画像に含まれ得る。例えば、図6に示すような撮像画像32は、バターに対応する部分画像32aと、おにぎりに対応する部分画像32bとを含む。部分画像32aに対応する部分画像40aは、差分画像40に含まれる。部分画像32bに対応する部分画像41aは、差分画像41に含まれる。情報処理装置18は、このような差分画像に対して物体認識が実行されることにより、撮像画像に対して物体認識を実行する場合よりも、物体を精度良く特定することができる。 As described above, in the information processing system 10 according to the present embodiment, the information processing device 18 generates a difference image from two captured images having different imaging times. Even if any of the two captured images includes a plurality of partial images corresponding to the object, the plurality of partial images can be included in separate difference images. For example, the captured image 32 as shown in FIG. 6 includes a partial image 32a corresponding to butter and a partial image 32b corresponding to rice balls. The partial image 40a corresponding to the partial image 32a is included in the difference image 40. The partial image 41a corresponding to the partial image 32b is included in the difference image 41. By executing the object recognition for such a difference image, the information processing apparatus 18 can identify the object more accurately than the case where the object recognition is executed for the captured image.

さらに、本実施形態に係る情報処理システム10では、物体を複数方向からカメラによって撮像しなくても、差分画像に対して物体認識を実行することにより、物体を特定することができる。情報処理システム10では、物体を複数方向からカメラで撮像しなく済むことにより、複数のカメラを載置台14に向けて設置しなくて済む。このような構成により、本実施形態に係る情報処理システム10では、より簡素な構成で、物体を特定することができる。 Further, in the information processing system 10 according to the present embodiment, the object can be specified by executing the object recognition on the difference image without having to image the object from a plurality of directions with a camera. In the information processing system 10, since it is not necessary to take an image of an object from a plurality of directions with a camera, it is not necessary to install a plurality of cameras toward the mounting table 14. With such a configuration, the information processing system 10 according to the present embodiment can identify an object with a simpler configuration.

よって、本実施形態によれば、改善された、情報処理システム10、情報処理装置18及び情報処理方法が提供され得る。 Therefore, according to the present embodiment, an improved information processing system 10, an information processing device 18, and an information processing method can be provided.

また、本実施形態に係る情報処理システム10では、個別に検出された物体の数が変化したときの撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の撮像画像とを用いて、差分画像が生成される。このような構成により、より確実に差分がある撮像画像を用いて、差分画像が生成され得る。 Further, in the information processing system 10 according to the present embodiment, the captured image when the number of individually detected objects changes and the captured image at the imaging time before the imaging time of the captured image are used. A difference image is generated. With such a configuration, a difference image can be generated using a captured image having a difference more reliably.

次に、本開示の他の実施形態に係る情報処理システム10について説明する。本開示の他の実施形態では、制御部23は、差分画像の生成に用いる上述の撮像時刻の異なる2つの撮像画像として、手指に対応する部分画像を含む撮像画像の撮像時刻の前後の撮像時刻の撮像画像を用いる。本開示の他の実施形態において、記憶部22は、手指の画像等を記憶してよい。 Next, the information processing system 10 according to another embodiment of the present disclosure will be described. In another embodiment of the present disclosure, the control unit 23 uses the control unit 23 to capture images before and after the imaging time of the captured image including the partial image corresponding to the fingers as the two captured images having different imaging times used for generating the difference image. The captured image of is used. In another embodiment of the present disclosure, the storage unit 22 may store images of fingers and the like.

制御部23は、カメラ16から取得する撮像画像に、手指に対応する部分画像が含まれているか否か判定する。制御部23は、撮像画像に物体認識を実行することにより、手指に対応する部分画像が含まれているか否か判定してよい。 The control unit 23 determines whether or not the captured image acquired from the camera 16 includes a partial image corresponding to the fingers. The control unit 23 may determine whether or not the partial image corresponding to the finger is included by executing the object recognition in the captured image.

制御部23は、手指に対応する部分画像が撮像画像に含まれていると判定する場合、当該撮像画像の撮像時刻の前後の撮像時刻の撮像画像を取得する。例えば、制御部23は、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第1時間前の撮像時刻の撮像画像と、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第2時間後の撮像時刻の撮像画像とを取得してよい。第1時間及び第2時間は、顧客が個々の商品を載置台14に置く際に要する時間を想定して、適宜設定されてよい。第1時間と第2時間とは、同じであってよいし、異なってよい。本実施形態では、制御部23は、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第1時間前の撮像時刻の撮像画像と、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第2時間後の撮像時刻の撮像画像とを取得する。 When the control unit 23 determines that the partial image corresponding to the finger is included in the captured image, the control unit 23 acquires the captured image at the imaging time before and after the imaging time of the captured image. For example, the control unit 23 has a second image than the imaging time of the captured image including the partial image corresponding to the finger and the captured image of the captured image including the partial image corresponding to the finger. The captured image at the imaging time after 2 hours may be acquired. The first time and the second time may be appropriately set in consideration of the time required for the customer to place the individual products on the mounting table 14. The first time and the second time may be the same or different. In the present embodiment, the control unit 23 controls the capturing image of the captured image at the first hour before the capturing time of the captured image including the partial image corresponding to the finger, and the capturing time of the captured image including the partial image corresponding to the finger. The captured image at the imaging time after the second hour is acquired.

例えば、制御部23は、図10に示すような、撮像画像33を取得する。撮像画像33は、撮像時刻t01に撮像された画像である。撮像時刻t01では、顧客が手でバターを掴んで、載置台14の載置面14aに載置しようとしている。撮像画像33は、部分画像33aと、部分画像33bとを含む。部分画像33a及び部分画像33bは、撮像画像33の一部である。部分画像33aは、手指に対応する。部分画像33bは、バターに対応する。制御部23は、撮像画像33に、手指に対応する部分画像33aが含まれていると判定する。ここで、撮像時刻t01よりも、第1時間前の撮像時刻は、上述の撮像画像30の撮像時刻t0であるものとする。また、撮像時刻t01よりも、第2時間後の撮像時刻は、上述の撮像画像31の撮像時刻t1であるものとする。制御部23は、上述の撮像画像30と上述の撮像画像31とを用いて、上述の差分画像40を生成する。 For example, the control unit 23 acquires the captured image 33 as shown in FIG. The captured image 33 is an image captured at the imaging time t01. At the imaging time t01, the customer is trying to grab the butter by hand and place it on the mounting surface 14a of the mounting table 14. The captured image 33 includes a partial image 33a and a partial image 33b. The partial image 33a and the partial image 33b are a part of the captured image 33. The partial image 33a corresponds to the fingers. The partial image 33b corresponds to butter. The control unit 23 determines that the captured image 33 includes the partial image 33a corresponding to the fingers. Here, it is assumed that the imaging time one hour before the imaging time t01 is the imaging time t0 of the above-mentioned captured image 30. Further, it is assumed that the imaging time after the second hour from the imaging time t01 is the imaging time t1 of the above-mentioned captured image 31. The control unit 23 uses the above-mentioned captured image 30 and the above-mentioned captured image 31 to generate the above-mentioned difference image 40.

例えば、制御部23は、図11に示すような、撮像画像34を取得する。撮像画像34は、撮像時刻t12に撮像された画像である。撮像時刻t12では、顧客がおにぎりを手で掴んで、載置台14の載置面14aに載置しようとしている。撮像画像34は、部分画像34aと、部分画像34bと、部分画像34cとを含む。部分画像34a、部分画像34b及び部分画像34cは、撮像画像34の一部である。部分画像34aは、手指に対応する。部分画像34bは、おにぎりに対応する。部分画像34cは、バターに対応する。制御部23は、撮像画像34に、手指に対応する部分画像34aが含まれていると判定する。ここで、撮像時刻t12よりも、第1時間前の撮像時刻は、上述の撮像画像31の撮像時刻t1であるものとする。また、撮像時刻t12よりも、第2時間後の撮像時刻は、上述の撮像画像32の撮像時刻t2であるものとする。制御部23は、上述の撮像画像31と上述の撮像画像32とを用いて、上述の差分画像41を生成する。 For example, the control unit 23 acquires the captured image 34 as shown in FIG. The captured image 34 is an image captured at the imaging time t12. At the imaging time t12, the customer is trying to grab the rice ball by hand and place it on the mounting surface 14a of the mounting table 14. The captured image 34 includes a partial image 34a, a partial image 34b, and a partial image 34c. The partial image 34a, the partial image 34b, and the partial image 34c are a part of the captured image 34. The partial image 34a corresponds to the fingers. The partial image 34b corresponds to a rice ball. The partial image 34c corresponds to butter. The control unit 23 determines that the captured image 34 includes the partial image 34a corresponding to the fingers. Here, it is assumed that the imaging time one hour before the imaging time t12 is the imaging time t1 of the above-mentioned captured image 31. Further, it is assumed that the imaging time after the second hour from the imaging time t12 is the imaging time t2 of the above-mentioned captured image 32. The control unit 23 uses the above-mentioned captured image 31 and the above-mentioned captured image 32 to generate the above-mentioned difference image 41.

図12は、本開示の他の実施形態に係る情報処理システム10の物体特定処理を示すフローチャートである。制御部23は、カメラ16から画像信号の取得を開始すると、物体特定処理を開始してよい。制御部23は、カメラ16から取得した画像信号を、記憶部22に記憶させてよい。また、制御部23は、顧客の会計が終了した後、再び、物体特定処理を開始してよい。 FIG. 12 is a flowchart showing an object identification process of the information processing system 10 according to another embodiment of the present disclosure. When the control unit 23 starts acquiring the image signal from the camera 16, the object identification process may be started. The control unit 23 may store the image signal acquired from the camera 16 in the storage unit 22. Further, the control unit 23 may start the object identification process again after the customer's accounting is completed.

制御部23は、撮像画像に物体認識を実行することにより(ステップS20)、手指に対応する部分画像が含まれているか否か判定する(ステップS21)。制御部23は、手指に対応する部分画像が撮像画像に含まれていると判定する場合(ステップS21:YES)、ステップS22の処理に進む。一方、手指に対応する部分画像が撮像画像に含まれていると判定しない場合(ステップS21:NO)、ステップS20の処理に戻る。 By executing object recognition in the captured image (step S20), the control unit 23 determines whether or not the partial image corresponding to the finger is included (step S21). When the control unit 23 determines that the partial image corresponding to the finger is included in the captured image (step S21: YES), the control unit 23 proceeds to the process of step S22. On the other hand, when it is not determined that the partial image corresponding to the finger is included in the captured image (step S21: NO), the process returns to the process of step S20.

ステップS22の処理では、制御部23は、手指に対応する部分画像を含む撮像画像の撮像時刻の前後の撮像時刻の撮像画像を用いて、差分画像を生成する。 In the process of step S22, the control unit 23 generates a difference image by using the captured images of the captured images before and after the captured time of the captured images including the partial images corresponding to the fingers.

制御部23は、図9に示すステップS13,S14,S15の処理と同じに、ステップS23,S24,S25の処理を実行する。 The control unit 23 executes the processes of steps S23, S24, and S25 in the same manner as the processes of steps S13, S14, and S15 shown in FIG.

図13は、本開示のさらに他の実施形態に係る情報処理システム110の全体構成を示す図である。情報処理システム110は、カメラ16と、情報処理装置18と、重量センサ19とを含む。情報処理システム110は、載置台14と、支持柱15と、表示装置17とを含んでよい。 FIG. 13 is a diagram showing an overall configuration of the information processing system 110 according to still another embodiment of the present disclosure. The information processing system 110 includes a camera 16, an information processing device 18, and a weight sensor 19. The information processing system 110 may include a mounting table 14, a support column 15, and a display device 17.

重量センサ19は、載置台14の載置面14aにかかる重量を検出する。重量センサ19は、検出した重量を、通信線を介して情報処理装置18に、出力する。重量センサ19は、載置面14aにかかる重量を検出可能な位置に、適宜配置されている。 The weight sensor 19 detects the weight applied to the mounting surface 14a of the mounting table 14. The weight sensor 19 outputs the detected weight to the information processing device 18 via the communication line. The weight sensor 19 is appropriately arranged at a position where the weight applied to the mounting surface 14a can be detected.

本実施形態に係る情報処理装置18では、通信部20は、通信線を介して重量センサ19と通信可能な通信モジュールを含んでよい。重量センサ19と通信部20との間の通信線は、有線又は無線を含んで構成されてよい。 In the information processing device 18 according to the present embodiment, the communication unit 20 may include a communication module capable of communicating with the weight sensor 19 via a communication line. The communication line between the weight sensor 19 and the communication unit 20 may be configured to include wired or wireless.

本実施形態に係る情報処理装置18では、制御部23は、差分画像の生成に用いる上述の撮像時刻の異なる2つの撮像画像として、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像を用いる。例えば、制御部23は、通信線を介して重量センサ19から、通信部20によって載置台14の載置面14aにかかる重量を取得し得る。制御部23は、載置台14の載置面14aにかかる重量が変化したか否か判定する。制御部23は、載置台14の載置面14aにかかる重量が変化したと判定する場合、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像を取得する。重量が変化した時刻の前の撮像時刻の画像として、制御部23は、載置面14aにかかる重量が変化した時刻よりも第3時間前の撮像時刻の撮像画像を取得してよい。第3時間は、顧客が個々の商品を載置台14に置く際に要する時間を想定して、適宜設定されてよい。重量が変化した時刻の後の撮像時刻の撮像画像として、制御部23は、載置面14aにかかる重量が変化した時刻よりも後に撮像された撮像画像の中で、載置面14aにかかる重量が変化した時刻に最も近い撮像時刻の撮像画像を取得してよい。 In the information processing apparatus 18 according to the present embodiment, the control unit 23 has the time when the weight applied to the mounting surface 14a of the mounting table 14 changes as the above-mentioned two captured images having different imaging times used for generating the difference image. Use the captured images of the previous and next imaging times. For example, the control unit 23 can acquire the weight applied to the mounting surface 14a of the mounting table 14 by the communication unit 20 from the weight sensor 19 via the communication line. The control unit 23 determines whether or not the weight applied to the mounting surface 14a of the mounting table 14 has changed. When the control unit 23 determines that the weight applied to the mounting surface 14a of the mounting table 14 has changed, the control unit 23 acquires captured images of the imaging times before and after the time when the weight applied to the mounting surface 14a of the mounting table 14 has changed. .. As an image of the imaging time before the time when the weight changes, the control unit 23 may acquire an image captured at the imaging time 3 hours before the time when the weight applied to the mounting surface 14a changes. The third time may be appropriately set assuming the time required for the customer to place the individual products on the mounting table 14. As an image captured at the imaging time after the time when the weight changes, the control unit 23 determines the weight applied to the mounting surface 14a in the captured image captured after the time when the weight applied to the mounting surface 14a changes. The captured image at the imaging time closest to the time when is changed may be acquired.

例えば、何も載置されていない載置台14に、顧客がバターを載置した場合、バターの重みによって、載置台14の載置面14aにかかる重量が大きくなる。つまり、載置台14の載置面14aにかかる重量は、変化する。制御部23は、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像として、上述の撮像画像30及び撮像画像31を取得するものとする。制御部23は、撮像画像30及び撮像画像31を用いて、上述の差分画像40を生成し得る。 For example, when a customer places butter on a mounting table 14 on which nothing is placed, the weight of the butter increases the weight applied to the mounting surface 14a of the mounting table 14. That is, the weight applied to the mounting surface 14a of the mounting table 14 changes. The control unit 23 shall acquire the above-mentioned captured images 30 and 31 as captured images at the captured images before and after the time when the weight applied to the mounting surface 14a of the mounting table 14 changes. The control unit 23 can generate the above-mentioned difference image 40 by using the captured image 30 and the captured image 31.

例えば、バターが載置された載置台14に、顧客がおにぎりを載置した場合、おにぎりの重量によって、載置台14の載置面14aにかかる重量が大きくなる。つまり、載置台14の載置面14aにかかる重量は、変化する。制御部23は、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像として、上述の撮像画像31及び撮像画像32を取得するものとする。制御部23は、撮像画像31及び撮像画像32を用いて、上述の差分画像41を生成し得る。 For example, when a customer places a rice ball on a mounting table 14 on which butter is placed, the weight of the rice ball increases the weight applied to the mounting surface 14a of the mounting table 14. That is, the weight applied to the mounting surface 14a of the mounting table 14 changes. The control unit 23 shall acquire the above-mentioned captured images 31 and 32 as captured images at the captured images before and after the time when the weight applied to the mounting surface 14a of the mounting table 14 changes. The control unit 23 can generate the above-mentioned difference image 41 by using the captured image 31 and the captured image 32.

制御部23は、載置台14の載置面14aにかかる重量が変化したとき、カメラ16に撮像を指示する信号を、通信部20によって送信してよい。ここで、顧客は、複数の商品を購入する場合、次々に、商品を載置台14の載置面14aに載置し得る。顧客が商品を次々に載置台14の載置面14aに載置することにより、載置面14aにかかる重量は、随時変化し得る。載置面14aにかかる重量が随時変化する場合に、制御部23が載置面14aにかかる重量が変化したときにカメラ16に撮像を指示する信号を送信する場合、制御部23は、撮像を指示する信号を、随時送信し得る。カメラ16は、制御部23からの撮像を指示する信号を所定トリガーとして、静止画を随時撮像してよい。 When the weight applied to the mounting surface 14a of the mounting table 14 changes, the control unit 23 may transmit a signal instructing the camera 16 to take an image by the communication unit 20. Here, when the customer purchases a plurality of products, the customers can place the products on the mounting surface 14a of the mounting table 14 one after another. As the customer places the products on the mounting surface 14a of the mounting table 14 one after another, the weight applied to the mounting surface 14a may change at any time. When the weight applied to the mounting surface 14a changes at any time and the control unit 23 transmits a signal instructing the camera 16 to take an image when the weight applied to the mounting surface 14a changes, the control unit 23 performs imaging. The indicating signal can be transmitted at any time. The camera 16 may capture a still image at any time by using a signal instructing imaging from the control unit 23 as a predetermined trigger.

図14は、本開示のさらに他の実施形態に係る情報処理システム110の物体特定処理を示すフローチャートである。制御部23は、カメラ16から画像信号の取得を開始すると、物体特定処理を開始してよい。制御部23は、カメラ16から取得した画像信号を、記憶部22に記憶させてよい。また、制御部23は、顧客の会計が終了した後、再び、物体特定処理を開始してよい。 FIG. 14 is a flowchart showing an object identification process of the information processing system 110 according to still another embodiment of the present disclosure. When the control unit 23 starts acquiring the image signal from the camera 16, the object identification process may be started. The control unit 23 may store the image signal acquired from the camera 16 in the storage unit 22. Further, the control unit 23 may start the object identification process again after the customer's accounting is completed.

制御部23は、通信線を介して重量センサ19から、通信部20によって載置台14の載置面14aにかかる重量を取得する(ステップS30)。制御部23は、載置台14の載置面14aにかかる重量が変化したか否か判定する(ステップS31)。 The control unit 23 acquires the weight applied to the mounting surface 14a of the mounting table 14 by the communication unit 20 from the weight sensor 19 via the communication line (step S30). The control unit 23 determines whether or not the weight applied to the mounting surface 14a of the mounting table 14 has changed (step S31).

制御部23は、載置台14の載置面14aにかかる重量が変化したと判定する場合(ステップS31:YES)、ステップS32の処理に進む。一方、制御部23は、載置台14の載置面14aにかかる重量が変化したと判定しない場合(ステップS31:NO)、ステップS30の処理に戻る。 When the control unit 23 determines that the weight applied to the mounting surface 14a of the mounting table 14 has changed (step S31: YES), the control unit 23 proceeds to the process of step S32. On the other hand, when the control unit 23 does not determine that the weight applied to the mounting surface 14a of the mounting table 14 has changed (step S31: NO), the control unit 23 returns to the process of step S30.

ステップS32の処理では、制御部23は、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像を用いて、差分画像を生成する。 In the process of step S32, the control unit 23 generates a difference image by using the captured images at the imaging times before and after the time when the weight applied to the mounting surface 14a of the mounting table 14 changes.

制御部23は、図9に示すステップS13,S14,S15の処理と同じに、ステップS33,S34,S35の処理を実行する。 The control unit 23 executes the processes of steps S33, S34, and S35 in the same manner as the processes of steps S13, S14, and S15 shown in FIG.

図15は、本開示のさらに他の実施形態に係る差分画像42の一例を示す図である。差分画像42は、2つの物体にそれぞれ対応する部分画像を含む。例えば、差分画像42は、部分画像42aと、部分画像42bとを含む。部分画像42a及び部分画像42bは、差分画像42の一部である。部分画像42aは、チョコレートに対応する。部分画像42bは、おにぎりに対応する。 FIG. 15 is a diagram showing an example of a difference image 42 according to still another embodiment of the present disclosure. The difference image 42 includes a partial image corresponding to each of the two objects. For example, the difference image 42 includes a partial image 42a and a partial image 42b. The partial image 42a and the partial image 42b are a part of the difference image 42. Partial image 42a corresponds to chocolate. The partial image 42b corresponds to a rice ball.

顧客によって複数の商品が、一度に、載置台14の載置面14aに載置される場合がある。顧客によって複数の商品が一度に載置面14aに載置される場合、差分画像42のような、複数の物体にそれぞれ対応する部分画像を含む差分画像が生成され得る。 Depending on the customer, a plurality of products may be placed on the mounting surface 14a of the mounting table 14 at a time. When a plurality of products are placed on the mounting surface 14a at a time by a customer, a difference image including a partial image corresponding to each of the plurality of objects, such as the difference image 42, can be generated.

本実施形態に係る情報処理装置18では、制御部23は、差分画像から個別に複数の物体が検出された場合、各物体に対応する部分画像毎に物体認識を実行する。例えば、制御部23は、差分画像中の物体の数を検出してよい。制御部23は、上述の公知の物体検出方法によって差分画像中の物体を検出することにより、物体の数を検出してよい。制御部23は、差分画像から個別に複数の物体が検出されたか否か判定する。制御部23は、差分画像から個別に複数の物体が検出されたと判定する場合、各物体に対応する部分画像毎に、物体認識を実行する。 In the information processing device 18 according to the present embodiment, when a plurality of objects are individually detected from the difference images, the control unit 23 executes object recognition for each partial image corresponding to each object. For example, the control unit 23 may detect the number of objects in the difference image. The control unit 23 may detect the number of objects by detecting the objects in the difference image by the above-mentioned known object detection method. The control unit 23 determines whether or not a plurality of objects are individually detected from the difference image. When it is determined that a plurality of objects are individually detected from the difference image, the control unit 23 executes object recognition for each partial image corresponding to each object.

例えば、制御部23は、差分画像42から、別個の2つの物体を検出する。制御部23は、差分画像42から別個に複数の物体が検出されたと判定する。制御部23は、各物体に対応する部分画像42a及び部分画像42b毎に、物体認識を実行する。制御部23は、部分画像42aに物体認識を実行することにより、部分画像42aに対応する物体がチョコレートであると特定する。制御部23は、部分画像42bに物体認識を実行することにより、部分画像42bに対応する物体がおにぎりであると特定する。 For example, the control unit 23 detects two distinct objects from the difference image 42. The control unit 23 determines that a plurality of objects have been detected separately from the difference image 42. The control unit 23 executes object recognition for each of the partial image 42a and the partial image 42b corresponding to each object. The control unit 23 identifies the object corresponding to the partial image 42a as chocolate by executing the object recognition on the partial image 42a. The control unit 23 identifies the object corresponding to the partial image 42b as a rice ball by executing the object recognition on the partial image 42b.

図16は、本開示のさらに他の実施形態に係る情報処理システム10の差分画像に対する物体認識を示すフローチャートである。差分画像に対する物体認識は、図9に示すステップS13の処理、図12に示すステップS23の処理及び図14に示すステップS33の処理に代えて、実行されてよい。この場合、制御部23は、図9に示すステップS12の処理を実行した後、図12に示すステップS22の処理を実行した後、又は、図14に示すステップS32の処理を実行した後、差分画像に対する物体認識を開始してよい。 FIG. 16 is a flowchart showing object recognition for a difference image of the information processing system 10 according to still another embodiment of the present disclosure. The object recognition for the difference image may be executed instead of the process of step S13 shown in FIG. 9, the process of step S23 shown in FIG. 12, and the process of step S33 shown in FIG. In this case, the control unit 23 executes the process of step S12 shown in FIG. 9, the process of step S22 shown in FIG. 12, or the process of step S32 shown in FIG. 14, and then the difference. Object recognition for the image may be started.

制御部23は、差分画像中の物体の数を検出する(ステップS40)。制御部23は、差分画像から個別に複数の物体が検出されたか否か判定する(ステップS41)。 The control unit 23 detects the number of objects in the difference image (step S40). The control unit 23 determines whether or not a plurality of objects are individually detected from the difference image (step S41).

制御部23は、差分画像から別個に複数の物体が検出されたと判定しない場合(ステップS41:Nо)、ステップS42の処理に進む。例えば、制御部23は、差分画像から1個の物体が検出されたと判定する場合、ステップS42の処理に進む。ステップS42の処理では、制御部23は、差分画像に対して物体認識を実行する。ステップS42の処理の実行後、制御部23は、図9に示すステップS14の処理、図12に示すステップS24の処理又は図14に示すステップS34の処理に、進む。 When the control unit 23 does not determine that a plurality of objects have been detected separately from the difference image (step S41: Nо), the control unit 23 proceeds to the process of step S42. For example, when the control unit 23 determines that one object has been detected from the difference image, the control unit 23 proceeds to the process of step S42. In the process of step S42, the control unit 23 executes object recognition for the difference image. After executing the process of step S42, the control unit 23 proceeds to the process of step S14 shown in FIG. 9, the process of step S24 shown in FIG. 12, or the process of step S34 shown in FIG.

制御部23は、差分画像から個別に複数の物体が検出されたと判定する場合(ステップS41:YES)、ステップS43の処理に進む。制御部23は、ステップS43の処理に進む際、差分画像から検出された物体の数を、記憶部22に記憶させておいてよい。 When the control unit 23 determines that a plurality of objects are individually detected from the difference image (step S41: YES), the control unit 23 proceeds to the process of step S43. When proceeding to the process of step S43, the control unit 23 may store the number of objects detected from the difference image in the storage unit 22.

ステップS43の処理では、制御部23は、差分画像に含まれる1個の物体に対応する部分画像に、物体認識を実行する。ステップS44の処理では、制御部23は、差分画像に含まれる、物体に対応する部分画像の全てに対して、ステップS43の処理を実行したか否か判定する。 In the process of step S43, the control unit 23 executes object recognition on the partial image corresponding to one object included in the difference image. In the process of step S44, the control unit 23 determines whether or not the process of step S43 has been executed for all the partial images corresponding to the objects included in the difference image.

制御部23は、物体に対応する部分画像の全てに対してステップS43の処理を実行したと判定する場合(ステップS44:YES)、図9に示すステップS14の処理、図12に示すステップS24の処理又は図14に示すステップS34の処理に、進む。 When the control unit 23 determines that the process of step S43 has been executed for all of the partial images corresponding to the objects (step S44: YES), the process of step S14 shown in FIG. 9 and the process of step S24 shown in FIG. The process proceeds to the process or the process of step S34 shown in FIG.

制御部23は、物体に対応する部分画像の全てに対してステップS43の処理を実行したと判定しない場合(ステップS44:NO)、ステップS43の処理を再び実行する。再び実行するステップS43の処理では、制御部23は、差分画像から検出された物体に対応する部分画像の中で、物体認識を実行していない部分画像に対して、物体認識を実行する。 When the control unit 23 does not determine that the process of step S43 has been executed for all of the partial images corresponding to the objects (step S44: NO), the control unit 23 executes the process of step S43 again. In the process of step S43 to be executed again, the control unit 23 executes object recognition for the partial image corresponding to the object detected from the difference image, for which the object recognition is not executed.

このように本実施形態によれば、差分画像から個別に複数の物体が検出された場合、各物体に対応する部分画像毎に物体認識を実行する。このような処理によって、物体がより精度良く特定され得る。 As described above, according to the present embodiment, when a plurality of objects are individually detected from the difference image, object recognition is executed for each partial image corresponding to each object. By such processing, the object can be identified more accurately.

図17は、本開示のさらに他の実施形態に係る情報処理システム210の全体構成を示す図である。情報処理システム210は、買い物かご214と、カメラ16と、表示装置17と、情報処理装置18とを含む。 FIG. 17 is a diagram showing an overall configuration of the information processing system 210 according to still another embodiment of the present disclosure. The information processing system 210 includes a shopping cart 214, a camera 16, a display device 17, and an information processing device 18.

買い物かご214は、店舗に来店した顧客によって、使用され得る。顧客は、購入したい商品を、買い物かご214の中に入れ得る。 The shopping cart 214 may be used by a customer who visits the store. The customer can put the goods he / she wants to purchase in the shopping cart 214.

カメラ16は、買い物かご214の中を撮像する。カメラ16は、買い物かご214の中を撮像可能に、配置されていてよい。カメラ16は、買い物かご214の上部の縁部に、配置されていてよい。カメラ16は、買い物かご214の中を撮像可能に、例えば買い物かご214の上部の縁部に、固定されていてよい。 The camera 16 takes an image of the inside of the shopping cart 214. The camera 16 may be arranged so that the inside of the shopping cart 214 can be imaged. The camera 16 may be located at the upper edge of the shopping cart 214. The camera 16 may be fixed to the upper edge of the shopping cart 214 so that the inside of the shopping cart 214 can be imaged.

カメラ16は、情報処理装置18と無線通信可能な、通信モジュールを含んでよい。カメラ16は、画像信号を、当該無線モジュールによって情報処理装置18に送信してよい。 The camera 16 may include a communication module capable of wirelessly communicating with the information processing device 18. The camera 16 may transmit an image signal to the information processing device 18 by the wireless module.

情報処理装置18は、上述したように、撮像時刻の異なる2つの撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる画像に対応する物体を特定することができる。 As described above, the information processing apparatus 18 can identify an object corresponding to an image included in at least one of the two captured images based on the difference image of the two captured images having different imaging times.

本開示に係る構成は、以上説明してきた実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは、分割したりすることが可能である。 The configuration according to the present disclosure is not limited to the embodiments described above, and can be modified or modified in many ways. For example, the functions and the like included in each component and the like can be rearranged so as not to be logically inconsistent, and a plurality of components and the like can be combined or divided into one.

10,110,210 情報処理システム
11 精算システム
12 サーバ
13 ネットワーク
14 載置台
14a 載置面
15 支持柱
16 カメラ
17 表示装置
18 情報処理装置
19 重量センサ
20 通信部
21 入力部
214 買い物かご
22 記憶部
23 制御部
30,31,32,33,34 撮像画像
31a,32a,32b,33a,33b,34a,34b,34c 部分画像
40,41,42 差分画像
40a,41a,42a,42b 部分画像
10, 110, 210 Information processing system 11 Settlement system 12 Server 13 Network 14 Mounting stand 14a Mounting surface 15 Support pillar 16 Camera 17 Display device 18 Information processing device 19 Weight sensor 20 Communication unit 21 Input unit 214 Shopping basket 22 Storage unit 23 Control unit 30, 31, 32, 33, 34 Captured image 31a, 32a, 32b, 33a, 33b, 34a, 34b, 34c Partial image 40, 41, 42 Difference image 40a, 41a, 42a, 42b Partial image

Claims (11)

撮像により画像信号を生成する撮像部と、
前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する情報処理装置と、を備える、情報処理システム。
An imaging unit that generates an image signal by imaging,
Information that acquires a captured image corresponding to the image signal and identifies an object corresponding to a partial image included in at least one of the two captured images based on the difference image of the two captured images having different imaging times. An information processing system including a processing device.
請求項1に記載の情報処理システムであって、
前記情報処理装置は、前記差分画像に対して物体認識を実行することにより、前記物体を特定する、情報処理システム。
The information processing system according to claim 1.
The information processing device is an information processing system that identifies an object by performing object recognition on the difference image.
請求項2に記載の情報処理システムであって、
前記情報処理装置は、前記差分画像から個別に複数の物体が検出された場合、各物体に対応する部分画像毎に前記物体認識を実行する、情報処理システム。
The information processing system according to claim 2.
The information processing device is an information processing system that executes the object recognition for each partial image corresponding to each object when a plurality of objects are individually detected from the difference image.
請求項1から3までの何れか一項に記載の情報処理システムであって、
前記情報処理装置は、前記2つの撮像画像に差分があると判定する場合、前記差分画像を生成する、情報処理システム。
The information processing system according to any one of claims 1 to 3.
An information processing system that generates the difference image when the information processing device determines that there is a difference between the two captured images.
請求項4に記載の情報処理システムであって、
前記情報処理装置は、前記撮像画像から物体の数を検出し、個別に検出された物体の数が変化したときの前記撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の前記撮像画像とを用いて、前記差分画像を生成する、情報処理システム。
The information processing system according to claim 4.
The information processing device detects the number of objects from the captured image, the captured image when the number of individually detected objects changes, and the imaging at an imaging time before the imaging time of the captured image. An information processing system that generates the difference image using an image.
請求項5に記載の情報処理システムであって、
前記情報処理装置は、前記撮像時刻よりも前の撮像時刻の撮像画像として、前記物体の数が変化する前の撮像画像を用いる、情報処理システム。
The information processing system according to claim 5.
The information processing device is an information processing system that uses an image captured before the number of objects changes as an image captured at an imaging time before the imaging time.
請求項1から3までの何れか一項に記載の情報処理システムであって、
前記情報処理装置は、前記撮像時刻の異なる2つの撮像画像として、手指に対応する部分画像を含む前記撮像画像の撮像時刻の前後の撮像時刻の撮像画像を用いる、情報処理システム。
The information processing system according to any one of claims 1 to 3.
The information processing device is an information processing system that uses captured images at imaging times before and after the imaging time of the captured image including a partial image corresponding to a finger as two captured images having different imaging times.
請求項1から7までの何れか一項に記載の情報処理システムであって、
前記物体である商品が載置される載置台をさらに備え、
前記撮像部は、前記載置台の載置面を撮像可能に配置されている、情報処理システム。
The information processing system according to any one of claims 1 to 7.
Further provided with a mounting table on which the product, which is the object, is placed,
The image pickup unit is an information processing system in which the mounting surface of the above-mentioned stand is arranged so as to be able to image.
請求項1から3までの何れか一項に記載の情報処理システムであって、
前記物体である商品が載置される載置台と、
前記載置台の載置面にかかる重量を検出する重量センサと、をさらに備え、
前記情報処理装置は、前記撮像時刻の異なる2つの撮像画像として、前記載置面にかかる重量が変化した時刻の前後の撮像時刻の撮像画像を用いる、情報処理システム。
The information processing system according to any one of claims 1 to 3.
A mounting table on which the product, which is the object, is placed, and
Further equipped with a weight sensor that detects the weight applied to the mounting surface of the above-mentioned stand.
The information processing device is an information processing system that uses captured images at imaging times before and after the time when the weight applied to the above-mentioned mounting surface changes as two captured images having different imaging times.
撮像により画像信号を生成する撮像部と通信可能な通信部と、
前記通信部によって前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する制御部と、を備える、情報処理装置。
A communication unit that can communicate with an imaging unit that generates an image signal by imaging,
An object corresponding to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times by acquiring an captured image corresponding to the image signal by the communication unit. An information processing device including a control unit for specifying an image.
撮像により画像信号を生成することと、
前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定することと、を含む、情報処理方法。
Generating an image signal by imaging and
Acquiring a captured image corresponding to the image signal and identifying an object corresponding to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times. Information processing methods, including.
JP2019230748A 2019-12-06 2019-12-20 Information processing system, information processing device, and information processing method Pending JP2021099629A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019230748A JP2021099629A (en) 2019-12-20 2019-12-20 Information processing system, information processing device, and information processing method
US17/756,882 US20230013468A1 (en) 2019-12-06 2020-12-04 Information processing system, information processing device, and information processing method
PCT/JP2020/045287 WO2021112234A1 (en) 2019-12-06 2020-12-04 Information processing system, information processing device, and information processing method
CN202080084524.7A CN114766033A (en) 2019-12-06 2020-12-04 Information processing system, information processing apparatus, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019230748A JP2021099629A (en) 2019-12-20 2019-12-20 Information processing system, information processing device, and information processing method

Publications (1)

Publication Number Publication Date
JP2021099629A true JP2021099629A (en) 2021-07-01

Family

ID=76542000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019230748A Pending JP2021099629A (en) 2019-12-06 2019-12-20 Information processing system, information processing device, and information processing method

Country Status (1)

Country Link
JP (1) JP2021099629A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306280A (en) * 1998-04-17 1999-11-05 Mitsubishi Electric Corp Image recognizing device
JP2008210388A (en) * 2007-02-26 2008-09-11 Fujitsu Ltd Method, device, and program for identifying code
JP2014146890A (en) * 2013-01-28 2014-08-14 Glory Ltd Imaging system and imaging method
JP2015022624A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Information processing apparatus, control method thereof, computer program, and storage medium
JP2016018459A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing system, control method therefore, program, and storage medium
WO2016143067A1 (en) * 2015-03-10 2016-09-15 三菱電機株式会社 Picture analysis device
JP2017199289A (en) * 2016-04-28 2017-11-02 キヤノン株式会社 Information processor, control method thereof, program, and storage medium
WO2018179151A1 (en) * 2017-03-29 2018-10-04 日本電気株式会社 Image analysis device, image analysis method and image analysis program
JP2018181081A (en) * 2017-04-18 2018-11-15 日本電信電話株式会社 Image recognition engine cooperation device and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306280A (en) * 1998-04-17 1999-11-05 Mitsubishi Electric Corp Image recognizing device
JP2008210388A (en) * 2007-02-26 2008-09-11 Fujitsu Ltd Method, device, and program for identifying code
JP2014146890A (en) * 2013-01-28 2014-08-14 Glory Ltd Imaging system and imaging method
JP2015022624A (en) * 2013-07-22 2015-02-02 キヤノン株式会社 Information processing apparatus, control method thereof, computer program, and storage medium
JP2016018459A (en) * 2014-07-09 2016-02-01 キヤノン株式会社 Image processing system, control method therefore, program, and storage medium
WO2016143067A1 (en) * 2015-03-10 2016-09-15 三菱電機株式会社 Picture analysis device
JP2017199289A (en) * 2016-04-28 2017-11-02 キヤノン株式会社 Information processor, control method thereof, program, and storage medium
WO2018179151A1 (en) * 2017-03-29 2018-10-04 日本電気株式会社 Image analysis device, image analysis method and image analysis program
JP2018181081A (en) * 2017-04-18 2018-11-15 日本電信電話株式会社 Image recognition engine cooperation device and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阪口 裕章、外2名: ""鉄道運転士訓練シミュレータにおける指差喚呼自動評価システムの開発"", 電子情報通信学会技術研究報告, vol. 113, no. 196, JPN6023042604, 26 August 2013 (2013-08-26), JP, pages 187 - 193, ISSN: 0005174401 *

Similar Documents

Publication Publication Date Title
CN109559454B (en) Neural network-based commodity identification cash registering method and self-service cash registering desk
JP6549558B2 (en) Sales registration device, program and sales registration method
JP2015141572A (en) Merchandise information providing method, merchandise information providing device, and merchandise information providing program
EP3185146A1 (en) Information processing apparatus
JP2010044479A (en) Pos terminal equipment
JP2018124988A (en) Remote weighing device
JP2019168762A (en) Settlement system, settlement method, and program
JP6261060B2 (en) Information processing device
US20190108503A1 (en) Reading apparatus, reading method, and computer readable medium
JP6885814B2 (en) Product reader and product reader program
KR20210039783A (en) Method and user terminal for providing custom clothing purchase service
US20140249950A1 (en) Store system
TWI734054B (en) Information processing apparatus, display position adjusting method, and storage medium
CN107533783A (en) Product calling mechanism, program and control method
JPWO2019106900A1 (en) Processing system, processing method and program
JP6873711B2 (en) Product recognition device
JP2012053709A (en) Reading device and program
JP2021099629A (en) Information processing system, information processing device, and information processing method
JP6398331B2 (en) Information processing apparatus, control method, and program
JP7006767B2 (en) Image identification cash register, image identification cash register system, accounting method, and program
JP7381330B2 (en) Information processing system, information processing device, and information processing method
JP2021012711A5 (en)
JP7322945B2 (en) Processing device, processing method and program
JP2016024601A (en) Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program
WO2024048177A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305