JP2021099629A - Information processing system, information processing device, and information processing method - Google Patents
Information processing system, information processing device, and information processing method Download PDFInfo
- Publication number
- JP2021099629A JP2021099629A JP2019230748A JP2019230748A JP2021099629A JP 2021099629 A JP2021099629 A JP 2021099629A JP 2019230748 A JP2019230748 A JP 2019230748A JP 2019230748 A JP2019230748 A JP 2019230748A JP 2021099629 A JP2021099629 A JP 2021099629A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information processing
- processing system
- captured
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 115
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims abstract description 105
- 238000000034 method Methods 0.000 description 85
- 238000001514 detection method Methods 0.000 description 21
- 235000014121 butter Nutrition 0.000 description 15
- 241000209094 Oryza Species 0.000 description 12
- 235000007164 Oryza sativa Nutrition 0.000 description 12
- 235000009566 rice Nutrition 0.000 description 12
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 235000019219 chocolate Nutrition 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Abstract
Description
本開示は、情報処理システム、情報処理装置及び情報処理方法に関する。 The present disclosure relates to an information processing system, an information processing device, and an information processing method.
従来、商品の代金の清算のために、物体が何れの商品であるかを特定する情報処理システムが求められている。例えば、所定エリアに置かれた1つ以上の物体を複数方向からそれぞれ撮像した複数の画像に基づいて、物体が何れの商品であるかを特定する情報処理システムが知られている(特許文献1)。 Conventionally, in order to settle the price of a product, an information processing system that identifies which product the object is has been required. For example, there is known an information processing system that identifies which product an object is based on a plurality of images obtained by capturing one or more objects placed in a predetermined area from a plurality of directions (Patent Document 1). ).
従来の情報処理システムには、改善の余地がある。 There is room for improvement in conventional information processing systems.
かかる点に鑑みてなされた本開示の目的は、改善された、情報処理システム、情報処理装置及び情報処理方法を提供することにある。 An object of the present disclosure made in view of this point is to provide an improved information processing system, information processing apparatus and information processing method.
本開示の一実施形態に係る情報処理システムは、撮像により画像信号を生成する撮像部と、情報処理装置とを備える。前記情報処理装置は、前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する。 The information processing system according to the embodiment of the present disclosure includes an imaging unit that generates an image signal by imaging and an information processing device. The information processing device acquires a captured image corresponding to the image signal, and corresponds to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times. Identify the object to be used.
本開示の一実施形態に係る情報処理装置は、通信部と、制御部とを備える。前記通信部は、撮像により画像信号を生成する撮像部と通信可能である。前記制御部は、前記通信部によって前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する。 The information processing device according to the embodiment of the present disclosure includes a communication unit and a control unit. The communication unit can communicate with an imaging unit that generates an image signal by imaging. The control unit acquires a captured image corresponding to the image signal by the communication unit, and is included in at least one of the two captured images based on the difference image of the two captured images having different imaging times. Identify the object that corresponds to the image.
本開示の一実施形態に係る情報処理方法は、撮像により画像信号を生成することを含む。前記情報処理方法は、前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定することを含む。 The information processing method according to the embodiment of the present disclosure includes generating an image signal by imaging. The information processing method acquires a captured image corresponding to the image signal, and corresponds to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times. Includes identifying the object to be.
本開示の一実施形態によれば、改善された、情報処理システム、情報処理装置及び情報処理方法が提供され得る。 According to one embodiment of the present disclosure, an improved information processing system, information processing apparatus and information processing method may be provided.
以下、本開示に係る実施形態について、図面を参照して説明する。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings.
図1に示すように、精算システム11は、少なくとも1つの情報処理システム10と、サーバ12とを含む。サーバ12は、物理サーバであってよいし、クラウドサーバであってよい。情報処理システム10とサーバ12とは、ネットワーク13を介して通信可能である。ネットワーク13は、無線、有線、又は、無線及び有線の組み合わせであってよい。
As shown in FIG. 1, the
情報処理システム10は、コンビニエンスストア及びスーパーマーケット等の任意の店舗に、配置されてよい。情報処理システム10は、店舗のキャッシュレジスタ端末として構成されてよい。情報処理システム10は、顧客が後述の載置台14に載置した商品を撮像することにより、撮像画像を生成する。情報処理システム10は、生成した撮像画像中の物体が、店舗の何れの商品であるかを特定する。本開示において「撮像画像中の物体」は、撮像画像中の、画像として描画される物体の像を意味する。情報処理システム10は、特定した商品情報を、ネットワーク13を介してサーバ12に送信する。当該商品情報には、商品名及び商品の数等が含まれ得る。サーバ12は、商品情報に基づいて、顧客に対する請求金額を算出する。サーバ12は、請求金額を、ネットワーク13を介して情報処理システム10に送信する。情報処理システム10は、顧客に請求金額を提示することにより、顧客に請求金額の支払いを要求する。
The
図2に示すように、情報処理システム10は、カメラ16(撮像部)と、情報処理装置18とを含む。情報処理システム10は、載置台14と、支持柱15と、表示装置17とを含んでよい。
As shown in FIG. 2, the
載置台14は、載置面14aを含む。顧客は、会計時に、購入したい商品を載置面14aに載置する。本実施形態では、載置面14aは、略長方形状である。ただし、載置面14aは、任意の形状であってよい。
The mounting table 14 includes a
支持柱15は、載置台14の側部から、載置面14aの法線方向の一方に向けて延びる。当該法線方向の一方は、載置面14aの法線方向のうち、載置面14aから離れる方向であってよい。支持柱15の先端には、カメラ16が位置する。
The
カメラ16は、撮像により撮像画像に相当する画像信号を生成する。本実施形態では、カメラ16は、載置台14の載置面14aを撮像する。ただし、カメラ16が撮像する範囲は、載置面14aの少なくとも一部であればよく、載置面14aを超える範囲であってもよい。また、カメラ16が撮像する範囲は、載置台14の載置面14aに限定されない。例えば、カメラ16が撮像する範囲は、後述の図17に示すような、買い物かご214の中であってよい。
The
カメラ16は、載置台14の載置面14aを撮像可能に、配置されていてよい。カメラ16は、載置面14aに光軸が垂直になるように、配置されていてよい。カメラ16は、支持柱15の先端に、配置されていてよい。カメラ16は、載置台14の載置面14aを撮像可能に、例えば支持柱15の先端に、固定されていてよい。
The
カメラ16は、情報処理装置18から、撮像開始を指示する信号を取得し得る。カメラ16は、撮像開始を指示する信号を取得すると、撮像を開始し得る。カメラ16は、撮像により生成した画像信号を、通信線を介して情報処理装置18に、出力する。カメラ16は、任意のフレームレートで連続的に撮像を実行する。カメラ16は、連続的に撮像を実行することにより、撮像時刻が異なる画像信号を生成し得る。ただし、カメラ16は、所定トリガーに基づいて、静止画を随時撮像してよい。
The
表示装置17は、液晶ディスプレイ等の任意のディスプレイを含んで構成されてよい。表示装置17は、情報処理装置18から取得した信号に基づいて、画像を表示する。例えば、表示装置17は、情報処理装置18から、商品の請求金額を示す信号を取得し得る。表示装置17は、当該商品の請求金額を示す信号に基づいて、請求金額を示す画像を表示し得る。
The
表示装置17は、タッチスクリーン機能を有してよい。表示装置17は、載置台14の近辺の近くに配置されてよい。表示装置17は、顧客が商品を載置台14に置く際に、顧客の方を向くように、配置されていてよい。
The
情報処理装置18は、載置台14の近辺に配置されてよい。図3に示すように、情報処理装置18は、制御部23を含む。情報処理装置18は、通信部20と、入力部21と、記憶部22とを含んでよい。
The
通信部20は、任意の通信モジュールを含む。当該任意の通信モジュールは、通信線を介してカメラ16と通信可能な通信モジュール、通信線を介して表示装置17と通信可能なモジュール、及び、ネットワーク13を介してサーバ12と通信可能な通信モジュールを含んでよい。カメラ16と通信部20との間の通信線、及び、表示装置17と通信部20との間の通信線は、有線又は無線を含んで構成されていてよい。
The
入力部21は、ユーザ入力を検出可能な1つ以上のインターフェースを含む。例えば、入力部21は、物理キー、静電容量キー及びタッチスクリーンの少なくとも何れかを含んで構成されてよい。本実施形態においては、入力部21は、タッチスクリーンである。タッチスクリーンである入力部21は、表示装置17と一体として設けられている。
The
記憶部22は、RAM(Random Access Memory)及びROM(Read Only Memory)等の任意の記憶デバイスを含む。記憶部22は、制御部23を機能させる多様なプログラム及び制御部23が用いる多様な情報を記憶する。
The
記憶部22は、店舗の商品データを記憶してよい。当該商品データは、後述の物体検出及び物体認識等に用いられ得る。商品データは、商品を識別する識別子と対応付けられた、商品画像及び商品のパッケージに付された文字等を含んでよい。以下、商品を識別する識別子は、便宜上、商品名であるものとする。
The
制御部23は、1つ以上のプロセッサ及びメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び、特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部23は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及び、SiP(System In a Package)の何れかであってよい。
The
制御部23は、通信部20によって、ネットワーク13を介してサーバ12から、上述の商品データを取得してよい。制御部23は、取得した商品データを、記憶部22に記憶させてよい。
The
制御部23は、カメラ16に、撮像開始を指示する信号を、通信部20によって送信し得る。制御部23は、情報処理装置18が起動したときに、撮像開始を指示する信号を送信してよい。制御部23は、撮像開始を指示するユーザ入力を、入力部21によって検出したとき、撮像開始を指示する信号を送信してよい。当該ユーザ入力は、店員によって、店舗の開店時等に、入力部21から入力され得る。
The
制御部23は、カメラ16から、画像信号を、通信部20によって取得する。制御部23は、画像信号を取得することにより、画像信号に相当する撮像画像を取得し得る。制御部23は、取得した撮像画像を記憶部22に記憶させてよい。カメラ16によって撮像時刻が異なる画像信号が生成されることにより、制御部23は、撮像時刻が異なる撮像画像を取得し得る。ここで、顧客は、複数の商品を購入する場合、次々に、商品を載置台14の載置面14aに載置し得る。顧客が商品を次々に載置台14の載置面14aに載置することにより、撮像画像には、当該撮像画像の撮像時間が進むに連れて、次々に載置台14に載置されていく商品が映り得る。例えば、制御部23は、図4、図5及び図6に示すような、撮像画像30,31,32を取得し得る。
The
図4に示すような撮像画像30は、撮像時刻t0に撮像された画像である。撮像時刻t0では、載置台14の載置面14aには、商品等が載置されていない。撮像画像30は、載置台14の載置面14aに対応する画像を含む。
The captured
図5に示すような撮像画像31は、撮像時刻t1に撮像された画像である。撮像時刻t1は、撮像時刻t0よりも、後の時刻である。撮像時刻t1では、バターが載置台14の載置面14aに載置されている。撮像画像31は、部分画像31aを含む。部分画像31aは、撮像画像31の一部である。部分画像31aは、バターに対応する。
The captured
図6に示すような撮像画像32は、撮像時刻t2に撮像された画像である。撮像時刻t2は、撮像時刻t1よりも、後の時刻である。撮像時刻t2では、バター及びおにぎりが、載置台14の載置面14aに載置されている。おにぎりは、顧客がバターを載置台14に載置した後に、載置される。おにぎりは、バターの一部に重ねられている。撮像画像32は、部分画像32aと、部分画像32bとを含む。部分画像32a及び部分画像32bは、撮像画像32の一部である。部分画像32aは、バターに対応する。部分画像32bは、おにぎりに対応する。おにぎりがバターの一部に重ねられていることにより、部分画像32aは、図5に示すような部分画像31aとは異なり、一部が欠けている。
The captured
制御部23は、撮像時刻の異なる2つの撮像画像に基づいて、差分画像を生成する。例えば、制御部23は、2つの撮像画像にそれぞれ含まれる各画素の輝度値の差分を算出することにより、差分画像を生成してよい。ここで、制御部23は、撮像時刻の異なる2つの撮像画像に差分があると判定する場合、差分画像を生成してよい。以下、2つの撮像画像に差分があるか否かを判定する処理の一例を説明する。
The
制御部23は、物体検出によって、撮像画像中の物体の数を検出する。本開示において「物体検出」は、検出の対象となる物体を、撮像画像中の背景及び他の物体から区別して検出することを意味する。検出の対象となる物体は、情報処理システム10が配置されている店舗の商品である。制御部23は、公知の物体検出方法によって撮像画像中の物体を検出することにより、物体の数を検出してよい。公知の物体検出方法の一例として、セグメンテーション、セマンティックセグメンテーション及び/又はバウンディングボックスを利用する方法が挙げられる。制御部23は、公知の物体認証方法によって、撮像画像中の物体の数を検出してよい。公知の物体認証方法の一例として、深層学習等の機械学習及び/又は特徴量パターンマッチングを利用する方法が挙げられる。
The
制御部23は、撮像画像中の個別に検出された物体の数が変化したか否か判定する。制御部23は、最新の検出処理で検出された物体の数と、最新の物体検出の処理の1つ前の検出処理で検出された物体の数とを比較することにより、撮像画像中の個別に検出された物体の数が変化したか否か判定してよい。このような構成により、2つの撮像画像に差分があるか否かが判定され得る。
The
制御部23は、個別に検出された物体の数が変化したと判定する場合、物体の数が変化したときの撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の撮像画像とを用いて、差分画像を生成する。物体の数が変化したときの撮像画像の撮像時刻よりも前の撮像時刻の撮像画像として、物体の数が変化したときの撮像画像の撮像時刻よりも、所定時間前に撮像された撮像画像が用いられてよい。所定時間は、顧客が1つの商品を載置台14に載置してから次の商品を載置台14に載置するまでに要する時間を想定して、適宜設定されてよい。又は、物体の数が変化したときの撮像画像の撮像時刻よりも前の撮像時刻の撮像画像として、物体の数が変化する前の撮像画像が用いられてよい。当該物体の数が変化する前の撮像画像は、物体の数が変化する前の撮像画像の中で、最新のものであってよい。本実施形態では、物体の数が変化したときの撮像画像の撮像時刻よりも前の撮像時刻の撮像画像として、物体の数が変化する前の撮像画像が用いられる。
When the
例えば、検出処理にて、制御部23は、撮像画像30の中の物体の数をゼロ個と検出する。次の検出処理にて、制御部23は、撮像画像31の中の物体の数を1個と検出する。制御部23は、最新の検出処理にて検出した物体の数の1個と、最新の検出処理の1つ前の検出処理で検出された物体の数のゼロ個とを比較することにより、撮像画像31中の個別に検出された物体の数が変化したと判定する。制御部23は、物体の数が1個に変化した撮像画像31と、物体の数が1個に変化する前の撮像画像30とを用いて、図7に示すような、差分画像40を生成する。差分画像40は、部分画像40aを含む。部分画像40aは、ゼロではない画素が連続する領域である。部分画像40aは、撮像画像31の部分画像31aと、部分画像31aに対応する撮像画像30の部分との間の差分値に基づいて生成され得る。部分画像40aは、2つの撮像画像すなわち撮像画像30及び撮像画像31のうちの、撮像画像31に含まれる部分画像31aに対応する。
For example, in the detection process, the
例えば、検出処理にて、制御部23は、撮像画像32の中の物体を2個と検出する。当該検出処理の1つ前の検出処理は、撮像画像31に対する検出処理であるとする。制御部23は、最新の検出処理にて検出した物体の数の2個と、最新の検出処理の1つ前の検出処理で検出された物体の数の1個とを比較することにより、撮像画像32の中の個別に検出された物体の数が変化したと判定する。制御部23は、物体の数が2個に変化した撮像画像32と、物体の数が2個に変化する前の撮像画像31とを用いて、図8に示すような、差分画像41を生成する。差分画像41は、部分画像41aを含む。部分画像41aは、ゼロではない画素が連続する領域である。部分画像41aは、撮像画像32の部分画像3bと、部分画像32bに対応する撮像画像31の部分との間の差分値に基づいて生成され得る。部分画像41aは、2つの撮像画像すなわち撮像画像31及び撮像画像32のうちの、撮像画像32に含まれる部分画像32bに対応する。
For example, in the detection process, the
制御部23は、差分画像40,41に対して物体認識を実行することにより、撮像画像30〜32の少なくとも何れかに含まれる部分画像に対応する物体を特定する。差分画像に対する物体認識は、差分画像中の部分画像を解析することにより、当該部分画像に対応する物体の識別子すなわち名称を特定することを含んでよい。差分画像に対する物体認識は、差分画像から物体を検出することを含んでよい。制御部23は、公知の物体認識方法を、差分画像に対して実行してよい。公知の物体認識方法の一例として、深層学習等の機械学習、文字認識、及び/又は、特徴量パターンマッチングを利用する方法が挙げられる。制御部23は、差分画像40に対して物体認識を実行することにより、部分画像40aを検出して、部分画像40aに対応する物体の商品名が「バター」であると特定する。制御部23は、差分画像41に対して物体認識を実行することにより、物体に対応する部分画像41aを検出して、部分画像41aに対応する物体の商品名が「おにぎり」であることを特定する。
The
制御部23は、会計の要求を指示するユーザ入力を、入力部21によって検出したとき、差分画像の生成を終了する。会計の要求を指示するユーザ入力は、顧客が商品を全て載置台14に載置させた後、顧客によって入力部21から入力され得る。又は、制御部23は、撮像画像中の物体の数が変化したと判定してから所定時間経過しても、撮像画像中から個別に検出される物体の数が変化しない場合、差分画像の生成を終了してよい。所定時間は、顧客が1つの商品を載置台14に載置してから次の商品を載置台14に載置するまでに要すると想定される時間よりも、長い時間であってよい。
When the
制御部23は、物体を特定する処理を終了すると、特定した商品情報を、ネットワーク13を介してサーバ12に、通信部20によって送信する。当該商品情報には、商品名及び商品の数等が含まれ得る。サーバ12は、当該商品情報を、ネットワーク13を介して情報処理装置18から取得する。サーバ12は、当該商品情報に基づいて、顧客に対して請求すべき請求金額を算出する。サーバ12は、請求金額を示す信号を、ネットワーク13を介して情報処理装置18に送信する。制御部23は、ネットワーク13を介してサーバ12から、請求金額を示す信号を、通信部20によって取得する。制御部23は、請求金額を示す信号を、通信部20によって表示装置17に送信する。
When the
図9は、本開示の一実施形態に係る情報処理システム10の物体特定処理を示すフローチャートである。制御部23は、カメラ16からの画像信号の取得を開始すると、物体特定処理を開始してよい。制御部23は、カメラ16から取得した画像信号を、記憶部22に記憶させてよい。また、制御部23は、顧客の会計が終了した後、再び、物体特定処理を開始してよい。
FIG. 9 is a flowchart showing an object identification process of the
制御部23は、撮像画像中の物体の数を検出する(ステップS10)。制御部23は、撮像画像中の個別に検出された物体の数が変化したか否か判定する(ステップS11)。
The
制御部23は、個別に検出された物体の数が変化したと判定する場合(ステップS11:YES)、ステップS12の処理に進む。一方、制御部23は、個別に検出された物体の数が変化しないと判定する場合(ステップS11:NO)、ステップS10の処理に戻る。
When the
ステップS12の処理では、制御部23は、物体の数が変化したときの撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の撮像画像とを用いて、差分画像を生成する。ステップS13の処理では、制御部23は、差分画像に対して物体認識を実行することにより、物体を特定する。
In the process of step S12, the
ステップS14の処理では、制御部23は、会計の要求を指示するユーザ入力を、入力部21によって検出したか否か判定する。制御部23は、会計の要求を指示するユーザ入力を、入力部21によって検出したと判定する場合(ステップS14:YES)、ステップS15の処理に進む。一方、制御部23は、会計を指示するユーザ入力を、入力部21によって検出したと判定しない場合(ステップS14:Nо)、ステップS10の処理に戻る。
In the process of step S14, the
ステップS15の処理では、制御部23は、特定した商品情報を、通信部20によってサーバ12に送信する。
In the process of step S15, the
ここで、制御部23は、ステップS11の処理にて個別に検出された物体の数が変化したと判定してから、所定時間経過しても、撮像画像中から個別に検出された物体の数が変化しない場合、ステップS15の処理に進んでよい。
Here, the
このように本実施形態に係る情報処理システム10では、情報処理装置18によって、撮像時刻の異なる2つの撮像画像から、差分画像が生成される。2つの撮像画像の何れかが物体に対応する部分画像を複数含む場合でも、これら複数の部分画像は、別個の差分画像に含まれ得る。例えば、図6に示すような撮像画像32は、バターに対応する部分画像32aと、おにぎりに対応する部分画像32bとを含む。部分画像32aに対応する部分画像40aは、差分画像40に含まれる。部分画像32bに対応する部分画像41aは、差分画像41に含まれる。情報処理装置18は、このような差分画像に対して物体認識が実行されることにより、撮像画像に対して物体認識を実行する場合よりも、物体を精度良く特定することができる。
As described above, in the
さらに、本実施形態に係る情報処理システム10では、物体を複数方向からカメラによって撮像しなくても、差分画像に対して物体認識を実行することにより、物体を特定することができる。情報処理システム10では、物体を複数方向からカメラで撮像しなく済むことにより、複数のカメラを載置台14に向けて設置しなくて済む。このような構成により、本実施形態に係る情報処理システム10では、より簡素な構成で、物体を特定することができる。
Further, in the
よって、本実施形態によれば、改善された、情報処理システム10、情報処理装置18及び情報処理方法が提供され得る。
Therefore, according to the present embodiment, an improved
また、本実施形態に係る情報処理システム10では、個別に検出された物体の数が変化したときの撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の撮像画像とを用いて、差分画像が生成される。このような構成により、より確実に差分がある撮像画像を用いて、差分画像が生成され得る。
Further, in the
次に、本開示の他の実施形態に係る情報処理システム10について説明する。本開示の他の実施形態では、制御部23は、差分画像の生成に用いる上述の撮像時刻の異なる2つの撮像画像として、手指に対応する部分画像を含む撮像画像の撮像時刻の前後の撮像時刻の撮像画像を用いる。本開示の他の実施形態において、記憶部22は、手指の画像等を記憶してよい。
Next, the
制御部23は、カメラ16から取得する撮像画像に、手指に対応する部分画像が含まれているか否か判定する。制御部23は、撮像画像に物体認識を実行することにより、手指に対応する部分画像が含まれているか否か判定してよい。
The
制御部23は、手指に対応する部分画像が撮像画像に含まれていると判定する場合、当該撮像画像の撮像時刻の前後の撮像時刻の撮像画像を取得する。例えば、制御部23は、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第1時間前の撮像時刻の撮像画像と、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第2時間後の撮像時刻の撮像画像とを取得してよい。第1時間及び第2時間は、顧客が個々の商品を載置台14に置く際に要する時間を想定して、適宜設定されてよい。第1時間と第2時間とは、同じであってよいし、異なってよい。本実施形態では、制御部23は、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第1時間前の撮像時刻の撮像画像と、手指に対応する部分画像を含む撮像画像の撮像時刻よりも第2時間後の撮像時刻の撮像画像とを取得する。
When the
例えば、制御部23は、図10に示すような、撮像画像33を取得する。撮像画像33は、撮像時刻t01に撮像された画像である。撮像時刻t01では、顧客が手でバターを掴んで、載置台14の載置面14aに載置しようとしている。撮像画像33は、部分画像33aと、部分画像33bとを含む。部分画像33a及び部分画像33bは、撮像画像33の一部である。部分画像33aは、手指に対応する。部分画像33bは、バターに対応する。制御部23は、撮像画像33に、手指に対応する部分画像33aが含まれていると判定する。ここで、撮像時刻t01よりも、第1時間前の撮像時刻は、上述の撮像画像30の撮像時刻t0であるものとする。また、撮像時刻t01よりも、第2時間後の撮像時刻は、上述の撮像画像31の撮像時刻t1であるものとする。制御部23は、上述の撮像画像30と上述の撮像画像31とを用いて、上述の差分画像40を生成する。
For example, the
例えば、制御部23は、図11に示すような、撮像画像34を取得する。撮像画像34は、撮像時刻t12に撮像された画像である。撮像時刻t12では、顧客がおにぎりを手で掴んで、載置台14の載置面14aに載置しようとしている。撮像画像34は、部分画像34aと、部分画像34bと、部分画像34cとを含む。部分画像34a、部分画像34b及び部分画像34cは、撮像画像34の一部である。部分画像34aは、手指に対応する。部分画像34bは、おにぎりに対応する。部分画像34cは、バターに対応する。制御部23は、撮像画像34に、手指に対応する部分画像34aが含まれていると判定する。ここで、撮像時刻t12よりも、第1時間前の撮像時刻は、上述の撮像画像31の撮像時刻t1であるものとする。また、撮像時刻t12よりも、第2時間後の撮像時刻は、上述の撮像画像32の撮像時刻t2であるものとする。制御部23は、上述の撮像画像31と上述の撮像画像32とを用いて、上述の差分画像41を生成する。
For example, the
図12は、本開示の他の実施形態に係る情報処理システム10の物体特定処理を示すフローチャートである。制御部23は、カメラ16から画像信号の取得を開始すると、物体特定処理を開始してよい。制御部23は、カメラ16から取得した画像信号を、記憶部22に記憶させてよい。また、制御部23は、顧客の会計が終了した後、再び、物体特定処理を開始してよい。
FIG. 12 is a flowchart showing an object identification process of the
制御部23は、撮像画像に物体認識を実行することにより(ステップS20)、手指に対応する部分画像が含まれているか否か判定する(ステップS21)。制御部23は、手指に対応する部分画像が撮像画像に含まれていると判定する場合(ステップS21:YES)、ステップS22の処理に進む。一方、手指に対応する部分画像が撮像画像に含まれていると判定しない場合(ステップS21:NO)、ステップS20の処理に戻る。
By executing object recognition in the captured image (step S20), the
ステップS22の処理では、制御部23は、手指に対応する部分画像を含む撮像画像の撮像時刻の前後の撮像時刻の撮像画像を用いて、差分画像を生成する。
In the process of step S22, the
制御部23は、図9に示すステップS13,S14,S15の処理と同じに、ステップS23,S24,S25の処理を実行する。
The
図13は、本開示のさらに他の実施形態に係る情報処理システム110の全体構成を示す図である。情報処理システム110は、カメラ16と、情報処理装置18と、重量センサ19とを含む。情報処理システム110は、載置台14と、支持柱15と、表示装置17とを含んでよい。
FIG. 13 is a diagram showing an overall configuration of the
重量センサ19は、載置台14の載置面14aにかかる重量を検出する。重量センサ19は、検出した重量を、通信線を介して情報処理装置18に、出力する。重量センサ19は、載置面14aにかかる重量を検出可能な位置に、適宜配置されている。
The
本実施形態に係る情報処理装置18では、通信部20は、通信線を介して重量センサ19と通信可能な通信モジュールを含んでよい。重量センサ19と通信部20との間の通信線は、有線又は無線を含んで構成されてよい。
In the
本実施形態に係る情報処理装置18では、制御部23は、差分画像の生成に用いる上述の撮像時刻の異なる2つの撮像画像として、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像を用いる。例えば、制御部23は、通信線を介して重量センサ19から、通信部20によって載置台14の載置面14aにかかる重量を取得し得る。制御部23は、載置台14の載置面14aにかかる重量が変化したか否か判定する。制御部23は、載置台14の載置面14aにかかる重量が変化したと判定する場合、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像を取得する。重量が変化した時刻の前の撮像時刻の画像として、制御部23は、載置面14aにかかる重量が変化した時刻よりも第3時間前の撮像時刻の撮像画像を取得してよい。第3時間は、顧客が個々の商品を載置台14に置く際に要する時間を想定して、適宜設定されてよい。重量が変化した時刻の後の撮像時刻の撮像画像として、制御部23は、載置面14aにかかる重量が変化した時刻よりも後に撮像された撮像画像の中で、載置面14aにかかる重量が変化した時刻に最も近い撮像時刻の撮像画像を取得してよい。
In the
例えば、何も載置されていない載置台14に、顧客がバターを載置した場合、バターの重みによって、載置台14の載置面14aにかかる重量が大きくなる。つまり、載置台14の載置面14aにかかる重量は、変化する。制御部23は、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像として、上述の撮像画像30及び撮像画像31を取得するものとする。制御部23は、撮像画像30及び撮像画像31を用いて、上述の差分画像40を生成し得る。
For example, when a customer places butter on a mounting table 14 on which nothing is placed, the weight of the butter increases the weight applied to the mounting
例えば、バターが載置された載置台14に、顧客がおにぎりを載置した場合、おにぎりの重量によって、載置台14の載置面14aにかかる重量が大きくなる。つまり、載置台14の載置面14aにかかる重量は、変化する。制御部23は、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像として、上述の撮像画像31及び撮像画像32を取得するものとする。制御部23は、撮像画像31及び撮像画像32を用いて、上述の差分画像41を生成し得る。
For example, when a customer places a rice ball on a mounting table 14 on which butter is placed, the weight of the rice ball increases the weight applied to the mounting
制御部23は、載置台14の載置面14aにかかる重量が変化したとき、カメラ16に撮像を指示する信号を、通信部20によって送信してよい。ここで、顧客は、複数の商品を購入する場合、次々に、商品を載置台14の載置面14aに載置し得る。顧客が商品を次々に載置台14の載置面14aに載置することにより、載置面14aにかかる重量は、随時変化し得る。載置面14aにかかる重量が随時変化する場合に、制御部23が載置面14aにかかる重量が変化したときにカメラ16に撮像を指示する信号を送信する場合、制御部23は、撮像を指示する信号を、随時送信し得る。カメラ16は、制御部23からの撮像を指示する信号を所定トリガーとして、静止画を随時撮像してよい。
When the weight applied to the mounting
図14は、本開示のさらに他の実施形態に係る情報処理システム110の物体特定処理を示すフローチャートである。制御部23は、カメラ16から画像信号の取得を開始すると、物体特定処理を開始してよい。制御部23は、カメラ16から取得した画像信号を、記憶部22に記憶させてよい。また、制御部23は、顧客の会計が終了した後、再び、物体特定処理を開始してよい。
FIG. 14 is a flowchart showing an object identification process of the
制御部23は、通信線を介して重量センサ19から、通信部20によって載置台14の載置面14aにかかる重量を取得する(ステップS30)。制御部23は、載置台14の載置面14aにかかる重量が変化したか否か判定する(ステップS31)。
The
制御部23は、載置台14の載置面14aにかかる重量が変化したと判定する場合(ステップS31:YES)、ステップS32の処理に進む。一方、制御部23は、載置台14の載置面14aにかかる重量が変化したと判定しない場合(ステップS31:NO)、ステップS30の処理に戻る。
When the
ステップS32の処理では、制御部23は、載置台14の載置面14aにかかる重量が変化した時刻の前後の撮像時刻の撮像画像を用いて、差分画像を生成する。
In the process of step S32, the
制御部23は、図9に示すステップS13,S14,S15の処理と同じに、ステップS33,S34,S35の処理を実行する。
The
図15は、本開示のさらに他の実施形態に係る差分画像42の一例を示す図である。差分画像42は、2つの物体にそれぞれ対応する部分画像を含む。例えば、差分画像42は、部分画像42aと、部分画像42bとを含む。部分画像42a及び部分画像42bは、差分画像42の一部である。部分画像42aは、チョコレートに対応する。部分画像42bは、おにぎりに対応する。
FIG. 15 is a diagram showing an example of a
顧客によって複数の商品が、一度に、載置台14の載置面14aに載置される場合がある。顧客によって複数の商品が一度に載置面14aに載置される場合、差分画像42のような、複数の物体にそれぞれ対応する部分画像を含む差分画像が生成され得る。
Depending on the customer, a plurality of products may be placed on the mounting
本実施形態に係る情報処理装置18では、制御部23は、差分画像から個別に複数の物体が検出された場合、各物体に対応する部分画像毎に物体認識を実行する。例えば、制御部23は、差分画像中の物体の数を検出してよい。制御部23は、上述の公知の物体検出方法によって差分画像中の物体を検出することにより、物体の数を検出してよい。制御部23は、差分画像から個別に複数の物体が検出されたか否か判定する。制御部23は、差分画像から個別に複数の物体が検出されたと判定する場合、各物体に対応する部分画像毎に、物体認識を実行する。
In the
例えば、制御部23は、差分画像42から、別個の2つの物体を検出する。制御部23は、差分画像42から別個に複数の物体が検出されたと判定する。制御部23は、各物体に対応する部分画像42a及び部分画像42b毎に、物体認識を実行する。制御部23は、部分画像42aに物体認識を実行することにより、部分画像42aに対応する物体がチョコレートであると特定する。制御部23は、部分画像42bに物体認識を実行することにより、部分画像42bに対応する物体がおにぎりであると特定する。
For example, the
図16は、本開示のさらに他の実施形態に係る情報処理システム10の差分画像に対する物体認識を示すフローチャートである。差分画像に対する物体認識は、図9に示すステップS13の処理、図12に示すステップS23の処理及び図14に示すステップS33の処理に代えて、実行されてよい。この場合、制御部23は、図9に示すステップS12の処理を実行した後、図12に示すステップS22の処理を実行した後、又は、図14に示すステップS32の処理を実行した後、差分画像に対する物体認識を開始してよい。
FIG. 16 is a flowchart showing object recognition for a difference image of the
制御部23は、差分画像中の物体の数を検出する(ステップS40)。制御部23は、差分画像から個別に複数の物体が検出されたか否か判定する(ステップS41)。
The
制御部23は、差分画像から別個に複数の物体が検出されたと判定しない場合(ステップS41:Nо)、ステップS42の処理に進む。例えば、制御部23は、差分画像から1個の物体が検出されたと判定する場合、ステップS42の処理に進む。ステップS42の処理では、制御部23は、差分画像に対して物体認識を実行する。ステップS42の処理の実行後、制御部23は、図9に示すステップS14の処理、図12に示すステップS24の処理又は図14に示すステップS34の処理に、進む。
When the
制御部23は、差分画像から個別に複数の物体が検出されたと判定する場合(ステップS41:YES)、ステップS43の処理に進む。制御部23は、ステップS43の処理に進む際、差分画像から検出された物体の数を、記憶部22に記憶させておいてよい。
When the
ステップS43の処理では、制御部23は、差分画像に含まれる1個の物体に対応する部分画像に、物体認識を実行する。ステップS44の処理では、制御部23は、差分画像に含まれる、物体に対応する部分画像の全てに対して、ステップS43の処理を実行したか否か判定する。
In the process of step S43, the
制御部23は、物体に対応する部分画像の全てに対してステップS43の処理を実行したと判定する場合(ステップS44:YES)、図9に示すステップS14の処理、図12に示すステップS24の処理又は図14に示すステップS34の処理に、進む。
When the
制御部23は、物体に対応する部分画像の全てに対してステップS43の処理を実行したと判定しない場合(ステップS44:NO)、ステップS43の処理を再び実行する。再び実行するステップS43の処理では、制御部23は、差分画像から検出された物体に対応する部分画像の中で、物体認識を実行していない部分画像に対して、物体認識を実行する。
When the
このように本実施形態によれば、差分画像から個別に複数の物体が検出された場合、各物体に対応する部分画像毎に物体認識を実行する。このような処理によって、物体がより精度良く特定され得る。 As described above, according to the present embodiment, when a plurality of objects are individually detected from the difference image, object recognition is executed for each partial image corresponding to each object. By such processing, the object can be identified more accurately.
図17は、本開示のさらに他の実施形態に係る情報処理システム210の全体構成を示す図である。情報処理システム210は、買い物かご214と、カメラ16と、表示装置17と、情報処理装置18とを含む。
FIG. 17 is a diagram showing an overall configuration of the
買い物かご214は、店舗に来店した顧客によって、使用され得る。顧客は、購入したい商品を、買い物かご214の中に入れ得る。
The
カメラ16は、買い物かご214の中を撮像する。カメラ16は、買い物かご214の中を撮像可能に、配置されていてよい。カメラ16は、買い物かご214の上部の縁部に、配置されていてよい。カメラ16は、買い物かご214の中を撮像可能に、例えば買い物かご214の上部の縁部に、固定されていてよい。
The
カメラ16は、情報処理装置18と無線通信可能な、通信モジュールを含んでよい。カメラ16は、画像信号を、当該無線モジュールによって情報処理装置18に送信してよい。
The
情報処理装置18は、上述したように、撮像時刻の異なる2つの撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる画像に対応する物体を特定することができる。
As described above, the
本開示に係る構成は、以上説明してきた実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは、分割したりすることが可能である。 The configuration according to the present disclosure is not limited to the embodiments described above, and can be modified or modified in many ways. For example, the functions and the like included in each component and the like can be rearranged so as not to be logically inconsistent, and a plurality of components and the like can be combined or divided into one.
10,110,210 情報処理システム
11 精算システム
12 サーバ
13 ネットワーク
14 載置台
14a 載置面
15 支持柱
16 カメラ
17 表示装置
18 情報処理装置
19 重量センサ
20 通信部
21 入力部
214 買い物かご
22 記憶部
23 制御部
30,31,32,33,34 撮像画像
31a,32a,32b,33a,33b,34a,34b,34c 部分画像
40,41,42 差分画像
40a,41a,42a,42b 部分画像
10, 110, 210
Claims (11)
前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する情報処理装置と、を備える、情報処理システム。 An imaging unit that generates an image signal by imaging,
Information that acquires a captured image corresponding to the image signal and identifies an object corresponding to a partial image included in at least one of the two captured images based on the difference image of the two captured images having different imaging times. An information processing system including a processing device.
前記情報処理装置は、前記差分画像に対して物体認識を実行することにより、前記物体を特定する、情報処理システム。 The information processing system according to claim 1.
The information processing device is an information processing system that identifies an object by performing object recognition on the difference image.
前記情報処理装置は、前記差分画像から個別に複数の物体が検出された場合、各物体に対応する部分画像毎に前記物体認識を実行する、情報処理システム。 The information processing system according to claim 2.
The information processing device is an information processing system that executes the object recognition for each partial image corresponding to each object when a plurality of objects are individually detected from the difference image.
前記情報処理装置は、前記2つの撮像画像に差分があると判定する場合、前記差分画像を生成する、情報処理システム。 The information processing system according to any one of claims 1 to 3.
An information processing system that generates the difference image when the information processing device determines that there is a difference between the two captured images.
前記情報処理装置は、前記撮像画像から物体の数を検出し、個別に検出された物体の数が変化したときの前記撮像画像と、当該撮像画像の撮像時刻よりも前の撮像時刻の前記撮像画像とを用いて、前記差分画像を生成する、情報処理システム。 The information processing system according to claim 4.
The information processing device detects the number of objects from the captured image, the captured image when the number of individually detected objects changes, and the imaging at an imaging time before the imaging time of the captured image. An information processing system that generates the difference image using an image.
前記情報処理装置は、前記撮像時刻よりも前の撮像時刻の撮像画像として、前記物体の数が変化する前の撮像画像を用いる、情報処理システム。 The information processing system according to claim 5.
The information processing device is an information processing system that uses an image captured before the number of objects changes as an image captured at an imaging time before the imaging time.
前記情報処理装置は、前記撮像時刻の異なる2つの撮像画像として、手指に対応する部分画像を含む前記撮像画像の撮像時刻の前後の撮像時刻の撮像画像を用いる、情報処理システム。 The information processing system according to any one of claims 1 to 3.
The information processing device is an information processing system that uses captured images at imaging times before and after the imaging time of the captured image including a partial image corresponding to a finger as two captured images having different imaging times.
前記物体である商品が載置される載置台をさらに備え、
前記撮像部は、前記載置台の載置面を撮像可能に配置されている、情報処理システム。 The information processing system according to any one of claims 1 to 7.
Further provided with a mounting table on which the product, which is the object, is placed,
The image pickup unit is an information processing system in which the mounting surface of the above-mentioned stand is arranged so as to be able to image.
前記物体である商品が載置される載置台と、
前記載置台の載置面にかかる重量を検出する重量センサと、をさらに備え、
前記情報処理装置は、前記撮像時刻の異なる2つの撮像画像として、前記載置面にかかる重量が変化した時刻の前後の撮像時刻の撮像画像を用いる、情報処理システム。 The information processing system according to any one of claims 1 to 3.
A mounting table on which the product, which is the object, is placed, and
Further equipped with a weight sensor that detects the weight applied to the mounting surface of the above-mentioned stand.
The information processing device is an information processing system that uses captured images at imaging times before and after the time when the weight applied to the above-mentioned mounting surface changes as two captured images having different imaging times.
前記通信部によって前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定する制御部と、を備える、情報処理装置。 A communication unit that can communicate with an imaging unit that generates an image signal by imaging,
An object corresponding to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times by acquiring an captured image corresponding to the image signal by the communication unit. An information processing device including a control unit for specifying an image.
前記画像信号に相当する撮像画像を取得し、撮像時刻の異なる2つの前記撮像画像の差分画像に基づいて、当該2つの撮像画像の少なくとも何れかに含まれる部分画像に対応する物体を特定することと、を含む、情報処理方法。 Generating an image signal by imaging and
Acquiring a captured image corresponding to the image signal and identifying an object corresponding to a partial image included in at least one of the two captured images based on a difference image of the two captured images having different imaging times. Information processing methods, including.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230748A JP2021099629A (en) | 2019-12-20 | 2019-12-20 | Information processing system, information processing device, and information processing method |
US17/756,882 US20230013468A1 (en) | 2019-12-06 | 2020-12-04 | Information processing system, information processing device, and information processing method |
PCT/JP2020/045287 WO2021112234A1 (en) | 2019-12-06 | 2020-12-04 | Information processing system, information processing device, and information processing method |
CN202080084524.7A CN114766033A (en) | 2019-12-06 | 2020-12-04 | Information processing system, information processing apparatus, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019230748A JP2021099629A (en) | 2019-12-20 | 2019-12-20 | Information processing system, information processing device, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021099629A true JP2021099629A (en) | 2021-07-01 |
Family
ID=76542000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019230748A Pending JP2021099629A (en) | 2019-12-06 | 2019-12-20 | Information processing system, information processing device, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021099629A (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11306280A (en) * | 1998-04-17 | 1999-11-05 | Mitsubishi Electric Corp | Image recognizing device |
JP2008210388A (en) * | 2007-02-26 | 2008-09-11 | Fujitsu Ltd | Method, device, and program for identifying code |
JP2014146890A (en) * | 2013-01-28 | 2014-08-14 | Glory Ltd | Imaging system and imaging method |
JP2015022624A (en) * | 2013-07-22 | 2015-02-02 | キヤノン株式会社 | Information processing apparatus, control method thereof, computer program, and storage medium |
JP2016018459A (en) * | 2014-07-09 | 2016-02-01 | キヤノン株式会社 | Image processing system, control method therefore, program, and storage medium |
WO2016143067A1 (en) * | 2015-03-10 | 2016-09-15 | 三菱電機株式会社 | Picture analysis device |
JP2017199289A (en) * | 2016-04-28 | 2017-11-02 | キヤノン株式会社 | Information processor, control method thereof, program, and storage medium |
WO2018179151A1 (en) * | 2017-03-29 | 2018-10-04 | 日本電気株式会社 | Image analysis device, image analysis method and image analysis program |
JP2018181081A (en) * | 2017-04-18 | 2018-11-15 | 日本電信電話株式会社 | Image recognition engine cooperation device and program |
-
2019
- 2019-12-20 JP JP2019230748A patent/JP2021099629A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11306280A (en) * | 1998-04-17 | 1999-11-05 | Mitsubishi Electric Corp | Image recognizing device |
JP2008210388A (en) * | 2007-02-26 | 2008-09-11 | Fujitsu Ltd | Method, device, and program for identifying code |
JP2014146890A (en) * | 2013-01-28 | 2014-08-14 | Glory Ltd | Imaging system and imaging method |
JP2015022624A (en) * | 2013-07-22 | 2015-02-02 | キヤノン株式会社 | Information processing apparatus, control method thereof, computer program, and storage medium |
JP2016018459A (en) * | 2014-07-09 | 2016-02-01 | キヤノン株式会社 | Image processing system, control method therefore, program, and storage medium |
WO2016143067A1 (en) * | 2015-03-10 | 2016-09-15 | 三菱電機株式会社 | Picture analysis device |
JP2017199289A (en) * | 2016-04-28 | 2017-11-02 | キヤノン株式会社 | Information processor, control method thereof, program, and storage medium |
WO2018179151A1 (en) * | 2017-03-29 | 2018-10-04 | 日本電気株式会社 | Image analysis device, image analysis method and image analysis program |
JP2018181081A (en) * | 2017-04-18 | 2018-11-15 | 日本電信電話株式会社 | Image recognition engine cooperation device and program |
Non-Patent Citations (1)
Title |
---|
阪口 裕章、外2名: ""鉄道運転士訓練シミュレータにおける指差喚呼自動評価システムの開発"", 電子情報通信学会技術研究報告, vol. 113, no. 196, JPN6023042604, 26 August 2013 (2013-08-26), JP, pages 187 - 193, ISSN: 0005174401 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109559454B (en) | Neural network-based commodity identification cash registering method and self-service cash registering desk | |
JP6549558B2 (en) | Sales registration device, program and sales registration method | |
JP2015141572A (en) | Merchandise information providing method, merchandise information providing device, and merchandise information providing program | |
EP3185146A1 (en) | Information processing apparatus | |
JP2010044479A (en) | Pos terminal equipment | |
JP2018124988A (en) | Remote weighing device | |
JP2019168762A (en) | Settlement system, settlement method, and program | |
JP6261060B2 (en) | Information processing device | |
US20190108503A1 (en) | Reading apparatus, reading method, and computer readable medium | |
JP6885814B2 (en) | Product reader and product reader program | |
KR20210039783A (en) | Method and user terminal for providing custom clothing purchase service | |
US20140249950A1 (en) | Store system | |
TWI734054B (en) | Information processing apparatus, display position adjusting method, and storage medium | |
CN107533783A (en) | Product calling mechanism, program and control method | |
JPWO2019106900A1 (en) | Processing system, processing method and program | |
JP6873711B2 (en) | Product recognition device | |
JP2012053709A (en) | Reading device and program | |
JP2021099629A (en) | Information processing system, information processing device, and information processing method | |
JP6398331B2 (en) | Information processing apparatus, control method, and program | |
JP7006767B2 (en) | Image identification cash register, image identification cash register system, accounting method, and program | |
JP7381330B2 (en) | Information processing system, information processing device, and information processing method | |
JP2021012711A5 (en) | ||
JP7322945B2 (en) | Processing device, processing method and program | |
JP2016024601A (en) | Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program | |
WO2024048177A1 (en) | Information processing device and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240104 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240305 |