JP2024082167A - 情報処理プログラム、情報処理方法および情報処理装置 - Google Patents
情報処理プログラム、情報処理方法および情報処理装置 Download PDFInfo
- Publication number
- JP2024082167A JP2024082167A JP2022195932A JP2022195932A JP2024082167A JP 2024082167 A JP2024082167 A JP 2024082167A JP 2022195932 A JP2022195932 A JP 2022195932A JP 2022195932 A JP2022195932 A JP 2022195932A JP 2024082167 A JP2024082167 A JP 2024082167A
- Authority
- JP
- Japan
- Prior art keywords
- person
- hand
- product
- information processing
- alert
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 106
- 238000000034 method Methods 0.000 title claims description 39
- 238000012545 processing Methods 0.000 title description 25
- 230000009471 action Effects 0.000 claims abstract description 35
- 230000008859 change Effects 0.000 claims abstract description 25
- 230000005856 abnormality Effects 0.000 claims abstract description 20
- 230000006399 behavior Effects 0.000 claims description 61
- 238000010801 machine learning Methods 0.000 claims description 59
- 230000008569 process Effects 0.000 claims description 36
- 238000003672 processing method Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 32
- 238000012549 training Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 206010000117 Abnormal behaviour Diseases 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000003993 interaction Effects 0.000 description 9
- 230000005057 finger movement Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 241000234295 Musa Species 0.000 description 3
- 235000018290 Musa x paradisiaca Nutrition 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 235000013405 beer Nutrition 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 210000000323 shoulder joint Anatomy 0.000 description 2
- 244000241257 Cucumis melo Species 0.000 description 1
- 235000015510 Cucumis melo subsp melo Nutrition 0.000 description 1
- FJJCIZWZNKZHII-UHFFFAOYSA-N [4,6-bis(cyanoamino)-1,3,5-triazin-2-yl]cyanamide Chemical compound N#CNC1=NC(NC#N)=NC(NC#N)=N1 FJJCIZWZNKZHII-UHFFFAOYSA-N 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/20—Point-of-sale [POS] network systems
- G06Q20/206—Point-of-sale [POS] network systems comprising security or operator identification provisions, e.g. password entry
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/18—Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/20—Point-of-sale [POS] network systems
- G06Q20/208—Input by product or record sensing, e.g. weighing or scanner processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4016—Transaction verification involving fraud or risk level assessment in transaction processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/0036—Checkout procedures
- G07G1/0045—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
- G07G1/0054—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/0036—Checkout procedures
- G07G1/0045—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
- G07G1/0054—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
- G07G1/0063—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles with means for detecting the geometric dimensions of the article of which the code is read, such as its size or height, for the verification of the registration
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/0036—Checkout procedures
- G07G1/0045—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
- G07G1/0081—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader the reader being a portable scanner or data reader
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/01—Details for indicating
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G3/00—Alarm indicators, e.g. bells
- G07G3/003—Anti-theft control
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B3/00—Audible signalling systems; Audible personal calling systems
- G08B3/10—Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B5/00—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
- G08B5/22—Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- General Business, Economics & Management (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Social Psychology (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Security & Cryptography (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Emergency Management (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Cash Registers Or Receiving Machines (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】会計機における、ユーザの誤りまたは不正を検出することを課題とする。【解決手段】情報処理装置は、商品のコードを会計機にスキャンする人物の映像データを取得し、取得した映像データを分析することで、取得した映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定する。情報処理装置は、商品を把持している人物の手の動き、または、把持された商品の動きのいずれかを追跡し、追跡された手の動きの変化または商品の動きの変化に基づいて、会計機に商品を登録する行動の異常に関連するアラートを生成する。【選択図】図2
Description
本発明は、情報処理プログラム、情報処理方法および情報処理装置に関する。
スーパーマーケットやコンビニエンスストア等の店舗において、セルフレジが普及している。セルフレジは、商品を購入するユーザ自身が、商品のバーコードの読み取りから精算までを行うPOS(Point Of Sale)レジシステムである。たとえば、セルフレジを導入することで、人口減少による人手不足の改善、人件費を抑制することができる。
しかしながら、上記技術では、不正を検出することが難しい。例えば、セルフレジなどの会計機では、ユーザによる不可抗力の誤りや故意の不正などがあり、未払い金などが発生する。
不可抗力の誤りとしては、商品のスキャンを忘れてカゴからレジ袋に商品を移動させてしまうスキャン漏れ、などがある。また、故意の不正としては、ユーザがバーコードだけを指で隠しながら商品をスキャンするフリをするバーコード隠しや、例えば6缶で1セットのビール箱にはビール箱と各缶にバーコードがついており誤って缶のバーコードを読み取らせる読み取り誤りなどがある。
なお、各セルフレジに重量センサなどを導入することで、自動で商品数を計数して不正を検出することも考えられるが、コストが過大であり、特に大型店舗や全国展開する店舗にとっては現実的ではない。
また、セルフレジでは、商品コードのスキャンや精算がユーザ自身に委ねられるので、不正行為を検出することが困難である側面がある。たとえば、上記の不正行為を検出する側面から画像認識AI(Artificial Intelligence)を適用しようにも、画像認識AIの訓練には大量の訓練データが必要となる。ところが、スーパーマーケットやコンビニエンスストア等の店舗では、多数の種類の商品が存在する上、個々の商品のライフサイクルも短いので、商品の入れ替えが頻繁に起こる。このような商品のライフサイクルに合わせて画像認識AIをチューニングしたり、あるいは新たな画像認識AIを訓練したりすることは困難である。
一つの側面では、会計機における、ユーザの誤りまたは不正を検出することができる情報処理プログラム、情報処理方法および情報処理装置を提供することを目的とする。
第1の案では、情報処理プログラムは、コンピュータに、商品のコードを会計機にスキャンする人物の映像データを取得し、取得した前記映像データを分析することで、取得した前記映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定し、前記商品を把持している人物の手の動き、または、把持された前記商品の動きのいずれかを追跡し、追跡された前記手の動きの変化または前記商品の動きの変化に基づいて、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、処理を実行させることを特徴とする。
一実施形態によれば、会計機における、ユーザの誤りまたは不正を検出することができる。
以下に、本願の開示する情報処理プログラム、情報処理方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
<セルフレジシステムの説明>
図1は、実施例1にかかるセルフレジシステム5の全体構成例を示す図である。図1に示すように、セルフレジシステム5は、カメラ30と、セルフレジ50と、管理者端末60と、情報処理装置100とを有する。
図1は、実施例1にかかるセルフレジシステム5の全体構成例を示す図である。図1に示すように、セルフレジシステム5は、カメラ30と、セルフレジ50と、管理者端末60と、情報処理装置100とを有する。
情報処理装置100は、カメラ30およびセルフレジ50に接続されるコンピュータの一例である。情報処理装置100は、有線や無線を問わず様々な通信網を採用できるネットワーク3を介して、管理者端末60に接続される。カメラ30およびセルフレジ50は、ネットワーク3を介して、情報処理装置100に接続されてもよい。
カメラ30は、セルフレジ50を含む領域の映像を撮影するカメラの一例である。カメラ30は、映像のデータを、情報処理装置100に送信する。以下の説明では、映像のデータを「映像データ」または単に「映像」と表記する場合がある。
映像データには、時系列の複数の画像フレームが含まれる。各画像フレームには、時系列の昇順に、フレーム番号が付与される。1つの画像フレームは、カメラ30があるタイミングで撮影した静止画像の画像データである。以下の説明では、画像データを単に「画像」と表記する場合がある。
セルフレジ50は、商品を購入するユーザ2が、商品のバーコードの読み取りから精算までを行うPOSレジシステムや会計機の一例である。例えば、ユーザ2が、購入対象の商品を、セルフレジ50のスキャン領域に移動させると、セルフレジ50は、商品のバーコードをスキャンして、購入対象の商品として登録する。
なお、セルフレジ50は、上述したように、お客様自身が購入商品の登録(レジ作業)および支払いを行うセルフレジの一例であり、例えばSelf checkout、automated checkout、self-checkout machineやself-check-out registerなどと呼ばれる。バーコードとは、縞模様状の線の太さによって数値や文字を表す識別子の一種であり、セルフレジ50がスキャンする(読み込む)ことで、商品の金額や種別(例えば食品)などを特定することができる。バーコードは、コードの一例であり、バーコード以外にも、同じ機能を有するQR(Quick Response)コードなどの2次元コードを用いることもできる。
ユーザ2は、上記商品登録の動作を繰り返し実行し、商品のスキャンが完了すると、セルフレジ50のタッチパネル等を操作し、精算要求を行う。セルフレジ50は、精算要求を受け付けると、購入対象の商品の数、購入金額等を提示し、精算処理を実行する。セルフレジ50は、ユーザ2がスキャンを開始してから、精算要求を行うまでの間にスキャンした商品の情報を、記憶部に格納しておき、セルフレジデータ(商品情報)として、情報処理装置100に送信する。
管理者端末60は、店舗の管理者が利用する端末装置の一例である。管理者端末60は、情報処理装置100から、商品の購入に関して不正が行われたことを示すアラートの通知等を受け付ける。
このような構成において、情報処理装置100は、商品のバーコードをセルフレジ50にスキャンする人物の映像データを取得し、映像データを機械学習モデルに入力することで、映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定する。なお、機械学習モデルではなく、画像分析等を用いて、映像データから各領域を特定することもできる。そして、情報処理装置100は、人物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動き、または、複数の商品の動きのいずれかを追跡する。その後、情報処理装置100は、追跡された手の動きの変化または複数の商品の動きの変化に基づいて、セルフレジ50に商品を登録する行動の異常に関連するアラートを生成する。
図2は、実施例1にかかる異常行動の検出例を説明する図である。図2に示すように、情報処理装置100は、セルフレジ50周辺を撮像するカメラ30が撮像した映像データに人物が検出されると、レジ開始と検出する。その後、情報処理装置100は、随時撮像される映像データから人物の手の領域と商品の領域とを特定する。そして、情報処理装置100は、映像から複数の商品が検出された場合に、追跡を開始して商品が1つになるまで追跡する。ここで、情報処理装置100は、追跡中の人物の手の動きや商品の動きにより、読み取り誤りやバーコード隠しなどの異常な行動を検出する。
つまり、ユーザは、店内で選択した購入対象の商品を入れてセルフレジまで運ぶ買い物カゴや商品カートなどの運搬道具から、商品を1つずつ取り出して、セルフレジ50にスキャンするのが通常である。このため、情報処理装置100は、スキャン領域で複数の商品を持つ動作を検出した場合に、異常な行動につながる可能性があるとして、それ以降の動作に注目する。もっとも、商品を複数持つユーザもいることから、複数の商品を持つ動作が異常な行動に直接的に繋がるわけではない。そこで、情報処理装置100は、追跡中の人の手や商品の動きの変化が予め指定した不正なパターンに一致するか否かにより、異常な行動の即時検出を実現する。
<機能構成>
図3は、実施例1にかかる情報処理装置100の機能構成を示す機能ブロック図である。図3に示すように、情報処理装置100は、通信部101、記憶部102、制御部110を有する。
図3は、実施例1にかかる情報処理装置100の機能構成を示す機能ブロック図である。図3に示すように、情報処理装置100は、通信部101、記憶部102、制御部110を有する。
通信部101は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどにより実現される。例えば、通信部101は、カメラ30から映像データを受信し、制御部110による処理結果を管理者端末60に送信する。
記憶部102は、各種データや制御部110が実行するプログラムなどを記憶する処理部であり、メモリやハードディスクなどにより実現される。記憶部102は、訓練データDB103、機械学習モデル104、映像データDB105、不正ルールDB106を記憶する。
訓練データDB103は、機械学習モデル104の訓練に使用されるデータを記憶するデータベースである。例えば、図4を用いて、機械学習モデル104にHOID(Human Object Interaction Detection)用のモデルが採用されている例で説明する。図4は、訓練データを説明する図である。図4に示すように、各訓練データは、入力データとなる画像データと、当該画像データに対して設定された正解情報(ラベル)とを有する。
正解情報には、検出対象であるヒトとモノのクラスと、ヒトとモノの相互作用を示すクラスと、各クラスの領域を示すBbox(Bounding Box:物体の領域情報)とが設定される。例えば、正解情報として、商品等の物体であってレジ袋以外の物体を示すSomethingクラスの領域情報、商品を購入するユーザを示すヒトのクラスの領域情報、Somethingクラスとヒトのクラスとの相互作用を示す関係性(把持クラス)とが設定される。すなわち、正解情報として、人が把持している物体に関する情報が設定される。なお、ヒトのクラスは、第1クラスの一例であり、Somethingクラスは、第2クラスの一例であり、ヒトのクラスの領域情報は、第1の領域の一例であり、Somethingのクラスの領域情報は、第2の領域の一例であり、ヒトとモノの相互作用は、相互作用の一例である。
また、正解情報として、レジ袋を示すレジ袋のクラスの領域情報と、レジ袋を使用するユーザを示すヒトのクラスの領域情報と、レジ袋のクラスとヒトのクラスとの相互作用を示す関係性(把持クラス)とが設定される。すなわち、正解情報として、人が把持しているレジ袋に関する情報が設定される。
一般的に、通常の物体識別(物体認識)でSomethingクラスを作ると、すべての背景、服装品、小物などタスクと関係ないものをすべて検出することになる。かつ、それらはすべてSomethingなので、画像データ内に大量のBboxが識別されるだけで何も分からない。HOIDの場合は、ヒトが持っているモノという特殊な関係性(座っている、操作している、など他の関係の場合もある)であることが分かるので、意味のある情報としてタスク(例えばセルフレジの不正検出タスク)に利用することができる。物体をSomethingで検出した上で、レジ袋などをBag(レジ袋)という固有のクラスとして識別する。このレジ袋は、セルフレジの不正検出タスクでは価値のある情報だが、他のタスクでは重要な情報ではないので、商品はカゴ(買い物かご)から取り出され袋に収納されるというセルフレジの不正検出タスクの固有の知見に基づいて利用することに価値があり、有用な効果が得られる。
図3に戻り、機械学習モデル104は、訓練データに写っている人物と物(例えば、人物や収納(レジ袋など))を識別するように訓練された機械学習モデルの一例である。具体的には、機械学習モデル104は、入力された画像データから、ヒト、商品、ヒトと商品の関係性を識別して識別結果を出力する機械学習モデルである。例えば、機械学習モデル104は、HOID用のモデルを採用することができ、各種ニューラルネットワークなどを用いた機械学習モデルを採用することもできる。HOIDの場合は、「ヒトのクラスと領域情報、商品(モノ)のクラスと領域情報、ヒトと商品の相互作用」が出力される。
なお、機械学習モデル104は、画像データの入力に応じて、手の領域、商品の領域、手の骨格情報を出力するモデルを用いることもできる。
映像データDB105は、セルフレジ50に設置されるカメラ30により撮像された映像データを記憶するデータベースである。例えば、映像データDB105は、セルフレジ50ごと、または、カメラ30ごとに、映像データを記憶する。
不正ルールDB106は、不正な行動を判定される手の動作または商品の動作を規定するデータベースである。具体的には、不正ルールDB106は、過去の履歴等により特定される不正な行動パターンを記憶する。
図5は、不正ルールDB106に記憶される情報の例を示す図である。図5に示すように、不正ルールDB106は、「不正種別、対象、不正パターン」を対応付けて記憶する。ここで記憶される「不正種別」は、不正(異常な行動)の内容を示す情報である。「対象」は、不正の判定対象が手の動作か商品の動作かを特定する情報である。「不正パターン」は、不正と判定される対象の手の動きの変化または複数の商品の動きの変化である。
図5の例では、不正1は、商品の動きを対象とした不正パターンであり、商品2個を把持した状態から、商品を重ねる動作を行った後、把持する2個の商品を袋(持ち帰り用の袋)に入れる動作が検出された場合に、不正と判定される異常行動である。つまり、不正1は、ラベルスイッチなどと呼ばれる読み取り誤りの不正に該当する。
不正2は、商品の動きを対象とした不正パターンであり、小さい商品を複数スキャンした後に、買い物カゴから別の商品を取り出して袋に入れる動作が検出された場合に、不正と判定される異常行動である。不正3は、手の動きを対象とした不正パターンであり、小さい商品を両手に持つ動作が検出された場合に、不正と判定される異常行動である。つまり、不正3は、ラベルスイッチなどと呼ばれる読み取り誤りの不正に該当する。
不正4は、手の動きを対象とした不正パターンであり、右手と左手にそれぞれ商品を把持した後、一方のみをスキャンして、両方を袋に入れる動作が検出された場合に、不正と判定される異常行動である。不正5は、手の動きおよび商品の動きを対象とした不正パターンであり、複数の商品を把持し、レジ画面で1つの商品を登録した後、複数の商品を袋に入れる動作が検出された場合に、不正と判定される異常行動である。つまり、不正5は、バナナトリックなどと呼ばれる不正やバーコード隠しなどの不正に該当する。
図3に戻り、制御部110は、情報処理装置100全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部110は、機械学習部111、映像取得部112、領域特定部113、追跡部114、不正検知部115、警告制御部116を有する。なお、機械学習部111、映像取得部112、領域特定部113、追跡部114、不正検知部115、警告制御部116は、プロセッサが有する電子回路やプロセッサが実行するプロセスなどにより実現される。
(機械学習)
機械学習部111は、訓練データDB103に記憶される各訓練データを用いて、機械学習モデル104の機械学習を実行する処理部である。図6は、機械学習モデル104の機械学習を説明する図である。図6では、機械学習モデル104にHOIDを用いた例を図示している。図6に示すように、機械学習部111は、訓練データの入力データをHOIDに入力し、HOIDの出力結果を取得する。この出力結果には、HOIDが検出したヒトのクラスと、モノのクラスと、ヒトとモノの相互作用などが含まれる。そして、機械学習部111は、訓練データの正解情報と、HOIDの出力結果との誤差情報を算出し、誤差が小さくなるように、誤差逆伝播によりHOIDのパラメータ更新を行う機械学習を実行する。
機械学習部111は、訓練データDB103に記憶される各訓練データを用いて、機械学習モデル104の機械学習を実行する処理部である。図6は、機械学習モデル104の機械学習を説明する図である。図6では、機械学習モデル104にHOIDを用いた例を図示している。図6に示すように、機械学習部111は、訓練データの入力データをHOIDに入力し、HOIDの出力結果を取得する。この出力結果には、HOIDが検出したヒトのクラスと、モノのクラスと、ヒトとモノの相互作用などが含まれる。そして、機械学習部111は、訓練データの正解情報と、HOIDの出力結果との誤差情報を算出し、誤差が小さくなるように、誤差逆伝播によりHOIDのパラメータ更新を行う機械学習を実行する。
また、機械学習部111は、画像データの入力に応じて、手の領域、商品の領域、手の骨格情報を出力するモデルを生成することもできる。図7は、機械学習モデル104の機械学習を説明する図である。図7に示すように、機械学習部111は、「画像データ」を説明変数、「手の領域、商品の領域、手の骨格情報」を目的変数(正解情報)とする訓練データを機械学習モデル104に入力し、機械学習モデル104の出力結果「手の領域、商品の領域、手の骨格情報」と目的変数「手の領域、商品の領域、手の骨格情報」との誤差情報を算出する。そして、機械学習部111は、誤差が小さくなるように、誤差逆伝播により機械学習モデル104のパラメータ更新を行う機械学習を実行する。
ここで、骨格情報とは、例えば図8に示す情報である。図8は、骨格情報の例を示す図である。骨格情報は、公知の骨格モデルで特定される各関節をナンバリングした、18個(0番から17番)の定義情報を用いることができる。例えば、右肩関節(SHOULDER_RIGHT)には7番が付与され、左肘関節(ELBOW_LEFT)には5番が付与され、左膝関節(KNEE_LEFT)には11番が付与され、右股関節(HIP_RIGHT)には14番が付与される。したがって、図8に示した18個の骨格の座標情報が、画像データから取得可能であり、例えば、7番の右肩関節の位置として「X座標=X7、Y座標=Y7」が取得される。なお、X軸が画像の水平方向、Y軸が画像の垂直方向と定義することができる。
なお、機械学習モデル104としては、図6に示した機械学習モデルまたは図7に示した機械学習モデルを用いることもでき、両方を用いることもできる。
(映像取得)
映像取得部112は、カメラ30から映像データを取得する処理部である。例えば、映像取得部112は、セルフレジ50に設置されるカメラ30から映像データを随時取得し、映像データDB105に格納する。
映像取得部112は、カメラ30から映像データを取得する処理部である。例えば、映像取得部112は、セルフレジ50に設置されるカメラ30から映像データを随時取得し、映像データDB105に格納する。
(領域特定)
領域特定部113は、映像データを機械学習モデル104に入力することで、映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定する処理部である。例えば、領域特定部113は、HOIDを用いることで、人物の手を含む第一の領域と、商品を含む第二の領域と、第一領域と第二の領域の関係性を特定し、人物の商品に対する行動を特定する。
領域特定部113は、映像データを機械学習モデル104に入力することで、映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定する処理部である。例えば、領域特定部113は、HOIDを用いることで、人物の手を含む第一の領域と、商品を含む第二の領域と、第一領域と第二の領域の関係性を特定し、人物の商品に対する行動を特定する。
図9は、HOIDによる行動識別を説明する図である。図9に示すように、領域特定部113は、映像データに含まれる各画像データをHOIDに入力し、HOIDの出力結果を取得する。上述したように、HOIDの出力結果には、ヒトのBbox、モノのBbox、ヒトとモノの相互作用の確率値およびクラス名などが含まれる。そして領域特定部113は、HOIDの出力結果に基づき、次の(a)、(b)、(c)のいずれかの行動を識別する。
例えば、図9の(a)に示すように、領域特定部113は、HOIDの出力結果から、ヒトと商品とヒトが商品を把持していることを識別(特定)する。なお、買い物かごの位置は、管理者等が指定してもよく、別の機械学習モデルなどを用いて自動で指定することもできる。また、図9の(b)に示すように、領域特定部113は、HOIDの出力結果から、ヒトと商品とヒトが商品を把持していることを識別することで、セルフレジ50におけるバーコードや二次元コードなどの各コードのスキャン位置を通過させる商品も特定する。また、図9の(c)に示すように、領域特定部113は、HOIDの出力結果から、ヒトと商品とヒトが商品を把持していることと、ヒトとレジ袋とヒトがレジ袋を把持していることを識別することで、ユーザがレジ袋に入れた商品も特定する。
また、領域特定部113は、映像データを機械学習モデル104に入力することで、映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域と人物の骨格情報とを特定することもできる。また、領域特定部113は、各行動と行動するときの骨格情報の遷移とを対応付けておくことで、映像データから特定される各領域と骨格情報とから、映像データ内の人物が商品に行う行動や人物がセルフレジ50に行う行動を特定することもできる。
(追跡)
追跡部114は、人物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動き、または、複数の商品の動きのいずれかを追跡する処理部である。具体的には、追跡部114は、映像データ内のあるフレームに対する領域特定部113による特定結果において、複数の商品を把持している人物を検出した場合に、追跡を実行する。すなわち、追跡部114は、映像データ内で複数の商品が識別されたあるフレーム以降の連続するフレームで、同じ商品に関する動作を追跡する。そして、追跡部114は、追跡結果を記憶部102に格納し、不正検知部115に出力する。
追跡部114は、人物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動き、または、複数の商品の動きのいずれかを追跡する処理部である。具体的には、追跡部114は、映像データ内のあるフレームに対する領域特定部113による特定結果において、複数の商品を把持している人物を検出した場合に、追跡を実行する。すなわち、追跡部114は、映像データ内で複数の商品が識別されたあるフレーム以降の連続するフレームで、同じ商品に関する動作を追跡する。そして、追跡部114は、追跡結果を記憶部102に格納し、不正検知部115に出力する。
また、追跡部114は、HOIDの出力結果から、商品のバウンディングボックスの個数が複数である場合に、複数のバウンディングボックスの位置の重なりがあるか否かを判定し、重なりがある場合に、追跡を実行することもできる。
(不正検知)
不正検知部115は、追跡部114により追跡された手の動きの変化または複数の商品の動きの変化に基づいて、セルフレジ50に商品を登録する行動の異常を検知する処理部である。具体的には、不正検知部115は、追跡された手の動きのパターンや商品の動きのパターンが、不正ルールDB106に記憶されるパターンに該当する場合に、不正行動を検知する。
不正検知部115は、追跡部114により追跡された手の動きの変化または複数の商品の動きの変化に基づいて、セルフレジ50に商品を登録する行動の異常を検知する処理部である。具体的には、不正検知部115は、追跡された手の動きのパターンや商品の動きのパターンが、不正ルールDB106に記憶されるパターンに該当する場合に、不正行動を検知する。
例えば、不正検知部115は、「商品2個を把持した状態から、商品を重ねる動作を行った後、把持する2個の商品を袋(持ち帰り用の袋)に入れる動作」が検出された場合に、不正1の不正行動を検知する。
図10は、2つの商品を把持した場合の不正検知の例を示す図である。図10に示すように、不正検知部115は、領域特定部113の領域特定結果により、商品を重ねる動作を検出した場合に、不正を検知する。例えば、不正検知部115は、高額の商品Aに少額の商品Bを重ねる動作を検知した場合に、高額商品のバーコードの代わりに低額商品のバーコードをスキャンさせる不正(例えばラベルスイッチ)を検知する。
また、不正検知部115は、不正ルールDB106に記憶されるパターン以外であっても、予め不正行動として定義した動作「手の動きが複数の商品を重ねる動作」を検知した場合に、不正行動を検知することもできる。同様に、不正検知部115は、予め不正行動として定義した動作「商品を重ねる動作」や「バーコードを重ねる動作」に検知した場合に、不正行動を検知することもできる。
図11は、予め定義した不正行動に基づく不正検知の例を示す図である。図11に示すように、不正検知部115は、領域特定部113の領域特定結果により、商品を把持する動作を検出した後、スキャン動作を検知することなく、セルフレジ50から商品が登録されたことを検知した場合に、不正を検知する。例えば、不正検知部115は、高額であるとともに商品自体にバーコードが付与されていない商品(例えばメロン)が把持された後、セルフレジ50の登録画面で同種の商品であるが低額な商品(例えばバナナ)の登録が行われた場合に、不正(例えばバナナトリック)を検知する。
例えば、不正検知部115は、手の動きのパターンとして「左手にワイン、右手にワインを把持した後、右手のワインだけをスキャンした動作」を検知した場合、図5の不正ルールの不正4に該当すると判定し、不正4の不正行動を検知する。
例えば、不正検知部115は、HOIDの出力結果から、商品をセルフレジ50にスキャンをするために設定されたエリアとの位置関係を特定する。そして、不正検知部115は、HOIDの出力結果から、2つの商品のそれぞれの商品のバーコードがセルフレジ50にスキャンされていないと判定されるときに、不正行動を検知する。すなわち、不正検知部115は、カメラごとに設定されるスキャン領域を、2つの商品のいずれもが通過しない場合に、不正行動を検知する。
図12は、位置関係による不正検知の例を説明する図である。図12に示すように、不正検知部115は、領域特定部113の領域特定結果により、商品を両手に持つ動作、および、商品について想定されるバーコード位置とは異なる位置でスキャンが行われる動作を検出した場合に、不正を検知する。例えば、不正検知部115は、それぞれの缶にバーコードが付加された6缶パッケージ商品のバーコードではなく、6缶パッケージ内の1つの缶のバーコードをスキャンさせる不正を検知する。
また、不正検知部115は、機械学習モデル104により特定される骨格情報を用いることでより複雑な動作を検知することができるので、上記不正行動の判定の精度を向上させることもできる。例えば、不正検知部115は、骨格情報からユーザの姿勢、指の動き、関節の動き等を特定し、これらのパターンと予め用意したパターンとの比較により、不正行動を検知する。
(アラート報知)
警告制御部116は、不正検知部115により不正な行動(不正な動作)が検知された場合に、アラートを生成して、アラートの報知制御を実行する処理部である。例えば、警告制御部116は、人物がセルフレジ50に登録していない商品があること、または、人物がセルフレジ50に登録した商品が異常であることを示すアラートを生成して、セルフレジ50や管理者端末60に出力する。
警告制御部116は、不正検知部115により不正な行動(不正な動作)が検知された場合に、アラートを生成して、アラートの報知制御を実行する処理部である。例えば、警告制御部116は、人物がセルフレジ50に登録していない商品があること、または、人物がセルフレジ50に登録した商品が異常であることを示すアラートを生成して、セルフレジ50や管理者端末60に出力する。
また、警告制御部116は、セルフレジ50に商品を登録する行動の異常に関するアラートを生成した場合に、セルフレジ50に位置する人物に商品の登録漏れを促す音声または画面を、セルフレジ50から出力する。
図13は、アラートの報知例を説明する図である。図13に示すように、警告制御部116は、セルフレジ50のタッチパネルなどの表示画面に、「スキャン忘れの商品がありませんか?再度、商品のスキャンをお願いします。」などのメッセージを表示させる。
また、警告制御部116は、セルフレジ50に設置されている警告灯を点灯させたり、管理者端末60に該当セルフレジ50の識別子と不正発生の可能性があるメッセージとを表示させたり、店内にいる店員の端末に該当セルフレジ50の識別子と不正発生と確認の必要性を示すメッセージとを送信させたりする。
また、警告制御部116は、セルフレジ50に商品を登録する行動の異常に関するアラートを生成した場合に、セルフレジ50が有するカメラ30にて人物を撮影させ、撮影された人物の画像データと、アラートを対応づけて記憶部に記憶する。このようにすることで、不正な行動を行う不正な人物の情報を収集することができるので、店舗の入り口で不正な行動を行ったことがある来店者を検知するなど、不正行動を未然に防ぐための各種施策に役立てることができる。また、警告制御部116は、不正な人物の画像データを用いた教師あり学習により、機械学習モデルを生成することで、セルフレジ50を使用する人物の画像データから不正な人物の検出や店舗の入り口での不正な人物の検出などを行うことができる。また、警告制御部116は、不正な行動を行った人物のクレジットカードの情報をセルフレジ50から取得して保持することもできる。
<具体例>
次に、上述した情報処理装置100が実行する処理の具体例を説明する。図14は、追跡、不正検出、アラーム報知までの一連の流れを説明する図である。図14に示すように、映像データには、識別子が付与された各画像データが含まれている。図14では、HOIDを用いて領域や関係性を特定する例を示している。
次に、上述した情報処理装置100が実行する処理の具体例を説明する。図14は、追跡、不正検出、アラーム報知までの一連の流れを説明する図である。図14に示すように、映像データには、識別子が付与された各画像データが含まれている。図14では、HOIDを用いて領域や関係性を特定する例を示している。
まず、画像データ1に対して、情報処理装置100は、領域特定部113により「買い物かご、人、人と買い物かごの相互関係(把持)」を特定すると、複数の商品が検出されていないので、追跡することなく、不正行動とは判定しない。
続いて、画像データ2に対して、情報処理装置100は、領域特定部113により「商品1つ、人、人と商品の相互関係(把持)」を特定すると、複数の商品が検出されていないので、追跡することなく、不正行動とは判定しない。
続いて、画像データ3に対して、情報処理装置100は、領域特定部113により「スキャン位置に商品、人、人と商品の相互関係(把持、スキャン)」を特定すると、複数の商品が検出されていないので、追跡することなく、不正行動とは判定しない。
続いて、画像データ4に対して、情報処理装置100は、領域特定部113により「レジ袋に商品、人、人と商品の相互関係(把持)」を特定すると、複数の商品が検出されていないので、追跡することなく、不正行動とは判定しない。
続いて、画像データ5に対して、情報処理装置100は、領域特定部113により「商品2つ、人と商品の相互関係(把持)」を特定すると、複数の商品が検出されたことから、追跡部114による追跡を開始する。さらに、情報処理装置10は、不正検知部115により、追跡開始後の手の動きの変化または複数の商品の動きの変化に基づいて不正検知を実行する。
続いて、画像データ6に対して追跡を実行する。すなわち、情報処理装置100は、領域特定部113により2つの商品が検出されている間、不正検知部115により、追跡開始後の手の動きの変化または複数の商品の動きの変化に基づいて不正検知を実行する。
同様に、画像データ7に対して追跡を実行する。ここで、情報処理装置100は、不正検知部115により、追跡開始後の手の動きの変化または複数の商品の動きの変化に基づいて、不正ルールに該当する動作を検知した場合に、不正行動を検知する。すると、情報処理装置10は、アラートを生成して報知する。このとき、情報処理装置100は、追跡を終了してもよく、アラートに対する店員等の対応が終わるまで追跡を終了してもよく、追跡を継続してもよい。
<処理の流れ>
図15は、処理の流れを示すフローチャートである。図15に示すように、情報処理装置100は、映像データを随時取得する(S101)。
図15は、処理の流れを示すフローチャートである。図15に示すように、情報処理装置100は、映像データを随時取得する(S101)。
続いて、情報処理装置100は、不正検知の処理開始が指示されると(S102:Yes)、映像データ内のフレームを取得する(S103)。ここで、情報処理装置100は、映像データが存在しない場合は、処理を終了する。一方、情報処理装置100は、映像データが存在する場合は、機械学習モデル104を用いて、手の領域と商品の領域を特定する(S104)。
そして、情報処理装置100は、複数の商品が検出されない場合(S105:No)、S103以降を繰り返す。一方、情報処理装置100は、複数の商品が検出された場合(S105:Yes)、追跡中か否かを判定する(S106)。
ここで、情報処理装置100は、追跡中ではない場合(S106:No)、追跡を開始し(S107)、S108を実行する。一方、情報処理装置100は、追跡中である場合(S106:Yes)、S108を実行する。
すなわち、情報処理装置100は、不正ルールに該当する動作が検出されない場合は(S108:No)、S103以降を繰り返し、不正ルールに該当する動作が検出された場合は(S108:Yes)、アラート報知を実行し(S109)、処理を終了する。
<効果>
上述したように、情報処理装置100は、物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動き、または、複数の商品の動きのいずれかを追跡する。そして、情報処理装置100は、追跡された手の動きの変化または複数の商品の動きの変化に基づいて、セルフレジ50に商品を登録する行動の異常に関連するアラートを生成する。したがって、情報処理装置100は、重量センサなどを用いることなく、セルフレジ50における不正を検出することができる。
上述したように、情報処理装置100は、物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動き、または、複数の商品の動きのいずれかを追跡する。そして、情報処理装置100は、追跡された手の動きの変化または複数の商品の動きの変化に基づいて、セルフレジ50に商品を登録する行動の異常に関連するアラートを生成する。したがって、情報処理装置100は、重量センサなどを用いることなく、セルフレジ50における不正を検出することができる。
また、情報処理装置100は、商品の動きが追跡された場合に、商品の領域に含まれる複数の商品の動きの変化が重なるなどの予め指定したパターンに該当する場合に、セルフレジ50に商品を登録する行動の異常に関連するアラートを生成する。したがって、情報処理装置100は、スキャン漏れなど不可抗力の誤りや故意の不正を検知することができる。
また、情報処理装置100は、手の動きが追跡された場合に、手の動きが複数の商品を重ねる動作に該当する場合に、セルフレジ50に商品を登録する行動の異常に関連するアラートを生成する。したがって、情報処理装置100は、高額商品の代わりに低額商品のバーコードをスキャンさせる不正を検知することができる。
また、情報処理装置100は、機械学習モデル104を用いて、手の領域を示すバウンディングボックスと、商品の領域を示す商品のバウンディングボックスと、人物の手の骨格情報とを取得する。この結果、情報処理装置100は、画像解析に比べて短時間で人物の動作や商品の動きを特定することができるので、リアルタイムな不正検知を実現することができる。
また、情報処理装置100は、機械学習モデル104を用いて、人物の手を含む第一の領域と、商品を含む第二の領域と、第一の領域と第二の領域の関係性を特定する。そして、情報処理装置100は、人物が右手で第一の商品を把持する第一の動作および人物が左手で第二の商品を把持する第二の動作に基づいて、第一の商品または第二の商品のいずれかの商品のコードがセルフレジ50にスキャンされていないことを検出する。したがって、情報処理装置100は、1つの商品しかスキャンしないスキャン漏れや故意の不正を検知することができる。
また、情報処理装置100は、人物がセルフレジ50に登録していない商品があること、または、人物がセルフレジ50に登録した商品が異常であることを示すアラートを生成する。したがって、店員等は、情報処理装置100を用いることで、不正な行動を起こした人物が店外に出るまでに事情を聞くなどの対応を行うことができる。
また、情報処理装置100は、セルフレジ50に商品を登録する行動の異常に関するアラートが生成された場合に、セルフレジ50に位置する人物に商品の登録漏れを促す音声または画面を、セルフレジ50から出力する。したがって、情報処理装置100は、不可抗力のミスであっても故意の不正であっても、スキャン中の人物に直接注意を促すことができるので、ミスや故意の不正を削減することができる。
また、情報処理装置100は、セルフレジ50に商品を登録する行動の異常に関するアラートが生成されたときに、セルフレジ50の有するカメラにて、人物を撮影させ、撮影された人物の画像データと、アラートを対応づけて記憶部に記憶する。したがって、情報処理装置100は、不正な行動を行う不正な人物の情報を収集して保持することができるので、来店者を撮像するカメラの撮像データから不正な人物の来店を検出することで、不正行動を未然に防ぐための各種施策に役立てることができる。また、情報処理装置100は、不正な行動を行った人物のクレジットカードの情報をセルフレジ50から取得して保持することもできるので、不正な行動が確定した場合、クレジットカード会社を介して料金を請求することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
(数値等)
上記実施例で用いたセルフレジやカメラの台数、数値例、訓練データ例、訓練データ数、機械学習モデル、各クラス名、クラス数、データ形式等は、あくまで一例であり、任意に変更することができる。また、各フローチャートで説明した処理の流れも矛盾のない範囲内で適宜変更することができる。また、各モデルは、ニューラルネットワークなどの様々なアルゴリズムにより生成されたモデルを採用することができる。
上記実施例で用いたセルフレジやカメラの台数、数値例、訓練データ例、訓練データ数、機械学習モデル、各クラス名、クラス数、データ形式等は、あくまで一例であり、任意に変更することができる。また、各フローチャートで説明した処理の流れも矛盾のない範囲内で適宜変更することができる。また、各モデルは、ニューラルネットワークなどの様々なアルゴリズムにより生成されたモデルを採用することができる。
また、情報処理装置100は、スキャン位置や買い物かごの位置については、位置を検出する別の機械学習モデル、物体検知技術、位置検出技術など公知の技術を用いることもできる。例えば、情報処理装置100は、フレーム(画像データ)間差分、フレームの時系列の変化に基づき、買い物かごの位置を検出することができるので、それを用いて検出してもよく、それを用いて別のモデルを生成してもよい。また、情報処理装置100は、予め買い物かごの大きさを指定しておくことで、画像データからその大きさの物体が検出された場合に、買い物かごの位置として識別することもできる。なお、スキャン位置は、ある程度固定された位置なので、情報処理装置100は、管理者等が指定した位置をスキャン位置として識別することもできる。
(指の動作)
上記情報処理装置100は、骨格情報を取得することができるので、手の動作ではなく指の動作を取得することもできる。例えば、情報処理装置100は、複数の商品を把持している人物の指の動きを追跡し、追跡された人物の指の動きのパターンが、予め設定したルールと一致するときに、予め設定した指の動きパターンをした位置を特定する。そして、情報処理装置100は、特定された指の位置が、商品をセルフレジ50にスキャンをするために設定されたエリアの範囲内であるときは、セルフレジ50に商品を登録する行動の異常に関するアラートが生成する。
上記情報処理装置100は、骨格情報を取得することができるので、手の動作ではなく指の動作を取得することもできる。例えば、情報処理装置100は、複数の商品を把持している人物の指の動きを追跡し、追跡された人物の指の動きのパターンが、予め設定したルールと一致するときに、予め設定した指の動きパターンをした位置を特定する。そして、情報処理装置100は、特定された指の位置が、商品をセルフレジ50にスキャンをするために設定されたエリアの範囲内であるときは、セルフレジ50に商品を登録する行動の異常に関するアラートが生成する。
例えば、情報処理装置100は、スキャン位置の前で、指を使って小さな商品を複数重ねる動作を検知することで、不正な行動を検知することができる。このような動作は、複数の商品のうち1つの商品だけをスキャンさせた後、複数の商品を袋の入れるような不正な行動に繋がるが、情報処理装置100は、不正な行動として検知することができる。
(システム)
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更されてもよい。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更されてもよい。
また、各装置の構成要素の分散や統合の具体的形態は図示のものに限られない。例えば、追跡部114と不正検知部115とが統合されてもよい。つまり、その構成要素の全部または一部は、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合されてもよい。さらに、各装置の各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(ハードウェア)
図16は、ハードウェア構成例を説明する図である。ここでは、一例として、情報処理装置100について説明する。図16に示すように、情報処理装置100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図16に示した各部は、バス等で相互に接続される。
図16は、ハードウェア構成例を説明する図である。ここでは、一例として、情報処理装置100について説明する。図16に示すように、情報処理装置100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図16に示した各部は、バス等で相互に接続される。
通信装置100aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD100bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ100dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD100b等から読み出してメモリ100cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置100が有する各処理部と同様の機能を実行する。具体的には、プロセッサ100dは、機械学習部111、映像取得部112、領域特定部113、追跡部114、不正検知部115、警告制御部116等と同様の機能を有するプログラムをHDD100b等から読み出す。そして、プロセッサ100dは、機械学習部111、映像取得部112、領域特定部113、追跡部114、不正検知部115、警告制御部116等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置100は、プログラムを読み出して実行することで情報処理方法を実行する情報処理装置として動作する。また、情報処理装置100は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、上記実施例が同様に適用されてもよい。
このプログラムは、インターネットなどのネットワークを介して配布されてもよい。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行されてもよい。
図17は、セルフレジ50のハードウェア構成例を説明する図である。図17に示すように、セルフレジ50は、通信インタフェース400a、HDD400b、メモリ400c、プロセッサ400d、入力装置400e、出力装置400fを有する。また、図17に示した各部は、バスなどで相互に接続される。
通信インタフェース400aは、ネットワークインタフェースカードなどであり、他の情報処理装置との通信を行う。HDD400bは、セルフレジ50の各機能を動作させるプログラムやデータを記憶する。
プロセッサ400dは、セルフレジ50の各機能の処理を実行するプログラムをHDD400bなどから読み出してメモリ400cに展開することで、セルフレジ50の各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、セルフレジ50が有する各処理部と同様の機能を実行する。
このように、セルフレジ50は、セルフレジ50の各機能の処理を実行するプログラムを読み出して実行することで動作制御処理を実行する情報処理装置として動作する。また、セルフレジ50は、媒体読取装置によって記録媒体からプログラムを読み出し、読み出されたプログラムを実行することでセルフレジ50の各機能を実現することもできる。なお、この他の実施例でいうプログラムは、セルフレジ50によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本実施形態が同様に適用されてよい。
また、セルフレジ50の各機能の処理を実行するプログラムは、インターネットなどのネットワークを介して配布できる。また、このプログラムは、ハードディスク、FD、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行できる。
入力装置400eは、プロセッサ400dによって実行されるプログラムに対する入力操作など、ユーザによる各種入力操作を検知する。当該入力操作には、例えば、タッチ操作などが含まれる。タッチ操作の場合、セルフレジ50はさらに表示部を備え、入力装置400eによって検知される入力操作は、当該表示部に対するタッチ操作であってよい。入力装置400eは、例えば、ボタン、タッチパネル、近接センサなどであってよい。また、入力装置400eは、バーコードの読み取りをする。入力装置400eは、例えば、バーコードリーダである。バーコードリーダは、光源と光センサを持ち、バーコードをスキャンする。
出力装置400fは、プロセッサ400dによって実行されるプログラムから出力されるデータをセルフレジ50に接続された外部装置、例えば、外部ディスプレイ装置などを介して出力する。なお、セルフレジ50が表示部を備える場合、セルフレジ50は出力装置400fを備えなくてもよい。
30 カメラ
50 セルフレジ
60 管理者端末
100 情報処理装置
101 通信部
102 記憶部
103 訓練データDB
104 機械学習モデル
105 映像データDB
106 不正ルールDB
110 制御部
111 機械学習部
112 映像取得部
113 領域特定部
114 追跡部
115 不正検知部
116 警告制御部
50 セルフレジ
60 管理者端末
100 情報処理装置
101 通信部
102 記憶部
103 訓練データDB
104 機械学習モデル
105 映像データDB
106 不正ルールDB
110 制御部
111 機械学習部
112 映像取得部
113 領域特定部
114 追跡部
115 不正検知部
116 警告制御部
Claims (14)
- コンピュータに、
商品のコードを会計機にスキャンする人物の映像データを取得し、
取得した前記映像データを分析することで、取得した前記映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定し、
前記商品を把持している人物の手の動き、または、把持された前記商品の動きのいずれかを追跡し、
追跡された前記手の動きの変化または前記商品の動きの変化に基づいて、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、
処理を実行させることを特徴とする情報処理プログラム。 - 前記特定する処理は、
取得した前記映像データを機械学習モデルに入力することで、取得した前記映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定し、
前記追跡する処理は、
前記人物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動き、または、前記複数の商品の動きのいずれかを追跡し、
前記アラートを生成する処理は、
追跡された前記手の動きの変化または前記複数の商品の動きの変化に基づいて、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、
ことを特徴とする請求項1に記載の情報処理プログラム。 - 前記アラートを生成する処理は、
前記商品の動きが追跡された場合に、前記商品の領域に含まれる前記複数の商品の動きの変化が予め指定したパターンに該当するか否かを判定し、
前記複数の商品の動きの変化が前記パターンに該当する場合に、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、ことを特徴とする請求項2に記載の情報処理プログラム。 - 前記アラートを生成する処理は、
前記手の動きが追跡された場合に、前記手の動きが前記複数の商品を重ねる動作に該当する場合に、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、ことを特徴とする請求項2に記載の情報処理プログラム。 - 前記機械学習モデルは、映像データの入力に応じて、前記手の領域を示すバウンディングボックスと、前記商品の領域を示す商品のバウンディングボックスと、前記人物の手の骨格情報とを出力し、
前記特定する処理は、
取得した前記映像データを前記機械学習モデルに入力することで、前記手の領域を示すバウンディングボックスと、前記商品の領域を示す商品のバウンディングボックスと、前記手の骨格情報とを生成し、
前記追跡する処理は、
生成された前記商品のバウンディングボックスの個数が複数である場合に、複数の前記バウンディングボックスの位置の重なりがあるか否かを判定し、
前記アラートを生成する処理は、
前記重なりがあると判定されたときは、前記人物の手の骨格情報に基づいて、前記人物の手の動きのパターンを識別し、
識別された前記手の動きのパターンと、予め設定されたルールとを比較することで、前記会計機に商品を登録する行動の異常に関するアラートを生成する、
ことを特徴とする請求項2に記載の情報処理プログラム。 - 前記機械学習モデルは、映像データの入力に応じて、人物の手を含む第一の領域と、商品を含む第二の領域と、第一領域と第二の領域の関係性を特定し、
前記特定する処理は、
取得した前記映像データを前記機械学習モデルに入力することで特定された前記第一の領域と、前記第二の領域と、前記関係性とに基づいて、人物の右手で第一の商品を把持する第一の動作および左手で第二の商品を把持する第二の動作を特定し、
前記追跡する処理は、
前記第一の動作および前記第二の動作を追跡し、
前記アラートを生成する処理は、
追跡される前記第一の動作および前記第二の動作に基づいて、前記第一の商品または前記第二の商品のいずれかの商品のコードが前記会計機にスキャンされていないことを検出する、
ことを特徴とする請求項2に記載の情報処理プログラム。 - 前記アラートを生成する処理は、
追跡した前記第一の動作および前記第二の動作と、商品を前記会計機にスキャンをするために設定されたエリアとの位置関係に基づいて、前記第一の商品および前記第二の商品のそれぞれの商品のコードが前記会計機にスキャンされていないと判定されるときに、前記会計機に商品を登録する行動の異常を示すアラートを生成する、
ことを特徴とする請求項6に記載の情報処理プログラム。 - 前記アラートを生成する処理は、
前記会計機に商品を登録する行動の異常に関連するアラートとして、前記人物が前記会計機に登録していない商品があること、または、前記人物が前記会計機に登録した商品が異常であることを示すアラートを生成する、
ことを特徴とする請求項1に記載の情報処理プログラム。 - 前記会計機に商品を登録する行動の異常に関するアラートが生成されたときに、店員の有する端末に対して、前記会計機の識別情報と生成された前記アラートとを対応づけて通知する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の情報処理プログラム。
- 前記アラートを生成する処理は、
前記会計機に商品を登録する行動の異常に関するアラートが生成された場合に、前記会計機に位置する前記人物に前記商品の登録漏れを促す音声または画面を、前記会計機から出力する、
ことを特徴とする請求項1に記載の情報処理プログラム。 - 前記会計機に商品を登録する行動の異常に関するアラートが生成されたときに、前記会計機の有するカメラにて、人物を撮影させ、
撮影された前記人物の画像データと、前記アラートを対応づけて記憶部に記憶する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の情報処理プログラム。 - 前記会計機は、セルフレジ端末であり、
前記特定する処理は、
取得した前記映像データに基づいて、取得した前記映像データの中から、人物の手の領域を特定し、
前記追跡する処理は、
前記人物が手で把持をしている商品の個数が複数であるときに、複数の商品を把持している人物の手の動きを追跡し、
前記アラートを生成する処理は、
追跡された前記手の動きの変化に基づいて、前記セルフレジ端末に商品を登録する行動の異常に関連するアラートを生成する、ことを特徴とする請求項1に記載の情報処理プログラム。 - コンピュータが、
商品のコードを会計機にスキャンする人物の映像データを取得し、
取得した前記映像データを分析することで、取得した前記映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定し、
前記商品を把持している人物の手の動き、または、把持された前記商品の動きのいずれかを追跡し、
追跡された前記手の動きの変化または前記商品の動きの変化に基づいて、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、
処理を実行することを特徴とする情報処理方法。 - 商品のコードを会計機にスキャンする人物の映像データを取得し、
取得した前記映像データを分析することで、取得した前記映像データの中から、人物の手の領域と人物が手で把持をしている商品の領域とを特定し、
前記商品を把持している人物の手の動き、または、把持された前記商品の動きのいずれかを追跡し、
追跡された前記手の動きの変化または前記商品の動きの変化に基づいて、前記会計機に商品を登録する行動の異常に関連するアラートを生成する、
制御部を有することを特徴とする情報処理装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022195932A JP2024082167A (ja) | 2022-12-07 | 2022-12-07 | 情報処理プログラム、情報処理方法および情報処理装置 |
US18/362,214 US20240193993A1 (en) | 2022-12-07 | 2023-07-31 | Non-transitory computer-readable recording medium, information processing method, and information processing apparatus |
EP23190821.1A EP4383167A1 (en) | 2022-12-07 | 2023-08-10 | Information processing program, information processing method, and information processing apparatus |
KR1020230116043A KR20240085839A (ko) | 2022-12-07 | 2023-09-01 | 정보 처리 프로그램, 정보 처리 방법 및 정보 처리 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022195932A JP2024082167A (ja) | 2022-12-07 | 2022-12-07 | 情報処理プログラム、情報処理方法および情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024082167A true JP2024082167A (ja) | 2024-06-19 |
Family
ID=87567223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022195932A Pending JP2024082167A (ja) | 2022-12-07 | 2022-12-07 | 情報処理プログラム、情報処理方法および情報処理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240193993A1 (ja) |
EP (1) | EP4383167A1 (ja) |
JP (1) | JP2024082167A (ja) |
KR (1) | KR20240085839A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024082106A (ja) * | 2022-12-07 | 2024-06-19 | 富士通株式会社 | 情報処理プログラム、情報処理方法および情報処理装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5965861A (en) * | 1997-02-07 | 1999-10-12 | Ncr Corporation | Method and apparatus for enhancing security in a self-service checkout terminal |
US6236736B1 (en) * | 1997-02-07 | 2001-05-22 | Ncr Corporation | Method and apparatus for detecting movement patterns at a self-service checkout terminal |
US7631808B2 (en) * | 2004-06-21 | 2009-12-15 | Stoplift, Inc. | Method and apparatus for detecting suspicious activity using video analysis |
US10535146B1 (en) | 2018-07-16 | 2020-01-14 | Accel Robotics Corporation | Projected image item tracking system |
US11244548B2 (en) * | 2020-03-03 | 2022-02-08 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for anti-shoplifting in self-checkout |
-
2022
- 2022-12-07 JP JP2022195932A patent/JP2024082167A/ja active Pending
-
2023
- 2023-07-31 US US18/362,214 patent/US20240193993A1/en active Pending
- 2023-08-10 EP EP23190821.1A patent/EP4383167A1/en active Pending
- 2023-09-01 KR KR1020230116043A patent/KR20240085839A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
EP4383167A1 (en) | 2024-06-12 |
US20240193993A1 (en) | 2024-06-13 |
KR20240085839A (ko) | 2024-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019152266A1 (en) | Systems and methods for verifyingmachine-readable label associated with merchandise | |
KR20190096975A (ko) | 자동 상점 내 등록 시스템 | |
JP2020061044A (ja) | 情報処理システム | |
US20240193995A1 (en) | Non-transitory computer-readable recording medium, information processing method, and information processing apparatus | |
EP4383167A1 (en) | Information processing program, information processing method, and information processing apparatus | |
EP4390872A1 (en) | Information processing program, information processing method, and information processing device | |
KR20230060452A (ko) | 행동 판정 프로그램, 행동 판정 방법 및 행동 판정 장치 | |
JP2020061164A (ja) | 情報処理システム | |
JP2024082106A (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
JP2024082190A (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
JP2023007363A (ja) | 情報処理プログラム、情報処理方法、および情報処理装置 | |
JP2022187215A (ja) | 動作判別プログラム、動作判別方法および動作判別装置 | |
JP2023051360A (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
JP2024082168A (ja) | 情報処理プログラムおよび情報処理装置 | |
WO2022209055A1 (ja) | 検知システム、検知方法、及び、記憶媒体 | |
US20240212354A1 (en) | Computer-readable recording medium storing alert output program, alert output method, and information processing device | |
US20230097352A1 (en) | Non-transitory computer-readable recording medium, notification method, and information processing device | |
EP4125020A1 (en) | Information processing program, information processing method, and information processing apparatus | |
EP4125019A1 (en) | Information processing program, information processing method, and information processing apparatus | |
US20230005267A1 (en) | Computer-readable recording medium, fraud detection method, and fraud detection apparatus | |
WO2021171553A1 (ja) | 処理装置、処理方法及びプログラム | |
JP2024085336A (ja) | 情報処理プログラム、情報処理方法、および情報処理装置 | |
JP2023050597A (ja) | 通知プログラム、通知方法および情報処理装置 | |
KR20240101355A (ko) | 경고 생성 프로그램, 경고 생성 방법 및 정보 처리 장치 |