JP2023049861A - 推定プログラム、推定方法、および推定装置 - Google Patents

推定プログラム、推定方法、および推定装置 Download PDF

Info

Publication number
JP2023049861A
JP2023049861A JP2021159861A JP2021159861A JP2023049861A JP 2023049861 A JP2023049861 A JP 2023049861A JP 2021159861 A JP2021159861 A JP 2021159861A JP 2021159861 A JP2021159861 A JP 2021159861A JP 2023049861 A JP2023049861 A JP 2023049861A
Authority
JP
Japan
Prior art keywords
person
cart
skeleton information
dimensional
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021159861A
Other languages
English (en)
Inventor
厚憲 茂木
Atsunori Mogi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2021159861A priority Critical patent/JP2023049861A/ja
Priority to US17/891,546 priority patent/US20230094892A1/en
Priority to EP22191674.5A priority patent/EP4160533A1/en
Publication of JP2023049861A publication Critical patent/JP2023049861A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • G06Q30/0185Product, service or business identity fraud
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0609Buyer or seller confidence or verification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】小売店の監視カメラによって撮像された画像は、2次元画像であるため、人物とカートとの位置関係が不明な場合、不正検知システムは人物のスケールを推定できない。そのため、不正検知システムは監視カメラによって撮像された画像から人物の行動を正しく認識できない場合がある。【解決手段】推定プログラムは、店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、第1の人物の骨格情報を生成し、骨格情報を用いて、第1の人物が第1のカートの把持部を把持している第1の間隔を取得し、第1の間隔と、第1のカートの長さの情報とに基づいて、第1の人物の第1のスケールを推定する処理をコンピュータに実行させる。【選択図】図10

Description

本発明は、推定プログラム、推定方法、および推定装置に関する。
小売店においては、レジの混雑を解消するために、顧客自らが商品をスキャンして登録し、会計を行うシステムの導入が進んでいる。さらに近年では、顧客が、小売店の店舗内で貸し出される端末や顧客の所持する端末にインストールしたアプリケーションを用いて、レジ以外の場所、例えば、各商品をピックアップした売場で商品スキャンを行うシステムの導入が始まっている。このような顧客自らが商品スキャンを行うシステムでは、万引きなどの不正行動を検知するため、顧客が商品をとってショッピングカートに入れる動作や、その商品をスキャンする動作など顧客の行動を正しく認識し、検知することが重要になってくる。なお、ショッピングカートを、単に「カート」という場合がある。
一方、小売店において顧客の不正行動を検知するシステムとして、例えば、店舗内の監視カメラを使って、顧客の不審行動や、万引きなどの不正行動を検知するシステムが開発されている。
特表2014-524071号公報 特開2020-173816号公報 米国特許出願公開第2020/0118401号明細書
しかしながら、監視カメラによって撮影された映像(厳密には画像)は、2次元画像であるため、人物とカートとの位置関係が不明な場合、不正検知システムは人物のスケールを推定できない。そのため、不正検知システムは監視カメラによって撮像された画像から人物の行動を正しく認識できない場合がある。
1つの側面では、撮像画像から人物のスケールをより正確に推定できる推定プログラム、推定方法、および推定装置を提供することを目的とする。
1つの態様において、推定プログラムは、店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、第1の人物の骨格情報を生成し、骨格情報を用いて、第1の人物が第1のカートの把持部を把持している第1の間隔を取得し、第1の間隔と、第1のカートの長さの情報とに基づいて、第1の人物の第1のスケールを推定する処理をコンピュータに実行させる。
1つの側面では、撮像画像から人物のスケールをより正確に推定できる。
図1は、実施例1にかかる不正検知システムの構成例を示す図である。 図2は、実施例1にかかるセルフスキャンによる商品購入の一例を示す図である。 図3は、実施例1にかかるセルフスキャンによる商品購入の別例を示す図である。 図4は、実施例1にかかる不正検知処理の一例を示す図である。 図5は、実施例1にかかる物体検出および骨格検出の一例を示す図である。 図6は、骨格情報の例を示す図である。 図7は、全身の姿勢判定を説明する図である。 図8は、撮像画像から行動認識する場合の問題点について説明するための図である。 図9は、実施例1にかかる推定装置10の構成例を示す図である。 図10は、実施例1にかかるスケール推定処理の一例を示す図である。 図11は、実施例1にかかるカートの3次元位置姿勢取得処理の一例を示す図である。 図12は、実施例1にかかるホモグラフィ算出のための2D座標・3D座標対応関係の一例を示す図である。 図13は、実施例1にかかる基準位置の設定の一例を示す図である。 図14は、実施例1にかかる2D/3Dにおける座標系の位置関係の一例を示す図である。 図15は、実施例1にかかる3D骨格の世界座標マッピングによる絶対3D骨格位置推定の一例を示す図である。 図16は、実施例1にかかる動作検出処理の一例を示す図である。 図17は、実施例1にかかる動作検出処理の別例を示す図である。 図18は、実施例1にかかるスケール推定処理の流れを示すフローチャートである。 図19は、実施例1にかかる動作検出処理の流れを示すフローチャートである。 図20は、推定装置10のハードウェア構成例を説明する図である。 図21は、情報処理端末1000のハードウェア構成例を説明する図である。 図22は、セルフレジ端末400のハードウェア構成例を説明する図である。 図23は、ゲート用リーダ500のハードウェア構成例を説明する図である。
以下に、本実施形態に係る推定プログラム、推定方法、および推定装置の実施例を図面に基づいて詳細に説明する。なお、この実施例により本実施形態が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
まず、本実施形態を実施するための不正検知システムについて説明する。図1は、実施例1にかかる不正検知システムの構成例を示す図である。図1に示すように、不正検知システム1は、推定装置10と、利用者端末100-1~100-n(nは任意の整数。以下、まとめて「利用者端末100」という)とが、ネットワーク50を介して相互に通信可能に接続されるシステムである。
また、推定装置10は、カメラ装置200-1~200-m(mは任意の整数。以下、まとめて「カメラ装置200」という)や店員端末300ともネットワーク50を介して相互に通信可能に接続される。
ネットワーク50には、有線や無線を問わず、例えば、小売店の店舗内で利用されるイントラネットなどの各種通信網を採用できる。また、ネットワーク50は、単一のネットワークではなく、例えば、イントラネットとインターネットとがゲートウェイなどネットワーク装置やその他の装置(図示せず)を介して構成されてよい。なお、小売店の店舗内は、屋内に限定されず、敷地内の屋外を含んでよい。
推定装置10は、例えば、小売店の店舗内に設置され、店舗スタッフや管理者などによって使用されるデスクトップPC(Personal Computer)やノートPC、またはサーバコンピュータなどの情報処理装置である。
推定装置10は、カメラ装置200によって小売店の店舗内や敷地内など所定の撮像範囲を撮像した複数の画像を、カメラ装置200から受信する。なお、複数の画像とは、厳密には、カメラ装置200によって撮影される映像、すなわち、動画の一連のフレームである。
また、推定装置10は、既存の物体検知技術を用いて、撮像画像から、店舗に滞在する顧客(以下、単に「人物」という場合がある)、当該人物が持つ買い物カゴ(以下、単に「カゴ」という場合がある)やショッピングカート、利用者端末100を特定する。また、推定装置10は、既存の骨格検出技術を用いて、撮像画像から、特定された人物の骨格情報を生成して人物の位置や姿勢、スケールを推定し、カートを把持する動作や、商品をカゴやカートに入れる動作などを検出する。ここでスケールとは、例えば、人物の身長に対する尺度であり、推定装置10は、撮像画像に写る様々な人物のスケールを、撮像画像に写るカートの長さの情報などに基づいて推定する。これにより、推定装置10は、人物のスケールに基づいて、例えば、人物とカートとの位置関係を推定でき、人物の行動認識の精度を向上させることができる。
なお、図1では、推定装置10を1台のコンピュータとして示しているが、複数台のコンピュータで構成される分散型コンピューティングシステムであってもよい。また、推定装置10は、クラウドコンピューティングサービスを提供するサービス提供者によって管理されるクラウドコンピュータ装置であってもよい。
利用者端末100は、商品を購入するために、顧客自らが商品のバーコードなどをスキャンして購入商品の登録を行うための情報処理端末である。利用者端末100は、顧客が所有するスマートフォンやタブレットPC(Personal Computer)などのモバイル端末であってもよいし、店舗内で貸し出される専用端末であってもよい。利用者端末100には、商品をスキャンして登録などするためのアプリケーションが予めインストールされる。
カメラ装置200は、例えば、小売店の店舗内や敷地内に設置される監視カメラである。なお、図1では、カメラ装置200を複数台示しているが、例えば、狭い店舗などの場合は1台であってもよい。カメラ装置200によって撮影された映像は、推定装置10に送信される。
店員端末300は、小売店の店員が所持するスマートフォンやタブレットPCなどのモバイル端末であってもよいし、店舗内の所定位置に設置されるデスクトップPCやノートPCなどの情報処理装置であってもよい。店員端末300は、商品のスキャン漏れなど、顧客の不正行動が推定装置10によって検知された場合に、推定装置10からアラートを受信する。なお、店員端末300は、例えば、店舗の店員ごとに複数存在してよいが、当該アラートが通知される端末は、例えば、出口付近の警備を担当する店員が所持する端末などに限定されてもよい。
次に、図2および図3を用いて、顧客自らが商品をスキャンして登録し(以下、「セルフスキャン」という場合がある)、商品の購入を行う方法について説明する。図2は、実施例1にかかるセルフスキャンによる商品購入の一例を示す図である。
図2に示すように、まず、顧客は、利用者端末100に表示されるアプリケーションを介して、訪れた店舗を選択する。次に、顧客は、購入する商品を取り、例えば、商品や商品棚などに貼付された商品ごとのバーコードなどを、利用者端末100を用いて読み取る(以下、「商品スキャン」という場合がある)。これにより、購入する商品が、アプリケーションに登録される。
次に、顧客は、セルフレジ端末400などのディスプレイ部に表示される支払いコードをスキャンする。そして、セルフレジ端末400の精算画面に表示された金額を支払うことで商品の購入が完了する。また、顧客は、利用者端末100に表示された支払い完了コードを、店舗の出口などに設置されるゲート用リーダ500などに読み取らせることで店外に出ることができる。なお、セルフレジ端末400およびゲート用リーダ500は、図1には示されていないが、ネットワーク50を介して推定装置10と相互に通信可能に接続される。
次に、セルフスキャンによる商品購入の別例について説明する。図3は、実施例1にかかるセルフスキャンによる商品購入の別例を示す図である。
図3に示すように、まず、顧客は、利用者端末100に表示されるアプリケーションにログインし、訪れた店舗を選択する。次に、顧客は、購入する商品を取り、例えば、購入する商品や商品棚などに貼付された商品ごとのバーコードなどを、利用者端末100を用いて読み取る。
次に、顧客は、店舗内のチェックポイントに購入商品の入ったカゴを置き、利用者端末100に表示される「会計ボタン」や「購入ボタン」などを押下することで、購入商品の会計を実行する。なお、購入商品の支払いは、利用者端末100に表示されるアプリケーションを介して、電子マネーやクレジットカードなどにより行うことができる。そして、顧客は、利用者端末100に表示された決済完了コードを、店舗の出口などに設置されるゲート用リーダ500などに読み取らせることで店外に出ることができる。
以上、図2および図3を用いて、セルフスキャンによる商品購入について説明した。しかしながら、セルフスキャンでは、例えば、顧客が商品スキャンを行わずに商品をカゴに入れ、セルフレジを通らずに支払いを免れることができてしまう。または、顧客が購入商品の一部のみをスキャンし、スキャンした商品のみをセルフレジで会計することで、一部の商品の支払いを免れることができてしまう。特に、商品の点数が少数の場合の不正行動は店員などによって発見し易いが、例えば、商品の点数が多数で一部の商品のスキャンを行わない場合などは店員などによる発見は困難である。そのため、不正検知システムは、カメラ装置200による映像から顧客の行動を認識し、不正行動を検知する。不正検知システムによる不正検知処理について説明する。
図4は、実施例1にかかる不正検知処理の一例を示す図である。図4に示す撮像画像250は、カメラ装置200によって撮像された小売店の店舗内の撮像画像の一例である。推定装置10は、撮像画像250から人物や物体を特定する。次に、推定装置10は、撮像画像250から特定された人物やカートなどに基づいて、例えば、人物がカートに商品を入れたか、商品スキャンを行ったか否かなどを人物の行動を判定する。そして、推定装置10は、商品スキャンを行わなかったなど不正な行動をしている人物を対象者として検知し、店員端末300にアラートを通知する。
ここで、撮像画像から人物や物体を特定する方法について図5を用いて具体的に説明する。図5は、実施例1にかかる物体検出および骨格検出の一例を示す図である。図5の右上に示すように、推定装置10は、例えば、既存の物体検出アルゴリズムを用いて、撮像画像251から人物(person)やカート(cart)を検出して特定する。ここで、既存の物体検出アルゴリズムとは、例えば、Faster R-CNN(Convolutional Neural Network)など深層学習を用いた物体検出アルゴリズムである。また、YOLO(You Only Look Once)やSSD(Single Shot Multibox Detector)などの物体検出アルゴリズムであってもよい。
また、人物やカゴ以外でも、例えば、商品や利用者端末100、商品の売場や棚など、商品の販売エリア、人物の服装などが撮像画像から検出されてよい。これにより、推定装置10は、例えば、利用者端末100を持っているのにセルフスキャンを行わないことを検知できる。また、推定装置10は、例えば、既存のアルゴリズムによって、撮像画像から特定された人物の年齢を判断し、人物間の親子関係などのグループ関係を特定することもできる。これにより、例えば、親子関係の場合は、対象人物のどちらか一方が商品スキャンを行えば、商品のスキャン漏れは発生していないと判定されてもよい。
また、図5の右下に示すように、推定装置10は、例えば、既存の骨格推定アルゴリズムを用いて、撮像画像251から特定された人物の骨格を検出する。ここで、既存の骨格推定アルゴリズムとは、例えば、DeepPose、OpenPoseなどのHumanPoseEstimationなど深層学習を用いた骨格推定アルゴリズムである。
例えば、推定装置10は、画像データ(各フレーム)を訓練済みの機械学習モデルに入力することで、骨格情報を取得する。図6は、骨格情報の例を示す図である。骨格情報は、公知の骨格モデルで特定される各関節をナンバリングした、18個(0番から17番)の定義情報を用いることができる。例えば、右肩関節(SHOULDER_RIGHT)には7番が付与され、左肘関節(ELBOW_LEFT)には5番が付与され、左膝関節(KNEE_LEFT)には11番が付与され、右股関節(HIP_RIGHT)には14番が付与される。したがって、推定装置10は、図6に示した18個の骨格の座標情報を、画像データから取得することができる。例えば、推定装置10は、7番の右肩関節の位置として「X座標=X7、Y座標=Y7、Z座標=Z7」を取得する。なお、例えば、Z軸は、撮像装置から対象に向けた距離方向、Y軸は、Z軸に垂直な高さ方向、X軸は、水平方向と定義することができる。
また、推定装置10は、骨格のパターンをあらかじめ訓練した機械学習モデルを用いて、立つ・歩く・しゃがむ・座る・寝るなどの全身の姿勢を判定することもできる。例えば、推定装置10は、図6の骨格情報や美技図のような一部の関節と関節間の角度をMultilayer Perceptronで訓練した機械学習モデルを用いることで、最も近い全身の姿勢を判定することもできる。図7は、全身の姿勢判定を説明する図である。図7に示すように、推定装置10は、10番の「HIP_LEFT」と11番の「KNEE_LEFT」との間の関節の角度(a)、14番の「HIP_RIGHT」と15番の「KNEE_RIGHT」との間の関節の角度(b)、11番の「KNEE_LEFT」の角度(c)、15番の「KNEE_RIGHT」の角度(d)などを取得することで、全身の姿勢を検知することができる。
また、推定装置10は、一部の関節と関節間の角度とを特徴量とし、立つ、しゃがむなどといった全身の姿勢を正解ラベルとして機械学習により生成した、Multi Layer Perceptronなどの機械学習モデルを用いて姿勢を推定してもよい。
また、推定装置10は、姿勢推定アルゴリズムとして、1枚の撮像画像から3次元的な姿勢を推定するVNectなどの3D Pose estimationを用いてもよい。また、推定装置10は、例えば、2次元の骨格情報から3次元の関節データを生成する3d-pose-baselineを用いて、3次元の関節データから姿勢を推定してもよい。
また、推定装置10は、人物の顔や腕、肘などといった部位ごとの向きや曲げた場合の角度などに基づいて部位別の動作を特定し、人物の姿勢を推定してもよい。なお、姿勢推定や骨格推定のアルゴリズムは1種類に限定されず、複数のアルゴリズムを用いて複合的に姿勢や骨格が推定されてよい。
しかしながら、カメラ装置200による撮像画像は、2次元画像であるため、人物とカートとの位置関係が不明な場合、推定装置10は人物のスケールを推定できず、推定装置10は撮像画像から人物の行動を正しく認識できないという問題点がある。
図8は、撮像画像から行動認識する場合の問題点について説明するための図である。図8に示すように、例えば、撮像画像251に人物150と、カート160が重なって写っていた場合、人物150とカート160との位置関係が不明なため、人物150がカート160を把持しているのか否かについて正しく認識されない場合がある。すなわち、撮像画像251の撮像方向を正面として横から見た場合を想定すると、図8の下段に示すように、人物150は、カート160の直ぐ後ろにいるのか、カート160の奥にいるのか、どちらが正しいのか撮像画像から認識されない場合がある。
ここで、店舗で取り扱うカート160の長さの情報は予めわかり、推定装置10に保持できるため、人物150のスケールがわかれば、推定装置10は、人物150とカート160との位置関係を推定できる。そこで、本実施形態は、カメラ装置200によって撮像された小売店の店舗内や敷地内の撮像画像から人物のスケールをより正確に推定し、延いては人物の行動をより正確に認識することを目的の一つとする。
[推定装置10の機能構成]
次に、本実施形態の実行主体となる推定装置10の機能構成について説明する。図9は、実施例1にかかる推定装置10の構成例を示す図である。図9に示すように、推定装置10は、通信部20、記憶部30、および制御部40を有する。
通信部20は、利用者端末100やカメラ装置200など、他の装置との間の通信を制御する処理部であり、例えば、USB(Universal Serial Bus)インタフェースや、ネットワークインタフェースカードなどの通信インタフェースである。
記憶部30は、各種データや、制御部40が実行するプログラムを記憶する機能を有し、例えば、メモリやハードディスクなどの記憶装置により実現される。例えば、記憶部30は、人物の3次元骨格情報を推定するための人骨格3Dモデルや、物体の姿勢を推定するための物体3Dモデルなどを記憶する。
また、記憶部30は、カメラ装置200によって撮像された一連のフレームである複数の撮像画像を記憶する。また、記憶部30は、当該撮像画像に対して特定された人物や物体の画像中の位置情報を記憶できる。また、記憶部30は、カメラ装置200によって撮像された撮像画像から特定された人物の2次元骨格情報を記憶する。また、記憶部30は、カートの把持部の長さなど、カートの長さ情報を記憶する。
なお、記憶部30に記憶される上記情報はあくまでも一例であり、記憶部30は、上記情報以外にも様々な情報を記憶できる。
制御部40は、推定装置10全体を司る処理部であり、例えば、プロセッサなどである。制御部40は、画像取得部、物体検出部、物体姿勢推定部、人領域検出部、2D骨格推定部、スケール推定部、相対3D骨格推定部、絶対3D骨格マッピング部、動作判定部などを備える。なお、各処理部は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
画像取得部は、カメラ装置200によって撮像された一連のフレームである複数の撮像画像をカメラ装置200から取得する。
物体検出部は、YOLOなどの既存技術を用いて、カメラ装置200による撮像画像から物体を検出する。なお、検出された物体はバウンディングボックスによって示されてよい。
物体姿勢推定部は、例えば、機械学習モデルに、撮像画像におけるカートのバウンディングボックス内の部分画像と、カートのCAD(Computer Aided Design)データとを入力し、カートの3次元位置および姿勢データを取得する。なお、当該機械学習モデルは、例えば、カートを撮像した撮像画像と、カートのCADデータとを特徴量とし、カートの3次元位置および姿勢データを正解ラベルとして機械学習により生成された機械学習モデルである。
人領域検出部は、カメラ装置200による撮像画像から人物を特定し、人物の領域であるバウンディングボックスを検出する。
2D骨格推定部は、CPN(Cascaded Pyramid Network)などの既存技術を用いて、撮像画像から特定された人物のバウンディングボックス内の部分画像から、当該人物の姿勢を推定して2次元骨格情報を生成する。
スケール推定部は、撮像画像から特定された人物の2次元骨格情報を用いて、人物がカートの把持部を両手で把持している場合の両手首の間隔を取得し、当該間隔と、カートの把持部の長さの情報とに基づいて、人物のスケールを推定する。これは、人物がカートの把持部を両手で把持している場合の両手首の間隔がカートの把持部の長さに概ね一致することによる。
なお、カメラ装置200によって連続して撮像された複数の撮像画像における人物のバウンディングボックスとカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、人物がカートの把持部を把持していると判定されてよい。または、連続して撮像された複数の撮像画像において人物のバウンディングボックスとカートのバウンディングボックスとの移動速度および方向が所定の範囲内であり類似する場合に人物がカートの把持部を把持していると判定されてよい。
また、人物のスケールを推定する処理は、連続して撮像された複数の撮像画像の各々から推定された各スケールの平均値を算出し、当該平均値をその人物のスケールとして推定する処理を含んでよい。
相対3D骨格推定部は、既存技術を用いて、人物の2次元骨格情報の、例えば、腰など基準となる位置に対する各部位の3次元骨格座標を推定する。なお、相対3D骨格推定部によって推定される3次元骨格座標は、基準位置から正規化された相対的な座標であり、各部位間の寸法は実寸大とはなっていないため、本実施形態では、人物のスケールが推定される。また、相対3D骨格推定部によって推定される3次元骨格座標は、基準位置からの相対的な座標であるため、本実施形態では、世界座標に対する絶対座標が算出される。
絶対3D骨格マッピング部は、例えば、推定されたスケールとホモグラフィ変換行列とを用いて、人物の相対3次元骨格座標を、世界座標に対する絶対3次元骨格情報に変換する。なお、ホモグラフィ変換行列は、例えば、店内を撮像した撮像画像における異なる所定の4点の座標と、当該4点の各々に対応する世界座標とに基づいて算出されてよい。また、絶対3次元骨格情報は、例えば、腰部および右足部など数部位の絶対3次元骨格情報を算出し、算出された腰部および右足部の絶対座標と推定されたスケールとを用いて、他の部位の絶対座標が算出されてもよい。
動作判定部は、人物の絶対3次元骨格情報、およびカートの3次元位置および姿勢データに基づいて、例えば、人物が商品をカートに入れた動作をしたか否かなど、人物の動作を判定して検出する。
[機能詳細]
次に、推定装置10を動作主体として実行される各処理について図10~17を用いて詳細に説明する。図10は、実施例1にかかるスケール推定処理の一例を示す図である。図10に示す人物のスケール推定処理は、撮像画像から人物が検出される度に繰り返し実行されてよい。その際、推定装置10は、人物ごとに識別子を割り当てるなどし、同一人物の情報を対応付けて記憶する。
図10に示す人物のスケール推定処理は、人物がカートの把持部を両手で把持している場合の両手首の間隔が把持部の長さに概ね一致することに着目し、撮像画像におけるカートの把持部とカートを把持する人物の両手首の間隔からスケールを推定するものである。なお、店舗で取り扱うカートの把持部などの長さの情報は予めわかるため、推定装置10に記憶される。
まず、図5を用いて説明したように、推定装置10は、YOLOなどの既存技術を用いて、カメラ装置200による撮像画像から人物およびカートを検出して特定する。次に、特定された人物の中から、特定されたカートを把持している人物をさらに特定する。例えば、推定装置10は、人物のバウンディングボックスとカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、当該人物がカートを把持している人物であると判定する。そして、図5~7を用いて説明したように、推定装置10は、CPNなどの既存技術を用いて、カートを把持している人物として特定された人物のバウンディングボックス内の部分画像から、人物の姿勢を推定し2次元骨格情報を検出する。
次に、推定装置10は、既存技術を用いて、人物の2次元骨格情報の、例えば、腰など基準となる位置に対する各部位の相対的な3次元骨格座標を推定する。3次元骨格座標の推定は、図10の下段に示すように、(1)人物が写った入力画像に対して、(2)例えば、腰の位置を基準として各部位の真値を求め、(3)腰からの各部位の相対的な3次元座標を推定するものである。
そして、推定装置10は、推定された両手首の相対的な3次元座標と、カートの把持部の長さとを用いて、例えば、次の式(1)によりスケールrを算出する。
Figure 2023049861000002
ここで、式(1)において、XrhおよびXlhは、それぞれ、推定された右手首および左手首の相対的な3次元座標、Lは、カートの把持部の長さを示す。カートの把持部の長さは、予めメジャーなどを用いて計測されてよい。また、推定装置10は、例えば、カメラ装置200によって撮像された一連のフレームである複数の撮像画像から、カートを把持している同一人物を特定して撮像画像ごとにスケールを推定し、推定された複数のスケールの平均値をスケールrとしてもよい。
このように、推定装置10は、カートを把持している人物のスケールを推定し、当該人物の行動認識時に、推定されたスケールを用いることで、人物の行動をより正確に認識できる。次に、人物の行動認識処理について説明する。本実施形態による人物の行動認識は、撮像画像から特定された人物やカートの3次元位置および姿勢を推定し、推定された3次元情報から人物の行動を認識するものである。
まず、カメラ装置200による撮像画像から特定されたカートの3次元位置および姿勢データの取得処理について説明する。図11は、実施例1にかかるカートの3次元位置姿勢取得処理の一例を示す図である。図11に示す3次元位置姿勢取得処理は、人物の行動認識時に1回のみ実行されてよい。
図11に示すように、推定装置10は、撮像画像におけるカートのバウンディングボックス内の部分画像と、カートのCADとを、機械学習モデルに入力し、カートの3次元位置および姿勢を示す直方体領域である3次元矩形領域を取得する。ここで用いられる機械学習モデルは、カートを多方向から撮像した撮像画像を収集しておき、当該撮像画像と、カートのCADデータとを特徴量とし、撮像画像におけるカートの3次元矩形領域を正解ラベルとして機械学習により生成された機械学習モデルである。
次に、カメラ装置200による撮像画像から特定された人物の3次元位置および姿勢データの取得処理について説明する。まず、推定装置10は、図10を用いて説明したように、既存技術を用いて、人物の2次元骨格情報の、例えば、腰など基準となる位置に対する各部位の相対的な3次元骨格座標を推定する。また、相対3次元骨格座標の各部位の座標に対してスケール値を乗算すれば、腰など基準となる位置に対する実スケールの相対3次元骨格情報が得られる。そして、推定装置10は、推定されたスケールとホモグラフィ変換行列とを用いて、人物の実スケールの相対3次元骨格座標を、世界座標に対する絶対3次元骨格情報に変換する。
ここで、人物の実スケールの相対3次元骨格座標を絶対3次元骨格情報に変換する際に用いられるホモグラフィ変換行列の算出方法について説明する。図12は、実施例1にかかるホモグラフィ算出のための2D座標・3D座標対応関係の一例を示す図である。図12は、撮像画像252上の4点の2次元座標と、当該4点の各々に対応するレイアウト図260上の4点の世界座標である3次元座標との対応関係を示すものである。レイアウト図260は、撮像場所の建築時のレイアウト図などであり、撮像画像252に写った撮像場所を上空から見た場合のレイアウトを示す。撮像画像252上およびレイアウト図260上の同マーカーは各々、同一の場所を示す。
推定装置10は、例えば、撮像画像252上の2次元座標4点と、対応するレイアウト図260上の3次元座標4点とを用いて、DLT(Direct Linear Transformation)法などの既存技術を用いてホモグラフィ変換行列を算出する。ホモグラフィ変換行列は、次の式(2)によって示される。
Figure 2023049861000003
ここで、式(2)において、uおよびvは、入力される2次元座標を示し、x、y、1(z値)は、変換された3次元座標を示す。なお、式(2)によって算出される3次元座標は、z値を0とする地面上の3次元座標である。そのため、本実施形態では、人物の立位時は足元位置と腰部とのx座標、y座標が同座標であると仮定し、z座標が脚長hlegに置き換えられる。
脚長hlegの算出方法について説明する。図13は、実施例1にかかる基準位置の設定の一例を示す図である。図13は、図7に示す全身の骨格情報に、基準位置とする腰部中心(Center hip)と足元部中心(Center ankle)を設定したものである。腰部中心と足元部中心との高さ方向、すなわち、z軸方向の座標の距離からから脚長hlegが算出される。
図14は、実施例1にかかる2D/3Dにおける座標系の位置関係の一例を示す図である。図14の右側に示すように、足元部中心の3次元座標を(x´,y´,0)とすると、腰部中心の3次元座標は(x,y,hleg)と表すことができる。hlegは、腰部中心と足元中心間の3次元距離にスケールを乗算した値として得る。そして、腰部中心の3次元座標(x,y,hleg)は、腰部中心の2次元座標(uch,vch)と、次の式(3)によって表されるホモグラフィ変換行列とを用いて算出できる。
Figure 2023049861000004
式(3)は、式(2)の2次元座標および3次元座標部分を腰部中心の座標に置き換えたものである。また、式(3)において腰部中心の3次元座標(x,y,1)の3行目、すなわちz座標部分が1になっているのは、ここが1になるようにxおよびyの値を除算することを意味する。そして、z座標部分は、次の式(4)に示すように、脚長hlegに置き換えられる。
Figure 2023049861000005
また、足元部中心の3次元座標(x´,y´,0)は、足元部中心の2次元座標(ucf,vcf)と、次の式(5)によって表されるホモグラフィ変換行列とを用いて算出できる。
Figure 2023049861000006
式(5)は、式(2)の2次元座標および3次元座標部分を足元部中心の座標に置き換えたものである。また、足元部中心の3次元座標(x´,y´,1)は、次の式(6)に示すように、z座標部分が地面の座標値0に置き換えられる。
Figure 2023049861000007
以上の式(3)~(6)を用いて、推定装置10は、腰部中心および足元部中心の絶対3次元座標を算出できる。そして、その他の部位の絶対3次元座標は、腰部中心および足元部中心の相対3次元座標および絶対3次元座標を用いて算出可能である。
図15は、実施例1にかかる3D骨格の世界座標マッピングによる絶対3D骨格位置推定の一例を示す図である。図15の左側に示すように、例えば、足元部中心、腰部中心、および頭部の相対3次元座標が、それぞれ、(1,3,0)、(1,3,1)、および(1,3,3)であったとする。また、図15の右側に示すように、例えば、足元部中心および腰部中心の絶対3次元座標は、推定されたスケールとホモグラフィ変換行列とを用いて、相対3次元座標から算出され、それぞれ、(5,6,0)および(5,6,4)であったとする。
また、足元部中心および腰部中心の相対3次元座標に基づいて、腰部中心から足元部中心のベクトルは、(1,3,0)-(1,3,1)=(0,0,-1)となる。同様に、腰部中心から頭部のベクトルは、(1,3,3)-(1,3,1)=(0,0,2)となる。また、図15の例ではスケールが4倍であるため、頭部の絶対3次元座標は、(5,6,4)+(0,0,2)×4=(5,6,12)となる。厳密には、部位によっては回転方向の考慮も必要となるが、図15を用いて説明したように、基準となる2部位の絶対3次元座標から、その他の部位の絶対3次元座標を算出可能である。
以上説明したように、推定装置10は、撮像画像から特定された人物やカートの3次元情報を算出する。そして、推定装置10は、算出された人物やカートの3次元情報を用いて、人物の動作を検出し、その行動を認識する。
図16は、実施例1にかかる動作検出処理の一例を示す図である。図16の左側において、人物の骨格情報は、図15などを用いて説明したように、算出された絶対3次元座標であり、カートを囲む直方体領域は、図11を用いて説明したように、カートの3次元位置および姿勢を示す3次元矩形領域である。
そして、図16の右側に示すように、推定装置10は、例えば、人物の右手首または左手首の絶対3次元座標位置が、カートの直方体領域の3次元座標位置の内側に入った場合に、人物がカートに手を入れたと判定する。これにより、推定装置10は、例えば、人物がカートに商品を入れる動作などを検出できる。また、絶対3次元情報を用いることで、推定装置10は、撮像画像のアングルに左右されずに、人物の動作を検出し、行動認識を行うことができる。そして、推定装置10は、人物の行動認識により、商品の購買行動などを記憶し、不正行動の有無を判定し、不正行動を検知できる。
また、カートのみならず、商品棚など、店舗内の3次元座標位置を予め計測するなどし、推定装置10に記憶しておくことで、認識できる人物の行動の種類を増やすことができる。図17は、実施例1にかかる動作検出処理の別例を示す図である。例えば、商品棚の直方体領域の3次元座標位置を推定装置10に予め記憶しておく。そして、図17に示すように、推定装置10は、例えば、人物の右手首または左手首の絶対3次元座標位置が、商品棚の直方体領域の3次元座標位置の内側に入った場合に、人物が商品棚に手を入れたと判定する。これにより、推定装置10は、例えば、人物が商品棚から商品を取り出す動作などを検出できる。
[処理の流れ]
次に、推定装置10によって実行される人物のスケールの推定処理の流れを説明する。図18は、実施例1にかかるスケール推定処理の流れを示すフローチャートである。図18に示すスケール推定処理は、例えば、一定時間ごと、またはカメラ装置200から撮像画像が受信される度に実行されてよい。
まず、図18に示すように、推定装置10は、カメラ装置200によって小売店の店舗内や敷地内など所定の撮像範囲が撮像された撮像画像を記憶部30から取得する(ステップS101)。なお、本実施形態では、カメラ装置200によって撮像された撮像画像、厳密には監視映像をリアルタイムに処理するため、撮像画像はカメラ装置200から随時送信され、記憶部30に記憶される。
次に、推定装置10は、既存の物体検出アルゴリズムを用いて、ステップS101で取得した撮像画像からカートを検出する(ステップS102)。
次に、推定装置10は、既存の物体検出アルゴリズムを用いて、ステップS101で取得した撮像画像から人物を検出し、さらに、既存の姿勢推定および骨格推定アルゴリズムを用いて、検出された人物の2次元骨格情報を検出する(ステップS103)。なお、ステップS102とステップS103との実行順は、逆であってもよいし、並列に実行されてもよい。また、撮像画像から複数の人物が検出された場合、ステップS103以降の処理は、検出した人物ごとに実行される。
次に、推定装置10は、既存技術を用いて、ステップS103で検出した2次元骨格情報の、例えば、腰など基準となる位置に対する各部位の相対的な3次元骨格座標を推定する(ステップS104)。
次に、推定装置10は、撮像画像から検出された人物のバウンディングボックスとカートのバウンディングボックスとに基づいて、検出された人物がカートを把持しているか否かを判定する(ステップS105)。検出された人物がカートを把持していない場合(ステップS106:No)、図18に示すスケール推定処理は終了する。
一方、検出された人物がカートを把持している場合(ステップS106:Yes)、推定装置10は、人物のスケールを推定する(ステップS107)。ステップS107による人物のスケール推定は、ステップS104で推定された相対3次元骨格座標に基づいて人物の両手首の間隔を取得し、当該間隔と、カートの把持部の長さの情報とに基づいて行われる。ステップS107の実行後、図18に示すスケール推定処理は終了する。
次に、推定装置10によって実行される人物の動作検出処理の流れを説明する。図19は、実施例1にかかる動作検出処理の流れを示すフローチャートである。図19に示す動作検出処理は、例えば、人物の行動認識時に1回のみ実行されてよい。
まず、図19に示すように、推定装置10は、カメラ装置200によって小売店の店舗内や敷地内など所定の撮像範囲が撮像された撮像画像を記憶部30から取得する(ステップS201)。
次に、推定装置10は、既存の物体検出アルゴリズムを用いて、ステップS201で取得した撮像画像からカートを検出する(ステップS202)。
次に、推定装置10は、ステップS202で検出されたカートのバウンディングボックス内の部分画像と、カートのCADとを、機械学習モデルに入力し、カートの3次元位置および姿勢を示す直方体領域である3次元矩形領域を検出する(ステップS203)。
次に、推定装置10は、既存の物体検出アルゴリズムを用いて、ステップS201で取得した撮像画像から人物を検出し、さらに、既存の姿勢推定および骨格推定アルゴリズムを用いて、検出された人物の2次元骨格情報を検出する(ステップS204)。なお、ステップS202およびステップS203と、ステップS204との実行順は、逆であってもよいし、並列に実行されてもよい。
次に、推定装置10は、既存技術を用いて、人物の2次元骨格情報の、例えば、腰など基準となる位置に対する各部位の3次元骨格座標を推定する(ステップS205)。
次に、推定装置10は、ステップS205で推定された3次元骨格座標の各部位の座標に対して、ステップS107で推定したスケールを乗算して変換することで、腰など基準となる位置に対する実スケールの相対3次元骨格情報を取得する(ステップS206)。
次に、推定装置10は、ステップS107で推定したスケールとホモグラフィ変換行列とを用いて、ステップS206で取得した相対3次元骨格座標を、世界座標に対してマッピングして絶対3次元骨格情報に変換する(ステップS207)。
次に、推定装置10は、ステップS207で取得した絶対3次元骨格情報と、ステップS203で検出したカートの3次元位置および姿勢に基づいて、人物がカートに商品を入れる動作など、人物の動作を検出する(ステップS208)。ステップS208の実行後、図19に示す動作検出処理は終了するが、ステップS208の動作検出により、人物の不正な行動が認識された場合、推定装置10は、店員端末300などにアラートを通知する。
[効果]
上述したように、推定装置10は、店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、第1の人物の骨格情報を生成し、骨格情報を用いて、第1の人物が第1のカートの把持部を把持している第1の間隔を取得し、第1の間隔と、第1のカートの長さの情報とに基づいて、第1の人物の第1のスケールを推定する。
このように、推定装置10は、撮像画像から特定されたカートを利用している人物の骨格情報を生成し、骨格情報から取得されるカートの把持間隔と、カートの長さ情報とから人物のスケールを推定する。これにより、推定装置10は、撮像画像から人物のスケールをより正確に推定できる。
また、推定装置10は、連続して撮像された複数の第1の画像における第1の人物のバウンディングボックスと第1のカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、第1の人物が把持部を把持していると判定する。
これにより、推定装置10は、撮像画像から人物がカートを把持していることをより正確に判定できる。
また、推定装置10によって実行される、第1のスケールを推定する処理は、複数の第1の画像の各々から推定された第1のスケールの平均値を算出し、第1のスケールとして推定する処理を含む。
これにより、推定装置10は、撮像画像間のスケールの誤差を軽減させ、スケールをより正確に推定できる。
また、推定装置10によって実行される、骨格情報を生成する処理は、第1の人物の2次元骨格情報を生成する処理を含み、推定装置10は、ホモグラフィ変換行列および第1のスケールを用いて、2次元骨格情報を3次元骨格情報に変換する。
これにより、推定装置10は、撮像画像から人物の3次元骨格情報をより正確に推定できる。
また、推定装置10は、店内を撮像した第2の画像における異なる所定の4点の座標と、4点の各々に対応する世界座標とに基づいて、ホモグラフィ変換行列を算出する。
これにより、推定装置10は、撮像画像から人物の3次元骨格情報をより正確に推定できる。
また、推定装置10によって実行される、2次元骨格情報を3次元骨格情報に変換する処理は、ホモグラフィ変換行列および第1のスケールを用いて、2次元骨格情報の所定の2部位の座標を3次元骨格情報の対応する2部位の座標に変換し、2次元骨格情報、3次元骨格情報の対応する2部位の座標、および第1のスケールを用いて、3次元骨格情報における他の部位の座標を算出する処理を含む。
これにより、推定装置10は、撮像画像から人物の3次元骨格情報をより正確に推定できる。
また、推定装置10は、3次元骨格情報に基づいて、第1の人物の所定の行動を認識する。
これにより、推定装置10は、撮像画像から人物の行動をより正確に認識できる。
また、推定装置10は、カートを撮像した画像と、カートのCADデータとを特徴量とし、カートの3次元位置および姿勢データを正解ラベルとして機械学習により生成した機械学習モデルに、第1の画像における第1のカートのバウンディングボックス内の部分画像と、第1のカートのCADデータとを入力し、第1のカートの3次元位置および姿勢データを取得する。
これにより、推定装置10は、撮像画像からカートの3次元情報をより正確に推定できる。
また、推定装置10によって実行される、所定の行動を認識する処理は、3次元骨格情報、および第1のカートの3次元位置および姿勢データに基づいて、第1の人物が商品をカートに入れた動作を検出する処理を含む。
これにより、推定装置10は、撮像画像から人物の行動をより正確に認識できる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報は、特記する場合を除いて任意に変更されてもよい。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更されてもよい。
また、各装置の構成要素の分散や統合の具体的形態は図示のものに限られない。つまり、その構成要素の全部または一部は、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合されてもよい。さらに、各装置の各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図20は、推定装置10のハードウェア構成例を説明する図である。図20に示すように、推定装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図20に示した各部は、バスなどで相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカードなどであり、他の情報処理装置との通信を行う。HDD10bは、図9に示した機能を動作させるプログラムやデータを記憶する。
プロセッサ10dは、図9に示した各処理部と同様の処理を実行するプログラムをHDD10bなどから読み出してメモリ10cに展開することで、図9などで説明した各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、推定装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、画像取得部や物体検出部などと同様の機能を有するプログラムをHDD10bなどから読み出す。そして、プロセッサ10dは、画像取得部や物体検出部などと同様の処理を実行するプロセスを実行する。
このように、推定装置10は、図9に示した各処理部と同様の処理を実行するプログラムを読み出して実行することで動作制御処理を実行する情報処理装置として動作する。また、推定装置10は、媒体読取装置によって記録媒体からプログラムを読み出し、読み出されたプログラムを実行することで上述した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、推定装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本実施形態が同様に適用されてよい。
また、図9に示した各処理部と同様の処理を実行するプログラムは、インターネットなどのネットワークを介して配布できる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行できる。
図21は、情報処理端末1000のハードウェア構成例を説明する図である。利用者端末100および店員端末300は同様の構成を有してよいため、図21では利用者端末100および店員端末300をまとめて情報処理端末1000として利用者端末100および店員端末300のハードウェア構成例として示す。図21に示すように、情報処理端末1000は、通信インタフェース1000a、HDD1000b、メモリ1000c、プロセッサ1000d、入力部1000e、表示部1000fを有する。また、図21に示した各部は、バスなどで相互に接続される。
通信インタフェース1000aは、ネットワークインタフェースカードなどであり、他の情報処理装置との通信を行う。HDD1000bは、情報処理端末1000の各機能を動作させるプログラムやデータを記憶する。
プロセッサ100dは、情報処理端末1000の各機能の処理を実行するプログラムをHDD1000bなどから読み出してメモリ1000cに展開することで、情報処理端末1000の各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、情報処理端末1000が有する各処理部と同様の機能を実行する。
このように、情報処理端末1000は、情報処理端末1000の各機能の処理を実行するプログラムを読み出して実行することで動作制御処理を実行する情報処理装置として動作する。また、情報処理端末1000は、媒体読取装置によって記録媒体からプログラムを読み出し、読み出されたプログラムを実行することで情報処理端末1000の各機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理端末1000によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本実施形態が同様に適用されてよい。
また、情報処理端末1000の各機能の処理を実行するプログラムは、インターネットなどのネットワークを介して配布できる。また、このプログラムは、ハードディスク、FD、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行できる。
入力部1000eは、プロセッサ100dによって実行されるプログラムに対する入力操作など、ユーザによる各種入力操作を検知する。当該入力操作には、例えば、タッチ操作や情報処理端末1000に対するイヤホン端子の挿入などが含まれる。ここでタッチ操作とは、表示部1000fに対する種々の接触動作、例えば、タップ、ダブルタップ、スワイプ、ピンチなどをいう。また、タッチ操作には、表示部1000fに対し、例えば、指などの物体を近づける動作を含む。入力部1000eは、例えば、ボタン、タッチパネル、近接センサなどであってよい。
表示部1000fは、プロセッサ1000dによる制御に基づいて各種視覚情報を表示する。表示部1000fは、液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)、いわゆる有機EL(Electro Luminescence)ディスプレイなどであってよい。
図22は、セルフレジ端末400のハードウェア構成例を説明する図である。図22に示すように、セルフレジ端末400は、通信インタフェース400a、HDD400b、メモリ400c、プロセッサ400d、入力部400e、出力部400fを有する。また、図22に示した各部は、バスなどで相互に接続される。
通信インタフェース400aは、ネットワークインタフェースカードなどであり、他の情報処理装置との通信を行う。HDD400bは、セルフレジ端末400の各機能を動作させるプログラムやデータを記憶する。
プロセッサ400dは、セルフレジ端末400の各機能の処理を実行するプログラムをHDD400bなどから読み出してメモリ400cに展開することで、セルフレジ端末400の各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、セルフレジ端末400が有する各処理部と同様の機能を実行する。
このように、セルフレジ端末400は、セルフレジ端末400の各機能の処理を実行するプログラムを読み出して実行することで動作制御処理を実行する情報処理装置として動作する。また、セルフレジ端末400は、媒体読取装置によって記録媒体からプログラムを読み出し、読み出されたプログラムを実行することでセルフレジ端末400の各機能を実現することもできる。なお、この他の実施例でいうプログラムは、セルフレジ端末400によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本実施形態が同様に適用されてよい。
また、セルフレジ端末400の各機能の処理を実行するプログラムは、インターネットなどのネットワークを介して配布できる。また、このプログラムは、ハードディスク、FD、CD-ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行できる。
入力部400eは、プロセッサ400dによって実行されるプログラムに対する入力操作など、ユーザによる各種入力操作を検知する。当該入力操作には、例えば、タッチ操作などが含まれる。タッチ操作の場合、セルフレジ端末400はさらに表示部を備え、入力部400eによって検知される入力操作は、当該表示部に対するタッチ操作であってよい。入力部400eは、例えば、ボタン、タッチパネル、近接センサなどであってよい。
出力部400fは、プロセッサ400dによって実行されるプログラムから出力されるデータをセルフレジ端末400に接続された外部装置、例えば、外部ディスプレイ装置などを介して出力する。なお、セルフレジ端末400が表示部を備える場合、セルフレジ端末400は出力部400fを備えなくてもよい。
図23は、ゲート用リーダ500のハードウェア構成例を説明する図である。図23に示すように、ゲート用リーダ500は、USBインタフェース500a、イメージセンサ500b、発光部500c、プロセッサ500dを有する。また、図23に示した各部は、バスなどで相互に接続される。
USBインタフェース500aは、他の情報処理装置との通信を行う。
イメージセンサ500bは、ゲート用リーダ500によって読み込まれる対象物が発した、または反射した光を受光し、光の明暗を電気情報に変換する。
発光部500cは、高輝度LEDなどの照明光源であり、ゲート用リーダ500によって読み込まれる対象物を読み取り易くするために光を照射する。なお、ゲート用リーダ500によって読み込まれる対象物またはその対象物を表示する装置などが発光する場合、ゲート用リーダ500は、発光部500cを備えなくてもよい。
プロセッサ500dは、発光部500cを制御して対象物に対し光を照射し、イメージセンサ500bを制御して対象物を電気情報に変換して読み込む。また、プロセッサ500dは、USBインタフェース500aを介して、読み込んだ対象物の電気情報を他の情報処理装置に送信する。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
前記第1の人物の骨格情報を生成し、
前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
処理をコンピュータに実行させることを特徴とする推定プログラム。
(付記2)連続して撮像された複数の前記第1の画像における前記第1の人物のバウンディングボックスと前記第1のカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、前記第1の人物が前記把持部を把持していると判定する処理を前記コンピュータに実行させることを特徴とする付記1に記載の推定プログラム。
(付記3)前記コンピュータによって実行される、前記第1のスケールを推定する処理は、複数の前記第1の画像の各々から推定された前記第1のスケールの平均値を算出し、前記第1のスケールとして推定する処理を含むことを特徴とする付記1に記載の推定プログラム。
(付記4)前記コンピュータによって実行される、前記骨格情報を生成する処理は、前記第1の人物の2次元骨格情報を生成する処理を含み、
ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報を3次元骨格情報に変換する処理を前記コンピュータに実行させることを特徴とする付記1に記載の推定プログラム。
(付記5)店内を撮像した第2の画像における異なる所定の4点の座標と、前記4点の各々に対応する世界座標とに基づいて、ホモグラフィ変換行列を算出する処理を前記コンピュータに実行させることを特徴とする付記4に記載の推定プログラム。
(付記6)前記2次元骨格情報を前記3次元骨格情報に変換する処理は、
前記ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報の所定の2部位の座標を前記3次元骨格情報の対応する2部位の座標に変換し、
前記2次元骨格情報、前記3次元骨格情報の前記対応する2部位の座標、および前記第1のスケールを用いて、前記3次元骨格情報における他の部位の座標を算出する
処理を含むことを特徴とする付記4に記載の推定プログラム。
(付記7)前記3次元骨格情報に基づいて、前記第1の人物の所定の行動を認識する処理を前記コンピュータに実行させることを特徴とする付記4に記載の推定プログラム。
(付記8)カートを撮像した画像と、前記カートのCADデータとを特徴量とし、前記カートの3次元位置および姿勢データを正解ラベルとして機械学習により生成した機械学習モデルに、前記第1の画像における前記第1のカートのバウンディングボックス内の部分画像と、前記第1のカートのCADデータとを入力し、前記第1のカートの3次元位置および姿勢データを取得する処理を前記コンピュータに実行させることを特徴とする付記7に記載の推定プログラム。
(付記9)前記コンピュータによって実行される、前記所定の行動を認識する処理は、前記3次元骨格情報、および前記第1のカートの3次元位置および姿勢データに基づいて、前記第1の人物が商品をカートに入れた動作を検出する処理を含むことを特徴とする付記8に記載の推定プログラム。
(付記10)店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
前記第1の人物の骨格情報を生成し、
前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
処理をコンピュータが実行することを特徴とする推定方法。
(付記11)連続して撮像された複数の前記第1の画像における前記第1の人物のバウンディングボックスと前記第1のカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、前記第1の人物が前記把持部を把持していると判定する処理を前記コンピュータが実行することを特徴とする付記10に記載の推定方法。
(付記12)前記コンピュータによって実行される、前記第1のスケールを推定する処理は、複数の前記第1の画像の各々から推定された前記第1のスケールの平均値を算出し、前記第1のスケールとして推定する処理を含むことを特徴とする付記10に記載の推定方法。
(付記13)前記コンピュータによって実行される、前記骨格情報を生成する処理は、前記第1の人物の2次元骨格情報を生成する処理を含み、
ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報を3次元骨格情報に変換する処理を前記コンピュータに実行させることを特徴とする付記10に記載の推定方法。
(付記14)店内を撮像した第2の画像における異なる所定の4点の座標と、前記4点の各々に対応する世界座標とに基づいて、ホモグラフィ変換行列を算出する処理を前記コンピュータが実行することを特徴とする付記13に記載の推定方法。
(付記15)前記2次元骨格情報を前記3次元骨格情報に変換する処理は、
前記ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報の所定の2部位の座標を前記3次元骨格情報の対応する2部位の座標に変換し、
前記2次元骨格情報、前記3次元骨格情報の前記対応する2部位の座標、および前記第1のスケールを用いて、前記3次元骨格情報における他の部位の座標を算出する
処理を含むことを特徴とする付記13に記載の推定方法。
(付記16)前記3次元骨格情報に基づいて、前記第1の人物の所定の行動を認識する処理を前記コンピュータが実行することを特徴とする付記13に記載の推定方法。
(付記17)カートを撮像した画像と、前記カートのCADデータとを特徴量とし、前記カートの3次元位置および姿勢データを正解ラベルとして機械学習により生成した機械学習モデルに、前記第1の画像における前記第1のカートのバウンディングボックス内の部分画像と、前記第1のカートのCADデータとを入力し、前記第1のカートの3次元位置および姿勢データを取得する処理を前記コンピュータが実行することを特徴とする付記16に記載の推定方法。
(付記18)前記コンピュータによって実行される、前記所定の行動を認識する処理は、前記3次元骨格情報、および前記第1のカートの3次元位置および姿勢データに基づいて、前記第1の人物が商品をカートに入れた動作を検出する処理を含むことを特徴とする付記17に記載の推定方法。
(付記19)店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
前記第1の人物の骨格情報を生成し、
前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
処理を実行する制御部を有することを特徴とする推定装置。
(付記20)連続して撮像された複数の前記第1の画像における前記第1の人物のバウンディングボックスと前記第1のカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、前記第1の人物が前記把持部を把持していると判定する処理を前記制御部が実行することを特徴とする付記19に記載の推定装置。
(付記21)前記制御部によって実行される、前記第1のスケールを推定する処理は、複数の前記第1の画像の各々から推定された前記第1のスケールの平均値を算出し、前記第1のスケールとして推定する処理を含むことを特徴とする付記19に記載の推定装置。
(付記22)前記制御部によって実行される、前記骨格情報を生成する処理は、前記第1の人物の2次元骨格情報を生成する処理を含み、
ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報を3次元骨格情報に変換する処理を前記制御部に実行させることを特徴とする付記19に記載の推定装置。
(付記23)店内を撮像した第2の画像における異なる所定の4点の座標と、前記4点の各々に対応する世界座標とに基づいて、ホモグラフィ変換行列を算出する処理を前記制御部が実行することを特徴とする付記22に記載の推定装置。
(付記24)前記2次元骨格情報を前記3次元骨格情報に変換する処理は、
前記ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報の所定の2部位の座標を前記3次元骨格情報の対応する2部位の座標に変換し、
前記2次元骨格情報、前記3次元骨格情報の前記対応する2部位の座標、および前記第1のスケールを用いて、前記3次元骨格情報における他の部位の座標を算出する
処理を含むことを特徴とする付記22に記載の推定装置。
(付記25)前記3次元骨格情報に基づいて、前記第1の人物の所定の行動を認識する処理を前記制御部が実行することを特徴とする付記22に記載の推定装置。
(付記26)カートを撮像した画像と、前記カートのCADデータとを特徴量とし、前記カートの3次元位置および姿勢データを正解ラベルとして機械学習により生成した機械学習モデルに、前記第1の画像における前記第1のカートのバウンディングボックス内の部分画像と、前記第1のカートのCADデータとを入力し、前記第1のカートの3次元位置および姿勢データを取得する処理を前記制御部が実行することを特徴とする付記25に記載の推定装置。
(付記27)前記制御部によって実行される、前記所定の行動を認識する処理は、前記3次元骨格情報、および前記第1のカートの3次元位置および姿勢データに基づいて、前記第1の人物が商品をカートに入れた動作を検出する処理を含むことを特徴とする付記26に記載の推定装置。
(付記28)プロセッサと、
プロセッサに動作可能に接続されたメモリと
を備えた推定装置であって、プロセッサは、
店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
前記第1の人物の骨格情報を生成し、
前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
処理を実行することを特徴とする推定装置。
1 不正検知システム
10 推定装置
10a 通信インタフェース
10b HDD
10c メモリ
10d プロセッサ
20 通信部
30 記憶部
40 制御部
50 ネットワーク
100 利用者端末
200 カメラ装置
250、251、252 撮像画像
260 レイアウト図
300 店員端末
400 セルフレジ端末
400a 通信インタフェース
400b HDD
400c メモリ
400d プロセッサ
400e 入力部
400f 出力部
500 ゲート用リーダ
500a USBインタフェース
500b イメージセンサ
500c 発光部
500d プロセッサ
1000 情報処理端末
1000a 通信インタフェース
1000b HDD
1000c メモリ
1000d プロセッサ
1000e 入力部
1000f 表示部

Claims (11)

  1. 店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
    前記第1の人物の骨格情報を生成し、
    前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
    前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
    処理をコンピュータに実行させることを特徴とする推定プログラム。
  2. 連続して撮像された複数の前記第1の画像における前記第1の人物のバウンディングボックスと前記第1のカートのバウンディングボックスとの中心座標間の距離の分散が所定の閾値以下である場合、前記第1の人物が前記把持部を把持していると判定する処理を前記コンピュータに実行させることを特徴とする請求項1に記載の推定プログラム。
  3. 前記コンピュータによって実行される、前記第1のスケールを推定する処理は、複数の前記第1の画像の各々から推定された前記第1のスケールの平均値を算出し、前記第1のスケールとして推定する処理を含むことを特徴とする請求項1に記載の推定プログラム。
  4. 前記コンピュータによって実行される、前記骨格情報を生成する処理は、前記第1の人物の2次元骨格情報を生成する処理を含み、
    ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報を3次元骨格情報に変換する処理を前記コンピュータに実行させることを特徴とする請求項1に記載の推定プログラム。
  5. 店内を撮像した第2の画像における異なる所定の4点の座標と、前記4点の各々に対応する世界座標とに基づいて、ホモグラフィ変換行列を算出する処理を前記コンピュータに実行させることを特徴とする請求項4に記載の推定プログラム。
  6. 前記2次元骨格情報を前記3次元骨格情報に変換する処理は、
    前記ホモグラフィ変換行列および前記第1のスケールを用いて、前記2次元骨格情報の所定の2部位の座標を前記3次元骨格情報の対応する2部位の座標に変換し、
    前記2次元骨格情報、前記3次元骨格情報の前記対応する2部位の座標、および前記第1のスケールを用いて、前記3次元骨格情報における他の部位の座標を算出する
    処理を含むことを特徴とする請求項4に記載の推定プログラム。
  7. 前記3次元骨格情報に基づいて、前記第1の人物の所定の行動を認識する処理を前記コンピュータに実行させることを特徴とする請求項4に記載の推定プログラム。
  8. カートを撮像した画像と、前記カートのCAD(Computer Aided Design)データとを特徴量とし、前記カートの3次元位置および姿勢データを正解ラベルとして機械学習により生成した機械学習モデルに、前記第1の画像における前記第1のカートのバウンディングボックス内の部分画像と、前記第1のカートのCADデータとを入力し、前記第1のカートの3次元位置および姿勢データを取得する処理を前記コンピュータに実行させることを特徴とする請求項7に記載の推定プログラム。
  9. 前記コンピュータによって実行される、前記所定の行動を認識する処理は、前記3次元骨格情報、および前記第1のカートの3次元位置および姿勢データに基づいて、前記第1の人物が商品をカートに入れた動作を検出する処理を含むことを特徴とする請求項8に記載の推定プログラム。
  10. 店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
    前記第1の人物の骨格情報を生成し、
    前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
    前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
    処理をコンピュータが実行することを特徴とする推定方法。
  11. 店内を撮像した第1の画像から、第1のカートを利用している第1の人物を特定し、
    前記第1の人物の骨格情報を生成し、
    前記骨格情報を用いて、前記第1の人物が前記第1のカートの把持部を把持している第1の間隔を取得し、
    前記第1の間隔と、前記第1のカートの長さの情報とに基づいて、前記第1の人物の第1のスケールを推定する
    処理を実行する制御部を有することを特徴とする推定装置。

JP2021159861A 2021-09-29 2021-09-29 推定プログラム、推定方法、および推定装置 Pending JP2023049861A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021159861A JP2023049861A (ja) 2021-09-29 2021-09-29 推定プログラム、推定方法、および推定装置
US17/891,546 US20230094892A1 (en) 2021-09-29 2022-08-19 Computer-readable recording medium, estimation method, and estimation device
EP22191674.5A EP4160533A1 (en) 2021-09-29 2022-08-23 Estimation program, estimation method, and estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021159861A JP2023049861A (ja) 2021-09-29 2021-09-29 推定プログラム、推定方法、および推定装置

Publications (1)

Publication Number Publication Date
JP2023049861A true JP2023049861A (ja) 2023-04-10

Family

ID=83050088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021159861A Pending JP2023049861A (ja) 2021-09-29 2021-09-29 推定プログラム、推定方法、および推定装置

Country Status (3)

Country Link
US (1) US20230094892A1 (ja)
EP (1) EP4160533A1 (ja)
JP (1) JP2023049861A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9247211B2 (en) * 2012-01-17 2016-01-26 Avigilon Fortress Corporation System and method for video content analysis using depth sensing
US9911290B1 (en) 2015-07-25 2018-03-06 Gary M. Zalewski Wireless coded communication (WCC) devices for tracking retail interactions with goods and association to user accounts
US10535146B1 (en) 2018-07-16 2020-01-14 Accel Robotics Corporation Projected image item tracking system

Also Published As

Publication number Publication date
EP4160533A1 (en) 2023-04-05
US20230094892A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
US10373322B1 (en) Autonomous store system that analyzes camera images to track people and their interactions with items
US20200202163A1 (en) Target positioning system and target positioning method
US20150039458A1 (en) Method and system for automated retail checkout using context recognition
JP2024008245A (ja) 情報処理プログラム、情報処理方法、および情報処理装置
Liu et al. Simple method integrating OpenPose and RGB-D camera for identifying 3D body landmark locations in various postures
Adikari et al. Non Contact Human Body Parameter Measurement Based on Kinect Sensor
EP4125056A1 (en) Information processing program, information processing method, and information processing device
CN112154488B (zh) 信息处理装置、控制方法和程序
EP4160533A1 (en) Estimation program, estimation method, and estimation device
EP4174788A1 (en) Learning program, learning method, and information processing apparatus
JP7318680B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP2023064427A (ja) 推論プログラム、学習プログラム、推論方法および学習方法
EP4202880A1 (en) Information processing program, information processing method, and information processing apparatus
US20230267743A1 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP7315049B1 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
US20230267486A1 (en) Computer-readable recording medium, information processing method, and information processing apparatus
JP7318683B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
JP7318684B2 (ja) 情報処理プログラム、情報処理方法、および情報処理装置
WO2023148856A1 (ja) 購買分析装置、購買分析方法、及び非一時的なコンピュータ可読媒体
US20230033062A1 (en) Non-transitory computer-readable recording medium, customer service detection method, and information processing device
US20230267639A1 (en) Non-transitory computer readable recording medium, distribution method, and information processing apparatus
JP2018055233A (ja) 情報処理装置、制御方法、及びプログラム
JP2023051360A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP2024008708A (ja) 判定プログラム、判定方法、および判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240611