JP2023550084A - イベントを識別するためのセンサデータの分析 - Google Patents
イベントを識別するためのセンサデータの分析 Download PDFInfo
- Publication number
- JP2023550084A JP2023550084A JP2023529063A JP2023529063A JP2023550084A JP 2023550084 A JP2023550084 A JP 2023550084A JP 2023529063 A JP2023529063 A JP 2023529063A JP 2023529063 A JP2023529063 A JP 2023529063A JP 2023550084 A JP2023550084 A JP 2023550084A
- Authority
- JP
- Japan
- Prior art keywords
- voi
- analyzing
- user
- image data
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title description 4
- 230000000007 visual effect Effects 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims description 72
- 230000011218 segmentation Effects 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 21
- 230000003993 interaction Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000010191 image analysis Methods 0.000 description 41
- 238000007726 management method Methods 0.000 description 40
- 230000004044 response Effects 0.000 description 38
- 230000008569 process Effects 0.000 description 20
- 230000033001 locomotion Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 230000007704 transition Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 230000000153 supplemental effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 241000238557 Decapoda Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 230000005291 magnetic effect Effects 0.000 description 3
- 235000013372 meat Nutrition 0.000 description 3
- 239000002304 perfume Substances 0.000 description 3
- 238000007639 printing Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 240000008415 Lactuca sativa Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 235000013339 cereals Nutrition 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004570 mortar (masonry) Substances 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 235000012045 salad Nutrition 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005007 materials handling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 235000014102 seafood Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1408—Methods for optical code recognition the method being specifically adapted for the type of code
- G06K7/1413—1D bar codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/20—Point-of-sale [POS] network systems
- G06Q20/203—Inventory monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0633—Lists, e.g. purchase orders, compilation or processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/0036—Checkout procedures
- G07G1/0045—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader
- G07G1/0054—Checkout procedures with a code reader for reading of an identifying code of the article to be registered, e.g. barcode reader or radio-frequency identity [RFID] reader with control of supplementary check-parameters, e.g. weight or number of articles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Toxicology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本開示は、環境(106)内の第1のユーザ(102)が、商品(104)に関連付けられたバーコードなどの視覚的な印をスキャンした後、その商品を第2のユーザ(110)に手渡す技術を対象とする。1つ以上のコンピューティングデバイス(118)は、スキャンの指標を受信し、環境(106)内のカメラ(116)から対話の画像データを取り出し、商品を受け取ったユーザ(110)を識別し、第2のユーザ(110)に関連付けられた仮想カート(138)を更新して商品(104)の追加を示し得る。【選択図】図1
Description
関連出願の相互参照
本出願は、2020年11月30日に出願された「ANALYZING SENSOR DATA TO IDENTIFY EVENTS」と題された米国特許出願第17/106,755号の優先権を主張するものであり、その全内容は参照により本明細書に組み込まれる。
本出願は、2020年11月30日に出願された「ANALYZING SENSOR DATA TO IDENTIFY EVENTS」と題された米国特許出願第17/106,755号の優先権を主張するものであり、その全内容は参照により本明細書に組み込まれる。
小売業者、卸売業者、及び他の製品販売業者は、典型的に、取引先又は顧客によって注文、購入、リース、借用、レンタル、閲覧などされ得る様々な商品の在庫を維持する。例えば、電子商取引ウェブサイトは、フルフィルメントセンタに在庫を維持し得る。顧客が商品を注文すると、商品は在庫から選択され、梱包ステーションに送られ、梱包されて顧客に出荷される。同様に、実店舗は、ショッピングエリア内などの顧客アクセス可能なエリア内に在庫を維持し、顧客は在庫から商品を選択し、購入、レンタルなどのためにそれらの商品をレジ係に持っていくことができる。多くの実店舗はまた、保管エリア、フルフィルメントセンタ、又は他の施設にも在庫を維持することができ、これらはショッピングエリアに位置する在庫を補充するため、又は他のチャネル(例えば、電子商取引)を通じて行われる商品の注文を満たすために使用することができる。在庫を保持する施設を維持するエンティティの他の例として、図書館、博物館、レンタルセンタなどが挙げられる。各事例では、商品をある場所から別の場所に移動させる場合、その商品は、現在の場所から選択され、新しい場所に移行され、ユーザは、施設内を移動することなどを行い得る。多くの場合、施設内で発生するイベントに関する情報を生成することが望ましい。
US10332066
詳細な説明が、添付図を参照して記載される。各図において、参照番号の左端数字は、参照番号が最初に現れる図を識別する。異なる図における同じ参照番号の使用は、類似又は同一の項目又は特徴を示す。
本開示は、施設内のセンサによって生成されたセンサデータを使用して、施設内で発生するイベントを識別するためのシステム及び技術を対象とする。一例では、本技術及びシステムは、スキャニングデバイスを使用して商品の視覚的な印(例えば、バーコード、QRコード(登録商標)など)をスキャンする第1のユーザと、この商品を受け取る第2のユーザとに応答して、イベントを識別し得る。商品を受け取る第2のユーザを識別した後、システム及び技術は、商品の追加を示すために、第2のユーザに関連付けられた仮想カートを更新し得る。いくつかの例では、システム及び技術は、「ジャスト・ウォークアウト」小売環境内で実施され得、その場合、それぞれのユーザの仮想カートが維持され、これによりユーザは、商品を取り出すか別様に受け取り、次いで、ユーザが施設を退出するのに応答してユーザのそれぞれの事前記憶された支払い手段にユーザの仮想カートの費用を請求できるように、施設から「ジャスト・ウォークアウト(ただ歩いて出ていく)」することができる。
以下に説明されるいくつかの例では、施設の関係者(例えば、従業員など)は、商品の視覚的な印をスキャンした後、その商品を施設内の顧客に手渡し得る。いくつかの事例では、商品は、オーダーメイドの商品(例えば、カスタマイズされたサラダ又はサンドイッチなど)、可変重量の商品(例えば、一定量のシーフード又は肉など)、可変量の商品(例えば、一定長のキルティング生地)、又は顧客が実際に受け取った商品の量又は他のパラメータ(例えば、トッピング)に応じてコストが変化する任意の他のタイプの商品を含む。したがって、顧客が1ポンドのエビ、1ヤードの布地などの注文を行った後、関係者は、要求された量の要求された商品を包装し得、印刷デバイスを使用して、商品に関連付けられた視覚的な印を印刷し得る。例えば、関係者は、秤を使用して商品の量を計測し、プリンタを使用してバーコード、QRコード(登録商標)などを印刷し得、この視覚的な印は、商品の商品識別子、商品の重量/量、商品の費用、スキャンの時刻など、商品に関する情報を符号化している。いくつかの事例では、関係者は、次いで、商品又は商品のパッケージに視覚的な印を貼り付け得る。例えば、プリンタは、視覚的な印を含む粘着ステッカを印刷し得、それを次に関係者が、商品又はパッケージに接着し得る。
商品に視覚的な印を貼り付けた後、関係者は、次いで、スキャニングデバイスを使用して視覚的な印をスキャンし得る。例えば、関係者は、バーコードスキャナ、タブレットコンピューティングデバイス、又はカメラ若しくは他の撮像デバイスを含む任意の他のデバイスを使用して、視覚的な印に関する情報を識別し得るか、又は別様にキャプチャし得る。スキャニングデバイスは、商品の識別情報、商品の重量/量、商品の費用、スキャンの時刻など、上記の情報を示すスキャンデータを生成し得る。次いで、このスキャンデータは、1つ以上のネットワークを介して1つ以上のコンピューティングデバイスに送信され得、この1つ以上のコンピューティングデバイスは、スキャンデータを検証し、その後、スキャンデータに関連付けられた商品に関連付けられたイベントを判定することを試みるように構成されている。コンピューティングデバイスに送信されるスキャンデータは、スキャニングデバイスにサインインした関係者の識別子、スキャニングデバイスの識別子などを含み得るか、又はそれを伴い得る。
コンピューティングデバイスは、スキャンデータを受信し得、それに応答して、又は後の時点で、スキャンデータに関与する任意のイベントを判定することを試み得る。例えば、コンピューティングデバイスは、スキャンデータを生成したスキャニングデバイスの識別子を判定し得、スキャニングデバイスに関連付けられた施設内の関心体積(VOI)を判定し得る。すなわち、施設内の各スキャニングデバイスは、施設内のそれぞれのVOIに関連付けられ得、VOIは、顧客が、スキャンデータに関連付けられた商品と相互作用する(例えば、商品を受け取る)可能性が高い、環境の一部分(例えば、XYZ座標で画定される)を含み得る。例えば、各スキャニングデバイスのVOIは、上にスキャニングデバイスが据えられたカウンタトップの一部又は全てにわたる、事前定義された長さ(例えば、天井まで)上昇する境界ボックスなど、それぞれのスキャニングデバイスに対して画定されたXYZの「ボックス」を含み得る。いくつかの事例では、これらのVOIは、環境内の各スキャニングデバイスに対して手動で構成され、他の例では、VOIは、施設内のカメラ(例えば、頭上カメラ)を使用して、スキャニングデバイスの画像データ及びこれらのデバイスの周囲の領域を分析することによって判定され得る。
いずれの事例においても、スキャンデータを受信すると、又はその後のある時点で、コンピューティングデバイスは、スキャンデータを生成するために使用されるスキャニングデバイスの識別子を判定し得、これは次に、スキャニングデバイスのそれぞれのVOIを判定するために使用され得る。VOIを識別すると、コンピューティングデバイスは、VOIを含む視野(FOV)を有する施設内のカメラを判定し得る。加えて、コンピューティングデバイスは、スキャンデータから、商品のスキャンに関連付けられた時刻を判定し得る。それらのFOV内において、現在のVOIを有する1つ以上のカメラを識別すると、コンピューティングデバイスは、このカメラ(又は複数のカメラ)によってスキャンの時刻の最も近くに生成された画像データを取り出し得る。すなわち、コンピューティングデバイスは、商品のスキャンにまたがる(例えば、スキャンの直前及びスキャン後)画像データ、スキャンの開始時又はスキャンの直後における画像データなどを取り出し得る。
この画像データを受信すると、コンピューティングデバイスは、1つ以上の訓練された分類子を使用して、スキャンに関連付けられた商品に関与する任意のイベントを判定し得る。例えば、コンピューティングデバイスは、最初に画像データの個々のフレームに対してセグメンテーション技術を実施して、フレーム内に表されるものを識別し得る。例えば、コンピューティングデバイスは、画像データのフレーム内で、ユーザ、ユーザの部分(例えば、手、頭、身体、腕など)、背景、カウンタトップなどを識別するように構成され得る。これらのデバイスは、教師あり学習又は他の技術を使用して訓練された分類子を利用して、事前定義された対象物を識別し得る。いくつかの事例では、これらの分類子は、第1の場所における第1の画素が背景に対応すること、第2の画素が手に対応することなどの指標のような、異なる対象物に対応する画素値の指標を出力する。
コンピューティングデバイスは、このセグメンテーションマップを使用して、商品のスキャニング前後の時空間ウィンドウ内に1つ以上の手が存在するかどうかを識別し得る。すなわち、デバイスは、スキャンの閾値時間量内にある画像データのフレームのいずれかが、スキャニングデバイスのVOI内にある手を含むと判断し得る。そうであった場合、コンピューティングデバイスは、スキャンの閾値時間量内に手がVOI内にあるユーザのユーザ識別子を判定し得る。このユーザ識別子を識別することに応答して、コンピューティングデバイスは、ユーザに関連付けられた仮想カートを更新し得る。
いくつかの事例では、コンピューティングデバイスは、単に画像データのフレーム内の手を識別することに基づいてではなく、経時的にこの判定を行い得る。例えば、ユーザの手を識別するように訓練されていることに加えて、分類子は、手が満たされている可能性が高いか、又は空である可能性が高いかを示すスコアを出力するように訓練され得る。更に、コンピューティングデバイスは、それぞれのフレームが手を含むかどうかを示す第1のスコア、識別された手(存在する場合)が空であるか又は満たされているかを示す第2のスコアのそれぞれの指標を格納し得る。コンピューティングデバイスはまた、識別された手の場所も格納し得る。この情報の一部又は全ては、デバイスが、識別された手が経時的にVOI内でどのように移動したかを示す動きベクトルを識別することができるなど、経時的に格納され得る。
例えば、スキャンデータに関連付けられた時空間ウィンドウを判定した後、コンピューティングデバイスは、画像データのフレームに関連付けられた特徴データを生成し、この特徴データを1つ以上の訓練された分類子に入力することによって、この時空間内の画像を分析し得る。これらの分類子は、画像データを用いた手の場所、(存在する場合)手が空であるか又は満たされているかの指標、及び(存在する場合)手の場所を示し得る。空の手がVOIに「入る」こと、及び満たされた手がVOIから「出る」ことを識別することに応答して、コンピューティングデバイスは、その手に関連付けられたユーザが商品を受け取ったと判定し得る。
このように、ユーザが商品を受け取ったと判定することに応答して、システムは、所与の時刻に施設内の各ユーザ識別子の場所を維持するように構成された場所特定コンポーネントを呼び出し得るか、又は別様にそれと対話し得る。すなわち、ユーザが施設に入場すると、システムは、このユーザにユーザ識別子を割り当て(これは、いくつかの事例では、個人識別データと無関係であり得る)、経時的に施設内のユーザ識別子の場所を維持するために、画像データ及び/又は同様のものを使用し得る。このように、コンピューティングデバイスが、手がスキャンデータに関連付けられた時空間ウィンドウ内で商品を受け取ったと判定すると、コンピューティングデバイスは、場所特定コンポーネントから、受け渡しの時点で商品の場所に存在していたユーザ識別子を判定し得る。ユーザ識別子の指標を受信すると、システムは、ユーザ識別子に関連付けられた仮想カートを更新して、商品の追加を示し得る。例えば、ユーザの仮想カートは、彼女が受け取ったことを示すように更新され得る。価格9.89ドルの1.2ポンドのエビ。
このように、本技術により、顧客がオーダーメイド又は可変重量/サイズの商品を関係者に要求することを可能にし、関係者は、商品を準備し、商品の費用についての視覚的な印を印刷し、商品に視覚的な印を貼り付け、視覚的な印をスキャンし、要求するユーザに商品を有していた可能性がある。これに応答して、又はこの対話の後のある時点で、本明細書において説明されるシステム及び技術は、この対話を表す画像データを分析して、どのユーザが実際に商品を受け取ったかを判定し得る。例えば、システム及び技術は、スキャニングデバイスに関連付けられた事前定義されたVOIを閾値時間量内に分析して、VOI内の手の存在、並びに潜在的に、それが満たされていたか空であったか、その手の経時的な場所及び/又は同様のものなど、手に関する情報を識別し得る。この情報を使用して、手、したがってユーザが実際に商品を受け取ったことが判定され得る。この判定を行った後、システム及び技術は、次いで、その手にどのユーザが関連付けられているかを判定し得、この判定を行った後、適切なユーザの仮想カートを更新し得る。
いくつかの事例では、本明細書において説明されるシステム及び技術は、コンピューティングデバイスがスキャンデータの指標を受信することに応答して実施され得る。すなわち、関係者(又は他のユーザ)が商品をスキャンするのに応答して、本技術を実施し、それに応じて、商品を受け取るユーザに関連付けられたユーザ識別子を判定し得る。一方、他の事例では、異なるトリガがこの判定を引き起こし得る。例えば、本技術は、ユーザが施設を退出することに応答してユーザの仮想カートの内容を判定するシステム内で、実施され得る。この例では、システムは、施設内の潜在的な各イベントの候補ユーザのセットを判定し、ユーザが環境を出ることに応答して、特定のユーザの各イベントを解決し得る。例えば、商品が肉カウンタでスキャンされたときに、特定のユーザが施設の肉カウンタの近く(例えば、閾値距離内)にいた場合、このユーザは、スキャンされたこの商品に関与するこの特定のイベントの候補ユーザとしてマークされ得る。ユーザが店舗を退出すると、システムは、上記及び下記において説明される技術を使用して、この商品を受け取ったのが実際にこのユーザであったかどうかを判定し得、そうであった場合、この時点で、ユーザの仮想カートを更新し得る。要するに、異なるトリガが、本明細書において説明される技術の実行を引き起こし得る。
加えて、上記の例は、視覚ベースの分類子を使用して、商品を受け取るユーザを判定するためにVOI内の手の存在(及び潜在的に、状態及び方向)を判定することを説明するが、他の例では、1つ以上の他の要因を使用して、この判定を行うことができる。例えば、視覚アルゴリズムを使用して、スキャニングデバイスによってスキャンされる商品を、施設内の別のユーザによって受け取られるまで追跡し得る。すなわち、商品がスキャンされるときに、1つ以上のコンピュータビジョンアルゴリズムを使用して、スキャンされた商品を識別し、少なくとも商品をスキャンしたユーザとは異なるユーザがその商品を受け取るまで、経時的に画像データ内のスキャンされた商品の場所(例えば、VOI内又はその他)を追跡し得る。この時点で、受け取りユーザの仮想カートが更新され得る。
加えて、又は代替として、関係者(又は商品をスキャンした他のユーザ)の場所は、経時的に維持され得る。例えば、関係者が商品をスキャンすると、1つ以上のコンピュータビジョンアルゴリズムを使用して、スキャンを実施した関係者を識別し、商品が別のユーザに渡されるまで、画像データ内で経時的にこの関係者を場所特定し続けることができる。その結果として、ここでも、受け取りユーザに関連付けられた仮想カートが更新され得る。
更に、上記及び下記の考察には、固定された場所に関連付けられたスキャニングデバイスの例が含まれるが、店舗の関係者がモバイルデバイスを使用して商品をスキャンし、それぞれのユーザにそれらの商品を手渡す例など、本技術がモバイルスキャニングデバイスにも適用され得ることを理解されたい。例えば、関係者がモバイルスキャニングデバイスを使用して商品をスキャンすると、デバイスは、上で説明される1つ以上のコンピューティングデバイスにスキャンデータを提供し得る。これらのコンピューティングデバイスは、モバイルスキャニングデバイスの識別子を使用して、施設内のモバイルデバイス及び/又は関係者の、現在の場所を判定し得る。すなわち、コンピューティングデバイスは、店舗内の顧客及び関係者の現在の場所を維持するシステムの追跡コンポーネントを使用して、デバイス及び/又は関係者の場所を判定し得る。次いで、この情報を使用して、モバイルスキャニングデバイスの現在の場所のFOVを有する1つ以上のカメラ(例えば、頭上カメラ)を判定し得る。次いで、コンピューティングデバイスは、スキャニングデバイスの周りのVOIを分析するために、これらのカメラから画像データを取得し得る。上記のように、VOIは、スキャニングデバイスの場所に対して画定され得る。次いで、コンピューティングデバイスは、上記で紹介され、以下で更に詳細に説明される技術を使用して、VOIに入る顧客の空の手及びVOIから出る満たされた手など、VOI内の顧客の手を識別し得る。次いで、この手に関連付けられたユーザ識別子を使用して、対応するユーザの仮想カートが更新され得る。
最後に、本明細書に含まれる例は、単一の商品を参照して説明されているが、本技術は、複数の商品にも適用され得ることを理解されたい。これらの事例では、関係者は、複数の商品を連続してスキャンした後、商品のグループ又は商品の容器(例えば、袋又は箱)を顧客に手渡し得る。ここで、コンピューティングデバイスは、最初に、それぞれのスキャンデータから、これらの商品が互いに相対的な閾値時間量内にスキャンされたと判定し得る。例えば、コンピューティングデバイスは、ある商品のスキャンと後続の商品との間の経過時間が閾値量未満であり、したがってこれらの商品が連続してスキャンされたことを判定し得る。この判定を行うことに応答して、コンピューティングデバイスは、上で説明される技術を使用して手についてVOIを分析し得、連続してスキャンされた商品の各々を、手に関連付けられた、判定されたユーザ識別子に関連付け得る。このように、関係者が、例えば、5つの商品をスキャンした後にこれらの商品を(例えば、バッグで)顧客に手渡す場合、本技術は、これらの5つの商品の各々を、VOI内で手が識別される同じ顧客に関連付け得る。更に、上記の例は、コンピューティングデバイスが、これらの商品が互いの閾値時間でスキャンされていることに基づいて、商品のグループが関連していると判断することを説明しているが、別の例では、スキャニングデバイスは、複数の商品がスキャンされることになること、かつこれらの商品が単一の顧客のためのものであることを示すための、関係者によって選択可能な制御(例えば、アイコン)を含み得る。このように、複数の商品のスキャンデータがコンピューティングデバイスによって受信されると、コンピューティングデバイスは、説明される手の識別技術及び手の追跡技術に基づいて、各商品を共通のユーザ識別子に関連付けることを判定し得る。
以下の説明では、材料取り扱い施設内での技術の使用について説明する。本明細書において説明される施設としては、倉庫、物流センタ、クロスドッキング施設、注文フルフィルメント施設、梱包施設、出荷施設、レンタル施設、図書館、小売店、卸売店、博物館、若しくは他の施設、又は材料(在庫)取り扱いの1つ以上の機能を実施するための施設の組み合わせが挙げられ得るが、これらに限定されない。他の実施態様では、本明細書において説明される技術は、他の施設又は状況で実施され得る。本開示の特定の実施態様及び実施形態はここで、様々な態様が示されている添付の図を参照しながら、以下により完全に説明される。しかしながら、それらの様々な態様は、多くの異なる形態で実装され得、本明細書に記載される実施態様に限定されるものと解釈されるべきものではない。本開示は、本明細書において説明されるように、それらの実施形態のバリエーションを包含する。同じ番号は、全体を通じて、同じ要素を指す。
図1は、第1のユーザ102がスキャニングデバイス108を使用して環境106内の商品104をスキャンする、例示的なアーキテクチャ100を例解する。例えば、第1のユーザ102は、小売施設の関係者(例えば、従業員など)を含み得、商品の詳細を符号化するか又は別様に示すスキャンデータを生成することができる任意のタイプのデバイスを使用して、バーコード、QRコード(登録商標)、テキストなど、商品104に関連付けられた視覚的な印をスキャンし得る。例えば、スキャニングデバイス108は、商品104に貼り付けられたバーコード又はQRコード(登録商標)を読み取るように構成されたデバイスを備え得る。一方、商品104は、いくつかの事例では、オーダーメイド又は可変重量商品を含み得、したがって、第1のユーザ102は、秤、印刷デバイス及び/又は同様のものを使用して、バーコードなどの視覚的な印を生成し得る。バーコードなどを物理的に印刷した後、第1のユーザは、商品104をスキャンする前又は後のいずれかにおいて、商品104に視覚的な印を貼り付け(例えば、接着し)得る。
スキャニングデバイス108を使用して商品104をスキャンした後、第1のユーザ102は、商品104を第2のユーザ110に渡し得、第2のユーザ110が取得するために商品104をカウンタの上に置くなどを行い得る。いずれの事例においても、第2のユーザ110は、商品104を受け取るために、スキャニングデバイス108に関連付けられた関心体積(VOI)114の中に彼又は彼女の手112を伸ばす。VOI114は、スキャニングデバイス108に関連付けられた、環境106内の三次元領域を含み得る。例解されていないが、環境106は、複数のスキャニングデバイスを含み得、それらの各々が、それぞれのVOIに関連付けられ得る。
いくつかの事例では、環境106内の各VOI114は、例解されたスキャニングデバイス108などのそれぞれのスキャニングデバイスに対して画定され得る。例えば、環境106が最初にスキャニングデバイス及びカメラなどのセンサを用いて構成されるとき、関連付けは、環境106のそれぞれの三次元空間である各スキャニングデバイスによって格納され得る。この三次元空間は、それぞれのスキャニングデバイス108に隣接し得るVOI114を含み得、スキャニングデバイス108及び/又は同様のものを含み得る。一例では、VOI114は、上にスキャニングデバイス108が据えられたカウンタトップの上方の三次元空間に対応する。別の例では、VOI114は、スキャニングデバイスを中心とした半径によって画定された体積を含む。したがって、VOI114は、球、立方体などのような任意の形状の三次元体積を含み得る。更に、最初のVOIがスキャナに関連付けて格納された後、VOIは、環境内で対話が発生するにつれて経時的に調整され得る。更にまた、上記の例は、VOIをスキャナと事前に関連付けることを説明しているが、他の事例では、VOIは、環境106内で対話が発生すると動的に判定され得る。
例解されるように、環境106は、商品104を受け取る第2のユーザ110を識別するなど、商品を受け取るユーザを識別するために使用され得る画像データを生成するための、カメラ116などの1つ以上のカメラを更に含み得る。環境106は、環境106の異なる及び/又は重なり合う部分の画像データを取得するように構成された、頭上カメラ、棚内カメラ及び/又は同様のものなどの複数のカメラを含み得る。更に、各VOIと、VOIの一部又は全てを含むそれぞれの視野(FOV)を有する1つ以上のカメラとの間の関連付けが格納され得る。例えば、カメラ116のFOVが環境106のVOI114を含むと仮定すると、例解されたVOI114と例解されたカメラ116との間の関連付けが格納され得る。
スキャニングデバイス108がスキャンデータを生成することに応答して、スキャニングデバイス108は、スキャンデータを1つ以上のネットワーク120を介して1つ以上のサーバコンピューティングデバイス118に送信し得る。ネットワーク102は、1つ以上の有線及び/又は無線ネットワークの任意の組み合わせを表し得る。一方、サーバコンピューティングデバイス118は、環境に存在し得、環境から離れて存在し得、かつ/又はそれらの組み合わせであり得る。例解されるように、サーバコンピューティングデバイス118は、1つ以上のプロセッサ122及びメモリ124を備え得、メモリ124は、場所特定コンポーネント126、画像分析コンポーネント128、イベント判定コンポーネント130、及び仮想カートコンポーネント132を、部分的に格納し得る。加えて、メモリ124は、環境内の1つ以上のセンサ(例えば、スキャニングデバイス、カメラなど)から受信したセンサデータ134、環境106内のユーザ識別子の場所を示すユーザデータ136、それぞれのユーザの仮想カートの内容を示す仮想カートデータ(又は「カートデータ」)138、及び環境内のセンサなどに関する情報、例えばセンサの場所などを示す環境データ140を、1つ以上のデータストアに格納し得る。
スキャニングデバイス108からスキャンデータを受信することに応答して、サーバコンピューティングデバイス118は、スキャンデータをセンサデータデータストア134に格納し得る。このスキャンデータを受信することに応答して、又は第2のユーザ110若しくは別のユーザが環境106を出ると検出されるような、別のトリガイベントに応答して、イベント判定コンポーネント130は、スキャンされた商品104に関与する任意のイベントの結果を判定しようと試み得る。例えば、イベント判定コンポーネントは、識別されたユーザに関連付けられたカートデータを更新して、商品の追加を示すために、商品を受け取ったユーザの個人情報を判定するためのプロセスを開始し得る。
スキャンされた商品104に関与するイベントの結果を判定するために、イベント判定コンポーネント130は、画像分析コンポーネント128に、FOV内に適切なVOIを有する環境内の1つ以上のカメラによって生成された画像データを分析して、商品104を受け取るユーザを識別するように指示し得る。加えて、イベント判定コンポーネントは、環境106内のユーザ識別子の現在及び過去の場所を経時的に格納する場所特定コンポーネント126を、画像分析コンポーネント128からの出力と組み合わせて利用して、商品104に関与するイベントの結果を判定し得る。結果を判定した後、イベント判定コンポーネント130は、それに応じて適切な仮想カートを更新するように仮想カートコンポーネント132に指示し得る。
まず、画像分析コンポーネント128は、特定の時間範囲における特定のVOIについての画像データを分析するための指標を受信し得る。例として、イベント判定コンポーネント130は、スキャンデータから、スキャンが発生した場所及びスキャンが発生した時刻を判定し得る。例えば、スキャニングデバイス108から受信されたスキャンデータは、スキャンの時刻及びスキャニングデバイス108の識別子を含み得る。イベント判定コンポーネントは、この情報を画像分析コンポーネント128に提供し得るか、さもなければ、この情報を、以下で説明されるように、画像分析コンポーネントに適切な時空間ウィンドウを分析させるために使用し得る。
イベント判定コンポーネント130からの要求を受信した後、画像分析コンポーネント128は、環境データ140から、どのカメラがVOI114のFOVを含むかを判定し得る。すなわち、環境データ140は、どのカメラがどのVOIを有するかのそれぞれの指標を格納し得るか、又はそうでなければ、特定のVOI内で発生するイベントを判定するためにどのカメラが使用されるかの指標を格納し得る。この事例では、画像分析コンポーネント128は、例解されたカメラ116がVOI114を含むFOVを有すると判定し得る。したがって、画像分析コンポーネント128は、画像データについて1つ以上のコンピュータビジョンアルゴリズムを実行するために、センサデータデータストア134から画像データを取り出し得る。いくつかの事例では、画像分析コンポーネント128は、スキャンの時刻に少なくとも部分的に基づく時間範囲内のVOI114の画像データを分析する。例えば、画像分析コンポーネント128は、スキャン時に開始し、その後30秒続く画像データ、スキャンの15秒前に開始して1分後に終了する画像データ、及び/又は同様のものを分析し得る。
画像データを取り出した後、現在のVOI114を表す判定された時間範囲について、画像分析コンポーネント128は、1つ以上の訓練された分類子を使用して、VOI114内で発生したイベントを判定し得る。例えば、訓練された分類子は、最初に、画像データの各フレームに関する生成された特徴データを受信し、フレームごとに、それぞれのフレーム内に表される事前定義された対象物を示すセグメンテーションマップを出力するように構成され得る。例えば、画像分析コンポーネント128は、(例えば、教師あり学習を介して)訓練された分類子を利用して、背景、ユーザ、ユーザの特定の部分(例えば、手、頭、腕、身体など)、1つ以上の商品及び/又は同様のものを識別し得る。以下で考察される図3Aは、例示的なセグメンテーションマップを例解する。
画像データの個々のフレームのセグメンテーションマップを生成することに加えて、画像分析コンポーネント128は、少なくともセグメンテーションマップを使用して、VOI114内で発生するイベントを識別するように構成された、1つ以上の訓練された分類子を利用し得る。例えば、分類子は、画像データの各フレームが手を含むかどうか、かつそうであった場合、「空」(商品を保持していない)又は「満たされた」(商品を保持している)などの手の状態を判定するように構成され得る。いくつかの事例では、訓練された分類子は、画像データの個々のフレームから生成された特徴データを受信し得、出力として、個々のフレームが手を含むかどうかを示すスコア、任意のそのような手の場所、及び手が空であるか又は満たされているかを示すスコアを生成し得る。これらのスコアに対して1つ以上の閾値を適用して、各個々のフレームが手を含むかどうか、及びそうであった場合、手が空であるか満たされているかどうかを判定することができる。
各フレームについてこの情報を格納することに加えて、画像分析コンポーネント128は、VOI114内の識別された手の動きベクトルを経時的に判定し得る。例えば、画像分析コンポーネント128が、第1のフレーム内の第1の場所で空の手が検出された、第2の後続のフレーム内の第2の場所で空の手が検出された、などを判定した場合、画像分析コンポーネントは、この情報を使用して、手に関連付けられた動きベクトルを判定し得る。更に、画像分析コンポーネント128は、これらの動きベクトル及び手の状態に関する関連情報に少なくとも部分的に基づいて、ユーザが商品を受け取ったか、商品を返したかなどを判定するように構成された、1つ以上の訓練された分類子を含み得る。例えば、画像分析コンポーネント128は、空の手がVOI114に「入り」、かつ満たされた手がVOI114から「出る」ことが、商品を取得する手に関連付けられたユーザを表すと判定するように、(例えば、教師あり学習を使用して)訓練されている場合がある。したがって、画像分析コンポーネント114は、この例では、「取る」又は「ピックする」の指標を出力し得る。反対の例では、分類子は、満たされた手がVOI114に入り、かつ空の手がVOI114から出ることが、返却を表し得ることを判定するように訓練され得る。
例解された例では、画像分析コンポーネント128は、(例えば、1つ以上の訓練された分類子を使用して)商品104のスキャンの時刻後に空の手がVOI114に入ったこと、及びその後、満たされた手がVOI114を出たことを判定し得る。画像分析コンポーネント128は、この情報及び/又は関連情報(例えば、「取る」の指標)を、イベント判定コンポーネント130に提供し得る。加えて、場所特定コンポーネント126は、対応するユーザが環境全体を移動するときにユーザ識別子の場所を特定し得、これらの場所を、ユーザデータ136として経時的に格納し得る。例えば、例解された第2のユーザ110が環境106に入ったとき、場所特定コンポーネント126は、このユーザに関連付けられた識別子を作成し得、このユーザ識別子に関連付けられたユーザの場所を経時的に格納し得る。いくつかの事例では、ユーザ識別子は、ユーザ110の実際の身元が追跡されないように、個人を特定できる情報を含まず、むしろユーザ110と他の識別可能な結びつきを有しない識別子であり得る。
イベント判定コンポーネント130は、画像分析コンポーネント128から受信したデータに加えて、このユーザデータ136を使用して、商品104を取得したユーザ110に関連付けられたユーザ識別子を判定し得る(すなわち、VOI114内で識別された手に関連付けられたユーザ110を判定し得る)。例えば、画像分析コンポーネント128(又はイベント判定コンポーネント128)は、特定の時刻(例えば、10:23:55)に商品104を「取る」ことが発生したと判定した可能性がある。場所特定コンポーネント126(又はイベント判定コンポーネント130)は、この特定の時点でどのユーザ識別子がVOI114の場所にあったかを判定し得、この情報を使用して、このユーザ識別子に関連付けられたユーザが商品104を取ったことを判定し得る。この判定に応答して、イベント判定コンポーネント130は、ユーザ110に関連付けられたユーザ識別子など、特定のユーザ識別子に関連付けられた仮想カートデータ138を更新するように仮想カートコンポーネント132に指示し得る。上で説明される技術を使用して、このように、イベント判定コンポーネントは、ユーザ110がユーザ102から直接(例えば、手渡しとして)商品104を受け取ったことに応答して、ユーザ102がカウンタ上に商品104を置いた後、ユーザ110がカウンタから商品104を取ることに応答して、かつ/又は同様のことに応答して、適切な仮想カートデータ138を更新するように仮想カートコンポーネントに指示し得る。
図2A~Cは、図1で上で考察される第1のユーザ102が商品104をスキャンし、その商品104を第2のユーザ110に手渡し、一方、サーバコンピューティングデバイス118が、スキャンの時刻における対話の近くの環境の画像データを分析して、商品を受け取った第2のユーザ110に関連付けられたユーザ識別子を判定する、例示的な一連の動作200を集合的に例解する。
まず、第2のユーザ110又は別のユーザが、特定の商品、そのような特定の量の食品、特定の長さの布地、特定のトッピングを乗せたサラダ及び/又は同様のものを要求し得る。これに応答して、第1のユーザが、カスタマイズされた商品を準備し得、バーコード、QRコード(登録商標)などの商品に関連付けられた物理的又はデジタルの視覚的な印を印刷し得るか又は別様に生成し得る。いくつかの事例では、視覚的な印は、商品識別子、商品の重量、商品の長さ、商品の量、商品の費用、視覚的な印が作成された時点において商品が注文された時刻、及び/又は同様のものなど、商品に関する情報を符号化し得る。第1のユーザ102は、視覚的な印が物理的であるときに、視覚的な印を商品に貼り付けることができ、又は別様に、視覚的な印がデジタル若しくは物理的であるときに、視覚的な印を商品に関連付けることができる。
視覚的な印が商品104に貼り付けられたか又は別様に関連付けられた後、動作202は、スキャニングデバイスを使用して、商品104をスキャンしてスキャンデータを生成することを表す。例えば、第1のユーザ102は、任意のタイプのスキャニングデバイスを使用して視覚的な印をスキャンして、スキャンデータを生成し得る。上記のように、スキャンデータの指標を受信するシステムは、特定のスキャニングデバイスと環境内の場所との間の関連付けを格納し得る。例えば、システムは、特定のVOIと特定の各スキャニングデバイスとの間の関連付けを格納し得る。
動作204は、スキャンデータを、上で説明されるサーバコンピューティングデバイス118などの1つ以上のコンピューティングデバイスに送信することを表す。いくつかの事例では、スキャンデータは、スキャニングデバイスの識別子、スキャンの時刻及び/又は同様のものなどの追加情報を含むか、又はそれを伴う。
動作206は、環境内のカメラを使用して画像データを生成することを表す。理解されるように、いくつかの事例では、カメラは、動作202でスキャンされた商品を含む、かつそれに加えて、イベントを識別するために、この画像データを継続的に生成し得る。
図2Bは、一連の動作200の例解を継続し、動作208で、生成された画像データを、サーバコンピューティングデバイス118などの1つ以上のコンピューティングデバイスに送信することを含む。いくつかの事例では、カメラは、この画像データをコンピューティングデバイスに継続的に送信し、コンピューティングデバイスは、画像データを分析して、環境内で発生するイベントを識別し得る。
動作210は、スキャンデータを受信するコンピューティングデバイスが、そのスキャンデータから、スキャンに関連付けられた時刻とスキャニングデバイスに関連付けられたVOIとを判定することを表す。例えば、この動作は、スキャンデータからスキャンのタイムスタンプを読み取り、スキャニングデバイスの識別子をキーとして使用することによって、施設データに格納されているスキャニングデバイスに関連付けられたVOIを判定することを含み得る。次いで、コンピューティングデバイスは、スキャンの時刻及びVOIを使用して、時空間ウィンドウを定義し得る。例えば、上で説明されるように、時空間ウィンドウは、ウィンドウの空間部分に関してはVOI、及びウィンドウの時間部分に関しては事前定義された時間量(例えば、10秒、30秒、2分など)の時間範囲を含み得る。この時空間ウィンドウを使用して、スキャン後に商品を取得するユーザの手を識別するための画像データを分析することができる。
動作212は、スキャンの時刻の後の閾値時間量の間に、画像データからVOIを分析することを表す。例えば、この動作は、画像データに関連付けられた特徴データを生成すること、並びにその特徴データを、ユーザの手及びユーザの手の状態(例えば、満たされている又は空)を識別するように構成された訓練された分類子に入力することを含み得る。
図2Cは、一連の動作200の例解を完結するものであり、動作214で、スキャンの時刻からの閾値時間量以内でVOI内のユーザの手を識別することを含む。いくつかの事例では、この動作は、訓練された分類子が、時空間ウィンドウの定義された時間範囲内にあるタイムスタンプを有する画像データのフレーム内で手が識別されたことを示す指標を出力することを含む。他の事例では、この動作は、分類子が空の手を識別した時空間ウィンドウ内の少なくとも1つのフレームと、分類子が満たされた手を識別した時空間ウィンドウ内の少なくとも1つの後続フレームとを識別することを含み得る。更に他の例では、この動作は、識別された手の動きベクトルをフレームにわたって生成することと、VOIに向かって更に入っていく空の手、及びVOIから離れて出ていく満たされた手を識別することと、を含み得る。
動作216は、識別された手に関連付けられたユーザに関連付けられたユーザ識別子を判定することを表す。いくつかの事例では、この動作は、スキャンの時間中、又はスキャンによって定義された時間範囲中に、どのユーザ識別子がスキャニングデバイス及び/又はVOIの、近く又はその場所にあったかを判定するために、場所特定コンポーネントによって生成されたユーザデータにアクセスすることを含み得る。
動作218は、商品の追加を示すために、ユーザ識別子に関連付けられた仮想カートデータを更新することを表す。例解された例では、例えば、ユーザの仮想カートは、12.34ドルの費用で「1.2ポンドのエビ」を追加することを含むように更新される。この例は、商品識別子を仮想カートに追加することを説明するが、スキャンされていない商品をユーザが返却する事例では、商品識別子は、これに対応して仮想カートから削除され得る。これらの例では、商品スキャンによってトリガされる時空間ウィンドウは、スキャンの前後の両方で定義され得、スキャンの前に生成された画像データは、VOIに入る満たされた手及びVOIから出てくるユーザの空の手を識別するなど、返却を識別するために分析され得る。
図3Aは、マシンビジョンアルゴリズムを使用して画像データのフレームのセグメンテーションマップ300を生成する、画像分析コンポーネント128を例解する。図に示すように、セグメンテーションマップ300は、背景、ユーザの手、商品などの異なる対象物に関連付けられた画素を示し得る。例えば、例解されたセグメンテーションマップ300は、画像データのフレームの異なる領域が、例えば、画像分析コンポーネント128の1つ以上の訓練された分類子302を使用して、例示的な意味ラベル(例えば、「ラベル」)に関連付けられていることを示す。この例では、意味ラベルは、背景304、頭306、身体308、腕310、手312、及び商品(又は手の中の商品)314、及びドア316を含む。当然のことながら、これらは単なる例にすぎず、任意の他のタイプの意味ラベルが使用され得ることを理解されたい。また、この例示的なセグメンテーションマップ302を生成するために使用される分類子は、それぞれの意味ラベル304~316をフレームの異なる領域に割り当てるために、コンピュータグラフィックスツールを使用するために人間のユーザを採用することによって訓練され得ることに留意されたい。人間のユーザのうちの1人以上が、これらの意味ラベルを閾値量の画像データに割り当てた後、分類子は、意味ラベルを更に追加の画像データに適用するように訓練され得る。
いくつかの事例では、分類子302の第1の訓練された分類子は、フレームごとに、身体の特定の部分(例えば、手、下腕、上腕、頭など)及びこれらのそれぞれの部分の場所を示すセグメンテーションマップ300を出力する。いくつかの事例では、この第1の訓練された分類子は、候補の手の輪郭に加えて、画像データのフレームの特定の部分が手を表す可能性を示すスコアを出力し得る。第1の分類子はまた、識別された各手を画像データ内の識別された頭に関連付けることができる。この頭は、ユーザのユーザ識別子を判定するために使用され得、したがって、各手は、ユーザ識別子に関連付けられ得る。
図3Bは、画像分析コンポーネント128が、セグメンテーションマップ300及び1つ以上の訓練された分類子302を使用して、画像データの個々のフレームについて、フレームが手を含むかどうか、及びそうであった場合、手の場所、及びそれが空であるか満たされているかどうかを判定することを例解する。画像分析コンポーネント128は、スキャニングデバイスを使用して商品がスキャンされた後に、この情報を使用して、商品を取得するユーザを識別し得る。例えば、この例の例解されたフレームは、時空間ウィンドウの事前定義された時間範囲内にあるタイムスタンプに関連付けられた、VOI114の画像データのフレームに対応し得る。
例解されるように、画像分析コンポーネントは、第1のフレーム318(1)を解析する。この例では、上で説明される第1の分類子は、手を識別しない。しかしながら、第1の分類子は、後続のフレーム318(2)内に空の手を識別する。例えば、上で説明されるように、分類子は、手の存在を示すスコア、識別された手が空であるか又は満たされているかを示すスコア、及び識別された手の場所を出力し得る。加えて、分類子は、手を頭に関連付けるだけでなく、手を、この頭に関連付けられたユーザ識別子に関連付けることができる。
第3の例示的なフレーム318(3)は、分類子によって、更に別の空の手を表すように判定され、一方、第4のフレーム318(4)及び318(5)は、それぞれ、分類子によって、満たされた手を表すように判定される。加えて、画像分析コンポーネント128は、フレームにわたって識別された手のそれぞれのユーザ識別子及び場所を使用して、手に関連付けられた1つ以上の動きベクトルを生成し得る。例えば、画像分析コンポーネントは、手に関連付けられたユーザ識別子を使用して、同じ手の動きを経時的に識別し得る。例解されるように、この例では、画像分析コンポーネント128は、空の手がVOI内に移動し、満たされた手がVOIから離れてかつ/又はVOIの外に移動したことを示す動きベクトルを識別し得る。分類子302又は別の分類子は、この情報を使用して、手に関連付けられたユーザがスキャンされた商品を確かに取ったという判定を行うことができる。
図4A~Bは、スキャニングデバイスを使用して、別のユーザによってスキャンされた商品を受け取ったユーザの仮想カートデータを更新するための、例示的なプロセス400のフロー図を集合的に例解する。このプロセス400、及び本明細書で考察される他のプロセスは、ハードウェア、ソフトウェア、又はそれらの組み合わせで実装され得る。ソフトウェアの文脈では、説明される動作は、1つ以上のハードウェアプロセッサによって実行されるときに、列挙された動作を実行する、1つ以上のコンピュータ可読記憶媒体上に格納されたコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令には、特定の機能を実行するか、又は特定の抽象データ型を実装するルーチン、プログラム、対象物、コンポーネント、データ構造などが含まれる。当業者は、上の図に例解された特定のステップ又は動作は、削除され、組み合わされ、又は別の順序で実行され得ることを容易に理解するであろう。任意のステップ又は動作は、逐次に、又は並行して実行され得る。更に、動作が説明されている順番は、限定するものとして解釈されることを意図するものではない。加えて、これらのプロセスは、トート(例えば、カート、バスケット、バッグなど)、サーバ、他のコンピューティングデバイス、又はそれらの組み合わせによって実施され得る。
動作402は、スキャナがスキャンデータを生成したという指標を受信することを表す。例えば、イベント判定コンポーネント130は、環境内の特定のスキャニングデバイスが、商品に関連付けられた、バーコード、QRコード(登録商標)などのスキャンされた視覚的な印を有するという指標を受信し得る。
動作404で、イベント判定コンポーネント130、又は別のコンポーネントは、スキャンされた商品と関連付けられた商品識別子を判定し得る。例えば、イベント判定コンポーネント130、又は別のコンポーネントは、スキャンデータを使用して、スキャンされた商品のバーコードなどを識別し得る。いくつかの事例では、この動作は、スキャンデータを受信することに応答して発生し得るが、他の事例では、この動作は、環境から出るスキャンデータに関連付けられたイベントの候補ユーザとして指定されたユーザなどの、異なるトリガに応答して発生し得る。したがって、この動作は、いくつかの事例では、以下に説明される後続の動作の後に発生し得る。
動作406は、スキャンデータを生成するスキャナに関連付けられた第1の時刻を判定することを表す。この第1の時刻は、スキャナがスキャンデータを生成した時刻、スキャナがスキャンデータを送信した時刻、コンピューティングデバイスがスキャンデータを受信した時刻、及び/又は同様のものを含み得る。
動作408で、画像分析コンポーネント128、又は別のコンポーネントは、スキャニングデバイスに関連付けられた関心体積(VOI)を判定し得る。例えば、上記のように、システムは、施設内の各スキャニングデバイスと、それぞれのVOI(例えば、施設の三次元空間)との間の関連付けを格納し得る。画像分析コンポーネントは、スキャンデータに含まれ得る、又はスキャンデータに伴い得る、スキャニングデバイスの識別子を判定し得、このスキャニングデバイス識別子を使用して、対応するVOIを判定し得る。
動作410は、VOIを含む画像データの第1のフレームを分析することを表す。例えば、この動作は、画像分析コンポーネント128、又は別のコンポーネントを含み得、FOVがVOIを含むカメラを識別し(例えば、それぞれのカメラとVOIとの間の関連付けを格納するデータストアにアクセスすることによって)、このカメラから、動作406で判定された第1の時刻の最も近くに生成された画像データを受信する。例えば、画像分析コンポーネント128は、第1の時刻で開始する、第1の時刻の前の、又は第1の時刻の直後の時間範囲中にカメラによって生成された画像データを受信し得る。
更に、この動作は、画像データのこの一部分が手を含むかどうかを判定するために、VOIに対応する画像データの一部分を分析することを含み得る。例えば、動作410は、画像データから生成された特徴データが分類子に入力される、サブ動作410(1)を含み得る。サブ動作410(2)で、分類子は、画像データが手を含むかどうかを示す第1のスコアと、手が空であるか又は満たされているかを示す第2のスコアとを出力し得る。いくつかの事例では、画像データを分析することは、上で説明されるように2段階のプロセス、すなわち、第1に、画像データの各フレームを、ユーザの手及び頭を含む異なる事前定義された対象物にセグメント化すること、第2に、任意の識別された手の動きをフレームにわたって追跡することを含む。例えば、第1の分類子は、少なくとも1つの手及び対応する頭を識別するセグメンテーションマップを生成し得、このうちの後者は、ユーザのユーザ識別子を判定するために使用され得る。このセグメンテーション情報は、第1の分類子によって出力され、例えば、各手をフレームにわたって追跡するための手追跡コンポーネントに入力され得る。
動作412で、この例では、画像分析コンポーネント128、又は別のコンポーネントは、VOI内のユーザの空の手を識別する。例えば、画像分析コンポーネント128、又は別のコンポーネントは、1つ以上の分類子を使用して、スキャンデータに関連付けられた第1の時刻の後に、空の手がVOI内に存在すると判定する。
動作414は、画像分析コンポーネント128、又は別のコンポーネントが、VOIを含む画像データの第2のフレームを分析することを表し、第2のフレームは、第1のフレームに関連付けられた時刻に後続する時刻に対応している。ここでも、この動作は、画像データの第2のフレームから生成された特徴データが分類子に入力される、サブ動作414(1)を含み得る。サブ動作414(2)で、分類子は、画像データが手を含むかどうかを示す第3のスコアと、手が空であるか又は満たされているかを示す第4のスコアと、を出力し得る。
図4Bは、プロセス400の例解を継続し、動作416で、動作414における第2のフレームの分析に基づいて、ユーザの満たされた手を識別することを含む。例えば、この動作は、画像データの第2のフレームがVOI内のユーザの満たされた手を表すという指標を、分類子から受信することを含み得る。いくつかの事例では、この表示はまた、満たされた手が、動作412において識別された空の手と同じユーザ識別子と関連付けられていることを示し得る。
最後に、動作418は、ユーザ識別子に関連付けられたユーザに関連付けられた仮想カートデータに、商品に関連付けられた商品識別子を格納することを表す。例えば、仮想カートコンポーネント132、又は別のコンポーネントは、適切なユーザカートを更新して商品の追加を示し得る。
いくつかの事例では、動作418は、ユーザの手が、空でVOIに入り満たされてVOIを出たと判定することに応答して発生し得る。一方、他の事例では、動作418は、第1の時刻によって定義される時間範囲内でVOI内のユーザの手を識別することに応答して、その時間範囲内でVOI内のユーザの満たされた手を識別することに応答して、などで発生し得る。例えば、いくつかの事例では、ユーザの仮想カートは、時間範囲中に単一の手が識別されるというイベントにおいて、ユーザの手を識別することに応答して更新され得る。しかしながら、時間範囲中にVOI内で(異なるユーザ識別子に対応する)複数の手が識別された場合、特定のユーザの仮想カートは、ユーザの空の手を識別し、その後、ユーザの満たされた手を識別することに応答して更新され得る。
図5は、商品を受け取るユーザの仮想カートデータを更新するための、別の例示的なプロセス500のフロー図を例解する。動作502は、環境内のセンサによって生成されたセンサデータを受信することを表し、センサデータは、商品を識別する。いくつかの事例では、センサは、商品に関連付けられた視覚的な印をスキャンすることに応答してスキャンデータを生成する、スキャニングデバイスを備え得る。
動作504は、センサに関連付けられた環境の一部分を判定することを表す。上で説明されるように、環境のこの一部分を判定することは、環境内の、かつセンサに対して判定された、関心体積(VOI)を判定することを含み得る。いくつかの事例では、説明されたシステムのデータストアは、スキャニングデバイスとVOIとの間の関連、スキャニングデバイスとVOIのFOVを有するカメラとの間の関連などを格納し得る。
動作506は、環境内のカメラによって生成された画像データを受信することを表し、画像データは、センサに関連付けられた環境の一部分を表す。例えば、この動作は、VOIのFOVを有するカメラから画像データを受信することを含み得る。いくつかの事例では、スキャンデータは、センサデータに関連付けられた第1の時刻(例えば、センサがセンサデータを生成した時刻)を示し得、したがって、画像データの受信は、第1の時刻に基づく時間範囲中に適切なカメラから画像データを受信することを含み得る。
動作508は、画像データを分析して、商品を受け取るユーザを識別することを表す。いくつかの事例では、この動作は、カメラによって生成された画像データを、第1の時刻の後、及び閾値時間量内に分析することを含み得る。更に、分析は、VOI内のユーザの手を識別するために、VOIに対応する画像データの少なくとも一部分を分析することを含み得る。更に、これには、画像データを分析して、画像データの第1のフレームから、VOI内のユーザの空の手を少なくとも識別し、画像データの第2のフレームから、VOI内のユーザの満たされた手を識別することが含まれ得る。更に他の例では、この分析は、VOIに対応する画像データの第1のフレームの少なくとも一部分を分析して、VOI内の第1の場所でユーザの空の手を識別することと、VOIに対応する画像データの第2のフレームの少なくとも一部分を分析して、VOI内の第2の場所でユーザの空の手を識別することと、第1の場所及び第2の場所に少なくとも部分的に基づいて、第1の方向ベクトルを判定することと、VOIに対応する画像データの第3のフレームの少なくとも一部分を分析して、VOI内の第3の場所でユーザの満たされた手を識別することと、VOIに対応する画像データの第4のフレームの少なくとも一部分を分析して、VOI内の第4の場所でユーザの満たされた手を識別することと、第3の場所及び第4の場所に少なくとも部分的に基づいて、第2の方向ベクトルを判定することと、を含み得る。すなわち、商品を受け取るユーザを識別するために画像データを分析することは、いくつかの事例では、ユーザの空の手がVOIに入り、かつユーザの満たされた手がVOIを去ったと判定することを含み得る。
更に、上で説明されるように、画像データを分析することは、VOI内の1つ以上の手を識別するためのセグメンテーションマップを生成することと、商品を受け取ったユーザを判定するためにこの情報を使用することと、を含み得る。例えば、この動作は、画像データの第1のフレームを使用してセグメンテーションマップを生成することとであって、セグメンテーションマップが、ユーザの手に対応する第1のフレームの第1の画素のセットを少なくとも識別する、生成することと、訓練された分類子に、ユーザの手に対応する第1のフレームの第1の画素のセットを示す第1のデータを入力することと、訓練された分類子の出力として、ユーザが商品を受け取ったかどうかを示す第2のデータを受信することと、を含み得る。更に、いくつかの事例では、ユーザの手に加えて、商品がVOI内で識別され、追跡され得る。これらの事例では、商品は、画像データのフレーム内で識別され、ユーザの手に置かれている商品を識別するためにフレームにわたって追跡され得る。本明細書において説明される例の各々では、ユーザの手は、別のユーザ(例えば、施設の関連者)の手から、別のユーザが商品を置いたカウンタから、かつ/又は任意の他の様式で、商品を受け取り得る。
最後に、動作510は、ユーザに関連付けられた仮想カートデータを更新して、商品に関連付けられた商品識別子を示すことを表す。この動作は、商品識別子、商品の費用、商品の説明、ユーザが商品を受け取った時刻、及び/又は同様のものなどの商品に関する情報を、適切な仮想カートに追加することを含み得る。
図6は、センサと、センサデータを使用して施設内で発生するイベントに関する出力を生成するように構成された在庫管理システムと、を含む例示的な材料取り扱い施設602のブロック図である。いくつかの事例では、施設602は、上で説明されるアーキテクチャ100及び/又は環境106に対応する。
ただし、以下の説明は、単に、本明細書において説明される技術が利用され得る業界及び環境の1つの例解的な例であるにすぎない。材料取り扱い施設602(又は「施設」)は、1つ以上の商品604(1)、604(2)、…、604(Q)(一般に、604として表記される)を保有し得る1つ以上の物理的構造又はエリアを含む。本開示で使用される場合、「(Q)」などの括弧内の文字は、整数の結果を示す。商品604は、本、医薬品、修理部品、電子機器、食料雑貨品などの物理的な品物を含む。
施設602は、在庫の取り扱いに関する様々な機能のために指定される1つ以上のエリアを含み得る。この例解図では、施設602は、受け取りエリア606、保管エリア608、及び移行エリア610を含む。受け取りエリア606は、施設602への受け取りのために、納入業者などから商品604を受け入れるように構成され得る。例えば、受け取りエリア606は、トラック又は他の貨物輸送装置が商品604をおろす配送センタを含み得る。
保管エリア608は、商品604を保管するように構成されている。保管エリア608は、様々な物理的構成で整理され得る。一実施態様では、保管エリア608は、1つ以上の通路612を含み得る。通路612は、通路612の片側又は両側の在庫場所614で構成され得るか、又はその在庫場所614によって規定され得る。在庫場所614は、棚、ラック、ケース、キャビネット、収納箱、床場所、又は商品604を保有又は保管するための他の好適な保管機構のうちの1つ以上を含み得る。在庫場所614は、床又は施設の構造の別の部分に設けられ得るか、又は通路612の配置が再構成可能であり得るように、移動可能であり得る。いくつかの実施態様では、在庫場所614は、外部の業者とは独立して移動するように構成され得る。例えば、在庫場所614は、ラックを施設602内のある場所から別の場所に移動させることができるように、コンピューティングデバイスによって動作可能である、電源及びモータ付きラックを含み得る。
1人以上のユーザ616(1)、616(2)、…、616(U)、トート618(1)、618(2)、…、618(T)(一般に、618として表記される)、又は他の材料取り扱い装置は、施設602内を移動し得る。例えば、ユーザ616は、施設602内の周りを移動して、様々な在庫場所614内で商品604を選択又は配置し、輸送を容易にするために、それらをトート618上に置き得る。個々のトート618は、1つ以上の商品604を運搬又は別様に輸送するように構成されている。例えば、トート618は、バスケット、カート、バッグなどを含み得る。他の実施態様では、ロボット、フォークリフト、クレーン、無人飛行機などの他の仲介物が、施設602の周りを移動して、商品604を選択し、配置し、又は別様に移動させ得る。
1つ以上のセンサ620が、施設602内の情報を取得するように構成され得る。施設602内のセンサ620は、環境内に固定されたセンサ(例えば、天井装着カメラ)、又はそれ以外の場合では、ユーザが所有しているセンサなど(例えば、携帯電話、タブレット等)を含み得る。センサ620は、カメラ620(1)、重量センサ、高周波(RF)受信機、温度センサ、湿度センサ、振動センサなどを含み得るが、これらに限定されない。センサ620は、施設602に対して、静止した状態であり得るか、又は移動可能であり得る。例えば、在庫場所614は、施設602内のユーザ616(1)及び616(2)などの、棚上の商品604の選択又は配置の画像を取得するように構成されたカメラ620(1)を含み得る。別の例では、施設602の床は、ユーザ616、又はそのユーザ上の他の対象物の重量を判定するように構成された重量センサを含み得る。
施設602の運用中、センサ620は、対象物がどのように移動したか、又は施設602内での他の発生を追跡するために好適な情報を提供するように構成され得る。例えば、カメラ620(1)によって取得された一連の画像は、ユーザ616のうちの1人による、特定の在庫場所614からの商品604の除去、及びトート618のうちの1つへの、又はその内部への少なくとも部分的な、商品604の配置を示し得る。
保管エリア608は、1つ以上の通路612、商品604を保管する在庫場所614、センサ620などを有するものとして描写されているが、受け取りエリア606、移行エリア610、又は施設602の他のエリアは、同様に装備され得ることが理解される。更に、施設602内の様々なエリアの配置は、概略的ではなく、機能的に描写されている。例えば、複数の異なる受け取りエリア606、保管エリア608、及び移行エリア610は、施設602内で分離されるのではなく、分散され得る。
施設602は、在庫管理システム622を含み得るか、又はそれに結合され得、その在庫管理システムは、図1~5を参照して上で説明される技術のうちのいくつか又は全てを実施し得る。以下に説明されるように、在庫管理システム622は、請求項1で例解され、図1~5を参照して上で説明される、サーバ118のコンポーネントを含み得る。例えば、この在庫管理システムは、施設内の各ユーザの仮想カートを維持し得る。この在庫管理システムはまた、ユーザの個人情報、ユーザの場所、及びユーザが商品の手動的な精算を実行することなく、1つ以上の商品を持って施設を退出する資格があるかどうかを示す、各ユーザに関連付けられた記録も格納し得る。この在庫管理システムはまた、通知データをユーザに生成及び出力して、ユーザが十分資格があるか否かを示し得る。
例解されるように、在庫管理システム622は、施設602から遠隔地にあるサーバ118上の施設602に、(例えば、前提とされるサーバの一部として)それらの組み合わせで存在し得る。各事例では、在庫管理システム622は、受け取りエリア606、保管エリア608、又は移行エリア610のうちの1つ以上の中で、ユーザ616との、並びにそのユーザ間の対話及びイベント、センサ620などのデバイス、ロボット、材料取り扱い装置、コンピューティングデバイスなどを識別するように構成されている。上で説明されるように、一部の対話は、1つ以上のイベント624、又は事前定義された関心のある活動の存在を更に示し得る。例えば、イベント624には、施設602へのユーザ616の入場、在庫場所614における商品604の備蓄、在庫場所614からの商品604の選択、在庫場所614への商品604の返却、トート618内への商品604の配置、ユーザ616の互いに対する動き、ユーザ616によるジェスチャなどが含まれ得る。ユーザ616に関与する他のイベント624には、ユーザ616が施設602内で認証情報を提供すること、施設602にあるコンピューティングデバイスを使用して、個人情報を在庫管理システム622に確認させることなどが含まれ得る。いくつかのイベント624は、施設602内の1つ以上の他の対象物に関与し得る。例えば、イベント624は、車輪に装着されたカウンタなどの、在庫場所614の施設602内の移動を含み得る。イベント624は、センサ620のうちの1つ以上に関与し得る。例えば、センサの故障、位置合わせの変化などのセンサ620の動作の変化は、イベント624として指定され得る。この例を継続すると、視野628の配向の変化をもたらすカメラ620(1)の動き(誰か又は何かがカメラ620(1)に衝突して引き起こされることなど)(例えば、カメラ104)は、イベント624として指定され得る。
イベント624のうちの1つ以上の発生を判定することによって、在庫管理システム622は、出力データ626を生成し得る。この出力データ626は、イベント624についての情報を含む。例えば、イベント624が、在庫場所614から削除されている商品604を含む場合、出力データ626は、在庫場所614から削除された特定の商品604を示す商品識別子、及びその商品を削除したユーザのユーザ識別子を含み得る。
在庫管理システム622は、1つ以上の自動化システムを使用して、出力データ626を生成し得る。例えば、人工ニューラルネットワーク、1つ以上の分類子、又は他の自動化機械学習技術を使用し、1つ以上のセンサ620からのセンサデータを処理して、出力データ626を生成し得る。例えば、在庫管理システムは、上で詳細に説明したように、画像データ内のユーザ活動を識別するための分類子を生成及び利用するための技術のうちの一部又は全てを実行し得る。この自動化システムは、確率的又は非確率的技術を使用して動作し得る。例えば、その自動化システムは、ベイズネットワークを使用し得る。別の例では、その自動化システムは、サポートベクトルマシンを使用して、出力データ626又は暫定結果を生成し得る。自動化システムは、出力データ626又は暫定的なデータが物理的な世界に対応する精度又は信頼性を示す情報を提供する信頼レベルデータを生成し得る。
この信頼レベルデータは、使用中の自動化システムの種類に少なくとも部分的に基づいて、様々な技術を使用して生成され得る。例えば、ベイズネットワークを使用する確率的系は、その出力に割り当てられた確率を信頼レベルとして使用し得る。この例を継続すると、ベイズネットワークは、画像データに描写された商品が、メモリに以前格納された商品に対応する確率が95%であることを示し得る。この確率は、画像データに描写されるように、その商品の信頼レベルとして使用され得る。
別の例では、サポートベクトルマシンなどの非確率的技術からの出力は、商品の画像データ、及び以前格納された商品の画像が分類された数学的空間内の距離に基づいて、信頼レベルを有し得る。以前格納された画像などの基準点から、その発生中に取得された画像データまでの、この空間内の距離が大きいほど、信頼レベルが低くなる。
更に別の例では、商品604、ユーザ616などの対象物の画像データは、以前格納された画像のセットと比較され得る。画像データと、以前格納された画像との間の差異が、評価されることが可能である。例えば、形状、色、画像内の特徴間の相対的割合などの差異である。それらの差異は、数学的空間との距離の観点から表現され得る。例えば、画像データに描写されるような対象物の色、及び以前格納された画像に描写されるような対象物の色は、色空間内の座標として表現され得る。
信頼レベルは、これらの差異に少なくとも部分的に基づいて、判定され得る。例えば、ユーザ616は、在庫場所614から、概して立方体形状である香水瓶などの商品604(1)を選択し得る。近くの在庫場所614にある他の商品604は、主に球体である可能性が高い。隣接する商品間の形状の違い(立方体対球体)、及び香水瓶商品604(1)の以前格納された画像との形状の一致(立方体及び立方体)に基づいて、ユーザ106が香水瓶商品604(1)をピックアップしたという信頼レベルは高い。
いくつかの状況では、自動化技術は、閾値結果を上回る信頼レベルを用いて出力データ626を生成することができない場合がある。例えば、自動化技術は、ユーザ616の群の中のどのユーザ616が在庫場所614から商品604をピックアップしたかを区別することができない場合がある。他の状況では、イベント624の人間による確認、又は出力データ626の精度の人間による確認を提供することが望ましい場合がある。例えば、いくつかの商品604は、それらが最小年齢閾値を超えるユーザ616のみによって取り扱われ得るように、年齢制限されるとみなされる場合がある。
人間の確認が望まれる事例では、イベント624に関連付けられたセンサデータは、問い合わせデータを生成するように処理され得る。この問い合わせデータは、イベント624に関連付けられたセンサデータのサブセットを含み得る。この問い合わせデータはまた、自動化技術によって判定されるような1つ以上の暫定結果のうちの1つ以上、又は補足データも含み得る。センサデータのサブセットは、1つ以上のセンサ620についての情報を使用して判定され得る。例えば、施設602内のカメラ620(1)の場所、カメラ620(1)の配向、及びカメラ620(1)の視野628などのカメラデータを使用して、施設602内の特定の場所が視野628内にあるかどうか判定し得る。センサデータのサブセットは、在庫場所614を示すことができるか、又は商品604がしまい込まれたことを示すことができる画像を含み得る。センサデータのサブセットはまた、視野628内にその在庫場所614を有さなかった、他のカメラ620(1)からの画像を省略し得る。視野628は、センサ620が周りでセンサデータを生成することができる、施設602内の一部分の場面を含み得る。
この例を継続すると、センサデータのサブセットは、商品604を含む視野628を有する1つ以上のカメラ620(1)によって取得されたビデオクリップを含み得る。暫定結果は、どの商品604がイベント624に関与した可能性があるかに関する「最良の推測」を含み得る。例えば、暫定結果は、最小閾値を上回る信頼レベルを有する、自動化システムによって判定された結果を含み得る。
施設602は、様々な納入業者から異なる種類の商品604を受け取り、顧客が商品604のうちの1つ以上を注文し、又は取り出すまで、それらの商品を保管するように構成され得る。施設602を通る商品604の大まかな流れは、図2の矢印によって示されている。具体的には、この例に例解されるように、商品604は、受け取りエリア606において、製造業者、販売業者、卸売業者などの1つ以上の納入業者から取り出し得る。様々な実施態様では、商品604は、施設602を運営する企業の特質に応じて、製品、日用品、生鮮食料品、又は任意の好適な種類の商品604を含み得る。商品604の受け取りは、在庫管理システム622が出力データ626を生成し得る1つ以上のイベント624を含み得る。
受け取りエリア606において、納入業者から受け取ると、商品604は、保管のために準備され得る。例えば、商品604は、開梱又は別様に再配置され得る。在庫管理システム622は、開梱又は再配置に関連付けられたイベント624に基づいて、在庫管理機能を提供するために、コンピュータシステム上で実行する1つ以上のソフトウェアアプリケーションを含み得る。これらの在庫管理機能は、商品604に関する種類、数量、状態、費用、場所、重量、又は任意の他の好適なパラメータを示す情報を維持することを含み得る。商品604は、パッケージ、カートン、枠箱、パレット、若しくは他の好適な集合体など、可算の個々の単位若しくは複数のものの観点から見て、備蓄され、管理され、又は払い出され得る。代替的に、大量製品、日用品などのいくつかの商品604は、本質的に可算単位に編成することができない、連続的又は任意に分割可能な量で保管され得る。そのような商品604は、長さ、面積、体積、重量、期間、持続時間、又は測定単位によって特徴付けられる他の寸法特性などの測定可能な量の観点から管理され得る。一般的に言えば、商品604の数量は、商品604の可算数の個々の単位か、若しくは集合単位かのどちらか、又は商品604の測定可能な量のいずれかを適宜指し得る。
受け取りエリア606を通って到着した後、商品604は、保管エリア608内に保管され得る。いくつかの実施態様では、同様の商品604は、収納箱の中、棚の上、ペグボードからの吊り下げなどの在庫場所614にともに保管又は表示され得る。この実施態様では、所与の種類の全ての商品604が、1つの在庫場所614に保管される。他の実施態様では、同様の商品604は、異なる在庫場所614に保管され得る。例えば、大規模な物理的施設602内に薄利多売の特定の商品604の検索を最適化するために、それらの商品604は、いくつかの異なる在庫場所614内に保管されて、単一の在庫場所614で発生する可能性がある混雑を減らし得る。商品604及びそれらのそれぞれの在庫場所614の格納領域は、1つ以上のイベント624を含み得る。
1つ以上の商品604を指定する顧客注文が受信されると、又は、ユーザ616が施設602を通って前進すると、対応する商品604は、それらの商品604を収容する在庫場所614から選び、又は「選択」され得る。様々な実施態様では、商品の選択は、手動的選択から完全に自動化された選択までの範囲が広がり得る。例えば、一実施態様では、ユーザ616は、所望の商品604のリストを有し得、施設602を通って進行して、保管エリア608内の在庫場所614から商品604を選択し、それらの商品604をトート618に置き得る。他の実施態様では、施設602の従業員は、顧客の注文から出ている書面又は電子的選択リストを使用して商品604を選択し得る。これらの選択された商品604は、従業員が施設602を通って前進するときに、トート618に置き得る。選択は、在庫場所614に移動するユーザ616、在庫場所614からの商品604の取り出しなど、1つ以上のイベント624を含み得る。
商品604が選択された後、それらの商品は、移行エリア610で処理され得る。移行エリア610は、商品604がある場所から別の場所に、又はあるエンティティから別のエンティティに移行される施設602内の任意の指定されたエリアであり得る。例えば、移行エリア610は、施設602内の梱包ステーションであり得る。商品604が移行エリア610に到着すると、商品604は、保管エリア608から梱包ステーションに移行され得る。移行することは、1つ以上のイベント624を含み得る。移行に関する情報は、それらのイベント624に関連付けられた出力データ626を使用して、在庫管理システム622によって維持され得る。
別の例では、商品604が施設602を出発している場合、商品604のリストは、在庫管理システム622によって取得及び使用されて、施設602から別のエンティティに、商品604の責任又は管理を移行し得る。例えば、運送業者は、輸送のために商品604を受け入れ得、その運送業者は、リストに示された商品604に対する責任を受け入れる。別の例では、顧客は、商品604を購入又は賃借し、施設602から商品604を削除し得る。この購入又は賃借は、1つ以上のイベント624を含み得る。
在庫管理システム622は、施設602、及びその中の内容物に関するセンサデータにアクセスするか、又はそのセンサデータを生成し得、そのセンサデータには、商品604、ユーザ616、トート618などが含まれる。このセンサデータは、センサ620のうちの1つ以上、他のシステムによって提供されるデータなどによって取得され得る。例えば、センサ620は、施設602内の場面の画像データを取得するように構成されたカメラ620(1)を含み得る。この画像データは、静止画像、ビデオ、又はそれらの組み合わせを含み得る。この画像データは、在庫管理システム622によって処理されて、ユーザ616の場所、トート618、ユーザ616の個人情報などを判定し得る。本明細書で使用されるとき、ユーザの個人情報は、ユーザの一意の識別子(例えば、名前、ユーザに関連付けられた番号、ユーザ名等)、環境に位置している他のユーザ間でユーザを区別する識別子などを表し得る。
在庫管理システム622、又はそれに結合されたシステムは、ユーザ616を識別し、並びに他の候補ユーザを判定するように構成され得る。一実施態様では、この判定は、センサデータを、以前に格納された個人情報データと比較することを含み得る。例えば、ユーザ616は、ユーザの顔を顔認識システムに表示することによって、認証資格情報を持ち運べるトークンを提示することによって、指紋を提示することによって、施設に入場するときのバーコード又は他のタイプの一意の識別子をスキャンすることなどによって、識別され得る。ユーザ616の個人情報は、施設602に入場する前、最中、又は後に判定され得る。ユーザ616の個人情報の判定は、施設602内のユーザ616に関連付けられたセンサデータを、以前に格納されたユーザデータと比較することを含み得る。
いくつかの事例では、在庫管理システムは、施設内のユーザをそれぞれのセッションにグループ化する。すなわち、在庫管理システム622は、センサデータを利用して、有効に「一緒に」(例えば、一緒に買い物をする)ユーザのグループを判定し得る。場合によっては、特定のセッションは、施設602に一緒に入場した、かつ施設を一緒にナビゲートする可能性の高い複数のユーザを含み得る。例えば、2人の大人及び2人の子供の家族が一緒に施設に入るときに、在庫管理システムは、各ユーザを特定のセッションに関連付け得る。個々のユーザに加えてセッションの場所を特定することにより、セッション内のユーザが個々に商品を選択、返却、又は別様に商品と対話し得るだけでなく、商品を互いの間で渡し合い得ることを考えると、個々のイベントの結果を判定することに役立ち得る。例えば、上記の例の子供は、子供の母親に箱を手渡す前に、穀物の箱を選択し得、その母親は、そのトート618にその箱を置き得る。子供及び母親を同じセッションに属しているものとして注目すると、その母親の仮想ショッピングカートに穀物の箱を首尾よく追加する機会を増加させることが可能になる。
1つ以上のイベント624、及びそれに関連付けられた出力データ626の発生を判定することによって、在庫管理システム622は、1つ以上のサービスを、施設602のユーザ616に提供することができる。1人以上の人間の関係者を利用し、問い合わせデータを処理し、次いで、出力データ626を生成するために使用され得る応答データを生成することによって、システム全体の精度を向上させ得る。その向上した精度は、施設602の1人以上のユーザ616のユーザ経験を改善し得る。いくつかの例では、出力データ626は、ネットワーク630を介して、1つ以上のサーバ118に送信され得る。
図7は、施設の運用をサポートするように構成された1つ以上のサーバ118のブロック図を例解する。サーバ118は、施設602において物理的に存在し得るか、ネットワーク630によってアクセス可能であり得るか、又は両方の組み合わせであり得る。サーバ118は、サービスを届けるシステムの物理的な場所及び構成について、エンドユーザの知識を必要としない。サーバ118に関連する共通の表現としては、「オンデマンドコンピューティング」、「サービスとしてのソフトウェア(SaaS)」、「クラウドサービス」、「データセンタ」などが挙げられ得る。サーバ118によって提供されるサービスは、1つ以上の物理的又は仮想的デバイスにわたって分散され得る。
サーバ118は、1つ以上の格納された命令を実行するように構成された1つ以上のハードウェアプロセッサ702(プロセッサ)を含み得る。このプロセッサ702は、1つ以上のコアを備え得る。サーバ118は、プロセッサ702、又はサーバ118の他の部分が他のデバイスと通信することを可能にするための1つ以上の入力/出力(I/O)インターフェース704を含み得る。I/Oインターフェース704は、インターインテグレイテッドサーキッツ(I2C)、シリアルペリフェラルインターフェースバス(SPI)、USBインプリメンターズフォーラムによって配布されたユニバーサルシリアルバス(USB)などを備え得る。
サーバ118はまた、1つ以上の通信インターフェース706を含み得る。この通信インターフェース706は、サーバ118と、センサ620、インターフェースデバイス、ルータなどの他のデバイスとの間の通信を提供するように構成されている。通信インターフェース706は、パーソナルエリアネットワーク(PAN)、有線及び無線ローカルエリアネットワーク(LAN)、有線及び無線ワイドエリアネットワーク(WAN)などに結合するように構成されたデバイスを含み得る。例えば、通信インターフェース706は、イーサネット、Wi-Fi(商標)などと互換性のあるデバイスを含み得る。サーバ118はまた、サーバ118の様々なモジュールとコンポーネントとの間のデータ転送を可能にする1つ以上のバス又は他の内部通信ハードウェア若しくはソフトウェアを含み得る。
サーバ118はまた、電力供給源740を含み得る。電力供給源740は、サーバ118内のコンポーネントを動作させるために好適な電力を提供するように構成されている。
サーバ118は、1つ以上のメモリ710を更に含み得る。このメモリ710は、1つ以上のコンピュータ可読記憶媒体(CRSM)を備える。このCRSMは、電子記憶媒体、磁気記憶媒体、光学記憶媒体、量子記憶媒体、機械的コンピュータ記憶媒体などのうちのいずれか1つ以上であり得る。メモリ710は、サーバ118の動作のためのコンピュータ可読命令、データ構造、プログラムモジュール、及び他のデータの記憶装置を提供する。いくつかの例示的な機能モジュールが、メモリ710内に格納されて示されているが、同じ機能性は、代替的に、ハードウェア、ファームウェアで、又はシステムオンチップ(SOC)として実装され得る。
メモリ710は、少なくとも1つのオペレーティングシステム(OS)コンポーネント712を含み得る。このOSコンポーネント712は、I/Oインターフェース704、通信インターフェース708などのハードウェアリソースデバイスを管理し、プロセッサ702上で実行するアプリケーション又はコンポーネントに様々なサービスを提供するように構成される。OSコンポーネント712は、FreeBSDプロジェクトによって配布されたFreeBSD(登録商標)オペレーティングシステムの変形例、他のUNIX(登録商標)又はUNIX(登録商標)のような変形例、Linus Torvaldsによって配布されたLinux(登録商標)オペレーティングシステムの変形例、Redmond,Washington,USAのMicrosoft CorporationからのWindows(登録商標)サーバオペレーティングシステムなどを実装し得る。
以下のコンポーネントのうちの1つ以上はまた、メモリ710内に格納され得る。これらのコンポーネントは、フォアグラウンドアプリケーション、バックグラウンドタスク、デーモンなどとして実行され得る。通信コンポーネント714は、センサ620のうちの1つ以上、関係者によって使用されるデバイスのうちの1つ以上、他のサーバ118、又は他のデバイスとの通信を確立するように構成され得る。これらの通信は、認証、暗号化などされ得る。
メモリ710は、在庫管理システム622を格納し得る。在庫管理システム622は、図1~5を参照して上で説明される技術の一部又は全てを提供するように構成されている。例えば、在庫管理システム622は、スキャンデータを受信し、スキャンされた商品に関して起こったイベントを判定し、ユーザの仮想カートを更新するなどのコンポーネントを含み得る。
在庫管理システム622は、メモリ710内の1つ以上のデータストア718に格納された情報にアクセスし得る。データストア718は、フラットファイル、データベース、リンクされたリスト、ツリー、実行可能コード、スクリプト、又は他のデータ構造を使用して、情報を格納し得る。いくつかの実施態様では、データストア718、又はデータストア718の一部分は、他のサーバ118、ネットワーク接続記憶デバイスなどを含む1つ以上の他のデバイスにわたって分散され得る。データストア718は、ユーザデータ136、環境データ140、センサデータ134、及びカートデータ136などの、上で説明されるデータストアを含み得る。
データストア718はまた、物理レイアウトデータ720も含み得る。この物理レイアウトデータ720は、センサ620、在庫場所614などのデバイス及び対象物の物理レイアウト内の物理的な場所のマッピングを提供する。物理レイアウトデータ720は、在庫場所614の施設602内の座標、その在庫場所614の視野内のセンサ620などを示し得る。例えば、物理レイアウトデータ720は、カメラ620(1)の施設602内の場所、カメラ620(1)の配向、動作可能な状態などのうちの1つ以上を含むカメラデータを含み得る。例を継続すると、物理レイアウトデータ720は、カメラ620(1)の座標、視野628が向けられる方向を示すパン及び傾斜情報、カメラ620(1)が動作又は誤作動しているかどうかなどを示し得る。
いくつかの実施態様では、在庫管理システム622は、物理レイアウトデータ720にアクセスして、イベント624に関連付けられた場所が1つ以上のセンサ620の視野628内にあるかどうかを判定し得る。上の例を継続すると、イベント624の施設602内の場所、及びカメラデータが与えられる場合、在庫管理システム622は、イベント624の画像を生成した可能性があるカメラ620(1)を判定し得る。
商品データ722は、商品604に関連付けられた情報を含む。この情報は、商品604のうちの1つ以上が格納されている1つ以上の在庫場所614を示す情報を含み得る。商品データ722はまた、注文データ、SKU又は他の製品識別子、価格、在庫数量、重量、有効期限、商品604の画像、詳細な説明情報、評価、ランク付けなども含み得る。在庫管理システム622は、在庫管理機能と関連付けられた情報を商品データ722に格納し得る。
データストア718はまた、センサデータ134を含み得る。このセンサデータ134は、1つ以上のセンサ620から取得された、又はそれに基づいて取得された情報を含む。例えば、センサデータ134は、施設602内の対象物についての3D情報を含み得る。上で説明されるように、センサ620は、カメラ620(1)を含み得、そのカメラは、1つ以上の画像を取得するように構成されている。これらの画像は、画像データ726として格納され得る。画像データ726は、複数の画像要素又は画素を記述する情報を含み得る。非画像データ728は、マイクロフォン、重量センサなどからの入力などの、他のセンサ620からの情報を含み得る。
ユーザデータ730はまた、データストア718内に格納し得る。ユーザデータ730は、個人情報データ、プロファイルを示す情報、購入履歴、場所データ、ユーザ616の画像、人口統計データなどを含み得る。個々のユーザ616、又はユーザ616のグループは、在庫管理システム622による使用のために、ユーザデータ730を選択的に提供し得る。個々のユーザ616、又はユーザ616のグループはまた、施設602の使用中にユーザデータ730の収集を許可するか、又は他のシステムから取得されたユーザデータ730へのアクセスを許可し得る。例えば、ユーザ616は、ユーザデータ730の収集にオプトインして、施設602を使用している間に強化されたサービスを受け得る。
いくつかの実施態様では、ユーザデータ730は、特別な取り扱いのためにユーザ616を指定する情報を含み得る。例えば、ユーザデータ730は、特定のユーザ616が、出力データ626に関して増加したエラーの数に関連付けられていることを示し得る。在庫管理システム622は、この情報を使用して、このユーザ616に関連付けられたイベント624に追加の調査を適用するように構成され得る。例えば、閾値量を上回る費用又は結果を有する商品604を含むイベント624は、自動化システムによって生成されるように、出力データ626における判定された信頼レベルとは関係なく、処理するために関係者に提供され得る。
在庫管理システム622は、潜在的に他のコンポーネント756の中でもとりわけ、場所特定コンポーネント124、識別コンポーネント734、画像分析コンポーネント128、イベント判定コンポーネント130、仮想カートコンポーネント132、問い合わせコンポーネント738のうちの1つ以上を含み得る。
場所特定コンポーネント124は、施設の環境内の商品又はユーザの場所を特定して、在庫管理システム622が特定のイベントを正しいユーザに割り当てることができるように機能する。すなわち、場所特定コンポーネント124は、ユーザが施設に入場したときに、一意の識別子をユーザに割り当て得、ユーザの同意を得て、ユーザが施設602内に留まる期間にわたって、施設602全体にわたってユーザの場所を特定し得る。場所特定コンポーネント124は、画像データ726などのセンサデータ134を使用して、この場所特定を実施し得る。例えば、場所特定コンポーネント124は、画像データ726を受信し得、顔認識技術を使用して、画像からユーザを識別し得る。施設内で特定のユーザを識別した後に、次いで、場所特定コンポーネント124は、ユーザが施設602全体にわたって移動するときに、画像内でユーザの場所を特定し得る。更に、場所特定コンポーネント124が特定のユーザを一時的に「失う」場合には、場所特定コンポーネント124は、再度、顔認識に基づいて、かつ/又は音声認識などの他の技術を使用するなどして、施設内のユーザを識別しようと試み得る。
したがって、問題のイベントの時刻及び場所の指標を受信した際に、場所特定コンポーネント124は、データストア718に問い合わせて、イベントの特定の時刻に、どの1人以上のユーザがイベントの場所の閾値距離にいたか、又はその距離内にいたかを判定し得る。更に、場所特定コンポーネント124は、異なる信頼レベルを異なるユーザに割り当て得、その信頼レベルは、それぞれ対応するユーザが、実際に関心のあるイベントに関連付けられているユーザである可能性がどれくらいあるかを示している。
場所特定コンポーネント124は、センサデータ134にアクセスして、ユーザ及び/又は商品のこの場所データを判定し得る。場所データは、商品604、ユーザ616、トート618などの対象物の場所を示す情報を提供する。その場所は、施設602に対して、又は別の対象物若しくは基準点に対して、絶対的であり得る。絶対的という用語は、測地学上の基準点に対する緯度、経度、及び標高を含み得る。相対的という用語は、施設602の間取り図によって指定されるように、x軸に沿って25.4メートル(m)、及びy軸に沿って75.2m、169°の進行方向に沿って在庫場所614から5.2mなどの場所を含み得る。例えば、場所データは、ユーザ616(1)が通路612(1)に沿って25.2mのところにいて、在庫場所614の前部に立っていることを示し得る。比較すると、相対場所は、ユーザ616(1)がトート118に対して73°の進行方向でトート618から32cmのところにいることを示し得る。場所データは、ユーザ616がどの方向に面しているかなどの配向情報を含み得る。その配向は、ユーザの身体が面している相対的な方向によって判定され得る。いくつかの実施態様では、配向は、インターフェースデバイスに対して相対的であり得る。この例を継続すると、場所データは、ユーザ616(1)が進行方向0°で配向されているか、又は北を見ていることを示し得る。別の例では、場所データは、ユーザ616がインターフェースデバイスに向かって面していることを示し得る。
識別コンポーネント734は、対象物を識別するように構成される。一実施態様では、識別コンポーネント734は、商品604を識別するように構成され得る。別の実施態様では、識別コンポーネント734は、ユーザ616を識別するように構成され得る。例えば、識別コンポーネント734は、顔認識技術を使用して、画像データ726を処理し、画像データ726内の特性を、以前格納された結果と比較することによって、画像に描写されるユーザ616の個人情報データを判定し得る。識別コンポーネント734はまた、RFID読み取り機、RF受信機、指紋センサなどの他のセンサ620からのデータにアクセスし得る。
イベント判定コンポーネント130は、上で説明される技術及びその他の技術を使用して、センサデータ134を処理し、出力データ726を生成するように構成されている。イベント判定コンポーネント130は、データストア718に格納された情報にアクセスし得、その情報は、イベント記述データ742、信頼レベル744、又は閾値746を含むが、これらに限定されない。いくつかの事例では、イベント判定コンポーネント130は、イベント判定コンポーネント106に関して上で説明される技術の一部又は全てを実施するように構成され得る。例えば、イベント判定コンポーネント130は、場合によっては環境内の他のセンサによって取得された他のセンサデータを使用することなく、画像データ内のイベント(例えば、事前定義された活動)を識別するためのイベント分類子を作成及び利用するように構成され得る。
イベント記述データ742は、1つ以上のイベント624を示す情報を含む。例えば、イベント記述データ742は、「選択」のイベント624を用いて在庫場所614からの商品604の動きを指定する事前定義されたプロファイルを含み得る。イベント記述データ742は、手動的に生成され得るか、又は自動的に生成され得る。イベント記述データ742は、施設602内で発生するイベントに関連付けられたトリガを示すデータを含み得る。イベントは、トリガの検出時に発生するものとして、判定され得る。例えば、在庫場所614における、重量センサ620(6)からの重量の変化などのセンサデータ134は、商品604が追加されるか、又は在庫場所614から削除されるかのイベントの検出をトリガし得る。別の例では、トリガは、ユーザ616が在庫場所614に向かって手を伸ばす画像を含み得る。更に別の例では、そのトリガは、2人以上のユーザ616が互いの閾値距離内に近づくことを含み得る。
イベント判定コンポーネント130は、1つ以上の技術を使用して、センサデータ134を処理し得、その技術は、人工ニューラルネットワーク、分類子、決定木、サポートベクトルマシン、ベイズネットワークなどを含むが、これらに限定されない。例えば、イベント判定コンポーネント130は、決定木を使用して、センサデータ134に基づいて、「選択」イベント624の発生を判定し得る。イベント判定コンポーネント130は、センサデータ134を更に使用して、1つ以上の暫定結果748を判定し得る。この1つ以上の暫定結果748は、イベント624に関連付けられたデータを含む。例えば、イベント624がユーザ616の曖昧性除去を含む場合、暫定結果748は、可能性のあるユーザ616の個人情報のリストを含み得る。別の例では、イベント624が商品104間の曖昧性除去を含む場合、暫定結果748は、可能性のある商品識別子のリストを含み得る。いくつかの実施態様では、暫定結果748は、可能な作動を示し得る。例えば、その作動は、ユーザ616が商品604を選択し、置き、移動させ、商品604を傷つけ、ジェスチャ入力を提供することなどを含み得る。
いくつかの実施態様では、暫定結果748は、他のコンポーネントによって、生成され得る。例えば、イベント624に関与する、ユーザ616の1つ以上の可能な個人情報又は場所などの暫定結果748は、場所特定コンポーネント124によって生成され得る。別の例では、イベント624に関与した可能性があった商品604などの暫定結果748は、識別コンポーネント734によって生成され得る。
イベント判定コンポーネント130は、暫定結果748の判定に関連付けられた信頼レベル744を提供するように構成され得る。信頼レベル744は、暫定結果748の精度の予測レベルに関する印を提供する。例えば、低い信頼レベル744は、暫定結果748がイベント624の実際の環境に対応する低い確率を有することを示し得る。比較すると、高い信頼レベル744は、暫定結果748がイベント624の実際の環境に対応する高い確率を有することを示し得る。
いくつかの実施態様では、閾値を上回る信頼レベル744を有する暫定結果748は、十分に正確であると考えられ得、したがって、出力データ626として使用され得る。例えば、イベント判定コンポーネント130は、「選択」イベント624に対応する3つの可能性のある商品604(1)、604(2)、及び604(3)を示す暫定結果748を提供し得る。可能性のある商品604(1)、604(2)、及び604(3)に関連付けられた信頼レベル744は、それぞれ、25%、70%、92%であり得る。この例を継続すると、閾値結果は、90%の信頼レベル744が十分に正確であると考えられるように設定され得る。その結果、イベント判定コンポーネント130は、「選択」イベント624を、商品604(3)に関与するものとして指定し得る。
問い合わせコンポーネント738は、イベント624に関連付けられたセンサデータ134の少なくとも一部分を使用して、問い合わせデータ750を生成するように構成され得る。いくつかの実施態様では、問い合わせデータ750は、暫定結果748又は補足データ752のうちの1つ以上を含み得る。問い合わせコンポーネント738は、問い合わせデータ750を、1人以上の人間の関係者に関連付けられた1つ以上のデバイスに提供するように構成され得る。
関係者ユーザインターフェースは、関係者のそれぞれのデバイス上に提示される。関係者は、特定の暫定結果748を選択すること、新しい情報を入力すること、関係者が問い合わせに回答することができないことを示すことなどによって、応答データ754を生成し得る。
補足データ752は、イベント624に関連付けられた情報か、又はセンサデータ134を解釈するのに有効であり得る情報を含む。例えば、補足データ752は、商品604の以前格納された画像を含み得る。別の例では、補足データ752は、1つ以上の画像オーバーレイを含み得る。例えば、画像オーバーレイは、関心のある対象物の印を描写するオーバーレイなどのグラフィカルユーザインターフェース要素を含み得る。これらの印は、強調表示、文字枠、矢印などを含み得、それらは、関係者に提示している間、画像データ626の上に重ね合わせられるか、又は配置される。
問い合わせコンポーネント738は、1人以上の関係者によって提供された応答データ754を処理する。この処理は、応答データ754に関連付けられた1つ以上の統計結果を計算することを含み得る。例えば、統計結果は、関係者が特定の暫定結果748を選択した回数のカウント、特定の暫定結果748を選択した関係者のパーセンテージの判定などを含み得る。
問い合わせコンポーネント738は、応答データ754に少なくとも部分的に基づいて、出力データ626を生成するように構成される。例えば、関係者の大部分が、「選択」イベント624に関連付けられた商品604が商品604(5)であることを示す応答データ754を回答したことを考えると、出力データ626は、商品604(5)が選択されたことを示し得る。
問い合わせコンポーネント738は、特定の関係者に問い合わせを選択的に配布するように構成され得る。例えば、一部の関係者は、特定の種類の問い合わせに回答するのにより良好に適している可能性がある。関係者のパフォーマンスについての統計データなどのパフォーマンスデータは、関係者によって提供された応答データ754から、問い合わせコンポーネント738によって判定され得る。例えば、特定の関係者が、関係者の大部分に反対する応答データ754を選択した異なる問い合わせのパーセンテージを示す情報が、維持される場合がある。いくつかの実施態様では、以前に知られた正しい回答を有するテスト又は実践用問い合わせデータ750は、訓練又は品質保証の目的のために、関係者に提供され得る。関係者のセットが使用する判定は、パフォーマンスデータに少なくとも部分的に基づいている可能性がある。
問い合わせコンポーネント738を使用することによって、イベント判定コンポーネント130は、イベント624を正確に表す出力データ626に高い信頼性を提供することが可能であり得る。問い合わせコンポーネント738によって応答データ754から生成された出力データ626を再度使用して、在庫管理システム622によって使用される自動化システムを更に訓練し得る。例えば、センサデータ134及び出力データ626は、応答データ754に基づいて、プロセス改善の訓練のために、在庫管理システム622のコンポーネントのうちの1つ以上に提供され得る。この例を継続すると、この情報は、人工ニューラルネットワーク、ベイズネットワークなどに提供され得、これらのシステムを更に訓練し、その結果、同じ又は同様の入力について、将来生成される信頼レベル744及び暫定結果748が改善される。最後に、図7が例解するように、サーバ118は、他のデータ758を格納及び/又は利用し得る。
実施形態は、ソフトウェアプログラム又はコンピュータプログラム製品として提供され得、これらの製品には、コンピュータ(又は他の電子デバイス)をプログラムして、本明細書において説明されるプロセス又は方法を実行するために使用され得る命令(圧縮又は非圧縮形式で)をその上に格納した非一時的コンピュータ可読記憶媒体が含まれる。コンピュータ可読記憶媒体は、電子記憶媒体、磁気記憶媒体、光学記憶媒体、量子記憶媒体などのうちの1つ以上であり得る。例えば、このコンピュータ可読記憶媒体には、ハードドライブ、フロッピーディスク、光ディスク、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、消去可能プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、フラッシュメモリ、磁気若しくは光カード、半導体メモリデバイス、又は電子的命令を格納するために好適な他のタイプの物理媒体が含まれ得るが、これらに限定されない。更に、実施形態はまた、一時的機械可読信号(圧縮又は非圧縮形式で)を含むコンピュータプログラム製品として提供し得る。機械可読信号の例は、キャリアを使用して変調されるか、又は変調されないかにかかわらず、コンピュータプログラムをホスト又は実行するコンピュータシステム又はマシンがアクセスするように構成することができる信号を含み、この信号は、1つ以上のネットワークによって転送される信号を含むが、これに限定されない。例えば、一時的マシン可読信号は、インターネットによるソフトウェアの送信を含み得る。
これらのプログラムの別個の事例は、任意の数の別個のコンピュータシステム上で実行され得、又はそれらのコンピュータシステムを横断して配布され得る。したがって、特定のステップが、特定のデバイス、ソフトウェアプログラム、プロセス、又はエンティティによって実行されるものとして説明されているが、これは、そうである必要はなく、様々な代替的な実施態様が、当業者によって理解されるであろう。
更に、当業者は、上で説明される技術が、様々なデバイス、環境、及び状況において利用することができることを容易に認識する。本主題は、構造的特徴又は方法論的行為に特有の言語で説明されているが、添付の特許請求の範囲に定義された主題は、説明された具体的な特徴又は行為に必ずしも限定されるものではないことを理解されたい。逆に、具体的な特徴及び行為は、特許請求の範囲を実施する例示的な形式として開示されている。
前述の発明は、具体的な例に関して説明されているが、本発明の範囲がこれらの具体的な例に限定されないことを理解されたい。特定の動作要件及び環境に適合するように変更された他の修正及び変更は、当業者に明らかであるため、本発明は開示の目的で選択された実施例に限定されたとみなされず、本発明の真の概念及び範囲から逸脱しない全部の変更及び修正に及ぶ。
本開示の実施形態は、以下の条項を考慮して説明することができる。
1.システムであって、環境の画像データを生成するカメラと、環境内の商品に関連付けられたバーコードを示すスキャンデータを生成するスキャナと、1つ以上のコンピューティングデバイスと、を備え、1つ以上のコンピューティングデバイスは、1つ以上のプロセッサと、コンピュータ実行可能命令を格納する1つ以上のコンピュータ可読媒体と、を備え、コンピュータ実行可能命令は、実行されたときに、1つ以上のプロセッサに、スキャナがスキャンデータを生成したという指標を受信することと、スキャンデータを生成するスキャナに関連付けられた第1の時刻を判定することと、スキャナに関連付けられ、環境内にある、関心体積(VOI)を判定することであって、VOIが画像データに表される、判定することと、画像データの第1のフレームを分析することであって、第1のフレームが、第1の時刻の後である第2の時刻に関連付けられている、分析することと、第1のフレームを分析することに少なくとも部分的に基づいて、VOI内のユーザの空の手を識別することと、画像データの第2のフレームを分析することであって、第2のフレームが、第2の時刻の後である第3の時刻に関連付けられている、分析することと、第2のフレームを分析することに少なくとも部分的に基づいて、VOI内のユーザの満たされた手を識別することと、スキャンデータから、商品に関連付けられた商品識別子を判定することと、商品の商品識別子を、ユーザの仮想カートに関連付けて格納することと、を含む行為を実施させる、システム。
2.画像データの第1のフレームを分析することが、第1のフレームに関連付けられた第1の特徴データを、訓練された分類子に入力することと、訓練された分類子の出力として、第1のフレームが手を含むかどうかを示す第1のスコアと、手が空であるか又は満たされているかを示す第2のスコアと、を受信することと、を含み、画像データの第2のフレームを分析することが、第2のフレームに関連付けられた第2の特徴データを、訓練された分類子に入力することと、訓練された分類子の出力として、第2のフレームが手を含むかどうかを示す第3のスコアと、手が空であるか又は満たされているかを示す第4のスコアと、を受信することと、を含む、条項1に記載のシステム。
3.1つ以上のコンピューティングデバイスは、1つ以上のプロセッサと、コンピュータ実行可能命令を格納する1つ以上のコンピュータ可読媒体と、を備え、コンピュータ実行可能命令は、実行されたときに、1つ以上のプロセッサに、環境内のセンサによって生成されたセンサデータを受信することであって、センサデータが、商品を識別する、受信することと、センサに関連付けられた環境の一部分を判定することと、環境内のカメラによって生成された画像データを受信することであって、画像データが、センサに関連付けられた環境の一部分を表す、受信することと、画像データを分析することと、分析することに少なくとも部分的に基づいて、画像データに表される手を識別することと、手に関連付けられたユーザ識別子を判定することと、ユーザ識別子に関連付けられた仮想カートデータを更新して、商品に関連付けられた商品識別子を示すことと、を含む行為を実施させる。
4.センサによって生成されたセンサデータを受信することが、商品に関連付けられた視覚的な印をスキャンしたスキャニングデバイスによって生成されたスキャンデータを受信することを含む、条項3に記載の1つ以上のコンピューティングデバイス。
5.1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、コンピュータ実行可能命令が、実行されたときに、1つ以上のプロセッサに、センサがセンサデータを生成した第1の時刻を示すデータを受信することを含む行為を実施させ、分析することが、カメラによって生成された画像データを、第1の時刻の後、及び第1の時刻の閾値時間量内に分析することを含む、条項3に記載の1つ以上のコンピューティングデバイス。
6.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの少なくとも一部分を分析することを含む、条項3に記載の1つ以上のコンピューティングデバイス。
7.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの少なくとも一部分を分析することを含み、識別することが、手がVOIに入った後に手を識別することを含む、条項3に記載の1つ以上のコンピューティングデバイス。
8.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの第1のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第2のフレームの少なくとも一部分を分析することと、を含み、識別することが、第1のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の空の手を識別することと、第2のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の満たされた手を識別することと、を含む、条項3に記載の1つ以上のコンピューティングデバイス。
9.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの第1のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第2のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第3のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第4のフレームの少なくとも一部分を分析することと、を含み、識別することが、第1のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第1の場所で空の手を識別することと、第2のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第2の場所で空の手を識別することと、第3のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第3の場所で満たされた手を識別することと、第4のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第4の場所で満たされた手を識別することと、を含み、1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、コンピュータ実行可能命令が、実行されたときに、1つ以上のプロセッサに、第1の場所及び第2の場所に少なくとも部分的に基づいて、第1の方向ベクトルを判定することと、第3の場所及び第4の場所に少なくとも部分的に基づいて、第2の方向ベクトルを判定することと、を含む行為を実施させ、更新することが、第1の方向ベクトル及び第2の方向ベクトルに少なくとも部分的に基づいて、ユーザ識別子に関連付けられた仮想カートデータを更新することを含む、条項3に記載の1つ以上のコンピューティングデバイス。
10.分析することが、画像データの第1のフレームを使用してセグメンテーションマップを生成することであって、セグメンテーションマップが、ユーザの手に対応する第1のフレームの第1の画素のセットを少なくとも識別する、生成することと、ユーザの手に対応する第1のフレームの第1の画素のセットを示す第1のデータを、訓練された分類子に入力することと、を含み、識別することが、訓練された分類子の出力として、手が商品を受け取ったことを示す第2のデータを受信することを含む、条項3に記載の1つ以上のコンピューティングデバイス。
11.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの少なくとも一部分を分析することを含み、識別することが、VOI内の手を識別することを含み、1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、コンピュータ実行可能命令が、実行されたときに、1つ以上のプロセッサに、VOI内の商品を識別することを含む行為を実施させる、条項3に記載の1つ以上のコンピューティングデバイス。
12.方法は、環境内のセンサによって生成されたセンサデータを受信することであって、センサデータが、商品を識別する、受信することと、センサに関連付けられた環境の一部分を判定することと、環境内のカメラによって生成された画像データを受信することであって、画像データが、センサに関連付けられた環境の一部分を表す、受信することと、画像データを分析することと、分析することに少なくとも部分的に基づいて、画像データに表される手を識別することと、手に関連付けられたユーザ識別子を判定することと、ユーザ識別子に関連付けられた仮想カートデータを更新して、商品に関連付けられた商品識別子を示すことと、を含む。
13.センサによって生成されたセンサデータを受信することが、商品に関連付けられた視覚的な印をスキャンしたスキャニングデバイスによって生成されたスキャンデータを受信することを含む、条項12に記載の方法。
14.センサがセンサデータを生成した第1の時刻を示すデータを受信することを更に含み、分析することが、カメラによって生成された画像データを、第1の時刻の後、及び第1の時刻の閾値時間量内に分析することを含む、条項12に記載の方法。
15.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの少なくとも一部分を分析することを含む、条項12に記載の方法。
16.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの少なくとも一部分を分析することを含み、識別することが、手がVOIに入った後に手を識別することを含む、条項12に記載の方法。
17.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの第1のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第2のフレームの少なくとも一部分を分析することと、を含み、識別することが、第1のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の空の手を識別することと、第2のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の満たされた手を識別することと、を含む、条項12に記載の方法。
18.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの第1のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第2のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第3のフレームの少なくとも一部分を分析することと、VOIに対応する画像データの第4のフレームの少なくとも一部分を分析することと、を含み、識別することが、第1のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第1の場所で空の手を識別することと、第2のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第2の場所で空の手を識別することと、第3のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第3の場所で満たされた手を識別することと、第4のフレームの少なくとも一部分を分析することに少なくとも部分的に基づいて、VOI内の第4の場所で満たされた手を識別することと、を含み、1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、コンピュータ実行可能命令が、実行されたときに、1つ以上のプロセッサに、第1の場所及び第2の場所に少なくとも部分的に基づいて、第1の方向ベクトルを判定することと、第3の場所及び第4の場所に少なくとも部分的に基づいて、第2の方向ベクトルを判定することと、を含む行為を実施させ、更新することが、第1の方向ベクトル及び第2の方向ベクトルに少なくとも部分的に基づいて、ユーザ識別子に関連付けられた仮想カートデータを更新することを含む、条項12に記載の方法。
19.分析することが、分析することを含み、分析することが、画像データの第1のフレームを使用してセグメンテーションマップを生成することであって、セグメンテーションマップが、ユーザの手に対応する第1のフレームの第1の画素のセットを少なくとも識別する、生成することと、ユーザの手に対応する第1のフレームの第1の画素のセットを示す第1のデータを、訓練された分類子に入力することと、を含み、識別することが、訓練された分類子の出力として、手が商品を受け取ったことを示す第2のデータを受信することを含む、条項12に記載の方法。
20.一部分を判定することが、センサに対する環境内の関心体積(VOI)を判定することを含み、分析することが、VOIに対応する画像データの少なくとも一部分を分析することを含み、識別することが、VOI内の手を識別することを含み、1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、コンピュータ実行可能命令が、実行されたときに、1つ以上のプロセッサに、VOI内の商品を識別することを含む行為を実施させる、条項12に記載の方法。
?
?
Claims (15)
- 1つ以上のコンピューティングデバイスであって、
1つ以上のプロセッサと、
コンピュータ実行可能命令を格納する1つ以上のコンピュータ可読媒体と、を備え、前記コンピュータ実行可能命令が、実行されたときに、前記1つ以上のプロセッサに、
環境内のセンサによって生成されたセンサデータを受信することであって、前記センサデータが、商品を識別する、受信することと、
前記センサに関連付けられた前記環境の一部分を判定することと、
前記環境内のカメラによって生成された画像データを受信することであって、前記画像データが、前記センサに関連付けられた前記環境の前記一部分を表す、受信することと、
前記画像データを分析することと、
前記分析することに少なくとも部分的に基づいて、前記画像データに表される手を識別することと、
前記手に関連付けられたユーザ識別子を判定することと、
前記ユーザ識別子に関連付けられた仮想カートデータを更新して、前記商品に関連付けられた商品識別子を示すことと、を含む行為を実施させる、1つ以上のコンピューティングデバイス。 - 前記センサによって生成された前記センサデータを前記受信することが、前記商品に関連付けられた視覚的な印をスキャンしたスキャニングデバイスによって生成されたスキャンデータを受信することを含む、請求項1に記載の1つ以上のコンピューティングデバイス。
- 前記1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、前記コンピュータ実行可能命令が、実行されたときに、前記1つ以上のプロセッサに、前記センサが前記センサデータを生成した第1の時刻を示すデータを受信することを含む行為を実施させ、前記分析することが、前記カメラによって生成された画像データを、前記第1の時刻の後、及び前記第1の時刻の閾値時間量内に分析することを含む、請求項1に記載の1つ以上のコンピューティングデバイス。
- 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、前記VOIに対応する前記画像データの少なくとも一部分を分析することを含む、請求項1に記載の1つ以上のコンピューティングデバイス。 - 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、前記VOIに対応する前記画像データの少なくとも一部分を分析することを含み、
前記識別することが、前記手が前記VOIに入った後に前記手を識別することを含む、請求項1に記載の1つ以上のコンピューティングデバイス。 - 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、
前記VOIに対応する前記画像データの第1のフレームの少なくとも一部分を分析することと、
前記VOIに対応する前記画像データの第2のフレームの少なくとも一部分を分析することと、を含み、
前記識別することが、
前記第1のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の空の手を識別することと、
前記第2のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の満たされた手を識別することと、を含む、請求項1に記載の1つ以上のコンピューティングデバイス。 - 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、
前記VOIに対応する前記画像データの前記第1のフレームの少なくとも一部分を分析することと、
前記VOIに対応する前記画像データの第2のフレームの少なくとも一部分を分析することと、
前記VOIに対応する前記画像データの第3のフレームの少なくとも一部分を分析することと、
前記VOIに対応する前記画像データの第4のフレームの少なくとも一部分を分析することと、を含み、
前記識別することが、
前記第1のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の第1の場所で空の手を識別することと、
前記第2のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の第2の場所で空の手を識別することと、
前記第3のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の第3の場所で満たされた手を識別することと、
前記第4のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の第4の場所で満たされた手を識別することと、を含み、
前記1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、前記コンピュータ実行可能命令が、実行されたときに、前記1つ以上のプロセッサに、
前記第1の場所及び前記第2の場所に少なくとも部分的に基づいて、第1の方向ベクトルを判定することと、
前記第3の場所及び前記第4の場所に少なくとも部分的に基づいて、第2の方向ベクトルを判定することと、を含む行為を実施させ、
前記更新することが、前記第1の方向ベクトル及び前記第2の方向ベクトルに少なくとも部分的に基づいて、前記ユーザ識別子に関連付けられた前記仮想カートデータを更新することを含む、請求項1に記載の1つ以上のコンピューティングデバイス。 - 前記分析することが、
前記画像データの第1のフレームを使用してセグメンテーションマップを生成することであって、前記セグメンテーションマップが、前記ユーザの手に対応する前記第1のフレームの第1の画素のセットを少なくとも識別する、生成することと、
前記ユーザの前記手に対応する前記第1のフレームの前記第1の画素のセットを示す第1のデータを、訓練された分類子に入力することと、を含み、
前記識別することが、前記訓練された分類子の出力として、前記手が前記商品を受け取ったことを示す第2のデータを受信することを含む、請求項1に記載の1つ以上のコンピューティングデバイス。 - 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、前記VOIに対応する前記画像データの少なくとも一部分を分析することを含み、
前記識別することが、前記VOI内の前記手を識別することを含み、
前記1つ以上のコンピュータ可読媒体が、コンピュータ実行可能命令を更に格納し、前記コンピュータ実行可能命令が、実行されたときに、前記1つ以上のプロセッサに、前記VOI内の前記商品を識別することを含む行為を実施させる、請求項1に記載の1つ以上のコンピューティングデバイス。 - 方法であって、
環境内のセンサによって生成されたセンサデータを受信することであって、前記センサデータが、商品を識別する、受信することと、
前記センサに関連付けられた前記環境の一部分を判定することと、
前記環境内のカメラによって生成された画像データを受信することであって、前記画像データが、前記センサに関連付けられた前記環境の前記一部分を表す、受信することと、
前記画像データを分析することと、
前記分析することに少なくとも部分的に基づいて、前記画像データに表される手を識別することと、
前記手に関連付けられたユーザ識別子を判定することと、
前記ユーザ識別子に関連付けられた仮想カートデータを更新して、前記商品に関連付けられた商品識別子を示すことと、を含む、方法。 - 前記センサによって生成された前記センサデータを前記受信することが、前記商品に関連付けられた視覚的な印をスキャンしたスキャニングデバイスによって生成されたスキャンデータを受信することを含む、請求項10に記載の方法。
- 前記センサが前記センサデータを生成した第1の時刻を示すデータを受信することを更に含み、前記分析することが、前記カメラによって生成された画像データを、前記第1の時刻の後、及び前記第1の時刻の閾値時間量内に分析することを含む、請求項10に記載の方法。
- 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、前記VOIに対応する前記画像データの少なくとも一部分を分析することを含む、請求項10に記載の方法。 - 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、前記VOIに対応する前記画像データの少なくとも一部分を分析することを含み、
前記識別することが、前記手が前記VOIに入った後に前記手を識別することを含む、請求項10に記載の方法。 - 前記一部分を前記判定することが、前記センサに対する前記環境内の関心体積(VOI)を判定することを含み、
前記分析することが、
前記VOIに対応する前記画像データの第1のフレームの少なくとも一部分を分析することと、
前記VOIに対応する前記画像データの第2のフレームの少なくとも一部分を分析することと、を含み、
前記識別することが、
前記第1のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の空の手を識別することと、
前記第2のフレームの前記少なくとも前記一部分を前記分析することに少なくとも部分的に基づいて、前記VOI内の満たされた手を識別することと、を含む、請求項10に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/106,755 | 2020-11-30 | ||
US17/106,755 US11688170B2 (en) | 2020-11-30 | 2020-11-30 | Analyzing sensor data to identify events |
PCT/US2021/061220 WO2022115789A1 (en) | 2020-11-30 | 2021-11-30 | Analyzing sensor data to identify events |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023550084A true JP2023550084A (ja) | 2023-11-30 |
Family
ID=79024754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023529063A Pending JP2023550084A (ja) | 2020-11-30 | 2021-11-30 | イベントを識別するためのセンサデータの分析 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11688170B2 (ja) |
EP (1) | EP4252198A1 (ja) |
JP (1) | JP2023550084A (ja) |
CN (1) | CN116615743A (ja) |
WO (1) | WO2022115789A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6821009B2 (ja) * | 2017-12-25 | 2021-01-27 | ▲図▼▲霊▼通▲諾▼(北京)科技有限公司Yi Tunnel (Beijing) Technology Co.,Ltd. | 会計方法、装置及びシステム |
US11688170B2 (en) * | 2020-11-30 | 2023-06-27 | Amazon Technologies, Inc. | Analyzing sensor data to identify events |
US20220327511A1 (en) * | 2021-04-07 | 2022-10-13 | Vcognition, Inc. | System and method for acquiring training data of products for automated checkout |
WO2024031037A1 (en) * | 2022-08-04 | 2024-02-08 | Koireader Technologies, Inc. | System and methods for reducing order cart pick errors |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8903119B2 (en) | 2010-10-11 | 2014-12-02 | Texas Instruments Incorporated | Use of three-dimensional top-down views for business analytics |
WO2013059716A2 (en) | 2011-10-19 | 2013-04-25 | Ran Margalit | Automated purchasing system |
WO2013112749A1 (en) | 2012-01-24 | 2013-08-01 | University Of Southern California | 3d body modeling, from a single or multiple 3d cameras, in the presence of motion |
US9473747B2 (en) * | 2013-07-25 | 2016-10-18 | Ncr Corporation | Whole store scanner |
US10019149B2 (en) | 2014-01-07 | 2018-07-10 | Toshiba Global Commerce Solutions Holdings Corporation | Systems and methods for implementing retail processes based on machine-readable images and user gestures |
US10332066B1 (en) | 2015-03-30 | 2019-06-25 | Amazon Technologies, Inc. | Item management system using weight |
US10846996B2 (en) * | 2016-04-25 | 2020-11-24 | Standard Cognition Corp. | Registry verification for a mechanized store using radio frequency tags |
US20180240180A1 (en) * | 2017-02-20 | 2018-08-23 | Grabango Co. | Contextually aware customer item entry for autonomous shopping applications |
US10963740B2 (en) * | 2017-05-12 | 2021-03-30 | Focal Systems, Inc. | Automatic labeling of products via expedited checkout system |
US10127438B1 (en) | 2017-08-07 | 2018-11-13 | Standard Cognition, Corp | Predicting inventory events using semantic diffing |
US10133933B1 (en) * | 2017-08-07 | 2018-11-20 | Standard Cognition, Corp | Item put and take detection using image recognition |
US11080680B2 (en) * | 2018-01-31 | 2021-08-03 | Target Brands, Inc. | Physical shopping chart-to-mobile device associations |
EP3654305B1 (de) * | 2018-11-14 | 2024-02-14 | Bizerba SE & Co. KG | Verkaufsvorrichtung zum selbst-checkout |
WO2020256172A1 (ko) * | 2019-06-18 | 2020-12-24 | 엘지전자 주식회사 | 카트 로봇 |
US10953906B1 (en) * | 2019-09-27 | 2021-03-23 | Amazon Technologies, Inc. | Item-identifying carts |
US10861085B1 (en) * | 2019-10-25 | 2020-12-08 | 7-Eleven, Inc. | Apparatus, system and method for populating a virtual shopping cart based on video of a customers shopping session at a physical store |
US11455869B2 (en) * | 2020-10-13 | 2022-09-27 | Trax Technology Solutions Pte Ltd. | Updating shopping list based on analysis of images |
US11688170B2 (en) * | 2020-11-30 | 2023-06-27 | Amazon Technologies, Inc. | Analyzing sensor data to identify events |
-
2020
- 2020-11-30 US US17/106,755 patent/US11688170B2/en active Active
-
2021
- 2021-11-30 EP EP21831178.5A patent/EP4252198A1/en active Pending
- 2021-11-30 CN CN202180078113.1A patent/CN116615743A/zh active Pending
- 2021-11-30 JP JP2023529063A patent/JP2023550084A/ja active Pending
- 2021-11-30 WO PCT/US2021/061220 patent/WO2022115789A1/en active Application Filing
-
2023
- 2023-06-02 US US18/205,077 patent/US20230394831A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022115789A1 (en) | 2022-06-02 |
EP4252198A1 (en) | 2023-10-04 |
CN116615743A (zh) | 2023-08-18 |
US20230394831A1 (en) | 2023-12-07 |
US11688170B2 (en) | 2023-06-27 |
US20220171972A1 (en) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11568361B1 (en) | Merging events in interactive data processing systems | |
JP6463804B2 (ja) | 物品の相互作用及び移動検出方法 | |
US11861678B1 (en) | Updating cart state using auto-generated sensor data | |
US11328147B1 (en) | Identifying item barcodes | |
JP2023550084A (ja) | イベントを識別するためのセンサデータの分析 | |
US11301684B1 (en) | Vision-based event detection | |
JP7417738B2 (ja) | カスタマイズされた小売環境 | |
US11941629B2 (en) | Electronic device for automated user identification | |
US11443275B1 (en) | Maintaining accurate cart-state using auto-generated sensor data | |
US11922486B2 (en) | Identifying items using cascading algorithms | |
US11887046B1 (en) | Updating machine learning systems using previous output data | |
US11790630B1 (en) | Inferring facility planograms | |
US11393301B1 (en) | Hybrid retail environments | |
US11392889B1 (en) | Analysis of events for state detection | |
US11880779B1 (en) | Generating event results using auto-generated sensor data | |
US11657689B1 (en) | Customized retail environments | |
US11488231B1 (en) | Systems and method for an application for updating virtual carts | |
US11869065B1 (en) | System and method for vision-based event detection | |
US11488103B1 (en) | Customized retail environments | |
US11068962B1 (en) | Updating cart state using auto-generated sensor data | |
US11810362B1 (en) | Image-based detection of planogram product spaces | |
US11868956B1 (en) | Session-based analysis of events | |
US12033434B1 (en) | Inventory status determination with fleet management | |
US11782978B1 (en) | Techniques for storing and analyzing data | |
US11615460B1 (en) | User path development |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240422 |