JP7288448B2 - ショッピングアプリケーション用ユーザ支援ロボット - Google Patents

ショッピングアプリケーション用ユーザ支援ロボット Download PDF

Info

Publication number
JP7288448B2
JP7288448B2 JP2020539207A JP2020539207A JP7288448B2 JP 7288448 B2 JP7288448 B2 JP 7288448B2 JP 2020539207 A JP2020539207 A JP 2020539207A JP 2020539207 A JP2020539207 A JP 2020539207A JP 7288448 B2 JP7288448 B2 JP 7288448B2
Authority
JP
Japan
Prior art keywords
items
item
robotic arm
instructions
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020539207A
Other languages
English (en)
Other versions
JP2021511221A (ja
Inventor
ペプケ ステファニー
チェン ティファニー
Original Assignee
トヨタ リサーチ インスティテュート,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ リサーチ インスティテュート,インコーポレイティド filed Critical トヨタ リサーチ インスティテュート,インコーポレイティド
Publication of JP2021511221A publication Critical patent/JP2021511221A/ja
Application granted granted Critical
Publication of JP7288448B2 publication Critical patent/JP7288448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62BHAND-PROPELLED VEHICLES, e.g. HAND CARTS OR PERAMBULATORS; SLEDGES
    • B62B3/00Hand carts having more than one axis carrying transport wheels; Steering devices therefor; Equipment therefor
    • B62B3/14Hand carts having more than one axis carrying transport wheels; Steering devices therefor; Equipment therefor characterised by provisions for nesting or stacking, e.g. shopping trolleys
    • B62B3/1472Supports for specific articles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40298Manipulator on vehicle, wheels, mobile
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45048Packaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45052Filling vehicle with material
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Electromagnetism (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Marketing (AREA)
  • Automation & Control Theory (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

相互参照
本出願は、2018年1月17日に出願された米国特許出願番号15/873,166号の利益を主張し、その全体は参照により組み込まれる。
技術分野
本明細書は、概して、ロボットシステムおよび方法、より具体的には、保持コンパートメントのアイテムおよび画像データについての1組の取扱命令に応答して、保持コンパートメント内にアイテムを自動的に収集して配置するためのロボットシステムおよび方法に関する。
背景
ショッピングは、一般的に、店舗の通路を歩きまわって、購入するアイテムをショッピングカートまたはバスケットに入れながら、ショッピングカートまたはバスケットを使用して多数のアイテムを収集することからなる。さらに、店舗は一般的に、店舗の全体的な面積を減らして最終的に製品価格を低く抑えるために、通路に可能な限り多くのアイテムを詰め込もうとする。その結果、いくつかの問題が発生する。高齢者または身体の不自由な買い物客にとって、多くのアイテムは手の届かないものであり、あるいは、危険すぎて彼ら/彼女らのショッピングカートまたはバスケットに集めて入れることができないものである。同様に、多くの買い物客が、オンラインストアを介してアイテムを購入するような、より近代的なショッピング方法に転換するにつれて、多くの通路を有しさらに多くのアイテムを有する店舗でのショッピング体験を最適化する必要性がある。
したがって、購入のためのアイテムを店内で収集することについて買い物客を支援するための改善されたシステムおよび方法の必要性が存在する。
概要
一実施形態では、ロボットシステムは、電子制御ユニットと、1つ以上のアイテムを搬送するように構成された保持コンパートメントとを含む。電子制御ユニットは、プロセッサと、機械可読命令セットを含む非一時的コンピュータ可読メモリとを含む。ロボットシステムはさらに、保持コンパートメントの環境の画像データをキャプチャするためのカメラと、電子制御ユニットに通信可能に結合されたロボットアームとを含む。機械可読命令セットは、プロセッサに、カメラから保持コンパートメントの環境の画像データを受け取ることと、ロボットアームによって収集されたアイテムについての1組の取扱命令を決定することと、保持コンパートメントの環境の画像データおよび1組の取扱命令に基づいて、ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定することと、保持コンパートメント内の決定された位置にアイテムを配置するようにロボットアームを操作することと、を実行させる。
別の実施形態では、ロボットシステムは、電子制御ユニットと、1つ以上のアイテムを搬送するように構成された保持コンパートメントとを含む。電子制御ユニットは、プロセッサと、機械可読命令セットを含む非一時的コンピュータ可読メモリとを含む。ロボットシステムはさらに、保持コンパートメントの環境の画像データをキャプチャするために電子制御ユニットに通信可能に結合されたカメラと、電子制御ユニットに通信可能に結合され、保持コンパートメントに回転可能に結合されたロボットアームとを含む。さらに、ロボットシステムは、ロボットアームおよび保持コンパートメントに結合された電動ベースを含む。機械可読命令セットは、プロセッサに、カメラから保持コンパートメントの環境の画像データを受信することと、収集されるべきアイテムの画像データをカメラから受信することと、カメラから受信したアイテムの画像データに基づいてアイテムについての1組の取扱命令を決定することと、保持コンパートメントの環境の画像データおよび1組の取扱命令に基づいて、ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定することと、保持コンパートメント内の決定された位置にアイテムを配置するようにロボットアームを操作することと、を実行させる。
別の実施形態では、アイテムを格納するための方法は、保持コンパートメントの環境のカメラから画像データを受信することと、ロボットアームによって収集されたアイテムについての1組の取扱命令を決定することと、を含む。方法はさらに、保持コンパートメントの環境の画像データおよび1組の取扱命令に基づいて、ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定することと、ロボットアームを操作して、保持コンパートメント内の決定された位置にアイテムを配置することを含む。
本開示に記載された実施形態によって提供されるこれらおよび追加の特徴は、図面と併せて、以下の詳細な説明の観点から、より完全に理解されるであろう。
図面の簡単な説明
図面に記載された実施形態は、本質的に例示的であり、特許請求の範囲によって定義された主題を限定することを意図していない。例示的な実施形態の以下の詳細な説明は、以下の図面と組み合わせて読めば理解されるであろう。以下の図面では、類似の構造は類似の参照数字で示される。
図1は、本開示に示され、記載されている1つ以上の実施形態に従った、ロボットシステムの構成要素を模式的に描写した図である。
図2は、本開示に示され、記載されている1つ以上の実施形態に従ったショッピングアプリケーションのためのロボットシステムのための方法を描写したフローチャートである。
図3は、本開示に示され、記載されている1つ以上の実施形態に従った、保持コンパートメントを有する典型的なショッピングカートを備えるロボットであって、保持コンパートメントにロボットアームが回転可能に結合されているロボットを例示する図である。
図4Aは、本開示に示され、記載されている1つ以上の実施形態に従った、複数のグロッサリーバッグを備える保持コンパートメントを例示する図である。
図4Bは、本開示に示され、記載されている1つ以上の実施形態に従った、複数の折りたたみ可能なグロッサリーバッグを備える別の保持コンパートメントを例示する図である。
図5は、本開示に示され、記載されている1つ以上の実施形態に従った、内部に格納された複数のアイテムを有するロボットの保持コンパートメントの画像データを例示する図である。
図6は、本開示に示され、記載されている1つ以上の実施形態に従った、アイテムの特定の分類を保持するための4つのあらかじめ分割された部分を含む保持コンパートメントを例示する図である。
図7は、本開示に示され、記載されている1つ以上の実施形態に従った、電動スクーターベースを有するように構成された別のロボットを例示する図である。
詳細な説明
本開示に開示される実施形態は、ショッピングアプリケーションのためのロボットシステムおよび方法を含む。図を一般的に参照すると、本ロボットシステムおよび方法は、カメラ、ロボットアーム、および保持コンテナを含む。1組の機械可読命令はプロセッサに少なくとも、カメラから保持コンテナの環境の画像データを受信することと、ロボットアームによって収集されたアイテムのための1組の取扱命令を決定することと、保持コンテナの環境の画像データおよび1組の取扱命令に基づいて、ロボットアームによって収集されたアイテムを配置するために保持コンテナ内の位置を決定することと、ロボットアームを操作して保持コンテナ内の決定された位置にアイテムを配置することと、を実行させる。本開示では、ショッピングアプリケーションのための様々なロボットシステムおよび方法を、例示的ではあるが非限定的な実施形態として、対応する図面を具体的に参照しつつ、より詳細に説明する。
さて、同種の符号が同種の構造を表している図面、特に図1を参照すると、ショッピングアプリケーションのためのロボットシステム100が描かれている。ロボットシステム100は、ロボット110を含む。ロボット110は、通信パス120と、プロセッサ132および非一時的コンピュータ可読メモリ134を備える電子制御ユニット130と、ディスプレイ136と、モーションセンサ138と、入力デバイス140と、スピーカ142と、マイク144と、1つ以上のカメラ146と、バーコードスキャナ148と、ロボットアーム150と、温度センサ154と、重量センサ156と、圧力センサ158と、LIDARシステム160と、ネットワークインタフェースハードウェア170とを含む。ロボット110は、ネットワークインターフェースハードウェア170を介してネットワーク180に通信可能に結合される。ロボット110の構成要素は、物理的に一緒に結合されていてもよいし、通信パス120および/またはネットワーク180を介して通信可能にかつ作動可能に結合されていてもよい。ロボット110の様々な構成要素およびその相互作用を、以下に詳細に説明する。
通信パス120を、例えば、導電性ワイヤ、導電性トレース、光導波路、などの信号を送信可能な任意の媒体から形成してもよい。また、通信パス120は、電磁放射およびそれらに対応する電磁波が横断する広がりを指してもよい。さらに、通信パス120を、信号を伝送することが可能な媒体の組み合わせから形成してもよい。一実施形態では、通信パス120は、プロセッサ、メモリ、センサ、入力デバイス、出力デバイス、および通信デバイスなどの構成要素への電気データ信号の伝送を可能にするように協力する、導電性トレース、導電性ワイヤ、コネクタ、およびバスの組み合わせを備える。したがって、通信パス120は、バスを備えてもよい。さらに、「信号」という用語は、直流、交流、正弦波、三角波、方形波、振動などのような、媒体を通過可能な波形(例えば、電気的、光学的、磁気的、機械的または電磁的)を意味することに留意されたい。通信パス120は、ロボット110の様々な構成要素を通信可能に結合する。ここでいう「通信可能に結合」とは、例えば、導電性媒体を介した電気信号、空気を介した電磁信号、光導波路を介した光信号などのように、結合されたコンポーネントが互いに信号を交換できることを意味する。
さらに図1を参照すると、電子制御ユニット130は、プロセッサ132と非一時的コンピュータ可読メモリ134とを備える任意のデバイスまたはコンポーネントの組み合わせであってもよい。ロボット110のプロセッサ132は、非一時的コンピュータ可読メモリ134に記憶された1組の機械可読命令を実行可能な任意のデバイスであってもよい。したがって、プロセッサ132は、電気コントローラ、集積回路、マイクロチップ、コンピュータ、または他の任意のコンピューティングデバイスであってもよい。プロセッサ132は、通信パス120によってロボット110の他の構成要素と通信可能に結合される。したがって、通信パス120は、任意の数のプロセッサ132を互いに通信可能に結合してもよく、通信パス120に結合された構成要素が分散コンピューティング環境で動作することを可能にする。具体的には、構成要素の各々は、データを送信および/または受信しうるノードとして動作してもよい。図1に描かれた実施形態は、単一のプロセッサ132を含むが、他の実施形態は、1よりも多くのプロセッサ132を含んでもよい。
ロボット110の非一時的コンピュータ可読メモリ134は、通信パス120に結合され、プロセッサ132に通信可能に結合される。非一時的コンピュータ可読メモリ134は、RAM、ROM、フラッシュメモリ、ハードドライブ、または機械可読命令を記憶可能な任意の非一時的メモリデバイスを備えてもよく、それにより、プロセッサ132は機械可読命令にアクセスして実行することができる。1組の機械可読命令は、例えば、プロセッサ132によって直接実行され得る機械語、または、機械可読命令にコンパイルまたはアセンブルされて非一時的コンピュータ可読メモリ134内に格納され得るアセンブリ言語、オブジェクト指向プログラミング(OOP)、スクリプト言語、マイクロコードなどの、任意の世代のプログラミング言語(例えば、1GL、2GL、3GL、4GL、または5GL)で書かれた論理またはアルゴリズム(単数又は複数)を備えてもよい。あるいは、1組の機械可読命令は、フィールド・プログラマブル・ゲート・アレイ(FPGA)構成または特定用途向け集積回路(ASIC)またはそれらの均等物のいずれかを介して実装されたロジックなどのハードウェア記述言語(HDL)で記述されてもよい。したがって、本開示に記載された機能は、任意の従来のコンピュータプログラミング言語で、事前にプログラムされたハードウェア要素として、またはハードウェアおよびソフトウェアコンポーネントの組み合わせとして実装されてもよい。図1に描かれた実施形態は、単一の非一時的コンピュータ可読メモリ134を含むけれども、他の実施形態は、1よりも多くのメモリモジュールを含んでもよい。
ロボット110は、例えば、買い物リスト、アイテムの位置、クーポン、広告、またはロボット110に関連する他の様々な状態、制御、もしくは通信を表示するなどの、視覚的な出力を提供するためのディスプレイ136を備える。ディスプレイ136は、通信パス120に結合される。したがって、通信パス120は、ディスプレイ136をロボット110の他のモジュールに通信可能に結合する。ディスプレイ136は、例えば、陰極線管、発光ダイオード、液晶ディスプレイ、プラズマディスプレイなどのような光出力を伝送可能な任意の媒体を含んでもよい。さらに、ディスプレイ136は、光学情報を提供することに加えて、ディスプレイ136の表面上またはディスプレイ136に隣接する表面上の触覚入力の存在および位置を検出するタッチスクリーンであってもよい。したがって、各ディスプレイ136は、ディスプレイ136が光学出力を提供したときに機械的な入力を直接受信してもよい。さらに、ディスプレイ136は、スマートフォン、タブレット、ラップトップ、または他の電子デバイスのような携帯型パーソナルデバイスのディスプレイ136であってもよい。さらに、ディスプレイ136は、保持コンパートメント152(例えば、図3の保持コンパートメント315)に統合されていてもよい。保持コンパートメント152がショッピングカートの保持コンパートメントである実施形態では、ディスプレイ136は、ユーザに視認可能でアクセス可能な、ショッピングカートのハンドルまたは別の部分に結合されてもよい。さらに、ディスプレイ136は、1つ以上のプロセッサおよび1つ以上の非一時的コンピュータ可読メモリを含むことができることに留意されたい。ロボット110は、図1に描かれた実施形態ではディスプレイ136を含むが、他の実施形態ではディスプレイ136を含まなくてもよい。
さらに図1を参照すると、モーションセンサ138は、動きを検出し、検出された動きを示す出力信号を生成可能な任意のデバイスまたはコンポーネントの組み合わせであってもよい。モーションセンサ138は、光学センサ、音響センサ、マイクロ波センサ、または他の電磁センサと、センサによって検出可能な対応する信号を生成するための送信機とを備えてもよい。モーションセンサ138の近傍における光学音響センサ、マイクロ波センサ、または他の電磁場の変化は、通信可能に結合された電子制御ユニット130または信号処理のための別個のコントローラによって解釈される。いくつかの例示的なモーションセンサ138は、パッシブまたはアクティブ赤外線(AIR/PIR)、マイクロ波、超音波、断層撮影モーション検出、ビデオカメラシステムおよびソフトウェア、ジェスチャー検出器を含む。
いくつかの実施形態では、モーションセンサ138は、黒体放射を検出し、温度プロファイルの変化を追跡することにより、温度の変動に敏感なパッシブ赤外線ベースのモーションセンサシステムである。いくつかの実施形態では、モーションセンサ138は、赤外線エミッタを含むアクティブ赤外線ベースのモーションセンサシステムの一部である。いくつかの実施形態では、アクティブ赤外線エミッタは、検出器がそのパターンの変動をマッピングまたは追跡することができるように、赤外線光のパターンを投影してもよい。例示的なシステムは、ワシントン州レドモンドのマイクロソフト社によって販売されているKinect(登録商標)光学センサで使用されているような相補的金属酸化物半導体(CMOS)センサと組み合わされた赤外線レーザプロジェクタを含んでもよい。いくつかの実施形態では、モーションセンサ138は、周囲の光条件の下で3次元(3D)のビデオデータをキャプチャし、オブジェクトまたは物体の深さおよび動きを決定するように適合される。そのようなシステムは、ジェスチャー検出を実装するために使用されてもよい。ジェスチャー検出は、手の動きおよびジェスチャーを検出するための電子制御ユニット130と共に、赤外線検出器または光検出器および赤外線照明要素を使用することを含んでもよい。いくつかの実施形態では、ジェスチャーは、ロボット110に対するコマンドに対応してもよい。ジェスチャー制御の例は、以下に記載される。
さらに図1を参照すると、入力デバイス140は、通信パス120に結合され、プロセッサ132に通信可能に結合される。入力デバイス140は、ユーザの接触を、例えば、ボタン、レバー、スイッチ、ノブ、タッチセンシティブインターフェース、マイクなどのような、通信パス120を介して送信可能なデータ信号に変換可能な任意のデバイスであってもよい。いくつかの実施形態では、入力デバイス140は、ターン信号を作動させるためのレバー、電源ボタン、音量ボタン、起動ボタン、スクロールボタン、などを含む。いくつかの実施形態では、入力デバイス140は、圧力センサ、タッチ感応領域、圧力ストリップ、などを含む。いくつかの実施形態では、入力デバイス140は、入力デバイス140を含まなくてもよく、または1よりも多くの入力デバイス140を含んでもよいことが理解されるべきである。
スピーカ142(すなわち、オーディオ出力デバイス)は、通信パス120に結合され、プロセッサ132に通信可能に結合される。スピーカ142は、電子制御ユニット130のプロセッサ132からの信号としてのオーディオメッセージデータを、音を生成する機械的振動に変換する。例えば、スピーカ142は、ロボット110からユーザに通信するために使用されてもよい。しかしながら、他の実施形態では、ロボット110は、スピーカ142を含まなくてもよいことが理解されるべきである。
マイク144は、通信パス120に結合され、プロセッサ132に通信可能に結合される。マイク144は、音に関連する機械的振動を音を示す電気信号に変換可能な任意のデバイスであってもよい。マイク144は、ロボット110に対する口頭命令をキャプチャするために使用されてもよい。いくつかの実施形態はマイク144を含まなくてもよいことが理解されるべきである。
さらに図1を参照すると、1つ以上のカメラ146は、通信パス120に結合され、プロセッサ132に通信可能に結合される。1つ以上のカメラ146は、紫外波長帯域、可視光波長帯域、または赤外波長帯域の放射を検出可能な感知デバイス(例えば、ピクセル)のアレイを有する任意のデバイスであってもよい。1つ以上のカメラ146は、任意の解像度を有してもよい。1つ以上のカメラ146は、全方位カメラであってもよく、またはパノラマカメラであってもよい。いくつかの実施形態では、ミラー、魚眼レンズ、または任意の他のタイプのレンズなどの1つ以上の光学部品が、1つ以上のカメラ146の各々に光学的に結合されていてもよい。本開示に記載される実施形態では、1つ以上のカメラ146は、ロボット110の周囲の環境および/または保持コンパートメント152およびその中に格納された任意のアイテムの画像データを電子制御ユニット130に提供してもよい。例えば、1つ以上のカメラ146は、空間をナビゲートする際にロボットアーム150の目として機能し、アイテムおよび保持コンパートメント152の画像データをキャプチャし、またはユーザからの視覚的コマンドを受信するために、ロボットアーム150上に配置されてもよい。いくつかの実施形態では、1つ以上のカメラ146は、内容物または周囲の環境を見るために、保持コンパートメント152上の様々な位置に配置されてもよい。1つ以上のカメラ146は、ロボット110が自律的または半自律的に動作してもよい実施形態において、ナビゲーションサポートを提供してもよい。
動作時、1つ以上のカメラ146は、画像データをキャプチャし、画像データを電子制御ユニット130に通信する。画像データは、プロセッサ132によって受信されてもよく、プロセッサは、1つ以上の画像処理アルゴリズムを使用して画像データを処理してもよい。任意の既知または未開発のビデオおよび画像処理アルゴリズムは、アイテムを識別し、保持コンテナおよび他のアイテム、またはロボットアーム150および/またはロボット110のナビゲーション中に使用するためのより一般的な環境オブジェクトに対するアイテムの位置を決定するために、画像データに適用されてもよい。例示的なビデオおよび画像処理アルゴリズムは、カーネルベース追跡(平均シフト追跡)および輪郭処理アルゴリズムを含むが、これらに限定されない。一般に、ビデオおよび画像処理アルゴリズムの分析は、画像データの連続したフレームまたは個々のフレームからオブジェクトおよび動きを検出してもよい。一つ以上のオブジェクト認識アルゴリズムは、オブジェクトを抽出し、互いに相対的な位置を決定するために、画像データに適用されてもよい。任意の既知または未開発のオブジェクト認識アルゴリズムは、画像データから、オブジェクト、さらには光学的文字および画像、を抽出するために使用されてもよい。オブジェクト認識アルゴリズムの例としては、スケール不変特徴変換(「SIFT」)、スピードアップ・ロバスト特徴(「SURF」)、エッジ検出アルゴリズムなどが挙げられるが、これらに限定されるものではない。
いくつかの実施形態では、ロボット110は、電子制御ユニット130に通信可能に結合されたバーコードスキャナ148を含んでもよい。バーコードスキャナ148は、線形、2次元、絵文字、またはその他のバーコードを、電子制御ユニット130またはプロセッサ132によってデコードするための電子信号に変換可能な任意のデバイスであってもよい。典型的には、バーコードスキャナ148は、光の波長を放出し、反射を検出して、デコードされるバーコードのプロファイルを決定する。いくつかのバーコードスキャナは、画像処理技術を使用して処理される1つ以上のカメラ146からキャプチャされた画像データを使用することを含んでもよい。いくつかの実施形態では、バーコードスキャナ148または1つ以上のカメラ146は、アイテムのバーコードを示す信号を電子制御ユニット130に通信し、電子制御ユニット130は次いで、アイテムの識別を決定し、非一時的コンピュータ可読メモリ134内の電子チェックアウトリストにアイテムを追加する。電子チェックアウトリストは、保持コンパートメント152内の各アイテムがチェックアウト時に取り出され、スキャンされ、交換される必要がないように、レジ係またはチェックアウトのための他の手段に通信されてもよい。
いくつかの実施形態では、意図されたアイテムを棚または保管場所から正しく収集するために、バーコードを使用して様々なアイテムの棚から特定のアイテムを決定することが、ロボットアーム150に必要である場合がある。しかし、いくつかの実施形態では、1つ以上のカメラ146によってキャプチャされた画像データは、アイテムの識別を決定するために、電子制御ユニット130によって分析されてもよい。その後、価格、在庫量、さらにはアイテムについての1組の取扱命令などのアイテムに関する情報が、ローカルに格納されたデータベースにアクセスするか、またはネットワークインターフェースハードウェア170を介してリモートデータベースに接続することによって決定されてもよい。さらに、バーコードスキャナ148でバーコードをスキャンすることにより、ロボット110が、アイテムが保管場所から選択されて保持コンテナ内に置かれるとすぐに、アイテムをチェックアウトリストに追加することができるようにしてもよい。
さらに図1を参照すると、ロボットアーム150は、通信パス120に結合され、電子制御ユニット130に通信可能に結合される。ロボットアーム150は、サーボ、アクチュエータ、または運動学的連鎖を形成する他のタイプの関節によって一緒にリンクされた複数の機械的セグメントを備えてもよい。ロボットアーム150の一端は、アイテムを収集するためのエンドエフェクタを含んでもよい。ロボットアーム150の対向する端部は、保持コンパートメント152に取り付けられてもよい(例えば、図3参照)。ロボットアーム150に通信可能に結合される電子制御ユニット130は、その動きを操作するために、信号の形でロボットアーム150にコマンドを提供する。例えば、1つ以上のカメラ146からの画像データを使用する電子制御ユニット130は、エンドエフェクタをアイテムに近接して移動させ、アイテムを収集し、次いで、ロボットアーム150およびエンドエフェクタを、アイテムを配置するための保持コンテナ内の位置に近接して移動させるように、ロボットアーム150に信号を提供してもよい。ロボットアーム150は、人間の腕および手が同様の活動を行うのと同様の動作をシミュレートすることが意図されている。
実施形態では、ロボット110は、保持コンパートメント152に操作可能に結合されたロボットアーム150を含む。いくつかの実施形態では、保持コンパートメント152は、車輪を有する典型的なショッピングカート(例えば、図3に描かれているように)の開放型収納コンパートメントであってもよく、これはまた、押すためのハンドルを含んでもよい。しかしながら、いくつかの実施形態では、保持コンパートメント152は、他の形態をとってもよいが、ロボットアーム150によって収集されたアイテムを格納する能力を維持する。保持コンパートメント152は、単一の開放コンテナとして構成されてもよいし、オプションとして、アイテムを配置するための開放コンテナ空間内に構成された仕切りを有してもよい。例えば、保持コンパートメント152は、輸送中にその温度を維持するために、冷たいアイテムのような温度制御されたアイテムを保持するために特別に構成されたセグメントを有してもよい。そのような一実施形態では、保持コンパートメント152は、断熱された部分を含んでもよい。さらに、保持コンパートメント152は、そうでなければ、より大きな、よりかさばるアイテムの間で失われる可能性のある小さなアイテムを格納するための棚またはスロットを含んでもよい。さらに、棚またはスロットは、卵、パン、農産物、などの壊れやすいアイテムを保管し、保護するために構成されてもよい。保持コンパートメント152は、家庭用品を消耗品から分離するようにさらに構成されてもよい。一般的に、保持コンパートメント152は、特定のアイテムが同種のアイテムと共に所定の保管場所を有するように構成されてもよい。他の実施形態では、保持コンパートメント152は、取り外し可能な収納ビンを含んでもよく、あるいは、レジで食料品を袋詰めする必要性を低減するために、買い物袋と一緒に構成されてもよい。
再び図1を参照すると、ロボット110は様々なセンサをさらに含んでもよく、このセンサは、温度センサ154、重量センサ156、および圧力センサ158を含むが、これらに限定されない。温度センサ154は、温度センサ154によって感知された温度を示す温度信号を出力可能な任意のデバイスであってもよい。非限定的な例として、温度センサ154は、熱電対、抵抗温度デバイス、赤外線センサ、バイメタルデバイス、状態変化センサ、温度計、シリコンダイオードセンサなどを備えてもよい。重量センサ156は、ロボットアーム150によって収集された食料品の重量などの、オブジェクトの重量を示す重量信号を出力可能な任意のデバイスであってもよい。さらに、圧力センサ158は、ロボットアーム150のエンドエフェクタによってアイテムに加えられている圧力の量など、オブジェクトに加えられている圧力の量を示す圧力信号を出力可能な任意のデバイスであってもよい。圧力センサ158は、アイテムが確実に保持されているがロボットアーム150によって損傷されていないことを保証するために、エンドエフェクタのグリップ強度を較正するために使用されてもよい。
いくつかの実施形態では、ロボット110は、LIDARシステム160を含んでもよい。LIDARシステム160は、ナビゲートされることを意図した環境を検出および/またはマッピングすることができる任意のシステムであってもよい。そのような実施形態では、LIDARシステム160は、通信パス120および電子制御ユニット130に通信可能に結合される。LIDARシステム160または光検出測距システムは、パルスレーザ光を使用して、LIDARシステム160からパルスレーザ光を反射するオブジェクトまでの距離を測定する。LIDARシステム160は、そのプリズムのような動作が、従来の回転するLIDARシステム160に関連する重量およびサイズの複雑さなしに広い視野を可能にする光フェーズドアレイデバイスとして構成されたものを含む、可動部分の少ないまたは全くないソリッドステートデバイスから形成されていてもよい。LIDARシステム160は、飛行時間の測定に特に適しており、これを、LIDARシステム160の視野内にあるオブジェクトとの距離測定に相関させることができる。LIDARシステムl60aによって放出されたパルスレーザ光の様々な波長の戻り時間の差を計算することによって、ターゲットまたは環境のデジタル3D表現が生成されてもよい。LIDARシステム160によって放出されるパルスレーザ光は、一実施形態では、電磁スペクトルの赤外線範囲内またはその近傍で動作してもよく、一例では、約905ナノメートルの放射を有する。LIDARシステム160のようなセンサは、ロボット110によって使用されて、ロボット110の近くにあるオブジェクトの識別のための詳細な3次元空間情報を提供することができ、また、マッピング、ナビゲーション、および自律操作のためのシステムのサービスにおけるそのような情報の使用は、特に、GPSまたはジャイロスコープベースの慣性ナビゲーションユニット(INU、図示せず)または関連するデッドレコーニングシステムのようなジオリファレンスデバイスと組み合わせて使用される場合には、非一時的コンピュータ可読メモリ134(それ自身または電子制御ユニット130のメモリのいずれか)と同様に、ロボット110によって使用されてもよい。いくつかの実施形態では、LIDARシステム160ではなく、またはLIDARシステム160に加えて、近接センサシステムを含んでもよい。
いくつかの実施形態では、LIDARシステム160は、ロボット110の周囲の環境のシミュレートされたモデルを生成するか、または洗練するために、1つ以上のカメラ146からの画像データでもって補間されてもよい。実施形態では、シミュレートされたモデルは、画像データから独立して生成されてもよい。さらに、レーダ、慣性測定ユニット(IMU)などの他のセンサシステムおよびマッピングシステムは、ロボット110の環境内のオブジェクトおよび光源を決定するために画像データを処理するための電子制御ユニット130に追加のデータを提供するよう実装されてもよい。
ネットワークインターフェースハードウェア170は、通信パス120に結合され、電子制御ユニット130と通信可能に結合される。ネットワークインターフェースハードウェア170は、ネットワーク180を介してデータを送信および/または受信することが可能な任意のデバイスであってよい。したがって、ネットワークインターフェースハードウェア170は、任意の有線または無線通信を送信および/または受信するための通信トランシーバを含むことができる。例えば、ネットワークインターフェースハードウェア170は、アンテナ、モデム、LANポート、Wi-Fi(登録商標)カード、WiMaX(登録商標)カード、モバイル通信ハードウェア、近距離通信ハードウェア、衛星通信ハードウェア、および/または他のネットワークおよび/またはデバイスと通信するための任意の有線または無線ハードウェアを含むことができる。一実施形態では、ネットワークインターフェースハードウェア170は、Bluetooth(登録商標)無線通信プロトコルに従って動作するように構成されたハードウェアを含む。別の実施形態では、ネットワークインタフェースハードウェア170は、ネットワーク180との間でBluetooth(登録商標)通信を送受信するためのBluetooth(登録商標)送受信モジュールを含んでもよい。ネットワークインターフェースハードウェア170はまた、RFIDタグを尋問して読み取るように構成された無線周波数識別(「RFID」)リーダを含んでもよい。
いくつかの実施形態では、ロボット110は、ネットワーク180に通信可能に結合されてもよい。いくつかの実施形態では、ネットワーク180は、ロボット110を食料品在庫管理サーバ、ロボット制御サーバシステム、ユーザのパーソナルデバイス、または他のネットワーク接続可能なデバイスと通信可能に結合するためにBluetooth(登録商標)技術を利用する、パーソナルエリアネットワークである。他の実施形態では、ネットワーク180は、1つ以上のコンピュータネットワーク(例えば、パーソナルエリアネットワーク、ローカルエリアネットワーク、またはワイドエリアネットワーク)、セルラーネットワーク、衛星ネットワーク、および/または全地球測位システム、およびそれらの組み合わせを含むことができる。したがって、ワイヤを介して、ワイドエリアネットワークを介して、ローカルエリアネットワークを介して、パーソナルエリアネットワークを介して、セルラーネットワークを介して、衛星ネットワークなどを介して、ロボット110をネットワーク180に通信可能に結合することができる。好適なローカルエリアネットワークは、有線Ethernet(登録商標)および/または例えばワイヤレスフィデリティ(Wi-Fi(登録商標))などの無線技術を含んでもよい。適切なパーソナルエリアネットワークは、例えば、IrDA、Bluetooth(登録商標)、ワイヤレスUSB、Z-Wave、ZigBee(登録商標)、および/または他の近距離通信プロトコルなどのワイヤレス技術を含んでもよい。適したパーソナルエリアネットワークは、同様に、例えば、USBおよびFireayonなどの有線コンピュータバスを含むことができる。好適なセルラーネットワークは、LTE、WiMAX(登録商標)、UMTS、CDMA、GSM(登録商標)などの技術を含むが、これらに限定されない。
以下のセクションでは、ロボット110の動作の実施形態およびショッピングアプリケーションのための方法を説明する。いくつかの実施形態では、ロボット110は、プロセッサ132および非一時的コンピュータ可読メモリ134を有する電子制御ユニット130と、1つ以上のカメラ146と、電子制御ユニット130に通信可能かつ作動可能に結合されたロボットアーム150とを含む。ロボット110は、保持コンパートメント152をさらに含む。いくつかの実施形態では、ロボット110は、本開示に記載されるようなセンサおよびシステムをさらに含む。
さて、図2を参照すると、ショッピングアプリケーションのための方法のフローチャート200が描かれている。図2に描かれたフローチャート200は、非一時的コンピュータ可読メモリ134に格納され、電子制御ユニット130のプロセッサ132によって実行される1組の機械可読命令の表現である。図2のフローチャート200のプロセスは、様々なタイミングで、電子制御ユニット130に通信可能に結合されたセンサからの信号に応答して実行されてもよい。本開示の範囲から逸脱することなく、ショッピングアプリケーションでユーザを支援するという同じ結果を達成するために、追加的または代替的なステップが実行されてもよい。
図2に描かれたフローチャート200の焦点は、保持コンパートメント152にアイテムを収集して配置することに関連しているが、ロボット110は、フローチャート200で強調された具体的なステップとともに議論される追加の動作ステップを含んでもよい。ステップ210において、ロボット110は、保持コンパートメントの画像データを受信してもよい。電子制御ユニット130に通信可能に結合された1つ以上のカメラ146からの保持コンパートメント152の内容を見ることができる。1つ以上のカメラ146は、ロボットアーム150、保持コンパートメント152、または、少なくとも保持コンパートメント152内の内容物を見るように構成された別のデバイス、上に配置されてもよい。保持コンパートメント152内の内容物の画像データは、現在どのようなアイテムが保持コンパートメント152内にあるか、保持コンパートメント152内のアイテムの位置、保持コンパートメント152の構造、および他の関連する属性を描写する。保持コンパートメント152の画像データは、アイテムの追加、アイテムの除去、および保持コンパートメント152内のアイテムの任意の移動を考慮して継続的に更新されてもよい。いくつかの実施形態では、ロボットアーム150が保管場所からアイテムを収集する前に、電子制御ユニット130は、保持コンパートメント152の更新された画像データを受信してもよい。
ステップ220において、ロボット110、より具体的にはロボット110の電子制御ユニット130は、アイテムのための1組の取扱命令を決定または受信する。いくつかの実施形態では、電子制御ユニット130は、通信可能に接続されたデータベースからアイテムについての1組の取扱命令を受信してもよい。そのような実施形態では、ロボット110は、まず、アイテムを識別する必要があり、接続されたデータベースからアイテムについての1組の取扱命令を要求するか、または非一時的コンピュータ可読メモリ134からアイテムについての1組の取扱命令をルックアップする。いずれの場合も、アイテムは、1つ以上のカメラ146によってキャプチャされた画像データを介して、またはバーコードスキャナ148でアイテムのバーコードをスキャンすることによって識別されてもよい。いくつかの実施形態では、アイテムは、アイテムが格納されている場所から識別されてもよい。いくつかの実施形態では、アイテムは、ロボットアーム150によって(例えば、ロボットアーム150でアイテムを把持または回収するようにユーザから指示を受けたことに応答して)、またはロボットアーム150によって到達可能なロボット110の環境内で、収集される。
1組の取扱命令は、アイテムの重量、容積、寸法、アイテムの包装に特有の機械的詳細、例えば、材料組成、圧縮強度、耐衝撃性、耐水性などのようなアイテムの属性に対応してもよい。いくつかの実施形態では、アイテムの属性は、アイテムを他のアイテムの上、下、または隣に物理的に保管するための1つ以上の取扱命令を決定するためにロボット110によって利用されてもよい。例えば、卵のパックの取扱命令は、包装の圧縮強度よりも大きい重量を有するアイテムは、卵のパックの上に置かれてはならないことを述べてもよい。同様に、一般的に大きな容積を有するアイテム、例えば、ペーパータオル12パックの容積に類似した容積を有するアイテムは、そのアイテムを保持コンパートメントの底部に格納することを要求する取扱命令を含んでもよい。
1組の取扱命令はまた、アイテムの他の属性、例えば、アイテムが食品であるか、飲料であるか、家庭用品であるか、工具であるか、などの分類に対応していてもよい。アイテムの各分類は、アイテムについての1組の取扱命令を構成する1つ以上の取扱命令を定義してもよい。すなわち、分類は、取り扱いまたは保管温度、そのアイテムが生ものであるか調理済みのものであるか、そのアイテムが同種のアイテムと一緒にのみ保管されるように保管されるか、そのアイテムが他の特定のアイテムから遠ざけるべきであるかなどの1つ以上の取扱命令を含んでもよい。例えば、取扱命令は、生肉は、調理されたまたは包装されたアイテムの近くに保管または配置されるべきではないことを述べてもよい。同様に、家庭用に分類されたアイテムの取扱命令には、食品または飲料として分類されたすべてのアイテムから離して保管されるべきであることを示す取扱命令が含まれていてもよい。当業者は、保持コンパートメント152内のアイテムの取り扱いおよび保管を改善しうる他の取扱命令を識別可能であってよい。
いくつかの実施形態では、1組の取扱命令は、アイテムの目視検査および/またはアイテムとの相互作用に基づいてロボット110によって決定されてもよい。例えば、いくつかの実施形態では、1つ以上のカメラ146は、アイテムの画像データを収集してもよい。画像データは、アイテムの寸法、容積などのアイテムの物理的特性を決定するために、電子制御ユニット130によって処理されてもよい。いくつかの実施形態では、ロボット110は、製品の付加的な属性を決定するために、エンドエフェクタおよび様々なセンサを用いてアイテムと相互作用してもよい。例えば、エンドエフェクタは、エンドエフェクタに配置または統合された温度センサ154を使用して、アイテムの温度に関するデータを収集してもよい。同様に、エンドエフェクタは、圧力センサ158を使用してアイテムの圧縮強度を決定し、重量センサ156を使用してアイテムの重量を決定するように構成されてもよい。ロボット110は、追加のセンサおよびシステムを用いて、データベースから利用できないまたはアイテムについて未知のさらなる属性であって、保持コンパートメント152内のアイテムの保管に影響を及ぼすおそれのある属性を決定するように、構成されてもよい。
ロボット110がステップ210において保持コンパートメント152の画像データを受信し、ステップ220においてロボットアーム150によって収集されたアイテムについての1組の取扱命令を決定または受信すると、ロボット110は、ステップ230においてロボットアーム150によって収集されたアイテムを配置するための保持コンパートメント152内の位置を決定する。ロボット110は、様々な方法によって、ロボットアーム150によって収集されたアイテムを配置するための場所を決定してもよい。いくつかの実施形態では、ロボット110は、少なくとも保持コンパートメント152の画像データと1組の取扱命令に基づいて、ロボットアームによって収集されたアイテムを配置するための場所を決定してもよい。画像データから、電子制御ユニット130は、保持コンパートメント152の構成および寸法、現在保持コンパートメント152内にある任意のアイテムの存在、保持コンパートメント152のアイテムによって占有されていない部分、および保持コンパートメント152のアイテムによって占有されている部分を決定してもよい。例えば、前述のアイテムおよび部分を決定するために、画像データは、電子制御ユニット130または独立した画像処理ユニットによって処理されてもよい。いくつかの実施形態では、画像処理は、画像セグメンテーション、深度マッピング、サリエンシー、オブジェクト認識、検出および識別、などのようなアルゴリズムを適用することを含んでもよい。画像処理またはそれがまた知られているように、コンピュータビジョンは、ラベル付けされた画像データを生成してもよい。ラベル付けされた画像データは、アイテムの識別および/または関連する1組の処理命令を含むピクセルレベルのデータを含んでもよい。いくつかの実施形態では、電子制御ユニット130は、座標系を介して指定された領域および容積を有する画像データから、保持コンパートメント152の数学的表現(例えば、3Dモデル)を生成してもよい。領域および容積は、さらに、保持コンパートメント152内の特定のアイテム、アイテムのグループ、または空の空間としてラベル付けされてもよい。さらに、各領域および容積は、各アイテムについての1組の取扱命令への参照を含んでいてもよい。
画像データに基づいて、電子制御ユニット130は、次に、ロボットアーム150によって収集されたアイテムが物理的に配置され得る保持コンパートメント152の1つ以上の部分を決定してもよい。例えば、電子制御ユニット130は、収集されたアイテムの寸法を受信するかまたは他の方法で決定して、そのアイテムが保持コンパートメント152内に物理的に収まる場所を決定してもよい。しかし、同時に、または少なくとも保持コンパートメント152内のアイテムの位置を決定する前に、電子制御ユニット130は、ロボットアーム150によって収集されたアイテムについての1組の取扱命令と、ロボットアーム150によって収集されたアイテムに隣接するおよび/またはその下にあるであろう保持コンパートメント152内の1つ以上のアイテムについての1組の取扱命令とを比較してもよい。いくつかの実施形態では、ロボット110は、保持コンパートメント152内に配置されるべきアイテムについての1組の取扱命令と、既に保持コンパートメント152内にあるアイテムについての1組の取扱命令との比較に基づいて、ロボットアーム150によって収集されたアイテムを配置するための場所を決定する。いくつかの実施形態では、1組の取扱命令は、現在保持コンパートメント152内にある他のアイテムに関して、または将来のアイテムに関して、アイテムの配置および保管に関連する規則およびパラメータのセットを提供する。
上述したように、保持コンパートメント内に新しいアイテムを配置するときには、電子制御ユニット130は、ロボットアーム150によって収集されたアイテムが保持コンパートメント152内に置かれるべき場所を、アイテムが物理的に収まる場所、新しいアイテムのための1組の取扱命令、および/または既に保持コンパートメント152内にあるアイテムのそれぞれのための1組の取扱命令に基づいて決定してもよい。例えば、卵のパックが保持コンパートメント152内に存在し、1組の取扱命令が、卵のパックの上に何かを置くことを禁止する規則を含む場合、電子制御ユニット130は、卵の上の空間を、保持コンパートメント内に置かれるべき新しいアイテムが置かれてはならない場所として特定する。しかし、このような規則は、一定の重量を超える製品が卵のパックの上に置かれてはならないことを示すようにさらに洗練されてもよい。そのような場合、電子制御ユニット130は、卵のパックの上の空間に重量制限を割り当ててもよい。
いくつかの実施形態では、例えば、電子制御ユニット130は、画像データから、アイテムが保持コンパートメント152内に物理的に置かれ得る1つ以上の場所を決定してもよい。次いで、電子制御ユニット130は、特定された1つ以上の場所に隣接するアイテムについての1組の取扱命令と、保持コンパートメント152内に配置されるアイテムについての1組の取扱命令とを比較してもよい。より具体的には、1ガロンの牛乳が、卵のパックの上に物理的に収まるか、または保持コンパートメントの底部にあるアイスクリームのタブに隣接して配置されると決定された場合であって、両方の1組の取扱命令の比較に基づいて、卵のパックの1組の取扱命令が、1ガロンの牛乳が超過する重量制限を含み、保持コンパートメントの底部にあるアイスクリームのタブに隣接して牛乳のガロンを配置するための制限がない場合、1ガロンの牛乳は、保持コンパートメントの底部にあるアイスクリームのタブに隣接して配置されることになる。
別の例として、生のハンバーガーのパックが保持コンテナ内にあってよく、生のハンバーガーのパックに関連付けられた1組の取扱命令が、生のハンバーガーのパックに隣接して、または生のハンバーガーのパックの上に、農産物または調理済み食品を置かないという規則を含んでいてもよい。例えば、電子制御ユニット130は、画像データから識別されるように、生ハンバーガーのパックに隣接する領域および/または容積を定義する平面に、農産物または任意の調理済み食品の配置に対する制限をラベル付けしてもよい。その結果、生ハンバーガーのパックの1組の取扱命令に基づく制限を遵守しない将来のアイテムは、生ハンバーガーのパックに隣接して配置されない。
いくつかの実施形態では、1組の取扱命令は、最適な保管温度に関する規則およびパラメータを含んでもよい。このように、いくつかの実施形態では、決定された温度範囲内のアイテムは、温度の上昇または低下を維持または低減するために、互いに近接して配置されてもよい。例えば、牛乳、アイスクリーム、および冷凍ピザは、それらの低い保存温度を維持するために互いに隣接して配置されてもよく、一方、ロティサリーチキンおよび生パスタのような調理済みの食事アイテムは、同様に、それらの暖かい温度を維持するために互いに隣接して配置されてもよい。さらに、いくつかの実施形態では、保持コンパートメント152は、暖かい、冷たい、および/または常温のアイテムを貯蔵するように設計された部分を含んでもよい。例えば、同じ保持コンパートメント152内に配置された、より暖かい環境温度または暖かいアイテムから冷たいアイテムを断熱するように設計されたクーラー部分が提供されてもよい。同様に、保持コンパートメント152には、暖かいアイテムを暖かい状態に保つための箔張りコンパートメントまたは同様に絶縁された部分が提供されてもよい。アイテムを暖めておくためのクーラー部分または断熱部分は、受動的または能動的であってもよい。いくつかの実施形態では、クーラー部分は、クーラー部分の環境を能動的に冷却する凝縮器を含んでもよい。クーラー部分は、クーラー部分の環境を受動的に冷却するように配置されたコールドパックまたはドライアイスをさらに含んでもよい。同様に、アイテムを暖かく維持するための断熱部分は、断熱部分の環境を暖めるように構成された熱源を含んでもよい。
電子制御ユニット130が、ステップ230においてロボットアーム150によって収集されたアイテムを置くための保持コンパートメント152内の位置を決定すると、ステップ240において電子制御ユニット130は、決定された位置にアイテムを置くようにロボットアーム150を操作するための信号を生成してもよい。電子制御ユニット130は、ロボットアーム150の複数の機械的セグメントを一緒に運動学的連鎖で連結するサーボ、アクチュエータ、または他の電気機械デバイスと通信可能に結合されていてもよい。電子制御ユニット130は、電気機械デバイスの各々に直接信号を提供してもよいし、いくつかの実施形態では、ロボットアーム150の動作を制御するためにロボットアーム150に通信可能に結合されたロボットモータ駆動制御システムに信号を提供してもよい。
新しいアイテムが保持コンパートメント152内に配置されると、保持コンパートメント152のための収集アイテムインベントリリストが更新されてもよい。収集アイテムインベントリリストは、電子制御ユニット130またはネットワーク180を介して接続されたデバイスの非一時的コンピュータ可読メモリ134に格納されてもよい。収集アイテムインベントリリストは、保持コンパートメント152に追加されたアイテムの識別子以上のものを含んでもよい。収集アイテムインベントリリストはまた、保持コンパートメント152内のアイテムの位置に関連するパラメータと、アイテムに関連付けられた1組の取扱命令とを含んでもよい。例えば、いくつかの実施形態では、保持コンパートメント152および各アイテムは、直交座標系を用いて電子的に定義されてもよい。直交座標系または類似のプロットシステムを用いて保持コンパートメント152および各アイテムを定義することにより、電子制御ユニット130は、アイテムが占有されているかまたはアイテムが空になっている保持コンパートメント152の容積または部分を定義することができる。さらに、収集アイテムインベントリリストからの情報を用いて、電子制御デバイスは、アイテムを識別し保持コンパートメント152内のアイテムの位置を決定する精度を向上させることができる。
さて、図3から7を参照すると、ロボットおよび様々な構成要素のいくつかの例示的な実施形態が描かれている。図3は、保持コンパートメント152を有する典型的なショッピングカート315に基づく実施形態であって、保持コンパートメント152に回転可能に結合されたロボットアーム150を備えた実施形態を描いている。さらに、1つ以上のカメラ146がロボットアーム150上に配置され、ディスプレイ136がショッピングカート315に結合される。いくつかの実施形態では、ショッピングカート315は、ユーザによってショッピングセンターの周りを手動でナビゲートされてもよい。ロボットアーム150は、操縦のために1つ以上のカメラ146によってキャプチャされた画像データを使用して、本開示に開示されているように、アイテムを保管場所から収集し、保持コンパートメント152内に配置してもよい。ディスプレイ136は、任意に、ユーザに様々な情報および制御を提供してもよい。例えば、ディスプレイ136は、ユーザが1つ以上のアイテムを含む買い物リストを入力またはアップロードしてもよいグラフィカルユーザインタフェース(GUI)を提供してもよい。いくつかの実施形態では、ディスプレイ136は、次に、店舗の地図を提供し、買い物リストのアイテムの位置、およびオプションで各アイテム間のルートを重ね合わせて、ユーザが買い物リストの各アイテムにナビゲートすることができるようにしてもよい。ロボット110が買い物リストのアイテムの位置に近づくと、ディスプレイ136は、ロボットアーム150がアイテムを収集し、保持コンパートメント152内の、本開示に記載されているような取扱命令に基づいて決定された位置にアイテムを配置するために操縦してもよいように、ショッピングカート315を位置決めするための特定のナビゲーション指示をユーザに提供してもよい。他の実施形態では、電子制御ユニット130は、買い物リストのアイテムのそれぞれについての1組の取扱命令に基づいて、買い物リストのアイテムを収集するための順序を決定し、提案された順序をユーザに提供してもよい。
いくつかの実施形態では、ディスプレイ136は、ユーザがロボットアーム150の機能を直接制御するためのインタフェースを提供してもよい。例えば、ユーザは、ユーザが手の届かない場所からアイテムを収集するために、または移動するには扱いにくいもしくは重いアイテムを収集するために、ロボットアーム150を手動で操作してもよい。一旦、ロボットアーム150がアイテムを収集すると、ロボットアーム150は自動的にアイテムを保持コンパートメント152内に格納してもよい。さらに、いくつかの実施形態では、買い物リストの入力がない場合、ロボットアーム150は、ユーザがショッピングカート315をナビゲートし、ロボットアーム150が様々なアイテムを通過する際に、どのようなアイテムを収集すべきかについてユーザから指示を受けてもよい。いくつかの実施形態では、カメラ146は、棚または保管場所にあるアイテムの画像データをキャプチャし、ディスプレイ136またはスマートフォンやラップトップなどのネットワーク180に接続されたデバイスを介して、それらの画像をユーザと共有してもよい。次に、ユーザは、画像データに描写されたアイテムを仮想的に選択してもよく、ロボットアーム150は、アイテムを収集しアイテムを保持コンパートメント152内に配置するために自動的に操縦してもよい。
いくつかの実施形態では、ロボットアーム150はまた、ユーザによってなされたジェスチャーに基づく指示を受信してもよい。ジェスチャーは、ロボット110に命令を提供することを意図したユーザからの物理的な動きであってもよい。電子制御ユニットは、ジェスチャーの画像データを分析して、ジェスチャーの意味を決定してもよい。例えば、1つ以上のカメラ146またはジェスチャー検出器は、収集すべきアイテムを指差しているユーザを検出してもよい。指差しジェスチャーに基づいて、電子制御ユニットは、ジェスチャーに応答してロボットアームを制御および操縦するための1つ以上の信号を生成してもよい。例えば、ロボットアーム150は、指差しジェスチャーから示されたアイテムを収集するように操縦し、次いでアイテムを保持コンパートメント152内に格納してもよい。他の実施形態では、ジェスチャー命令はまた、通信可能に結合されたマイク144を介して受信された言語プロンプトを含んでもよく、これは、モーションセンサ138、1つ以上のカメラ146、またはジェスチャーを検出するように構成された他のセンサによって検出された物理的な動作に関連付けられるように、電子制御ユニット130に言語命令を提供する。例えば、指差しジェスチャーは、「見て」や「取ってきて」のような言語プロンプトを含んでもよい。手で方向を指差すなどの物理的な動作が、言語命令「見て」と組み合わせて行われる場合、ロボットアーム150は、指差しジェスチャーの方向を見るために、そこに配置された1つ以上のカメラ146を単に操縦してもよい。同様に、手で方向を指差すなどの物理的な動作が、言語命令「取ってきて」との組み合わせで行われる場合、ロボットアーム150は、指差しジェスチャーによって示されたアイテムを収集するように操縦してもよい。いくつかの実施形態では、ユーザの物理的ジェスチャーをキャプチャするために使用されるジェスチャー検出器または1つ以上のカメラ146は、ロボットアーム150上に配置された1つ以上のカメラ146とは別個のものであってもよい。それらの実施形態では、1つ以上のカメラ146は、物理的ジェスチャーを見逃さないように、ユーザの位置を追跡するためのビジョン追跡ソフトウェアを含んでもよい。
いくつかの実施形態では、ショッピングカート315は、ユーザがショッピングカート315を手動で押す必要なしに保持コンパートメント152およびロボットアーム150を操縦可能な、電動又は動力付きベースを含んでもよい。例えば、ショッピングカート315の車輪は、保持コンパートメント152およびロボットアーム150の正転、逆転および旋回運動を駆動するモータに結合されてもよい。いくつかの実施形態では、ネットワーク180に接続されたデバイスまたはジェスチャー制御システムが、保持コンパートメント152およびロボットアーム150の電動ベースを遠隔操縦するために提供されてもよい。例えば、携帯デバイスのディスプレイ136は、入力に応答して電動ベースおよびロボットアーム150を操作するように構成されたタッチコントロールを提供するように構成されてもよい。電子制御ユニット130は、半自律的または自律的な操作を容易にするために、電気信号を生成し、電気信号を電動ベースに通信してもよい。一実施形態では、ディスプレイ136は、ロボットアーム150に配置された1つ以上のカメラ146からの、保管場所にあるアイテムの光景を含んでもよい。例えば、ロボットアーム150は、ディスプレイ136上の画像データに対応するタッチ入力で構成されたディスプレイ136に触れることにより、バーチャルに選択されたアイテムに関連付けられたアイテムを収集するために操縦してもよい。
ネットワーク180に接続された遠隔制御デバイスおよびジェスチャー制御システムを使用して半自律的な相互作用が可能であってもよいが、いくつかの実施形態では、ショッピングアプリケーションのためのロボット110は、自律的に店舗または貯蔵施設全体をナビゲートしてアイテムを収集し、収集経路および/または保持コンパートメント152内のアイテムの袋詰めを最適化してもよい。そのような実施形態では、電動ベースとともに保持コンパートメント152およびロボットアーム150を有するロボット110は、例えば、モーションセンサ138およびLIDARシステム160のような様々なセンサを含んでもよい。また、ロボット110は、ある場所から別の場所へナビゲートするための1つ以上のデバイスに接続されたネットワークインターフェースハードウェア170を含んでもよい。
いくつかの実施形態では、ユーザは、ロボット110に直接アップロードされる、またはロボット110と通信するネットワーク180に接続されたコンピューティングデバイスにアップロードされる電子買い物リストを作成してもよい。買い物リストの内容および任意に買い物リストの各アイテムについての1組の取扱命令に基づいて、保持コンパートメント152内のアイテムの保管を最適化しうる順序でアイテムを収集するように買い物ルートが計画され最適化されてもよい。例えば、買い物ルートは、より大きく、より重い、および/またはよりかさばるアイテムが収集されて保持コンパートメント152内に格納された後に、壊れやすいアイテムまたはデリケートなアイテムを収集するように計画され、最適化されてもよい。すなわち、例えば、卵およびパンが牛乳および缶詰食品とともに買い物リストに含まれている場合、ショッピングルートは、卵およびパンよりも先に牛乳および缶詰食品を収集するように最適化されてもよい。さらに、買い物リストは、買い物リストに含まれるアイテムの理想的な保存温度に基づいて、買い物ルートをさらに最適化してもよい。例えば、シリアル、紙製品、缶詰等のような常温のアイテムを収集して保管した後に、通常は室温又は室温付近で保管されないアイテムを収集するように、ルートを計画して最適化してもよい。これにより、温度管理されていない環境へのアイテムの曝露を可能な限り短時間に抑えてもよい。
前述の実施形態では、ロボットアーム150が、ユーザのために効率的かつ自動的にアイテムを収集するために、保持コンテナ内にアイテムを収集して配置することに焦点を当てているが、ロボットアーム150の使用は、保持コンパートメント152内にアイテムを収集して配置するための排他的な手段ではない。いくつかの実施形態では、ロボットアーム150は、ユーザの買い物活動を補完するだけであってもよい。すなわち、ユーザはまた、手動でアイテムを収集して保持コンパートメント152に追加してもよい。これは、保持コンパートメント152内にアイテムを配置する効率および最適化を低下させるかもしれないが、ロボットは、1つ以上のカメラ146によってキャプチャされた後続の画像データに基づいて、保持コンパートメント152内に新しいアイテムが導入されたことを認識し、ユーザが追加したアイテムを考慮して将来のアイテムの配置を調整してもよい。さらに、いくつかの実施形態では、ユーザが手動でアイテムを保持コンパートメント152に追加する場合、保持コンパートメント152上のディスプレイ136またはネットワーク180に接続されたデバイス上のディスプレイ136は、ユーザに対して、アイテムを識別するように、およびアイテムが保持コンパートメント152内のどこに配置されたかを確認するようにプロンプトを表示してもよい。これに応答して、電子制御ユニット130は、保管場所が、そのアイテムまたは隣接するアイテムのための1組の取扱命令と相反する場合に、代替保管場所を推奨するユーザへの応答を提供してもよい。
ここで、図4Aから7を参照すると、様々な保持コンパートメント構成が描かれている。図4Aは、内部に配置された複数のグロッサリーバッグ405を備える保持コンパートメント452の一部を描いている。さらに、図4Aは、そこに配置された1つ以上のカメラ146と、アイテム415を保持するロボットアーム150に結合されたエンドエフェクタ455とを有するロボットアーム150を描写している。図4Aは、保持コンパートメント452が複数のグロッサリーバッグ405を含む実施形態を示し、電子制御ユニットは、1つ以上のカメラ146によってキャプチャされた画像データからこのグロッサリーバッグ405を識別することができる。動作において、ロボットアーム150を有するロボットは、エンドエフェクタ455によって収集されたアイテム415を直接袋詰めしてもよい。このような実施形態では、電子制御ユニットは、保持コンパートメント452を、複数のグロッサリーバッグ405のそれぞれの容積を備える複数の保持コンパートメントに割り当ててもよい。レジで食料品を袋から出す必要性をなくすために、ロボットはまた、アイテムが保管場所から収集されて、電子制御ユニットの非一時的コンピュータ可読メモリまたはネットワーク180に接続されたデバイス上に格納されたチェックアウトリストに追加されたときにアイテムをスキャンする、バーコードスキャナ148を備えて構成されてもよい。いくつかの実施形態では、アイテムのバーコードの識別および/またはスキャンは、1つ以上のカメラ146によってキャプチャされた画像データを分析するバーコード画像認識ソフトウェアによって達成されてもよい。
図4Bを参照すると、取り外し可能な収納袋A、B、およびCを有する保持コンパートメント452’の別の実施形態が描かれている。この実施形態では、保持コンパートメント452’は、幅方向に保持コンパートメント452’を横切るように構成された取り外し可能な収納袋A、B、およびCを含み、任意に、ロボットアーム150によって収集されたアイテム415を収納するために追加の袋が必要になると、一緒に折り畳まれて開くように構成される。保持コンパートメントが複数のグロッサリーバッグを含む図4Aから4Bに描かれているような実施形態では、ロボットはまた、食料品を袋詰めする機能を予め実行してもよく、したがって、チェックアウト時に必要とされる取扱量および時間が減少する。
図5に目を向けると、内部に格納された複数のアイテムを有するロボット510の保持コンパートメント552の画像データを表す図が描かれている。描かれた実施形態では、保持コンパートメント552は、スープ缶501、冷凍ミール503、1ガロンの牛乳505、3箱のシリアル507、1斤のパン509、および1カートンの卵511を含む。この構成は、保持コンパートメント552の画像データと、保持コンパートメント552内のアイテムについての関連する1組の取扱命令の各々とに基づいて、ロボット510によってレイアウトされた保持コンパートメント552内のアイテムの構成を表してもよい。例えば、ロボット510は、冷蔵品、冷凍ミール503および1ガロンの牛乳505を互いに隣接させ、スープ缶501をシリアルの箱507および冷凍ミール503によって角に固定して、缶が輸送中に保持コンパートメント552の周りを転がる可能性を防止するように構成している。さらに、1斤のパン509および卵のカートン511は、互いに近くに配置され、他のより重くて損傷を与えるおそれのあるアイテムから分離される。さらなる実施形態は、例えば、図6に描かれているように、アイテムを互いに重ねるか、または保持コンパートメント652のあらかじめ分割(セグメント化)された部分内に積み重ねることを含んでもよい。
図6を参照すると、保持コンパートメントは、1つ以上のあらかじめ分割された部分を含んでもよい。例えば、図6の保持コンパートメント652は、あらかじめ分割された部分A、B、C、およびDを描写しており、保持コンパートメント652のあらかじめ分割された部分A、B、C、およびDの各々は、特定の分類のアイテムを保持するように電子制御ユニット130によって指定されてもよい。例えば、あらかじめ分割された部分Aは、小さいおよび/または壊れやすいアイテムを保持するように構成されてもよい。あらかじめ分割された部分Bは、冷たいアイテムを保持するように構成されてもよく、あらかじめ分割された部分Bは、そこに置かれたアイテムを断熱するか、または積極的に冷却するように構成されてもよい。あらかじめ分割された部分Cは、室温のアイテムを保持するように構成されてもよく、あらかじめ分割された部分Dは、暖かいアイテムを保持するように構成されてもよく、さらに、そこに置かれたアイテムを断熱するか、または積極的に暖めるように構成されてもよい。これは、あらかじめ分割された部分のそれぞれに配置された指定の一例に過ぎない。あらかじめ分割された部分は、代替的に、食品アイテム、家庭用クリーニング製品、衣類、および/またはペット用品を互いに保持し、分離するように構成されていてもよい。さらに、4つのあらかじめ分割された部分が描かれているが、より多くてもより少なくてもよく、あらかじめ分割された部分は、サイズおよび向きが異なっていてもよい。保持コンパートメント652の設計は、ロボットを実装する店舗のタイプにさらに依存してもよい。例えば、ハードウェアストアは、食料品店よりもより大きな、より堅牢な保持コンパートメント652を有してもよい。いくつかの実施形態では、保持コンパートメント652は、倉庫または包装施設で使用するための平台車であってもよい。
図7は、ロボット710のさらなる実施形態を描写している。図7において、ロボット710は、保持コンパートメント752と、ロボットアーム150であってロボットアーム150に配置された1つ以上のカメラ146を有するロボットアーム150と、電動ベース713に統合されたロボットアーム150と対話するためのディスプレイ136とを含み、これは、手動でまたは自律的に店舗の通路をナビゲートしている間にユーザが座るための座席753を提供する。同様の実施形態では、ロボット710は、単に、買い物中にユーザが座って休む場所を提供するために、保持コンパートメント752から展開されるか、または保持コンパートメント752に結合される座席753を提供してもよい。
上記の例では、ショッピングカートまたは電動スクータベースと一体化されたロボットシステムが記載されているが、保持コンパートメントおよびロボットアームは、電動化されているか否かにかかわらず、任意の移動ベースに結合されていてもよいことが理解されるべきである。さらに、自律的ナビゲーションを提供するための様々なセンサおよびシステムも、施設に関するロボットの自律的または半自律的な移動を容易にするために、当技術分野で知られているように統合されてもよい。
本開示に記載された実施形態は、電子制御ユニットと、1つ以上のアイテムを搬送するように構成された保持コンパートメントとを含むロボットシステムに向けられていることが、理解されるべきである。電子制御ユニットは、プロセッサと、1組の機械可読命令を含む非一時的コンピュータ可読メモリとを含む。ロボットシステムは、保持コンパートメントの環境の画像データをキャプチャするためのカメラと、電子制御ユニットに通信可能に結合されたロボットアームとをさらに含む。1組の機械可読命令は、プロセッサに、カメラから保持コンパートメントの環境の画像データを受信させ、ロボットアームによって収集されたアイテムのための1組の取扱命令を決定させ、保持コンパートメントの環境の画像データおよび1組の取扱命令に基づいて、ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定させ、決定された位置にアイテムを保持コンパートメント内に配置するようにロボットアームを操作させる。いくつかの実施形態では、保持コンパートメントおよびロボットアームは、ロボットシステムが自律的または半自律的に施設内を移動することができるように、電動ベースに結合される。本開示では、用語「実質的に」および「約」が、任意の定量的比較、値、測定、または他の表現に帰することができる固有の不確実性の程度を表すために利用され得ることに留意されたい。これらの用語はまた、本開示では、定量的表現が、問題となっている主題の基本的な機能に変化をもたらすことなく、記載された参照から変化する可能性がある程度を表すために利用される。
特定の実施形態が図示され、本開示に記載されているが、特許請求の範囲に記載された主題の真意および範囲から逸脱することなく、他の様々な変更および修正がなされ得ることが理解されるべきである。さらに、特許請求の範囲に記載された主題の様々な側面が本開示に記載されているが、そのような側面は、組み合わせて利用する必要はない。したがって、添付の特許請求の範囲は、特許請求の範囲に記載された主題の範囲内にあるそのような変更および修正をすべてカバーすることが意図されている。
[構成1]
ロボットシステムであって、
プロセッサと、非一時的コンピュータ可読メモリと、を備える電子制御ユニットと、
1つ以上のアイテムを搬送するように構成された保持コンパートメントと、
前記保持コンパートメントの環境の画像データをキャプチャするために、前記電子制御ユニットと通信可能に結合されたカメラと、
前記電子制御ユニットに通信可能に結合されたロボットアームと、
前記非一時的コンピュータ可読メモリに記憶された機械可読命令セットであって、前記プロセッサによって実行されると、前記ロボットシステムに少なくとも、
前記カメラから前記保持コンパートメントの環境の画像データを受信することと、
前記ロボットアームによって収集されたアイテムについての1組の取扱命令を決定することと、
前記保持コンパートメントの環境の画像データと前記1組の取扱命令とに基づいて、前記ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定することと、
前記ロボットアームを操作して、前記保持コンパートメント内の決定された前記位置にアイテムを配置することと、
を実行させる機械可読命令セットと、
を備える、ロボットシステム。
[構成2]
前記カメラは、ジェスチャーの画像データをさらにキャプチャし、前記機械可読命令セットは、前記プロセッサに、
ジェスチャーの意味を決定することと、
前記ジェスチャーの意味を、少なくとも前記ロボットアームを操縦するための1つ以上の信号に変換することと、
を実行させる、構成1に記載のロボットシステム。
[構成3]
前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムについての分類に基づいており、前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムとは別に収納するアイテムの1つ以上の他の分類を特定する、構成1に記載のロボットシステム。
[構成4]
前記機械可読命令セットはさらに前記プロセッサに、
前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信すること、
を実行させる、構成1に記載のロボットシステム。
[構成5]
前記機械可読命令セットはさらに前記プロセッサに、
前記買い物リストの1つ以上のアイテムのそれぞれについての前記1組の取扱命令に基づいて、前記買い物リストの1つ以上のアイテムを収集する順序を決定すること、
を実行させる、構成4に記載のロボットシステム。
[構成6]
前記保持コンパートメントおよび前記ロボットアームが電動ベースに結合され、前記電動ベースが前記電子制御ユニットに通信可能に結合され、前記機械可読命令セットがさらに前記プロセッサに、
前記買い物リストの少なくとも1つのアイテムの位置へのルートを決定することと、
前記買い物リストの前記少なくとも1つのアイテムの位置まで前記電動ベースを操作するための1つ以上の信号を生成することとと、
前記買い物リストのアイテムを収集するためにロボットアームを操作するための1つ以上の信号を生成することと、
を実行させる、構成4に記載のロボットシステム。
[構成7]
前記ロボットアーム上に配置され、前記電子制御ユニットと通信可能に結合されたバーコードスキャナをさらに備える、構成1に記載のロボットシステム。
[構成8]
前記バーコードスキャナおよび前記カメラのうちの少なくとも1つが、前記アイテムのバーコードを示す信号を前記電子制御ユニットに通信して、前記機械可読命令セットがさらに前記プロセッサに、
前記アイテムの識別を決定することと、
前記アイテムを電子チェックアウトリストに追加することと、
を実行させる、構成7に記載のロボットシステム。
[構成9]
前記保持コンパートメントが複数の分割されたコンパートメントを備え、少なくとも1つ又は前記複数の分割されたコンパートメントは、低温貯蔵コンパートメントおよび温貯蔵コンパートメントのうちの少なくとも1つを備える、構成1に記載のロボットシステム。
[構成10]
前記保持コンパートメントが、取り外し可能なグロッサリーバッグを含む、構成1に記載のロボットシステム。
[構成11]
ロボットシステムであって、
プロセッサと、非一時的コンピュータ可読メモリと、を備える電子制御ユニットと、
1つ以上のアイテムを搬送するように構成された保持コンパートメントと、
前記保持コンパートメントの環境の画像データをキャプチャするために、前記電子制御ユニットと通信可能に結合されたカメラと、
前記電子制御ユニットに通信可能に結合され、前記保持コンパートメントに回転可能に結合されたロボットアームと、
前記ロボットアームおよび前記保持コンパートメントに結合された電動ベースと、
前記非一時的コンピュータ可読メモリに記憶された機械可読命令セットであって、前記プロセッサによって実行されると、前記ロボットシステムに少なくとも、
前記カメラから前記保持コンパートメントの環境の画像データを受信することと、
前記カメラから、収集すべきアイテムの画像データを受信することと、
前記カメラから受信した前記アイテムの画像データに基づいて、前記アイテムについての1組の取扱命令を決定することと、
前記保持コンパートメントの環境の画像データと前記1組の取扱命令とに基づいて、前記ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定することと、
前記ロボットアームを操作して、前記保持コンパートメント内の決定された前記位置にアイテムを位置決めすることと、
を実行させる機械可読命令セットと、
を備える、ロボットシステム。
[構成12]
前記カメラは、ジェスチャーの画像データをさらにキャプチャし、前記機械可読命令セットは、前記プロセッサに、
ジェスチャーの意味を決定することと、
前記ジェスチャーの意味を、少なくとも前記ロボットアームを操縦するための1つ以上の信号に変換することと、
を実行させる、構成11に記載のロボットシステム。
[構成13]
前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムの分類に基づいており、前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムとは別に収納するアイテムの1つ以上の他の分類を特定する、構成11に記載のロボットシステム。
[構成14]
前記機械可読命令セットはさらに前記プロセッサに、
前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信することと、
前記買い物リストの1つ以上のアイテムのそれぞれについての前記1組の取扱命令に基づいて、前記買い物リストの1つ以上のアイテムを収集する順序を決定することと、
を実行させる、構成11に記載のロボットシステム。
[構成15]
前記保持コンパートメントおよび前記ロボットアームが電動ベースに結合され、前記電動ベースが前記電子制御ユニットに通信可能に結合され、前記機械可読命令セットがさらに前記プロセッサに、
前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信することと、
前記買い物リストの少なくとも1つのアイテムの位置へのルートを決定することと、
前記買い物リストの前記少なくとも1つのアイテムの位置まで前記電動ベースを操作するための1つ以上の信号を生成することとと、
前記買い物リストのアイテムを収集するためにロボットアームを操作するための1つ以上の信号を生成することと、
を実行させる、構成11に記載のロボットシステム。
[構成16]
アイテムを保管する方法であって、
カメラから保持コンパートメントの環境の画像データを受信することと、
ロボットアームによって収集されたアイテムについての1組の取扱命令を決定することと、
前記保持コンパートメントの環境の画像データと前記1組の取扱命令とに基づいて、前記ロボットアームによって収集されたアイテムを配置するための保持コンパートメント内の位置を決定することと、
前記ロボットアームを操作して、前記保持コンパートメント内の決定された位置にアイテムを位置決めすることと、
を含む、方法。
[構成17]
前記1組の取扱命令を決定するステップが、取扱命令のデータベースから前記1組の取扱命令を受信することをさらに含む、構成16に記載の方法。
[構成18]
さらに、
前記カメラからジェスチャーの画像データを受信することと、
前記ジェスチャーの意味を決定することと、
前記ジェスチャーの意味を、少なくとも前記ロボットアームを操縦するための1つ以上の信号に変換することと、
を含む、構成16に記載の方法。
[構成19]
前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムの分類に基づいており、前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムとは別に収納するアイテムの1つ以上の他の分類を特定する、構成16に記載の方法。
[構成20]
さらに、
前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信すること、
前記買い物リストの1つ以上のアイテムのそれぞれについての前記1組の取扱命令に基づいて、前記買い物リストの1つ以上のアイテムを収集する順序を決定すること、
を含む、構成16に記載の方法。

Claims (15)

  1. ロボットシステムであって、
    プロセッサと、非一時的コンピュータ可読メモリと、を備える電子制御ユニットと、
    ショッピングカートであって、
    1つ以上のアイテムを搬送するように構成された保持コンテナと、
    前記電子制御ユニットに通信可能に結合されたロボットアームと、
    前記保持コンテナの環境の画像データをキャプチャするために前記ロボットアーム上に配置され、前記電子制御ユニットと通信可能に結合されたカメラと、
    を有するショッピングカートと、
    前記非一時的コンピュータ可読メモリに記憶された機械可読命令セットであって、前記プロセッサによって実行されると、前記ロボットシステムに少なくとも、
    前記カメラから前記保持コンテナの環境の画像データを受信することと、
    前記ロボットアームによって収集されたアイテムについての1組の取扱命令を決定することであって、前記1組の取扱命令は前記アイテムの取り扱いまたは保管条件のうちの少なくとも1つを定義する、ことと、
    前記保持コンテナの環境の画像データと前記1組の取扱命令とに基づいて、前記ロボットアームによって収集されたアイテムを配置するための保持コンテナ内の位置を決定することと、
    前記ロボットアームを操作して、前記保持コンテナ内の決定された前記位置にアイテムを配置することと、
    を実行させる機械可読命令セットと、
    を備える、ロボットシステム。
  2. 前記カメラは、ジェスチャーの画像データをさらにキャプチャし、前記機械可読命令セットは、前記プロセッサに、
    ジェスチャーの意味を決定することと、
    前記ジェスチャーの意味を、少なくとも前記ロボットアームを操縦するための1つ以上の信号に変換することと、
    を実行させる、請求項1に記載のロボットシステム。
  3. 前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムについての分類に基づいており、前記1組の取扱命令のうちの1つ以上の取扱命令が、前記アイテムとは別に収納するアイテムの1つ以上の他の分類を特定する、請求項1から2のいずれか1つに記載のロボットシステム。
  4. 前記機械可読命令セットはさらに前記プロセッサに、
    前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信すること、
    を実行させる、請求項1から3のいずれか1つに記載のロボットシステム。
  5. 前記機械可読命令セットはさらに前記プロセッサに、
    前記買い物リストの1つ以上のアイテムのそれぞれについての前記1組の取扱命令に基づいて、前記買い物リストの1つ以上のアイテムを収集する順序を決定すること、
    を実行させる、請求項4に記載のロボットシステム。
  6. 前記保持コンテナおよび前記ロボットアームが電動ベースに結合され、前記電動ベースが前記電子制御ユニットに通信可能に結合され、前記機械可読命令セットがさらに前記プロセッサに、
    前記買い物リストの少なくとも1つのアイテムの位置へのルートを決定することと、
    前記買い物リストの前記少なくとも1つのアイテムの位置まで前記電動ベースを操作するための1つ以上の信号を生成することと、
    前記買い物リストのアイテムを収集するためにロボットアームを操作するための1つ以上の信号を生成することと、
    を実行させる、請求項4に記載のロボットシステム。
  7. 前記ロボットアーム上に配置され、前記電子制御ユニットと通信可能に結合されたバーコードスキャナをさらに備える、請求項1から6のいずれか1つに記載のロボットシステム。
  8. 前記バーコードスキャナおよび前記カメラのうちの少なくとも1つが、前記アイテムのバーコードを示す信号を前記電子制御ユニットに通信して、前記機械可読命令セットがさらに前記プロセッサに、
    前記アイテムの識別を決定することと、
    前記アイテムを電子チェックアウトリストに追加することと、
    を実行させる、請求項7に記載のロボットシステム。
  9. ロボットシステムであって、
    プロセッサと、非一時的コンピュータ可読メモリと、を備える電子制御ユニットと、
    ショッピングカートであって、
    1つ以上のアイテムを搬送するように構成された保持コンテナと、
    前記電子制御ユニットに通信可能に結合され、前記保持コンテナに回転可能に結合されたロボットアームと、
    前記保持コンテナの環境の画像データをキャプチャするために前記ロボットアーム上に配置され、前記電子制御ユニットと通信可能に結合されたカメラと、
    を有するショッピングカートと、
    前記ロボットアームおよび前記保持コンテナに結合された電動ベースと、
    前記非一時的コンピュータ可読メモリに記憶された機械可読命令セットであって、前記プロセッサによって実行されると、前記ロボットシステムに少なくとも、
    前記カメラから前記保持コンテナの環境の画像データを受信することと、
    前記カメラから、収集すべきアイテムの画像データを受信することと、
    前記カメラから受信した前記アイテムの画像データに基づいて、前記アイテムについての1組の取扱命令を決定することであって、前記1組の取扱命令は前記アイテムの取り扱いまたは保管条件のうちの少なくとも1つを定義する、ことと、
    前記保持コンテナの環境の画像データと前記1組の取扱命令とに基づいて、前記ロボットアームによって収集されたアイテムを配置するための保持コンテナ内の位置を決定することと、
    前記ロボットアームを操作して、前記保持コンテナ内の決定された前記位置にアイテムを位置決めすることと、
    を実行させる機械可読命令セットと、
    を備える、ロボットシステム。
  10. 前記機械可読命令セットはさらに前記プロセッサに、
    前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信することと、
    前記買い物リストの1つ以上のアイテムのそれぞれについての前記1組の取扱命令に基づいて、前記買い物リストの1つ以上のアイテムを収集する順序を決定することと、
    を実行させる、請求項9に記載のロボットシステム。
  11. 前記保持コンテナおよび前記ロボットアームが前記電動ベースに結合され、前記電動ベースが前記電子制御ユニットに通信可能に結合され、前記機械可読命令セットがさらに前記プロセッサに、
    前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信することと、
    前記買い物リストの少なくとも1つのアイテムの位置へのルートを決定することと、
    前記買い物リストの前記少なくとも1つのアイテムの位置まで前記電動ベースを操作するための1つ以上の信号を生成することと、
    前記買い物リストのアイテムを収集するためにロボットアームを操作するための1つ以上の信号を生成することと、
    を実行させる、請求項9に記載のロボットシステム。
  12. 保持コンテナ、ロボットアーム及びカメラを有するショッピングカートにアイテムを保管する方法であって、
    前記保持コンテナの環境の画像データをキャプチャするために前記ロボットアーム上に配置された前記カメラから前記保持コンテナの環境の画像データを受信することと、
    前記ロボットアームによって収集されたアイテムについての1組の取扱命令を決定することであって、前記1組の取扱命令は前記アイテムの取り扱いまたは保管条件のうちの少なくとも1つを定義する、ことと、
    前記保持コンテナの環境の画像データと前記1組の取扱命令とに基づいて、前記ロボットアームによって収集されたアイテムを配置するための保持コンテナ内の位置を決定することと、
    前記ロボットアームを操作して、前記保持コンテナ内の決定された位置にアイテムを位置決めすることと、
    を含む、方法。
  13. 前記1組の取扱命令を決定するステップが、取扱命令のデータベースから前記1組の取扱命令を受信することをさらに含む、請求項12に記載の方法。
  14. さらに、
    前記カメラからジェスチャーの画像データを受信することと、
    前記ジェスチャーの意味を決定することと、
    前記ジェスチャーの意味を、少なくとも前記ロボットアームを操縦するための1つ以上の信号に変換することと、
    を含む、請求項12から13のいずれか1つに記載の方法。
  15. さらに、
    前記ロボットアームが収集する1つ以上のアイテムのリストを備える買い物リストを受信すること、
    前記買い物リストの1つ以上のアイテムのそれぞれについての前記1組の取扱命令に基づいて、前記買い物リストの1つ以上のアイテムを収集する順序を決定すること、
    を含む、請求項12から14のいずれか1つに記載の方法。
JP2020539207A 2018-01-17 2019-01-14 ショッピングアプリケーション用ユーザ支援ロボット Active JP7288448B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/873,166 2018-01-17
US15/873,166 US11453129B2 (en) 2018-01-17 2018-01-17 User assisting robot for shopping applications
PCT/US2019/013466 WO2019143554A1 (en) 2018-01-17 2019-01-14 User assisting robot for shopping applications

Publications (2)

Publication Number Publication Date
JP2021511221A JP2021511221A (ja) 2021-05-06
JP7288448B2 true JP7288448B2 (ja) 2023-06-07

Family

ID=65269128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020539207A Active JP7288448B2 (ja) 2018-01-17 2019-01-14 ショッピングアプリケーション用ユーザ支援ロボット

Country Status (5)

Country Link
US (1) US11453129B2 (ja)
EP (1) EP3740354A1 (ja)
JP (1) JP7288448B2 (ja)
CN (1) CN111615442B (ja)
WO (1) WO2019143554A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
JP7223493B2 (ja) * 2017-05-19 2023-02-16 川崎重工業株式会社 ロボットシステム
CN110579749A (zh) * 2018-06-11 2019-12-17 视锐光科技股份有限公司 飞行时间测距装置以及辨识图像的方法
US11636382B1 (en) * 2018-08-10 2023-04-25 Textron Innovations, Inc. Robotic self programming visual inspection
US11487300B2 (en) * 2018-09-13 2022-11-01 Toyota Motor Engineering & Manufacturing North America, Inc. Home improvement store autonomous workhorse
JP2020062691A (ja) * 2018-10-15 2020-04-23 株式会社Preferred Networks 検査装置、検査方法、ロボット装置、ロボット装置における検査方法及びプログラム
JP7156916B2 (ja) * 2018-11-14 2022-10-19 東芝テック株式会社 商品取出装置
US20200182634A1 (en) * 2018-12-05 2020-06-11 Uxr Llc Providing path directions relating to a shopping cart
KR20210099217A (ko) * 2019-01-03 2021-08-12 엘지전자 주식회사 로봇 시스템의 제어 방법
WO2020152777A1 (ja) * 2019-01-22 2020-07-30 本田技研工業株式会社 同行移動体
US11430044B1 (en) * 2019-03-15 2022-08-30 Amazon Technologies, Inc. Identifying items using cascading algorithms
KR20200116741A (ko) * 2019-04-02 2020-10-13 현대자동차주식회사 로봇의 파지 제어방법 및 제어시스템
US11738447B2 (en) * 2019-07-29 2023-08-29 Nimble Robotics, Inc. Storage systems and methods for robotic picking
US11364632B2 (en) * 2019-09-03 2022-06-21 Toyota Motor North America, Inc. Systems and methods for transporting an object into and out of a vehicle
CN110774291A (zh) * 2019-09-23 2020-02-11 金晴 一种基于物联网的生活食材采购设备及其工作方法
US11023938B2 (en) * 2019-09-25 2021-06-01 Ebay Inc. Auto posting system
KR20210081048A (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 운송 로봇 및 그의 작동 방법
EP3855261B1 (en) * 2020-01-27 2024-05-15 ABB Schweiz AG Determining control parameters for an industrial automation device
US11756129B1 (en) 2020-02-28 2023-09-12 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (LIDAR) based generation of an inventory list of personal belongings
US11900535B1 (en) 2020-04-27 2024-02-13 State Farm Mutual Automobile Insurance Company Systems and methods for a 3D model for visualization of landscape design
JP7400620B2 (ja) 2020-05-15 2023-12-19 トヨタ自動車株式会社 配送管理システム、配送管理方法及び配送管理プログラム
JP7388309B2 (ja) * 2020-07-31 2023-11-29 トヨタ自動車株式会社 遠隔ショッピングシステム、遠隔ショッピング方法、及びプログラム
CN112606014A (zh) * 2020-12-12 2021-04-06 安徽新博普曼智能科技股份有限公司 一种送餐机器人
CN112874595A (zh) * 2021-02-08 2021-06-01 卢宁 一种用于大型商超的智能购物车
CN117295480A (zh) * 2021-04-29 2023-12-26 X趋势人工智能公司 用于分配指定物品的机器人设备
CN117461045A (zh) * 2021-06-01 2024-01-26 上海诺基亚贝尔股份有限公司 具有机器人辅助的购物引导
KR20220166040A (ko) * 2021-06-09 2022-12-16 현대자동차주식회사 로봇팔을 이용한 품질 검증 시스템 및 방법
KR102345745B1 (ko) * 2021-07-27 2021-12-30 동명대학교산학협력단 물류센터용 자율주행로봇
US20230081250A1 (en) * 2021-09-14 2023-03-16 International Business Machines Corporation Robotic product packing
US20230168679A1 (en) * 2021-11-30 2023-06-01 Robust AI, Inc. Robotic Cart
CN115072243A (zh) * 2022-07-07 2022-09-20 中国科学技术大学 一种用于物流仓储的寻货装置及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006059676A1 (ja) 2004-12-02 2006-06-08 Murata Kikai Kabushiki Kaisha 自動倉庫
JP2007109140A (ja) 2005-10-17 2007-04-26 Aruze Corp 商品購入システム
US20130317642A1 (en) 2012-05-28 2013-11-28 Well.Ca Inc. Order processing systems using picking robots
US20160303737A1 (en) 2015-04-15 2016-10-20 Abb Technology Ltd. Method and apparatus for robot path teaching
US20160364785A1 (en) 2015-06-09 2016-12-15 International Business Machines Corporation Automated in store shopping system
US20170066592A1 (en) 2015-09-09 2017-03-09 Bastian Solutions, Llc Automated guided vehicle (agv) with batch picking robotic arm
JP2017210302A (ja) 2016-05-23 2017-11-30 株式会社東芝 積載手順決定装置、および積載手順決定プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395028A (ja) 1989-09-05 1991-04-19 Komatsu Butsuriyuu Service Kk 計算機による積付け空間への貨物積付け方法
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
DK1889197T3 (da) * 2005-05-16 2012-02-13 Intelligent Hospital Systems Ltd Automatisk farmaceutisk blandesystem
CN202453770U (zh) 2012-02-07 2012-09-26 郑正耀 一种超市购物车用助手机器人
US10216865B1 (en) 2012-03-06 2019-02-26 Vecna Robotics, Inc. Monitoring one or more articles on a support surface
US20140180479A1 (en) 2012-12-20 2014-06-26 Wal-Mart Stores, Inc. Bagging With Robotic Arm
US9561587B2 (en) * 2014-12-16 2017-02-07 Amazon Technologies, Inc. Robotic grasping of items in inventory system
US9399476B1 (en) * 2015-01-08 2016-07-26 Diane Stankevitz Carriage assembly
US20160260142A1 (en) 2015-03-06 2016-09-08 Wal-Mart Stores, Inc. Shopping facility assistance systems, devices and methods to support requesting in-person assistance
US9382068B1 (en) 2015-09-29 2016-07-05 Amazon Technologies, Inc. Proximity directed stowage
CN105598937A (zh) 2016-02-01 2016-05-25 湖北工业大学 一种超市自动理货机器人
CN205594449U (zh) * 2016-04-14 2016-09-21 北京积水潭医院 可移动医用物流平台机器人
US9827683B1 (en) 2016-07-28 2017-11-28 X Development Llc Collaborative inventory monitoring
CN106272478A (zh) 2016-09-30 2017-01-04 河海大学常州校区 一种全自动购物机器人及使用方法
CN107283428A (zh) * 2017-08-22 2017-10-24 北京京东尚科信息技术有限公司 机器人控制方法、装置和机器人

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006059676A1 (ja) 2004-12-02 2006-06-08 Murata Kikai Kabushiki Kaisha 自動倉庫
JP2007109140A (ja) 2005-10-17 2007-04-26 Aruze Corp 商品購入システム
US20130317642A1 (en) 2012-05-28 2013-11-28 Well.Ca Inc. Order processing systems using picking robots
US20160303737A1 (en) 2015-04-15 2016-10-20 Abb Technology Ltd. Method and apparatus for robot path teaching
US20160364785A1 (en) 2015-06-09 2016-12-15 International Business Machines Corporation Automated in store shopping system
US20170066592A1 (en) 2015-09-09 2017-03-09 Bastian Solutions, Llc Automated guided vehicle (agv) with batch picking robotic arm
JP2017210302A (ja) 2016-05-23 2017-11-30 株式会社東芝 積載手順決定装置、および積載手順決定プログラム

Also Published As

Publication number Publication date
CN111615442B (zh) 2023-08-18
EP3740354A1 (en) 2020-11-25
US20190217477A1 (en) 2019-07-18
JP2021511221A (ja) 2021-05-06
WO2019143554A1 (en) 2019-07-25
US11453129B2 (en) 2022-09-27
CN111615442A (zh) 2020-09-01

Similar Documents

Publication Publication Date Title
JP7288448B2 (ja) ショッピングアプリケーション用ユーザ支援ロボット
CN111602096B (zh) 具有排除区的多分辨率扫描匹配
US11288472B2 (en) Cart-based shopping arrangements employing probabilistic item identification
US9600982B2 (en) Methods and arrangements for identifying objects
CN109416809B (zh) 代理机器人控制系统、代理机器人系统、代理机器人控制方法和存储介质
US20190241298A1 (en) Bagging system for store merchandise
JP7057214B2 (ja) 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
US20170270579A1 (en) Robotic equipment for the location of items in a shop and operating process thereof
US20190243358A1 (en) Manual control modes for an autonomous mobile robot
JP7282345B2 (ja) Rfidリーダと内蔵プリンタを備えた自己駆動システム
EP3840921B1 (en) Method and apparatus for estimating tool trajectories
US11951629B2 (en) Systems, apparatuses, and methods for cost evaluation and motion planning for robotic devices
Kim et al. Real-time purchase behavior recognition system based on deep learning-based object detection and tracking for an unmanned product cabinet
US20190392505A1 (en) Item information acquisition system, shopping assistance system, shopping assistance method, and carrier
Rupanagudi et al. A novel video processing based cost effective smart trolley system for supermarkets using FPGA
JP2020021378A (ja) 物品判別システム、買物支援システム、買物支援方法、物品判別方法、及びプログラム
US20230168689A1 (en) Systems and methods for preserving data and human confidentiality during feature identification by robotic devices
WO2021003338A1 (en) Systems and methods for detection of features within data collected by a plurality of robots by a centralized server
KR20210047660A (ko) 주문 정보의 확인을 위해 로봇을 제어하는 방법 및 시스템
JP6796901B1 (ja) 容器検出および物体検出を行うための方法ならびに計算システム
US11117744B1 (en) Determination of untidy item return to an inventory location
Roa-Garzón et al. Vision-based solutions for robotic manipulation and navigation applied to object picking and distribution
US20240096103A1 (en) Systems and methods for constructing high resolution panoramic imagery for feature identification on robotic devices
US20240144688A1 (en) Detecting items in a shopping cart based on location of shopping cart
WO2023138447A1 (zh) Ai称重系统和利用多种数据集增加ai模型的精度的方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230526

R150 Certificate of patent or registration of utility model

Ref document number: 7288448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150