JP2020149666A - 食べ物および/または飲み物のサービングのためのロボット - Google Patents

食べ物および/または飲み物のサービングのためのロボット Download PDF

Info

Publication number
JP2020149666A
JP2020149666A JP2019201812A JP2019201812A JP2020149666A JP 2020149666 A JP2020149666 A JP 2020149666A JP 2019201812 A JP2019201812 A JP 2019201812A JP 2019201812 A JP2019201812 A JP 2019201812A JP 2020149666 A JP2020149666 A JP 2020149666A
Authority
JP
Japan
Prior art keywords
robot
processing unit
robot according
camera
motor system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019201812A
Other languages
English (en)
Other versions
JP6980738B2 (ja
Inventor
ハ,ジョンウ
Jung Woo Ha
リ,ファンウェイ
Fangwei Li
ピアース,ブレナンド
Pierce Brennand
オ,ジュンジュ
Jungju Oh
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bear Robotics Korea Inc
Original Assignee
Bear Robotics Korea Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bear Robotics Korea Inc filed Critical Bear Robotics Korea Inc
Publication of JP2020149666A publication Critical patent/JP2020149666A/ja
Application granted granted Critical
Publication of JP6980738B2 publication Critical patent/JP6980738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0045Manipulators used in the food industry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • G05D1/622Obstacle avoidance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/30Specific applications of the controlled vehicles for social or care-giving applications
    • G05D2105/31Specific applications of the controlled vehicles for social or care-giving applications for attending to humans or animals, e.g. in health care environments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/60Open buildings, e.g. offices, hospitals, shopping areas or universities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/10Land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Food Science & Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】食べ物および/または飲み物をサービングするように構成されるロボットを提供する。【解決手段】ロボット100は複数の車輪104を有するベース102、前記車輪のうち一つ以上に機械的に結合されるモーターシステム、前記ベース上に結合される下端部112および前記下端部114上に配置される上端部を有する胴体110、前記上端部に配置され、華氏135度より高い温度に耐えるように構成される支持台、および前記ロボットを作動させるように構成される処理部130を含む。【選択図】図1

Description

本出願は一般的にロボットに関し、より具体的には食べ物および/または飲み物をサービングするように構成されるロボットに関する。
多くの食堂が顧客にサービスを提供するためのロボットを使わない。その理由の一つは、食堂の環境がロボットの使用を困難におよび/または不満足に思わせ得る特有の問題を抱えているためである。例えば、食堂には多様な障害物と空間的な制約が伴われ得るが、これはロボットの走行(navigation)を困難にさせる。また、食堂にはテーブル、バースツール、椅子、棚、ワインテーブルなどのような異なる寸法と高さを有する多様な物体が存在し得るが、これはロボットが衝突を避けることを難しくさせる。
ロボットは複数の車輪を有するベース;前記ベース上に結合される下端部および前記下端部上に配置され、食べ物および/または飲み物を支持するように構成される上端部を有する胴体;前記下端部に配置され、上側方向を向くように配向される第1カメラ;および前記上端部に配置され、下側方向を向くように構成される第2カメラを含む。
選択的に、前記第1カメラはその探知範囲が前記第2カメラによってカバーされない第1区域をカバーするように配向され、前記第2カメラはその探知範囲が前記第1カメラによってカバーされない第2区域をカバーするように配向される。
選択的に、前記ロボットは前記上端部に配置される第3カメラをさらに含み、前記第3カメラは実質的に水平方向を向くように構成される。
選択的に、前記ロボットは、前記第1カメラからの第1ポイントクラウド(point cloud)および前記第2カメラからの第2ポイントクラウドを獲得し、前記第1および第2ポイントクラウドを処理するように構成される処理部をさらに含む。
選択的に、前記処理部は前記第1および第2ポイントクラウドで高さ成分を除去して第1および第2の2次元ポイントクラウドを獲得するように構成され、前記処理部は前記第1および第2の2次元ポイントクラウドを結合して障害境界(obstacle boundary)を決定するように構成される。
選択的に、前記処理部は前記障害境界に基づいて前記ロボットを操縦するように構成される。
選択的に、前記ロボットは、施設の地図を獲得し、前記地図に基づいて前記施設内の走行経路を決定するように構成される処理部をさらに含む。
選択的に、前記ロボットは周辺(例えば、少なくともロボットの後方)を探知するように構成されるレーザー装置をさらに含む。
選択的に、前記上端部は前記上端部の残りの部分に脱着可能に結合される支持台を含み、前記支持台は前記食べ物および/または飲み物を支持するように構成される。
選択的に、前記ロボットは前記支持台に結合される重さセンサをさらに含む。
選択的に、前記ロボットは、重さセンサまたはカメラからの入力を受信し、前記入力を処理して物品が前記支持台上に置かれているか前記支持台から取り除かれているかどうかを決定するように構成される処理部をさらに含む。
選択的に、前記支持台はアメリカ国家衛生財団(NSF)の要求仕様、アメリカ国家標準協会(ANSI)の要求仕様、アメリカ食品医薬局(FDA)の要求仕様、または前記要求仕様の任意の組み合わせを満たす。
選択的に、前記支持台は華氏135度より高い温度に耐えるように構成される。
選択的に、前記支持台はポリエチレンテレフタレート(PET)、ポリプロピレン(PP)、ポリカーボネート(PC)、テトラフルオロエチレンの合成フッ素重合体、ポリクロロトリフルオロエチレン(PCTFE)、ポリビニリデンフルオライド(PVDF)、エチレンとクロロトリフルオロエチレンの共重合体、または塩化ポリビニルクロライド(CPVC)を含む。
選択的に、前記ロボットは、前記ロボットが停止して施設内の第1テーブルにサービスを提供するようにするための第1制御信号を生成し、一つ以上の基準が満たされることに基づいて、前記ロボットが前記施設内の次の目的地に向かって移動するようにするための第2制御信号を生成するように構成される処理部をさらに含む。
選択的に、前記一つ以上の基準は所定期間の経過を含む。
選択的に、前記一つ以上の基準は前記ロボットによって支持される重さの変化を含む。
選択的に、前記処理部は光学イメージに基づいて、または前記光学イメージに基づいて決定されるパラメーターに基づいて、前記一つ以上の基準が満たされるかどうかを決定するように構成される。
選択的に、前記次の目的地はサービスが提供される第2テーブル、または元の位置(home position)を含む。
選択的に、前記ロボットは前記上端部と関連した食べ物支持面上の空間領域を向くように構成される光学カメラをさらに含む。
選択的に、前記第1カメラは第1深さ感知カメラを含み、前記第2カメラは第2深さ感知カメラを含む。
選択的に、前記ロボットは第3深さ感知カメラをさらに含む。
選択的に、前記下端部は第1断面寸法を有し、前記上端部は前記第1断面寸法より大きい第2断面寸法を有する。
選択的に、前記ロボットは、前記上端部または前記下端部に配置されるスピーカーと、前記スピーカーを制御してオーディオ情報を提供するように構成される処理部をさらに含む。
選択的に、前記ロボットは前記上端部または前記下端部に配置されるマイクをさらに含む。
選択的に、前記ロボットは前記上端部に配置される一つ以上のプログラミング可能ボタンをさらに含む。
選択的に、前記下端部は容器を収容するように構成されるスロットを含み、前記容器は食器類および/または食べ物のメニューを保有するための大きさを有する。
選択的に、前記上端部は垂直方向に第1位置から第2位置に移動可能なフレームを有する。
選択的に、前記ロボットは前記上端部または前記下端部に脱着可能に結合されるタッチスクリーン装置をさらに含む。
選択的に、前記ロボットは、前記複数の車輪のうち第1車輪に結合される第1モーターと、前記複数の車輪のうち第2車輪に結合される第2モーターをさらに含む。
ロボットは複数の車輪を有するベース;前記ベース上に結合される下端部および前記下端部上に配置される上端部を有する胴体;および前記上端部に配置される支持台を含み、前記支持台は華氏135度より高い温度に耐えるように構成される。
選択的に、前記支持台はアメリカ国家衛生財団(NSF)の要求仕様、アメリカ国家標準協会(ANSI)の要求仕様、アメリカ食品医薬局(FDA)の要求仕様、または前記要求仕様の任意の組み合わせを満たす。
選択的に、前記支持台はポリエチレンテレフタレート(PET)、ポリプロピレン(PP)、ポリカーボネート(PC)、テトラフルオロエチレンの合成フッ素重合体、ポリクロロトリフルオロエチレン(PCTFE)、ポリビニリデンフルオライド(PVDF)、エチレンとクロロトリフルオロエチレンの共重合体、または塩化ポリビニルクロライド(CPVC)を含む。
選択的に、前記支持台は食べ物および/または飲み物を支持するように構成される。
選択的に、前記ロボットは前記支持台の下に位置する一つ以上のカメラをさらに含む。
ロボットは複数の車輪を有するベース;前記車輪のうち一つ以上に機械的に結合されるモーターシステム;前記ベース上に結合される下端部および前記下端部上に配置される上端部を有する胴体;前記上端部に配置され、華氏135度より高い温度に耐えるように構成される支持台;および前記ロボットを作動させるように構成される処理部を含む。
選択的に、前記上端部は食べ物および/または飲み物を支持するための支持台を含み、前記ロボットは前記支持台に結合される一つ以上の重さセンサをさらに含み、前記処理部は前記一つ以上の重さセンサからの出力に基づいて前記モーターシステムを作動させるための信号を提供するように構成される。
選択的に、前記ロボットはマイクをさらに含み、前記処理部は前記マイクによって受信される音声命令に応答して前記モーターシステムを作動させるための信号を提供するように構成される。
選択的に、前記ロボットはユーザーインターフェースをさらに含み、前記処理部は前記ユーザーインターフェースによって受信される入力に応答して前記モーターシステムを作動させるための信号を提供するように構成される。
選択的に、前記ユーザーインターフェースはボタンおよび/またはタッチスクリーンを含む。
選択的に、前記ロボットは無線通信装置をさらに含み、前記処理部は前記無線通信装置によって受信される入力に応答して前記モーターシステムを作動させるための信号を提供するように構成される。
選択的に、前記ロボットは前記ロボットの外側の物体を感知するように構成される第1カメラをさらに含む。
選択的に、前記ロボットは第2カメラをさらに含み、前記第1カメラはその探知範囲が前記第2カメラによってカバーされない第1区域をカバーするように配向され、前記第2カメラはその探知範囲が前記第1カメラによってカバーされない第2区域をカバーするように配向される。
選択的に、前記ロボットは実質的に水平方向を向くように構成される第3カメラをさらに含む。
選択的に、前記処理部は前記第1カメラからの第1ポイントクラウドおよび前記第2カメラからの第2ポイントクラウドを獲得し、前記第1および第2ポイントクラウドを処理するように構成される。
選択的に、前記処理部は前記第1および第2ポイントクラウドで高さ成分を除去して第1および第2の2次元ポイントクラウドを獲得するように構成され、前記処理部は前記第1および第2の2次元ポイントクラウドを結合して障害境界を決定するように構成される。
選択的に、前記処理部は前記障害境界に基づいて前記ロボットを操縦するように構成される。
選択的に、前記処理部は前記ロボットが施設内の第1目的地に移動するように前記モーターシステムを作動させるための第1信号を提供するように構成され、前記処理部はまた、前記第1目的地を離れるための基準が満たされるかどうかを決定し、前記第1目的地を離れるための基準が満たされる場合、前記ロボットが前記第1目的地から離れて移動するように前記モーターシステムを作動させるための第2信号を提供するように構成される。
選択的に、前記基準は前記第1目的地に到着してからの最大経過時間を含み、前記処理部は前記第1目的地に到着してからの経過時間が前記最大経過時間に到達した場合、前記モーターシステムを作動させるための前記第2信号を提供するように構成される。
選択的に、前記処理部は施設の地図を獲得し、前記地図に基づいて前記施設内の走行経路を決定するように構成される。
選択的に、前記ロボットは周辺を探知するように構成されるレーザー装置をさらに含む。
選択的に、前記ロボットは前記支持台に結合される重さセンサをさらに含む。
選択的に、前記処理部は重さセンサまたはカメラからの入力を受信し、前記入力を処理して物品が前記支持台上に置かれているか前記支持台から取り除かれているかどうかを決定するように構成される。
選択的に、前記支持台はアメリカ国家衛生財団(NSF)の要求仕様、アメリカ国家標準協会(ANSI)の要求仕様、アメリカ食品医薬局(FDA)の要求仕様、または前記要求仕様の任意の組み合わせを満たす。
選択的に、前記処理部は前記ロボットを第1目的地に移動させて施設内の第1テーブルにサービスを提供するように構成される。
選択的に、前記下端部は第1断面寸法を有し、前記上端部は前記第1断面寸法より大きい第2断面寸法を有する。
選択的に、前記ロボットは前記上端部または前記下端部に配置されるスピーカーをさらに含み、前記処理部は前記スピーカーを制御してオーディオ情報を提供するように構成される。
選択的に、前記ロボットは前記上端部または前記下端部に配置されるマイクをさらに含む。
選択的に、前記ロボットは前記上端部に配置される一つ以上のプログラミング可能ボタンをさらに含む。
選択的に、前記下端部は容器を収容するように構成されるスロットを含み、前記容器は食器類および/または食べ物のメニューを保有するための大きさを有する。
選択的に、前記上端部は垂直方向に第1位置から第2位置に移動可能なフレームを有する。
選択的に、前記ロボットは前記上端部または前記下端部に脱着可能に結合されるタッチスクリーン装置をさらに含む。
選択的に、前記モーターシステムは前記複数の車輪のうち第1車輪に結合される第1モーターと、前記複数の車輪のうち第2車輪に結合される第2モーターを含む。
他の追加的な態様および特徴は、実施例に関する下記の詳細な説明を読むことによって明白となるはずである。図面は実施例の設計および活用を図示し、類似する要素は共通の参照番号で指し示される。このような図面は必ずしも比率に合わせて図示されたものではない。前述した長所および目的とその他の長所および目的がどのように達成されるかをさらによく理解するために、実施例に関するより具体的な説明が行われるはずであり、これは添付された図面に図示される。このような図面は典型的な実施例を図示するだけのものであり、したがって、その範囲を限定するものと見なされてはならない。
一部の実施例に係るロボットを図示する。 一部の実施例に係るロボットを図示する。 一部の実施例に係るロボットを図示する。 特有のカメラシステム体制を使う物体探知技術の例を図示する。 衝突防止方法を図示する。 ロボットによって遂行される方法を図示する。 一部の実施例に係る図面を図示する。 一部の実施例に係る図面を図示する。 一部の実施例に係るロボットの処理部を図示する。
多様な実施例が図面を参照して後述される。図面は比率に合わせて図示されておらず、類似する構造または機能の要素は図面の全体に亘って同じ図面符号によって表示される。また、図面は実施例についての説明を助けるためのものに過ぎないものである。これらは本発明を包括的に説明または本発明の範囲を限定するためのものではない。また、図示された実施例は図示されたすべての態様や長所を有する必要がない。特定の実施例と結び付けて説明される態様または長所は必ずしもその実施例に限定されず、それとともに図示されておらずとも任意の他の実施例で実施され得る。
図1〜図3は、一部の実施例に係るロボット100を図示する。ロボット100は複数の車輪104を有するベース102を含む。ロボット100はまた、ベース102上に結合される下端部112および下端部112上に配置される上端部114を有する胴体110を含み、上端部114は食べ物および/または飲み物を支持するように構成される。上端部114と下端部112は一部の実施例において一体に形成され得る。このような場合、上端部114と下端部112は一構成要素の他の部分を指し示す。その代わりに、上端部114と下端部112は共に機械的に結合される別個の構成要素であり得る。ロボット100はまた、下端部112に配置される第1カメラ120を含み、第1カメラ120は上側方向を向くように配向される。ロボット100は上端部114に配置される第2カメラ122をさらに含み、第2カメラ122は下側方向を向くように構成される。ロボット100はまた、上端部114に配置される第3カメラ124を含み、第3カメラ124は実質的に水平方向を向くように構成される。本明細書で使用されている通り、「実質的に水平方向」という用語やこれと類似する用語は水平(0°)±30°以下(例えば0°±15°)である方向を指し示す。他の実施例において、ロボット100は第3カメラ124を含まなくてもよく、第3カメラ124は選択的である。
図示された実施例において、下端部112は第1断面寸法を有し、上端部114は第1断面寸法より大きい第2断面寸法を有する。しかし、ロボット100は図示された構成(例えば形態)に限定されてはならない。他の実施例において、ロボット100は他の構成を有することができる。また、図示された実施例において、ロボット100は36インチ以下、さらに好ましくは30インチ以下、さらに好ましくは24インチ以下(例えば18インチ±2インチ)の最大断面寸法を有する。これは、ロボット100が食堂内の人々および/または食堂内の稠密に離隔している家具の間を走行できるようにする。他の実施例において、ロボット100は提供された例示と異なる最大断面寸法を有することができる。図示された実施例において、第1および第2部分112、114は共に組み立てられる別個の構成要素である。他の実施例において、第1および第2部分112、114は一体型の構成を有することができる。例えば、これらは他の実施例において同一のハウジング(housing)の部分であり得る。
図示された実施例において、第1カメラ120は第1深さ感知カメラを含み、第2カメラ122は第2深さ感知カメラを含む。また、第3カメラ124は第3深さ感知カメラを含む。他の実施例において、第1、第2および第3カメラ120、122、124は異なる類型のカメラであり得る。
図2に図示されたように、第1カメラ120が上側方向を向くようにするのは、第1カメラ120の探知範囲が第2カメラ122によりカバーされない所定の区域、例えば区域250をカバーする長所を有しているためである。同様に、第2カメラ122が下側方向を向くようにするのは、第2カメラ122の探知範囲が第1カメラ120によりカバーされない所定の区域、例えば区域252をカバーする長所を有しているためである。
したがって、第1カメラ120は、地面からより高く位置して、第2カメラ122によって探知できないロボットの上端部114の前面に位置した物体を探知することができる。同様に、第2カメラ122は、下端部112の前面とベース102の前面に位置して、第1カメラ120によって探知できない物体を探知することができる。また、ある深さ感知カメラの場合、カメラから過度に近くに位置した(例えば、カメラから40cmまで背中と同じ所定距離以内の)事物をカメラが探知できないこともある地帯(死角地帯)が存在し得る。図2に図示されたようにカメラを配列させるのはこのような問題にも対処する。一部の実施例において、カメラ120、122はロボット100から5メートル以内の障害物を集合的に探知できるように配向され得る。他の実施例において、障害物の探知範囲はロボット100から5メートルを超過するか5メートル未満であり得る。本明細書で使われる「上側方向」という用語は、水平面の上側を示す方向であって、垂直軸±45°によって定義される範囲内の任意の方向を指し示す。したがって、カメラが「上側方向」を向くとは、水平面の上側を示す方向であって、45°(垂直軸から測定される)と−45°(垂直軸から測定される)の間の任意の方向をカメラが向くことを指し示し得る。同様に、本明細書で使われる「下側方向」という用語は、水平面の下側を示す方向であって、垂直軸±45°によって定義される範囲内の任意の方向を指し示す。したがって、カメラが「下側方向」を向くとは、水平面の下側を示す方向であって、45°(垂直軸から測定される)と−45°(垂直軸から測定される)の間の任意の方向をカメラが向くことを指し示し得る。
また、第3カメラ124が前方を向くようにするのは、第3カメラ124は第1および第2カメラ120、122によりカバーされる領域よりもさらに遠くに位置した物体を探知する調書を有しているためである。特に、第1および第2カメラ120、122は共にロボット100の周辺に完全な(すなわち、死角地帯がない)カバレッジ(coverage)を提供することができるが、このようなカバレッジはロボット100から短い距離までのみ延長され得る。第3カメラ124はロボット100からさらに遠い領域までこのようなカバレッジを延長させることができる。他の実施例において、第1および第2カメラ120、122はロボット100から十分に遠いところ(例えば6インチ、1フィート、3フィート、4フィート、5フィート、6フィート、8フィート、10フィート、12フィートなど)に位置した物体を探知することができる。このような場合、ロボット100は第3カメラ124が不要となり得る。
一部の実施例において、第1および第2カメラ120、122、そして選択的に第3カメラ124は、すべてのカメラの死角地帯の全部を集合的にカバーするように配向され得る。一部の実施例において、第1カメラ120の探知範囲は第2カメラ122をカバーすることができ、第2カメラ122の探知範囲は第1カメラ120をカバーすることができる。他の実施例において、第1カメラ120の探知範囲は第2カメラ122をカバーしなくてもよく、第2カメラ122の探知範囲は第1カメラ120をカバーしなくてもよい。
他の実施例において、ロボット100は3個より少ないか多いカメラを含むことができる。例えば、他の実施例において、二つのカメラが共にロボット100の前側のすべての探知カバレッジを提供することができれば、ロボット100はこれら二つのカメラのみを含むことができる。これは、カメラのうち一つまたは二つが共に広い視野角度または探知角度(例えば90°以上の探知角度)を有する場合に可能であり得る。さらに他の実施例において、一つのカメラが広い視野角度または探知角度(例えば180°の探知角度)を有する場合、ロボット100はこのような一つのカメラのみを含むことができる。
ロボット100はまた、ロボット100の多様な構成要素を制御するように構成される処理部130を含む。処理部130はハードウェア、ソフトウェア、またはこれらの組み合わせを使って具現され得る。一具現例において、処理部130は多様な構成要素を有する印刷回路基板(PCB)を含むことができる。他の実施例において、処理部130は共に結合される一つ以上の集積回路であり得る。また、一部の実施例において、処理部130は汎用プロセッサ、ASICプロセッサ、FPGAプロセッサなどのような一つ以上のプロセッサを含むことができる。
ロボット100はまた、複数の車輪104のうち第1車輪に結合される第1モーター140と、複数の車輪104のうち第2車輪に結合される第2モーター142を含む。モーター140、142は車輪104を同じ方向に同じ速度で回転させるように、共に作動してロボット100を前方または後方に直進移動させることができる。モーター140、142はまた、二つの車輪104のうち一つのみを回転させるか、車輪を同じ方向に異なる速度で回転させるか、または車輪104を異なる方向に回転させるように、共に作動してロボット100を回転させることができる。他の実施例において、ロボット100は説明されたものとは異なる運送システムを有することができる。例えば、他の実施例において、ロボット100は二つの車輪104を制御するための単一のモーターと、第3車輪を回転させるための独立操縦メカニズムを有することができる。他の例として、ロボット100は4個の車輪(例えば4個の全方向車輪)を有することができる。さらに他の実施例において、ロボット100は異なる類型の車輪(例えばトラクター型車輪)を含むことができる。
図示された実施例において、ロボット100は周辺(例えば、少なくともロボットの後方)を探知するように構成されるレーザー装置150(図2に図示される)をさらに含む。レーザー装置150はレーザービームを提供するように構成されるレーザーソースと、レーザービームを回転させるように構成されるモーターを含むことができる。一具現例において、レーザー装置150はライダー(lidar)装置であり得、これは10m以上(例えば20m)の探知範囲を有することができる。一部の実施例において、レーザー装置150はロボットの後方周辺に関するデータを提供するように構成され得、この時、探知範囲は少なくとも180°である。他の実施例において、探知範囲は180°より大きくてもよい(例えば220°以上、360°など)。さらに他の実施例において、探知範囲は180°より小さくてもよい。また、他の実施例において、レーザー装置150はロボットの前方周辺を探知するように構成され得る。図示された実施例において、レーザー装置150は処理部130に入力を提供するように構成され、処理部130はこのような入力を処理して周辺に対するロボット100の位置を把握する。一部の実施例において、食堂の3次元地図が獲得されてロボット100内の非一過性媒体152に保存され得る。処理部130はレーザー装置150から信号を獲得し、周辺のリアルタイム3次元モデルを生成するように構成され得る。引き続き、処理部130は3次元モデルを3次元地図と比較してロボット100の位置を識別することができる。
また、図示された実施例において、ロボット100の処理部130はロボット100を食堂内の他の場所に走行させるために、ロボット100のモーター140、142を作動させるように構成される走行制御部160を含む。走行制御部160は食堂の地図、ロボット100の現在位置およびロボット100の目標位置を獲得し、食堂の地図に基づいてロボット100が現在位置から目標位置に移動するようにモーター140、142を作動させるように構成される。また、ロボット100の処理部130は地図に基づいて食堂内の走行経路を決定するように構成され得る。一部の実施例において、食堂の地図はロボット100に無線で伝送され得、ロボット100内の非一過性媒体152に保存され得る。例えば、地図は遠隔サーバー、携帯電話、タブレットなどから伝送され得る。他の実施例において、食堂の地図はUSBドライブに保存され得、USBドライブがロボット100のUSBポートに挿入された後にUSBドライブからロボット100に伝送され得る。
図示された実施例において、ロボット100はまた、食べ物、飲み物、食器類、メニュー、包装ボックス、勘定書などのような多様な物品を支持するためのトレー200を含む。トレー200は上端部114の一部に脱着可能に結合される。このような特徴は、掃除、顧客接待および/または取り替えの目的のために、トレー200をロボット100から分離できるようにする。場合によっては、トレー200は上端部114の一部として見なされ得る。ロボット100はまた、トレー200により支持される重さを感知するための重さセンサ210を含む。重さセンサ210は一つ以上のストレインゲージ(strain gauge)(例えば、3個のストレインゲージ、4個のストレインゲージなど)を使って具現され得る。図面に図示されたように、トレー200は扁平な支持面を有する。他の実施例において、トレー200は他の構成を有することができる。例えば、他の実施例において、トレー200はグラスコップホルダーおよび/または瓶ホルダーを含むことができる。したがって、本明細書で使用されている通り、「トレー」という用語は、扁平な支持面を有する支持構造物に限定されてはならず、食堂内の他の物品を保有するように設計される任意の支持構造物または機械的構成要素を含むことができる。図示された実施例において、重さセンサ210は処理部130に結合されるが、これは処理部130が重さセンサ210により提供される入力に基づいてロボット100を制御できるようにする。例えば、一部の実施例において、ロボット100の処理部130は物品がトレー200上に置かれているかどうかを決定するように構成され得る。このような場合、処理部130は感知された重さに基づいて、ロボット100を所定の場所に移動させるかどうかを決定することができる。一具現例において、食堂の従業員は所定のテーブルに伝達するための食品をトレー200上に置くことができる。処理部130が重さセンサ210からの入力に基づいてトレー上に物品が置かれていると決定すると、処理部130は該当物品を所定のテーブル(例えば、従業員によってロボット100に入力されたテーブル)に伝達するようにロボット100のモーター140、142を作動させることができる。その代わりにまたはそれに加えて、ロボット100の処理部130は物品がトレー200から取り除かれているかどうかを決定することができる。このような場合、処理部130は重さセンサ210により感知された重さの変化に基づいて、ロボット100を所定の場所に移動させるかどうかを決定することができる。一具現例において、ロボット100は所定の物品(例えば食べ物)を所定のテーブルに伝達することができる。該当テーブルの顧客がロボット100から物品を取り除くと、重さセンサ210は処理部130に入力を提供する。処理部130はロボット100のトレー200により支持される重さの減少(これは、ロボット100により伝達される物品を顧客が取り除いたことを示す)があるものと決定する。引き続き、処理部130はロボットが次の目的地に移動するようにロボット100のモーター140、142を作動させることができる。
他の実施例において、重さセンサ210の代わりにまたはそれに加えて、ロボット100はまた、上端部114と関連した食べ物支持面上の空間領域(例えばトレー200上の空間領域)を向くように構成される光学カメラを含むことができる。このような場合、処理部130はカメラから獲得された光学イメージに基づいて、物品がトレー200上に置かれているかトレー200から取り除かれているかどうかを決定するように構成され得る。例えば、カメラは(トレー200がいかなる物品も支持していない時の)トレー200上の空間領域のイメージを基準イメージとして獲得することができる。このような基準イメージはロボット100内の非一過性媒体152に保存され得る。物品がトレー200上に置かれると、カメラはイメージをキャプチャー(capture)し、処理のために該当イメージを処理部130に伝送する。処理部130は該当イメージを非一過性媒体152に保存された基準イメージと比較することができる。一部の実施例において、処理部130によるイメージの比較は、処理部130により両イメージ間の相関値(correlation value)を決定することによって具現され得る。両イメージが異なる場合、処理部130は物品がトレー200上に置かれたものと決定することができる。
同様に、カメラは物品がトレー200上に置かれてからトレー200上の空間領域のイメージを獲得することができる。このような基準イメージはロボット100内の非一過性媒体152に保存され得る。該当物品がトレー200から取り除かれるとカメラはイメージをキャプチャーし、処理のために該当イメージを処理部130に伝送する。処理部130は該当イメージを非一過性媒体152に保存された基準イメージと比較することができる。一部の実施例において、処理部130によるイメージの比較は、処理部130により両イメージ間の相関値を決定することによって具現され得る。両イメージが異なる場合、処理部130は物品がトレー200から取り除かれたものと決定することができる。
一部の実施例において、カメラによるイメージのキャプチャーはトレー200により支持される重さの変化に応答して遂行され得る。例えば、物品がトレー200上に置かれた場合、および/または物品がトレー200から取り除かれた場合、処理部130はそれに該当する重さが重さセンサ210により感知されたことを示す入力を重さセンサ210から受信する。引き続き、処理部130は重さの変化があるかどうかを決定することができ、このような場合に処理部130はカメラがイメージをキャプチャーするようにするための信号を生成することができる。その代わりに、カメラはトレー200上の空間領域のイメージ(例えば動画)を連続で生成するように構成され得る。このような場合、イメージはある感知された重さに基づいて生成されるものではない。このような場合、処理部130はイメージをリアルタイムで分析して物品がトレー200上に置かれているかトレー200から取り除かれているかどうかを決定するように構成され得る。
食べ物および/または飲み物支持メカニズムは例示で説明されたトレー200に限定されない。他の実施例において、食べ物および/または飲み物は任意の類型のトレーであり得るか、トレーとは異なる構成を有することができる任意の支持台によって支持され得る。支持台は洗浄可能な材料、例えば腐食性洗浄剤(例えばクロロックス)と接触する場合、任意の化学物質の生成および/または変色や退色の発生がない材料で製作され得る。その代わりにまたはそれに加えて、支持台の材料は食器洗浄器に対する安全性問題が存在し得る。例えば、支持台の材料は熱(例えば、華氏100度より高い任意の温度(例えば華氏100度〜200度)、華氏110度より高い任意の温度(例えば華氏110度〜140度)、華氏135度より高い任意の温度など)および商業用食器洗浄器で使われる化学物質に耐え得る十分に強いものであり得る。また、一部の実施例において、支持台の材料はアメリカ食品医薬局(FDA)により承認された、食品接触時に安全な材料であり得る。一部の実施例において、支持台の材料は耐酸性プラスチック、例えばテトラフルオロエチレンの合成フッ素重合体、ポリクロロトリフルオロエチレン(PCTFE)、ポリビニリデンフルオライド(PVDF)、エチレンとクロロトリフルオロエチレンの共重合体、塩化ポリビニルクロライド(CPVC)等であり得る。支持台に使われ得る材料の他の例にはポリエチレンテレフタレート(PET)、ポリプロピレン(PP)、ポリカーボネート(PC)、ガラススチール(glassteel)、ファイバーグラス、プラスチック、ポリカーボネ−トなどが含まれる。また、一部の実施例において、支持台はアメリカ国家衛生財団(NSF)の要求仕様、アメリカ国家標準協会(ANSI)の要求仕様(例えばNSF/ANSI 2、4、36、59)、アメリカ食品医薬局(FDA)の要求仕様、または前記要求仕様の任意の組み合わせを満たすように製作され得る。他の実施例において、支持台はアメリカ外部の他の機関または政府機構(例えば大韓民国、中国、ヨーロッパ、日本など)の要求仕様を満たすように製作され得る。
図3に図示されたように、ロボット100は上端部114に配置されるスピーカー300をさらに含む。その代わりに、スピーカー300は下端部112に配置され得る。処理部130はスピーカー300を制御してオーディオ情報を提供するように構成されるオーディオ処理モジュール162を含むことができる。例えば、一部の実施例において、処理部130は顧客に食べ物が到着したことを通知するようにスピーカー300を作動させることができ、ロボット100の上に支持されている所定の食品を持っていくように顧客に指示することができる。他の例として、処理部130は顧客に勘定書が到着したことを通知するようにスピーカー300を作動させることができる。他の実施例において、ロボット100は一つのスピーカー300のみを含むか、3個以上のスピーカー300を含むことができる。
図示された実施例において、ロボット100は上端部114に配置されるマイク138をさらに含む。マイク138は音声を受信し、処理部130により処理されるマイクの出力信号を提供するように構成される。一部の実施例において、処理部130はマイクの出力信号を処理して命令および/または要請を識別するように構成される音声処理モジュール164を含むことができる。例えば、顧客またはユーザーはマイク138に向かって「元の位置に戻りなさい」と話すことによって、ロボット100に元の位置に戻るように指示することができる。他の例として、顧客またはユーザーはメニューの要請、食べ物の注文、飲み物の注文、勘定書の要請、従業員の要請、包装ボックスの要請などやこれらの任意の組み合わせを行うことができる。マイク138はこのような音声要請を受信し、それに該当するマイクの出力信号を非一過性媒体152内の保存および/またはスピーカー(従業員が着用した装置のスピーカー、台所内のスピーカーなど)への無線伝送のために提供することができる。その代わりにまたはそれに加えて、マイクの出力信号はサーバーまたは外部装置(例えば携帯電話、タブレットなど)に保存するためのメッセージに変換され得、従業員は自分の所望する任意の時間にこのようなメッセージを照会することができる。他の実施例において、マイク138はロボット100の下端部112に配置されるように具現され得る。また、他の実施例において、ロボット100は二個以上のマイク138を含むことができる。例えば、他の実施例において、ロボット100は二つのマイク138を含むことができ、これは処理部130により音声の方向を決定できるようにする。さらに他の実施例において、ロボット100はマイクを含まなくてもよい。
図1に図示されたように、ロボット100は上端部114に配置される二つのプログラミング可能ボタン170をさらに含む。各ボタン170は望む機能を達成するようにプログラミングされ得る。非限定的な例示として、各ボタン170はロボット100に元の位置に復帰するか、専用の位置に行くか、勘定書を提供するか、従業員を要請するなどの指示をするようにプログラミングされ得る。場合によっては、ロボット100はロボット100のユーザーがボタン170をプログラミングできるようにするためのユーザーインターフェース(例えば、タッチスクリーン)を含むことができる。ユーザーインターフェースはボタン170のうち一つまたは二つの両方に関連させることができる使用可能機能目録をディスプレイすることができる。ユーザーがユーザーインターフェースを使って所定のボタン170に対する機能を選択すると、そのような選択がロボット100内の非一過性媒体152に保存され、ボタン170には選択された機能が割り当てられる。他の場合に、ユーザーは携帯電話またはタブレットのアプリケーションにアクセスし、該当アプリケーションを使ってボタン170をプログラミングすることができる。このような場合、該当アプリケーションはボタン170に対して選択された機能をクラウドに伝送してロボット100に伝送されるようにしたり、または無線でロボット100に直接伝送することができる。他の場合に、ボタン170はロボット100の管理者または製作者によってプログラミングされ得る。このような場合、ボタン170はロボット100が食堂に伝達される前にあらかじめプログラミングされる。他の実施例において、ロボット100は3個以上のプログラミング可能ボタン170を含んでもよく、プログラミング可能ボタンを含まなくてもよい。また、他の実施例において、ボタン170はあらかじめ決定された専用機能を有することができ、このような場合にボタン170はプログラミングが可能でなくてもよい。
図示された実施例において、ロボット100の処理部130は第1カメラ120からの第1ポイントクラウド、第2カメラ122からの第2ポイントクラウドおよび第3カメラ124からの第3ポイントクラウドを獲得し、第1、第2および第3ポイントクラウドを処理するように構成される障害物探知機180を含む。一具現例において、処理部130の障害物探知機180は第1、第2および第3ポイントクラウドで高さ成分を除去して第1、第2および第3の2次元ポイントクラウドを獲得するように構成される。例えば、第1ポイントクラウドが(X=23、Y=55、Z=83)の座標を有する点を含む場合、ロボット100の障害物探知機180は高さ成分(この例示ではZ=83)を除去して3次元の点を2次元の座標(X=23、Y=55)に変換する。2次元ポイントクラウドが決定された後に、障害物探知機180は第1、第2および第3の2次元ポイントクラウドを結合して障害境界を決定する。処理部130は決定された障害境界に基づいてロボット100を制御することができる。例えば、処理部130は決定された障害境界に基づいて、ロボット100の停止および/またはロボット100の異なる方向への操縦によって衝突を防止するための制御信号を生成することができる。他の実施例において、三つのカメラ120、122、124のすべてからのポイントクラウドを使う代わりに、障害物探知機180は第1および第2カメラ120、122からのポイントクラウドだけを使って障害境界を決定することができる。
図4は、前述した障害物探知技術の例を図示する。図面に図示されたように、食堂にはテーブル400が置かれている。テーブル400はテーブル角402を有する。図示された例で、また、テーブル400の下側の底にハンドバッグ410が、その一部が前記テーブルの位置と重なって置かれている。ロボット100がテーブル400に接近するにつれて、上側方向を向く第1カメラ120はテーブル角402は探知するものの、底のハンドバッグ410は探知できないこともある。しかし、下側方向を向く第2カメラ122は底のハンドバッグ410は探知できるものの、テーブル角402は探知できないこともある。第1カメラ120により探知されたテーブル角402は第1ポイントクラウドとして捕捉されて第1カメラ120により処理部130に伝送される。同様に、第2カメラ122により探知されたハンドバッグ410は第2ポイントクラウドとして捕捉されて第2カメラ122により処理部130に伝送される。ポイントクラウド内の各点はカメラ座標系に対する点の位置を表す3次元の座標を有する。処理部130の障害物探知機180は第1および第2ポイントクラウドのうち一つまたは二つの両方に対して座標変換を遂行し、両カメラ120、122により捕捉された点のすべてが同じ座標系を基準として結合され得るようにする。障害物探知機180はまた、第1および第2ポイントクラウドで高さ成分を除去して第1および第2の2次元ポイントクラウドを獲得する。ポイントクラウドで高さ成分を除去することは物体の探知された表面のすべてを単一の平面に圧縮する効果を有する。2次元ポイントクラウドが決定された後に、障害物探知機180は2次元ポイントクラウドによって形成される境界を識別し、該当境界を障害境界として使う。図面に図示されたように、この例示で決定された障害境界はテーブル角402の輪郭のうち一部に対応する第1境界部分420、ハンドバッグ410の輪郭のうち一部に対応する第2境界部分422およびテーブル角402の輪郭のうち一部に対応する第3境界部分424を含む。処理部130は決定された障害境界に基づいてロボット100を作動させることができる。一部の実施例において、処理部130はロボット100が障害境界に到達することを防止したりまたはロボット100が障害境界から一定のマージン(例えば3インチ、6インチ、1フィートなど)だけ離れた所定の位置に到達することを防止するようにロボット100を作動させることができる。前述した技術を使って異なる高さにある物体に基づいた障害境界を形成することは、異なる高さにある異なる物体の境界を捕捉する人工の垂直境界430を生成する効果を有する。ロボット100のための衝突防止境界を生成するこのような技術は具現が容易であり、相当な計算資源を要求しない。
前記例において、第1および第2カメラ120、122を使って獲得されたポイントクラウドに基づいて障害境界が生成されるものと説明された。他の実施例において、第3カメラ124からのポイントクラウドも障害境界の決定に使われ得る。このような場合、処理部130の障害物探知機180は第1、第2および第3カメラ120、122、124からのポイントクラウドをすべて結合して障害境界を形成する。
また、前記例において、ロボット100は動かない障害物を探知できるものと説明された。他の実施例において、ロボット100は食堂内の人、食べ物カートなどのような動く障害物を探知することができる。カメラ120、122(そして選択的に、カメラ124)は物体をリアルタイムで探知することができ、処理部130はこれらカメラからのポイントクラウドを処理してリアルタイムで衝突防止境界を決定することができる。これは処理部130が、例えば人などの動く物体を探知してロボット100が停止したり、その人の周囲を迂回して行くようにロボット100を作動させることを可能にする。
図5は、衝突防止方法500を図示する。方法500はロボット100により遂行され得る。方法500は第1カメラから第1ポイントクラウドを獲得する段階(項目502)、第2カメラから第2ポイントクラウドを獲得する段階(項目504)および第3カメラから第3ポイントクラウドを獲得する段階(項目506)を含む。一部の実施例において、項目502、504および506は同時に遂行され得る。方法500はまた、第1、第2および第3ポイントクラウドで高さ成分を除去して第1、第2および第3の2次元ポイントクラウドを獲得する段階(項目510)を含む。次に、第1、第2および第3の2次元ポイントクラウドが結合されて障害境界を決定する(項目512)。次に、ロボット100が障害境界に基づいて作動する(項目514)。例えば、処理部130は障害境界に基づいて、ロボット100の停止および/またはロボット100の異なる方向への操縦のための制御信号を生成することができる。障害境界を決定するために3個のカメラを活用して3個のポイントクラウドを獲得することを基準として方法500が説明されたが、他の実施例では第3カメラは選択的なものであって不要である。このような場合、方法500は項目506を含まなくてもよく、項目512で障害境界は第1および第2の2次元ポイントクラウドの結合に基づいて決定される。
一部の実施例において、ロボット100の処理部130はスケジューラー182からの入力に基づいて、ロボット100が食堂内の他の場所に移動して走行するように構成され得る。スケジューラー182は処理部130の一部として具現され得る。例えば、処理部130のスケジューラーは、ロボット100が第1テーブルに行って第1サービスを提供した後に元の位置に復帰するようにロボット100を作動させることができる。他の例として、処理部130のスケジューラーは、ロボット100が第1テーブルに行って第1サービスを提供した後、第2テーブルに行って第2サービスを提供するなどのようでロボット100を作動させることができる。一部の実施例において、処理部130のスケジューラーはユーザーインターフェースを通じてプログラミングが可能であり得る。例えば、ロボット100はロボット100のユーザーがロボット100に対するスケジュールをプログラミングできるようにするユーザーインターフェース(例えば、タッチスクリーン)を含むことができる。一具現例において、ユーザーインターフェースは到着するテーブルおよび該当テーブルを離れるための基準をユーザーが選択するようにすることができる。例えば、ユーザーはロボット100が7番テーブルに行くように(例えば食品の伝達のために)ロボット100をプログラミングすることができ、ロボット100の食べ物支持トレーの下の重さセンサによって測定される重さの減少(例えば変化量とは関係のない重さの変化、または所定の指定された敷居値より大きい重さの変化)が、ロボット100が該当テーブルを離れるための基準となるようにプログラミングすることができる。このような場合、ロボット100がプログラミングされた後、ユーザーはロボット100を出発させて7番テーブルに行って食品を伝達するようにすることができる。ロボット100は該当テーブルに到着した後に停止して7番テーブルの顧客が食品を持っていくことを待つ。食品がロボット100のトレーから取り除かれると、処理部130はトレー上に支持されていた物品が取り除かれたことを示す入力を重さセンサから受信した後、プログラミングされた基準が満たされたものと決定する。引き続き、処理部130はロボット100がロボット100にプログラミングされた次の目的地に行くようにロボット100を作動させる。例えば、次の目的地が元の位置である場合、処理部130はロボット100が元の位置に行くようにロボット100を作動させる。次の目的地が4番テーブルである場合(勘定書伝達のためのものである)、処理部130はロボット100が4番テーブルに行くようにロボット100を作動させる。ロボット100が4番テーブルに到着すると、ロボット100は例えばロボット100に設置されたプリンタを使って勘定書を印刷することができる。引き続き、ロボット100は4番テーブルの顧客が勘定書を持っていくことを待つ。勘定書を持っていったことをプリンタ(またはロボット100)が感知すると、処理部130は4番テーブルを離れるための基準が満たされたものと決定した後、ロボット100が次の目的地に行くようにロボット100を作動させることができる。
前記例示において、ロボット100の移動(例えばテーブルから離れたり、テーブルにサービスを提供したり、元の位置に復帰すること等)のための制御信号の生成は、重さ基準(例えば重さの変化、または所定量を超過する重さの変化)を満たすことを基準として説明された。その代わりにまたはそれに加えて、ロボット100が移動するようにロボット100を作動させるための基準は他の基準に基づいてもよい。例えば、場合によっては、ロボット100の作動は所定期間(例えば、30秒、1分など)の経過に基づいてもよい。このような場合、ロボット100がテーブルに到着すると該当期間の間そこに留まる。何も起きなければ、ロボット100は該当期間が経過した後にそのテーブルを離れる。場合によっては、該当期間が経過する前に所定のイベント(例えばトレー200から物品が取り除かれる)が発生すれば、ロボット100は該当期間が経過する前にそのテーブルを離れることができる。その代わりに、他の場合に、所定のイベントが発生したかどうかにかかわらず、ロボット100は該当期間が経過する時までそのテーブルに留まることができる。
他の例として、ロボット100が移動するようにロボット100を作動させるための基準はイメージまたはイメージパラメーターによって満たされ得る。例えば、ロボット100がトレー200上の空間領域を向くカメラを含む場合、該当カメラは物品がトレー200から取り除かれているかどうかおよび/または物品がトレー200上に置かれているかどうかを示すためのイメージを提供することができる。処理部130はこのようなイメージを処理してイベントが発生したかどうかを決定するように構成され得る。例えば、イメージがトレー200から物品が取り除かれていることを示す場合、処理部130はロボットが次の目的地に移動するようにロボットを作動させることができる。場合によっては、処理部130はイメージを処理して一つ以上のイメージパラメーター(例えば対比、色、抽出された特徴、イメージの相関値等)を決定することができ、イメージパラメーターによって一つ以上の基準が満たされることに基づいてロボット100が次の目的地に移動するようにロボット100を作動させることができる。
さらに他の例として、ロボット100が移動するようにロボット100を作動させるための基準は顧客または従業員によって受信される命令に基づいてもよい。例えば、テーブルの顧客はボタン170を押したり音声命令を提供することができる。これに応答して、ロボット100は食堂内の次の目的地(例えば元の位置、他のテーブルなど)に移動することができる。他の例として、食堂の従業員はまた、ボタン170を押したり音声命令を提供することができる。これに応答して、ロボット100は次の目的地に移動することができる。
図6は、ロボットによって遂行される方法600を図示する。方法600はロボットが食堂内の第1テーブルに移動して第1テーブルにサービスを提供するようにロボット内のモーターを作動させる段階(項目602)、ロボットが停止して食堂内の第1テーブルにサービスを提供するようにするための第1制御信号を生成する段階(項目604)および一つ以上の基準が満たされることに基づいて、ロボットが食堂内の次の目的地に向かって移動するようにするための第2制御信号を生成する段階(項目606)を含む。一具現例において、項目604の場合、ロボットを停止させるための第1制御信号は、ロボットが第1テーブルと関連された所望の位置に到達した時に処理部130により生成され得る。所望の位置は第1テーブル周辺の(例えば第1テーブルから6インチ、1フィートなどのような所定距離以内の)指定された区域であり得る。したがって、処理部130はロボットの実際の位置を決定し、ロボットが所望の位置に到達したかどうかを決定することができる。そうでない場合、処理部130は所望の位置にロボットが到達する時まで継続してロボットを走行させる。また、項目606に対する非限定的な例示として、前記一つ以上の基準は所定期間の経過(例えばロボットは30秒、1分などのような所定の期間が経過した後にテーブルを離れる)、ロボットによって支持される重さの変化、イメージまたはイメージパラメーターによって満たされる基準、顧客または従業員によって受信される命令(例えば顧客または従業員がボタン170を押したり音声命令を提供する)、またはこれらの任意の組み合わせを含むことができる。次の目的地はロボットによってサービスが提供される第2テーブル、元の位置などであり得る。
ロボット100は説明された構成、形態および特徴に限定されず、ロボット100は他の実施例で他の構成、形態および特徴を有し得る。例えば、図7および図8に図示されたように、他の実施例において、ロボット100は図面に図示された構成を有することができる。図示された実施例において、ロボット100の下端部112は容器702を収容するように構成されるスロット700を含み、容器702は食器類および/または食べ物のメニューを保有するための大きさを有する。また、ロボット100の上端部114は垂直方向に第1位置から第2位置に移動可能なフレーム710を有する。フレーム710が、図8に図示されたように第1位置にある場合、上端部114は他の物品を収容するための(例えば食べ物、飲み物、食器類、メニューなどを支持するための)単一の空間を提供する。フレーム710が、図7に図示されたように第2位置にある場合、上端部114は他の物品を収容するための2層の空間を提供する。
図示された実施例において、ロボット100は上端部114に脱着可能に結合されるタッチスクリーン装置800をさらに含む。その代わりに、タッチスクリーン装置800はロボットの下端部112に脱着可能に結合され得る。一部の実施例において、タッチスクリーン装置800はロボット100のユーザーによる命令の入力および/またはロボット100のプログラミングを可能にするためのユーザーインターフェースを提供する。
図7および図8のロボット100は図1〜3のロボット100を基準として説明した特徴のうち任意のものを有することができる。
一部の実施例において、ロボット100はロボット100の多様な構成要素に電力を提供するための再充電可能バッテリーを含むことができる。バッテリーはケーブルや無線充電パッドを使って充電され得る。
本明細書で説明したロボット100の一つ以上の実施例において、ロボット100はクレジットカードリーダーを選択的にさらに含むことができる。例えば、クレジットカードリーダーは上端部114に具現され得、クレジットカードを受け取るためのスロットを含む。これはロボット100がテーブルの顧客からクレジットカードを受け取って該当顧客の前でクレジットカードを処理できるようにする。ロボット100はまた、顧客のための領収書を印刷するためのプリンタを選択的に含むことができる。
また、一部の実施例において、食堂でサービスを提供する単一のロボット100のみを具備する代わりに、同じ食堂でサービスを提供する多数のロボット100が存在し得る。このような場合、各ロボット100は食堂内の他のロボット100と通信するように構成される無線通信部を含むことができる。一部の実施例において、所定のテーブルに対して要請されたサービスが食堂内のすべてのロボット100に通知され得る(例えば、従業員が携帯電話、タブレットなどの携帯用装置やコンピュータを通じてこのような要請を伝送することができる)。引き続き、ロボット100はあらかじめ決定されたアルゴリズムに基づいて、ロボット100のうちいずれのものがサービスを遂行するかを集合的に決定することができる。例えば、あらかじめ決定されたアルゴリズムは、業務量が最も少ないロボットなどに基づいて、サービスが提供されるテーブルに最も近いロボットを選択することができる。選択されたロボットによってサービスが完了すると、すべてのロボットにおいてサービス要請が更新される。その代わりに、他の実施例において、ロボット100は互いに通信することが不要であり得る。その代わり、すべてのロボット100は一つ以上の従業員と無線で通信するように構成され得る。例えば、従業員は携帯電話、タブレットなどの携帯用装置を所持することができ、食堂内の他のロボット100に無線で要請を送信することができる。
本明細書で使われる「非一過性媒体」という用語は、一つ以上の保存所やメモリユニットを指し示し得る。多数の保存所やメモリユニットが存在する場合、これらは単一の保存装置またはメモリ装置の一部であるか、またはその代わりに別個の保存装置またはメモリ装置(共に結合されてもよく結合されなくてもよい)であり得る。
ロボット100が食堂で食べ物および/または飲み物をサービングするように構成されるものと説明されたが、他の実施例において、ロボット100は異なる環境で食べ物/および/または飲み物をサービングするように構成され得る。非限定的な例示として、ロボット100は介護療養院、カジノ、ホテル、空港、飛行機、住宅、カフェテリアなどで食べ物および/または飲み物をサービングするように構成され得る。したがって、本明細書で説明された地図は介護療養院の地図、カジノの地図、ホテルの地図、空港の地図、飛行機の客室の地図、住宅の地図、カフェテリアの地図などであり得る。
処理部
図9は、ロボットの処理部1200の実施例を図示するブロック図である。処理部1200は図1または図7のロボット100内の処理部130であり得る。図9に図示されたように、処理部1200は情報の通信のためのバス1202または他の通信メカニズムと、情報の処理のためにバス1202に結合されるプロセッサ1204を含む。処理部1200はまた、プロセッサ1204により実行される命令語や情報を保存するためにバス1202に結合されるメインメモリ1206(例えば、RAM(Random Access Memory)または他の動的保存装置)を含む。メインメモリ1206はまた、プロセッサ1204により実行される命令語の実行中に一時的な変数や他の中間情報の保存に使われ得る。処理部1200はプロセッサ1204のための静的情報および命令語を保存するためにバス1202に結合されるROM(Read Only Memory)1208または他の静的保存装置をさらに含む。磁気ディスクまたは光ディスクのようなデータ保存装置1210が情報および命令語の保存のために提供されてバス1202に結合される。
処理部1200はユーザーに情報をディスプレイするために、バス1202を通じて平板パネルのようなディスプレイ1212に結合され得る。情報および命令の選択をプロセッサ1204に通知するために、文字、数字および他のキーを含む入力装置1214がバス1202に結合される。異なる類型のユーザー入力装置は、方向情報および命令の選択をプロセッサ1204に通知し、ディスプレイ1212上でカーソルの移動を制御するためのカーソル制御部1216(例えば、マウス、トラックボール、またはカーソル方向キー)である。このような入力装置は典型的に2個の軸、すなわち第1軸(例えばx軸)および第2軸(例えばy軸)で2個の自由度を有し、これを通じて入力装置が平面内の位置を特定できるようにする。
処理部1200は本明細書に説明された実施例に係る多様な機能(例えば演算)の遂行に使われ得る。一実施例によると、このような用途は、メインメモリ1206に含まれた一つ以上の命令語の一つ以上のシークエンスをプロセッサ1204が遂行することに応答して処理部1200により提供される。このような命令語は保存装置1210のような他のコンピュータ読み取り可能媒体からメインメモリ1206に読み込まれ得る。メインメモリ1206に含まれた命令語のシークエンスを遂行するのはプロセッサ1204に本明細書に説明された処理動作を遂行させる。また、多重処理配置を有する一つ以上のプロセッサがメインメモリ1206に含まれた命令語のシークエンスの遂行に利用され得る。代案としての実施例において、固定配線(hard−wired)回路がソフトウェア命令語の代わりにまたはそれと組み合わせて本発明の具現に使われ得る。したがって、本発明の実施例はハードウェア回路およびソフトウェアの任意の特定の組み合わせに限定されない。
本明細書で使われる「コンピュータ読み取り可能媒体」という用語は、命令語をプロセッサ1204に提供して実行されるようにすることに関与する任意の媒体を指し示す。このような媒体は任意の形態を取ることができ、不揮発性媒体、揮発性媒体および伝送媒体を含むがこれに限定されない。不揮発性媒体は例えば保存装置1210のような光または磁気ディスクを含む。揮発性媒体はメインメモリ1206のような動的メモリを含む。伝送媒体はバス1202を構成する配線を含む、同軸ケーブル、銅線および光ファイバーを含む。伝送媒体は電波および赤外線データ通信中に生成されるような音波または光波の形態を取ることができる。
コンピュータ読み取り可能媒体の一般的な形態には、例えばフロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、または任意の他の磁気媒体、CD−ROM、任意の他の光媒体、パンチカード、紙テープ、孔のパターンを有する任意の他の物理的媒体、RAM、PROMおよびEPROM、フラッシュEPROM、任意の他のメモリチップまたはカートリッジ、下記で説明される搬送波、またはコンピュータ読み取り可能な任意の他の媒体が含まれる。
一つ以上の命令語の一つ以上のシークエンスをプロセッサ1204に搬送して実行されるようにすることには、多様な形態のコンピュータ読み取り可能媒体が関与され得る。例えば、命令語は最初に遠隔コンピュータの磁気ディスク上で搬送され得る。遠隔コンピュータは自分の動的メモリに命令語をローディングし、モデムを使って電話線を通じて該当命令語を送信することができる。処理部1200と直結されたモデムは電話線上でデータを受信し、赤外線送信機を使って該当データを赤外線信号に変換することができる。バス1202に結合された赤外線探知機は赤外線信号で搬送されるデータを受信し、該当データをバス1202に置くことができる。バス1202は該当データをメインメモリ1206に搬送し、プロセッサ1204はそれから命令語を引き出して実行する。メインメモリ1206により受信される命令語はプロセッサ1204による実行前または実行後に選択的に保存装置1210に保存され得る。
処理部1200はまた、バス1202に結合された通信インターフェース1218を含む。通信インターフェース1218はローカルネットワーク1222に連結されたネットワークリンク1220に対する双方向データ通信結合を提供する。例えば、通信インターフェース1218は該当類型の電話線に対するデータ通信接続を提供するためのISDN(Integrated Services Digital Network)カードやモデムであり得る。他の例として、通信インターフェース1218は互換可能なLAN(Local Area Network)に対するデータ通信接続を提供するためのLANカードであり得る。無線リンクがまた具現され得る。このような任意の具現例において、通信インターフェース1218は多様な類型の情報を表すデータストリームを搬送する電気、電磁気、または光信号を送信および受信する。
典型的に、ネットワークリンク1220は一つ以上のネットワークを介して他の装置に対するデータ通信を提供する。例えば、ネットワークリンク1220はローカルネットワーク1222を介してホストコンピュータ1224または装備1226(例えば、放射ビーム光源または放射ビーム光源に動作的に結合されたスイッチ)に対する接続を提供することができる。ネットワークリンク1220を通じて運送されるデータストリームは電気、電磁気、または光信号を含むことができる。多様なネットワークを通過する信号およびネットワークリンク1220上で通信インターフェース1218を通過する信号(これはデータを処理部1200に/から搬送する)は情報を運送する搬送波の例示的な形態である。処理部1200はネットワーク、ネットワークリンク1220および通信インターフェース1218を介してメッセージを送信し、プログラムコードを含んだデータを受信することができる。
特定の実施例が図示および説明されたが、これは特許請求の範囲に記載された発明を限定するためのものではなく、特許請求の範囲に記載された発明の思想および範囲から逸脱することなく多様に変更および修正できることは本技術分野の当業者に自明である。したがって、本明細書および図面は限定的なものではなく例示的なものと見なされるべきである。特許請求の範囲に記載された発明は代替範囲、修正範囲および均等範囲を包括するためのものである。

Claims (28)

  1. ロボットであって、
    複数の車輪を有するベース;
    前記車輪のうち一つ以上に機械的に結合されるモーターシステム;
    前記ベース上に結合される下端部および前記下端部上に配置される上端部を有する胴体;
    前記上端部に配置され、華氏135度より高い温度に耐えるように構成される支持台;および
    前記ロボットを作動させるように構成される処理部を含む、ロボット
  2. 前記上端部は食べ物および/または飲み物を支持するための支持台を含み、前記ロボットは前記支持台に結合される一つ以上の重さセンサをさらに含み、
    前記処理部は前記一つ以上の重さセンサからの出力に基づいて前記モーターシステムを作動させるための信号を提供するように構成される、請求項1に記載のロボット。
  3. マイクをさらに含み、
    前記処理部は前記マイクによって受信される音声命令に応答して前記モーターシステムを作動させるための信号を提供するように構成される、請求項1に記載のロボット。
  4. ユーザーインターフェースをさらに含み、
    前記処理部は前記ユーザーインターフェースによって受信される入力に応答して前記モーターシステムを作動させるための信号を提供するように構成される、請求項1に記載のロボット。
  5. 前記ユーザーインターフェースはボタンおよび/またはタッチスクリーンを含む、請求項4に記載のロボット。
  6. 無線通信装置をさらに含み、
    前記処理部は前記無線通信装置によって受信される入力に応答して前記モーターシステムを作動させるための信号を提供するように構成される、請求項1に記載のロボット。
  7. 前記ロボットの外側の物体を感知するように構成される第1カメラをさらに含む、請求項1に記載のロボット。
  8. 第2カメラをさらに含み、
    前記第1カメラはその探知範囲が前記第2カメラによってカバーされない第1区域をカバーするように配向され、前記第2カメラはその探知範囲が前記第1カメラによってカバーされない第2区域をカバーするように配向される、請求項7に記載のロボット。
  9. 実質的に水平方向を向くように構成される第3カメラをさらに含む、請求項8に記載のロボット。
  10. 前記処理部は前記第1カメラからの第1ポイントクラウド(point cloud)および前記第2カメラからの第2ポイントクラウドを獲得し、前記第1および第2ポイントクラウドを処理するように構成される、請求項8に記載のロボット。
  11. 前記処理部は前記第1および第2ポイントクラウドで高さ成分を除去して第1および第2の2次元ポイントクラウドを獲得するように構成され、
    前記処理部は前記第1および第2の2次元ポイントクラウドを結合して障害境界(obstacle boundary)を決定するように構成される、請求項10に記載のロボット。
  12. 前記処理部は前記障害境界に基づいて前記ロボットを操縦するように構成される、請求項11に記載のロボット。
  13. 前記処理部は前記ロボットが施設内の第1目的地に移動するように前記モーターシステムを作動させるための第1信号を提供するように構成され、
    前記処理部はまた、前記第1目的地を離れるための基準が満たされるかどうかを決定し、前記第1目的地を離れるための基準が満たされる場合、前記ロボットが前記第1目的地から離れて移動するように前記モーターシステムを作動させるための第2信号を提供するように構成される、請求項1に記載のロボット。
  14. 前記基準は前記第1目的地に到着してからの最大経過時間を含み、前記処理部は前記第1目的地に到着してからの経過時間が前記最大経過時間に到達した場合、前記モーターシステムを作動させるための前記第2信号を提供するように構成される、請求項13に記載のロボット。
  15. 前記処理部は施設の地図を獲得し、前記地図に基づいて前記施設内の走行経路を決定するように構成される、請求項1に記載のロボット。
  16. 周辺を探知するように構成されるレーザー装置をさらに含む、請求項1に記載のロボット。
  17. 前記支持台に結合される重さセンサをさらに含む、請求項1に記載のロボット。
  18. 前記処理部は重さセンサまたはカメラからの入力を受信し、前記入力を処理して物品が前記支持台上に置かれているか前記支持台から取り除かれているかどうかを決定するように構成される、請求項1に記載のロボット。
  19. 前記支持台はアメリカ国家衛生財団(NSF)の要求仕様、アメリカ国家標準協会(ANSI)の要求仕様、アメリカ食品医薬局(FDA)の要求仕様、または前記要求仕様の任意の組み合わせを満たす、請求項1に記載のロボット。
  20. 前記処理部は前記ロボットを第1目的地に移動させて施設内の第1テーブルにサービスを提供するように構成される、請求項1に記載のロボット。
  21. 前記下端部は第1断面寸法を有し、前記上端部は前記第1断面寸法より大きい第2断面寸法を有する、請求項1に記載のロボット。
  22. 前記上端部または前記下端部に配置されるスピーカーをさらに含み、
    前記処理部は前記スピーカーを制御してオーディオ情報を提供するように構成される、請求項1に記載のロボット。
  23. 前記上端部または前記下端部に配置されるマイクをさらに含む、請求項1に記載のロボット。
  24. 前記上端部に配置される一つ以上のプログラミング可能ボタンをさらに含む、請求項1に記載のロボット。
  25. 前記下端部は容器を収容するように構成されるスロットを含み、前記容器は食器類および/または食べ物のメニューを保有するための大きさを有する、請求項1に記載のロボット。
  26. 前記上端部は垂直方向に第1位置から第2位置に移動可能なフレームを有する、請求項1に記載のロボット。
  27. 前記上端部または前記下端部に脱着可能に結合されるタッチスクリーン装置をさらに含む、請求項1に記載のロボット。
  28. 前記モーターシステムは前記複数の車輪のうち第1車輪に結合される第1モーターと、前記複数の車輪のうち第2車輪に結合される第2モーターを含む、請求項1に記載のロボット。
JP2019201812A 2019-03-12 2019-11-06 食べ物および/または飲み物のサービングのためのロボット Active JP6980738B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/351,412 2019-03-12
US16/351,412 US11279042B2 (en) 2019-03-12 2019-03-12 Robots for serving food and/or drinks

Publications (2)

Publication Number Publication Date
JP2020149666A true JP2020149666A (ja) 2020-09-17
JP6980738B2 JP6980738B2 (ja) 2021-12-15

Family

ID=72424924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019201812A Active JP6980738B2 (ja) 2019-03-12 2019-11-06 食べ物および/または飲み物のサービングのためのロボット

Country Status (4)

Country Link
US (1) US11279042B2 (ja)
JP (1) JP6980738B2 (ja)
KR (3) KR102286825B1 (ja)
WO (1) WO2020184942A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11285608B2 (en) * 2019-01-03 2022-03-29 Lg Electronics Inc. Server and robot system including the same
WO2020242065A1 (ko) * 2019-05-31 2020-12-03 주식회사 라운지랩 위험도 판단에 기초한 로봇 움직임 제어 방법 및 이를 이용한 이동 로봇 장치
US11440199B2 (en) * 2019-06-18 2022-09-13 Gang Hao Robotic service system in restaurants
KR102315615B1 (ko) * 2019-09-18 2021-10-21 주식회사 라운지랩 이미지 인식을 이용한 매장 내 식음료 이송 및 수거 시스템과 이를 이용한 식음료 이송 및 수거 방법
US11472459B2 (en) * 2019-11-12 2022-10-18 Bear Robotics, Inc. Serving apparatus
US11961053B2 (en) 2020-03-27 2024-04-16 Aristocrat Technologies, Inc. Gaming service automation machine with delivery services
KR102385323B1 (ko) * 2020-07-22 2022-04-12 주식회사 알지티 식당 서비스용 로봇
USD1006884S1 (en) 2020-09-25 2023-12-05 Aristocrat Technologies, Inc. Gaming services robot
WO2022136572A2 (de) * 2020-12-24 2022-06-30 Robotise Ag Serviceroboter
CN112880689A (zh) * 2021-01-29 2021-06-01 北京百度网讯科技有限公司 一种领位方法、装置、电子设备及存储介质
US20220315355A1 (en) * 2021-03-30 2022-10-06 Dexterity, Inc. Autonomous and safe integration of human task in robotic operation
US11897706B2 (en) 2021-03-30 2024-02-13 Dexterity, Inc. Robotic system with zone-based control
US11981517B2 (en) 2021-03-30 2024-05-14 Dexterity, Inc. Robotic line kitting system safety features
US11934203B2 (en) * 2021-05-06 2024-03-19 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
US11911906B2 (en) 2021-05-21 2024-02-27 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a patrolling robot
US20230030633A1 (en) * 2021-07-28 2023-02-02 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
KR102376301B1 (ko) * 2021-08-06 2022-03-18 티오더 주식회사 빅데이터 기반의 음식 추천 및 마케팅 서비스를 제공하는 플랫폼을 위한 시스템
KR102391562B1 (ko) * 2021-08-10 2022-04-29 주식회사세오 음식 쏟아짐 방지를 위한 서빙 로봇
KR102576646B1 (ko) 2021-09-30 2023-09-08 연세대학교 산학협력단 병원에서 복수의 병실들 내 환자들에 대한 모니터링을 수행하기 위한 로봇 및 그 동작 방법
KR102567872B1 (ko) 2021-09-30 2023-08-17 연세대학교 산학협력단 병원에서 환자들에 대한 모니터링 및 의료 자원 관리를 수행하기 위한 로봇 및 그 동작 방법
KR20230075807A (ko) 2021-11-23 2023-05-31 김유진 확장이 가능한 트레이들과 이들의 위치 조절이 가능한 서빙로봇 시스템
KR20240009768A (ko) * 2022-07-14 2024-01-23 삼성전자주식회사 물품을 목표 테이블까지 전달하기 위한 로봇 장치 및 로봇 장치의 동작 방법
CN115979251B (zh) * 2023-03-20 2023-06-27 深圳鹏行智能研究有限公司 地图的生成方法和机器人

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
US20140156076A1 (en) * 2012-12-05 2014-06-05 Lg Electronics Inc. Robot cleaner
US20150285689A1 (en) * 2005-09-20 2015-10-08 Novarus Corporation System and method for food safety inspection
US9535421B1 (en) * 2014-02-28 2017-01-03 Savioke, Inc. Mobile delivery robot with interior cargo space
US9902069B2 (en) * 2010-05-20 2018-02-27 Irobot Corporation Mobile robot system
JP2019516201A (ja) * 2016-03-16 2019-06-13 ドミノズ ピザ エンタープライゼズ リミテッドDomino’S Pizza Enterprises Limited 自律食品配達車両
JP2019527172A (ja) * 2016-07-28 2019-09-26 エックス デベロップメント エルエルシー 在庫管理
JP2020518906A (ja) * 2017-04-28 2020-06-25 ロブアート ゲーエムベーハーROBART GmbH ロボットのナビゲーションの方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
KR101083700B1 (ko) 2009-04-02 2011-11-16 주식회사 유진로봇 음식점 서빙을 위한 로봇 시스템
CA2720886A1 (en) * 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
US8718837B2 (en) 2011-01-28 2014-05-06 Intouch Technologies Interfacing with a mobile telepresence robot
KR101232584B1 (ko) 2011-02-11 2013-02-12 고려대학교 산학협력단 이동 로봇의 제어 장치 및 그 방법
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US20150202770A1 (en) * 2014-01-17 2015-07-23 Anthony Patron Sidewalk messaging of an autonomous robot
MX2016010206A (es) * 2014-02-07 2016-12-05 Coca Cola Co Sistema y metodo de venta de bienes o servicios, o recogida de desperdicios de reciclaje que utiliza un ingenio comercial mecanizado móvil.
WO2015120473A1 (en) 2014-02-10 2015-08-13 Savioke Inc. Entryway based authentication system
EP3839673A1 (en) * 2014-05-15 2021-06-23 Sony Corporation Information processing device, display control method, and program
US9796093B2 (en) 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
KR102328252B1 (ko) 2015-02-13 2021-11-19 삼성전자주식회사 청소 로봇 및 그 제어방법
US10134205B2 (en) * 2016-08-18 2018-11-20 David Arena Portable electronic wireless lock for efficiently managing and assuring the safety, quality and security of goods stored within a truck, tractor or trailer transported via a roadway
KR101878827B1 (ko) 2016-11-30 2018-07-17 주식회사 유진로봇 다채널 라이더 기반 이동로봇의 장애물 검출 장치 및 방법, 및 이를 구비한 이동로봇
US10005609B1 (en) * 2017-01-20 2018-06-26 Starship Technologies Oü Device and system for insulating items during delivery by a mobile robot
KR20190055582A (ko) * 2017-11-15 2019-05-23 삼성전자주식회사 전자 장치의 이미지 촬영 방법 및 그 전자 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150285689A1 (en) * 2005-09-20 2015-10-08 Novarus Corporation System and method for food safety inspection
JP2013537487A (ja) * 2010-05-20 2013-10-03 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
US9902069B2 (en) * 2010-05-20 2018-02-27 Irobot Corporation Mobile robot system
US20140156076A1 (en) * 2012-12-05 2014-06-05 Lg Electronics Inc. Robot cleaner
US9535421B1 (en) * 2014-02-28 2017-01-03 Savioke, Inc. Mobile delivery robot with interior cargo space
JP2019516201A (ja) * 2016-03-16 2019-06-13 ドミノズ ピザ エンタープライゼズ リミテッドDomino’S Pizza Enterprises Limited 自律食品配達車両
JP2019527172A (ja) * 2016-07-28 2019-09-26 エックス デベロップメント エルエルシー 在庫管理
JP2020518906A (ja) * 2017-04-28 2020-06-25 ロブアート ゲーエムベーハーROBART GmbH ロボットのナビゲーションの方法

Also Published As

Publication number Publication date
KR102473863B1 (ko) 2022-12-02
KR20210104000A (ko) 2021-08-24
KR20200110143A (ko) 2020-09-23
KR102286825B1 (ko) 2021-08-11
KR20210084378A (ko) 2021-07-07
WO2020184942A1 (ko) 2020-09-17
US20200290210A1 (en) 2020-09-17
JP6980738B2 (ja) 2021-12-15
US11279042B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
JP6980738B2 (ja) 食べ物および/または飲み物のサービングのためのロボット
JP6997159B2 (ja) 食べ物および/または飲み物のサービングのためのロボット
US10311400B2 (en) Intelligent service robot and related systems and methods
US9796093B2 (en) Customer service robot and related systems and methods
JP2020502649A (ja) インテリジェントサービスロボットおよび関連するシステムおよび方法
JP2017515176A (ja) 出入り口における認証システム
JP2016135625A (ja) 浮揚移動台
JP2023518165A (ja) 食堂用サービスロボット
KR20210033214A (ko) 이미지 인식을 이용한 매장 내 식음료 이송 및 수거 시스템과 이를 이용한 식음료 이송 및 수거 방법
JP7116504B2 (ja) 浮揚移動台及び浮揚移動台用のプログラム
TW202307637A (zh) 用以建立與被動檢測電場變化之系統及/或方法
Shah et al. Solving service robot tasks: UT Austin Villa@ Home 2019 team report
TWI357001B (ja)
JP7470464B2 (ja) 浮揚移動台及び浮揚移動台用のプログラム
US11906968B2 (en) Mobile device, mobile device control system, method, and program
US20220305664A1 (en) Article pickup system, article pickup robot, article pickup method, and article pickup program
US20230051618A1 (en) Control device, control method, and program
JP2022063323A (ja) 情報処理装置、及びシステム
US20240160212A1 (en) Object enrollment in a robotic cart coordination system
JP2024094330A (ja) 浮揚移動台及び浮揚移動台用のプログラム
JP2022132604A (ja) 浮揚移動台及び浮揚移動台用のプログラム
JP2024058978A (ja) サービス提供システム、サービス提供方法及びサービス提供プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191106

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211117

R150 Certificate of patent or registration of utility model

Ref document number: 6980738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150