JP2023130462A - ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 - Google Patents
ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP2023130462A JP2023130462A JP2023113411A JP2023113411A JP2023130462A JP 2023130462 A JP2023130462 A JP 2023130462A JP 2023113411 A JP2023113411 A JP 2023113411A JP 2023113411 A JP2023113411 A JP 2023113411A JP 2023130462 A JP2023130462 A JP 2023130462A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- user
- determining
- identification information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 37
- 230000006399 behavior Effects 0.000 description 35
- 230000006870 function Effects 0.000 description 22
- 235000013305 food Nutrition 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000003542 behavioural effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 235000013361 beverage Nutrition 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47F—SPECIAL FURNITURE, FITTINGS, OR ACCESSORIES FOR SHOPS, STOREHOUSES, BARS, RESTAURANTS OR THE LIKE; PAYING COUNTERS
- A47F7/00—Show stands, hangers, or shelves, adapted for particular articles or materials
- A47F7/28—Show stands, hangers, or shelves, adapted for particular articles or materials for containers, e.g. flasks, bottles, tins, milk packs
- A47F7/283—Show stands or the like having a compartment for each container
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0045—Manipulators used in the food industry
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47B—TABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
- A47B31/00—Service or tea tables, trolleys, or wagons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39441—Voice command, camera detects object, grasp, move
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/50—Machine tool, machine tool null till machine tool work handling
- G05B2219/50391—Robot
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Aviation & Aerospace Engineering (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Manufacturing & Machinery (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Food Science & Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Signal Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】ロボットが状況に合わせて適切に制御されるようにする技術を提案する。【解決手段】 本発明の一態様によると、ロボットを制御するための方法であって、サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得する段階、前記音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定する段階、および前記識別情報に基づいて前記ロボットによって遂行される動作を決定する段階を含む方法が提供される。【選択図】 図2
Description
本発明はロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体に関する。
サービングとは、食堂などの場所で顧客に飲料や飲食などの客体を提供することを意味し、最近ロボットなどが開発されてウェイターやウェイトレスの代わりに、またはこれらを補助してサービングに利用されている。このようなロボットは大体飲食の注文を受けたり注文にともなうサービングを遂行する機能を有し、テーブル位置情報などを利用して自律走行をしたりもする。このようなロボットは移動手段(障害物の回避のためのセンサを含む)、メニューの出力または注文の入力のためのディスプレイ手段などを含んで構成され得る。また、ロボットは飲食や飲食容器の配置や運搬のための手段を含むことができる。
これに関する従来技術の一例として、韓国登録特許公報第10-1083700号に開示された技術を挙げることができるが、これによると、食堂内で注文を受け、注文された飲食物が載置されたトレイを移送する飲食店のサービングのためのロボットシステムであって、同期駆動される一対の多関節ロボットアームと、前記多関節ロボットアームの下段に回動可能に結合され、前記トレイを固定するトレイ把持部を含む上段部;メイン車輪と一つ以上の補助車輪を含むロボット移動部が下部に設けられた下段部;前記下段部に固定され前記上段部が回転可能に連結された中間部;および前記一対の多関節ロボットアーム、前記トレイ把持部および前記ロボット移動部の作動を制御する制御部を含むものの、前記トレイ把持部は前記多関節ロボットアームの端部に回動可能に結合されたハンド;前記ハンドに上下移動可能に備えられた固定部;前記トレイの下部に位置し前記固定部に結合されたグリッパー;前記トレイの上部に位置し前記グリッパーと対向するように前記固定部に結合されたストッパー;前記多関節ロボットアームの端部が下方向に駆動されるとともに、前記トレイにストッパーが押圧されて上方向に移動する固定部で押圧されるスイッチ;前記固定部が上方向に移動時に収縮するスプリング;および前記グリッパーの角度を感知するグリッパー角度感知部を含むことを特徴とするロボットシステムが紹介されたことがある。
一方、このようなロボットはサービス提供場所を歩き回りながら少なくとも一つの使用者(例えば、サービス提供場所で勤めている従業員、サービス提供場所を利用する顧客等)から音声情報、行動情報などの多様な情報を獲得することができるが、状況によっては前記のような音声情報、行動情報などに関連する使用者が誰であるかまたはどのようなグループ(例えば、従業員グループ、顧客グループなど)に属する使用者であるかを判断した後にロボットが遂行する動作を決定しなければならない場合がある。
例えば、ロボットがある使用者から特定の命令語を音声情報で獲得した場合に、該当ロボットは該当使用者が従業員であるかまたは顧客であるかによって互いに異なる動作を遂行するか、それとも該当使用者が従業員である場合にのみ特定の動作を遂行し、該当使用者が顧客である場合には何の反応もしないことが好ましいが、ロボットがこのように制御されるようにするためには、ロボットがある動作を遂行する前にまず、該当使用者に関する識別情報を決定する必要がある。
しかし、前記のような従来技術をはじめとしてこれまで紹介された技術によると、使用者からロボットに対する音声情報および/または行動情報を獲得した場合に、その音声情報および/または行動情報に基づいて該当使用者に関する識別情報を決定し、その識別情報に基づいて該当ロボットによって遂行される動作を決定することによって、該当使用者がロボットに対して煩わしい操作(例えば、タッチ入力等を通じて従業員であることを認証やること)を行わなくてもロボットが状況に合わせて適切に制御されるようにする技術を提案するには至っていない。
本発明は前述した従来技術の問題点をすべて解決することをその目的とする。
また、本発明は、サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得し、その音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定し、その識別情報に基づいて前記ロボットによって遂行される動作を決定することを他の目的とする。
また、本発明は、前記のように決定される使用者に関する識別情報に基づいてロボットによって遂行される動作を決定することによって、使用者がロボットに対して煩わしい操作を行わなくてもロボットが状況に合わせて適切に制御されるようにすることをさらに他の目的とする。
前記目的を達成するための本発明の代表的な構成は次の通りである。
本発明の一態様によると、ロボットを制御するための方法であって、サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得する段階、前記音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定する段階、および前記識別情報に基づいて前記ロボットによって遂行される動作を決定する段階を含む方法が提供される。
本発明の他の態様によると、ロボットを制御するためのシステムであって、サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得する情報獲得部、前記音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定する識別情報決定部、および前記識別情報に基づいて前記ロボットによって遂行される動作を決定する動作決定部を含むシステムが提供される。
この他にも、本発明を具現するための他の方法、他のシステムおよび前記方法を遂行するためのコンピュータプログラムを記録した非一過性のコンピュータ読み取り可能な記録媒体がさらに提供される。
本発明によると、サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得し、その音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定し、その識別情報に基づいて前記ロボットによって遂行される動作を決定できることになる。
また、本発明によると、前記のように決定される使用者に関する識別情報に基づいてロボットによって遂行される動作を決定することによって、使用者がロボットに対して煩わしい操作を行わなくてもロボットを状況に合わせて適切に制御できることになる。
後述する本発明に対する詳細な説明は、本発明が実施され得る特定の実施例を例示として図示する添付図面を参照する。このような実施例は当業者が本発明を充分に実施できるほど詳細に説明される。本発明の多様な実施例は互いに異なるが互いに排他的である必要はないことが理解されるべきである。例えば、本明細書に記載されている特定形状、構造および特性は、本発明の精神と範囲を逸脱することなく一実施例から他の実施例に変更されて具現され得る。また、それぞれの実施例内の個別構成要素の位置または配置も本発明の精神と範囲を逸脱することなく変更され得ることが理解されるべきである。したがって、後述する詳細な説明は限定的な意味として行われるものではなく、本発明の範囲は特許請求の範囲の請求項が請求する範囲およびそれと均等なすべての範囲を含むものと理解されるべきである。図面で類似する参照符号は多様な側面に亘って同一または類似する構成要素を示す。
以下では、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施できるようにするために、本発明の多様な好ましい実施例に関して添付された図面を参照して詳細に説明することにする。
全体システムの構成
図1は、本発明の一実施例によりロボットを制御するための全体システムの概略的な構成を示す図面である。
図1に図示された通り、本発明の一実施例に係る全体システムは通信網100、ロボット制御システム200およびロボット300を含むことができる。
まず、本発明の一実施例に係る通信網100は有線通信や無線通信のような通信形態にかかわらず構成され得、近距離通信網(LAN;Local Area Network)、都市圏通信網(MAN;Metropolitan Area Network)、広域通信網(WAN;Wide Area Network)等の多様な通信網で構成され得る。好ましくは、本明細書における通信網100は公知のインターネットまたはワールドワイドウェブ(WWW;World Wide Web)であり得る。しかし、通信網100はあえてこれに限定される必要はなく、公知の有線/無線データ通信網、公知の電話網、または公知の有線/無線テレビ通信網をその少なくとも一部において含んでもよい。
例えば、通信網100は無線データ通信網として、ワイファイ(WiFi)通信、ワイファイダイレクト(WiFi-Direct)通信、ロングタームエボリューション(LTE;Long Term Evolution)通信、5G通信、ブルートゥース通信(低電力ブルートゥース(BLE;Bluetooth Low Energy)通信を含む)、赤外線通信、超音波通信などのような従来の通信方法を少なくともその一部分において具現するものであり得る。他の例を挙げると、通信網100は光通信網として、ライファイ(LiFi;Light Fidelity)などのような従来の通信方法を少なくともその一部分において具現するものであり得る。
次に、本発明の一実施例に係るロボット制御システム200は通信網100を通じて後述するロボット300と通信を遂行することができ、サービス提供場所で使用者からロボット300に対する音声情報および行動情報のうち少なくとも一つを獲得し、その音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定し、その識別情報に基づいてロボット300によって遂行される動作を決定する機能を遂行することができる。
本発明に係るロボット制御システム200の構成と機能については、以下の詳細な説明を通じて詳察することにする。
次に、本発明の一実施例に係るロボット300は通信網100を通じてロボット制御システム200と通信することができ、使用者(例えば、従業員、顧客等)による操作なしに所定の機能や付与された作業(例えば、飲食のサービング、容器の回収など)を自律的に遂行できる機器であって、客体(例えば、飲食トレイ)のローディングおよびアンローディングのためのモジュール(例えば、グラブ、ロボットアームモジュールなど)、周辺映像を獲得するための映像獲得モジュール(例えば、可視光線カメラ、赤外線カメラなど)、周辺の音声を獲得するための音声獲得モジュール(例えば、マイクなど)、映像および音声を提供するためのディスプレイおよびスピーカーモジュール、およびロボット300の移動のための駆動モジュール(例えば、モータなど)のうち少なくとも一つのモジュールを含むことができる。例えば、このようなロボット300は案内ロボット、サービングロボット、運搬ロボット、掃除ロボット、医療ロボット、エンターテインメントロボット、ペットロボットおよび無人飛行ロボットのうち少なくとも一つと類似する特性や機能を有するロボットであり得る。
一方、本発明の一実施例によると、ロボット300には本発明に係るロボット300の制御を遂行するためのアプリケーション(図示されず)が含まれ得る。このようなアプリケーションはロボット制御システム200または外部のアプリケーション配布サーバー(図示されず)からダウンロードされたものであり得る。一方、このようなアプリケーションの性格は後述するようなロボット制御システム200の情報獲得部210、識別情報決定部220、動作決定部230、通信部240および制御部250と全般的に類似し得る。ここで、アプリケーションはその少なくとも一部が必要に応じてそれと実質的に同一または均等な機能を遂行できるハードウェア装置やファームウェア装置で置換されてもよい。
ロボット制御システムの構成
以下では、本発明の具現のために重要な機能を遂行するロボット制御システム200の内部構成と各構成要素の機能について詳察することにする。
図2は、本発明の一実施例に係るロボット制御システム200の内部構成を詳細に図示する図面である。
図2に図示された通り、本発明の一実施例に係るロボット制御システム200は、情報獲得部210、識別情報決定部220、動作決定部230、通信部240および制御部250を含んで構成され得る。本発明の一実施例によると、情報獲得部210、識別情報決定部220、動作決定部230、通信部240および制御部250は、そのうちの少なくとも一部が外部のシステム(図示されず)と通信するプログラムモジュールであり得る。このようなプログラムモジュールは運営システム、アプリケーションモジュール、またはその他プログラムモジュールの形態でロボット制御システム200に含まれ得、物理的には多様な公知の記憶装置に保存され得る。また、このようなプログラムモジュールはロボット制御システム200と通信可能な遠隔記憶装置に保存されてもよい。一方、このようなプログラムモジュールは本発明により後述する特定の業務を遂行したり特定の抽象データ類型を実行するルーチン、サブルーチン、プログラム、客体、コンポーネント、データ構造などを包括するが、これに制限されはしない。
一方、ロボット制御システム200について前記のように説明したが、このような説明は例示的なものであり、ロボット制御システム200の構成要素または機能のうち少なくとも一部が必要に応じてロボット300または外部システム(図示されず)で具現されたり、ロボット300または外部システム内に含まれ得ることは当業者に自明である。また、場合によっては、ロボット制御システム200のすべての機能と構成要素がロボット300内ですべて具現されたりロボット300内にすべて含まれ得る。
まず、本発明の一実施例に係る情報獲得部210はサービス提供場所で使用者からロボット300に対する音声情報および行動情報のうち少なくとも一つを獲得する機能を遂行することができる。
具体的には、本発明の一実施例に係る情報獲得部210は、マイクのような音声獲得モジュール(図示されず)を含むことができる。本発明の一実施例によると、このような音声獲得モジュールはロボット300の本体510(図4参照)に結合され得、ロボット300周辺の少なくとも一人の使用者(例えば、従業員または顧客)から発生する音声を受信することができる。そして、本発明の一実施例に係る情報獲得部210は、前記のように受信される音声を処理して認識することによってロボット300に対する音声情報を獲得することができる。このために、本発明の一実施例に係る情報獲得部210は、公知の音声処理技術を利用して音声獲得モジュールによって受信される音声に対する前処理やノイズ除去などを遂行することもできる。
ここで、本発明の一実施例に係る情報獲得部210が音声を認識するとは、その音声に含まれた言葉自体および/または声を認識できるという意味で理解されなければならない。そして、前記のように獲得される音声情報はロボット300を呼び出したりロボット300に特定の任務を付与するための一つの命令語を意味し得るが、順次獲得される一連の命令語(例えば、ロボット300を呼び出すための少なくとも一つの命令語およびロボット300に特定の任務を付与するための少なくとも一つの命令語の組み合わせ)を意味する場合もある。
一方、本発明の一実施例に係る情報獲得部210は音声獲得モジュールによって受信される音声の強度および/または方向に基づいて、該当音声または該当音声に対応する音声情報がロボット300に対するものであるかどうかを判断してもよい。例えば、本発明の一実施例に係る情報獲得部210は二つ以上の音声獲得モジュールによって受信される音声を分析して該当音声の方向を決定することができ、これに基づいて該当音声または該当音声に対応する音声情報がロボット300に対するものであるかどうかを判断することができる。
また、本発明の一実施例に係る情報獲得部210はカメラのような映像獲得モジュール(図示されず)を含むことができる。本発明の一実施例によると、このような映像獲得モジュールはロボット300の本体510(図4参照)に結合され得、ロボット300周辺の少なくとも一人の使用者(例えば、従業員または顧客)を撮影することができる。そして、本発明の一実施例に係る情報獲得部210は、前記のように撮影される映像を処理して該当使用者の行動を認識することによってロボット300に対する行動情報を獲得することができる。このために、本発明の一実施例に係る情報獲得部210はCNN(Convolutional Neural Network)基盤の映像処理アルゴリズム、姿勢推定(pose estimation)に関する映像処理アルゴリズムなどの公知の映像処理技術を利用することができる。
ここで、本発明の一実施例に係る情報獲得部210が獲得するロボット300に対する行動情報には、使用者の動作、姿勢、表情、視線などに関する情報が含まれ得る。そして、前記のように獲得される行動情報は、ロボット300を呼び出したりロボット300に特定の任務を付与するための一つの行動を意味し得るが、順次獲得される一連の行動(例えば、ロボット300を呼び出すための少なくとも一つの行動およびロボット300に特定の任務を付与するための少なくとも一つの行動の組み合わせ)を意味する場合もある。
一方、本発明の一実施例に係る情報獲得部210は使用者の視線に関する情報に基づいて、使用者の行動または該当の行動に対応する行動情報がロボット300に対するものであるかどうかを判断してもよい。例えば、本発明の一実施例に係る情報獲得部210は使用者の視線がロボット300に向かっているか、ロボット300に対する視線がどのくらい長く維持されるかなどに基づいて、該当使用者の行動または該当行動に対応する行動情報がロボット300に対するものであるかどうかを判断することができる。
次に、本発明の一実施例に係る識別情報決定部220は、本発明の一実施例に係る情報獲得部210によって獲得されるロボット300に対する音声情報および行動情報のうち少なくとも一つに基づいて使用者に関する識別情報を決定する機能を遂行することができる。
具体的には、本発明の一実施例に係る識別情報決定部220は、ロボット300に対して音声情報および/または行動情報を提供する使用者が特定されると、(すなわち、前記使用者から獲得される音声情報および/または行動情報がロボット300に対するものと判断されると、)、その音声情報および/または行動情報に基づいて前記使用者に関する識別情報を決定することができる。
本発明の一実施例によると、このような使用者に関する識別情報には、該当使用者に関連するグループ、該当使用者の性別、該当使用者の年齢などに関する情報が含まれ得る。すなわち、本発明の一実施例に係る識別情報決定部220が使用者に関する識別情報を決定するとは、必ずしも該当使用者が誰であるかを正確に識別することを意味するものではなく、使用者に関連するグループがどのグループであるかを区別できる水準に該当使用者を識別することを意味し得る。ここで、本発明の一実施例によると、使用者に関連するグループは所定の基準により区分される複数個のグループ(例えば、従業員グループおよび顧客グループ)のうち該当使用者が属するグループを意味し得る。
例えば、本発明の一実施例に係る識別情報決定部220は、使用者が従業員であって、従業員が第1グループに区分される場合に、第1グループを該当使用者に関連するグループ(すなわち、該当使用者に関する識別情報)として決定することができる。他の例を挙げると、本発明の一実施例に係る識別情報決定部220は、使用者が顧客(または従業員ではなく)であって、顧客(または従業員ではない人)が第2グループに区分される場合に、第2グループを該当使用者に関連するグループ(すなわち、該当使用者に関する識別情報)として決定することができる。さらに他の例を挙げると、本発明の一実施例に係る識別情報決定部220は、使用者の役割(例えば、従業員が食堂のホール、台所、またはカウンターで勤務すること)により区分されるグループが決定される場合には、該当使用者の役割によるグループを該当使用者に関する識別情報として決定してもよい。
ただし、本発明の一実施例により使用者に関する識別情報または使用者に関連するグループを決定する方式は前述したものに限定されず、本発明の目的を達成できる範囲内で多様に変更され得る。
一方、本発明の一実施例に係る識別情報決定部220は、本発明の一実施例に係る情報獲得部210によって獲得されるロボット300に対する音声情報および行動情報のうち少なくとも一つを基準音声情報および基準行動情報のうち少なくとも一つとそれぞれ比較することによって、使用者に関する識別情報を決定することができる。
具体的には、本発明の一実施例によると、基準音声情報および基準行動情報は使用者に関する識別情報を決定するためにあらかじめ設定される音声情報および行動情報を意味し得る。本発明の一実施例によると、基準音声情報および/または基準行動情報は使用者によって設定され得る。ひいては、基準音声情報および/または基準行動情報はロボット300別に設定され得、使用者に関連するグループ別に設定されてもよい。
例えば、本発明の一実施例に係る識別情報決定部220は、使用者がロボット300を呼び出すための声、呼出し語および/または行動、使用者がロボット300に特定の任務を付与するための声、命令語および/または行動などを特定グループ(例えば、従業員グループ)に関する基準音声情報および/または基準行動情報として登録するように支援したり、登録された基準音声情報および/または基準行動情報を削除または変更するように支援することができる。そして、本発明の一実施例に係る識別情報決定部220はこのような基準音声情報および/または基準行動情報をロボット300に対する音声情報および/または行動情報とそれぞれ比較して、その比較の結果、両者の一致度が所定水準以上である場合に前記特定グループを前記使用者に関連するグループ(すなわち、前記使用者に関する識別情報)として決定することができる。
次に、本発明の一実施例に係る動作決定部230は、本発明の一実施例に係る識別情報決定部220によって決定される使用者に関する識別情報に基づいてロボット300によって遂行される動作を決定する機能を遂行することができる。
例えば、本発明の一実施例に係る動作決定部230は、使用者に関連するグループが第1グループ(例えば、従業員グループ)であるか、それとも第2グループ(例えば、顧客グループ)であるかによってロボット300によって遂行される動作を異なるように決定することができる。
例えば、使用者に関連するグループが第1グループ(例えば、従業員グループ)の場合に、本発明の一実施例に係る動作決定部230は、該当使用者から獲得されるロボット300に対する音声情報および行動情報のうち少なくとも一つに基づいて、該当使用者がロボット300を呼び出したのかそれともロボット300に特定の任務を付与したのかを判断することができる。そして、その判断の結果によって、使用者の呼び出しに応答するか特定の任務を遂行するなどの動作をロボット300によって遂行される動作として決定することができる。その反面、使用者に関連するグループが第2グループ(例えば、顧客グループ)の場合に、本発明の一実施例に係る動作決定部230は、前記のような判断をせず、使用者に何の反応もしないことをロボット300によって遂行される動作として決定することができる。
また、本発明の一実施例に係る動作決定部230は、ロボット300の現在の状況に関する情報に基づいてロボット300によって遂行される動作を決定することもできる。例えば、使用者がロボット300に特定の任務を付与したがロボット300が現在飲食をサービングしているため該当任務を直ちに遂行できない状況である場合に、本発明の一実施例に係る動作決定部230は、該当使用者に該当任務を遂行できないということを知らせたり、現在の任務を終了した後に該当任務を遂行できることを知らせることをロボット300によって遂行される動作として決定することができる。
図3は、本発明の一実施例によりサービス提供場所でロボットが制御される状況を例示的に示す図面である。
図3を参照して、例えば、サービス提供場所が食堂である場合に、本発明の一実施例に係る情報獲得部210は第1使用者400および第2使用者440からロボット300に対する音声情報(例えば、「サービ!」という呼出し語、「ここにきて!」という命令語など)を獲得することができる。この時、本発明の一実施例に係る情報獲得部210は他の使用者410、420および430から獲得される音声情報および行動情報のうち少なくとも一つはロボット300に対するものではないと判断することができる。
引き続き、本発明の一実施例に係る識別情報決定部220は、前記のように獲得されるロボット300に対する音声情報に基づいて第1使用者400および第2使用者440に関する識別情報を決定することができる。例えば、発明の一実施例に係る識別情報決定部220は、前記のように獲得されるロボット300に対する音声情報を基準音声情報(例えば、既登録された声)と比較することによって、第1グループ(例えば、従業員グループ)を第1使用者400に関連するグループ(すなわち、第1使用者400に関する識別情報)として決定し、第2グループ(例えば、顧客グループ)を第2使用者440に関連するグループ(すなわち、第2使用者440に関する識別情報)として決定することができる。
引き続き、本発明の一実施例に係る動作決定部230は、前記のように決定される識別情報に基づいて第2使用者440には何の反応もしないことをロボット300によって遂行される動作として決定することができる。そして、本発明の一実施例に係る動作決定部230は、第1使用者400から獲得されたロボット300に対する音声情報に基づいて第1使用者400の呼び出しに応答するか第1使用者400が付与した特定の任務を遂行するなどの動作をロボット300によって遂行される動作として決定することができる。この時、ロボット300が現在飲食をサービングしているため該当任務を直ちに遂行できない状況であれば、本発明の一実施例に係る動作決定部230は、第1使用者400に該当任務を遂行できないことを知らせたり、現在の任務を終了した後に該当任務を遂行できることを知らせることをロボット300によって遂行される動作として決定してもよい。
次に、本発明の一実施例に係る通信部240は情報獲得部210、識別情報決定部220および動作決定部230からの/へのデータの送受信を可能にする機能を遂行することができる。
最後に、本発明の一実施例に係る制御部250は情報獲得部210、識別情報決定部220、動作決定部230および通信部240間のデータの流れを制御する機能を遂行することができる。すなわち、本発明の一実施例に係る制御部250は、ロボット制御システム200の外部からの/へのデータの流れまたはロボット制御システム200の各構成要素間のデータの流れを制御することによって、情報獲得部210、識別情報決定部220、動作決定部230および通信部240でそれぞれ固有機能を遂行するように制御することができる。
ロボットの構成
本発明の一実施例に係るロボット300は案内ロボット、サービングロボット、運搬ロボット、掃除ロボット、医療ロボット、エンターテインメントロボット、ペットロボットおよび無人飛行ロボットのうち少なくとも一つが遂行する作業と類似する作業を遂行するロボットであり得、これのために各作業に符合する多様な形状で具現され得る。
図4を参照すると、ロボット300は本体510、駆動部520およびプロセッサ530を含んで構成され得る。
例えば、本発明の一実施例に係る本体510には運送対象客体または回収対象客体を積載するための少なくとも一つの積載空間が含まれ得る。本発明の一実施例に係るこのような運送対象客体および回収対象客体は移動できるすべての有形物を総称する概念であって、例えば、事物、動物、人などを含む概念であり得る。例えば、運送対象客体は飲食物であり、回収対象客体は該当飲食物が入っている容器であり得る。
図5を参照すると、例えばロボット300がサービングロボットである場合に、運送対象客体の提供および回収対象客体の回収のための第1空間610および第2空間620を含むことができる。また、ロボット300は着脱式柱を通じて提供される拡張空間である第3空間630をさらに含むことができ、必要に応じて拡張空間をさらに追加することによってより多くの積載空間を具備することができる。また、ロボット300は運送対象客体または回収対象客体専用のトレイ640をさらに含んでもよい。例えば、トレイ640は上から見る時、その上面に複数個の円形溝が形成された構成を有することができる。それぞれの円形溝は飲料が入っているカップの下部が載置されて容易にある程度固定されるように形成されていてもよい。このような円形溝の大きさは多様であり得る。また、ロボット300の第1空間610の下部にはロボット300の側面を通じて取り出され得る第4空間650がさらに含まれ得る。本発明の一実施例に係る第4空間650はその内部に空いた空間が形成されており、側面は閉塞しており、上面は開いており、下面は閉まっている、籠に類似する形態を有することができる。ただし、本発明に係るロボット300の積載空間は前記列挙された内容に限定されて具現されるものではなく、本発明の目的を達成できる範囲内で他の形態の積載空間等に多様に具現され得る。
一方、再び図4を参照すると、本体510には周辺映像(例えば、顧客、テーブル、従業員、他のロボット300等)および障害物情報を獲得するための映像獲得モジュール(例えば、可視光線カメラ、赤外線カメラなど)(図示されず)およびスキャナモジュール(例えば、ライダー(LIDAR)センサなど)がさらに含まれ得る。
次に、本発明の一実施例に係る駆動部520は本体510を他の地点に移動させるためのモジュールまたは運送対象客体および回収対象客体をローディングおよびアンローディングするためのモジュールを含んで構成され得る。
例えば、駆動部520は本体510を他の地点に移動させるためのモジュールとして、電気式、機械式、または油圧式で駆動される車輪、プロペラなどに関するモジュールなどを含むことができ、運送対象客体および回収対象客体をローディングおよびアンローディングするためのモジュールとして、運送対象客体および回収対象客体を装着して運搬するためのロボットアームモジュールなどを含むことができる。
次に、本発明の一実施例に係るプロセッサ530は駆動部520と電気的に連結されて駆動部520を制御する機能を遂行することができ(外部システムとの通信のための通信モジュールをさらに含んでもよい)、例えば、プログラム内に含まれたコードまたは命令で表現された機能を遂行するために物理的に構造化された回路を有する、ハードウェアに内蔵されたデータ処理装置を意味し得る。例えば、このようにハードウェアに内蔵されたデータ処理装置は、マイクロプロセッサ(microprocessor)、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチプロセッサ(multiprocessor)、ASIC(application-specific integrated circuit)、FPGA(field programmable gate array)等の処理装置を含むことができる。
また、プロセッサ530は本発明に係るロボット制御システム200の情報獲得部210、識別情報決定部220および動作決定部230のうち少なくとも一つの機能を遂行することができ(例えば、該当機能がモジュール化されてプロセッサ530に含まれ得る)、情報獲得部210、識別情報決定部220および動作決定部230のうち少なくとも一つの機能を遂行する外部システム(図示されず)との通信を通じて駆動部520を制御する機能を遂行してもよい。
具体的には、プロセッサ530はロボット300のサービス提供場所で使用者からロボット300に対する音声情報および行動情報のうち少なくとも一つを獲得し、その音声情報および行動情報のうち少なくとも一つに基づいて前記使用者に関する識別情報を決定し、その識別情報に基づいてロボット300によって遂行される動作を決定する機能を遂行することができる。
以上では、本発明に係るサービス提供場所が食堂である実施例に対して主に説明されているが、サービス提供場所は必ずしも食堂にのみ限定されるものではなく、本発明の目的を達成できる範囲内でカフェ、居酒屋、バーなどにいくらでも変更できることを明らかにしておく。
以上で説明された本発明に係る実施例は、多様なコンピュータ構成要素を通じて実行され得るプログラム命令語の形態で具現されてコンピュータ読み取り可能な記録媒体に記録され得る。前記コンピュータ読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。前記コンピュータ読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであるか、コンピュータソフトウェア分野の当業者に公知になっていて使用可能なものであり得る。コンピュータ読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスクおよび磁気テープのような磁気媒体、CD-ROMおよびDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、およびROM、RAM、フラッシュメモリなどのような、プログラム命令語を保存し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるような機械語コードだけでなくインタープリタなどを使ってコンピュータによって実行され得る高級言語コードも含まれる。ハードウェア装置は本発明に係る処理を遂行するために一つ以上のソフトウェアモジュールに変更され得、その逆も同じである。
以上、本発明が具体的な構成要素などのような特定事項と限定された実施例および図面によって説明されたが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明は前記実施例に限定されるものではなく、本発明が属する技術分野で通常の知識を有する者であればこのような記載から多様な修正と変更を試みることができる。
したがって、本発明の思想は前記説明された実施例に限定されて定められてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等なまたはこれから等価的に変更されたすべての範囲は本発明の思想の範疇に属すると言える。
100:通信網
200:ロボット制御システム
210:情報獲得部
220:識別情報決定部
230:動作決定部
240:通信部
250:制御部
300:ロボット
200:ロボット制御システム
210:情報獲得部
220:識別情報決定部
230:動作決定部
240:通信部
250:制御部
300:ロボット
Claims (9)
- 情報獲得部と、識別情報決定部と、動作決定部とを備えるシステムによるロボットを制御するための方法であって、
前記情報獲得部が、サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得する段階、
前記識別情報決定部が、前記音声情報および行動情報のうち少なくとも一つに基づいて前記サービス提供場所における前記使用者の役割に応じたグループとして前記使用者に関する識別情報を決定する段階、および
前記動作決定部が、前記識別情報と、前記音声情報および行動情報のうち少なくとも一つと、に基づいて前記ロボットによって遂行される動作を決定する段階を含み、
前記動作を決定する段階では、前記使用者の前記役割が第1のグループの場合に、前記音声情報および行動情報のうち少なくとも一つに基づいて、前記使用者が前記ロボットを呼び出したのか、又は、特定の任務を付与したのかを判断し、当該判断に基づいて前記ロボットにより実行される処理として前記使用者からの呼び出しに応答するか前記特定の任務を決定し、
前記使用者の前記役割が第2のグループの場合に、前記ロボットにより実行される処理として前記使用者に何も反応しないことを決定する
方法。 - 前記識別情報を決定する段階で、前記音声情報および行動情報のうち少なくとも一つを基準音声情報および基準行動情報のうち少なくとも一つとそれぞれ比較することによって前記使用者に関する識別情報を決定する、請求項1に記載の方法。
- 前記基準音声情報および基準行動情報のうち少なくとも一つはあらかじめ設定される、請求項2に記載の方法。
- 前記動作を決定する段階で、前記ロボットの現在状況に関する情報にさらに基づいて前記ロボットによって遂行される動作を決定する、請求項1に記載の方法。
- 請求項1に記載された方法を実行するための、コンピュータプログラムを記録した非一過性のコンピュータ読み取り可能記録媒体。
- ロボットを制御するためのシステムであって、
サービス提供場所で使用者からロボットに対する音声情報および行動情報のうち少なくとも一つを獲得する情報獲得部、
前記音声情報および行動情報のうち少なくとも一つに基づいて前記サービス提供場所における前記使用者の役割に応じたグループとして前記使用者に関する識別情報を決定する識別情報決定部、および
前記識別情報と、前記音声情報および行動情報のうち少なくとも一つと、に基づいて前記ロボットによって遂行される動作を決定する動作決定部を含み、
前記動作決定部では、前記使用者の前記役割が第1のグループの場合に、前記音声情報および行動情報のうち少なくとも一つに基づいて、前記使用者が前記ロボットを呼び出したのか、又は、特定の任務を付与したのかを判断し、当該判断に基づいて前記ロボットにより実行される処理として前記使用者からの呼び出しに応答するか前記特定の任務を決定し、
前記使用者の前記役割が第2のグループの場合に、前記ロボットにより実行される処理として前記使用者に何も反応しないことを決定するシステム。 - 前記識別情報決定部は、前記音声情報および行動情報のうち少なくとも一つを基準音声情報および基準行動情報のうち少なくとも一つとそれぞれ比較することによって前記使用者に関する識別情報を決定する、請求項6に記載のシステム。
- 前記基準音声情報および基準行動情報のうち少なくとも一つはあらかじめ設定される、請求項7に記載のシステム。
- 前記動作決定部は、前記ロボットの現在状況に関する情報にさらに基づいて前記ロボットによって遂行される動作を決定する、請求項6に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/315,641 US20220357721A1 (en) | 2021-05-10 | 2021-05-10 | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
US17/315,641 | 2021-05-10 | ||
JP2021098053A JP2022173971A (ja) | 2021-05-10 | 2021-06-11 | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021098053A Division JP2022173971A (ja) | 2021-05-10 | 2021-06-11 | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023130462A true JP2023130462A (ja) | 2023-09-20 |
Family
ID=83901020
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021098053A Pending JP2022173971A (ja) | 2021-05-10 | 2021-06-11 | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
JP2023113411A Pending JP2023130462A (ja) | 2021-05-10 | 2023-07-11 | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021098053A Pending JP2022173971A (ja) | 2021-05-10 | 2021-06-11 | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220357721A1 (ja) |
EP (1) | EP4337427A1 (ja) |
JP (2) | JP2022173971A (ja) |
KR (2) | KR20220152901A (ja) |
WO (1) | WO2022240678A1 (ja) |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080008528A (ko) * | 2006-07-20 | 2008-01-24 | 주식회사 유진로봇 | 고객 접대 기능을 가지는 서빙 로봇 |
US20110118870A1 (en) * | 2007-09-06 | 2011-05-19 | Olympus Corporation | Robot control system, robot, program, and information storage medium |
EP3086278A4 (en) * | 2013-12-20 | 2017-07-05 | Re&Do Co., Ltd. | Service-provision management system |
JP2017182261A (ja) * | 2016-03-29 | 2017-10-05 | 大日本印刷株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6764796B2 (ja) * | 2017-01-26 | 2020-10-07 | 株式会社日立製作所 | ロボット制御システムおよびロボット制御方法 |
KR102140292B1 (ko) * | 2017-12-27 | 2020-07-31 | (주) 퓨처로봇 | 로봇 서비스 학습 시스템 및 그 방법 |
JP6656626B2 (ja) * | 2018-08-14 | 2020-03-04 | ウィルベース株式会社 | 販売支援システムおよび販売支援方法 |
KR102315925B1 (ko) * | 2019-01-03 | 2021-10-21 | 삼성전자주식회사 | 이동 로봇 및 그의 동작 방법 |
WO2020246643A1 (ko) * | 2019-06-07 | 2020-12-10 | 엘지전자 주식회사 | 서빙 로봇 및 그를 이용한 고객 접대 방법 |
WO2020256160A1 (ko) * | 2019-06-17 | 2020-12-24 | 엘지전자 주식회사 | 인공지능 홈 로봇 및 그의 제어 방법 |
JP6788710B1 (ja) * | 2019-08-01 | 2020-11-25 | エコモット株式会社 | 画像出力装置及び画像出力方法 |
KR20190098926A (ko) * | 2019-08-05 | 2019-08-23 | 엘지전자 주식회사 | 로봇 및 상기 로봇의 서비스 제공 방법 |
KR20210085696A (ko) * | 2019-12-31 | 2021-07-08 | 삼성전자주식회사 | 전자 장치의 움직임을 결정하는 방법 및 이를 사용하는 전자 장치 |
-
2021
- 2021-05-10 US US17/315,641 patent/US20220357721A1/en active Pending
- 2021-05-27 KR KR1020210068395A patent/KR20220152901A/ko not_active IP Right Cessation
- 2021-06-11 JP JP2021098053A patent/JP2022173971A/ja active Pending
-
2022
- 2022-05-06 EP EP22808085.9A patent/EP4337427A1/en active Pending
- 2022-05-06 WO PCT/US2022/028053 patent/WO2022240678A1/en active Application Filing
-
2023
- 2023-07-11 JP JP2023113411A patent/JP2023130462A/ja active Pending
- 2023-07-20 KR KR1020230094424A patent/KR20230115280A/ko not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
JP2022173971A (ja) | 2022-11-22 |
WO2022240678A1 (en) | 2022-11-17 |
KR20220152901A (ko) | 2022-11-17 |
US20220357721A1 (en) | 2022-11-10 |
KR20230115280A (ko) | 2023-08-02 |
EP4337427A1 (en) | 2024-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200046169A1 (en) | Robot system and control method of the same | |
US20210138654A1 (en) | Robot and method for controlling the same | |
US20210072750A1 (en) | Robot | |
US11648161B2 (en) | Robot | |
KR20210026595A (ko) | 로봇이 관리자 모드로 이동하는 방법 및 이를 구현하는 로봇 | |
JP2023130462A (ja) | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 | |
JP2024001323A (ja) | ロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 | |
KR102567222B1 (ko) | 서빙 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
JP7382991B2 (ja) | サービングロボットを制御するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 | |
US11919146B2 (en) | Method, system, and non-transitory computer-readable recording medium for controlling a serving robot | |
KR102506113B1 (ko) | 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
KR102560467B1 (ko) | 패트롤링 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
KR102573115B1 (ko) | 서빙 로봇을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230711 |