JP2022132166A - Robot supporting system - Google Patents

Robot supporting system Download PDF

Info

Publication number
JP2022132166A
JP2022132166A JP2022027111A JP2022027111A JP2022132166A JP 2022132166 A JP2022132166 A JP 2022132166A JP 2022027111 A JP2022027111 A JP 2022027111A JP 2022027111 A JP2022027111 A JP 2022027111A JP 2022132166 A JP2022132166 A JP 2022132166A
Authority
JP
Japan
Prior art keywords
robot
information
support
work assistance
management server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022027111A
Other languages
Japanese (ja)
Inventor
隆志 行村
Takashi Yukimura
摩梨花 林
Marika Hayashi
久光 菊嶋
Hisamitsu Kikushima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
QIBITECH Inc
Original Assignee
QIBITECH Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by QIBITECH Inc filed Critical QIBITECH Inc
Publication of JP2022132166A publication Critical patent/JP2022132166A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

To provide a robot supporting system which can support robots in a short time while reducing the burden on an operator, especially without requiring skill of the operator when supporting a large number of various robots.SOLUTION: A robot supporting system 1 includes robots 51, 52, 53 connectable over a network 3, a support management server 2, user interface (UI) terminals 41, 42, and a storage server 6. The robot provides operation status information including task information on each task, or the operation status information and robot information, to the support management server. The support management server selects work assistance information on the basis of the operation status information and/or the robot information provided from the robot, using a work assistance information database, and provides the selected work assistance information to the user interface terminals (UI). The UI terminal provides a user with the work assistance information by means of output means.SELECTED DRAWING: Figure 2

Description

本発明は、ロボット支援システムに関し、特に、自律的に動作可能なロボットと支援管理サーバとユーザインターフェース端末で構成され、支援管理サーバは、ロボットとユーザインターフェース端末にネットワークを介して接続可能であり、ロボットが支援を必要な状況において、オペレータは、ユーザインターフェース端末から、ロボットの動作を支援することが可能なロボット支援システムに関する。 The present invention relates to a robot support system, in particular, comprising a robot that can operate autonomously, a support management server, and a user interface terminal, the support management server being connectable to the robot and the user interface terminal via a network, The present invention relates to a robot assistance system that allows an operator to assist the operation of the robot from a user interface terminal when the robot needs assistance.

近年、様々な分野において自律的に作業するロボットによる自動化が進んでいるが、ロボットにトラブルが生じた場合、ロボット自体に自動的にトラブルを解消する手段を設けたり、オペレータ等によってロボットを支援したりすることが行われている。また、ロボットの種類によっては自動化にも限界があり、オペレータによるロボットの支援が必要とされることもある。 In recent years, automation by robots that work autonomously in various fields is progressing, but when a trouble occurs in a robot, the robot itself is provided with a means to automatically solve the trouble, and an operator etc. supports the robot. are being carried out. Also, depending on the type of robot, there is a limit to automation, and an operator may need to support the robot.

例えば、搬送車の現在位置が三角測量の原理に基づいて特定できなくなった場合の自動復帰について知られていた(特許文献1)。特許文献1には、搬送システムとして、レーザスキャナ、反射体 、および、三角測量の原理に基づいて搬送車の現在位置を特定し、特定された現在位置を用いて指定経路に沿って目標作業位置へ搬送車を走行させることが開示されている。この走行中に、搬送車の現在位置が三角測量の原理に基づいて特定できなくなると、搬送システムは、施設内の環境を計測する計測センサからの情報と施設内の環境地図との照合に基づいて搬送車の現在位置を推定し、推定された現在位置を用いて復帰場所へ搬送車を走行させ、これにより、搬送車の現在位置が三角測量の原理に基づいて再び特定できるようになり、搬送システムは、特定された現在位置を用いて搬送車を再び走行させる方法が開示されている。 For example, there has been known an automatic return when the current position of the guided vehicle cannot be identified based on the principle of triangulation (Patent Document 1). Patent Document 1 discloses a transport system that uses a laser scanner, a reflector, and a transport vehicle to identify the current position based on the principle of triangulation, and uses the identified current position to determine a target work position along a designated route. It is disclosed to run the carrier to. If the current position of the transport vehicle cannot be identified based on the principle of triangulation during this travel, the transport system will compare the information from the measurement sensors that measure the environment within the facility with the environment map within the facility. estimating the current position of the transport vehicle using the estimated current position, and using the estimated current position to drive the transport vehicle to the return location, so that the current position of the transport vehicle can be identified again based on the principle of triangulation; A transport system is disclosed in which the specified current position is used to cause the transport vehicle to run again.

さらに、従来から、ユーザの操作に基づき前記移動手段を駆動して自機を誘導する誘導手段が知られていた(特許文献2)。特許文献2には、自機の周囲に存在する物体の検出情報を取得する物体情報取得手段と、物体情報取得手段により取得された物体の検出情報のうち、所定の領域内における検出情報をマスクするマスク手段と、マスク手段によりマスク処理が施された検出情報から、自機周辺の局所地図を作成する局所地図作成手段と、自機を移動させる移動手段と、局所地図作成手段により作成された局所地図及び移動手段の移動量に基づいて、自己位置を推定する自己位置推定手段と、ユーザの操作に基づき移動手段を駆動して自機を誘導する誘導手段と、誘導手段による誘導中に、自己位置推定手段により推定された自己位置及び局所地図から、移動領域の環境地図を作成する環境地図作成手段を備える自律移動装置が開示されている。 Furthermore, conventionally, there has been known a guiding means for driving the moving means based on a user's operation to guide the own machine (Patent Document 2). Patent document 2 discloses an object information acquisition unit that acquires detection information of an object existing around the self-machine, and mask detection information in a predetermined area among the detection information of the object acquired by the object information acquisition unit. local map creating means for creating a local map around the aircraft from the masking means, detection information masked by the masking means, moving means for moving the own aircraft, and local map creating means self-position estimation means for estimating self-position based on the local map and movement amount of the movement means; guidance means for driving the movement means based on user's operation to guide the self-machine; and during guidance by the guidance means, An autonomous mobile device is disclosed that includes environment map creation means for creating an environment map of a movement area from the local map and the self-position estimated by the self-position estimation means.

また、オペレータによるロボットの支援が必要なシステムとして、手術支援ロボットを遠隔支援する遠隔支援システムが知られていた(特許文献3)。特許文献3には、手術支援ロボットの稼働に関する稼働情報の少なくとも1つを、前記手術支援ロボットの遠隔支援業務を行うためのサーバ装置にて受信し、所定のイベントが検出されると、前記サーバ装置から前記手術支援ロボットおよび端末装置の少なくとも1つに対して、音声、画像、およびテキストの少なくとも1つを配信する手術支援ロボットの遠隔支援方法が開示されている。 Further, as a system requiring robot support by an operator, a remote support system for remotely supporting a surgical support robot has been known (Patent Document 3). In Patent Document 3, at least one piece of operation information relating to the operation of a surgical assistance robot is received by a server device for performing remote assistance work of the surgical assistance robot, and when a predetermined event is detected, the server Disclosed is a remote assistance method for a surgical assistance robot that delivers at least one of voice, image, and text from a device to at least one of the surgical assistance robot and a terminal device.

特許6687313号公報Japanese Patent No. 6687313 特許6136435号公報Japanese Patent No. 6136435 特開2020-60880号公報Japanese Patent Application Laid-Open No. 2020-60880

特許文献1では、自己位置喪失からの自己位置の復帰方法として、位置特定部が特定した搬送車の最後の位置を初期位置として、後進により最も近い復帰場所(三角測量の原理に基づいて自己位置を確実に特定できる予め設定された場所)に向けて搬送車を走行させている。また、最後の位置から位置推定誘導までの間に移動した場合には、走行輪の回転を検出するエンコーダなどのセンサからの情報と最後の位置とから、搬送車の現在位置を演算して、これを初期位置として用いて復帰場所まで走行させている。しかし、搬送車には、走行輪のスリップや振動などによって搬送車の位置や向きが不意に変わることがあり、位置特定部の初期位置に対して実際の搬送車の現在位置や向きが異なる事態が想定される。そのような場合には、現在位置の推定が誤っているため、復帰場所に到達できなくなるおそれがある。また、搬送車が自動で復帰位置まで戻る方法であるので、復帰場所までの間に新たな物品が配置されたり、あるいは一時的な障害物が発生したりしている場合には、移動体の走行を復帰させることはできない。 In Patent Document 1, as a method of recovering the self-position from the loss of the self-position, the final position of the guided vehicle specified by the position specifying unit is set as the initial position, and the closest recovery location (self-position The vehicle is driven toward a preset location where the Also, when the transport vehicle moves between the last position and the position estimation guidance, the current position of the transport vehicle is calculated from the information from sensors such as encoders that detect the rotation of the running wheels and the last position, Using this as the initial position, the vehicle is caused to travel to the return location. However, the position and orientation of the transport vehicle may change unexpectedly due to slippage or vibration of the running wheels, and the actual position and orientation of the transport vehicle may differ from the initial position of the position identification unit. is assumed. In such a case, there is a possibility that the return location cannot be reached because the current position is estimated incorrectly. In addition, since the transport vehicle automatically returns to the return position, if a new article is placed or a temporary obstacle occurs before the return position, the moving body It is not possible to return to running.

また、特許文献2では、ユーザ(オペレータ)の操作に基づき移動手段を駆動して自機を誘導する誘導手段が開示されているが、移動領域の環境地図を作成する環境地図を作成する際にユーザが移動体を誘導するものであり、自己位置を喪失した時の復帰方法は開示されていない。さらに、特許文献2では、環境地図を作成する際に、ユーザが障害物として誤って登録されてしまうことを防止するため、ユーザが位置する所定の領域内をマスクしている。このように、特許文献2の誘導手段は、自律移動装置の近傍でユーザが視認しながら操作することを想定したものであり、予想外に発生する自己位置喪失のエラーに対処するためには、エラーが発生するたびに自律移動装置の近傍に行く必要があり、煩雑な物であった。 Further, Patent Document 2 discloses guidance means for driving a moving means based on the operation of a user (operator) to guide the own aircraft. The user guides the moving body, and no recovery method is disclosed when the self-location is lost. Furthermore, in Japanese Patent Application Laid-Open No. 2002-200001, a predetermined area in which the user is located is masked in order to prevent the user from being erroneously registered as an obstacle when creating an environment map. In this way, the guiding means of Patent Document 2 is assumed to be operated while the user visually recognizes it near the autonomous mobile device, and in order to cope with the error of self-location loss that occurs unexpectedly, Each time an error occurred, it was necessary to go to the vicinity of the autonomous mobile device, which was troublesome.

特許文献3では、手術支援ロボットの稼働に関する稼働情報を、手術支援ロボットの遠隔支援業務を行うためのサーバ装置にて受信し、所定のイベントが検出されると、サーバ装置から手術支援ロボットおよび端末装置の少なくとも1つに対して、音声、画像、およびテキストの少なくとも1つを配信することにより、手術支援ロボットを用いた手術等を行う遠隔支援システムが開示されている。手術支援ロボットにイベントが発生した場合、手術支援ロボットの撮影した画像、手術室の画像等の稼働情報をサーバ装置経由で端末装置に通知し、オペレータは、そのイベントの内容、画像の内容を基に、端末装置からサーバ装置経由で手術支援ロボットにイベントに対応する情報を配信する遠隔支援システムが開示されているが、イベントの応答を入力するのはオペレータであり、遠隔支援するオペレータには、高度な技術及び知識が必要とされる。 In Patent Document 3, operation information regarding the operation of the surgical assistance robot is received by a server device for performing remote assistance work for the surgical assistance robot, and when a predetermined event is detected, the surgical assistance robot and the terminal are sent from the server device. Disclosed is a remote support system that performs surgery or the like using a surgical support robot by delivering at least one of voice, image, and text to at least one of devices. When an event occurs in the surgical assistance robot, operation information such as images taken by the surgical assistance robot and images of the operating room are sent to the terminal device via the server device. discloses a remote support system for distributing information corresponding to an event from a terminal device to a surgical support robot via a server device. Advanced skills and knowledge are required.

近年、異なる作業を実行する種類の異なる複数のロボットが稼働する環境も増えている。例えば、店舗などにおいて、自律して要求事項(注文)を受け付ける受付ロボット、その要求事項である目的物(商品)を把持し積み込むアームロボット(マニピュレータ)、その目的物(商品)を所定の経路に沿って自律的に空間を移動する搬送ロボット等の複数のロボットで構成されたシステムが提案されている。受付ロボットは、音声認識機能を持ち、顧客の要望を受け付ける。アームロボットは、画像認識機能、関節を持ち、目的物の選別を行い、目的物を把持し、搬送ロボットに引き渡す。搬送ロボットは、レーザ距離センサ等の外界センサを用いて周囲の空間を走査し、走査結果と、予め用意された地図とのマッチングを行い、自身の現在の位置および姿勢を推定しながら目的位置まで移動する。しかし、受付ロボットにおいて、顧客等の指示内容が理解できない場合、アームロボットが、把持対象を判別できない場合、搬送ロボットにおいて、走査結果と、予め用意された地図とのマッチングに失敗し、搬送ロボットが自己位置を喪失(ロスト)してしまい目的地に移動することができなくなった場合等に、ロボット支援システムを管理しているオペレータの支援が必要となる。このように、異なる作業を実行する種類の異なる複数のロボットを支援するための適切なシステムは従来見当たらなかった。また、オペレータは、全てのロボットの全ての作業に対して、支援するための知識が必要となるが、そのようなオペレータを教育するのは時間も費用も掛かるものであった。さらに、あるロボットについての知識を有していても、別のメーカのロボットでは操作方法が違うこともあり、また、ロボットのバージョンアップ等で新しい機能が追加されたり、操作方法が変更されたりするたびに改めて勉強する必要があった。 In recent years, there has been an increase in the number of environments in which multiple robots of different types that perform different tasks operate. For example, in a store, a reception robot that autonomously accepts requirements (orders), an arm robot (manipulator) that grasps and loads the target (product) that is the requirement, and the target (product) along a predetermined route. A system composed of a plurality of robots such as a carrier robot that autonomously moves in space along a path has been proposed. The reception robot has a voice recognition function and accepts customer requests. The arm robot has an image recognition function and joints, selects objects, grasps the objects, and delivers them to the transport robot. The transport robot scans the surrounding space using an external sensor such as a laser distance sensor, matches the scanning result with a map prepared in advance, and estimates its own current position and posture while reaching the target position. Moving. However, if the reception robot cannot understand the customer's instructions, or if the arm robot cannot determine the object to be grasped, the transfer robot fails to match the scanning result with a map prepared in advance, and the transfer robot fails to operate. When the robot loses its own position and cannot move to the destination, the operator who manages the robot support system needs support. Thus, conventionally, there has been no suitable system for supporting a plurality of different types of robots performing different tasks. In addition, the operator needs knowledge to support all the operations of all robots, and it takes time and money to train such operators. Furthermore, even if you have knowledge about a certain robot, the operation method may be different for robots from different manufacturers, and new functions may be added or the operation method may be changed due to version upgrades of robots. I had to study again and again.

本発明は、前述した課題を解決することを目的とするものであり、異なる作業を実行する種類の異なる複数のロボットを支援する場合において、特にオペレータの熟練度が必要なく、かつオペレータへの負担が少なく、短時間でロボットの支援が可能なロボット支援システムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems. To provide a robot support system capable of supporting a robot in a short period of time.

上記の課題を解決するため、本発明のロボット支援システムは、ロボットと、支援管理サーバと、ユーザインターフェース端末とを含むロボット支援システムであって、前記ロボットと前記支援管理サーバとは、ネットワークを介して接続可能であり、前記支援管理サーバと前記ユーザインターフェース端末とは、ネットワークを介して接続可能であり、前記ロボットは、複数の作業を自律的に実行可能な制御手段と、前記支援管理サーバに支援要請を実行可能な支援要請手段と、ロボット情報を記憶した記憶手段とを含み、前記支援要請手段は、各作業に関するタスク情報を含む動作状況情報又は前記動作状況情報及び前記ロボット情報を前記支援管理サーバに提供可能であり、前記支援管理サーバは、状況情報及び/又はロボット情報と関連付けられた作業補助情報が記憶された作業補助情報データベースを含み、前記作業補助情報データベースを用いて前記ロボットから提供された動作状況情報及び/又は前記ロボット情報に基づいて作業補助情報を選択し、選択した作業補助情報を前記ユーザインターフェース端末に提供可能であり、前記ユーザインターフェース端末は、前記ロボットを指示又は操作可能な入力手段と、出力手段とを含み、前記出力手段によって前記支援管理サーバから提供された作業補助情報をユーザに提供可能である。 In order to solve the above problems, a robot support system of the present invention includes a robot, a support management server, and a user interface terminal, wherein the robot and the support management server are connected via a network. The support management server and the user interface terminal can be connected via a network, and the robot includes control means capable of autonomously executing a plurality of tasks and the support management server. a support request means capable of executing a support request; and a storage means storing robot information; can be provided to a management server, the support management server includes a work assistance information database in which work assistance information associated with status information and/or robot information is stored; Work assistance information is selected based on the provided operation status information and/or the robot information, and the selected work assistance information can be provided to the user interface terminal, and the user interface terminal instructs or operates the robot. Possible input means and output means are included, and the work assistance information provided from the support management server can be provided to the user by the output means.

さらに、上記ロボット支援システムにおいて、前記作業補助情報は、前記ロボットの作業内容を含んでもよい。 Furthermore, in the above-described robot support system, the work assistance information may include work content of the robot.

さらに、上記ロボット支援システムにおいて、前記作業補助情報は、前記作業補助情報に関連付けられたタスク情報に対応する作業の正常動作を記録した動画、静止画又は音声、前記作業補助情報に関連付けられたロボット識別情報に対応するロボットの正常動作を記録した動画、静止画又は音声、及び/又は正常時に期待される状況を示す動画、静止画又は音声を含んでもよい。 Further, in the above robot support system, the work assistance information includes a moving image, still image, or sound recording normal operation of the work corresponding to the task information associated with the work assistance information, and the robot associated with the work assistance information. A moving image, still image, or sound that records the normal operation of the robot corresponding to the identification information, and/or a moving image, still image, or sound that indicates the expected situation during normal operation may be included.

さらに、上記ロボット支援システムにおいて、前記支援管理サーバは、前記ロボットの複数の作業の正常動作を時系列に記録した動画を当該ロボットのタスク情報に対応付けて作業ごとに区分して前記作業補助情報データベースに記憶しており、前記作業補助情報として前記ロボットから提供された動作状況情報に含まれるタスク情報に対応する区分の動画を前記ユーザインターフェース端末に提供可能であってもよい。 Further, in the above-mentioned robot support system, the support management server associates videos recording normal operations of a plurality of tasks of the robot in time series with task information of the robot, classifies them for each task, and classifies them as the work assistance information. It may be possible to provide the user interface terminal with a moving image of a category corresponding to task information stored in a database and included in the operation status information provided from the robot as the work assistance information.

さらに、上記ロボット支援システムにおいて、前記ロボットは、エラー検出手段を含み、前記エラー検出手段で検出したエラー情報を前記支援管理サーバに提供可能であり、前記作業補助情報データベースは、前記作業補助情報をエラー情報と関連付けて記憶しており、前記支援管理サーバは、前記ロボットから提供されたエラー情報に基づいて前記作業補助情報データベースを検索し、検索された作業補助情報を前記ユーザインターフェース端末に提供可能であってもよい。 Further, in the robot support system, the robot includes error detection means, and can provide error information detected by the error detection means to the support management server, and the work assistance information database stores the work assistance information. The support management server can search the work assistance information database based on the error information provided from the robot and provide the retrieved work assistance information to the user interface terminal. may be

さらに、上記ロボット支援システムにおいて、前記ユーザインターフェース端末は、前記支援管理サーバに対し、前記ロボットの複数の作業について、個別に作業補助情報の送信の要否を設定可能であってもよい。 Further, in the above robot support system, the user interface terminal may be capable of setting whether or not to individually transmit task assistance information for a plurality of tasks of the robot with respect to the support management server.

さらに、上記ロボット支援システムにおいて、前記作業補助情報データベースは、前記作業補助情報を言語に関する言語情報と関連付けて記憶しており、前記ユーザインターフェース端末は、ユーザが使用する言語情報を前記支援管理サーバに通知可能であり、前記支援管理サーバは、前記ユーザインターフェース端末から提供された言語情報に基づいて前記作業補助情報データベースを検索し、検索された作業補助情報を前記ユーザインターフェース端末に提供可能であってもよい。 Further, in the robot support system, the work assistance information database stores the work assistance information in association with language information related to language, and the user interface terminal transmits the language information used by the user to the support management server. The support management server is capable of searching the work assistance information database based on the language information provided from the user interface terminal, and providing the retrieved work assistance information to the user interface terminal. good too.

さらに、上記ロボット支援システムにおいて、前記ロボット情報は、各ロボットを一意に特定するロボット識別情報、ロボットの種類を特定するロボット種別情報、及びロボットの稼働場所を特定する稼働場所情報の少なくとも1つを含み、前記支援管理サーバは、前記ロボット識別情報と対応付けて、当該ロボットに関するロボット種別情報及び/又は稼働場所情報が記憶されたロボット情報データベースを含み、前記ロボットから提供された前記ロボット識別情報に基づいて前記ロボット種別情報及び/又は稼働場所情報を検索し、検索したロボット種別情報及び/又は稼働場所情報に基づいて作業補助情報を選択してもよい。 Further, in the robot support system, the robot information includes at least one of robot identification information that uniquely identifies each robot, robot type information that identifies the type of robot, and operating location information that specifies the operating location of the robot. The support management server includes a robot information database that stores robot type information and/or operating location information about the robot in association with the robot identification information, and the robot identification information provided from the robot The robot type information and/or the operating location information may be searched based on the robot type information and/or the operating location information, and the work assistance information may be selected based on the retrieved robot type information and/or the operating location information.

さらに、上記ロボット支援システムにおいて、前記支援要請手段は、前記ロボットの周囲の環境情報、前記ロボットの周囲の画像情報、前記ロボットの周囲の音声情報、前記ロボットの地図上における位置情報、及び前記ロボットの構成要素の相対的な配置情報の少なくとも一つを取得し、前記動作状況情報に含めて前記支援管理サーバに提供可能であってもよい。 Further, in the above robot support system, the support request means includes environmental information around the robot, image information around the robot, audio information around the robot, position information of the robot on a map, and At least one of the relative arrangement information of the components of is obtained, and included in the operation status information and provided to the support management server.

さらに、上記ロボット支援システムにおいて、前記ロボットは、異なる作業を実行する種類の異なる複数のロボットを含み、各ロボットは、複数の稼働場所に配置されており、前記ユーザインターフェース端末は、複数の拠点に配置されてもよい。 Further, in the above robot support system, the robots include a plurality of robots of different types that perform different tasks, each robot is arranged at a plurality of operating locations, and the user interface terminals are installed at a plurality of bases. may be placed.

本発明のロボット支援システムによれば、自律動作しているロボットからオペレータ支援の要請があった場合、支援管理サーバは、ロボットから提供された動作状況情報に含まれるタスク情報及び/又はロボット識別情報に基づいて作業補助情報データベースを検索し、適当な作業補助情報をユーザインターフェース端末に提供可能であり、オペレータは、その作業補助情報により、容易に、短時間で適切に支援することが可能となる。また、この作業補助情報は、ロボットの作業内容を含む場合もあり、ロボットの正常動作を記録した動画又は静止画を含む場合もあり、ロボットのエラー検出手段によるエラー情報を含む場合もあり、ユーザが使用したい言語情報を含む場合もある。このような作業補助情報を提供することにより、オペレータは少ない負担で迅速にロボットを支援することが可能となり、経験の乏しいオペレータでもロボットの支援が可能である。さらに、異なる作業を実行する種類の異なる多種多様なロボットに対して、一人のオペレータで支援することも可能である。 According to the robot support system of the present invention, when an autonomously operating robot requests operator support, the support management server receives task information and/or robot identification information included in the operation status information provided by the robot. It is possible to search the work assistance information database based on the above, and provide appropriate work assistance information to the user interface terminal, and the operator can easily and quickly provide appropriate support based on the work assistance information. . Further, this work assistance information may include the details of the work performed by the robot, may include moving images or still images recording the normal operation of the robot, or may include error information from the error detection means of the robot. may also contain the language information you want to use. By providing such work assistance information, the operator can quickly assist the robot with less burden, and even an inexperienced operator can assist the robot. Furthermore, it is also possible for a single operator to support a wide variety of different types of robots that perform different tasks.

本発明のロボット支援システムにおけるフローチャートの一例An example of a flow chart in the robot support system of the present invention 本発明のロボット支援システムを実現するハードウェアの一例を示す図A diagram showing an example of hardware that realizes the robot support system of the present invention. 本発明の各構成要素とデータ構造を示す図Diagram showing each component and data structure of the present invention 本発明のロボット群における一連の動作を説明する図A diagram for explaining a series of operations in the robot group of the present invention. 本発明のロボット群における一連の動作を説明する図A diagram for explaining a series of operations in the robot group of the present invention. 本発明のロボット群における一連の動作を説明する図A diagram for explaining a series of operations in the robot group of the present invention. 本発明のロボット群における一連の動作を説明する図A diagram for explaining a series of operations in the robot group of the present invention. 本発明のロボット群における一連の動作を説明する図A diagram for explaining a series of operations in the robot group of the present invention. ロボット情報データベースの一例を示す図Diagram showing an example of a robot information database 作業補助情報データベースの一例を示す図A diagram showing an example of a work assistance information database 作業補助情報データベースの他の一例を示す図A diagram showing another example of the work assistance information database 作業補助情報データベースの他の一例を示す図A diagram showing another example of the work assistance information database UI端末の表示画面の一例を示す図A diagram showing an example of a display screen of a UI terminal UI端末の表示画面の一例を示す図A diagram showing an example of a display screen of a UI terminal (A)は搬送ロボットが搬送する範囲を示した地図情報を示し、(B)は搬送ロボットが正常に移動しているUI端末の表示画面を示す図。(A) shows map information indicating the range that the transfer robot transfers, and (B) shows the display screen of the UI terminal in which the transfer robot is moving normally. (A)及び(B)は、搬送ロボットが自己位置を喪失した状態を説明するための図(A) and (B) are diagrams for explaining a state in which the transport robot has lost its own position; (A)は搬送ロボットのカメラによって取得した画像情報を用いた支援作業を説明する図、(B)は搬送ロボットのLidarによって取得した環境情報を用いた支援作業を説明する図(A) is a diagram explaining support work using image information acquired by the camera of the transport robot, and (B) is a diagram explaining the support work using environmental information acquired by Lidar of the transport robot. (A)は暫定目的地に到達した状態を示す図、(B)は周囲の環境情報の総和を反映させた地図情報を示す図近傍SLAM情報での移動目標点指定による移動指示(近傍SLAMのみ表示)を示す図。(A) shows a state in which the tentative destination has been reached, and (B) shows map information reflecting the sum of surrounding environmental information. display). 異常状態におけるUI端末の表示画面を示す図A diagram showing a display screen of a UI terminal in an abnormal state 異常状態におけるUI端末の表示画面を示す図A diagram showing a display screen of a UI terminal in an abnormal state 異常状態におけるUI端末の表示画面を示す図A diagram showing a display screen of a UI terminal in an abnormal state UI端末における通知設定の一例を示す図The figure which shows an example of the notification setting in a UI terminal.

そもそも、ロボットによって全ての作業及びトラブルを自動的に処理できるのが理想であるが、全ての作業及びトラブルに対して完璧な対応を準備するのは技術的にも費用的にも困難である。そこで、一部の作業又はトラブルについてはオペレータによる支援を前提としてロボットを設計するという現実的な思想を新たに提案する。例えば、通常時には自律して作業を処理するが、自律処理できない場合(例えば異常時又は人の判断が必要な処理時)にはオペレータの支援を求め、オペレータからの支援(例えば指示又は操作)によって作業できるようにロボットを設計する。このような設計は、複数の稼働場所に配置され、様々な作業を実行する多種多様な複数のロボットに対して適用することが可能である。そして、この設計思想では、オペレータの介在を前提としており、ネットワークを通じてオペレータがロボットに支援できるようにして、異なる複数の作業場所で作業している複数のロボットに対して、また、同種の作業を実行する複数のロボットだけではなく、様々な作業を実行する多種多様な複数のロボットに対して支援するシステムとすることもできる。加えて、ユーザインターフェース端末(UI端末)が配置され、オペレータが支援作業を実施する拠点(オペレータがUI端末を携帯して移動する場合のオペレータの居場所を含む)についても、一つの拠点において多数のオペレータが作業する態様も、多数のオペレータが作業する拠点を複数設ける態様も、様々な拠点において個別のオペレータが作業する態様であってもよい。その場合、多種多様なロボットに対して、又は複数の異なる作業に対して、それぞれ専用のオペレータを配置してもよいが、多種多様なロボットの複数の異なる作業を支援可能なオペレータを配置できれば、オペレータの支援作業量を均一化することができ、迅速な支援が実現できる。つまり、ロボット及び/又は作業の種類によって支援を必要とする頻度にばらつきがあるが、専用のオペレータを配置した場合は、頻度の少ない支援を担当するオペレータが、頻度の多い支援を手伝うことができず、結果として頻度の多い支援については適切なタイミングで支援するのが難しくなる。この点、オペレータが多種多様なロボットの複数の異なる作業を支援可能であれば、支援作業を分担して処理することができる。 Ideally, robots should be able to automatically handle all tasks and troubles, but it is technically and economically difficult to prepare perfect countermeasures for all tasks and troubles. Therefore, we propose a new realistic idea of designing a robot on the premise that an operator will support some tasks or troubles. For example, in normal times, work is autonomously processed, but when autonomous processing is not possible (for example, when there is an abnormality or when processing requires human judgment), the operator's support is requested, and the operator's support (for example, instructions or operations) Design robots to work. Such a design can be applied to a wide variety of multiple robots located at multiple work locations and performing different tasks. This design concept presupposes the intervention of the operator, and by allowing the operator to assist the robot through the network, multiple robots working at multiple different work locations can perform the same type of work. It is also possible to provide a system that supports not only a plurality of robots that perform various tasks, but also a wide variety of robots that perform various tasks. In addition, user interface terminals (UI terminals) are arranged, and operators carry out support work (including the operator's location when the operator moves while carrying a UI terminal). A mode in which an operator works, a mode in which a plurality of sites where a large number of operators work is provided, and a mode in which individual operators work at various sites may be used. In that case, dedicated operators may be assigned to a wide variety of robots or to a plurality of different tasks. The operator's support work volume can be made uniform, and rapid support can be realized. In other words, although the frequency with which assistance is required varies depending on the robot and/or the type of work, if a dedicated operator is assigned, an operator in charge of less frequent assistance can assist with more frequent assistance. As a result, it becomes difficult to provide frequent assistance at the appropriate timing. In this regard, if the operator can support a plurality of different tasks of a wide variety of robots, the support tasks can be shared and processed.

本発明は、このようなロボット支援システムにおいて、オペレータがUI端末で支援作業(例えば指示又は操作)を行う際に、オペレータの支援作業を補助するための作業補助情報をロボットの種別や作業内容に応じてオペレータに提供するものである。このため、本発明においては、オペレータが多種多様なロボットの複数の異なる作業に対して支援作業を行うことが容易となる。 In such a robot support system, when an operator performs support work (for example, instructions or operations) using a UI terminal, the present invention provides work support information for assisting the operator's support work according to the robot type and work content. provided to the operator accordingly. Therefore, in the present invention, it becomes easy for the operator to perform support work for a plurality of different work performed by a wide variety of robots.

図1は、本発明のロボット支援システムにおいて、ロボットのオペレータ支援の要請からオペレータ支援による対処までのフローチャートの一例である。本発明のロボットは、複数の作業を自律的に実行可能な制御手段により、通常は自律動作している。ロボットが自律動作できない状況になった場合、支援管理サーバは、ロボットからの動作状況を取得し、動作状況に応じて選択した作業補助情報をユーザインターフェース端末(UI端末)に送信し、オペレータは、UI端末に提示された作業補助情報を基にして支援作業を行う。図1のS1において、ロボットは、自律動作ができない状況を検出すると、支援管理サーバにオペレータ支援を要請する。要請する際にロボットを特定するロボット識別情報を支援管理サーバに提供してもよい。S2において、支援管理サーバは、支援要請を処理する担当オペレータを割り当て、S3において、支援管理サーバは、支援要請をしたロボットから動作状況情報を取得する。動作状況情報は、少なくとも各作業に関するタスク情報を含み、さらに、エラー情報、周囲の静止画情報、動画情報等の環境情報を含んでいてもよい。S4において、支援管理サーバは、ロボットの動作状況情報のタスク状態及び/又は前記ロボット識別情報を基にオペレータが必要と予想される作業補助情報を選択し。S5において、支援管理サーバは、選択した作業補助情報をUI端末へ送信する。S6において、UI端末は、支援管理サーバから送付された作業補助情報をオペレータに提示し、S7において、オペレータは、UI端末に提示された作業補助情報を基にロボットの支援作業を行う。なお、S1において、ロボットは、ロボット識別情報だけではなく、動作状況情報も支援管理サーバに提供してもよい(この場合、S3は不要となる)。また、S2の担当オペレータの割り当ては、動作状況情報を取得した後でも、作業補助情報を取得した後でもよい。 FIG. 1 is an example of a flow chart from a robot operator support request to handling by operator support in the robot support system of the present invention. The robot of the present invention normally operates autonomously by control means capable of autonomously executing a plurality of tasks. When the robot cannot operate autonomously, the support management server acquires the operation status from the robot, and transmits work assistance information selected according to the operation status to the user interface terminal (UI terminal). Support work is performed based on the work assistance information presented on the UI terminal. In S1 of FIG. 1, when the robot detects a situation in which it cannot move autonomously, it requests the support management server for operator support. Robot identification information that identifies the robot may be provided to the support management server when making the request. In S2, the support management server assigns an operator in charge of processing the support request, and in S3, the support management server acquires operation status information from the robot that has requested support. The operation status information includes at least task information related to each work, and may further include environment information such as error information, surrounding still image information, and moving image information. In S4, the support management server selects work assistance information expected to be required by the operator based on the task status of the robot's operation status information and/or the robot identification information. In S5, the support management server transmits the selected work assistance information to the UI terminal. In S6, the UI terminal presents the work assistance information sent from the support management server to the operator, and in S7, the operator assists the robot based on the work assistance information presented to the UI terminal. In addition, in S1, the robot may provide not only the robot identification information but also the operation status information to the support management server (in this case, S3 is unnecessary). Also, the assignment of the operator in charge in S2 may be performed after acquiring the operation status information or after acquiring the work assistance information.

図2は、本発明のロボット支援システム1を実現するハードウェアの一例であり、図3は、本発明を実現するためのロボット支援システム1に必要な構成要素、データ構造のブロック図の一例である。本実施形態におけるロボット支援システム1は、支援管理サーバ2がネットワーク3を介して、複数のユーザインターフェース端末41、42、及び異なる作業を実行する種類の異なる複数のロボット51、52、52と接続されている。支援システム1は、必要に応じてネットワーク3を介して接続可能な記憶サーバ6を含んでいてもよい。複数のロボット51、52、52は、例えば、指示を受け付ける受付ロボット51、指示された対象物を選択して把持することができるアームロボット52、自己位置を推定しつつ目的地まで自律して移動できる自律式の搬送ロボット53を含む。本実施形態のロボット支援システム1は、受付ロボット51が指示対象物の選定ができない場合、アームロボット52がピッキング対象物を判別できない場合、搬送ロボット53が自己位置を喪失して復帰できない場合等に、ネットワーク3を介してUI端末41、42と接続してオペレータのサポートによって作業を実施する。例えば、オペレータは、支援作業として、受付ロボット51に対する対象物選定の指示や客との会話、アームロボット52に対するピッキング対象物の指示や操作、搬送ロボット53に対する暫定目的地の指示や移動操作等を行う。受付ロボット51、アームロボット52、搬送ロボット53は、自律処理できない場合(例えば異常時又は人の判断が必要な処理時)に、支援管理サーバ2に支援要請を行って、動作状況情報を提供する。支援管理サーバ2は、受付ロボット51、アームロボット52、搬送ロボット53からの動作状況情報を解析することにより、作業補助情報を選択し、UI端末41、42等に表示する。オペレータは、熟練知識が無くても、作業補助情報によって支援作業内容を把握できるので、受付ロボット51、アームロボット52、搬送ロボット53に対して、適切な指示を与えたり、操作することができる。図2において、各要素を連結する線は情報を相互に又は一方に提供可能に接続されていることを意味し、両者が同一機器内部に実装されて内部バスによって接続されている場合も、別々の機器に実装されて有線又は無線のネットワークによって接続されている場合も含む。 FIG. 2 is an example of hardware for realizing the robot assistance system 1 of the present invention, and FIG. 3 is an example of a block diagram of the components and data structure necessary for the robot assistance system 1 for realizing the present invention. be. In the robot support system 1 according to the present embodiment, the support management server 2 is connected via the network 3 to a plurality of user interface terminals 41 and 42 and a plurality of different types of robots 51, 52 and 52 that perform different tasks. ing. The support system 1 may include a storage server 6 connectable via the network 3 as required. A plurality of robots 51, 52, and 52 include, for example, a receiving robot 51 that receives instructions, an arm robot 52 that can select and grasp an instructed object, and an autonomous robot that moves to a destination while estimating its own position. It includes an autonomous transfer robot 53 that can operate. The robot support system 1 of this embodiment can be used when the reception robot 51 cannot select an instruction target, when the arm robot 52 cannot determine a picking target, when the transport robot 53 loses its own position and cannot return, and so on. , the UI terminals 41 and 42 are connected via the network 3, and work is carried out with the support of the operator. For example, as support work, the operator instructs the reception robot 51 to select an object and talks with customers, instructs and operates the picking object to the arm robot 52, instructs the transfer robot 53 to a temporary destination, and performs movement operations. conduct. The reception robot 51, the arm robot 52, and the transport robot 53 request support from the support management server 2 and provide operation status information when they cannot perform autonomous processing (for example, when there is an abnormality or when processing requires human judgment). . The support management server 2 selects work assistance information by analyzing the operation status information from the reception robot 51, the arm robot 52, and the transport robot 53, and displays it on the UI terminals 41, 42, and the like. Since the operator can grasp the content of the support work from the work assistance information even without skillful knowledge, the operator can give appropriate instructions to the reception robot 51, the arm robot 52, and the transport robot 53 and operate them. In FIG. 2, lines connecting elements mean that they are connected so as to be able to provide information to each other or to one side. It also includes the case where it is installed in a device and connected by a wired or wireless network.

支援管理サーバ2は、図3に示すように、ロボット情報データベース21、作業補助情報データベース22を含んでおり、ロボット情報データベース21は、ロボット識別情報211、ロボット種別情報212、ロボットの稼働場所情報213を含み、作業補助情報データベース22は、作業補助情報221、動作状況情報222、ロボット情報210、言語情報223を含んでいる。これらの情報は、支援管理サーバ2の記憶手段に記憶しておいてもよいし、記憶サーバ6に記憶して、必要に応じて支援管理サーバ2がネットワーク3を介して接続して取得するように構成してもよい。なお、記憶サーバ6は各UI端末41,42に設けられていてもよい。支援管理サーバ2は、ロボットからのオペレータ支援要請に対し、支援作業を行う担当オペレータを選択し、担当オペレータに対し支援作業に有用な作業補助情報を選択し、提供する。なお、支援管理サーバ2は、図示しないが制御手段やネットワークと通信するための通信手段を含んでおり、さらにオペレータデータベースを含んでいてもよい。 The support management server 2 includes a robot information database 21 and a work assistance information database 22, as shown in FIG. , and the work assistance information database 22 includes work assistance information 221 , motion status information 222 , robot information 210 , and language information 223 . These pieces of information may be stored in the storage means of the support management server 2, or may be stored in the storage server 6, and the support management server 2 may be connected via the network 3 to obtain the information as necessary. can be configured to Note that the storage server 6 may be provided in each of the UI terminals 41 and 42 . The support management server 2 selects an operator in charge of performing the support work in response to an operator support request from the robot, and selects and provides work assistance information useful for the support work to the operator in charge. The support management server 2 includes control means and communication means for communicating with a network (not shown), and may further include an operator database.

ロボット情報データベース21は、ロボットに関する情報(ロボット情報)のデータベースであり、ロボット識別情報211と対応付けて、当該ロボットに関するロボット種別情報212、稼働場所情報213等が記録されており、ロボット識別情報211から検索可能とされている。ロボット識別情報211は、各ロボットに一対一で対応するロボットを一意に識別する情報であり、例えば、製造番号や整理番号である。ロボット種別情報212は、ロボットの種類を特定する情報であり、例えば、「受付ロボット」、「アームロボット」、「搬送ロボット」というロボットの目的や用途による抽象的な大分類でもよいが、より具体的な分類とすることが好ましく、例えば、ロボットが具備する機能、性能、装備としてもよいし、既製品のロボットであれば製造メーカ、モデル名、型番等としてもよいし、注文品のロボットであれば製造メーカ、稼働場所、使用設備等としてもよい。稼働場所情報213は、ロボットが稼働している場所、施設等に関する情報である。ロボット情報、すなわちロボット識別情報211、ロボット種別情報212、稼働場所情報213等は、支援を要請したロボットを特定するものであり、さらに、ロボットが実行する作業内容を特定できることが好ましく、オペレータによるロボットの支援作業に有用な作業補助情報を選択する際に使用されてもよい。なお、ロボットから提供されるロボット識別情報211に、ロボット種別情報212や稼働場所情報213が含まれていてもよく、その場合には、ロボット情報データベース21を設けなくてもよい。 The robot information database 21 is a database of information about robots (robot information), and records robot type information 212, operating place information 213, etc. about the robot in association with the robot identification information 211. It is possible to search from The robot identification information 211 is information for uniquely identifying a robot corresponding to each robot on a one-to-one basis, such as a manufacturing number or reference number. The robot type information 212 is information for specifying the type of robot. For example, the functions, performance, and equipment provided by the robot may be used. For ready-made robots, the manufacturer, model name, model number, etc. may be used. If there is, it may be the manufacturer, place of operation, equipment used, and the like. The operating location information 213 is information about the location, facility, etc., where the robot is operating. The robot information, that is, the robot identification information 211, the robot type information 212, the operating location information 213, etc., identifies the robot that requested support, and preferably identifies the work to be performed by the robot. may be used when selecting work assistance information useful for the support work. The robot identification information 211 provided from the robot may include the robot type information 212 and the operating location information 213, in which case the robot information database 21 may not be provided.

作業補助情報データベース22は、オペレータによるロボットの支援作業に有用な作業補助情報221を選択するためのデータベースであり、動作状況情報222及び/又はロボット情報210に対応付けて、作業補助情報221が記録されており、動作状況情報222及び/又はロボット情報210から作業補助情報221を検索可能とされており、さらに、言語情報223を関連付けていてもよい。作業補助情報221は、オペレータによるロボットの支援作業に有用な情報であり、オペレータに指示するためのテキスト情報、ロボットの作業内容を含む動画、静止画、音声等でもよい。例えば、タスク情報に対応する作業の正常動作を記録した動画、静止画又は音声、ロボット識別情報に対応するロボットの正常動作を記録した動画、静止画又は音声、及び/又は正常時に期待される状況を示す動画、静止画又は音声、UI端末の入力手段における支援作業の指示又は操作内容等を含む。動画及び静止画は、実際の現実世界を撮影したものも、コンピュータグラフィックス(CG)によって描かれたものも、それらを組み合わせたものも含む。例えば、各ロボットに環境情報取得手段として搭載されたカメラ(RGBの2次元画像を取得するカメラ、熱情報を取得する赤外線カメラ、被写体までの距離情報も取得できる赤外線カメラ、ステレオカメラ、パターンプロジェクションカメラ)からの動画又は静止画や、ロボットの稼働場所に設置されたカメラからの動画又は静止画でもよいし、これらの動画又は静止画にCG(テキストを含む)を重ねて表示した動画又は静止画でもよいし、コンピュータによって全てがレンダリングされた2D又は3DのCG動画又はCG静止画でもよい。CG動画又はCG静止画は、予め準備された物であってもよいし、ロボットに搭載されたセンサ又は稼働場所に設置されたセンサからの情報に基づいて現状を反映させたものでもよい。また、音声も、実際の音でもよいし、コンピュータで合成された音でもよいし、それらを組み合わせてもよい。動作状況情報222は、ロボットから取得する情報に対応し、少なくとも各作業に関するタスク情報を含み、さらに、支援要請時又は現時点における周囲の静止画情報、動画情報、音声情報等の環境情報、支援要請時又は現時点におけるロボットの位置情報、またロボットに生じたエラーに関するエラー情報等を含んでいてもよい。ロボット情報210は、ロボット識別情報211、ロボット種別情報212、稼働場所情報213等であり、ロボット情報561に基づいて取得可能なものである。言語情報223は、作業補助情報221に含まれる言語に関する情報であり、例えば動画の説明文や音声が日本語の場合は、日本語という言語情報が作業補助情報221に対応付けられる。字幕、吹替等により複数国語が含まれる場合は複数の言語情報が対応付けられてもよい。なお、各作業補助情報を一意に識別する作業補助情報IDを付与してもよい。 The work assistance information database 22 is a database for selecting work assistance information 221 that is useful for robot assistance work by the operator. The work assistance information 221 can be retrieved from the operation status information 222 and/or the robot information 210, and the language information 223 may be associated therewith. The work assistance information 221 is information that is useful for the operator to assist the robot, and may be text information for giving instructions to the operator, moving images, still images, voices, etc., including the details of the work of the robot. For example, a video, still image, or sound recording the normal operation of the task corresponding to the task information, a video, still image, or sound recording the normal operation of the robot corresponding to the robot identification information, and/or a situation expected in normal operation including animations, still images, or voices that indicate , instructions for support work or operation contents, etc. in the input means of the UI terminal. Moving images and still images include those shot from the actual real world, those drawn by computer graphics (CG), and those that are a combination thereof. For example, a camera mounted on each robot as an environmental information acquisition means (a camera that acquires two-dimensional RGB images, an infrared camera that acquires thermal information, an infrared camera that can also acquire distance information to the subject, a stereo camera, a pattern projection camera, etc.) ), a video or still image from a camera installed at the robot's operating location, or a video or still image in which CG (including text) is superimposed on these videos or still images Alternatively, it may be a 2D or 3D CG moving image or CG still image entirely rendered by a computer. The CG moving image or CG still image may be prepared in advance, or may reflect the current situation based on information from a sensor mounted on the robot or a sensor installed at the working place. Also, the voice may be actual sound, computer-synthesized sound, or a combination thereof. The operation status information 222 corresponds to the information obtained from the robot, and includes at least task information related to each task, and further includes environmental information such as still image information, moving image information, audio information, etc. at the time of the support request or at the present time, and support request. It may also include positional information of the robot at the time or the present time, error information regarding an error that has occurred in the robot, and the like. The robot information 210 includes robot identification information 211 , robot type information 212 , operating place information 213 , etc., and can be acquired based on the robot information 561 . The language information 223 is information related to the language included in the work assistance information 221 . For example, when the description and voice of the moving image are in Japanese, the language information of Japanese is associated with the work assistance information 221 . When multiple languages are included by subtitles, dubbing, etc., multiple language information may be associated. A work assistance information ID that uniquely identifies each piece of work assistance information may be assigned.

ネットワーク3は、特に限定されるものではなく、インターネットを含み、例えば、公衆電話網、ISDN(Integrated Service Digital Networkの略。デジタル総合サービス網とも呼ばれる。)、ADSL(Asymmetric Digital Subscriber Line)、CATV(Community Antenna TeleVision)網、光ファイバー網、無線LAN(Local Area Network)、CS(Communication Satellite)放送、移動通信システム網(3G、4G、5G回線等を含む)などを利用することができる。ネットワーク3には、複数のロボット51、52、53、複数のUI端末41、42が接続されてもよい。ネットワーク3を介して、支援管理サーバ2と複数のロボット51、52、53とが接続可能であり、支援管理サーバ2と複数のUI端末41、42とが接続可能であり、さらに、複数のUI端末41、42と複数のロボット51、52、53とが相互に接続可能であってもよい。 The network 3 is not particularly limited, and includes the Internet. Community Antenna TeleVision) network, optical fiber network, wireless LAN (Local Area Network), CS (Communication Satellite) broadcasting, mobile communication system network (including 3G, 4G, 5G lines, etc.), etc. can be used. Multiple robots 51 , 52 , 53 and multiple UI terminals 41 , 42 may be connected to the network 3 . Via the network 3, the support management server 2 can be connected to a plurality of robots 51, 52, 53, the support management server 2 can be connected to a plurality of UI terminals 41, 42, and a plurality of UI terminals can be connected. The terminals 41, 42 and the plurality of robots 51, 52, 53 may be mutually connectable.

ユーザインターフェース端末41、42は、出力手段43、入力手段44及び記憶手段45を含み、図示しないが制御手段やネットワークと通信するための通信手段を含んでいる。UI端末としては、例えば、コンピュータ、ノートパソコン、携帯情報端末(スマートフォン、タブレット端末を含む)等を含み、一つのハードウェアでUI端末を実現してもよいし、複数のハードウェア(例えば、ディスプレイ・スピーカを出力手段、キーボード・マウスを入力手段、ネットワーク上の記憶サーバを記憶手段とし、コンピュータで処理する等)に手段を分散してUI端末を実現してもよい。 The user interface terminals 41 and 42 include output means 43, input means 44 and storage means 45, and also control means and communication means for communicating with a network (not shown). UI terminals include, for example, computers, laptop computers, personal digital assistants (including smartphones and tablet terminals), and the like. A UI terminal may be realized by distributing the means such as using a speaker as an output means, a keyboard/mouse as an input means, a storage server on a network as a storage means, and processing by a computer.

出力手段43は、様々な情報を出力する手段であり、少なくとも支援管理サーバ2から提供された作業補助情報220を出力する。出力手段43としては、例えば、液晶ディスプレイ(LCD)、有機ELディスプレイ、プロジェクタ、スピーカ、プリンタ等を含む。出力手段43としてタッチパネル式のディスプレイを使用すれば、入力手段44としても使用できる。また、複数のロボット51~53に対応して、複数の出力手段43を設けてもよいし、一つの出力手段43に複数のロボット51~53の情報を同時に又は順次表示するようにしてもよい。出力手段43には、例えば、作業補助情報としてロボットの作業内容を含む動画、静止画が表示され、スピーカから音声が出力されるが、さらに、ロボット51~53から取得した支援要請時又は現時点における状況(環境情報、位置情報、エラー情報等)が出力されてもよい。このように、正常時の状況と支援要請時又は現時点の状況の両方を出力することで、正常時と比較した異常が見つかりやすく、また正常時に復帰するために必要な指示又は操作を把握しやすくなる。 The output means 43 is means for outputting various information, and outputs at least the work assistance information 220 provided by the support management server 2 . The output means 43 includes, for example, a liquid crystal display (LCD), an organic EL display, a projector, a speaker, a printer, and the like. If a touch panel type display is used as the output means 43, it can also be used as the input means 44. FIG. Also, a plurality of output means 43 may be provided corresponding to the plurality of robots 51 to 53, or the information of the plurality of robots 51 to 53 may be displayed simultaneously or sequentially on one output means 43. . The output means 43 displays, for example, moving images and still images including the work content of the robot as work assistance information, and outputs voice from the speaker. Status (environment information, location information, error information, etc.) may be output. In this way, by outputting both the status during normal times and the status at the time of the support request or at the present time, it is easier to find abnormalities compared to normal times, and to understand the instructions or operations required to return to normal times. Become.

入力手段44は、ロボットから要請された支援作業を実行する手段であり、例えば、ロボットに対して指示したり、ロボットを操作できるものである。入力手段44として、例えば、キーボード、ポインティングデバイス(マウス、タッチパッド等)、タッチパネル(タッチスクリーンを含む)、コントローラ、マイク等を含む。入力手段44は、UI端末の操作も可能であり、例えば、入力手段44によって出力手段43に表示された作業補助情報を操作(再生、停止、早回し、逆再生、拡大、縮小、移動等)してもよいし、支援要請時又は現時点における環境情報を操作して、所望の情報を取得してもよい。 The input means 44 is means for executing support work requested by the robot, and for example, can give instructions to the robot and operate the robot. The input means 44 includes, for example, a keyboard, pointing device (mouse, touch pad, etc.), touch panel (including touch screen), controller, microphone, and the like. The input means 44 can also operate a UI terminal. For example, the work assistance information displayed on the output means 43 by the input means 44 can be operated (playback, stop, fast forward, reverse playback, enlargement, reduction, movement, etc.). Alternatively, the desired information may be obtained by manipulating environmental information at the time of the support request or at the present time.

記憶手段45は、指示操作情報451、支援サーバ2から提供された作業補助情報452、通知設定453、オペレータ情報454等が記憶されている。記憶手段45としては、例えば、USBメモリ、半導体メモリ、CD、DVD、HDDなどを含み、複数の記憶手段を有していてもよい。指示操作情報451は、入力手段44によって入力されたロボットに対する指示又は操作内容に関する情報であり、ネットワーク3を介してロボット51~53に提供される。作業補助情報452は、支援サーバ2から提供されたものであり、出力手段43を介してオペレータに提供される。通知設定453は、支援管理サーバ2から提供される情報のうち必要な情報及び不要な情報の設定であり、各オペレータが個別に設定可能であることが好ましい。さらに、ロボットの種類又は作業内容ごとに設定可能であることが好ましい。例えば、オペレータは、自分が得意とする種類のロボットや作業については、支援作業を熟知しているため、作業補助情報の提供を不要とすることができる。オペレータ情報454は、当該UI端末を使用しているオペレータに関する情報であり、例えば、オペレータが使用する言語、オペレータが得意とするロボットの種類又は作業、オペレータの作業経験、オペレータの能力(例えば、各支援作業の平均処理時間等)を含む。UI端末41,42は、通知設定453及びオペレータ情報454を支援管理サーバ2に提供することができ、支援管理サーバ2は提供された通知設定453に基づいてUI端末へ提供する情報を判断してもよいし、提供されたオペレータ情報454に基づいて担当オペレータを選択してもよいし、提供されたオペレータ情報454に基づいて支援内容及び/又は言語情報を参酌して適切な作業補助情報を選択してもよい。 The storage unit 45 stores instruction operation information 451, work assistance information 452 provided from the support server 2, notification settings 453, operator information 454, and the like. The storage means 45 includes, for example, a USB memory, a semiconductor memory, a CD, a DVD, an HDD, etc., and may have a plurality of storage means. Instruction operation information 451 is information on instructions or operation details for the robot input by the input means 44 and is provided to the robots 51 to 53 via the network 3 . The work assistance information 452 is provided from the support server 2 and provided to the operator via the output means 43 . The notification setting 453 is a setting of necessary information and unnecessary information among the information provided from the support management server 2, and it is preferable that each operator can set it individually. Furthermore, it is preferable to be able to set for each robot type or work content. For example, since the operator is familiar with the support work for the type of robot and work that he is good at, it is not necessary to provide work assistance information. The operator information 454 is information about the operator using the UI terminal, and includes, for example, the language used by the operator, the type of robot or work that the operator is good at, the work experience of the operator, the ability of the operator (for example, each average processing time for support work, etc.). The UI terminals 41 and 42 can provide notification settings 453 and operator information 454 to the support management server 2, and the support management server 2 determines information to be provided to the UI terminals based on the provided notification settings 453. Alternatively, the operator in charge may be selected based on the provided operator information 454, or appropriate work assistance information may be selected based on the provided operator information 454, considering the support content and/or language information. You may

ロボット51~53は、様々な作業を実行する多種多様な複数のロボットであり、例えば、顧客等の要望を受け付ける受付ロボット51、対象物を認識して、把持し、搬送ロボットに引き渡すアームロボット52、及び目的地まで対象物を運ぶ搬送ロボット53を含む。ロボット51~53は、少なくとも自律制御手段54、支援要請手段55及び記憶手段56を含み、さらにエラー検出手段57、環境情報取得手段58、位置情報検出手段59等を含んでいてもよく、また図示しないが各ロボットの機能を実現するための手段やネットワークと通信するための通信手段を含んでいる。さらに、記憶手段56は、ロボット情報561及び動作状況情報562を含み、動作状況情報562は、少なくともタスク情報563を含み、さらにエラー情報564、環境情報565、位置情報566等を含んでいてもよい。 The robots 51 to 53 are a plurality of various robots that perform various tasks. For example, a reception robot 51 that receives requests from customers, etc., and an arm robot 52 that recognizes an object, holds it, and delivers it to a transport robot. , and a transport robot 53 that transports the object to the destination. The robots 51 to 53 include at least autonomous control means 54, support request means 55, and storage means 56, and may further include error detection means 57, environment information acquisition means 58, position information detection means 59, and the like. Although it does not, it includes means for realizing the functions of each robot and communication means for communicating with the network. Furthermore, the storage means 56 includes robot information 561 and operation status information 562, and the operation status information 562 includes at least task information 563, and may further include error information 564, environment information 565, position information 566, and the like. .

自律制御手段54は、各ロボットの機能を実現するための手段を制御して、複数の作業を自律的に実行するものである。例えば、受付ロボット51の場合、複数の作業として、顧客等の要望があるまで待機、顧客の要望を得るために移動、巡回、顧客の要望を受け付けて認識、顧客の要望を他のロボットに転送等を実行する。アームロボット52の場合は、複数の作業として、要求待ち、対象物のピックアップ、関節機能による対象物の把持、把持の解放等を実行する。搬送ロボット53の場合、複数の作業として、要求待ち、積み込み場所への移動、待ち、自律搬送、積み下ろし待機、復帰移動等を実行する。さらに、自律制御手段54は、ロボットが自律動作できない状況になった場合、支援要請手段55から支援管理サーバ2に支援要請させる。 The autonomous control means 54 controls the means for realizing the functions of each robot to autonomously perform a plurality of tasks. For example, in the case of the reception robot 51, there are multiple tasks, such as waiting until there is a customer request, moving to obtain the customer request, patrol, receiving and recognizing the customer request, and transferring the customer request to another robot. etc. In the case of the arm robot 52, multiple tasks include waiting for a request, picking up an object, grasping the object using joint functions, releasing the grip, and the like. In the case of the transport robot 53, a plurality of tasks such as waiting for a request, moving to a loading location, waiting, autonomous transport, standby for loading and unloading, and return movement are executed. Further, the autonomous control means 54 causes the support request means 55 to request support from the support management server 2 when the robot cannot operate autonomously.

支援要請手段55は、支援管理サーバ2に支援要請を実行可能であり、支援要請時に少なくともタスク情報563を含む動作状況情報562を支援管理サーバ2に提供する。さらに、支援要請手段55は、支援要請時にロボット情報561も支援管理サーバ2に提供してもよいが、ロボット情報561は別のタイミングで提供してもよい。動作状況情報562には、さらにエラー情報564、環境情報565、位置情報566等を含んでいてもよい。 The support requesting means 55 can execute a support request to the support management server 2, and provides the support management server 2 with operation status information 562 including at least task information 563 when requesting support. Further, the support request means 55 may provide the robot information 561 to the support management server 2 at the time of requesting support, but may provide the robot information 561 at another timing. The operating status information 562 may further include error information 564, environment information 565, location information 566, and the like.

記憶手段56は、各種情報を記憶するものであり、記憶手段56としては、例えば、USBメモリ、半導体メモリ、CD、DVD、HDDなどを含み、複数の記憶手段を有していてもよい。ロボットに記憶されたロボット情報561は、少なくとも自己のロボット識別情報を含み、さらにロボット種別情報、稼働場所情報等を含んでいてもよく、支援管理サーバ2に提供される。支援管理サーバ2は、必要に応じてロボット情報データベース21によって、提供されたロボット識別情報からロボット種別情報212や稼働場所情報213等を検索する。動作状況情報562は、支援要請時に支援管理サーバ2に提供される場合は、少なくとも支援を必要とする作業に関連付けられたタスク情報563を含み、さらにエラー情報564、環境情報565、位置情報566等を含めてもよい。なお、支援要請時以外の場合に動作状況情報562を提供する際(例えば、支援要請後にオペレータからの指示で提供)は、タスク情報563を含めなくてもよい。タスク情報563はロボットが実行する複数の作業の一つ又は複数と関連付けられている。 The storage means 56 stores various information, and the storage means 56 includes, for example, USB memory, semiconductor memory, CD, DVD, HDD, etc., and may have a plurality of storage means. The robot information 561 stored in the robot includes at least its own robot identification information, and may also include robot type information, operating location information, etc., and is provided to the support management server 2 . The support management server 2 searches the robot information database 21 for robot type information 212, operating place information 213, etc. from the provided robot identification information as necessary. When the operation status information 562 is provided to the support management server 2 at the time of requesting support, it includes at least task information 563 associated with the work requiring support, error information 564, environment information 565, location information 566, and the like. may be included. Note that the task information 563 does not have to be included when the operation status information 562 is provided at a time other than when support is requested (for example, provided by an operator's instruction after a support request). Task information 563 is associated with one or more of a plurality of tasks performed by the robot.

エラー検出手段57は、ロボットに生じた障害や異常を検出するものであり、障害や異常が発生した際に予め決められた障害や異常の種類に分類してエラー情報564を取得する。エラー情報564は、障害や異常の種類を特定する情報(エラーコードを含む)でもよいし、障害や異常の内容(例えば、自己位置ロスト等)を含む情報でもよい。 The error detection means 57 detects a failure or anomaly occurring in the robot, and acquires error information 564 by classifying the failure or anomaly into predetermined types of failure or anomaly. The error information 564 may be information specifying the type of failure or abnormality (including an error code), or may be information including the content of the failure or abnormality (for example, self-position lost).

環境情報取得手段58は、ロボットの周囲の環境情報565を取得するものであり、ロボットの周囲の障害物の存在と位置(相対的な位置又は絶対的な位置)を検出する手段、周囲の画像を取得する手段、又は音声を取得する手段等を含む。環境情報取得手段58として、例えば、レーザ光を使用したLiDAR(Light Detection and Ranging又はLaser Imaging Detection and Ranging)や測域センサ、複数のカメラを使用したステレオカメラ、パターンプロジェクションカメラ、電波(ミリ波)を使用したレーダ、磁気センサ、2次元画像を取得するカメラ(CCDカメラ、CMOSセンサ、赤外線カメラ)、音声を取得する音声取得手段などを使用することができる。また、少なくともロボット51~53の移動方向前方の画像(静止画又は動画)を取得でき、高精細な3DのLiDAR等を使用すれば、測定点のパターンによって周囲の障害物を判定又は確認することも可能である。 The environment information acquisition means 58 acquires environment information 565 around the robot, and is a means for detecting the presence and position (relative or absolute position) of obstacles around the robot, and a means for detecting the surrounding image. or a means for acquiring voice. As the environment information acquisition means 58, for example, LiDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) using laser light, a range sensor, a stereo camera using multiple cameras, a pattern projection camera, radio waves (millimeter waves) A radar using , a magnetic sensor, a camera (CCD camera, CMOS sensor, infrared camera) for acquiring a two-dimensional image, an audio acquisition means for acquiring audio, and the like can be used. In addition, at least an image (still image or moving image) in front of the movement direction of the robots 51 to 53 can be acquired, and if a high-definition 3D LiDAR or the like is used, the surrounding obstacles can be judged or confirmed by the pattern of the measurement points. is also possible.

位置情報検出手段59は、地図情報におけるロボット51~53の位置を推定したり、ロボットの関節、アーム等の位置を検出したりする手段であり、それらの位置情報566を取得する。自己位置を推定する場合は、例えば、位置推定プログラムを実行することによって実現され、例えば、CPU(Central Processing Unit)及び作業用メモリなどによって、或いは集積回路(Integrated Circuit)によって実現される。位置情報検出手段59としては、地図情報における移動体の位置が特定できればよく、特に手段を問うものではないが環境情報取得手段58で取得した環境情報(周囲の障害物の配置)565と、予め用意された地図情報とを照合して、照合結果に基づきロボットの位置を算出してもよい。他の位置情報推定手段59としては、GPSで特定した座標を地図情報の座標に変換したり、通信アンテナや基地局で特定した座標を地図情報の座標に変換したり、周囲の壁、天井、床に位置を示す記号を表記してそれを画像認識し、地図情報と対応させることで特定したりしてもよい。また、関節、アーム等の位置を検出する場合は、例えば、関節やアームを駆動するアクチュエータによる変位量から位置を検出してもよいし、ロボット又は周囲の壁、天井、床等に設置されたカメラやセンサによって駆動後のアームの状態を検知して位置を検出してもよい。なお、位置情報検出手段59は、ロボット51~53ではなく、支援管理サーバ2に設けられてもよい。 The position information detection means 59 is means for estimating the positions of the robots 51 to 53 in the map information and detecting the positions of the joints, arms, etc. of the robot, and acquires position information 566 thereof. When estimating the self-position, for example, it is realized by executing a position estimation program, for example, by a CPU (Central Processing Unit) and working memory, or by an integrated circuit. As the position information detection means 59, it is sufficient if the position of the mobile object in the map information can be specified. The position of the robot may be calculated based on the matching result by matching with prepared map information. Other position information estimation means 59 converts coordinates specified by GPS into coordinates of map information, converts coordinates specified by communication antennas or base stations into coordinates of map information, and converts coordinates specified by communication antennas or base stations into coordinates of map information. A symbol indicating a position may be written on the floor, image recognition of the symbol may be performed, and the symbol may be identified by associating the symbol with map information. When detecting the position of a joint or an arm, for example, the position may be detected from the amount of displacement by an actuator that drives the joint or arm. The position may be detected by detecting the state of the arm after driving with a camera or sensor. Note that the position information detection means 59 may be provided in the support management server 2 instead of the robots 51-53.

[通常動作]
図4~図8は、受付ロボット51、アームロボット52、搬送ロボット53のロボットで構成され、顧客等の要望を認識して、その要望を達成するシステムにおける一連の動作を例示したものである。今回の例では、顧客の要望した飲料を顧客のいる座席まで届ける動作が行われる。
[Normal operation]
4 to 8 illustrate a series of operations in a system composed of a reception robot 51, an arm robot 52, and a transport robot 53, recognizing a customer's request and fulfilling the request. In this example, the operation of delivering the beverage requested by the customer to the customer's seat is performed.

図4は、受付ロボット51、アームロボット52、搬送ロボット53のロボットが待機している状態を示している。受付ロボットは、巡回しても定位置にいてもよい。図5は、顧客10の要望を受付ロボット51が顧客の指示を認識している状態を示している。受付ロボット51は、顧客10の入店を認識した場合、顧客10に向かって移動してもよい。受付ロボット51は、顧客10に対応し、要望するものを音声又はタッチパネル等によって入力させる。顧客10が飲料を指示すると、受付ロボット51は、音声認識又は画面タッチによって顧客10の要望として飲料を受け付け、認識した顧客10の要望をアームロボット52、搬送ロボット53にネットワークを通じて伝達する。 FIG. 4 shows a state in which the reception robot 51, the arm robot 52, and the transport robot 53 are on standby. The reception robot may be roaming or stationary. FIG. 5 shows a state in which the request of the customer 10 is accepted by the robot 51 and the customer's instruction is recognized. The reception robot 51 may move toward the customer 10 when it recognizes that the customer 10 has entered the store. The reception robot 51 responds to the customer 10 and allows the customer to input a request by voice or a touch panel. When the customer 10 instructs a beverage, the reception robot 51 receives the beverage as the request of the customer 10 by voice recognition or screen touch, and transmits the recognized request of the customer 10 to the arm robot 52 and the transport robot 53 through the network.

図6(A)は、受付ロボットから伝達された顧客の要望をアームロボット52が認識して、対象物を判別している状態を示し、(B)は、アームロボット52が、対象物である机上の飲料11を認識して、アームを移動させて先端のハンドで飲料11を把持した状態を示し、(C)は、アームロボット52が、自身の関節を動かし、飲料11を持ち上げた状態を示している。 FIG. 6(A) shows a state in which the arm robot 52 recognizes the customer's request transmitted from the reception robot and identifies the object, and (B) shows the arm robot 52 as the object. (C) shows a state in which the arm robot 52 moves its own joints and lifts the beverage 11 by recognizing the beverage 11 on the desk and moving the arm to grasp the beverage 11 with the hand at the tip. showing.

図7(A)は、搬送ロボット53が、アームロボット52の近傍に近づき、積み込み待機位置で待機している状態を示し、(B)は、アームロボット52が飲料11を搬送ロボット53に載置するためにアームを動かしている状態を示し、(C)は、アームロボット52が搬送ロボット53上に飲料11を載置し、ハンドによる把持を開放して役割を終え、搬送ロボット53が、飲料11の搬送を開始する状態を示している。 7A shows a state in which the transport robot 53 approaches the vicinity of the arm robot 52 and waits at the loading standby position, and FIG. 7B shows a state where the arm robot 52 places the beverage 11 on the transport robot 53. (C) shows a state in which the arm robot 52 places the beverage 11 on the carrier robot 53, releases the grip by the hand, and finishes its role, and the carrier robot 53 moves the beverage 11. 11 shows a state in which transportation of No. 11 is started.

図8(A)は、搬送ロボット53が、飲料11を顧客10の座席まで搬送している途中の状態を示し、(B)は、搬送ロボット53が、飲料11を顧客10の座席まで搬送し、積み下ろし待機位置で待機している状態を示し、(C)は、顧客10が飲料11を受け取り、搬送ロボット53が役割を終え、待機場所に戻った状態を示している。 8A shows a state in which the transport robot 53 is in the process of transporting the beverage 11 to the seat of the customer 10, and FIG. 8B shows the transport robot 53 transporting the beverage 11 to the seat of the customer 10. FIG. , shows the state of waiting at the unloading waiting position, and (C) shows the state where the customer 10 has received the beverage 11, the transport robot 53 has finished its role, and has returned to the waiting place.

[データベースの例]
図9は、ロボット情報データベース21の一例である。ロボット情報データベース21は、ロボット識別情報(ID)211に対応させて、ロボット種別情報212、ロボット稼働場所情報213、各種機能214~217が記憶されている。本実施形態では、ロボットID211は、7桁の文字と数字から構成され、1桁目が稼働場所に関する情報、2~4桁目がロボット種別に関する情報、5~7桁目が各ロボット種別におけるナンバリングであり、それ自体に、ロボット種別情報212及び稼働場所情報213を含んでいるが、単に各ロボットをナンバリングしただけでもよい。ロボット種別情報212では、製造メーカだけではなく、同じα社製でも、モデルが異なる場合又は機能が異なる場合は別の種別としている。稼働場所情報213についても、同じ会社であっても工場や倉庫で区別し、さらに工場内においても受付などのように稼働場所を具体的に分類している。各種機能214~217としては、音声認識214、画像認識215、移動手段216、把持手段217を例示し、それぞれ具備する場合を〇で、具備しない場合を×で示しているが、これに限定されるものではない。これらのロボット情報210に対して、作業補助情報を対応付けることができる。
[Database example]
FIG. 9 is an example of the robot information database 21. As shown in FIG. The robot information database 21 stores robot type information 212 , robot operating location information 213 , and various functions 214 to 217 in association with robot identification information (ID) 211 . In this embodiment, the robot ID 211 consists of 7 digits of letters and numbers, where the first digit is information about the operating location, the 2nd to 4th digits are information about the robot type, and the 5th to 7th digits are the numbering for each robot type. , which itself includes robot type information 212 and operating location information 213, but it is also possible to simply number each robot. In the robot type information 212, different types are assigned not only to robots manufactured by manufacturers but also to robots manufactured by the same company α that have different models or different functions. As for the operating place information 213, even if it is the same company, it is distinguished by factory or warehouse, and furthermore, the operating place is specifically classified such as reception desk in the factory. As the various functions 214 to 217, voice recognition 214, image recognition 215, moving means 216, and grasping means 217 are exemplified. not something. Work assistance information can be associated with the robot information 210 .

図10は、作業補助情報データベース22aの一例である。作業補助情報データベース22aは、作業補助情報ID220、ロボット種別及びロボット稼働場所のロボット情報210、作業補助情報種別221a、作業補助情報221、言語情報223及びエラー情報224を含んでいる。作業補助情報データベース22aにおいては、ロボット情報210、言語情報223及びエラー情報225から作業補助情報221を選択することができる。ただし、ID1~3の作業補助情報から選択する場合であれば、ロボット情報210のみから作業補助情報を選択可能であり、ID1~6の作業補助情報から選択する場合であれば、ロボット情報210及び言語情報223から選択可能である。このように、作業補助情報の選択は、ロボット情報210、言語情報223及びエラー情報224の全ての情報を必要とするものではない。ID1~6の作業補助情報は動画であり、ID1~3は日本語、ID4~6は英語の動画である。ID1の作業補助情報は、例えば、日本語で説明したA社○○工場におけるX社製受付ロボットの正常動作の動画等である。ID7の作業補助情報は静止画であり、例えば、B社XX倉庫内の通常時の画像等である。ID8~11の作業補助情報は音声であり、言語情報223及びエラー情報224に応じて該当する作業補助情報が選択される。例えば、搬送対象なしの場合は、オペレータに対して「目的地に到着しましたが搬送対象が見当たりません。搬送対象をご指示ください」という音声が通知される。また、重複配送の場合は、オペレータに対して「搬送対象は既に搬送されています。別の搬送対象をご指示ください」という音声が通知される。なお、作業補助情報種別221aは、作業補助情報のデータ形式を示しており、動画、静止画、音声、テキスト等である。 FIG. 10 is an example of the work assistance information database 22a. The work assistance information database 22 a includes work assistance information ID 220 , robot information 210 on robot type and robot operating location, work assistance information type 221 a , work assistance information 221 , language information 223 and error information 224 . In the work assistance information database 22a, work assistance information 221 can be selected from robot information 210, language information 223, and error information 225. FIG. However, when selecting from work assistance information of IDs 1 to 3, work assistance information can be selected only from robot information 210, and when selecting from work assistance information of IDs 1 to 6, robot information 210 and It can be selected from language information 223 . Thus, the selection of work assistance information does not require all of the robot information 210, language information 223 and error information 224. FIG. The work assistance information for IDs 1 to 6 is animation, IDs 1 to 3 are for Japanese, and IDs 4 to 6 are animations for English. The work assistance information of ID1 is, for example, a moving image of the normal operation of the reception robot manufactured by X company in the XX factory of company A explained in Japanese. The work assistance information of ID7 is a still image, for example, an image of the XX warehouse of company B at normal times. The work assistance information with IDs 8 to 11 is voice, and corresponding work assistance information is selected according to the language information 223 and the error information 224 . For example, if there is no object to be transported, the operator is notified by voice that "The object has arrived at the destination, but the object to be transported cannot be found. Please indicate the object to be transported." In addition, in the case of duplicate deliveries, the operator is notified by voice that "The object to be transported has already been transported. Please specify another object to be transported." The work assistance information type 221a indicates the data format of the work assistance information, such as moving image, still image, voice, and text.

図11は、他の作業補助情報データベース22bの一例である。作業補助情報データベース22bは、作業補助情報ID220(図ではIDのみを表記)、ロボット種別及びロボット稼働場所のロボット情報210、言語情報223、タスク情報225及び作業補助情報221として正常動作動画の開始位置及び動画の長さの情報を含んでいる。作業補助情報データベース22bにおいては、ロボット情報210、言語情報223及びタスク情報225から作業補助情報221を選択することができる。タスク情報225は、ロボットの作業内容を区分したものであり、例えば、A社○○工場におけるX社製受付ロボットでは、「要求待ち移動」、「顧客対応」、「顧客要望受付」及び「顧客要望転送」に区分されており、Y社製マニピュレータでは、「要求待ち」、「把持中」、「搬送中」及び「把持開放中」に区分されており、Z社製搬送車では、「要求待ち」、「積み込み待機」、「移動中」、「積み下ろし待機」及び「復帰移動中」に区分されている。それぞれ正常動作時の動画における開始位置及び動画長さが指定されており、一連の正常動作時の動画のうち、指定された開始位置及び動画長さの動画を作業補助情報221としてUI端末に提供できる。このように、作業補助情報データベース22bを使用すれば、ロボットから提供された支援要請時の動作状況情報562に含まれるタスク情報563から、対応する作業補助情報221を選択することができる。なお、図10に示す作業補助情報データベース22aでID1~6の作業補助情報が選択された場合に、図11の作業補助情報データベース22bを用いてさらに具体的な作業補助情報を選択してもよい。 FIG. 11 is an example of another work assistance information database 22b. The work assistance information database 22b includes work assistance information ID 220 (only the ID is shown in the figure), robot information 210 of the robot type and robot operating place, language information 223, task information 225, and work assistance information 221 as the start position of the normal operation animation. and video length information. In the work assistance information database 22b, work assistance information 221 can be selected from robot information 210, language information 223, and task information 225. FIG. The task information 225 categorizes the work content of the robot. The manipulator manufactured by Company Y is divided into "Waiting for Request", "Gripping", "Transporting" and "Releasing Grip". waiting", "waiting for loading", "moving", "waiting for unloading" and "moving back". The start position and the length of the animation during normal operation are specified for each, and the animation of the designated start position and animation length among the series of animations during normal operation is provided to the UI terminal as the auxiliary work information 221. can. In this way, by using the work assistance information database 22b, the corresponding work assistance information 221 can be selected from the task information 563 included in the operation status information 562 at the time of assistance request provided from the robot. It should be noted that when work assistance information with IDs 1 to 6 is selected in the work assistance information database 22a shown in FIG. 10, more specific work assistance information may be selected using the work assistance information database 22b shown in FIG. .

図12(A)は、倉庫内の各搬送対象A01~E01の配置図であり、(B)は、他の作業補助情報データベース22cの一例であり、(C)は、静止画の一例である。作業補助情報データベース22cは、作業補助情報ID220(図ではIDのみを表記)、作業補助情報221として静止画のファイル名及び位置範囲226aとして左上の頂点の座標と右下の頂点の座標の情報を含んでいる。作業補助情報データベース22cにおいては、ロボットから提供された位置情報から作業補助情報221を選択することができる。例えば、ロボットから提供された位置情報が位置範囲226a内に含む静止画を選択してUI端末に提供することができる。作業補助情報221の静止画としては、例えば、図12(C)に示すように、各搬送対象A01~E01の通常時の画像でもよいが、搬送対象以外の倉庫内の画像でもよい。各位置範囲226aは、本実施形態においては、各搬送対象A01~E01から一定の範囲であるが、かかる態様に限定されるものではない。例えば、倉庫内をマトリクス状に区分して、各区分を位置範囲として、その位置からの通常時に確認できる画像を作業補助情報221としてもよい。なお、図10に示す作業補助情報データベース22aでID7の作業補助情報が選択された場合に、図12の作業補助情報データベース22cを用いてさらに具体的な作業補助情報を選択してもよい。 FIG. 12(A) is a layout diagram of each transport object A01 to E01 in the warehouse, (B) is an example of another work assistance information database 22c, and (C) is an example of a still image. . The work assistance information database 22c includes a work assistance information ID 220 (only the ID is shown in the figure), a still image file name as work assistance information 221, and information on the coordinates of the upper left vertex and the lower right vertex as the position range 226a. contains. In the work assistance information database 22c, the work assistance information 221 can be selected from the position information provided by the robot. For example, a still image included in the position range 226a of the position information provided by the robot can be selected and provided to the UI terminal. As the still image of the work auxiliary information 221, for example, as shown in FIG. 12(C), images of the transportation objects A01 to E01 during normal operation may be used, but images other than the transportation objects in the warehouse may also be used. Each position range 226a is a fixed range from each of the transport objects A01 to E01 in this embodiment, but it is not limited to this aspect. For example, the inside of the warehouse may be divided into a matrix, each division may be set as a position range, and an image that can be confirmed in normal times from that position may be used as the auxiliary work information 221 . When the work assistance information of ID7 is selected in the work assistance information database 22a shown in FIG. 10, more specific work assistance information may be selected using the work assistance information database 22c shown in FIG.

[支援要請時の動作]
まず、受付ロボット51が、顧客10の要望内容が認識できない場合にオペレータに支援を求める場合の例を説明する。受付ロボット51が「顧客要望受付」の作業中、顧客10の要望内容を認識できない場合、エラー検出手段57が「顧客要望認識不可」と認識する。受付ロボット51は、環境情報取得手段58の画像取得手段によって録画及び録音していた顧客10との対応の動画及び音声(環境情報565)を準備し、さらに、位置情報検出手段59により取得した位置情報566を準備する。そして、受付ロボット51は、支援要請手段55によって、ネットワーク3を介してロボット情報561及び動作状況情報562を支援管理サーバ2に送信する。動作状況情報562は、「顧客要望受付」というタスク情報561を含み、さらに「顧客要望認識不可」というエラー情報564、顧客10との対応の動画及び音声(環境情報565)及び位置情報566を含んでいてもよい。
[Behavior when requesting support]
First, an example in which the reception robot 51 asks the operator for assistance when it cannot recognize the content of the request of the customer 10 will be described. When the receiving robot 51 cannot recognize the content of the request of the customer 10 during the work of "customer request reception", the error detection means 57 recognizes "customer request cannot be recognized". The reception robot 51 prepares the video and audio (environmental information 565) of the correspondence with the customer 10 recorded by the image acquisition means of the environment information acquisition means 58, and furthermore, the position acquired by the position information detection means 59. Prepare information 566 . Then, the reception robot 51 transmits robot information 561 and operation status information 562 to the support management server 2 via the network 3 by the support request means 55 . The operation status information 562 includes task information 561 "customer request reception", error information 564 "customer request unrecognizable", video and audio (environmental information 565) corresponding to the customer 10, and position information 566. You can stay.

管理支援サーバ2は、受信したロボット情報561から、必要に応じてロボット情報データベース21を用いて受付ロボット51のロボット種別や稼働場所を特定し、また、必要に応じて受信した動作状況情報562と併せて、作業補助情報データベース22と突き合わせてユーザインターフェース端末に提供する作業補助情報221を選択する。ここで、管理支援サーバ2は、ロボットが稼働している国、地域に合わせた言語情報、時刻、オペレータの混雑度等を考慮して、適切なオペレータのいるUI端末を選択してもよい。例えば、管理支援サーバ2は、作業補助情報データベース22bを用いて、ロボット情報561及び「顧客要望受付」というタスク情報561、並びに選択したUI端末の言語情報からID1-3の動画を選択し、UI端末に送信する。さらに、管理支援サーバ2は、ロボットから受信した動作状況情報562、例えば顧客10との対応の動画及び音声(環境情報565)をUI端末に送信してもよい。なお、動作状況情報562は、受付ロボット51からUI端末に直接送信してもよい。 From the received robot information 561, the management support server 2 uses the robot information database 21 as necessary to identify the robot type and operating place of the reception robot 51, and if necessary, the received operation status information 562 and At the same time, the work assistance information 221 to be provided to the user interface terminal is selected by matching with the work assistance information database 22 . Here, the management support server 2 may select a UI terminal with an appropriate operator in consideration of language information, time, degree of operator congestion, etc. according to the country and region where the robot is operating. For example, the management support server 2, using the work assistance information database 22b, selects the animation of ID1-3 from the robot information 561 and the task information 561 "customer request reception", and the language information of the selected UI terminal, Send to terminal. Furthermore, the management support server 2 may transmit the operation status information 562 received from the robot, for example, video and audio (environmental information 565) of correspondence with the customer 10 to the UI terminal. The operation status information 562 may be directly transmitted from the reception robot 51 to the UI terminal.

図13は、UI端末41の表示画面411の一例であり、右側に作業補助情報用領域412が表示され、左側に指示・操作領域413が表示されている。作業補助情報用領域412には、作業補助情報として提供された正常時の動作の動画を再生する領域412aと再生ボタン412bが表示されている。指示・操作領域413の上領域413aは、ロボットからの支援要請時又は現時点の状況が示され、図13では顧客10との対応の動画及び音声(環境情報565)が表示され、中央の3種類の飲料が並んだ領域413bは顧客10の要望を入力する領域であり、下の円マークは決定ボタン413cである。オペレータは領域412aに再生された正常時の動作の動画を確認しつつ、顧客10との対応の動画及び音声(環境情報565)から顧客の要望を判断して、領域413bの3種類の飲料から要望のものを選択し、決定ボタン413cで指示を受付ロボット51に送信する。なお、要望のものを指示するのではなく、UI端末41を受付ロボット51と接続して、オペレータが音声、動画又はテキストで顧客10と応答して要望する飲料11を特定してもよい。 FIG. 13 shows an example of a display screen 411 of the UI terminal 41, in which a work assistance information area 412 is displayed on the right side and an instruction/operation area 413 is displayed on the left side. In the work auxiliary information area 412, an area 412a for reproducing a moving image of normal operation provided as work auxiliary information and a play button 412b are displayed. An upper area 413a of the instruction/operation area 413 shows the situation at the time of the request for support from the robot or the current situation, and in FIG. A region 413b in which beverages are arranged is a region for inputting a request of the customer 10, and a lower circle mark is an enter button 413c. While confirming the moving image of the normal operation reproduced in the area 412a, the operator judges the customer's request from the moving image and voice (environmental information 565) of the correspondence with the customer 10, A desired item is selected, and an instruction is transmitted to the reception robot 51 by the decision button 413c. Instead of specifying the desired beverage 11, the UI terminal 41 may be connected to the reception robot 51, and the operator may respond to the customer 10 by voice, video, or text to specify the beverage 11 desired.

次に、アームロボット52が、受付ロボット51から要望の飲料11の情報を引き継いだが、飲料プールから飲料11の把持に失敗した場合の例を説明する。アームロボット52が「把持中」の作業中、ピッキング対象物を判別できない場合、エラー検出手段57が「判別不可」と認識する。さらに、アームロボット52は、環境情報取得手段58の画像取得手段によって飲料プールを録画し、支援要請手段55によって、ネットワーク3を介してロボット情報561及び動作状況情報562を支援管理サーバ2に送信する。動作状況情報562には、「把持中」というタスク情報561を含み、さらに「判別不可」というエラー情報564、録画した飲料プールの画像(環境情報565)、ピッキング対象物である要望の飲料11の情報を含んでいてもよい。 Next, an example will be described in which the arm robot 52 takes over the information on the desired beverage 11 from the reception robot 51, but fails to grip the beverage 11 from the beverage pool. When the arm robot 52 cannot determine the picking object during the work of "holding", the error detection means 57 recognizes "unidentifiable". Furthermore, the arm robot 52 records the beverage pool by the image acquisition means of the environment information acquisition means 58, and transmits robot information 561 and operation status information 562 to the support management server 2 via the network 3 by the support request means 55. . The operation status information 562 includes the task information 561 "being grasped", the error information 564 "unidentifiable", the image of the recorded beverage pool (environmental information 565), and the requested beverage 11, which is the object to be picked. May contain information.

管理支援サーバ2は、上記受付ロボット51の場合と同様に、適切なオペレータのいるUI端末を選択し、作業補助情報データベース22と突き合わせて作業補助情報221を選択する。例えば、管理支援サーバ2は、作業補助情報データベース22bを用いて、ロボット情報561及び「把持中」というタスク情報561、並びに選択したUI端末の言語情報からID5-2の動画を選択し、UI端末に送信する。さらに、管理支援サーバ2は、ロボットから受信した動作状況情報562、例えば録画した飲料プールの画像(環境情報565)、ピッキング対象物である要望の飲料11の情報等をUI端末に送信してもよい。なお、動作状況情報562は、アームロボット52からUI端末に直接送信してもよい。 As in the case of the reception robot 51 , the management support server 2 selects a UI terminal with an appropriate operator, matches it with the work assistance information database 22 , and selects work assistance information 221 . For example, the management support server 2 selects the moving image of ID5-2 from the robot information 561 and the task information 561 "holding", and the language information of the selected UI terminal, using the work auxiliary information database 22b, Send to Furthermore, the management support server 2 may transmit the operation status information 562 received from the robot, for example, the image of the recorded beverage pool (environmental information 565), the information of the desired beverage 11 that is the object to be picked, etc. to the UI terminal. good. The operation status information 562 may be directly transmitted from the arm robot 52 to the UI terminal.

図14は、UI端末41の表示画面411の一例であり、右側に作業補助情報用領域412が表示され、左側に指示・操作領域413が表示されている。作業補助情報用領域412には、作業補助情報として提供された正常時の動作の動画を再生する領域412aと再生ボタン412bが表示されている。指示・操作領域413には、実際の飲料プールの画像とピッキング対象物である無印の飲料11が示されている。領域413において、点線で示された飲料11aは、アームロボット52が通常時において把持する位置であり、実線で示された飲料11bは、実際の位置である。アームロボット52は、通常時において把持する位置に飲料が無かったため「判別不可」のエラーとなった。オペレータは領域412aに再生された正常時の動作の動画を確認しつつ、ピッキング対象物を破線414で選択して指示した。なお、ピッキング対象物を指示するのではなく、UI端末41をアームロボット52と接続して、オペレータがアームロボット52のハンドを操作して要望する飲料11bを把持してもよい。 FIG. 14 shows an example of a display screen 411 of the UI terminal 41, in which a work assistance information area 412 is displayed on the right side and an instruction/operation area 413 is displayed on the left side. In the work auxiliary information area 412, an area 412a for reproducing a moving image of normal operation provided as work auxiliary information and a play button 412b are displayed. An instruction/operation area 413 shows an image of an actual beverage pool and an unmarked beverage 11 that is an object to be picked. In the area 413, the beverage 11a indicated by the dotted line is the position that the arm robot 52 normally grips, and the beverage 11b indicated by the solid line is the actual position. Since the arm robot 52 did not have a beverage at the gripping position under normal conditions, an error of "unidentifiable" occurred. The operator selects and instructs a picking object with a dashed line 414 while confirming the moving image of normal operation reproduced in the area 412a. The UI terminal 41 may be connected to the arm robot 52 and the operator may operate the hand of the arm robot 52 to pick up the desired beverage 11b instead of indicating the picking object.

さらに、位置推定手段59により自己位置を推定しつつ移動する搬送ロボット53が、自己位置を喪失した場合にオペレータに支援を求める場合の例を説明する。図15(A)は、搬送ロボット53の移動範囲の間取りを示す地図情報70を示しており、事前に建物の間取り図、建築図面などの既存の地図を取り込んで作成してもよいし、事前に搬送ロボット53の移動範囲内を移動させて環境情報取得手段58を使用したSLAM(Simultaneous Localization and Mapping)によって、自己位置推定と環境地図作成を同時に行って取得してもよいし、他の移動体又は他のコンピュータで作成された地図情報を使用してもよい。 Further, an example will be described in which the transport robot 53, which moves while estimating its own position by the position estimating means 59, asks the operator for assistance when it loses its own position. FIG. 15A shows map information 70 indicating the floor plan of the movement range of the transport robot 53, which may be created in advance by importing an existing map such as a floor plan of a building or an architectural drawing. Simultaneous Localization and Mapping (SLAM) using the environment information acquisition means 58 by moving the transport robot 53 within the movement range of the transport robot 53 may simultaneously perform self-position estimation and environment map creation and acquire it. Body or other computer generated map information may be used.

図15(B)は、UI端末41の表示画面411の一例であり、右側に作業補助情報用領域412が表示され、左側に指示・操作領域413が表示されている。指示・操作領域413には、現状の間取り71が示されており、地図情報70にはない物体71aが存在している。搬送ロボット53は、この図では部屋の左下に位置している。搬送ロボット53は、移動手段として4つの車輪を有し、環境情報取得手段58としてLiDAR及びカメラを有し、さらに位置推定手段59を有している。LiDARは、マイクロパルスレーザ光を所定のステップ角度毎に順次照射し、周囲の壁などの障害物で反射光や散乱光を発生させ、戻ってきた反射光又は散乱光をLiDARの検出器で検出し、照射してから戻ってくるまでの時間を計測することにより各測定点までの距離及び方向を測定することにより、環境情報として、LiDARを中心とした各障害物の極座標(距離,角度)を得ることができる。なお、各測定点の極座標を直交座標に変換してもよい。そして、位置推定手段59がLiDARで取得した環境情報と、事前に準備した地図情報70とを整合させて自己位置を推定する。 FIG. 15B shows an example of the display screen 411 of the UI terminal 41, in which a work assistance information area 412 is displayed on the right side and an instruction/operation area 413 is displayed on the left side. The current floor plan 71 is shown in the instruction/operation area 413, and an object 71a not included in the map information 70 exists. The transport robot 53 is located in the lower left corner of the room in this figure. The transport robot 53 has four wheels as moving means, a LiDAR and a camera as environment information acquiring means 58 , and a position estimating means 59 . LiDAR sequentially irradiates micropulse laser light at each predetermined step angle, generates reflected light or scattered light from obstacles such as surrounding walls, and detects the returned reflected light or scattered light with the LiDAR detector. Then, by measuring the time from irradiation to return, the distance and direction to each measurement point are measured, and the polar coordinates (distance, angle) of each obstacle centered on LiDAR as environmental information can be obtained. Note that the polar coordinates of each measurement point may be converted into rectangular coordinates. Then, the position estimation means 59 matches the environment information acquired by LiDAR with the map information 70 prepared in advance to estimate the self position.

図16(A)及び(B)は、搬送ロボット53が、地図上にない物体71aがあるために自己位置を喪失した状態を説明するための図である。図16(A)は現状の間取り71における実際の搬送ロボット53の位置を示し、図16(B)は、地図上にない物体71aのため、搬送ロボット53が環境情報取得手段58(LiDAR)で取得した黒丸で示す各測定点が地図情報70と一致せず、自己位置を実際よりも左の位置に誤認識している状態を示している。図16(B)の矢印は、物体71aによって地図情報上では測定点がずれていることを示している。さらに、図16(B)では、右側の作業補助情報用領域412に復旧手順に使える操作方法が表示されている。上段の領域412aには、搬送ロボット53の操作方法が動画で説明されており、オペレータは、領域412aを参照しつつ、搬送ロボット53の移動や環境情報取得のための方向を操作することができる。中段の領域412bには、搬送ロボット53のカメラから取得した画像情報が表示され、下段の領域412cには、搬送ロボット53から取得したLiDARの環境情報が表示されている。 16A and 16B are diagrams for explaining a state in which the transport robot 53 has lost its own position due to an object 71a not on the map. FIG. 16A shows the actual position of the transport robot 53 in the current floor plan 71, and FIG. Each acquired measurement point indicated by a black circle does not match the map information 70, indicating a state in which the self-position is erroneously recognized as being to the left of the actual position. The arrow in FIG. 16B indicates that the measurement point is shifted on the map information by the object 71a. Furthermore, in FIG. 16B, an operation method that can be used for the recovery procedure is displayed in the work auxiliary information area 412 on the right side. In the upper area 412a, the operation method of the transport robot 53 is explained by animation, and the operator can operate the movement of the transport robot 53 and the direction for acquiring environmental information while referring to the area 412a. . Image information acquired from the camera of the transport robot 53 is displayed in the middle area 412b, and environment information of LiDAR acquired from the transport robot 53 is displayed in the lower area 412c.

図17(A)は、指示・操作領域413に搬送ロボット53の環境情報取得手段58のカメラによって取得した周囲の画像情報72を表示した図である。画像情報72は、搬送ロボット53が自己位置を喪失した位置において撮影された画像である。オペレータは、UI端末41の入力手段44を操作してカーソル73により、画像情報上の一点を選択し、暫定目的地73aを設定し、搬送ロボット53に暫定目的地73aを送信する。また、図17(B)は、指示・操作領域413に搬送ロボット53の環境情報取得手段58のLiDARによって取得した周囲の環境情報74を表示した図である。オペレータは、UI端末41の入力手段44を操作してカーソル73により、環境情報上の一点を選択し、暫定目的地73aを設定してもよい。 FIG. 17A shows surrounding image information 72 acquired by the camera of the environment information acquiring means 58 of the transport robot 53 displayed in the instruction/operation area 413 . The image information 72 is an image captured at a position where the transport robot 53 has lost its own position. The operator operates the input means 44 of the UI terminal 41 to select one point on the image information with the cursor 73 , sets the provisional destination 73 a , and transmits the provisional destination 73 a to the transport robot 53 . FIG. 17B is a diagram showing surrounding environment information 74 acquired by the LiDAR of the environment information acquiring means 58 of the transport robot 53 displayed in the instruction/operation area 413 . The operator may operate the input means 44 of the UI terminal 41 to select one point on the environment information with the cursor 73 to set the provisional destination 73a.

入力手段47による暫定目的地の設定は、例えば、キーボードで座標を入力してもよいし、ポインティングデバイスやタッチパネルで環境情報又は画像情報上の点を選択することにより、選択した座標を暫定目的地に選択してもよい。また、例えば、環境情報又は画像情報上に移動経路を描くことで経路の終点を暫定目的地として設定してもよい。入力手段47は、環境情報及び/又は画像情報を拡大又は縮小操作可能であってもよい。さらに、入力手段47は、地図情報における搬送ロボット53の現在位置を指定可能であってもよい。例えば、オペレータが環境情報及び/又は画像情報から搬送ロボット53の地図情報における現在位置が推定できた場合、入力手段47によって地図情報における移動体の現在位置を指定すると、搬送ロボット53は、指定された位置を自己位置として自律移動を再開できる。 The provisional destination can be set by the input means 47, for example, by inputting coordinates with a keyboard, or by selecting a point on environmental information or image information with a pointing device or a touch panel, and setting the selected coordinates to the provisional destination. You may choose to Also, for example, by drawing a travel route on environmental information or image information, the end point of the route may be set as the provisional destination. The input means 47 may be capable of enlarging or reducing environmental information and/or image information. Furthermore, the input means 47 may be capable of designating the current position of the transport robot 53 in the map information. For example, when the operator can estimate the current position of the transport robot 53 in the map information from the environmental information and/or the image information, when the input means 47 specifies the current position of the mobile object in the map information, the transport robot 53 is moved to the specified location. Autonomous movement can be resumed with the current position as the self-position.

図18(A)は、オペレータが指示した暫定目的地73aに到達した状態を示す図であり、移動中の各位置において取得した環境情報(近傍SLAMのみの表示)を示している。搬送ロボット53は、移動中も継続的に環境情報を取得し、環境情報の取得位置を現在位置として、環境情報に設定された暫定目的地73aに向けた移動を繰り返す。図18(A)は、搬送ロボット53が自己位置を喪失した地点から暫定目的地73aまでの移動中に新たに取得した周囲の環境情報74の総和を示している。暫定目的地73aに到着した搬送ロボット53は、その位置において位置情報検出手段が自己位置を推定可能か判定する。現在の自己位置推定に成功すれば、自律移動に復帰することができ、失敗すれば、再びUI端末41に暫定目的地の設定を要求するか、UI端末41の作業補助情報による操作を待つ。現在位置推定に成功した場合は、暫定目的地73aまでの移動で取得した環境情報を地図情報に反映させることが好ましい。図18(B)は、暫定目的地73aにおいて、搬送ロボット53の現在位置推定に成功し、新たに取得した周囲の環境情報の総和を反映させた地図情報75を示す。 FIG. 18A is a diagram showing a state in which the temporary destination 73a designated by the operator has been reached, and shows environmental information (display of only neighboring SLAMs) acquired at each position during movement. The transport robot 53 continuously acquires the environment information while moving, and repeats movement toward the provisional destination 73a set in the environment information with the acquisition position of the environment information as the current position. FIG. 18(A) shows the total sum of ambient environment information 74 newly acquired while the transport robot 53 is moving from the point where the self-position is lost to the temporary destination 73a. The transport robot 53 that has arrived at the temporary destination 73a determines whether the position information detecting means can estimate its own position at that position. If the current self-position estimation succeeds, it can return to autonomous movement. If it fails, it again requests the UI terminal 41 to set a temporary destination, or waits for an operation based on the work assistance information of the UI terminal 41 . If the current position is successfully estimated, it is preferable to reflect the environmental information acquired during the movement to the temporary destination 73a in the map information. FIG. 18B shows map information 75 in which the current position of the transport robot 53 has been successfully estimated at the provisional destination 73a, and the sum total of newly acquired surrounding environmental information is reflected.

図19は、地図情報では存在していた物体71aが実際には存在しなかった状況におけるUI端末41の表示画面411の一例であり、右側に作業補助情報用領域412a、412b、412cが表示され、左側に指示・操作領域413が表示されている。搬送ロボット53は、物体71aに近接する位置まで移動したところ、物体71aが存在しておらず、異常を検知して緊急停止した状態である。右上の領域412aには、正常であった場合の期待されるRGBの画像が表示され、右中央の領域412bには、熱画像カメラの画像又は熱画像カメラの画像に基づくCG画像が表示され、右下の領域412cには、実際の熱画像カメラの画像が表示されている。熱画像を用いることにより、暗所等のRGBカメラでは適していない環境であっても、オペレータに作業補助情報を提供できる。オペレータは、正常な画像412a、412bと実際の画像412cとを比較して、物体71aが存在しないことを前提として、ロボットを操作又は指示して正常動作に復帰させる。 FIG. 19 shows an example of the display screen 411 of the UI terminal 41 in a situation where the object 71a that exists in the map information does not actually exist. , an instruction/operation area 413 is displayed on the left side. When the transport robot 53 moves to a position close to the object 71a, the object 71a does not exist, and an abnormality is detected and an emergency stop is made. The upper right area 412a displays an RGB image expected to be normal, and the right center area 412b displays a thermal imaging camera image or a CG image based on the thermal imaging camera image, An image of an actual thermal imaging camera is displayed in the lower right area 412c. By using the thermal image, it is possible to provide the operator with work assistance information even in environments such as dark places that are not suitable for RGB cameras. The operator compares the normal images 412a and 412b with the actual image 412c, and on the premise that the object 71a does not exist, operates or instructs the robot to return to normal operation.

図20は、地図情報では存在していた物体71aが実際には存在せず、未確認の物体が存在していた状況におけるUI端末41の表示画面411の一例であり、右側に作業補助情報用領域412a、412bが表示され、左側に指示・操作領域413が表示されている。搬送ロボット53は、物体71aに近接する位置まで移動したところ、物体71aが存在せず、未確認の物体が存在していたため、自己位置を喪失した状態である。右上の領域412aには、正常であった場合の期待される画像に画像認識した判別結果がオーバーレイされた画像が表示されている。右下の領域412bには、実際の画像に画像認識した判別結果がオーバーレイされた画像が表示されている。オペレータは、正常な画像412aと実際の画像412bとを比較して、正常な状態では、正面に物体71aが配置されているはずが、実際には物体71aが存在せずに、部品Aが落ちていることを認識して、部品Aを回避するようロボットを操作又は指示して正常動作に復帰させる。なお、判別結果の数字は、認識精度であり、画像認識の正確性を示すものであり、オペレータへの参考情報として表示することが好ましいが、認識精度を表示しなくてもよい。 FIG. 20 shows an example of the display screen 411 of the UI terminal 41 in a situation where the object 71a that exists in the map information does not actually exist and an unidentified object exists. 412a and 412b are displayed, and an instruction/operation area 413 is displayed on the left side. When the transport robot 53 moves to a position close to the object 71a, the object 71a does not exist, and an unidentified object exists, so that the transport robot 53 loses its own position. In the upper right area 412a, an image is displayed in which the determination result of image recognition is overlaid on the expected image in the case of normality. In the lower right area 412b, an image is displayed in which the determination result of image recognition is overlaid on the actual image. The operator compares the normal image 412a and the actual image 412b, and finds that the object 71a should be placed in front in the normal state, but the object 71a actually does not exist and the part A falls. recognizing that the robot is moving, the robot is operated or instructed to avoid the part A to return to normal operation. The number of the determination result is the recognition accuracy, which indicates the accuracy of the image recognition, and is preferably displayed as reference information for the operator, but the recognition accuracy does not have to be displayed.

図21は、地図情報では存在していた物体71aが実際には存在しなかった状況におけるUI端末41の表示画面411の一例であり、右側に作業補助情報用領域412a、412bが表示され、左側に指示・操作領域413が表示されている。搬送ロボット53は、物体71aに近接する位置まで移動したところ、予定されていた近距離の物体71aが存在せず、LiDARによって遠距離に未確認の障害物を検出したため、自己位置を喪失した状態である。右上の領域412aには、正常であった場合のRGB画像が表示されている。右下の領域412bには、実際のLiDAR点群又はLiDAR点群に基づく3DCG画像が表示されている。右下の領域412bにおいて、ロボットのLiDARが配置された自己位置415aから離れた位置415bに柱71bに基づく障害物を検出した。オペレータは、地図情報、正常な画像412a及び実際の画像412bとを比較して、物体71aが存在せず、柱71bを障害物として検知したことを前提として、ロボットを操作又は指示して正常動作に復帰させる。 FIG. 21 shows an example of the display screen 411 of the UI terminal 41 in a situation where the object 71a that exists in the map information does not actually exist. , an instruction/operation area 413 is displayed. When the transfer robot 53 moved to a position close to the object 71a, the intended short-range object 71a did not exist, and the LiDAR detected an unidentified obstacle in the long range. be. An upper right area 412a displays an RGB image in the normal case. The lower right area 412b displays an actual LiDAR point group or a 3DCG image based on the LiDAR point group. In the lower right region 412b, an obstacle based on the pillar 71b was detected at a position 415b away from the self-position 415a where the robot's LiDAR was placed. The operator compares the map information, the normal image 412a, and the actual image 412b, and on the premise that the object 71a does not exist and the pillar 71b is detected as an obstacle, operates or instructs the robot to operate normally. return to

図22は、UI端末における通知設定453の一例である。通知設定453は、支援管理サーバ2から提供される情報のうち必要な情報及び不要な情報の設定であり、各オペレータが個別に設定可能である。通知設定453は、作業補助情報ID、オペレータID、及び通知要否を含む。作業補助情報IDは、図10の作業補助情報データベース22aのID220と対応付けられている。オペレータIDはオペレータを一意に識別する情報である。通知要否は通知が必要なもの(ON)と不要なもの(OFF)を設定できる。図22(A)は、ABCというIDのオペレータの通知設定453であるが、作業に不慣れなため全ての作業補助情報の通知をONとしている。図22(B)は、XYZというIDのオペレータの通知設定453であるが、作業に熟練しているため全ての作業補助情報の通知をOFFとしている。図22(C)は、いろはというIDのオペレータの通知設定453であるが、倉庫に関する作業は慣れているため通知をOFFとしているが、他は通知をONとしている。このように、オペレータごとに通知要否を設定することで効率的な作業が可能である。 FIG. 22 is an example of notification settings 453 in the UI terminal. The notification setting 453 is a setting of necessary information and unnecessary information among the information provided from the support management server 2, and can be individually set by each operator. The notification setting 453 includes a work assistance information ID, an operator ID, and necessity of notification. The work assistance information ID is associated with the ID 220 of the work assistance information database 22a of FIG. The operator ID is information that uniquely identifies an operator. Notification necessity can be set to those requiring notification (ON) and those not requiring notification (OFF). FIG. 22A shows the notification settings 453 of an operator with an ID of ABC, but since he is unfamiliar with the work, notification of all work assistance information is turned ON. FIG. 22B shows the notification settings 453 of the operator with the ID XYZ, but because he is skilled in the work, notification of all work assistance information is turned off. FIG. 22C shows the notification setting 453 of the operator with the ID Iroha. Since the operator is accustomed to work related to the warehouse, the notification is turned off, but the other operators turn the notification on. In this way, by setting the necessity of notification for each operator, efficient work is possible.

1 ロボット支援システム
2 支援管理サーバ
3 ネットワーク
6 記憶サーバ
41、42 ユーザインターフェース端末(UI端末)
51 受付ロボット
52 アームロボット
53 搬送ロボット
1 robot support system 2 support management server 3 network 6 storage server 41, 42 user interface terminal (UI terminal)
51 reception robot 52 arm robot 53 transport robot

Claims (10)

ロボットと、支援管理サーバと、ユーザインターフェース端末とを含むロボット支援システムであって、
前記ロボットと前記支援管理サーバとは、ネットワークを介して接続可能であり、前記支援管理サーバと前記ユーザインターフェース端末とは、ネットワークを介して接続可能であり、
前記ロボットは、複数の作業を自律的に実行可能な制御手段と、前記支援管理サーバに支援要請を実行可能な支援要請手段と、ロボット情報を記憶した記憶手段とを含み、前記支援要請手段は、各作業に関するタスク情報を含む動作状況情報又は前記動作状況情報及び前記ロボット情報を前記支援管理サーバに提供可能であり、
前記支援管理サーバは、状況情報及び/又はロボット情報と関連付けられた作業補助情報が記憶された作業補助情報データベースを含み、前記作業補助情報データベースを用いて前記ロボットから提供された動作状況情報及び/又は前記ロボット情報に基づいて作業補助情報を選択し、選択した作業補助情報を前記ユーザインターフェース端末に提供可能であり、
前記ユーザインターフェース端末は、前記ロボットを指示又は操作可能な入力手段と、出力手段とを含み、前記出力手段によって前記支援管理サーバから提供された作業補助情報をユーザに提供可能である、ロボット支援システム。
A robot support system including a robot, a support management server, and a user interface terminal,
The robot and the support management server are connectable via a network, the support management server and the user interface terminal are connectable via a network,
The robot includes control means capable of autonomously executing a plurality of tasks, support request means capable of requesting support from the support management server, and storage means storing robot information, wherein the support request means , the operation status information including task information about each work or the operation status information and the robot information can be provided to the support management server;
The support management server includes a work assistance information database in which work assistance information associated with status information and/or robot information is stored. Alternatively, work assistance information can be selected based on the robot information, and the selected work assistance information can be provided to the user interface terminal,
The robot support system, wherein the user interface terminal includes an input means capable of instructing or operating the robot and an output means, and the output means can provide the user with work assistance information provided from the support management server. .
前記作業補助情報は、前記ロボットの作業内容を含む、請求項1に記載のロボット支援システム。 2. The robot support system according to claim 1, wherein said work assistance information includes work content of said robot. 前記作業補助情報は、前記作業補助情報に関連付けられたタスク情報に対応する作業の正常動作を記録した動画、静止画又は音声、前記作業補助情報に関連付けられたロボット識別情報に対応するロボットの正常動作を記録した動画、静止画又は音声、及び/又は正常時に期待される状況を示す動画、静止画又は音声を含む、請求項1又は2に記載のロボット支援システム。 The work assistance information may be a moving image, still image, or sound recording normal operation of the work corresponding to the task information associated with the work assistance information, or a normal operation of the robot corresponding to the robot identification information associated with the work assistance information. 3. The robot assistance system according to claim 1 or 2, comprising moving images, still images or sounds recording actions and/or moving images, still images or sounds showing expected situations in normal times. 前記支援管理サーバは、前記ロボットの複数の作業の正常動作を時系列に記録した動画を当該ロボットのタスク情報に対応付けて作業ごとに区分して前記作業補助情報データベースに記憶しており、前記作業補助情報として前記ロボットから提供された動作状況情報に含まれるタスク情報に対応する区分の動画を前記ユーザインターフェース端末に提供可能である、請求項1~3の何れか1項に記載のロボット支援システム。 The support management server stores, in the work assistance information database, moving images recorded in time series of normal operations of a plurality of tasks of the robot in association with task information of the robot, classified for each task, and 4. The robot support according to any one of claims 1 to 3, wherein the user interface terminal can be provided with moving images of categories corresponding to task information included in the operation status information provided from the robot as work assistance information. system. 前記ロボットは、エラー検出手段を含み、前記エラー検出手段で検出したエラー情報を前記支援管理サーバに提供可能であり、
前記作業補助情報データベースは、前記作業補助情報をエラー情報と関連付けて記憶しており、
前記支援管理サーバは、前記ロボットから提供されたエラー情報に基づいて前記作業補助情報データベースを検索し、検索された作業補助情報を前記ユーザインターフェース端末に提供可能である、請求項1~4の何れか1項に記載のロボット支援システム。
The robot includes error detection means, and can provide error information detected by the error detection means to the support management server;
The work assistance information database stores the work assistance information in association with error information,
5. The support management server according to any one of claims 1 to 4, wherein the support management server searches the work assistance information database based on the error information provided from the robot, and can provide the retrieved work assistance information to the user interface terminal. 1. The robot support system according to claim 1.
前記ユーザインターフェース端末は、前記支援管理サーバに対し、前記ロボットの複数の作業について、個別に作業補助情報の送信の要否を設定可能である、請求項1~5のいずれか1項に記載のロボット支援システム。 6. The user interface terminal according to any one of claims 1 to 5, wherein the user interface terminal can individually set whether or not to transmit work assistance information for a plurality of tasks of the robot to the support management server. Robotic assistance system. 前記作業補助情報データベースは、前記作業補助情報を言語に関する言語情報と関連付けて記憶しており、
前記ユーザインターフェース端末は、ユーザが使用する言語情報を前記支援管理サーバに通知可能であり、
前記支援管理サーバは、前記ユーザインターフェース端末から提供された言語情報に基づいて前記作業補助情報データベースを検索し、検索された作業補助情報を前記ユーザインターフェース端末に提供可能である、請求項1~6の何れか1項に記載のロボット支援システム。
The work assistance information database stores the work assistance information in association with linguistic information,
The user interface terminal is capable of notifying the support management server of language information used by the user,
6. The support management server is capable of searching the work assistance information database based on language information provided from the user interface terminal and providing the retrieved work assistance information to the user interface terminal. The robot assistance system according to any one of Claims 1 to 1.
前記ロボット情報は、各ロボットを一意に特定するロボット識別情報、ロボットの種類を特定するロボット種別情報、及びロボットの稼働場所を特定する稼働場所情報の少なくとも1つを含み、
前記支援管理サーバは、前記ロボット識別情報と対応付けて、当該ロボットに関するロボット種別情報及び/又は稼働場所情報が記憶されたロボット情報データベースを含み、前記ロボットから提供された前記ロボット識別情報に基づいて前記ロボット種別情報及び/又は稼働場所情報を検索し、検索したロボット種別情報及び/又は稼働場所情報に基づいて作業補助情報を選択する、請求項1~7の何れか1項に記載のロボット支援システム。
The robot information includes at least one of robot identification information that uniquely identifies each robot, robot type information that identifies the type of robot, and operating location information that identifies the operating location of the robot,
The support management server includes a robot information database that stores robot type information and/or operating location information about the robot in association with the robot identification information, and based on the robot identification information provided from the robot: Robot support according to any one of claims 1 to 7, wherein the robot type information and/or the operating location information is searched, and work assistance information is selected based on the searched robot type information and/or the operating location information. system.
前記支援要請手段は、前記ロボットの周囲の環境情報、前記ロボットの周囲の画像情報、前記ロボットの周囲の音声情報、前記ロボットの地図上における位置情報、及び前記ロボットの構成要素の相対的な配置情報の少なくとも一つを取得し、前記動作状況情報に含めて前記支援管理サーバに提供可能である、請求項1~8の何れか1項に記載のロボット支援システム。 The support request means includes environmental information around the robot, image information around the robot, audio information around the robot, position information of the robot on a map, and relative arrangement of components of the robot. 9. The robot support system according to any one of claims 1 to 8, wherein at least one piece of information is obtained and included in said operation status information and provided to said support management server. 前記ロボットは、異なる作業を実行する種類の異なる複数のロボットを含み、各ロボットは、複数の稼働場所に配置されており、
前記ユーザインターフェース端末は、複数の拠点に配置されている、請求項1~9の何れか1項に記載のロボット支援システム。
The robots include a plurality of different types of robots that perform different tasks, each robot being placed at a plurality of operating locations;
10. The robot support system according to any one of claims 1 to 9, wherein said user interface terminals are arranged at a plurality of bases.
JP2022027111A 2021-02-26 2022-02-24 Robot supporting system Pending JP2022132166A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021030008 2021-02-26
JP2021030008 2021-02-26

Publications (1)

Publication Number Publication Date
JP2022132166A true JP2022132166A (en) 2022-09-07

Family

ID=83152788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022027111A Pending JP2022132166A (en) 2021-02-26 2022-02-24 Robot supporting system

Country Status (1)

Country Link
JP (1) JP2022132166A (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976182A (en) * 1995-09-18 1997-03-25 Fanuc Ltd Robot teaching control panel
JP2007190659A (en) * 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International Robot remote operation system
JP2007213190A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Communication robot improvement system
JP2009241166A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Robot remote operation system
JP2012111038A (en) * 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International Android control system
JP2014233814A (en) * 2013-06-04 2014-12-15 株式会社安川電機 Robot teaching auxiliary device, robot system and robot teaching method
US9050723B1 (en) * 2014-07-11 2015-06-09 inVia Robotics, LLC Human and robotic distributed operating system (HaRD-OS)
JP2017047519A (en) * 2015-09-04 2017-03-09 Rapyuta Robotics株式会社 Cloud robotics system, information processor, program, and method for controlling or supporting robot in cloud robotics system
US20180284760A1 (en) * 2017-03-28 2018-10-04 Amazon Technologies, Inc. Method and system for tele-operated inventory management system
WO2019212942A1 (en) * 2018-05-01 2019-11-07 Dexterity, Inc. Autonomous robot with on demand teleoperation
JP2020502636A (en) * 2016-11-28 2020-01-23 ブレーン コーポレーションBrain Corporation System and method for remote control and / or monitoring of a robot
JP2020202449A (en) * 2019-06-07 2020-12-17 キヤノン株式会社 Control apparatus
JP2021091077A (en) * 2019-12-10 2021-06-17 川崎重工業株式会社 Computer for video confirmation

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0976182A (en) * 1995-09-18 1997-03-25 Fanuc Ltd Robot teaching control panel
JP2007190659A (en) * 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International Robot remote operation system
JP2007213190A (en) * 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Communication robot improvement system
JP2009241166A (en) * 2008-03-28 2009-10-22 Advanced Telecommunication Research Institute International Robot remote operation system
JP2012111038A (en) * 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International Android control system
JP2014233814A (en) * 2013-06-04 2014-12-15 株式会社安川電機 Robot teaching auxiliary device, robot system and robot teaching method
US9050723B1 (en) * 2014-07-11 2015-06-09 inVia Robotics, LLC Human and robotic distributed operating system (HaRD-OS)
JP2017047519A (en) * 2015-09-04 2017-03-09 Rapyuta Robotics株式会社 Cloud robotics system, information processor, program, and method for controlling or supporting robot in cloud robotics system
JP2020502636A (en) * 2016-11-28 2020-01-23 ブレーン コーポレーションBrain Corporation System and method for remote control and / or monitoring of a robot
US20180284760A1 (en) * 2017-03-28 2018-10-04 Amazon Technologies, Inc. Method and system for tele-operated inventory management system
WO2019212942A1 (en) * 2018-05-01 2019-11-07 Dexterity, Inc. Autonomous robot with on demand teleoperation
JP2020202449A (en) * 2019-06-07 2020-12-17 キヤノン株式会社 Control apparatus
JP2021091077A (en) * 2019-12-10 2021-06-17 川崎重工業株式会社 Computer for video confirmation

Similar Documents

Publication Publication Date Title
US11830618B2 (en) Interfacing with a mobile telepresence robot
US10464212B2 (en) Method and system for tele-operated inventory management system
US20220357174A1 (en) Stand-alone self-driving material-transport vehicle
WO2021103987A1 (en) Control method for sweeping robot, sweeping robot, and storage medium
CN110888428B (en) Mobile robot, remote terminal, computer readable medium, control system, and control method
JP7179192B2 (en) Robot-assisted personnel routing
US20160103437A1 (en) Method and data presenting device for assisting a remote user to provide instructions
US11559902B2 (en) Robot system and control method of the same
WO2019169643A1 (en) Luggage transport method, transport system, robot, terminal device, and storage medium
US11052541B1 (en) Autonomous robot telerobotic interface
JP2018153874A (en) Presentation device, presentation method, program and work system
EP3945388B1 (en) Remote control method and system for robot
US20220221872A1 (en) Information processing device, information processing method, and program
JP2004243499A (en) Article handling system for living space, article handling method, and robot operating device
JP2022132166A (en) Robot supporting system
US20240051134A1 (en) Controller, robot system and learning device
CN111899629B (en) Flexible robot teaching system and method
WO2021039210A1 (en) Transport system, control device, transport method, and program
US11407117B1 (en) Robot centered augmented reality system
WO2023089943A1 (en) Management system, management method, and program
JP5872652B1 (en) Equipment status confirmation system
WO2023080230A1 (en) Management device, management system, management method, and management program
WO2024054797A1 (en) Visual robotic task configuration system
US20230294288A1 (en) Regulated region management system, mobile body management system, regulated region management method, and non-transitory storage medium
WO2023073780A1 (en) Device for generating learning data, method for generating learning data, and machine learning device and machine learning method using learning data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220816

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220916

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230307