JP7310297B2 - Work robot and its control method - Google Patents
Work robot and its control method Download PDFInfo
- Publication number
- JP7310297B2 JP7310297B2 JP2019096212A JP2019096212A JP7310297B2 JP 7310297 B2 JP7310297 B2 JP 7310297B2 JP 2019096212 A JP2019096212 A JP 2019096212A JP 2019096212 A JP2019096212 A JP 2019096212A JP 7310297 B2 JP7310297 B2 JP 7310297B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- human detection
- range
- detection area
- manipulator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 19
- 238000001514 detection method Methods 0.000 claims description 156
- 230000002093 peripheral effect Effects 0.000 claims 2
- 238000009434 installation Methods 0.000 claims 1
- 238000012937 correction Methods 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、作業ロボットおよびその制御方法に関し、特にマニピュレータを備えた作業ロボットおよびその制御方法に関する。 The present invention relates to a working robot and its control method, and more particularly to a working robot provided with a manipulator and its control method.
様々な分野においてロボットが使用されており、特に近年では、自律移動型ロボットなどと呼ばれる、サーバなどを利用して取得した情報と、リアルタイムでモニタして取得した情報とに基づいて、人間によるオペレーションを必要とせずに、所定の場所まで自律的に移動し、そこで作業をおこなうロボットが知られている。 Robots are used in a variety of fields, and in recent years in particular, autonomous mobile robots, which are called autonomous mobile robots, are being operated by humans based on information obtained using servers, etc., and information obtained through real-time monitoring. 2. Description of the Related Art Robots are known that autonomously move to a predetermined place and perform work there without the need for a robot.
このように自律走行や作業を担うロボットの多くには、走行や作業を円滑に行うべく障害物を検出する機能が設けられている。例えば、特許文献1には、環境情報取得手段により障害物および自己位置を認識しつつ障害物を回避しながら走行経路に沿って自律的に走行する自律移動装置が開示されている。また、特許文献2には、例えば、人を光学的に検知し、工作機械、産業用ロボット等の機械を緊急停止させるための光学安全センサの一例が開示されている。
In this way, most robots that are responsible for autonomous travel and work are provided with a function of detecting obstacles in order to facilitate smooth travel and work. For example,
作業ロボットに搭載される人検知装置は、人以外の物を人と誤って検知せず、正しく人を検知できるようにしておく必要がある。物を人と誤検知するようなことがあれば、円滑に作業を進めることができない。特に、作業ロボットは、作業場所等の周囲環境が様々であったり、自律的に移動していく過程で複数の地点で作業をおこなったりするものがある。そのため、周囲環境の変化に対応できる人検知装置を搭載した作業ロボットの実現が求められる。 A human detection device mounted on a working robot needs to be able to correctly detect a person without erroneously detecting an object other than a person as a person. If an object is mistakenly detected as a person, work cannot proceed smoothly. In particular, some work robots have various surrounding environments such as work places, and work at a plurality of points in the course of autonomous movement. Therefore, there is a demand for a work robot equipped with a human detection device that can respond to changes in the surrounding environment.
本発明の一態様は、正しく人を検知することができる作業ロボットおよびその制御方法を提供することを目的とする。 An object of one aspect of the present invention is to provide a working robot and a control method thereof that can accurately detect a person.
前記の課題を解決するために、本発明の一態様に係る作業ロボットは、作業ロボットの周囲における人以外の物に関する情報である周囲情報を取得する周囲情報用取得部と、前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知用部と、前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更部とを備えている。 In order to solve the above-described problems, a working robot according to one aspect of the present invention includes a surrounding information acquisition unit that acquires surrounding information, which is information about objects other than people around the working robot, and and a detection area changing unit for changing the range of the human detection area according to the surrounding information.
前記の構成によれば、前記周囲情報に基づいて人検知エリアが適切に設定されることにより、人検知用部において物を人と誤検知することがなく、良好な人検知を実現し、マニピュレータによる作業を円滑におこなうことを可能にする作業ロボットを提供することができる。 According to the above configuration, the human detection area is appropriately set based on the surrounding information, so that the human detection unit does not erroneously detect an object as a person, thereby achieving good human detection and enabling the manipulator to operate. It is possible to provide a work robot that can smoothly perform work by.
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記検知エリア変更部は、前記人検知エリアの範囲を、前記人検知部が有する人検知の可能範囲から、当該可能範囲に在る前記物の配設範囲を除いた範囲とする構成となっている。 Further, in the work robot according to an aspect of the present invention, in the configuration described above, the detection area changing unit changes the range of the human detection area from a human detection possible range of the human detection unit to the human detection possible range. It is configured to be a range excluding the arrangement range of the existing objects.
前記の構成によれば、人検知エリアが物のない領域に設定されるため、人検知エリアにおいて物を人と誤検知することがなく、該エリアに居るまたは該エリアに侵入してきた人を正確に検知することができる。 According to the above configuration, since the human detection area is set in an area where there is no object, there is no false detection of an object as a person in the human detection area, and a person who is in the area or has entered the area can be accurately detected. can be detected.
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部が、前記物に付されたRFIDタグまたは近接センサの検出体を検出する構成であってもよい。 In the above configuration, the working robot according to an aspect of the present invention may be configured such that the ambient information acquisition unit detects a detection body of an RFID tag or a proximity sensor attached to the object.
前記の構成によれば、簡易な構成により、周囲情報を取得することができる。 According to the above configuration, it is possible to acquire surrounding information with a simple configuration.
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部が、前記物を検出する範囲センサであり、前記作業ロボットと当該物との距離、および当該物の配置角度に関する情報を前記周囲情報として取得する構成となっていてもよい。 Further, in the working robot according to an aspect of the present invention, in the configuration described above, the ambient information acquisition unit is a range sensor that detects the object, and the distance between the working robot and the object and the distance between the object and the object are detected. Information about the arrangement angle may be acquired as the surrounding information.
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部は、前記人検知部による人検知が不可能な領域に在る前記物を検出する構成であってもよい。 Further, in the working robot according to an aspect of the present invention, in the configuration described above, the ambient information acquisition unit detects the object located in an area where the human detection unit cannot detect a person. good too.
前記の構成によれば、いわゆる(人検知部の)死角にあたる領域の物を検出することができる。 According to the above configuration, it is possible to detect an object in the so-called blind spot (of the human detector).
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部は、前記物に付されたRFIDタグを読み出すリーダライタであり、前記周囲情報用取得部は、前記RFIDタグから、前記物の形状を示す情報を取得し、前記検知エリア変更部は、前記物の形状を示す情報に基づいて、前記人検知エリアを当該物のない領域に変更する構成となっていてよい。 Further, in the working robot according to an aspect of the present invention, in the configuration described above, the ambient information acquisition unit is a reader/writer that reads an RFID tag attached to the object, and the ambient information acquisition unit includes the Information indicating the shape of the object is acquired from the RFID tag, and the detection area changing unit changes the human detection area to an area without the object based on the information indicating the shape of the object. you can
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記検知エリア変更部は、マップ情報から前記物の位置を特定する。 Further, in the working robot according to one aspect of the present invention, in the configuration described above, the detection area changing unit identifies the position of the object from map information.
また、本発明の一態様に係る作業ロボットは、前記の構成において、移動機構を更に備えたモバイルマニピュレータであってもよい。 In addition, the working robot according to one aspect of the present invention may be a mobile manipulator further provided with a moving mechanism in the above configuration.
また、本発明の一態様に係る作業ロボットは、前記の構成において、前記人検知部がレーザスキャナであってよい。 Further, in the working robot according to one aspect of the present invention, in the configuration described above, the human detection unit may be a laser scanner.
また、前記の課題を解決するために、本発明の一態様に係る作業ロボットの制御方法は、作業ロボットの周囲における人以外の物に関する情報である周囲情報を取得する周囲情報用取得ステップと、前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知ステップと、前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更ステップとを含む。 In order to solve the above-described problems, a working robot control method according to an aspect of the present invention includes a surrounding information obtaining step of obtaining surrounding information, which is information about an object other than a person in the surroundings of the working robot; A human detection step of detecting the presence or absence of a person in a human detection area set around the working robot, and a detection area changing step of changing the range of the human detection area according to the surrounding information.
前記の構成によれば、前記周囲情報に基づいて人検知エリアが適切に設定されることにより、物を人と誤検知することがなく、良好な人検知を実現し、マニピュレータによる作業を円滑におこなうことを可能にする作業ロボットを実現することができる。 According to the above configuration, since the human detection area is appropriately set based on the surrounding information, it is possible to achieve good human detection without erroneously detecting objects as humans, and to smoothly perform work with the manipulator. Working robots can be realized that allow
本発明の一態様によれば、正しく人を検知することができる作業ロボットを提供することができる。 According to one aspect of the present invention, it is possible to provide a working robot that can accurately detect a person.
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。
〔実施形態1〕
§1 適用例
以下、本発明の一実施形態について、図1から図5および図9を用いて説明する。
Hereinafter, an embodiment (hereinafter also referred to as "this embodiment") according to one aspect of the present invention will be described based on the drawings.
[Embodiment 1]
§1 Application Example An embodiment of the present invention will be described below with reference to FIGS. 1 to 5 and 9. FIG.
図1は、本発明に係る作業ロボットの一実施形態であるモバイルマニピュレータ1の概略外観図を、モバイルマニピュレータ1の使用環境とともに示した図である。図2は、モバイルマニピュレータ1の概略構成を示すブロック図である。
FIG. 1 is a diagram showing a schematic external view of a
図1に示す、本実施形態1のモバイルマニピュレータ1(作業ロボット)は、自律走行型のロボットであり、且つ搭載したマニピュレータ4によって所定の作業をおこなう。本実施形態1のモバイルマニピュレータ1は、所定の位置(以下、ゴール位置と記載)まで自律的に走行し、ゴール位置に到着すると走行を停止した状態で、マニピュレータ4によって所定の作業をおこなう態様である。
A mobile manipulator 1 (working robot) according to the first embodiment shown in FIG. 1 is an autonomously traveling robot, and carries out a predetermined work by means of a
より具体的には、本実施形態1のモバイルマニピュレータ1は、図1のような使用環境下において作業することを想定している。このような使用環境下において、モバイルマニピュレータは、作業棚WSの前に停止し、作業棚WSの上においてマニピュレータによって作業をする。更に本実施形態1のモバイルマニピュレータ1は、作業を開始する前に、自機周囲に人Pの有無を検知し、人が居ないことを確認してからマニピュレータ4による作業を開始する。
More specifically, it is assumed that the
ところで、従前において、固定された場所でレーザスキャナのみで人を検知する技術や、レーザスキャナで周囲の環境情報を取得し、画像処理をおこなって人を検知する技術が知られている。しかしながら、自律走行型のロボットである場合、作業をおこなう環境(作業場所等)が変わることが想定されるため、周囲環境の変化を適切にとらえる必要があり、且つその環境下において人の検知を正しくおこなうことが要求される。これについて、更に説明すれば、従前のモバイルマニピュレータについても図1のような使用環境下において作業することが想定される。すなわち、従前のモバイルマニピュレータは、作業棚WSの前に停止し、作業棚WSの上においてマニピュレータによって作業をする。このときの当該モバイルマニピュレータに搭載した人検知用のレーザスキャナ303のスキャン範囲300(レーザスキャナ303が有する人検知の可能範囲)を図9に示すと、そのスキャン範囲300には、作業棚WSの一部分WSn(図9中の斜線部分)が入ってしまい、この一部分WSnが人として検知されてしまう。人が検知されていると、マニピュレータは動作を開始することができない。すなわち、この事態を避けるためには、物がおかれていない環境下でのみ、作業ロボットが任務を遂行することができ、ロボットの適用可能な環境下が限られてしまう。そこで、本発明者らは、この不都合を解消するべく鋭意検討をおこない、本発明を見出した。以下に、その一形態を説明する。
本実施形態であるモバイルマニピュレータ1は、周囲環境の情報を取得し、取得した周囲環境の情報に基づいて、人検知用装置の人検知エリアの範囲を、当該範囲に人以外の物が含まれることが無いように設定する。これにより、作業をおこなう環境が変わっても、その周囲環境の変化を適切にとらえて、その環境下において物を人と誤検知することなく、人の検知を正しくおこなうことを可能にしている。
By the way, conventionally, a technique of detecting a person at a fixed place only with a laser scanner and a technique of acquiring surrounding environment information with a laser scanner and performing image processing to detect a person are known. However, in the case of autonomous robots, it is assumed that the working environment (workplace, etc.) will change. You are required to do it right. To explain this further, it is assumed that conventional mobile manipulators also work under the usage environment shown in FIG. That is, the conventional mobile manipulator stops in front of the work shelf WS and performs work on the work shelf WS by the manipulator. FIG. 9 shows a
The
§2 構成例
(1)モバイルマニピュレータ1の構成
本実施形態1のモバイルマニピュレータ1は、周囲環境の変化を適切にとらえて人の検知を正しくおこなうために、図2に示すように、周囲環境用取得装置2(周囲情報用取得部)と、人検知用装置3(人検知部、検知エリア変更部)と、マニピュレータ4と、マニピュレータ制御部5と、移動制御部6と、移動機構7と、中央制御部8とを備えている。
§2 Configuration example (1) Configuration of the
周囲環境用取得装置2は、モバイルマニピュレータ1の周囲環境に関する情報(周囲情報)を取得するレーザスキャナである。レーザスキャナの構成は、周知の構成を使用することができるが、本実施形態1において搭載されている周囲環境用取得装置2には、モバイルマニピュレータ1の位置を中心として、モバイルマニピュレータ1の走行方向前方を少なくとも含む所定の角度範囲の周囲環境の情報(周囲情報)を取得する。これについて、図3を用いて説明する。
The surrounding
§3 動作例
図3は、本実施形態のモバイルマニピュレータ1の周囲環境用取得装置2のスキャン範囲2aを模式的に示した上面図である。図3に示すように、周囲環境用取得装置2は、モバイルマニピュレータ1の走行方向前方側に取り付けられており、そのスキャン範囲2aは、走行方向前方を中心として側方も含めた270°の角度範囲となっている。
§3 Operation Example FIG. 3 is a top view schematically showing the
このようなスキャン範囲2aを有する周囲環境用取得装置2によれば、モバイルマニピュレータ1が前進し、図3に示す位置に停止したときに、モバイルマニピュレータ1の前方にあたる位置にある作業棚WSを検出することができる。
According to the surrounding
周囲環境用取得装置2は、そのスキャン範囲2aに物体が在る場合、これをスキャンすることによってその物体までの距離を複数点poにおいて計測する。そして、計測結果から、その物体の形状に関する情報(モバイルマニピュレータ1の周囲環境に関する情報)を取得することができる。すなわち、図3に示す場合であれば、複数点poの計測結果を得て、これらをまとめることで、平らな面WSpを検出することができる。検出した平らな面WSpに関する情報は、モバイルマニピュレータ1に格納しているマップ情報と照合することにより、モバイルマニピュレータ1が、平らな面WSpを有する作業棚WSに正対しているか否かを判定することができる。すなわち、検出した平らな面WSpに関する情報から、モバイルマニピュレータ1と、作業棚WSとがなす角度に関する情報も取得することができる。
If there is an object in the
人検知用装置3は、人を検知することができるレーザスキャナである。レーザスキャナの構成としては、周囲環境用取得装置2のレーザスキャナの構成と同じで良い。人検知用装置3は、少なくともマニピュレータ4の作業予定範囲内に人の侵入があるか否かを検知する。上述のように、本実施形態1では、マニピュレータ4は、作業予定範囲内に人が居ないことを確認した後に作業を開始する態様となっている。そのため、少なくとも作業予定範囲を、人検知対象範囲に含む。
The
本実施形態1では、この人検知用装置3が、物を人と誤検知することなく、確実に人を検知することができる構成となっている点が、特徴の一つである。以下、これについて詳述する。
One of the features of the first embodiment is that the
本実施形態1のモバイルマニピュレータ1は、例えば先の図1に示すような作業棚WSに近接した状態でマニピュレータ4による作業をおこなう場合がある。要するに、人検知用装置3の、レーザスキャナ自体が本来有しているスキャン範囲(人検知の可能範囲)に作業棚WSが入る場合が想定される。作業棚のみならず、何も物が置かれていない環境下で作業することのほうが少なく、実環境では多くの場合、物に近接した状態で作業をおこなう。このように物に近接した状態で作業をおこなう場合であっても、人が周囲に居なければ、マニピュレータ4を動作させることができるよう、本実施形態1のモバイルマニピュレータ1は、人検知用装置3のスキャン範囲に含まれる人以外の物の情報を取得し、人検知用装置3の人検知エリアの範囲を設定する。要するに、作業棚が在る部分には人は侵入できないから、このことを利用して、人が検知されないことが予め解っている領域を、人検知エリアから除くことをする。要するに、人検知を人が侵入し得るエリアのみにフォーカスする。
The
具体的には、先述の周囲環境用取得装置2によって取得される情報には、人以外の物の情報、例えば、モバイルマニピュレータ1と物との距離、および物の配設角度、が含まれる。物の配設角度とは、図3に示す作業棚WSの平らな面WSpの配設角度のことである。そのため、この情報に基づけば、人検知用装置3のスキャン可能範囲から人検知エリアを絞ることができる。
Specifically, the information acquired by the surrounding
図4は、人検知エリアを示す上面図である。図4には、図3において図示した周囲環境用取得装置2のスキャン範囲2a(図4中の破線で示す範囲)と、作業棚WSとを併せて示している。
FIG. 4 is a top view showing the human detection area. FIG. 4 also shows the
図4に示すように、本実施形態1によれば、周囲環境用取得装置2によって取得される作業棚WSの情報に基づいて、人検知エリア(人検知エリア)の範囲を、人検知用装置3のスキャン範囲(図4中に一点破線で示す範囲)から、範囲B(図4中に太線で示す範囲)に変更する。範囲Bは、人検知用装置3のスキャン範囲から、スキャン範囲に在る作業棚の一部分の配設範囲である範囲C(斜線を付したエリア)を除いた領域に相当する。このエリア変更は、人検知用装置3においておこなうことができる。なお、このエリア変更を、図2に示す中央制御部8によっておこなってもよい。
As shown in FIG. 4, according to the first embodiment, the range of the human detection area (human detection area) is determined by the human detection device based on the information of the work shelf WS acquired by the ambient
人検知用装置3は、この範囲B(人検知エリア)に人が居るもしくはセンシングの途中で侵入してくるとそれを検知することができる。
The
なお、周囲環境用取得装置2は、モバイルマニピュレータ1がゴール位置にて停止している状態において周囲にある物の位置(距離と角度)を取得する構成である一方で、人検知用装置3はモバイルマニピュレータ1がゴール位置にて停止している状態において人の有無を‘0’か‘1’かで判断する構成となっている。なお、周囲環境用取得装置2は、ゴール位置まで走行している間に、リアルタイムで周囲にある物の位置(距離と角度)を取得することも可能である。
The surrounding
人検知用装置3によって人検知エリア(図4の範囲B)に人が検知されると、その情報は、図2に示す中央制御部8に出力される。
When the
なお、本実施形態1のモバイルマニピュレータ1は、人検知用装置3の前方側に、周囲環境用取得装置2の存在および図4には図示していないマニピュレータ4の存在に伴う人検知の死角が形成されている。しかしながら、先述のようにモバイルマニピュレータ1は、基本的に作業時には前方に作業棚が在って作業棚の上でマニピュレータ4を使って作業をおこなうことを前提としており、作業棚のエリアに人が検知されることは想定しなくて良いため、この死角は無視して構わない。
The
マニピュレータ4は、作業をおこなう実動部分であり、従来周知のマニピュレータから構成することができる。マニピュレータ4は、マニピュレータ制御部5による制御を受ける。
The
マニピュレータ制御部5は、マニピュレータ4を制御するための制御回路である。マニピュレータ4の具体的な動作は、図示しない記憶部に予め記憶されているプログラムに従いマニピュレータ制御部5が制御する。マニピュレータ制御部5は中央制御部8による制御を受ける。そのため、人検知用装置3によって先述の人検知エリアにおいて人が検知されると、中央制御部8を介して、マニピュレータ制御部5がマニピュレータ4を停止状態とする。この直前においてマニピュレータ4が動作中であれば人の検知を受けて一旦停止するか動作速度を落とし、直前において動作が未だ開始されていない状況(停止状態)だった場合にはその状態を維持させる。
A
移動制御部6は、本実施形態のモバイルマニピュレータ1の走行を制御する。移動制御部6は、中央制御部8による制御を受けて、走行の開始と終了、走行速度、走行方向などを制御する。
The
移動機構7は、本実施形態のモバイルマニピュレータ1の走行機能を担い、例えばタイヤといった周知の移動機構から構成される。移動機構7は、移動制御部6による制御を受けて、走行の開始と停止、走行方向、走行速度が制御される。
The moving
中央制御部8は、本実施形態のモバイルマニピュレータ1全体を統括して制御する回路である。中央制御部8は、上述の人検知エリアの変更設定をおこなう。これについては、また後述する。
The
(2)モバイルマニピュレータ1の動作フロー
以下、図5に示すフローチャートを用いて、本実施形態1のモバイルマニピュレータ1の動作フローを説明する。
(2) Operation Flow of
モバイルマニピュレータ1が移動して(ステップS1)、所定のゴールに到着する(ステップS2)と、周囲環境用取得装置2であるレーザスキャナはスキャンを開始して周囲環境に関する情報、すなわちスキャン範囲に物体が在る場合には当該物体の形状に関する情報を取得する(ステップS3、周囲情報用取得ステップ)。
When the
ここで、所定のゴールとは、モバイルマニピュレータ1の位置と向きに関して予め定められている。図4の例でみれば、モバイルマニピュレータ1が作業棚WSの前まで移動してきて、作業棚WSに正対している状態となることがゴールである。なお、作業棚WSの前まで移動してきたか否かは、作業棚WSの位置座標とモバイルマニピュレータ1の位置座標とから判定することができる。作業棚WSに正対している状態となっているか否かは、作業棚WSとの角度を求めることによって判定することができる。
Here, the predetermined goal is predetermined with respect to the position and orientation of the
なお、本実施形態のモバイルマニピュレータ1は、ゴールに到達してから周囲環境用取得装置2であるレーザスキャナがスキャンを開始する構成としているが、これに限らず、ゴールに到達する過程、つまり走行中にスキャンをおこなっていてもよい。
Note that the
ステップS1におけるモバイルマニピュレータ1の移動、およびステップS2におけるゴールに到着したことの判断は、中央制御部8による制御を受ける。
The movement of the
ステップS3において取得された周囲情報は、中央制御部8に取得される。そして、ゴールの位置情報(作業棚WSの位置座標とモバイルマニピュレータ1の位置座標)と、周囲情報とに基づいて、中央制御部8によって、人検知用装置3の人検知エリアのエリア補正情報が生成される(ステップS4、検知エリア変更ステップ)。
The ambient information acquired in step S3 is acquired by the
エリア補正情報とは、先述したように、人検知用装置3のスキャン範囲から除く範囲を示す情報である。具体的には、先述した(作業棚WSの)平らな面WSpの位置座標情報である。
The area correction information is information indicating a range to be excluded from the scanning range of the
ステップS4においてエリア補正情報が生成されると、続いて、人検知用装置3の人検知エリアのエリア補正処理をおこなう(ステップS5、検知エリア変更ステップ)。このステップS5では、障害物として認識しないエリアを設定する。具体的には、ステップS5では、取得した平らな面WSpの位置座標情報に基づいて、平らな面WSpの位置を含み且つ当該位置よりもモバイルマニピュレータ1から離れた範囲を、障害物として認識しないエリアとして、人検知用装置3の人検知エリアから除く処理をおこなう。換言すれば、平らな面WSpの位置よりもモバイルマニピュレータ1側を、エリア補正後の人検知エリアとする処理をおこなう。この処理は、中央制御部8の制御を受け、人検知用装置3のスキャン範囲のうちのエリア補正後の人検知エリア(先述の範囲B)のみの情報が人検知処理に用いられるようにする。
After the area correction information is generated in step S4, area correction processing for the human detection area of the
次に、中央制御部8の制御によって人検知用装置3を有効にして、人検知用装置3によってスキャン処理(人検知用装置3が本来有しているスキャン範囲をスキャンする)がおこなわれ、人検知用装置3が、(エリア補正後の)人検知エリアにおいて人検知処理をおこなう(ステップS6、人検知ステップ)。なお、人検知処理は、中央制御部8によっておこなわれてもよい。
Next, the
ステップS6における人検知処理の結果、人を検知しなかった場合は、ステップS7に進み、中央制御部8の制御を受けてマニピュレータ4に所定の動作(作業)をさせる(ステップS7)。一方、ステップS6における人検知処理の結果、人を検知した場合には、人が検知されなくなるまでステップS6の人検知処理を繰り返す。この処理は、中央制御部8の制御によっておこなわれ、この間、マニピュレータ4は動作せずに待機している。
If no human is detected as a result of the human detection process in step S6, the process proceeds to step S7, and the
続いて、マニピュレータ4の動作が完了する(ステップS8)と、中央制御部8の制御によって、人検知用装置3を無効にする(ステップS9)。
Subsequently, when the operation of the
人検知用装置3が無効になると、中央制御部8の制御によって、モバイルマニピュレータ1が移動を開始する(ステップS10)。
When the
以上の動作フローをおこなう本実施形態1のモバイルマニピュレータ1によれば、人検知用装置3によって人を正確に検知して、良好かつ安全にマニピュレータ動作を実行することができる。
According to the
ここで、ステップS7においてマニピュレータ4が動作している間にも、ステップS6の人検知処理は継続されている。そして、人を検知した時点で、中央制御部8はマニピュレータ4の動作を停止あるいは動作速度を落とさせ、人を検知しなくなるまでその状態を維持させる。人を検知しなくなると、中央制御部8はマニピュレータ4の動作を再開させる。
Here, even while the
以上の本実施形態のモバイルマニピュレータ1によれば、人検知用装置3であるレーザスキャナの人検知エリアが補正され、人以外の物が人検知エリアに含まれない構成となっている。これにより、人検知用装置3によって物を人と誤検知して、マニピュレータ4の動作が開始できないというトラブルを回避することができる。
According to the
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.
(1)モバイルマニピュレータ1´の構成
図6は、本実施形態2のモバイルマニピュレータ1´を、その使用環境とともに示す上面図である。
(1) Configuration of Mobile Manipulator 1' FIG. 6 is a top view showing the mobile manipulator 1' of
上述の実施形態1のモバイルマニピュレータ1は、周囲環境用取得装置2としてレーザスキャナを用いているのに対して、本実施形態2のモバイルマニピュレータ1´は、作業棚WSに付されたRFID(radiofrequency identification)タグWStagを読み出すリーダライタを、周囲環境用取得装置2´として備えている点において相違する。
While the
具体的には、本実施形態2のモバイルマニピュレータ1´が、作業棚WSに付されたRFIDタグWStagに正対できる位置に近接すると、周囲環境用取得装置2´であるリーダライタに、RFIDタグWStagが読み取られる。要するに、読み取られることにより、本実施形態2のモバイルマニピュレータ1´が、先述の実施形態1において説明したゴール位置に到達していると判断できる。
Specifically, when the mobile manipulator 1' of
作業棚WSに付されたRFIDタグWStagは、位置固有の識別IDが情報として格納されている。 The RFID tag WStag attached to the work shelf WS stores a position-specific identification ID as information.
一方、本実施形態2のモバイルマニピュレータ1´の中央制御部8には、作業棚WSに付されたRFIDタグWStagに格納されている位置情報に対応したマップ情報が予め記憶されている。このマップ情報には、RFIDタグWStagの検出位置におけるモバイルマニピュレータ1´と作業棚WSとの距離、および作業棚WSの配設角度に関する情報が含まれている。図10にマップ情報1000を示す。マップ情報1000は、障害物のエッジ情報のみで周囲の情報が構成されている。
On the other hand, the map information corresponding to the position information stored in the RFID tag WStag attached to the work shelf WS is stored in advance in the
すなわち、このマップ情報1000に基づけば、人検知用装置3のスキャン範囲に含まれる人以外の物の範囲の情報を取得することができる。よって、実施形態1と同じく、人検知用装置3のスキャン範囲から、人検知エリアを絞ることができる。図6における使用環境では、L字型を有する作業棚WSに関して、その形状を、マップ情報1000から取得することができる。そのため、そのマップ情報1000に基づけば、図6中に範囲B´として示した範囲を、人検知エリアとすることになる。これにより、作業棚WSを人と誤検知することなく、人検知を確実におこなうことができる。
That is, based on this
マップ情報1000に基づいた態様とすることにより、実施形態1において説明した周囲環境用取得装置2のスキャン範囲2aからは外れているものの、人検知用装置3のスキャン範囲に含まれる物について、当該物に関する情報を取得することができる。具体的には、図6に一点破線で囲んだ領域に含まれる作業棚WSの面WSpに関する情報をマップ情報に基づく本実施形態2の態様であれば取得することができる。これにより、範囲B´を人のみを検知できる適切なエリアとして設定することができる。
By adopting an aspect based on the
(2)モバイルマニピュレータ1´の動作フロー
以下に、図7のフローチャートを用いて、本実施形態2のモバイルマニピュレータ1´の動作フローを説明する。
(2) Operation Flow of Mobile Manipulator 1' The operation flow of the mobile manipulator 1' according to the second embodiment will be described below using the flowchart of FIG.
モバイルマニピュレータ1´が移動して(ステップS11)、所定のゴールに到着する(ステップS12)と、周囲環境用取得装置2´であるリーダライタが作業棚WSに付されたRFIDタグWStagを読み出し、RFIDタグWStagに格納されている位置情報に対応したマップ情報を取得する(ステップS13)。 When the mobile manipulator 1' moves (step S11) and reaches a predetermined goal (step S12), the reader/writer, which is the ambient environment acquisition device 2', reads the RFID tag WStag attached to the work shelf WS, Map information corresponding to the position information stored in the RFID tag WStag is obtained (step S13).
ここで、所定のゴールに到着していることは、周囲環境用取得装置2´であるリーダライタがRFIDタグWStagを読み出したことによって判断することができる。モバイルマニピュレータ1´の移動、RFIDタグWStagの読み出し、マップ情報の取得は、何れも中央制御部8によっておこなわれる。
Here, the fact that the predetermined goal has been reached can be determined by the reading of the RFID tag WStag by the reader/writer, which is the ambient environment acquisition device 2'. Movement of the mobile manipulator 1', reading of the RFID tag WStag, and acquisition of map information are all performed by the
ステップS13においてマップ情報が取得されると、中央制御部8によって、人検知用装置3の人検知エリアのエリア補正情報が生成される(ステップS14)。
When the map information is acquired in step S13, the
エリア補正情報とは、先述したように、障害物として認識しないエリアとして、人検知用装置3の人検知エリアから除く範囲を示す情報である。具体的には、先述した(作業棚WSの)平らな面WSpの位置座標情報である。
As described above, the area correction information is information indicating a range excluded from the human detection area of the
ステップS14においてエリア補正情報が生成されると、続いて、人検知用装置3の人検知エリアのエリア補正処理をおこなう(ステップS15、検知エリア変更ステップ)。このステップS15では、障害物として認識しないエリアを設定する。具体的には、ステップS15では、取得した平らな面WSpの位置座標情報に基づいて、平らな面WSpの位置を含み且つ当該位置よりもモバイルマニピュレータ1から離れた範囲を、障害物として認識しないエリアとして、人検知用装置3の人検知エリアから除く処理をおこなう。換言すれば、平らな面WSpの位置よりもモバイルマニピュレータ1側を、エリア補正後の人検知エリアとする処理をおこなう。この処理は、中央制御部8の制御を受け、人検知用装置3のスキャン範囲のうちのエリア補正後の人検知エリア(先述の範囲B)のみの情報が人検知処理に用いられるようにする。
After the area correction information is generated in step S14, area correction processing for the human detection area of the
次に、中央制御部8の制御によって人検知用装置3を有効にして、人検知エリアにおいて人検知処理をおこなう(ステップS16)。
Next, the
なお、ステップS17からステップS20は、実施形態1において説明したステップS7からステップS10にそれぞれ対応しているため、ここでは説明を省略する。 Note that steps S17 to S20 correspond to steps S7 to S10 described in the first embodiment, respectively, so description thereof will be omitted here.
以上の動作フローをおこなう本実施形態2のモバイルマニピュレータ1´によれば、人検知用装置3によって人を正確に検知して、良好かつ安全にマニピュレータ動作を実行することができる。
According to the mobile manipulator 1' of
〔実施形態3〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.
本実施形態3のモバイルマニピュレータと、上述の実施形態2のモバイルマニピュレータ1´との相違点は、エリア補正情報の取得方法にある。 The difference between the mobile manipulator of the third embodiment and the mobile manipulator 1' of the second embodiment lies in the method of acquiring area correction information.
以下に、図8のフローチャートを用いて、本実施形態3のモバイルマニピュレータの動作フローを説明する。 The operation flow of the mobile manipulator of the third embodiment will be described below with reference to the flowchart of FIG.
本実施形態3のモバイルマニピュレータが移動して(ステップS21)、所定のゴールに到着する(ステップS22)と、周囲環境用取得装置2´であるリーダライタが作業棚WSに付されたRFIDタグWStagを読み出し(ステップS23)、RFIDタグWStagに格納されている位置情報を取得する(ステップS24)。
When the mobile manipulator of
続いて、取得した位置情報に基づいて、中央制御部8が、中央サーバから、人検知エリアを絞るためのエリア補正情報を取得する(ステップS25)。具体的には、取得した位置情報に基づいて、中央サーバにおいて、位置情報に対応したマップ情報が参照されて、人検知用装置3の人検知エリアのエリア補正情報が生成される。
Subsequently, based on the acquired position information, the
続いて、中央制御部8は、取得したエリア補正情報を用いて、人検知用装置3の人検知エリアのエリア補正処理をおこなう(ステップS26、検知エリア変更ステップ)。具体的な処理内容は、実施形態2において説明したステップS15と同じである。
Subsequently, the
次に、中央制御部8の制御によって人検知用装置3を有効にして、補正された人検知エリアにおいて人検知処理をおこなう(ステップS27)。
Next, the
なお、ステップS28からステップS31は、実施形態1において説明したステップS7からステップS10にそれぞれ対応しているため、ここでは説明を省略する。 Note that steps S28 to S31 correspond to steps S7 to S10 described in the first embodiment, respectively, and therefore description thereof is omitted here.
以上の動作フローによって人検知した場合であっても、実施形態2と同様に、人を正確に検知することができる。 Even when a person is detected by the operation flow described above, the person can be accurately detected as in the second embodiment.
〔実施形態4〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、その説明を繰り返さない。
[Embodiment 4]
Other embodiments of the invention are described below. For convenience of description, descriptions of members having the same functions as those of the members described in the above embodiments will not be repeated.
上述の実施形態2では、作業棚WSに付されたRFIDタグWStagと、周囲環境用取得装置2´であるリーダライタとで対をなした構成として、周囲情報を取得しているが、本発明はこれに限定されるものではない。例えば、本実施形態4では、RFIDタグWStagに代えて、近接センサを用いた態様であってもよい。 In the second embodiment described above, ambient information is acquired by a configuration in which the RFID tag WStag attached to the work shelf WS and the reader/writer, which is the ambient environment acquisition device 2', are paired. is not limited to this. For example, in the fourth embodiment, a proximity sensor may be used instead of the RFID tag WStag.
近接センサとしては、磁気型あるいは誘導型の近接センサを用いることができる。近接センサの検出体を作業棚に、検出器をモバイルマニピュレータに付す構成とすることにより、検出距離が短く、モバイルマニピュレータの位置情報を正確に得ることができる。 A magnetic or inductive proximity sensor can be used as the proximity sensor. By attaching the detection body of the proximity sensor to the work shelf and the detector to the mobile manipulator, the detection distance is short and the position information of the mobile manipulator can be obtained accurately.
例えば、モバイルマニピュレータに、複数の近接センサの検出器(周囲環境用取得装置)を持たせ、人検知用装置3自身に、あらかじめ、人を検知する/しない範囲の情報を複数種類登録しておいて、到着したゴールに応じた近接センサの検出器がONすることによって、人を検知する/しない範囲の情報が選択される構成となっている。
For example, the mobile manipulator is provided with a plurality of proximity sensor detectors (environment acquisition device), and the
この構成のように、人を検知する/しない範囲をあらかじめ登録しておき、検出器からの入力によって、登録された中のいずれかを選択して、その範囲において人の有無を検知するという態様を採用することによっても、他の実施形態と同様に、誤検知を回避して、人の有無を正しく検知して、安全にモバイルマニピュレータを動作させることができる。 As in this configuration, a range in which a person is detected/not detected is registered in advance, one of the registered ranges is selected by input from the detector, and the presence or absence of a person is detected in that range. , it is possible to avoid erroneous detection, correctly detect the presence or absence of a person, and operate the mobile manipulator safely, as in the other embodiments.
〔ソフトウェアによる実現例〕
モバイルマニピュレータ1、1´の制御ブロック(特に、マニピュレータ制御部5、移動制御部6、中央制御部8)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks of the
後者の場合、モバイルマニピュレータ1、1´は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
1、1´ モバイルマニピュレータ
2、2´ 周囲環境用取得装置(周囲情報用取得部、リーダライタ)
2a スキャン範囲
3 人検知用装置(人検知部、検知エリア変更部、レーザスキャナ)
4 マニピュレータ
5 マニピュレータ制御部
6 移動制御部
7 移動機構
8 中央制御部
1000 マップ情報
WS 作業棚
WSn 作業棚の一部分
WSp 作業棚の平らな面
po 複数点
WStag RFIDタグ
1, 1'
4
Claims (5)
前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知部と、
前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更部とを備え、
前記周囲情報用取得部は、前記物に付されたRFIDタグを読み出すリーダライタであり、前記RFIDタグから、位置固有の識別IDである位置情報を取得して、前記位置情報に対応したマップ情報に基づいて前記物の配設範囲の情報を取得し、
前記検知エリア変更部は、前記物の配設範囲の情報に基づいて、前記人検知エリアの範囲を、前記人検知部が有する人検知の可能範囲から、当該物のない領域に絞る、ことを特徴とする作業ロボット。 a peripheral information acquiring unit that acquires peripheral information, which is information about objects other than people around the working robot;
a human detection unit that detects the presence or absence of a person in a human detection area set around the working robot;
a detection area changing unit that changes the range of the human detection area according to the surrounding information ;
The acquisition unit for surrounding information is a reader/writer that reads an RFID tag attached to the object, acquires location information, which is a location-specific identification ID, from the RFID tag, and obtains map information corresponding to the location information. to obtain the information of the arrangement range of the said object based on
The detection area changing unit narrows down the range of the human detection area from the human detection possible range of the human detection unit to a region without the object, based on the information on the arrangement range of the object. A working robot characterized by:
前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知ステップと、
前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更ステップとを含み、
前記周囲情報用取得ステップは、前記物に付されたRFIDタグから、位置固有の識別IDである位置情報を取得して、前記位置情報に対応したマップ情報に基づいて前記物の配設範囲の情報を取得し、
前記検知エリア変更ステップは、前記物の配設範囲の情報に基づいて、前記人検知エリアの範囲を、当該物のない領域に絞る、作業ロボットの制御方法。 an ambient information acquisition step for acquiring ambient information, which is information about objects other than people around the working robot;
a human detection step of detecting the presence or absence of a human in a human detection area set around the working robot;
a detection area changing step of changing the range of the human detection area according to the surrounding information ;
The ambient information acquisition step acquires position information, which is a position-specific identification ID, from an RFID tag attached to the object, and determines the installation range of the object based on map information corresponding to the position information. get information,
The detection area changing step narrows down the range of the human detection area to an area without the object based on information on the arrangement range of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096212A JP7310297B2 (en) | 2019-05-22 | 2019-05-22 | Work robot and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019096212A JP7310297B2 (en) | 2019-05-22 | 2019-05-22 | Work robot and its control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020189379A JP2020189379A (en) | 2020-11-26 |
JP7310297B2 true JP7310297B2 (en) | 2023-07-19 |
Family
ID=73454977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019096212A Active JP7310297B2 (en) | 2019-05-22 | 2019-05-22 | Work robot and its control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7310297B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023018920A (en) * | 2021-07-28 | 2023-02-09 | 川崎重工業株式会社 | Safety device, robot system, and control method |
WO2024019105A1 (en) * | 2022-07-21 | 2024-01-25 | 興和株式会社 | Picking control system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002264070A (en) | 2001-03-09 | 2002-09-18 | Denso Corp | Mobile robot and mobile robot system |
JP2005088146A (en) | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | Object processing system, object processing method and robot |
JP2007017414A (en) | 2005-07-11 | 2007-01-25 | Honda Motor Co Ltd | Position management system and position management program |
US20160062345A1 (en) | 2014-08-29 | 2016-03-03 | Amazon Technologies, Inc. | Safety Compliance for Mobile Drive Units |
JP2017080845A (en) | 2015-10-28 | 2017-05-18 | 株式会社デンソーウェーブ | Robot control system |
JP2018126818A (en) | 2017-02-07 | 2018-08-16 | トヨタ自動車株式会社 | Robot control device |
-
2019
- 2019-05-22 JP JP2019096212A patent/JP7310297B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002264070A (en) | 2001-03-09 | 2002-09-18 | Denso Corp | Mobile robot and mobile robot system |
JP2005088146A (en) | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | Object processing system, object processing method and robot |
JP2007017414A (en) | 2005-07-11 | 2007-01-25 | Honda Motor Co Ltd | Position management system and position management program |
US20160062345A1 (en) | 2014-08-29 | 2016-03-03 | Amazon Technologies, Inc. | Safety Compliance for Mobile Drive Units |
JP2017080845A (en) | 2015-10-28 | 2017-05-18 | 株式会社デンソーウェーブ | Robot control system |
JP2018126818A (en) | 2017-02-07 | 2018-08-16 | トヨタ自動車株式会社 | Robot control device |
Also Published As
Publication number | Publication date |
---|---|
JP2020189379A (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6866673B2 (en) | Monitoring system, monitoring device, and monitoring method | |
US10379513B2 (en) | Monitoring system, monitoring device, and monitoring method | |
JP5668770B2 (en) | Robot system and control method of robot system | |
US9122266B2 (en) | Camera-based monitoring of machines with mobile machine elements for collision prevention | |
JP6601155B2 (en) | Robot control system | |
CN109947089B (en) | Automatic guided vehicle attitude control method and device and automatic guided vehicle | |
JP7310297B2 (en) | Work robot and its control method | |
US10664939B2 (en) | Position control system, position detection device, and non-transitory recording medium | |
JP2011042011A (en) | Robot control device, method and program, and robot | |
CN113966265B (en) | Method and system for operating a robot | |
JP2016057983A (en) | Self position estimation system and method for estimating self position | |
JP2007200070A (en) | Mobile robot | |
CN111491766A (en) | Safety control module for robot assembly and method thereof | |
US12023813B2 (en) | Control system, control method, and control unit | |
JP2017117211A (en) | Detection device, method, and program | |
JP6491893B2 (en) | Autonomous traveling control system, autonomous traveling apparatus using the autonomous traveling control system, autonomous traveling control method, control program, and recording medium | |
CN114905503B (en) | Robot control system, robot control method, and storage medium | |
US20220229443A1 (en) | Autonomous mobile system, autonomous mobile method, and autonomous mobile program | |
US12062131B2 (en) | Six-DoF measurement aid | |
JP2020093373A (en) | Robot interference determination device, robot interference determination method, robot control device, and robot control system | |
US20220194737A1 (en) | Autonomous mobile system, autonomous mobile method, and autonomous mobile program | |
JP2017226064A (en) | Obstacle determination device | |
KR102710614B1 (en) | Apparatus and method for actively recognizing landmarks based on multiple degrees of freedom camera | |
US20240009834A1 (en) | Mobile manipulator robot and method for using the same | |
JP7491229B2 (en) | AUTONOMOUS MOBILITY SYSTEM, AUTONOMOUS MOBILITY METHOD, AND AUTONOMOUS MOBILITY PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7310297 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |