JP7310297B2 - Work robot and its control method - Google Patents

Work robot and its control method Download PDF

Info

Publication number
JP7310297B2
JP7310297B2 JP2019096212A JP2019096212A JP7310297B2 JP 7310297 B2 JP7310297 B2 JP 7310297B2 JP 2019096212 A JP2019096212 A JP 2019096212A JP 2019096212 A JP2019096212 A JP 2019096212A JP 7310297 B2 JP7310297 B2 JP 7310297B2
Authority
JP
Japan
Prior art keywords
information
human detection
range
detection area
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019096212A
Other languages
Japanese (ja)
Other versions
JP2020189379A (en
Inventor
真司 小林
昭朗 小林
知大 岡田
孝浩 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2019096212A priority Critical patent/JP7310297B2/en
Publication of JP2020189379A publication Critical patent/JP2020189379A/en
Application granted granted Critical
Publication of JP7310297B2 publication Critical patent/JP7310297B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、作業ロボットおよびその制御方法に関し、特にマニピュレータを備えた作業ロボットおよびその制御方法に関する。 The present invention relates to a working robot and its control method, and more particularly to a working robot provided with a manipulator and its control method.

様々な分野においてロボットが使用されており、特に近年では、自律移動型ロボットなどと呼ばれる、サーバなどを利用して取得した情報と、リアルタイムでモニタして取得した情報とに基づいて、人間によるオペレーションを必要とせずに、所定の場所まで自律的に移動し、そこで作業をおこなうロボットが知られている。 Robots are used in a variety of fields, and in recent years in particular, autonomous mobile robots, which are called autonomous mobile robots, are being operated by humans based on information obtained using servers, etc., and information obtained through real-time monitoring. 2. Description of the Related Art Robots are known that autonomously move to a predetermined place and perform work there without the need for a robot.

このように自律走行や作業を担うロボットの多くには、走行や作業を円滑に行うべく障害物を検出する機能が設けられている。例えば、特許文献1には、環境情報取得手段により障害物および自己位置を認識しつつ障害物を回避しながら走行経路に沿って自律的に走行する自律移動装置が開示されている。また、特許文献2には、例えば、人を光学的に検知し、工作機械、産業用ロボット等の機械を緊急停止させるための光学安全センサの一例が開示されている。 In this way, most robots that are responsible for autonomous travel and work are provided with a function of detecting obstacles in order to facilitate smooth travel and work. For example, Patent Literature 1 discloses an autonomous mobile device that autonomously travels along a travel route while avoiding obstacles while recognizing obstacles and its own position by means of environment information acquisition means. Further, Patent Literature 2 discloses, for example, an example of an optical safety sensor for optically detecting a person and emergency stopping machines such as machine tools and industrial robots.

特開2004-280451号公報(2004年10月7日公開)Japanese Patent Application Laid-Open No. 2004-280451 (published on October 7, 2004) 特開2017-150858号公報(2017年8月31日公開)Japanese Patent Application Laid-Open No. 2017-150858 (published on August 31, 2017)

作業ロボットに搭載される人検知装置は、人以外の物を人と誤って検知せず、正しく人を検知できるようにしておく必要がある。物を人と誤検知するようなことがあれば、円滑に作業を進めることができない。特に、作業ロボットは、作業場所等の周囲環境が様々であったり、自律的に移動していく過程で複数の地点で作業をおこなったりするものがある。そのため、周囲環境の変化に対応できる人検知装置を搭載した作業ロボットの実現が求められる。 A human detection device mounted on a working robot needs to be able to correctly detect a person without erroneously detecting an object other than a person as a person. If an object is mistakenly detected as a person, work cannot proceed smoothly. In particular, some work robots have various surrounding environments such as work places, and work at a plurality of points in the course of autonomous movement. Therefore, there is a demand for a work robot equipped with a human detection device that can respond to changes in the surrounding environment.

本発明の一態様は、正しく人を検知することができる作業ロボットおよびその制御方法を提供することを目的とする。 An object of one aspect of the present invention is to provide a working robot and a control method thereof that can accurately detect a person.

前記の課題を解決するために、本発明の一態様に係る作業ロボットは、作業ロボットの周囲における人以外の物に関する情報である周囲情報を取得する周囲情報用取得部と、前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知用部と、前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更部とを備えている。 In order to solve the above-described problems, a working robot according to one aspect of the present invention includes a surrounding information acquisition unit that acquires surrounding information, which is information about objects other than people around the working robot, and and a detection area changing unit for changing the range of the human detection area according to the surrounding information.

前記の構成によれば、前記周囲情報に基づいて人検知エリアが適切に設定されることにより、人検知用部において物を人と誤検知することがなく、良好な人検知を実現し、マニピュレータによる作業を円滑におこなうことを可能にする作業ロボットを提供することができる。 According to the above configuration, the human detection area is appropriately set based on the surrounding information, so that the human detection unit does not erroneously detect an object as a person, thereby achieving good human detection and enabling the manipulator to operate. It is possible to provide a work robot that can smoothly perform work by.

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記検知エリア変更部は、前記人検知エリアの範囲を、前記人検知部が有する人検知の可能範囲から、当該可能範囲に在る前記物の配設範囲を除いた範囲とする構成となっている。 Further, in the work robot according to an aspect of the present invention, in the configuration described above, the detection area changing unit changes the range of the human detection area from a human detection possible range of the human detection unit to the human detection possible range. It is configured to be a range excluding the arrangement range of the existing objects.

前記の構成によれば、人検知エリアが物のない領域に設定されるため、人検知エリアにおいて物を人と誤検知することがなく、該エリアに居るまたは該エリアに侵入してきた人を正確に検知することができる。 According to the above configuration, since the human detection area is set in an area where there is no object, there is no false detection of an object as a person in the human detection area, and a person who is in the area or has entered the area can be accurately detected. can be detected.

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部が、前記物に付されたRFIDタグまたは近接センサの検出体を検出する構成であってもよい。 In the above configuration, the working robot according to an aspect of the present invention may be configured such that the ambient information acquisition unit detects a detection body of an RFID tag or a proximity sensor attached to the object.

前記の構成によれば、簡易な構成により、周囲情報を取得することができる。 According to the above configuration, it is possible to acquire surrounding information with a simple configuration.

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部が、前記物を検出する範囲センサであり、前記作業ロボットと当該物との距離、および当該物の配置角度に関する情報を前記周囲情報として取得する構成となっていてもよい。 Further, in the working robot according to an aspect of the present invention, in the configuration described above, the ambient information acquisition unit is a range sensor that detects the object, and the distance between the working robot and the object and the distance between the object and the object are detected. Information about the arrangement angle may be acquired as the surrounding information.

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部は、前記人検知部による人検知が不可能な領域に在る前記物を検出する構成であってもよい。 Further, in the working robot according to an aspect of the present invention, in the configuration described above, the ambient information acquisition unit detects the object located in an area where the human detection unit cannot detect a person. good too.

前記の構成によれば、いわゆる(人検知部の)死角にあたる領域の物を検出することができる。 According to the above configuration, it is possible to detect an object in the so-called blind spot (of the human detector).

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記周囲情報用取得部は、前記物に付されたRFIDタグを読み出すリーダライタであり、前記周囲情報用取得部は、前記RFIDタグから、前記物の形状を示す情報を取得し、前記検知エリア変更部は、前記物の形状を示す情報に基づいて、前記人検知エリアを当該物のない領域に変更する構成となっていてよい。 Further, in the working robot according to an aspect of the present invention, in the configuration described above, the ambient information acquisition unit is a reader/writer that reads an RFID tag attached to the object, and the ambient information acquisition unit includes the Information indicating the shape of the object is acquired from the RFID tag, and the detection area changing unit changes the human detection area to an area without the object based on the information indicating the shape of the object. you can

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記検知エリア変更部は、マップ情報から前記物の位置を特定する。 Further, in the working robot according to one aspect of the present invention, in the configuration described above, the detection area changing unit identifies the position of the object from map information.

また、本発明の一態様に係る作業ロボットは、前記の構成において、移動機構を更に備えたモバイルマニピュレータであってもよい。 In addition, the working robot according to one aspect of the present invention may be a mobile manipulator further provided with a moving mechanism in the above configuration.

また、本発明の一態様に係る作業ロボットは、前記の構成において、前記人検知部がレーザスキャナであってよい。 Further, in the working robot according to one aspect of the present invention, in the configuration described above, the human detection unit may be a laser scanner.

また、前記の課題を解決するために、本発明の一態様に係る作業ロボットの制御方法は、作業ロボットの周囲における人以外の物に関する情報である周囲情報を取得する周囲情報用取得ステップと、前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知ステップと、前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更ステップとを含む。 In order to solve the above-described problems, a working robot control method according to an aspect of the present invention includes a surrounding information obtaining step of obtaining surrounding information, which is information about an object other than a person in the surroundings of the working robot; A human detection step of detecting the presence or absence of a person in a human detection area set around the working robot, and a detection area changing step of changing the range of the human detection area according to the surrounding information.

前記の構成によれば、前記周囲情報に基づいて人検知エリアが適切に設定されることにより、物を人と誤検知することがなく、良好な人検知を実現し、マニピュレータによる作業を円滑におこなうことを可能にする作業ロボットを実現することができる。 According to the above configuration, since the human detection area is appropriately set based on the surrounding information, it is possible to achieve good human detection without erroneously detecting objects as humans, and to smoothly perform work with the manipulator. Working robots can be realized that allow

本発明の一態様によれば、正しく人を検知することができる作業ロボットを提供することができる。 According to one aspect of the present invention, it is possible to provide a working robot that can accurately detect a person.

本発明に係る作業ロボットの一実施形態であるモバイルマニピュレータと作業環境とを模式的に示す図である。1 is a diagram schematically showing a mobile manipulator, which is an embodiment of a working robot according to the present invention, and a working environment; FIG. 本実施形態のモバイルマニピュレータの概略構成を示すブロック図である。It is a block diagram showing a schematic configuration of a mobile manipulator of the present embodiment. 本実施形態のモバイルマニピュレータの周囲情報用取得装置のスキャン範囲を模式的に示した上面図である。FIG. 4 is a top view schematically showing a scan range of the ambient information acquisition device of the mobile manipulator of the present embodiment; 本実施形態のモバイルマニピュレータが備える人検知用装置の人検知エリアを示す上面図である。FIG. 3 is a top view showing a human detection area of a human detection device included in the mobile manipulator of the present embodiment; 本実施形態のモバイルマニピュレータの動作フローを示すフローチャートの図である。It is a figure of the flowchart which shows the operation|movement flow of the mobile manipulator of this embodiment. 本発明に係る作業ロボットの他の実施形態であるモバイルマニピュレータの上面図である。FIG. 5 is a top view of a mobile manipulator that is another embodiment of the work robot according to the present invention; 図6に示すモバイルマニピュレータの動作フローを示すフローチャートの図である。FIG. 7 is a flowchart showing the operation flow of the mobile manipulator shown in FIG. 6; 図6に示すモバイルマニピュレータの他の動作フローを示すフローチャートの図である。FIG. 7 is a flowchart showing another operation flow of the mobile manipulator shown in FIG. 6; 人検知用装置であるレーザスキャナ自体が本来有しているスキャン可能範囲を示す上面図である。FIG. 2 is a top view showing a scannable range originally possessed by a laser scanner itself, which is a device for human detection. マップ情報を示す。Indicates map information.

以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。
〔実施形態1〕
§1 適用例
以下、本発明の一実施形態について、図1から図5および図9を用いて説明する。
Hereinafter, an embodiment (hereinafter also referred to as "this embodiment") according to one aspect of the present invention will be described based on the drawings.
[Embodiment 1]
§1 Application Example An embodiment of the present invention will be described below with reference to FIGS. 1 to 5 and 9. FIG.

図1は、本発明に係る作業ロボットの一実施形態であるモバイルマニピュレータ1の概略外観図を、モバイルマニピュレータ1の使用環境とともに示した図である。図2は、モバイルマニピュレータ1の概略構成を示すブロック図である。 FIG. 1 is a diagram showing a schematic external view of a mobile manipulator 1, which is an embodiment of a working robot according to the present invention, together with an operating environment of the mobile manipulator 1. As shown in FIG. FIG. 2 is a block diagram showing a schematic configuration of the mobile manipulator 1. As shown in FIG.

図1に示す、本実施形態1のモバイルマニピュレータ1(作業ロボット)は、自律走行型のロボットであり、且つ搭載したマニピュレータ4によって所定の作業をおこなう。本実施形態1のモバイルマニピュレータ1は、所定の位置(以下、ゴール位置と記載)まで自律的に走行し、ゴール位置に到着すると走行を停止した状態で、マニピュレータ4によって所定の作業をおこなう態様である。 A mobile manipulator 1 (working robot) according to the first embodiment shown in FIG. 1 is an autonomously traveling robot, and carries out a predetermined work by means of a manipulator 4 mounted thereon. The mobile manipulator 1 of Embodiment 1 autonomously travels to a predetermined position (hereinafter referred to as a goal position), stops traveling when it reaches the goal position, and performs a predetermined operation with the manipulator 4. be.

より具体的には、本実施形態1のモバイルマニピュレータ1は、図1のような使用環境下において作業することを想定している。このような使用環境下において、モバイルマニピュレータは、作業棚WSの前に停止し、作業棚WSの上においてマニピュレータによって作業をする。更に本実施形態1のモバイルマニピュレータ1は、作業を開始する前に、自機周囲に人Pの有無を検知し、人が居ないことを確認してからマニピュレータ4による作業を開始する。 More specifically, it is assumed that the mobile manipulator 1 of Embodiment 1 works in a usage environment as shown in FIG. Under such a usage environment, the mobile manipulator stops in front of the work shelf WS and performs work on the work shelf WS by the manipulator. Furthermore, the mobile manipulator 1 of Embodiment 1 detects whether or not there is a person P around the mobile manipulator 1 before starting work, and after confirming that there is no person, the manipulator 4 starts working.

ところで、従前において、固定された場所でレーザスキャナのみで人を検知する技術や、レーザスキャナで周囲の環境情報を取得し、画像処理をおこなって人を検知する技術が知られている。しかしながら、自律走行型のロボットである場合、作業をおこなう環境(作業場所等)が変わることが想定されるため、周囲環境の変化を適切にとらえる必要があり、且つその環境下において人の検知を正しくおこなうことが要求される。これについて、更に説明すれば、従前のモバイルマニピュレータについても図1のような使用環境下において作業することが想定される。すなわち、従前のモバイルマニピュレータは、作業棚WSの前に停止し、作業棚WSの上においてマニピュレータによって作業をする。このときの当該モバイルマニピュレータに搭載した人検知用のレーザスキャナ303のスキャン範囲300(レーザスキャナ303が有する人検知の可能範囲)を図9に示すと、そのスキャン範囲300には、作業棚WSの一部分WSn(図9中の斜線部分)が入ってしまい、この一部分WSnが人として検知されてしまう。人が検知されていると、マニピュレータは動作を開始することができない。すなわち、この事態を避けるためには、物がおかれていない環境下でのみ、作業ロボットが任務を遂行することができ、ロボットの適用可能な環境下が限られてしまう。そこで、本発明者らは、この不都合を解消するべく鋭意検討をおこない、本発明を見出した。以下に、その一形態を説明する。
本実施形態であるモバイルマニピュレータ1は、周囲環境の情報を取得し、取得した周囲環境の情報に基づいて、人検知用装置の人検知エリアの範囲を、当該範囲に人以外の物が含まれることが無いように設定する。これにより、作業をおこなう環境が変わっても、その周囲環境の変化を適切にとらえて、その環境下において物を人と誤検知することなく、人の検知を正しくおこなうことを可能にしている。
By the way, conventionally, a technique of detecting a person at a fixed place only with a laser scanner and a technique of acquiring surrounding environment information with a laser scanner and performing image processing to detect a person are known. However, in the case of autonomous robots, it is assumed that the working environment (workplace, etc.) will change. You are required to do it right. To explain this further, it is assumed that conventional mobile manipulators also work under the usage environment shown in FIG. That is, the conventional mobile manipulator stops in front of the work shelf WS and performs work on the work shelf WS by the manipulator. FIG. 9 shows a scan range 300 of the laser scanner 303 for human detection mounted on the mobile manipulator at this time (a possible range of human detection possessed by the laser scanner 303). A part of WSn (hatched area in FIG. 9) is included, and this part of WSn is detected as a person. If a person is detected, the manipulator cannot start moving. In other words, in order to avoid this situation, the working robot can perform its task only in an environment where there are no objects placed thereon, which limits the environment in which the robot can be applied. Therefore, the present inventors have made intensive studies to eliminate this inconvenience, and have found the present invention. One form thereof will be described below.
The mobile manipulator 1 of the present embodiment acquires information on the surrounding environment, and based on the acquired information on the surrounding environment, determines the range of the human detection area of the human detection device to include objects other than people in the range. Set it so that it does not occur. As a result, even if the working environment changes, it is possible to appropriately detect changes in the surrounding environment and to correctly detect people without erroneously detecting objects as people in that environment.

§2 構成例
(1)モバイルマニピュレータ1の構成
本実施形態1のモバイルマニピュレータ1は、周囲環境の変化を適切にとらえて人の検知を正しくおこなうために、図2に示すように、周囲環境用取得装置2(周囲情報用取得部)と、人検知用装置3(人検知部、検知エリア変更部)と、マニピュレータ4と、マニピュレータ制御部5と、移動制御部6と、移動機構7と、中央制御部8とを備えている。
§2 Configuration example (1) Configuration of the mobile manipulator 1 Acquisition device 2 (surrounding information acquisition unit), human detection device 3 (human detection unit, detection area change unit), manipulator 4, manipulator control unit 5, movement control unit 6, movement mechanism 7, and a central control unit 8 .

周囲環境用取得装置2は、モバイルマニピュレータ1の周囲環境に関する情報(周囲情報)を取得するレーザスキャナである。レーザスキャナの構成は、周知の構成を使用することができるが、本実施形態1において搭載されている周囲環境用取得装置2には、モバイルマニピュレータ1の位置を中心として、モバイルマニピュレータ1の走行方向前方を少なくとも含む所定の角度範囲の周囲環境の情報(周囲情報)を取得する。これについて、図3を用いて説明する。 The surrounding environment acquisition device 2 is a laser scanner that acquires information (surrounding information) about the surrounding environment of the mobile manipulator 1 . A well-known configuration can be used for the configuration of the laser scanner. Acquire surrounding environment information (surrounding information) in a predetermined angular range including at least forward. This will be described with reference to FIG.

§3 動作例
図3は、本実施形態のモバイルマニピュレータ1の周囲環境用取得装置2のスキャン範囲2aを模式的に示した上面図である。図3に示すように、周囲環境用取得装置2は、モバイルマニピュレータ1の走行方向前方側に取り付けられており、そのスキャン範囲2aは、走行方向前方を中心として側方も含めた270°の角度範囲となっている。
§3 Operation Example FIG. 3 is a top view schematically showing the scan range 2a of the ambient environment acquisition device 2 of the mobile manipulator 1 of this embodiment. As shown in FIG. 3, the surrounding environment acquisition device 2 is attached to the front side of the mobile manipulator 1 in the running direction, and its scan range 2a is 270° angle including the sides from the front in the running direction. It is in the range.

このようなスキャン範囲2aを有する周囲環境用取得装置2によれば、モバイルマニピュレータ1が前進し、図3に示す位置に停止したときに、モバイルマニピュレータ1の前方にあたる位置にある作業棚WSを検出することができる。 According to the surrounding environment acquisition device 2 having such a scan range 2a, when the mobile manipulator 1 moves forward and stops at the position shown in FIG. can do.

周囲環境用取得装置2は、そのスキャン範囲2aに物体が在る場合、これをスキャンすることによってその物体までの距離を複数点poにおいて計測する。そして、計測結果から、その物体の形状に関する情報(モバイルマニピュレータ1の周囲環境に関する情報)を取得することができる。すなわち、図3に示す場合であれば、複数点poの計測結果を得て、これらをまとめることで、平らな面WSpを検出することができる。検出した平らな面WSpに関する情報は、モバイルマニピュレータ1に格納しているマップ情報と照合することにより、モバイルマニピュレータ1が、平らな面WSpを有する作業棚WSに正対しているか否かを判定することができる。すなわち、検出した平らな面WSpに関する情報から、モバイルマニピュレータ1と、作業棚WSとがなす角度に関する情報も取得することができる。 If there is an object in the scanning range 2a, the ambient environment acquisition device 2 measures the distance to the object at a plurality of points po by scanning the object. Information about the shape of the object (information about the surrounding environment of the mobile manipulator 1) can be obtained from the measurement result. That is, in the case shown in FIG. 3, the flat surface WSp can be detected by obtaining the measurement results of a plurality of points po and combining them. Information on the detected flat surface WSp is collated with map information stored in the mobile manipulator 1 to determine whether or not the mobile manipulator 1 faces the work shelf WS having the flat surface WSp. be able to. That is, it is possible to obtain information about the angle formed by the mobile manipulator 1 and the work shelf WS from the information about the detected flat surface WSp.

人検知用装置3は、人を検知することができるレーザスキャナである。レーザスキャナの構成としては、周囲環境用取得装置2のレーザスキャナの構成と同じで良い。人検知用装置3は、少なくともマニピュレータ4の作業予定範囲内に人の侵入があるか否かを検知する。上述のように、本実施形態1では、マニピュレータ4は、作業予定範囲内に人が居ないことを確認した後に作業を開始する態様となっている。そのため、少なくとも作業予定範囲を、人検知対象範囲に含む。 The human detection device 3 is a laser scanner capable of detecting humans. The configuration of the laser scanner may be the same as that of the laser scanner of the ambient environment acquisition device 2 . The human detection device 3 detects whether or not there is a human intrusion within at least the planned work range of the manipulator 4 . As described above, in the first embodiment, the manipulator 4 starts work after confirming that there is no person within the planned work range. Therefore, at least the scheduled work range is included in the human detection target range.

本実施形態1では、この人検知用装置3が、物を人と誤検知することなく、確実に人を検知することができる構成となっている点が、特徴の一つである。以下、これについて詳述する。 One of the features of the first embodiment is that the human detection device 3 is configured to reliably detect a person without erroneously detecting an object as a person. This will be described in detail below.

本実施形態1のモバイルマニピュレータ1は、例えば先の図1に示すような作業棚WSに近接した状態でマニピュレータ4による作業をおこなう場合がある。要するに、人検知用装置3の、レーザスキャナ自体が本来有しているスキャン範囲(人検知の可能範囲)に作業棚WSが入る場合が想定される。作業棚のみならず、何も物が置かれていない環境下で作業することのほうが少なく、実環境では多くの場合、物に近接した状態で作業をおこなう。このように物に近接した状態で作業をおこなう場合であっても、人が周囲に居なければ、マニピュレータ4を動作させることができるよう、本実施形態1のモバイルマニピュレータ1は、人検知用装置3のスキャン範囲に含まれる人以外の物の情報を取得し、人検知用装置3の人検知エリアの範囲を設定する。要するに、作業棚が在る部分には人は侵入できないから、このことを利用して、人が検知されないことが予め解っている領域を、人検知エリアから除くことをする。要するに、人検知を人が侵入し得るエリアのみにフォーカスする。 The mobile manipulator 1 of Embodiment 1 may perform work by the manipulator 4 while being close to the work shelf WS as shown in FIG. 1, for example. In short, it is conceivable that the work shelf WS may fall within the original scanning range (the possible range of human detection) of the laser scanner itself of the human detection device 3 . It is rare to work not only in a work shelf but also in an environment where nothing is placed. The mobile manipulator 1 of Embodiment 1 is designed to operate as a human detection device so that the manipulator 4 can be operated when there is no person in the vicinity even when working in the vicinity of an object. Information on objects other than people included in the scanning range of 3 is acquired, and the range of the human detection area of the device for human detection 3 is set. In short, since a person cannot enter the area where the work shelf exists, this fact is used to exclude the area where it is known in advance that the person will not be detected from the human detection area. In short, focus human detection only on areas where humans can enter.

具体的には、先述の周囲環境用取得装置2によって取得される情報には、人以外の物の情報、例えば、モバイルマニピュレータ1と物との距離、および物の配設角度、が含まれる。物の配設角度とは、図3に示す作業棚WSの平らな面WSpの配設角度のことである。そのため、この情報に基づけば、人検知用装置3のスキャン可能範囲から人検知エリアを絞ることができる。 Specifically, the information acquired by the surrounding environment acquisition device 2 includes information on objects other than people, such as the distance between the mobile manipulator 1 and the object and the arrangement angle of the object. The article arrangement angle is the arrangement angle of the flat surface WSp of the work shelf WS shown in FIG. Therefore, based on this information, the human detection area can be narrowed down from the scannable range of the human detection device 3 .

図4は、人検知エリアを示す上面図である。図4には、図3において図示した周囲環境用取得装置2のスキャン範囲2a(図4中の破線で示す範囲)と、作業棚WSとを併せて示している。 FIG. 4 is a top view showing the human detection area. FIG. 4 also shows the scanning range 2a (the range indicated by the dashed line in FIG. 4) of the ambient environment acquisition device 2 shown in FIG. 3 and the work shelf WS.

図4に示すように、本実施形態1によれば、周囲環境用取得装置2によって取得される作業棚WSの情報に基づいて、人検知エリア(人検知エリア)の範囲を、人検知用装置3のスキャン範囲(図4中に一点破線で示す範囲)から、範囲B(図4中に太線で示す範囲)に変更する。範囲Bは、人検知用装置3のスキャン範囲から、スキャン範囲に在る作業棚の一部分の配設範囲である範囲C(斜線を付したエリア)を除いた領域に相当する。このエリア変更は、人検知用装置3においておこなうことができる。なお、このエリア変更を、図2に示す中央制御部8によっておこなってもよい。 As shown in FIG. 4, according to the first embodiment, the range of the human detection area (human detection area) is determined by the human detection device based on the information of the work shelf WS acquired by the ambient environment acquisition device 2 . 3 (the range indicated by the dashed line in FIG. 4) is changed to the range B (the range indicated by the thick line in FIG. 4). A range B corresponds to a region obtained by excluding a range C (shaded area), which is a part of the work shelf within the scanning range, from the scanning range of the human detection device 3 . This area change can be performed in the device 3 for human detection. Note that this area change may be performed by the central control unit 8 shown in FIG.

人検知用装置3は、この範囲B(人検知エリア)に人が居るもしくはセンシングの途中で侵入してくるとそれを検知することができる。 The human detection device 3 can detect if a person is in this range B (human detection area) or if a person enters during sensing.

なお、周囲環境用取得装置2は、モバイルマニピュレータ1がゴール位置にて停止している状態において周囲にある物の位置(距離と角度)を取得する構成である一方で、人検知用装置3はモバイルマニピュレータ1がゴール位置にて停止している状態において人の有無を‘0’か‘1’かで判断する構成となっている。なお、周囲環境用取得装置2は、ゴール位置まで走行している間に、リアルタイムで周囲にある物の位置(距離と角度)を取得することも可能である。 The surrounding environment acquisition device 2 is configured to acquire the position (distance and angle) of surrounding objects in a state where the mobile manipulator 1 is stopped at the goal position, while the human detection device 3 In a state where the mobile manipulator 1 is stopped at the goal position, the presence or absence of a person is determined by '0' or '1'. The surrounding environment acquisition device 2 can also acquire the positions (distances and angles) of surrounding objects in real time while traveling to the goal position.

人検知用装置3によって人検知エリア(図4の範囲B)に人が検知されると、その情報は、図2に示す中央制御部8に出力される。 When the human detection device 3 detects a person in the human detection area (range B in FIG. 4), the information is output to the central control unit 8 shown in FIG.

なお、本実施形態1のモバイルマニピュレータ1は、人検知用装置3の前方側に、周囲環境用取得装置2の存在および図4には図示していないマニピュレータ4の存在に伴う人検知の死角が形成されている。しかしながら、先述のようにモバイルマニピュレータ1は、基本的に作業時には前方に作業棚が在って作業棚の上でマニピュレータ4を使って作業をおこなうことを前提としており、作業棚のエリアに人が検知されることは想定しなくて良いため、この死角は無視して構わない。 The mobile manipulator 1 of the first embodiment has a blind spot for human detection due to the existence of the surrounding environment acquisition device 2 and the existence of the manipulator 4 (not shown in FIG. 4) in front of the human detection device 3. formed. However, as described above, the mobile manipulator 1 basically assumes that there is a work shelf in front of the mobile manipulator 1 during work and that the manipulator 4 is used to work on the work shelf. Since it is not necessary to assume that it will be detected, this blind spot can be ignored.

マニピュレータ4は、作業をおこなう実動部分であり、従来周知のマニピュレータから構成することができる。マニピュレータ4は、マニピュレータ制御部5による制御を受ける。 The manipulator 4 is an actual moving part that performs work, and can be composed of a conventionally known manipulator. The manipulator 4 is controlled by a manipulator controller 5 .

マニピュレータ制御部5は、マニピュレータ4を制御するための制御回路である。マニピュレータ4の具体的な動作は、図示しない記憶部に予め記憶されているプログラムに従いマニピュレータ制御部5が制御する。マニピュレータ制御部5は中央制御部8による制御を受ける。そのため、人検知用装置3によって先述の人検知エリアにおいて人が検知されると、中央制御部8を介して、マニピュレータ制御部5がマニピュレータ4を停止状態とする。この直前においてマニピュレータ4が動作中であれば人の検知を受けて一旦停止するか動作速度を落とし、直前において動作が未だ開始されていない状況(停止状態)だった場合にはその状態を維持させる。 A manipulator control unit 5 is a control circuit for controlling the manipulator 4 . Specific operations of the manipulator 4 are controlled by the manipulator control unit 5 according to a program pre-stored in a storage unit (not shown). The manipulator controller 5 is controlled by the central controller 8 . Therefore, when the human detection device 3 detects a person in the aforementioned human detection area, the manipulator control unit 5 stops the manipulator 4 via the central control unit 8 . Immediately before this, if the manipulator 4 is in motion, upon detection of a person, the manipulator 4 stops temporarily or slows down its motion speed, and if the manipulator 4 is in a state where the motion has not yet started (stopped state) immediately before, that state is maintained. .

移動制御部6は、本実施形態のモバイルマニピュレータ1の走行を制御する。移動制御部6は、中央制御部8による制御を受けて、走行の開始と終了、走行速度、走行方向などを制御する。 The movement control unit 6 controls traveling of the mobile manipulator 1 of this embodiment. The movement control unit 6 receives control from the central control unit 8 and controls the start and end of running, running speed, running direction, and the like.

移動機構7は、本実施形態のモバイルマニピュレータ1の走行機能を担い、例えばタイヤといった周知の移動機構から構成される。移動機構7は、移動制御部6による制御を受けて、走行の開始と停止、走行方向、走行速度が制御される。 The moving mechanism 7 performs the running function of the mobile manipulator 1 of this embodiment, and is composed of a well-known moving mechanism such as tires. The movement mechanism 7 is controlled by the movement control unit 6 to start and stop traveling, the traveling direction, and the traveling speed.

中央制御部8は、本実施形態のモバイルマニピュレータ1全体を統括して制御する回路である。中央制御部8は、上述の人検知エリアの変更設定をおこなう。これについては、また後述する。 The central control unit 8 is a circuit that controls the entire mobile manipulator 1 of this embodiment. The central control unit 8 changes and sets the above-described human detection area. This will be discussed later.

(2)モバイルマニピュレータ1の動作フロー
以下、図5に示すフローチャートを用いて、本実施形態1のモバイルマニピュレータ1の動作フローを説明する。
(2) Operation Flow of Mobile Manipulator 1 The operation flow of the mobile manipulator 1 according to the first embodiment will be described below using the flowchart shown in FIG.

モバイルマニピュレータ1が移動して(ステップS1)、所定のゴールに到着する(ステップS2)と、周囲環境用取得装置2であるレーザスキャナはスキャンを開始して周囲環境に関する情報、すなわちスキャン範囲に物体が在る場合には当該物体の形状に関する情報を取得する(ステップS3、周囲情報用取得ステップ)。 When the mobile manipulator 1 moves (step S1) and reaches a predetermined goal (step S2), the laser scanner, which is the surrounding environment acquisition device 2, starts scanning to obtain information about the surrounding environment, that is, an object within the scan range. If there is, information about the shape of the object is acquired (step S3, ambient information acquisition step).

ここで、所定のゴールとは、モバイルマニピュレータ1の位置と向きに関して予め定められている。図4の例でみれば、モバイルマニピュレータ1が作業棚WSの前まで移動してきて、作業棚WSに正対している状態となることがゴールである。なお、作業棚WSの前まで移動してきたか否かは、作業棚WSの位置座標とモバイルマニピュレータ1の位置座標とから判定することができる。作業棚WSに正対している状態となっているか否かは、作業棚WSとの角度を求めることによって判定することができる。 Here, the predetermined goal is predetermined with respect to the position and orientation of the mobile manipulator 1 . In the example of FIG. 4, the goal is for the mobile manipulator 1 to move to the front of the work rack WS and face the work rack WS. Whether or not the robot has moved to the front of the work shelf WS can be determined from the position coordinates of the work shelf WS and the position coordinates of the mobile manipulator 1 . Whether or not it is facing the work shelf WS can be determined by obtaining the angle with the work shelf WS.

なお、本実施形態のモバイルマニピュレータ1は、ゴールに到達してから周囲環境用取得装置2であるレーザスキャナがスキャンを開始する構成としているが、これに限らず、ゴールに到達する過程、つまり走行中にスキャンをおこなっていてもよい。 Note that the mobile manipulator 1 of this embodiment is configured such that the laser scanner, which is the acquisition device 2 for the surrounding environment, starts scanning after reaching the goal. Scanning may be performed during the process.

ステップS1におけるモバイルマニピュレータ1の移動、およびステップS2におけるゴールに到着したことの判断は、中央制御部8による制御を受ける。 The movement of the mobile manipulator 1 in step S1 and the determination of reaching the goal in step S2 are controlled by the central control unit 8. FIG.

ステップS3において取得された周囲情報は、中央制御部8に取得される。そして、ゴールの位置情報(作業棚WSの位置座標とモバイルマニピュレータ1の位置座標)と、周囲情報とに基づいて、中央制御部8によって、人検知用装置3の人検知エリアのエリア補正情報が生成される(ステップS4、検知エリア変更ステップ)。 The ambient information acquired in step S3 is acquired by the central control unit 8 . Based on the goal position information (the position coordinates of the work shelf WS and the position coordinates of the mobile manipulator 1) and the surrounding information, the central control unit 8 corrects the area correction information of the human detection area of the human detection device 3. generated (step S4, detection area change step).

エリア補正情報とは、先述したように、人検知用装置3のスキャン範囲から除く範囲を示す情報である。具体的には、先述した(作業棚WSの)平らな面WSpの位置座標情報である。 The area correction information is information indicating a range to be excluded from the scanning range of the human detection device 3, as described above. Specifically, it is the positional coordinate information of the flat surface WSp (of the work shelf WS) described above.

ステップS4においてエリア補正情報が生成されると、続いて、人検知用装置3の人検知エリアのエリア補正処理をおこなう(ステップS5、検知エリア変更ステップ)。このステップS5では、障害物として認識しないエリアを設定する。具体的には、ステップS5では、取得した平らな面WSpの位置座標情報に基づいて、平らな面WSpの位置を含み且つ当該位置よりもモバイルマニピュレータ1から離れた範囲を、障害物として認識しないエリアとして、人検知用装置3の人検知エリアから除く処理をおこなう。換言すれば、平らな面WSpの位置よりもモバイルマニピュレータ1側を、エリア補正後の人検知エリアとする処理をおこなう。この処理は、中央制御部8の制御を受け、人検知用装置3のスキャン範囲のうちのエリア補正後の人検知エリア(先述の範囲B)のみの情報が人検知処理に用いられるようにする。 After the area correction information is generated in step S4, area correction processing for the human detection area of the human detection device 3 is performed (step S5, detection area change step). In this step S5, an area that is not recognized as an obstacle is set. Specifically, in step S5, based on the acquired position coordinate information of the flat surface WSp, the range including the position of the flat surface WSp and further away from the mobile manipulator 1 than the position is not recognized as an obstacle. The area is removed from the human detection area of the human detection device 3 . In other words, processing is performed to set the mobile manipulator 1 side of the position of the flat surface WSp as the human detection area after area correction. This process is controlled by the central control unit 8 so that only the information of the human detection area after the area correction (the aforementioned range B) in the scanning range of the human detection device 3 is used for the human detection process. .

次に、中央制御部8の制御によって人検知用装置3を有効にして、人検知用装置3によってスキャン処理(人検知用装置3が本来有しているスキャン範囲をスキャンする)がおこなわれ、人検知用装置3が、(エリア補正後の)人検知エリアにおいて人検知処理をおこなう(ステップS6、人検知ステップ)。なお、人検知処理は、中央制御部8によっておこなわれてもよい。 Next, the human detection device 3 is enabled under the control of the central control unit 8, and the human detection device 3 performs scanning processing (scanning the original scanning range of the human detection device 3), The human detection device 3 performs human detection processing in the human detection area (after area correction) (step S6, human detection step). Note that the human detection process may be performed by the central control unit 8 .

ステップS6における人検知処理の結果、人を検知しなかった場合は、ステップS7に進み、中央制御部8の制御を受けてマニピュレータ4に所定の動作(作業)をさせる(ステップS7)。一方、ステップS6における人検知処理の結果、人を検知した場合には、人が検知されなくなるまでステップS6の人検知処理を繰り返す。この処理は、中央制御部8の制御によっておこなわれ、この間、マニピュレータ4は動作せずに待機している。 If no human is detected as a result of the human detection process in step S6, the process proceeds to step S7, and the manipulator 4 is caused to perform a predetermined operation (work) under the control of the central control unit 8 (step S7). On the other hand, if a human is detected as a result of the human detection processing in step S6, the human detection processing in step S6 is repeated until no human is detected. This processing is performed under the control of the central control unit 8, and the manipulator 4 is on standby during this time.

続いて、マニピュレータ4の動作が完了する(ステップS8)と、中央制御部8の制御によって、人検知用装置3を無効にする(ステップS9)。 Subsequently, when the operation of the manipulator 4 is completed (step S8), the human detection device 3 is disabled under the control of the central control unit 8 (step S9).

人検知用装置3が無効になると、中央制御部8の制御によって、モバイルマニピュレータ1が移動を開始する(ステップS10)。 When the human detection device 3 is disabled, the mobile manipulator 1 starts moving under the control of the central control unit 8 (step S10).

以上の動作フローをおこなう本実施形態1のモバイルマニピュレータ1によれば、人検知用装置3によって人を正確に検知して、良好かつ安全にマニピュレータ動作を実行することができる。 According to the mobile manipulator 1 of the first embodiment that performs the operation flow described above, the human detection device 3 can accurately detect a person, and the manipulator operation can be performed satisfactorily and safely.

ここで、ステップS7においてマニピュレータ4が動作している間にも、ステップS6の人検知処理は継続されている。そして、人を検知した時点で、中央制御部8はマニピュレータ4の動作を停止あるいは動作速度を落とさせ、人を検知しなくなるまでその状態を維持させる。人を検知しなくなると、中央制御部8はマニピュレータ4の動作を再開させる。 Here, even while the manipulator 4 is operating in step S7, the human detection process in step S6 is continued. Then, when a person is detected, the central control unit 8 stops the operation of the manipulator 4 or slows down the operation speed, and maintains this state until the person is no longer detected. When the human is no longer detected, the central control unit 8 restarts the operation of the manipulator 4 .

以上の本実施形態のモバイルマニピュレータ1によれば、人検知用装置3であるレーザスキャナの人検知エリアが補正され、人以外の物が人検知エリアに含まれない構成となっている。これにより、人検知用装置3によって物を人と誤検知して、マニピュレータ4の動作が開始できないというトラブルを回避することができる。 According to the mobile manipulator 1 of the present embodiment described above, the human detection area of the laser scanner, which is the human detection device 3, is corrected so that objects other than humans are not included in the human detection area. As a result, it is possible to avoid troubles in which the human detection device 3 erroneously detects an object as a person and the manipulator 4 cannot start operating.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.

(1)モバイルマニピュレータ1´の構成
図6は、本実施形態2のモバイルマニピュレータ1´を、その使用環境とともに示す上面図である。
(1) Configuration of Mobile Manipulator 1' FIG. 6 is a top view showing the mobile manipulator 1' of Embodiment 2 together with its usage environment.

上述の実施形態1のモバイルマニピュレータ1は、周囲環境用取得装置2としてレーザスキャナを用いているのに対して、本実施形態2のモバイルマニピュレータ1´は、作業棚WSに付されたRFID(radiofrequency identification)タグWStagを読み出すリーダライタを、周囲環境用取得装置2´として備えている点において相違する。 While the mobile manipulator 1 of Embodiment 1 described above uses a laser scanner as the ambient environment acquisition device 2, the mobile manipulator 1' of Embodiment 2 uses an RFID (radiofrequency) attached to the work shelf WS. identification) The difference is that a reader/writer for reading the tag WStag is provided as the ambient environment acquisition device 2'.

具体的には、本実施形態2のモバイルマニピュレータ1´が、作業棚WSに付されたRFIDタグWStagに正対できる位置に近接すると、周囲環境用取得装置2´であるリーダライタに、RFIDタグWStagが読み取られる。要するに、読み取られることにより、本実施形態2のモバイルマニピュレータ1´が、先述の実施形態1において説明したゴール位置に到達していると判断できる。 Specifically, when the mobile manipulator 1' of Embodiment 2 approaches a position where it can directly face the RFID tag WStag attached to the work shelf WS, the reader/writer, which is the acquisition device 2' for ambient environment, receives the RFID tag WStag is read. In short, by reading, it can be determined that the mobile manipulator 1' of the second embodiment has reached the goal position described in the first embodiment.

作業棚WSに付されたRFIDタグWStagは、位置固有の識別IDが情報として格納されている。 The RFID tag WStag attached to the work shelf WS stores a position-specific identification ID as information.

一方、本実施形態2のモバイルマニピュレータ1´の中央制御部8には、作業棚WSに付されたRFIDタグWStagに格納されている位置情報に対応したマップ情報が予め記憶されている。このマップ情報には、RFIDタグWStagの検出位置におけるモバイルマニピュレータ1´と作業棚WSとの距離、および作業棚WSの配設角度に関する情報が含まれている。図10にマップ情報1000を示す。マップ情報1000は、障害物のエッジ情報のみで周囲の情報が構成されている。 On the other hand, the map information corresponding to the position information stored in the RFID tag WStag attached to the work shelf WS is stored in advance in the central control unit 8 of the mobile manipulator 1' of the second embodiment. This map information includes information on the distance between the mobile manipulator 1' and the work shelf WS at the detection position of the RFID tag WStag, and the arrangement angle of the work shelf WS. FIG. 10 shows map information 1000 . The map information 1000 consists of surrounding information only with edge information of obstacles.

すなわち、このマップ情報1000に基づけば、人検知用装置3のスキャン範囲に含まれる人以外の物の範囲の情報を取得することができる。よって、実施形態1と同じく、人検知用装置3のスキャン範囲から、人検知エリアを絞ることができる。図6における使用環境では、L字型を有する作業棚WSに関して、その形状を、マップ情報1000から取得することができる。そのため、そのマップ情報1000に基づけば、図6中に範囲B´として示した範囲を、人検知エリアとすることになる。これにより、作業棚WSを人と誤検知することなく、人検知を確実におこなうことができる。 That is, based on this map information 1000, it is possible to obtain information on the range of objects other than people included in the scanning range of the human detection device 3. FIG. Therefore, as in the first embodiment, the human detection area can be narrowed down from the scanning range of the human detection device 3 . In the environment of use in FIG. 6, the shape of the L-shaped work shelf WS can be acquired from the map information 1000 . Therefore, based on the map information 1000, the range shown as range B' in FIG. 6 is set as the human detection area. As a result, human detection can be reliably performed without erroneously detecting the work shelf WS as a human.

マップ情報1000に基づいた態様とすることにより、実施形態1において説明した周囲環境用取得装置2のスキャン範囲2aからは外れているものの、人検知用装置3のスキャン範囲に含まれる物について、当該物に関する情報を取得することができる。具体的には、図6に一点破線で囲んだ領域に含まれる作業棚WSの面WSpに関する情報をマップ情報に基づく本実施形態2の態様であれば取得することができる。これにより、範囲B´を人のみを検知できる適切なエリアとして設定することができる。 By adopting an aspect based on the map information 1000, an object outside the scan range 2a of the ambient environment acquisition device 2 described in the first embodiment, but included in the scan range of the human detection device 3, can be detected. Information about objects can be obtained. Specifically, information about the surface WSp of the work shelf WS included in the area surrounded by the dashed line in FIG. 6 can be obtained in the mode of the second embodiment based on the map information. As a result, range B' can be set as an appropriate area in which only people can be detected.

(2)モバイルマニピュレータ1´の動作フロー
以下に、図7のフローチャートを用いて、本実施形態2のモバイルマニピュレータ1´の動作フローを説明する。
(2) Operation Flow of Mobile Manipulator 1' The operation flow of the mobile manipulator 1' according to the second embodiment will be described below using the flowchart of FIG.

モバイルマニピュレータ1´が移動して(ステップS11)、所定のゴールに到着する(ステップS12)と、周囲環境用取得装置2´であるリーダライタが作業棚WSに付されたRFIDタグWStagを読み出し、RFIDタグWStagに格納されている位置情報に対応したマップ情報を取得する(ステップS13)。 When the mobile manipulator 1' moves (step S11) and reaches a predetermined goal (step S12), the reader/writer, which is the ambient environment acquisition device 2', reads the RFID tag WStag attached to the work shelf WS, Map information corresponding to the position information stored in the RFID tag WStag is obtained (step S13).

ここで、所定のゴールに到着していることは、周囲環境用取得装置2´であるリーダライタがRFIDタグWStagを読み出したことによって判断することができる。モバイルマニピュレータ1´の移動、RFIDタグWStagの読み出し、マップ情報の取得は、何れも中央制御部8によっておこなわれる。 Here, the fact that the predetermined goal has been reached can be determined by the reading of the RFID tag WStag by the reader/writer, which is the ambient environment acquisition device 2'. Movement of the mobile manipulator 1', reading of the RFID tag WStag, and acquisition of map information are all performed by the central control unit 8. FIG.

ステップS13においてマップ情報が取得されると、中央制御部8によって、人検知用装置3の人検知エリアのエリア補正情報が生成される(ステップS14)。 When the map information is acquired in step S13, the central control unit 8 generates area correction information for the human detection area of the human detection device 3 (step S14).

エリア補正情報とは、先述したように、障害物として認識しないエリアとして、人検知用装置3の人検知エリアから除く範囲を示す情報である。具体的には、先述した(作業棚WSの)平らな面WSpの位置座標情報である。 As described above, the area correction information is information indicating a range excluded from the human detection area of the human detection device 3 as an area not recognized as an obstacle. Specifically, it is the positional coordinate information of the flat surface WSp (of the work shelf WS) described above.

ステップS14においてエリア補正情報が生成されると、続いて、人検知用装置3の人検知エリアのエリア補正処理をおこなう(ステップS15、検知エリア変更ステップ)。このステップS15では、障害物として認識しないエリアを設定する。具体的には、ステップS15では、取得した平らな面WSpの位置座標情報に基づいて、平らな面WSpの位置を含み且つ当該位置よりもモバイルマニピュレータ1から離れた範囲を、障害物として認識しないエリアとして、人検知用装置3の人検知エリアから除く処理をおこなう。換言すれば、平らな面WSpの位置よりもモバイルマニピュレータ1側を、エリア補正後の人検知エリアとする処理をおこなう。この処理は、中央制御部8の制御を受け、人検知用装置3のスキャン範囲のうちのエリア補正後の人検知エリア(先述の範囲B)のみの情報が人検知処理に用いられるようにする。 After the area correction information is generated in step S14, area correction processing for the human detection area of the human detection device 3 is performed (step S15, detection area change step). In this step S15, an area that is not recognized as an obstacle is set. Specifically, in step S15, based on the obtained positional coordinate information of the flat surface WSp, the range including the position of the flat surface WSp and further away from the mobile manipulator 1 than the position is not recognized as an obstacle. The area is removed from the human detection area of the human detection device 3 . In other words, processing is performed to set the mobile manipulator 1 side of the position of the flat surface WSp as the human detection area after area correction. This process is controlled by the central control unit 8 so that only the information of the human detection area after the area correction (the aforementioned range B) in the scanning range of the human detection device 3 is used for the human detection process. .

次に、中央制御部8の制御によって人検知用装置3を有効にして、人検知エリアにおいて人検知処理をおこなう(ステップS16)。 Next, the human detection device 3 is enabled under the control of the central control unit 8, and the human detection process is performed in the human detection area (step S16).

なお、ステップS17からステップS20は、実施形態1において説明したステップS7からステップS10にそれぞれ対応しているため、ここでは説明を省略する。 Note that steps S17 to S20 correspond to steps S7 to S10 described in the first embodiment, respectively, so description thereof will be omitted here.

以上の動作フローをおこなう本実施形態2のモバイルマニピュレータ1´によれば、人検知用装置3によって人を正確に検知して、良好かつ安全にマニピュレータ動作を実行することができる。 According to the mobile manipulator 1' of Embodiment 2 that performs the above operation flow, the human detection device 3 can accurately detect a person, and the manipulator operation can be performed satisfactorily and safely.

〔実施形態3〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 3]
Other embodiments of the invention are described below. For convenience of description, members having the same functions as those of the members described in the above embodiments are denoted by the same reference numerals, and description thereof will not be repeated.

本実施形態3のモバイルマニピュレータと、上述の実施形態2のモバイルマニピュレータ1´との相違点は、エリア補正情報の取得方法にある。 The difference between the mobile manipulator of the third embodiment and the mobile manipulator 1' of the second embodiment lies in the method of acquiring area correction information.

以下に、図8のフローチャートを用いて、本実施形態3のモバイルマニピュレータの動作フローを説明する。 The operation flow of the mobile manipulator of the third embodiment will be described below with reference to the flowchart of FIG.

本実施形態3のモバイルマニピュレータが移動して(ステップS21)、所定のゴールに到着する(ステップS22)と、周囲環境用取得装置2´であるリーダライタが作業棚WSに付されたRFIDタグWStagを読み出し(ステップS23)、RFIDタグWStagに格納されている位置情報を取得する(ステップS24)。 When the mobile manipulator of Embodiment 3 moves (step S21) and reaches a predetermined goal (step S22), the reader/writer, which is the ambient environment acquisition device 2', detects the RFID tag WStag attached to the work shelf WS. is read out (step S23), and the position information stored in the RFID tag WStag is obtained (step S24).

続いて、取得した位置情報に基づいて、中央制御部8が、中央サーバから、人検知エリアを絞るためのエリア補正情報を取得する(ステップS25)。具体的には、取得した位置情報に基づいて、中央サーバにおいて、位置情報に対応したマップ情報が参照されて、人検知用装置3の人検知エリアのエリア補正情報が生成される。 Subsequently, based on the acquired position information, the central control unit 8 acquires area correction information for narrowing down the human detection area from the central server (step S25). Specifically, based on the acquired position information, map information corresponding to the position information is referenced in the central server, and area correction information for the human detection area of the human detection device 3 is generated.

続いて、中央制御部8は、取得したエリア補正情報を用いて、人検知用装置3の人検知エリアのエリア補正処理をおこなう(ステップS26、検知エリア変更ステップ)。具体的な処理内容は、実施形態2において説明したステップS15と同じである。 Subsequently, the central control unit 8 performs area correction processing of the human detection area of the human detection device 3 using the acquired area correction information (step S26, detection area change step). The specific processing content is the same as that of step S15 described in the second embodiment.

次に、中央制御部8の制御によって人検知用装置3を有効にして、補正された人検知エリアにおいて人検知処理をおこなう(ステップS27)。 Next, the human detection device 3 is enabled under the control of the central control unit 8, and the human detection process is performed in the corrected human detection area (step S27).

なお、ステップS28からステップS31は、実施形態1において説明したステップS7からステップS10にそれぞれ対応しているため、ここでは説明を省略する。 Note that steps S28 to S31 correspond to steps S7 to S10 described in the first embodiment, respectively, and therefore description thereof is omitted here.

以上の動作フローによって人検知した場合であっても、実施形態2と同様に、人を正確に検知することができる。 Even when a person is detected by the operation flow described above, the person can be accurately detected as in the second embodiment.

〔実施形態4〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、その説明を繰り返さない。
[Embodiment 4]
Other embodiments of the invention are described below. For convenience of description, descriptions of members having the same functions as those of the members described in the above embodiments will not be repeated.

上述の実施形態2では、作業棚WSに付されたRFIDタグWStagと、周囲環境用取得装置2´であるリーダライタとで対をなした構成として、周囲情報を取得しているが、本発明はこれに限定されるものではない。例えば、本実施形態4では、RFIDタグWStagに代えて、近接センサを用いた態様であってもよい。 In the second embodiment described above, ambient information is acquired by a configuration in which the RFID tag WStag attached to the work shelf WS and the reader/writer, which is the ambient environment acquisition device 2', are paired. is not limited to this. For example, in the fourth embodiment, a proximity sensor may be used instead of the RFID tag WStag.

近接センサとしては、磁気型あるいは誘導型の近接センサを用いることができる。近接センサの検出体を作業棚に、検出器をモバイルマニピュレータに付す構成とすることにより、検出距離が短く、モバイルマニピュレータの位置情報を正確に得ることができる。 A magnetic or inductive proximity sensor can be used as the proximity sensor. By attaching the detection body of the proximity sensor to the work shelf and the detector to the mobile manipulator, the detection distance is short and the position information of the mobile manipulator can be obtained accurately.

例えば、モバイルマニピュレータに、複数の近接センサの検出器(周囲環境用取得装置)を持たせ、人検知用装置3自身に、あらかじめ、人を検知する/しない範囲の情報を複数種類登録しておいて、到着したゴールに応じた近接センサの検出器がONすることによって、人を検知する/しない範囲の情報が選択される構成となっている。 For example, the mobile manipulator is provided with a plurality of proximity sensor detectors (environment acquisition device), and the human detection device 3 itself registers in advance a plurality of types of information on the range of whether or not to detect a person. Then, by turning on the detector of the proximity sensor according to the goal reached, the information of the range of detecting/not detecting a person is selected.

この構成のように、人を検知する/しない範囲をあらかじめ登録しておき、検出器からの入力によって、登録された中のいずれかを選択して、その範囲において人の有無を検知するという態様を採用することによっても、他の実施形態と同様に、誤検知を回避して、人の有無を正しく検知して、安全にモバイルマニピュレータを動作させることができる。 As in this configuration, a range in which a person is detected/not detected is registered in advance, one of the registered ranges is selected by input from the detector, and the presence or absence of a person is detected in that range. , it is possible to avoid erroneous detection, correctly detect the presence or absence of a person, and operate the mobile manipulator safely, as in the other embodiments.

〔ソフトウェアによる実現例〕
モバイルマニピュレータ1、1´の制御ブロック(特に、マニピュレータ制御部5、移動制御部6、中央制御部8)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control blocks of the mobile manipulators 1 and 1' (particularly, the manipulator control section 5, the movement control section 6, and the central control section 8) are realized by logic circuits (hardware) formed on integrated circuits (IC chips) or the like. Alternatively, it may be implemented by software.

後者の場合、モバイルマニピュレータ1、1´は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the mobile manipulators 1, 1' are equipped with computers that execute instructions of programs, which are software that implement each function. This computer includes, for example, one or more processors, and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

1、1´ モバイルマニピュレータ
2、2´ 周囲環境用取得装置(周囲情報用取得部、リーダライタ)
2a スキャン範囲
3 人検知用装置(人検知部、検知エリア変更部、レーザスキャナ)
4 マニピュレータ
5 マニピュレータ制御部
6 移動制御部
7 移動機構
8 中央制御部
1000 マップ情報
WS 作業棚
WSn 作業棚の一部分
WSp 作業棚の平らな面
po 複数点
WStag RFIDタグ
1, 1' mobile manipulators 2, 2' surrounding environment acquisition device (surrounding information acquisition unit, reader/writer)
2a Scan range 3 Human detection device (human detection unit, detection area change unit, laser scanner)
4 Manipulator 5 Manipulator control unit 6 Movement control unit 7 Movement mechanism 8 Central control unit 1000 Map information WS Work shelf WSn Part of work shelf WSp Flat surface of work shelf po Multi-point WStag RFID tag

Claims (5)

作業ロボットの周囲における人以外の物に関する情報である周囲情報を取得する周囲情報用取得部と、
前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知部と、
前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更部とを備え
前記周囲情報用取得部は、前記物に付されたRFIDタグを読み出すリーダライタであり、前記RFIDタグから、位置固有の識別IDである位置情報を取得して、前記位置情報に対応したマップ情報に基づいて前記物の配設範囲の情報を取得し、
前記検知エリア変更部は、前記物の配設範囲の情報に基づいて、前記人検知エリアの範囲を、前記人検知部が有する人検知の可能範囲から、当該物のない領域に絞る、ことを特徴とする作業ロボット。
a peripheral information acquiring unit that acquires peripheral information, which is information about objects other than people around the working robot;
a human detection unit that detects the presence or absence of a person in a human detection area set around the working robot;
a detection area changing unit that changes the range of the human detection area according to the surrounding information ;
The acquisition unit for surrounding information is a reader/writer that reads an RFID tag attached to the object, acquires location information, which is a location-specific identification ID, from the RFID tag, and obtains map information corresponding to the location information. to obtain the information of the arrangement range of the said object based on
The detection area changing unit narrows down the range of the human detection area from the human detection possible range of the human detection unit to a region without the object, based on the information on the arrangement range of the object. A working robot characterized by:
前記周囲情報用取得部は、前記人検知部による人検知が不可能な領域に在る前記物を検出する、請求項1記載の作業ロボット。 2. The working robot according to claim 1, wherein said ambient information acquisition unit detects said object in an area where human detection by said human detection unit is impossible. 移動機構を更に備えたモバイルマニピュレータである、請求項1または2に記載の作業ロボット。 3. The working robot according to claim 1 , which is a mobile manipulator further comprising a moving mechanism. 前記人検知部は、レーザスキャナであることを特徴とする請求項1からまでの何れか1項に記載の作業ロボット。 The work robot according to any one of claims 1 to 3 , wherein the human detection unit is a laser scanner. 作業ロボットの周囲における人以外の物に関する情報である周囲情報を取得する周囲情報用取得ステップと、
前記作業ロボットの周囲に設定される人検知エリアにおける人の有無を検知する人検知ステップと、
前記人検知エリアの範囲を、前記周囲情報に応じて変更する検知エリア変更ステップとを含み、
前記周囲情報用取得ステップは、前記物に付されたRFIDタグから、位置固有の識別IDである位置情報を取得して、前記位置情報に対応したマップ情報に基づいて前記物の配設範囲の情報を取得し、
前記検知エリア変更ステップは、前記物の配設範囲の情報に基づいて、前記人検知エリアの範囲を、当該物のない領域に絞る、作業ロボットの制御方法。
an ambient information acquisition step for acquiring ambient information, which is information about objects other than people around the working robot;
a human detection step of detecting the presence or absence of a human in a human detection area set around the working robot;
a detection area changing step of changing the range of the human detection area according to the surrounding information ;
The ambient information acquisition step acquires position information, which is a position-specific identification ID, from an RFID tag attached to the object, and determines the installation range of the object based on map information corresponding to the position information. get information,
The detection area changing step narrows down the range of the human detection area to an area without the object based on information on the arrangement range of the object.
JP2019096212A 2019-05-22 2019-05-22 Work robot and its control method Active JP7310297B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019096212A JP7310297B2 (en) 2019-05-22 2019-05-22 Work robot and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019096212A JP7310297B2 (en) 2019-05-22 2019-05-22 Work robot and its control method

Publications (2)

Publication Number Publication Date
JP2020189379A JP2020189379A (en) 2020-11-26
JP7310297B2 true JP7310297B2 (en) 2023-07-19

Family

ID=73454977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019096212A Active JP7310297B2 (en) 2019-05-22 2019-05-22 Work robot and its control method

Country Status (1)

Country Link
JP (1) JP7310297B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023018920A (en) * 2021-07-28 2023-02-09 川崎重工業株式会社 Safety device, robot system, and control method
WO2024019105A1 (en) * 2022-07-21 2024-01-25 興和株式会社 Picking control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264070A (en) 2001-03-09 2002-09-18 Denso Corp Mobile robot and mobile robot system
JP2005088146A (en) 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology Object processing system, object processing method and robot
JP2007017414A (en) 2005-07-11 2007-01-25 Honda Motor Co Ltd Position management system and position management program
US20160062345A1 (en) 2014-08-29 2016-03-03 Amazon Technologies, Inc. Safety Compliance for Mobile Drive Units
JP2017080845A (en) 2015-10-28 2017-05-18 株式会社デンソーウェーブ Robot control system
JP2018126818A (en) 2017-02-07 2018-08-16 トヨタ自動車株式会社 Robot control device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264070A (en) 2001-03-09 2002-09-18 Denso Corp Mobile robot and mobile robot system
JP2005088146A (en) 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology Object processing system, object processing method and robot
JP2007017414A (en) 2005-07-11 2007-01-25 Honda Motor Co Ltd Position management system and position management program
US20160062345A1 (en) 2014-08-29 2016-03-03 Amazon Technologies, Inc. Safety Compliance for Mobile Drive Units
JP2017080845A (en) 2015-10-28 2017-05-18 株式会社デンソーウェーブ Robot control system
JP2018126818A (en) 2017-02-07 2018-08-16 トヨタ自動車株式会社 Robot control device

Also Published As

Publication number Publication date
JP2020189379A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP6866673B2 (en) Monitoring system, monitoring device, and monitoring method
US10379513B2 (en) Monitoring system, monitoring device, and monitoring method
JP5668770B2 (en) Robot system and control method of robot system
US9122266B2 (en) Camera-based monitoring of machines with mobile machine elements for collision prevention
JP6601155B2 (en) Robot control system
CN109947089B (en) Automatic guided vehicle attitude control method and device and automatic guided vehicle
JP7310297B2 (en) Work robot and its control method
US10664939B2 (en) Position control system, position detection device, and non-transitory recording medium
JP2011042011A (en) Robot control device, method and program, and robot
CN113966265B (en) Method and system for operating a robot
JP2016057983A (en) Self position estimation system and method for estimating self position
JP2007200070A (en) Mobile robot
CN111491766A (en) Safety control module for robot assembly and method thereof
US12023813B2 (en) Control system, control method, and control unit
JP2017117211A (en) Detection device, method, and program
JP6491893B2 (en) Autonomous traveling control system, autonomous traveling apparatus using the autonomous traveling control system, autonomous traveling control method, control program, and recording medium
CN114905503B (en) Robot control system, robot control method, and storage medium
US20220229443A1 (en) Autonomous mobile system, autonomous mobile method, and autonomous mobile program
US12062131B2 (en) Six-DoF measurement aid
JP2020093373A (en) Robot interference determination device, robot interference determination method, robot control device, and robot control system
US20220194737A1 (en) Autonomous mobile system, autonomous mobile method, and autonomous mobile program
JP2017226064A (en) Obstacle determination device
KR102710614B1 (en) Apparatus and method for actively recognizing landmarks based on multiple degrees of freedom camera
US20240009834A1 (en) Mobile manipulator robot and method for using the same
JP7491229B2 (en) AUTONOMOUS MOBILITY SYSTEM, AUTONOMOUS MOBILITY METHOD, AND AUTONOMOUS MOBILITY PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7310297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150