JP4448497B2 - Self-position detecting device and position detecting system for moving body - Google Patents

Self-position detecting device and position detecting system for moving body Download PDF

Info

Publication number
JP4448497B2
JP4448497B2 JP2006079927A JP2006079927A JP4448497B2 JP 4448497 B2 JP4448497 B2 JP 4448497B2 JP 2006079927 A JP2006079927 A JP 2006079927A JP 2006079927 A JP2006079927 A JP 2006079927A JP 4448497 B2 JP4448497 B2 JP 4448497B2
Authority
JP
Japan
Prior art keywords
mark
unit
marks
current position
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006079927A
Other languages
Japanese (ja)
Other versions
JP2007257226A (en
Inventor
進太郎 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006079927A priority Critical patent/JP4448497B2/en
Publication of JP2007257226A publication Critical patent/JP2007257226A/en
Application granted granted Critical
Publication of JP4448497B2 publication Critical patent/JP4448497B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体の自己位置検出装置および位置検出システムに関するものである。   The present invention relates to a self-position detection device and a position detection system for a moving body.

従来、自走車や移動ロボット(以下、単にロボットという)などの移動体が、移動体に備えられたカメラで撮像された画像を処理することにより、自己の位置を検出する位置検出装置や位置検出システムが知られている(例えば、特許文献1、特許文献2、および非特許文献1参照)。   Conventionally, a moving body such as a self-propelled vehicle or a mobile robot (hereinafter simply referred to as a robot) detects a position of the mobile body by processing an image captured by a camera provided on the mobile body. Detection systems are known (see, for example, Patent Document 1, Patent Document 2, and Non-Patent Document 1).

特許文献1に記載された位置検出装置は、例えば、工場内で使用される自走可能な産業用ロボットに備えられる。そして、工場内の曲がり角などの特定位置を検出するために、天井に設置された照明(蛍光灯)のうち、特定位置の真上の蛍光灯だけには偏光フィルタが予め被せられている。この位置検出装置は、天井を撮影するカメラを備えており、偏光フィルタが被せられた蛍光灯を撮像して画像処理することにより、特定位置に到達したことを検出する。これにより、位置検出装置を搭載した産業用ロボットは、例えば、通常はラインに沿って直進しつつ、特定位置を検出したときに、進行方向を変えて再び直進するような移動軌跡を描くことが可能となる。   The position detection device described in Patent Document 1 is provided in, for example, a self-propelled industrial robot used in a factory. And in order to detect specific positions, such as a corner in a factory, only the fluorescent lamp just above a specific position is previously covered with the polarizing filter among the illuminations (fluorescent lamps) installed in the ceiling. This position detection device includes a camera for photographing the ceiling, and detects that a specific position has been reached by imaging a fluorescent lamp covered with a polarization filter and performing image processing. As a result, an industrial robot equipped with a position detection device can draw a movement trajectory that, for example, usually moves straight along a line, but changes straight ahead again when detecting a specific position. It becomes possible.

特許文献2に記載された位置検出装置は、例えば、工場以外に家庭などにおいても、予め定められた命令に従って自律的に移動できる自律移動型ロボットに備えられる。このロボットは、命令に従って、移動領域内に設けられたバッテリ充電用スタンド(スタンド)に自ら移動する。充電を行うためには、スタンドに設置されたバッテリ供給用プラグと、ロボットに設けられたバッテリ受給用プラグとを正確に接続する必要がある。ただし、ロボット単独では、所望の位置に正確に移動することはできない。そのため、このスタンドは、ロボットの身長よりも高い位置に3個の球状のマーカを有している。一方、ロボットは、頭頂部に上方撮影用のカメラを備えており、このカメラでマーカを撮像して画像処理することにより、バッテリ供給用プラグとの間で正確な位置合わせが可能である。   The position detection device described in Patent Literature 2 is provided in an autonomous mobile robot that can autonomously move according to a predetermined command, for example, at home as well as in a factory. This robot moves by itself to a battery charging stand (stand) provided in the movement area in accordance with a command. In order to perform charging, it is necessary to accurately connect the battery supply plug installed in the stand and the battery reception plug provided in the robot. However, the robot alone cannot accurately move to a desired position. Therefore, this stand has three spherical markers at a position higher than the height of the robot. On the other hand, the robot is provided with a camera for upward shooting at the top of the head, and an accurate position alignment with the battery supply plug is possible by imaging a marker with the camera and processing the image.

非特許文献1に記載された位置検出装置は、例えば、自走可能な産業用ロボットに備えられる。そして、一例として、工場内で移動軌跡を変更したい所望の場所(変更ポイントという)の上の天井には、複数の反射シールが予め貼り付けられている。この反射シールには識別用のIDが付与され、さらに、コマンドなどの情報が格納されている。位置検出装置は、天井に可視光を照射する光源と、照射光を反射した反射シールを撮影するカメラと、反射シールのIDとコマンドとの対照表とを備えており、撮像された画像を処理することにより、反射シールのIDを特定し、対照表からコマンドを抽出する。したがって、ロボットは、変更ポイントに到達して反射シールからコマンドを取得するたびに動作を変更できる。例えば、直進、回転、停止などを示すコマンドを反射シールごとに用意して、それらを適宜組み合わせることにより、ロボットは、複雑な動きや滑らかな動きができる。   The position detection device described in Non-Patent Document 1 is provided, for example, in an industrial robot capable of self-running. As an example, a plurality of reflective seals are pasted in advance on a ceiling above a desired place (referred to as a change point) where the movement trajectory is to be changed in the factory. An ID for identification is given to the reflection seal, and information such as a command is stored. The position detection device includes a light source that irradiates the ceiling with visible light, a camera that captures the reflection sticker that reflects the irradiation light, and a comparison table of the ID and command of the reflection sticker, and processes the captured image. By doing so, the ID of the reflective seal is specified, and the command is extracted from the comparison table. Therefore, the robot can change its operation each time it reaches the change point and obtains a command from the reflective sticker. For example, by preparing commands indicating straight travel, rotation, stop, etc. for each reflective sticker and combining them appropriately, the robot can perform complex motions and smooth motions.

なお、ロボットではなく、人間(ユーザ)が例えば腰部に装着可能なウェアラブルコンピュータ(ウェアラブルPC)において、ユーザの頭部に装着された光源付きカメラで撮像された画像を、接続されたウェアラブルPCで処理することにより、ユーザが自己の位置を検出できるナビゲーションシステムが知られている(例えば、非特許文献2参照)。   In addition, in a wearable computer (wearable PC) that a human (user) can wear on the lower back, for example, instead of a robot, an image captured by a camera with a light source mounted on the user's head is processed by the connected wearable PC. By doing so, a navigation system in which the user can detect his / her position is known (for example, see Non-Patent Document 2).

非特許文献2に記載されたナビゲーションシステムでは、例えば、ユーザの移動領域の天井には、複数の位置特定用のマーカが規則的に予め貼り付けられている。例えば、1辺約15cmのマーカが約50cm間隔でチドリ状に配置される。このマーカは、半透明のベース(基板)に、このベースより充分小さい再帰性反射部材を所定のパターンで貼り付けたものである。例えば、マーカのベースに対して反射部材を1個ないし最大4×4個のマス目状に配することにより、マーカに対して例えば4096通りのIDを付与することが可能となる。ウェアラブルPCは、撮像された画像を処理することにより、マーカのIDを特定する。したがって、IDと位置情報とを関連付けておけば、ユーザは、マーカからIDを取得するたびに現在位置を認識できる。
特開平8−300279号公報(段落0011〜段落0016、図1) 特開2004−303137号公報(段落0044〜段落0052、図1) 目崎祐史、外1名、「移動ロボットのための反射シールを用いたナビゲーション」、電子情報通信学会、コンピュータビジョン、平成4年1月24日、76−21、p.151−158 中里祐介、外2名、「再帰性反射マーカと赤外線カメラを用いたユーザの位置姿勢同定」、電子情報通信学会、技術研究報告、平成16年7月、IE2004-24、p.25−28
In the navigation system described in Non-Patent Document 2, for example, a plurality of position specifying markers are regularly pasted regularly on the ceiling of the user's moving area. For example, markers of about 15 cm on a side are arranged in a plover shape at intervals of about 50 cm. This marker is obtained by pasting a retroreflective member sufficiently smaller than the base in a predetermined pattern on a translucent base (substrate). For example, it is possible to assign, for example, 4096 IDs to the marker by arranging one reflecting member or a maximum of 4 × 4 grids on the base of the marker. The wearable PC specifies the marker ID by processing the captured image. Therefore, by associating the ID and the position information, the user can recognize the current position every time the ID is acquired from the marker.
JP-A-8-300309 (paragraphs 0011 to 0016, FIG. 1) JP 2004-303137 A (paragraph 0044 to paragraph 0052, FIG. 1) Yuji Mezaki, 1 other, "Navigation using reflective stickers for mobile robots", IEICE, Computer Vision, January 24, 1992, 76-21, p.151-158 Yusuke Nakazato, 2 others, “Identification of user's position and orientation using retroreflective marker and infrared camera”, IEICE Technical Report, July 2004, IE2004-24, p.25-28

しかしながら、特許文献1に記載の位置検出装置は、特定な位置に設けられた照明(蛍光灯)の位置を検出するものなので、産業用ロボット等のライントレースには有効であるが、自律移動ロボットへ適用した場合には、ロボットの行動を制限してしまう。また、蛍光灯の代わりに、能動的に光を放出する物体を配置すると、システム全体のコストが大きくなる。   However, since the position detection device described in Patent Document 1 detects the position of an illumination (fluorescent lamp) provided at a specific position, it is effective for line tracing of an industrial robot or the like. When applied to the robot, the behavior of the robot is restricted. Further, if an object that actively emits light is disposed instead of the fluorescent lamp, the cost of the entire system increases.

また、特許文献2に記載の位置検出装置は、自律移動可能なロボットによる正確な位置検出を可能とするが、移動領域の中で複数の場所を検出するためには、その場所に対応した複数のマーカ(あるいはスタンド)が必要であり、システム全体として多大なコストを要することとなる。   In addition, the position detection device described in Patent Document 2 enables accurate position detection by a robot that can move autonomously, but in order to detect a plurality of places in a moving region, a plurality of positions corresponding to the places are detected. Marker (or stand) is required, and the entire system is expensive.

また、非特許文献1に記載の位置検出装置は、変更ポイントでコマンドを検出するものであり、予め移動軌跡が決定されている産業用ロボットに対しては有効であるが、自律移動ロボットへ適用した場合には、ロボットの行動を制限してしまう。なお、反射マークには、コマンドを格納できる記憶領域が必要であり、反射マークのコストが嵩んでしまう。
また、非特許文献2に記載のナビゲーションシステムは、マーカの検出位置と、実際のマーカ配置との誤差が数十cm以上もあり、誤差が大きいという問題がある。
さらに、天井等に位置特定用の部材(マーカ)を配置する必要のある従来の位置検出システムでは、当該位置検出システムを汎用化するために、マーカの配置に要する手間を低減したいという要望がある。
The position detection device described in Non-Patent Document 1 detects a command at a change point and is effective for an industrial robot whose movement trajectory is determined in advance, but is applied to an autonomous mobile robot. In such a case, the behavior of the robot is restricted. Note that the reflective mark requires a storage area in which commands can be stored, which increases the cost of the reflective mark.
Further, the navigation system described in Non-Patent Document 2 has a problem that the error between the marker detection position and the actual marker arrangement is several tens of centimeters or more, and the error is large.
Furthermore, in a conventional position detection system that needs to place a member (marker) for specifying a position on the ceiling or the like, there is a demand for reducing the effort required to place the marker in order to generalize the position detection system. .

そこで、本発明では、前記した問題を解決し、移動領域の中で任意の位置を正確に検出できる移動体の自己位置検出装置および位置検出システムを提供することを目的とする。
また、移動領域の中で任意の位置を低コストで検出できる位置検出システムを提供することを他の目的とする。
また、移動領域の中で位置特定用の部材の配置に要する手間を低減しつつ、任意の位置を検出できる位置検出システムを提供することを他の目的とする。
Therefore, an object of the present invention is to solve the above-described problems and provide a self-position detection device and a position detection system for a moving body that can accurately detect an arbitrary position in a moving region.
Another object of the present invention is to provide a position detection system that can detect an arbitrary position in a moving region at a low cost.
Another object of the present invention is to provide a position detection system capable of detecting an arbitrary position while reducing the labor required for arranging the position specifying member in the moving region.

本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載の移動体の自己位置検出装置は、少なくとも3個の再帰性反射部材と前記各再帰性反射部材を固定するための基材とを備えた位置特定用の少なくとも4つのマークが不規則配置で貼着された天井を有する移動領域を移動する移動体の自己位置検出装置であって、前記少なくとも4つのマークを含む天井に向かって赤外線を照射する赤外線照射手段と、前記照射された赤外線を反射した少なくとも3つのマークを撮像する撮像手段と、前記天井におけるマークの配置に関する情報と、前記移動領域の位置情報とを関連付けて記憶するマーク配置記憶手段と、前記撮像されたマークを画像処理することによって、前記再帰性反射部材に対応した少なくとも3個の画像をクラスタリングして1つのマークとして検出し、前記検出したマーク中の当該少なくとも3個の画像の中心座標をクラスタ代表点の座標として算出し、前記撮像された少なくとも3つ以上で前記天井に貼着された全マーク数未満の個数のマークを、当該個数のマークにおける互いの配置で特徴付けられるグループとして検出するマーク検出手段と、前記マーク配置記憶手段に記憶された前記マークの配置に関する情報を参照して、前記検出されたグループ内の前記クラスタ代表点の個数に応じて、前記天井に貼着された全マークを少なくとも4つのグループ候補に分け、前記グループ候補内の各マークの前記クラスタ代表点の互いの距離を距離データとしてそれぞれ求め、前記グループ候補内の前記クラスタ代表点間の各距離データと、前記検出されたグループ内の前記クラスタ代表点間の各距離データとを比較し、前記検出されたグループにおけるマークの配置と同一の配置を探索し、探索されたマークの配置に対応付けられた位置情報を前記移動体の現在位置として特定する現在位置特定手段とを備えることを特徴とする。 The present invention was devised to achieve the above object, and the self-position detecting device for a moving body according to claim 1 of the present invention comprises at least three retroreflective members and the respective recursive members. A self-position detecting device for a moving body that moves in a moving area having a ceiling on which at least four marks for position identification provided with a base material for fixing a reflecting member are attached in an irregular arrangement, wherein the infrared irradiation unit for irradiating infrared rays toward the ceiling comprising at least four marks, imaging means for imaging at least three marks reflected infrared rays the irradiated, and information regarding the placement of marks in the ceiling , a mark arrangement storing means that associates and stores the position information of the moving region, by image processing the mark which is the imaging, at least corresponding to the retroreflective member The images are clustered and detected as one mark, the center coordinates of the at least three images in the detected marks are calculated as the coordinates of cluster representative points, and the ceiling is obtained from at least three of the captured images. the mark in the number smaller than the total number of marks is adhered to, a mark detection means for detecting as a group characterized by the mutual arrangement of the mark of the number, relating to the arrangement of the mark stored in the mark arrangement storing means With reference to the information , according to the number of cluster representative points in the detected group, all marks attached to the ceiling are divided into at least four group candidates, and the marks of the marks in the group candidates The distance between cluster representative points is obtained as distance data, and each distance data between the cluster representative points in the group candidate is obtained. Data and compares the respective distance data between the clusters representative points in the detected group, said searching the same arrangement as the arrangement of the marks in the detected group, correspondence to the arrangement of the found marked Current position specifying means for specifying the obtained position information as the current position of the moving body.

かかる構成によれば、移動体の自己位置検出装置は、撮像手段によって、赤外線を反射した複数のマークを撮像し、マーク検出手段によって、画像処理することによって、複数のマークをグループとして検出する。このグループは3個以上のマークから成る。そして、自己位置検出装置は、現在位置特定手段によって、検出したグループと、予め記憶されたグループとを比較することにより、検出したグループを構成するマークの位置を移動体の現在位置として特定する。ここで、マークは不規則配置されているので、最低3個という比較的少数のマークから構成されたグループを識別することができる。また、複数のマークに基づいて、移動体の現在位置を特定するので、1個のマークだけを用いる場合と比較して、正確に位置を検出できる。   According to such a configuration, the self-position detection device of the moving body detects a plurality of marks as a group by imaging a plurality of marks reflecting infrared rays by the imaging unit and performing image processing by the mark detection unit. This group consists of three or more marks. Then, the self-position detecting device specifies the position of the mark constituting the detected group as the current position of the moving body by comparing the detected group with a previously stored group by the current position specifying means. Here, since the marks are irregularly arranged, a group composed of a relatively small number of marks of at least three can be identified. Further, since the current position of the moving body is specified based on a plurality of marks, the position can be detected more accurately than when only one mark is used.

また、請求項2に記載の移動体の自己位置検出装置は、請求項1に記載の移動体の自己位置検出装置であって、前記移動体の位置情報を時刻別に記憶する移動軌跡記憶手段と、前記現在位置特定手段で特定された位置情報を、前記移動軌跡記憶手段に格納する位置情報管理手段と、前記現在位置特定手段で現在位置が特定できない場合に、前記移動軌跡記憶手段に記憶された所定時刻の位置情報と、現在時刻とに基づいて、前記移動体の現在位置を推定する現在位置推定手段とをさらに備えることを特徴とする。   Further, the mobile body self-position detecting device according to claim 2 is the mobile body self-position detecting device according to claim 1, wherein the mobile body self-position detecting device stores position information of the mobile body according to time. The position information specified by the current position specifying means is stored in the movement locus storage means when the position information management means for storing the position information in the movement locus storage means and the current position cannot be specified by the current position specifying means. And a current position estimating means for estimating the current position of the mobile body based on the position information at the predetermined time and the current time.

かかる構成によれば、移動体の自己位置検出装置は、位置情報管理手段によって、現在位置を移動軌跡記憶手段に時刻別に格納し、現在位置推定手段によって、過去に検出した自己の位置に基づいて、現在位置を推定することができる。ここで、推定方法は、任意であり、例えば、過去の2地点の情報を用いた線形予測によるものでもよいし、過去の3地点以上の情報を用いた曲線予測によるものでもよい。   According to such a configuration, the mobile body self-position detection device stores the current position in the movement trajectory storage means by the time by the position information management means, and based on the self-position detected in the past by the current position estimation means. The current position can be estimated. Here, the estimation method is arbitrary, and may be, for example, linear prediction using information of two past points, or curve prediction using information of three or more points in the past.

また、請求項3に記載の移動体の自己位置検出装置は、請求項2に記載の移動体の自己位置検出装置であって、前記位置情報管理手段が、前記現在位置推定手段で推定された位置情報に基づいて、前記マーク配置記憶手段に記憶されたマークの配置に関する情報と、前記移動領域の位置情報とを更新することを特徴とする。   The mobile unit self-position detecting device according to claim 3 is the mobile unit self-position detecting device according to claim 2, wherein the location information managing unit is estimated by the current location estimating unit. Based on the position information, the information regarding the mark arrangement stored in the mark arrangement storage means and the position information of the moving area are updated.

かかる構成によれば、移動体の自己位置検出装置は、マーク配置記憶手段に予め格納されたマークの配置に関する情報よりも、現在位置推定手段で推定された位置情報を優先させることが可能である。仮に、マークが天井から剥がれてしまった場合には、そのマークを含むグループの情報が使用できなくなるので、予め格納されている情報を更新しなければならない。しかしながら、自己位置検出装置は、位置情報管理手段によって、マーク配置記憶手段に記憶されたマークの配置に関する情報を自動更新できるので、仮にマークが剥がれたとしても継続して現在位置を正確に検出することができる。   According to such a configuration, the mobile unit's self-position detection device can prioritize the position information estimated by the current position estimation unit over the information regarding the mark arrangement stored in advance in the mark arrangement storage unit. . If the mark is peeled off from the ceiling, the information of the group including the mark cannot be used, so the information stored in advance must be updated. However, the self-position detecting device can automatically update the information related to the mark arrangement stored in the mark arrangement storing means by the position information managing means, so that even if the mark is peeled off, it continues to accurately detect the current position. be able to.

また、請求項4に記載の移動体の自己位置検出装置は、請求項1ないし請求項3のいずれか一項に記載の移動体の自己位置検出装置であって、
前記移動体が、駆動機構を有した2つの脚部と、前記脚部の駆動機構を制御する脚部制御手段と、前記脚部の駆動により変化した姿勢に関する情報である姿勢データを算出する姿勢データ算出手段とを備えた2足歩行可能なロボットであり、前記現在位置特定手段は、前記姿勢データに基づいて、前記マーク検出手段で検出されたグループにおけるマークの前記クラスタ代表点間の距離データを補正することを特徴とする。
A mobile body self-position detecting device according to claim 4 is the mobile body self-position detecting device according to any one of claims 1 to 3,
Attitude by which the moving body calculates attitude data, which is information on attitudes changed by driving the legs, two legs having a driving mechanism, leg control means for controlling the driving mechanism of the legs A biped walking robot provided with data calculation means, wherein the current position specifying means is based on the posture data and the distance data between the cluster representative points of the marks in the group detected by the mark detection means It is characterized by correcting.

かかる構成によれば、移動体の自己位置検出装置は、前記現在位置特定手段によって、検出されたグループにおけるマークのクラスタ代表点間の距離データを、ロボットの姿勢を反映して補正する。したがって、ロボットの基準となる姿勢において、撮像手段の位置や角度などのカメラパラメータを予め設定し、ロボットの姿勢が変化したときのカメラパラメータを姿勢データとして取得することにより、マークの配置を正確に求めることが可能となる。その結果、静止している場合だけではなく、移動中も正確な位置検出ができる。 According to such a configuration, the self-position detecting device of the moving body corrects the distance data between the cluster representative points of the marks in the detected group by reflecting the posture of the robot by the current position specifying unit. Therefore, by setting camera parameters such as the position and angle of the imaging means in advance in the posture that serves as the reference for the robot, and acquiring the camera parameters as posture data when the posture of the robot changes, the mark placement can be accurately determined. It can be obtained. As a result, accurate position detection can be performed not only when stationary but also during movement.

また、請求項5に記載の移動体の位置検出システムは、請求項1ないし請求項4のいずれか一項に記載の移動体の自己位置検出装置と、前記移動体の移動する移動領域の天井に不規則配置で貼着された位置特定用の少なくとも4つの複数のマークとを備える位置検出システムであって、前記マークは、少なくとも3個の再帰性反射部材と前記各再帰性反射部材を固定するための基材とを備えることを特徴とすることを特徴とする。 A moving body position detection system according to claim 5 is a mobile body self-position detecting device according to any one of claims 1 to 4 and a ceiling of a moving area where the moving body moves. A position detection system comprising at least four position-identifying marks affixed irregularly to each other, wherein the marks fix at least three retroreflective members and each of the retroreflective members. It is characterized by providing the base material for doing.

かかる構成によれば、位置検出システムにおいて、マークは、再帰性反射部材を備えるので、能動的に光を放出する部材や所定の情報を格納する記憶領域を備えた従来のマークと比較してコストを低減できる。また、位置検出システムにおいて、自己位置検出装置は、マーク検出手段によって、少なくとも3個の再帰性反射部材に対応した少なくとも3個の画像をクラスタリングして1つのマークとして検出するので、マークの誤検出を防止し、正確に位置を特定できる。 According to such a configuration, in the position detection system, since the mark includes the retroreflective member, the cost is lower than that of the conventional mark including a member that actively emits light and a storage area that stores predetermined information. Can be reduced. Further, in the position detection system, the self-position detection device clusters at least three images corresponding to at least three retroreflective members and detects them as one mark by the mark detection means. Can be accurately identified.

また、請求項に記載の位置検出システムは、請求項に記載の位置検出システムであって、前記マークは、前記基材が透明または半透明な部材で構成され、前記基材には、前記天井から前記マークを脱離するための孔部が設けられていることを特徴とする。 The position detection system according to claim 6 is the position detection system according to claim 5 , wherein the mark is formed of a transparent or translucent member of the base material. A hole for detaching the mark from the ceiling is provided.

かかる構成によれば、位置検出システムにおいて、マークに設けられた孔部を比較的弱い力で引っ張ることにより、マークを剥がすことができる。また、剥がされたマークを再利用可能にきれいに剥がすことができる。さらに、基材は、透明または半透明なので、マークを貼着した後も目立たずに美観を損ねることがない。マークに設けられた孔部は、例えば、位置検出精度を向上させるために、マークの貼り付け位置を変更する場合に、マークを一旦剥がしてから再び貼り付ける場合に有用である。   According to this configuration, in the position detection system, the mark can be peeled off by pulling the hole provided in the mark with a relatively weak force. Further, the peeled mark can be removed cleanly so that it can be reused. Furthermore, since the substrate is transparent or translucent, it does not stand out even after the mark is attached, and the aesthetic appearance is not impaired. The hole provided in the mark is useful, for example, when the mark attachment position is changed and the mark is once removed and then attached again in order to improve the position detection accuracy.

また、請求項に記載の位置検出システムは、請求項5または請求項に記載の位置検出システムであって、前記天井において前記複数のマークをそれぞれ貼着すべき複数の位置に一斉に光を照射する投影機をさらに備えることを特徴とする。 Further, the position detection system according to claim 7 is the position detection system according to claim 5 or 6 , wherein the plurality of marks on the ceiling are simultaneously transmitted to a plurality of positions to be attached. The projector further includes:

かかる構成によれば、位置検出システムにおいては、マークを貼着する前に、投影機によって、複数のマークをそれぞれ貼着すべき複数の位置に、一度に光を照射する。投影機は、複数の孔が穿設された平面状または曲面状の照射面を有している。位置検出システムにおいては、マークの配置は不規則であるほど、マークのグループ識別が容易なので、照射面に穿設された複数の孔は、ランダムに配置されている。また、この位置検出システムにおいては、貼着の結果形成されるマーク配置(グループ)と、予め記憶すべきマーク配置(グループ)とを対応付ける必要があるので、投影機に穿設された複数の孔と天井の投影像とのマッチングが成されていることが好ましい。なお、前記した照射面は、球面または半球面であることが好ましい。   According to such a configuration, in the position detection system, before applying the marks, the projector irradiates light at a plurality of positions to which the plurality of marks are to be attached. The projector has a planar or curved irradiation surface with a plurality of holes. In the position detection system, the more irregular the arrangement of the marks, the easier the group identification of the marks. Therefore, the plurality of holes formed in the irradiation surface are randomly arranged. Further, in this position detection system, since it is necessary to associate the mark arrangement (group) formed as a result of sticking with the mark arrangement (group) to be stored in advance, a plurality of holes formed in the projector Is preferably matched with the projected image of the ceiling. Note that the irradiation surface is preferably a spherical surface or a hemispherical surface.

請求項1に記載の発明によれば、ランダムに配置された3個以上のマークから成るグループによってマークを検出するので、移動領域の中で任意の位置および向きを正確に検出できる。
請求項2に記載の発明によれば、現在の情報による画像処理から求められる位置情報と、過去の位置情報から推定される位置情報とを併用することで、移動領域の中で任意の位置を精度よく検出できる。
According to the first aspect of the present invention, since a mark is detected by a group of three or more marks arranged at random, an arbitrary position and orientation can be accurately detected in the moving region.
According to the second aspect of the present invention, by using the position information obtained from the image processing based on the current information and the position information estimated from the past position information, an arbitrary position in the moving region can be obtained. It can be detected accurately.

請求項3に記載の発明によれば、マークが天井から剥がれてしまったとしても継続して現在位置を正確に検出することができる。
請求項4に記載の発明によれば、ロボットの移動領域において、静止している場合だけでなく、移動中も正確な位置検出ができる。
According to the third aspect of the present invention, even if the mark is peeled off from the ceiling, the current position can be accurately detected continuously.
According to the fourth aspect of the present invention, in the movement area of the robot, accurate position detection can be performed not only when the robot is stationary but also during movement.

請求項5に記載の発明によれば、移動領域の中で任意の位置を低コストで検出できる。
求項または請求項に記載の発明によれば、移動領域の中でマークの配置に要する手間を低減しつつ、任意の位置を検出できる。
According to the fifth aspect of the present invention, it is possible to detect an arbitrary position in the moving region at a low cost.
According to the invention described in Motomeko 6 or claim 7, while reducing the labor required for placement of the mark in the moving area, it can detect any position.

以下、図面を参照して本発明の移動体の自己位置検出装置および位置検出システムを実施するための最良の形態(以下「実施形態」という)について、第1実施形態および第2実施形態に分けて詳細に説明する。
まず、第1の実施形態に係る位置検出部を備えたロボットを含む位置検出システムAの全体構成について図1を参照して説明する。
Hereinafter, the best mode (hereinafter referred to as “embodiment”) for carrying out a mobile body self-position detection apparatus and position detection system of the present invention with reference to the drawings is divided into a first embodiment and a second embodiment. Will be described in detail.
First, an overall configuration of a position detection system A including a robot including a position detection unit according to the first embodiment will be described with reference to FIG.

(位置検出システムAの構成)
図1は、本発明の実施形態に係る位置検出システムの構成図であり、(a)はロボット、(b)はマークの一例を示している。
(Configuration of position detection system A)
FIG. 1 is a configuration diagram of a position detection system according to an embodiment of the present invention, where (a) shows an example of a robot and (b) shows an example of a mark.

図1に示すように、位置検出システムAは、ロボットRと、このロボットRの移動する移動領域の天井Fに不規則配置で貼着された位置特定用の複数のマークMとを備える。ここで、天井Fの高さは、通常の天井高さ、例えば、4m以下であることが好ましい。また、マークMの間隔は、天井の高さ程度、例えば、2〜5m程度が好ましい。なお、ロボットRからマークMまでの高さに関する情報(マーク高さ情報)は、既知であるものとする。   As shown in FIG. 1, the position detection system A includes a robot R and a plurality of position identification marks M that are attached in an irregular arrangement on a ceiling F of a moving area in which the robot R moves. Here, the height of the ceiling F is preferably a normal ceiling height, for example, 4 m or less. The interval between the marks M is preferably about the height of the ceiling, for example, about 2 to 5 m. Note that information about the height from the robot R to the mark M (mark height information) is already known.

ロボットRは、ここでは、自律移動型の2足歩行ロボットである。
ロボットRは、頭部R1と、腕部R2と、脚部R3とを有しており、頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ等の駆動機構を有しており、この駆動機構により駆動され、自律移動制御部50(図2参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、たとえば、特開2001−62760号公報に開示されている。また、ロボットRは、頭部R1、腕部R2および脚部R3が接続された胴体部R4と、この胴体部R4の背面に設けられて位置検出部70(図2参照)が少なくとも格納された背面格納部R5とを有している。
Here, the robot R is an autonomously moving biped walking robot.
The robot R has a head portion R1, an arm portion R2, and a leg portion R3, and the head portion R1, the arm portion R2, and the leg portion R3 each have a drive mechanism such as an actuator. Driven by the drive mechanism, bipedal walking is controlled by the autonomous movement control unit 50 (see FIG. 2). Details of this bipedal walking are disclosed in, for example, Japanese Patent Application Laid-Open No. 2001-62760. The robot R has at least a body part R4 to which the head part R1, the arm part R2 and the leg part R3 are connected, and a position detection part 70 (see FIG. 2) provided at the back of the body part R4. And a rear housing portion R5.

図1に示す位置検出システムAにおいては、マークMを天井Fに貼着するために投影機Kが利用される。投影機Kは、天井Fにおいて複数のマークMをそれぞれ貼着すべき複数の位置に、一斉に光を照射するものである。この投影機Kは、光を投影するために、複数の孔がランダムに穿設された照射面を備えている。この照射面は、図1に示すように、半球面であることが好ましい。ここで、照射面の形状は、球面でもよく、さらには、平面状または曲面状であってもよい。また、投影機Kに穿設された複数の孔と天井の投影像とのマッチングが成されていることが好ましい。この投影機Kにより天井Fに投影像を形成すれば、マークMを貼着すべき位置が明白なので、マークMの配置に要する手間を低減することができる。なお、投影機Kは、天井FにマークMを貼着した後は、移動領域から撤去される。   In the position detection system A shown in FIG. 1, a projector K is used to attach the mark M to the ceiling F. The projector K irradiates light to a plurality of positions to which a plurality of marks M are to be attached on the ceiling F all at once. The projector K includes an irradiation surface in which a plurality of holes are formed at random in order to project light. This irradiation surface is preferably a hemispherical surface as shown in FIG. Here, the shape of the irradiation surface may be a spherical surface, and may be a flat surface or a curved surface. Moreover, it is preferable that the plurality of holes drilled in the projector K and the projected image of the ceiling are matched. If the projection image is formed on the ceiling F by the projector K, the position where the mark M is to be pasted is clear, so that the labor required for arranging the mark M can be reduced. The projector K is removed from the moving area after the mark M is attached to the ceiling F.

マークMは、赤外線を反射可能に構成されており、例えば、図1(b)に示すように、天井に貼着可能な基材Bと、基材Bの貼着面の裏である照射面上に配設された反射部材とを備える。本実施形態では、基材Bの形状は、図1(a)に示すように円形である。なお、基材Bの形状は、特に限定されるものではなく、図1(b)に示すように三角形でもよいし、あるいは方形でもよい。
基材Bは、透明または半透明な部材で構成することが好ましく、例えば、ポリエチレン、ポリプロピレン等の合成樹脂から構成される。このように透明または半透明な部材で構成すれば、マークMを貼着した後も目立たずに美観を損ねることがない。また、基材Bの貼着面に塗布される接着剤は、乾いたときに透明になれば種類が特に限定されるものではなく、例えば、シール用の通常の接着剤や糊である。
The mark M is configured to be able to reflect infrared rays. For example, as shown in FIG. 1B, the base material B that can be attached to the ceiling and the irradiation surface that is the back of the attachment surface of the base material B And a reflective member disposed on the top. In this embodiment, the shape of the base material B is circular as shown in FIG. In addition, the shape of the base material B is not specifically limited, As shown in FIG.1 (b), a triangle may be sufficient, or a square may be sufficient.
The base material B is preferably composed of a transparent or translucent member, for example, composed of a synthetic resin such as polyethylene or polypropylene. Thus, if it comprises a transparent or semi-transparent member, it will not stand out even after sticking the mark M, and the aesthetic appearance will not be impaired. In addition, the type of the adhesive applied to the sticking surface of the base material B is not particularly limited as long as it becomes transparent when dried, and is, for example, a normal adhesive or glue for sealing.

基材Bには、天井からマークMを脱離するための孔部Qが設けられている。孔部Qは、マークMを剥がすときに引っ張るために利用するものである。これは、例えば、位置検出精度を向上させるために、マークMの貼り付け位置を変更する場合に、マークMを一旦剥がしてから再び貼り付ける場合に利用される。これによって、剥がされたマークMを再利用可能にきれいに剥がすことができる。なお、図1(b)に示した孔部Qは、基材Bと一体に形成されているが、孔部Qは、基材Bと別体でも構わない。例えば、基材Bの端部に、透明または半透明な部材で構成された紐状の輪を設け、この輪を孔部として用いるようにしてもよい。   The base material B is provided with a hole Q for detaching the mark M from the ceiling. The hole Q is used for pulling when the mark M is peeled off. This is used, for example, when the mark M attachment position is changed in order to improve the position detection accuracy, and when the mark M is once removed and then attached again. As a result, the peeled mark M can be removed cleanly so that it can be reused. The hole Q shown in FIG. 1B is formed integrally with the base material B, but the hole Q may be a separate body from the base material B. For example, a string-like ring made of a transparent or translucent member may be provided at the end of the base material B, and this ring may be used as the hole.

反射部材Hは、例えば、赤外線が照射された角度の方向に反射する再帰性反射部材から構成される。
本実施形態では、1つのマークMにおいて3個の反射部材Hが設けられている。当該3個の反射部材Hは、図1(b)に示すように、正三角形の各頂点の位置となるように配置されることが好ましい。なお、反射部材Hとして、1cm角ほどの大きさの再帰性反射部材を用いた場合には、基材Bの1辺(または直径)は5cmほどであることが好ましい。また、1つのマークMにおける反射部材Hの個数は4個以上でも構わない。
The reflection member H is composed of, for example, a retroreflection member that reflects in the direction of the angle irradiated with infrared rays.
In the present embodiment, three reflecting members H are provided in one mark M. As shown in FIG. 1B, the three reflecting members H are preferably arranged so as to be at the positions of the vertices of the equilateral triangle. When a retroreflective member having a size of about 1 cm square is used as the reflective member H, one side (or diameter) of the base material B is preferably about 5 cm. Further, the number of reflection members H in one mark M may be four or more.

図2は、図1に示したロボットの構成を示すブロック図である。
ロボットRは、無線通信によって基地局1と接続される。
基地局1は、ロボット専用ネットワーク2を介して管理用コンピュータ3と接続されている。この管理用コンピュータ3は、図示は省略するが所定のネットワークを介して、管理用コンピュータ3にコマンドやデータ等を入力するための端末等に接続されている。
ロボット専用ネットワーク2は、基地局1および管理用コンピュータ3等を接続するものであり、LANなどにより実現されるものである。
FIG. 2 is a block diagram showing a configuration of the robot shown in FIG.
The robot R is connected to the base station 1 by wireless communication.
The base station 1 is connected to a management computer 3 via a robot dedicated network 2. Although not shown, the management computer 3 is connected to a terminal for inputting commands, data, and the like to the management computer 3 via a predetermined network.
The robot dedicated network 2 connects the base station 1 and the management computer 3 and is realized by a LAN or the like.

管理用コンピュータ3は、ロボットRを管理するものであり、基地局1、ロボット専用ネットワーク2を介してロボットRの移動や発話などの各種制御を行うと共に、ロボットRに対して必要な情報を提供する。ここで、必要な情報とは、ロボットRの周辺の地図などがこれに相当し、これらの情報は、管理用コンピュータ3に設けられた図示しない記憶手段に記憶されている。   The management computer 3 manages the robot R, and performs various controls such as movement and speech of the robot R via the base station 1 and the robot dedicated network 2 and provides necessary information to the robot R. To do. Here, the necessary information corresponds to a map around the robot R, and the information is stored in a storage unit (not shown) provided in the management computer 3.

以下、ロボットRについて詳細に説明する。
[ロボットR]
ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴体部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、カメラC,C、スピーカS、マイクMC、画像処理部10、音声処理部20、記憶部30、制御部40、自律移動制御部50、無線通信部60、位置検出部70を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、ロボットRの存在する位置座標を取得するためのGPS受信器SR2を有している。
Hereinafter, the robot R will be described in detail.
[Robot R]
As shown in FIG. 2, in addition to the head R1, the arm R2, the leg R3, the torso R4, and the rear housing R5, the robot R includes cameras C and C, speakers at appropriate positions of these parts R1 to R5. S, microphone MC, image processing unit 10, audio processing unit 20, storage unit 30, control unit 40, autonomous movement control unit 50, wireless communication unit 60, and position detection unit 70.
Furthermore, the robot R has a gyro sensor SR1 that detects the direction in which the robot R is facing, and a GPS receiver SR2 that acquires the position coordinates where the robot R exists.

[カメラ]
カメラC,Cは、映像をデジタルデータとして取り込むことができるものであり、たとえば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMCは、いずれも頭部R1の内部に配設される。
[camera]
The cameras C and C are capable of capturing video as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. The cameras C and C are arranged side by side in parallel on the left and right, and the captured image is output to the image processing unit 10. The cameras C and C, the speaker S, and the microphone MC are all disposed inside the head R1.

[画像処理部]
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11b、および顔認識部11cを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
[Image processing unit]
An image processing unit (image processing means) 10 processes images taken by the cameras C and C, and recognizes surrounding obstacles and people in order to grasp the situation around the robot R from the taken images. Part. The image processing unit 10 includes a stereo processing unit 11a, a moving body extraction unit 11b, and a face recognition unit 11c.
The stereo processing unit 11a performs pattern matching on the basis of one of the two images taken by the left and right cameras C and C, calculates the parallax of each corresponding pixel in the left and right images, and generates a parallax image. The generated parallax image and the original image are output to the moving object extraction unit 11b. This parallax represents the distance from the robot R to the photographed object.

移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体が人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
The moving body extraction unit 11b extracts a moving body in the photographed image based on the data output from the stereo processing unit 11a. The reason for extracting the moving object (moving body) is to recognize the person by estimating that the moving object is a person.
In order to extract the moving object, the moving object extraction unit 11b stores images of several past frames (frames), compares the newest frame (image) with the past frames (images), and Pattern matching is performed, the movement amount of each pixel is calculated, and a movement amount image is generated. Then, from the parallax image and the movement amount image, when there is a pixel with a large movement amount within a predetermined distance range from the cameras C and C, it is estimated that there is a person, and as a parallax image of only the predetermined distance range The moving body is extracted, and an image of the moving body is output to the face recognition unit 11c.

顔認識部11cは、抽出した移動体から肌色の部分を抽出して、その大きさ、形状などから顔の位置を認識する。なお、同様にして、肌色の領域と、大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、制御部40に出力される。
The face recognition unit 11c extracts a skin color portion from the extracted moving body, and recognizes the face position from the size, shape, and the like. Similarly, the position of the hand is also recognized from the skin color area, size, shape, and the like.
The recognized face position is output to the control unit 40 as information when the robot R moves and to communicate with the person.

[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bとを有する。
音声合成部21aは、制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部21bは、マイクMCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、制御部40に出力するものである。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
[Audio processor]
The voice processing unit 20 includes a voice synthesis unit 21a and a voice recognition unit 21b.
The voice synthesizer 21a is a part that generates voice data from character information (text data) and outputs the voice to the speaker S based on the speech action command determined and output by the control unit 40. For the generation of the voice data, the correspondence between the character information (text data) stored in the storage unit 30 in advance and the voice data is used. The audio data is acquired from the management computer 3 and stored in the storage unit 30.
The voice recognition unit 21 b receives voice data from the microphone MC, generates character information (text data) from the input voice data, and outputs the character information to the control unit 40. The correspondence relationship between the voice data and the character information (text data) is stored in the storage unit 30 in advance.

[記憶部30]
記憶部30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。
[Storage unit 30]
The storage unit 30 is composed of, for example, a general hard disk and stores necessary information (local map data, conversation data, etc.) transmitted from the management computer 3.

[制御部40]
制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、位置検出部70を統括制御するものである。
この制御部40は、姿勢データ算出部41を備えている。
姿勢データ算出部41は、頭部R1、腕部R2、脚部R3の配置に関する情報を自律移動制御部50を介して取得し、頭部R1、腕部R2、脚部R3の駆動により変化した姿勢に関する情報である姿勢データを算出するものである。算出された姿勢データは、位置検出部70に出力される。
なお、図示は省略するが、制御部40は、管理用コンピュータ3から取得したタスク実行命令に基づき、移動や発話等の所定のタスクを実行するための構成を備えている。
[Control unit 40]
The control unit 40 controls the image processing unit 10, the sound processing unit 20, the storage unit 30, the autonomous movement control unit 50, the wireless communication unit 60, and the position detection unit 70.
The control unit 40 includes an attitude data calculation unit 41.
The posture data calculation unit 41 acquires information regarding the arrangement of the head R1, the arm R2, and the leg R3 via the autonomous movement control unit 50, and changes due to driving of the head R1, the arm R2, and the leg R3. Attitude data, which is information about the attitude, is calculated. The calculated attitude data is output to the position detection unit 70.
Although not shown, the control unit 40 has a configuration for executing a predetermined task such as movement or speech based on a task execution command acquired from the management computer 3.

[自律移動制御部]
自律移動制御部50は、頭部制御部51a、腕部制御部51b、脚部制御部(脚部制御手段)51cを有する。
頭部制御部51aは、制御部40の指示に従い頭部R1を駆動し、腕部制御部51bは、制御部40の指示に従い腕部R2を駆動し、脚部制御部51cは、制御部40の指示に従い脚部R3を駆動する。
また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、制御部40に出力され、ロボットRの行動を決定するために利用される。
[Autonomous Movement Control Unit]
The autonomous movement control unit 50 includes a head control unit 51a, an arm control unit 51b, and a leg control unit (leg control means) 51c.
The head control unit 51a drives the head R1 according to an instruction from the control unit 40, the arm control unit 51b drives the arm R2 according to the instruction from the control unit 40, and the leg control unit 51c includes the control unit 40. The leg portion R3 is driven according to the instruction.
The data detected by the gyro sensor SR1 and the GPS receiver SR2 is output to the control unit 40 and used to determine the behavior of the robot R.

[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
[Wireless communication part]
The wireless communication unit 60 is a communication device that transmits and receives data to and from the management computer 3. The wireless communication unit 60 includes a public line communication device 61a and a wireless communication device 61b.
The public line communication device 61a is a wireless communication means using a public line such as a mobile phone line or a PHS (Personal Handyphone System) line. On the other hand, the wireless communication device 61b is a wireless communication unit using short-range wireless communication such as a wireless LAN conforming to the IEEE802.11b standard.
The wireless communication unit 60 performs data communication with the management computer 3 by selecting the public line communication device 61 a or the wireless communication device 61 b in accordance with a connection request from the management computer 3.

[位置検出部]
位置検出部(自己位置検出装置)70は、主としてGPS受信器SR2でロボットRの位置を検出することが困難な室内(移動領域)においてロボットRの存在する位置を検出するものであり、赤外線照射部71と、天面カメラ72とを備えている。
赤外線照射部(赤外線照射手段)71は、探索域、すなわち、複数のマークMを含む天井Fに向かって赤外線を照射するものである。
天面カメラ(撮像手段)72は、照射された赤外線を反射した複数のマークMを撮像するものである。
[Position detector]
The position detection unit (self-position detection device) 70 mainly detects the position where the robot R exists in a room (moving area) where it is difficult to detect the position of the robot R with the GPS receiver SR2. A unit 71 and a top camera 72 are provided.
The infrared irradiation unit (infrared irradiation means) 71 irradiates infrared rays toward a search area, that is, a ceiling F including a plurality of marks M.
The top camera (imaging means) 72 images a plurality of marks M that reflect the irradiated infrared rays.

図3は、図2に示した赤外線照射部と天面カメラとの配置を示す説明図である。
赤外線照射部71および天面カメラ72は、背面格納部R5(図1参照)の上部に設置される。この天面カメラ72から天井Fまでの高さは予め位置検出部70に入力されて位置検出処理に利用される。
FIG. 3 is an explanatory diagram showing the arrangement of the infrared irradiation unit and the top camera shown in FIG.
The infrared irradiation unit 71 and the top camera 72 are installed on the upper part of the rear storage unit R5 (see FIG. 1). The height from the top camera 72 to the ceiling F is input in advance to the position detection unit 70 and used for position detection processing.

赤外線照射部71は、複数のLED71aから構成されている。LED71aは赤外線を照射するものである。照射される赤外線の波長は例えば830nmである。赤外線照射部71は、LED71aとして、指向性の高い特性を有するLEDと、指向性の低い特性を有するLEDとを含んでいる。   The infrared irradiation part 71 is comprised from several LED71a. LED71a irradiates infrared rays. The wavelength of the irradiated infrared ray is, for example, 830 nm. The infrared irradiation unit 71 includes, as the LED 71a, an LED having a high directivity characteristic and an LED having a low directivity characteristic.

天面カメラ72は、カメラ本体72aとカメラレンズ72bと備えている。
カメラ本体72aは、赤外線感度が高く、例えば、1024×768ピクセル(XGA)の高解像度を有するものであり、撮像された画像をマーク検出部75(図4参照)に出力するものである。
カメラレンズ72bは、例えば、180度近い画角を有する広角レンズである。このカメラレンズ72bには、図示しないフィルタが装着される。このフィルタは、LED71aから照射される赤外線の波長がピークとなって、このピークの半値となる幅が相対的に狭くなるような特性を有する。
The top camera 72 includes a camera body 72a and a camera lens 72b.
The camera body 72a has high infrared sensitivity and has a high resolution of, for example, 1024 × 768 pixels (XGA), and outputs a captured image to the mark detection unit 75 (see FIG. 4).
The camera lens 72b is, for example, a wide angle lens having an angle of view close to 180 degrees. A filter (not shown) is attached to the camera lens 72b. This filter has a characteristic that the wavelength of the infrared ray emitted from the LED 71a has a peak, and the half value of the peak is relatively narrow.

本実施形態においては、複数のLED71aは、図3に示すように、カメラレンズ72bの周囲に二重に配置されている。そして、二重に配置されている複数のLED71aのうち、カメラレンズ72bに接近した周囲には、指向性の低い特性を有するLEDが複数配置されると共に、この指向性の低いLED群の外側の周囲には、指向性の高い特性を有するLED郡が配置されている。これにより、赤外線の投光特性を一様(均一)なものにすることができる。ここで、複数のLED71aは、二重に限らず、カメラレンズ72bの周囲に三重以上にわたって配置するようにしてもよく、外側ほど指向性が高いことが好ましい。   In the present embodiment, the plurality of LEDs 71a are doubly arranged around the camera lens 72b as shown in FIG. Of the plurality of LEDs 71a arranged in a double manner, a plurality of LEDs having low directivity are arranged around the camera lens 72b, and outside the LED group having low directivity. Around the periphery, LED groups having highly directional characteristics are arranged. Thereby, the infrared light projection characteristics can be made uniform (uniform). Here, the plurality of LEDs 71a are not limited to being double, and may be arranged around the camera lens 72b in a triple or more manner.

図4は、図2に示した位置検出部の構成の一例を示すブロック図である。
位置検出部70は、赤外線照射部71および天面カメラ72に加えて、照射制御部73と、撮像制御部74と、マーク検出部75と、マーク配置記憶部76と、現在位置特定部77と、探索範囲設定部78とを備えている。
FIG. 4 is a block diagram showing an example of the configuration of the position detection unit shown in FIG.
In addition to the infrared irradiation unit 71 and the top surface camera 72, the position detection unit 70 includes an irradiation control unit 73, an imaging control unit 74, a mark detection unit 75, a mark arrangement storage unit 76, and a current position specifying unit 77. And a search range setting unit 78.

照射制御部73は、探索範囲設定部78で設定された探索範囲に赤外線を照射させるように赤外線照射部71を制御するものである。
撮像制御部74は、探索範囲設定部78で設定された探索範囲を撮像させるように天面カメラ72を制御するものである。この撮像制御部74は、照射制御部73と同期しており、赤外線照射部71から赤外線が照射されるたびに、天面カメラ72により探索範囲を撮像させることができる。なお、天面カメラ72のカメラ本体72a(図3参照)に撮像制御部74の機能を備えるように構成してもよい。
The irradiation control unit 73 controls the infrared irradiation unit 71 so that the search range set by the search range setting unit 78 is irradiated with infrared rays.
The imaging control unit 74 controls the top camera 72 so that the search range set by the search range setting unit 78 is imaged. The imaging control unit 74 is synchronized with the irradiation control unit 73, and each time the infrared irradiation unit 71 irradiates infrared light, the top surface camera 72 can image the search range. The camera body 72a (see FIG. 3) of the top camera 72 may be configured to have the function of the imaging control unit 74.

マーク検出部(マーク検出手段)75は、撮像されたマークMを画像処理することによって、複数のマークを、3個以上の複数のマークにおける互いの配置で特徴付けられるグループとして検出する(マーク検出処理を行う)ものである。なお、マーク検出部75の詳細は後記する。   The mark detection unit (mark detection means) 75 detects a plurality of marks as a group characterized by the arrangement of three or more marks by performing image processing on the captured mark M (mark detection). Process). Details of the mark detection unit 75 will be described later.

マーク配置記憶部(マーク配置記憶手段)76は、天井FにおけるマークMの配置に関する情報として複数のマークMからなるグループと、移動領域の位置情報とを関連付けて記憶するものである。   The mark arrangement storage unit (mark arrangement storage means) 76 stores a group of a plurality of marks M as information related to the arrangement of the mark M on the ceiling F in association with the position information of the moving area.

現在位置特定部(現在位置特定手段)77は、マーク配置記憶部76に記憶されたマークMの配置に関する情報を参照して、検出されたグループにおけるマークの配置と同一の配置を有したグループを探索し、探索されたグループに対応付けられた位置情報をロボットRの現在位置として特定するものである。この現在位置特定部77は、探索結果のグループに属するマークMのマークIDを探索範囲設定部78に出力する。また、現在位置特定部77は、姿勢データ算出部41の出力する姿勢データに基づいて、マーク検出75で検出されたグループにおけるマークの配置に関する距離データを補正する。なお、現在位置特定部77の詳細は後記する。 The current position specifying unit (current position specifying unit) 77 refers to the information on the arrangement of the mark M stored in the mark arrangement storage unit 76, and selects a group having the same arrangement as the mark arrangement in the detected group. The position information associated with the searched group is specified as the current position of the robot R. The current position specifying unit 77 outputs the mark ID of the mark M belonging to the search result group to the search range setting unit 78. Further, the current position specifying unit 77 corrects the distance data regarding the arrangement of the marks in the group detected by the mark detection unit 75 based on the posture data output from the posture data calculation unit 41. Details of the current position specifying unit 77 will be described later.

探索範囲設定部78は、現在位置特定部77から出力されるマークIDに基づいて、赤外線を照射する領域である探索範囲を算出することにより、探索範囲を設定し、照射制御部73および撮像制御部74に出力するものである。なお、探索範囲設定部78は、探索範囲の算出にあたって、現在位置特定部77を介して、マーク配置記憶部76を参照する。   The search range setting unit 78 sets a search range by calculating a search range, which is a region to irradiate infrared rays, based on the mark ID output from the current position specifying unit 77, and the irradiation control unit 73 and imaging control. This is output to the unit 74. The search range setting unit 78 refers to the mark arrangement storage unit 76 via the current position specifying unit 77 when calculating the search range.

本実施形態では、探索範囲設定部78は、予め入力(記憶)されている情報に基づいて、位置検出処理の開始および終了を制御する。例えば、初期値としての探索範囲が予め入力(記憶)されている場合、予め定められたスケジュールに従って処理を開始し、予め入力(記憶)されている終了条件が成立したと判断したときに処理を終了する。ここで、終了条件は、例えば、時刻や位置に基づいて定められる。なお、初期値(最初の探索範囲)が入力(記憶)されていなくても、現在位置特定部77の出力するマークIDから探索範囲を算出することにより、処理を開始するように構成してもよい。   In the present embodiment, the search range setting unit 78 controls the start and end of the position detection process based on information input (stored) in advance. For example, when a search range as an initial value is input (stored) in advance, the process is started according to a predetermined schedule, and the process is performed when it is determined that an end condition input (stored) in advance is satisfied. finish. Here, the end condition is determined based on, for example, time and position. Even if the initial value (first search range) is not input (stored), the processing may be started by calculating the search range from the mark ID output by the current position specifying unit 77. Good.

図5は、図4に示したマーク検出部および現在位置特定部の構成を示すブロック図である。
<マーク検出部>
マーク検出部75は、図5に示すように、画像補正処理部101と、ノイズ除去部102と、ラベリング部103と、マーク特徴抽出部104と、マーク領域特定部105と、クラスタリング部106と、クラスタ代表点算出部107とを備えている。
画像補正処理部101は、天面カメラ72からの出力に基づいて、入力画像に対して、カメラレンズ72bの歪みによる補正を行ってから、ノイズ除去部102に出力するものである。
FIG. 5 is a block diagram showing the configuration of the mark detection unit and the current position specifying unit shown in FIG.
<Mark detection unit>
As shown in FIG. 5, the mark detection unit 75 includes an image correction processing unit 101, a noise removal unit 102, a labeling unit 103, a mark feature extraction unit 104, a mark area specifying unit 105, a clustering unit 106, And a cluster representative point calculation unit 107.
Based on the output from the top camera 72, the image correction processing unit 101 corrects the input image due to distortion of the camera lens 72b, and then outputs it to the noise removal unit 102.

ノイズ除去部102は、画像補正処理部101から出力される赤外線画像を2値化した画像である2値画像を生成するものである。これにより、マークMらしい領域(前景画像)と背景画像とを分離することにより背景ノイズを除去できる。ここで、2値画像を生成する方法は、例えば、入力画像の画素に関する値が所定のしきい値以上の場合に「1」、そうではない場合に「0」を付与する。例えば、輝度が所定値以上の画素を連結した領域に存在する画素数が、例えば70ピクセル以上の場合に「1」を付与するようにしてもよい。このノイズ除去部102で生成された2値画像は、ラベリング部103およびマーク特徴抽出部104に出力される。   The noise removing unit 102 generates a binary image that is an image obtained by binarizing the infrared image output from the image correction processing unit 101. As a result, the background noise can be removed by separating the region (foreground image) that seems to be the mark M from the background image. Here, as a method for generating a binary image, for example, “1” is assigned when a value related to a pixel of the input image is equal to or larger than a predetermined threshold value, and “0” is given otherwise. For example, “1” may be given when the number of pixels existing in an area where pixels having a luminance of a predetermined value or more are connected is, for example, 70 pixels or more. The binary image generated by the noise removal unit 102 is output to the labeling unit 103 and the mark feature extraction unit 104.

ラベリング部103は、ノイズ除去部102により背景ノイズが除去された2値画像の前景画像のうち、隣接する画素を連結して生成される領域(画像オブジェクト)に、識別するための識別情報(ラベル)を付与する(ラベリングする)ものである。ラベリング部103により付与されたラベルは、マーク特徴抽出部104に出力される。また、画像オブジェクトは、クラスタリング部106に出力される。   The labeling unit 103 identifies identification information (label) for identifying an area (image object) generated by connecting adjacent pixels in the foreground image of the binary image from which background noise has been removed by the noise removing unit 102. ) Is given (labeled). The label given by the labeling unit 103 is output to the mark feature extraction unit 104. The image object is output to the clustering unit 106.

マーク特徴抽出部104は、入力される2値画像からマークMとしてふさわしい画像オブジェクトを抽出するためのマーク特徴を画像の特徴量として抽出するものであり、図5に示すように、サイズ抽出部111と、密度抽出部112と、形状抽出部113とを備えている。   The mark feature extraction unit 104 extracts, as an image feature amount, a mark feature for extracting an image object suitable as the mark M from the input binary image. As shown in FIG. And a density extraction unit 112 and a shape extraction unit 113.

サイズ抽出部111は、入力される2値画像に含まれる各画像オブジェクトの画素数をラベルと共に、マーク領域特定部105に出力するものである。
密度抽出部112は、入力される2値画像に含まれる各画像オブジェクトの予め定められた微小領域に占める画素数の割合(密度)をラベルと共に、マーク領域特定部105に出力するものである。
形状抽出部113は、入力される2値画像に含まれる各画像オブジェクトのアスペクト比(縦横比)をラベルと共に、マーク領域特定部105に出力するものである。
The size extraction unit 111 outputs the number of pixels of each image object included in the input binary image to the mark area specifying unit 105 together with a label.
The density extraction unit 112 outputs a ratio (density) of the number of pixels in a predetermined minute region of each image object included in the input binary image to the mark region specifying unit 105 together with a label.
The shape extraction unit 113 outputs the aspect ratio (aspect ratio) of each image object included in the input binary image together with the label to the mark region specifying unit 105.

マーク領域特定部105は、マーク特徴抽出部104から出力された各画像の特徴量(画素数、密度、縦横比の各値)が、予め定められたしきい値範囲にある画像オブジェクトを、マークMの存在する領域の候補(マーク領域)として特定するものである。つまり、マーク領域特定部105は、画像オブジェクトをフィルタリングして、複数(9個以上)のマーク領域を抽出する。ここで、例えば、画素数が4〜50ピクセルであり、かつ、密度が0.4以上であり、かつ、縦横比が0.8〜1.2である画像オブジェクトをマーク領域とすることが好ましい。なお、特定されたマーク領域のラベルと、特定されたマーク領域の個数(マーク個数)とは、クラスタリング部106に出力される。   The mark area specifying unit 105 marks an image object in which the feature amount (number of pixels, density, and aspect ratio) of each image output from the mark feature extraction unit 104 is within a predetermined threshold range. It is specified as a candidate for a region where M exists (mark region). That is, the mark area specifying unit 105 filters the image object and extracts a plurality (9 or more) of mark areas. Here, for example, an image object having 4 to 50 pixels, a density of 0.4 or more, and an aspect ratio of 0.8 to 1.2 is preferably used as the mark area. . The label of the specified mark area and the number of specified mark areas (number of marks) are output to the clustering unit 106.

クラスタリング部(クラスタリング手段)106は、3個の反射部材Hに対応した3個のマーク領域(画像)をクラスタリングした結果であるクラスタを1つのマークとして検出するものである。ここで、クラスタとは、マーク領域の大きさ(ピクセル値)が所定範囲であり、かつ、各マーク領域が互いに所定距離内にあり、かつ、各マーク領域の周囲には当該マーク領域を含む3個のマーク領域以外に同様なマーク領域が存在しないような3個のマーク領域で形成される。クラスタは複数(3個以上)検出される。これにより、白熱ランプや蛍光灯などが赤外線画像にマーク領域として映り込んだとしても、クラスタと比較したときにノイズとして除去することが可能となる。   The clustering unit (clustering means) 106 detects a cluster that is a result of clustering three mark regions (images) corresponding to the three reflecting members H as one mark. Here, the cluster means that the size (pixel value) of the mark area is within a predetermined range, the mark areas are within a predetermined distance from each other, and each mark area includes the mark area 3 It is formed by three mark areas in which there are no similar mark areas other than the number of mark areas. Multiple (three or more) clusters are detected. Thereby, even if an incandescent lamp or a fluorescent lamp is reflected in the infrared image as a mark area, it can be removed as noise when compared with the cluster.

本実施形態では、クラスタリング部106は、特定されたすべてのマーク領域(個数をnとする)の中から、条件を満たすマーク領域をマーク(クラスタ)として求めるために、n3個の組み合わせ(Combination)について、互いのマーク領域間の距離が所定値(例えば、30〜50mm)になるような3つのマーク領域の組合せをクラスタとする。ここで、求められたクラスタの個数をkとする。なお、kは3以上の数値である。 In this embodiment, the clustering unit 106, from among all the marks area identified (the number of the n), in order to obtain a mark (clusters) satisfying the condition mark area, n C 3 or a combination ( With regard to (Combination), a combination of three mark areas whose distance between the mark areas is a predetermined value (for example, 30 to 50 mm) is defined as a cluster. Here, it is assumed that the number of obtained clusters is k. Note that k is a numerical value of 3 or more.

クラスタ代表点算出部107は、クラスタリング部106で1つのマークとして検出されたk個のクラスタにそれぞれ含まれる3個のマーク領域の中心座標を、クラスタ代表点として求めるものである。つまり、k個のクラスタ代表点からなるグループが1つ求められる。言い換えると、「k個のマーク候補」からなるグループが1つ求められる。これを検出グループと呼ぶことにする。このクラスタ代表点算出部107で形成された検出グループの情報は、現在位置特定部77に出力される。   The cluster representative point calculation unit 107 calculates the center coordinates of three mark areas respectively included in the k clusters detected as one mark by the clustering unit 106 as cluster representative points. That is, one group of k cluster representative points is obtained. In other words, one group of “k mark candidates” is obtained. This is called a detection group. Information of the detection group formed by the cluster representative point calculation unit 107 is output to the current position specifying unit 77.

<現在位置特定部>
現在位置特定部77は、図5に示すように、処理対象抽出部121と、代表点距離算出部122と、グループ抽出部123と、位置情報抽出部124とを備えている。
<Current position identification part>
As shown in FIG. 5, the current position specifying unit 77 includes a processing target extracting unit 121, a representative point distance calculating unit 122, a group extracting unit 123, and a position information extracting unit 124.

処理対象抽出部121は、マーク配置記憶部76に予め記憶されたm個のマークMの配置に関する情報と、クラスタ代表点の個数kとに基づいて、mkの順列(Permutation)の個数だけのグループ候補を生成し、それらを演算処理の処理対象として抽出するものである。ここで、mは、移動領域の天井Fに設置されて予め登録されているマークMの個数である。この処理対象抽出部121は、mkの順列の個数のグループ候補それぞれに、識別用のグループIDを付与する。また、当然ながら、これらグループ候補の1つ1つには、クラスタ代表点算出部107で形成された検出グループと同様にk個のクラスタ代表点が存在している。 The processing target extraction unit 121 determines the number of permutations of m P k based on the information regarding the arrangement of m marks M stored in advance in the mark arrangement storage unit 76 and the number k of cluster representative points. Group candidates are generated and extracted as processing targets. Here, m is the number of marks M installed on the ceiling F of the moving area and registered in advance. The processing target extraction unit 121 assigns a group ID for identification to each of the number of permutation group candidates of m P k . Of course, each of these group candidates includes k cluster representative points as in the detection group formed by the cluster representative point calculation unit 107.

代表点距離算出部122は、グループ候補に含まれるk個のクラスタ代表点の互いの距離(代表点距離)を求める。この代表点距離は、2個のクラスタ代表点を決めれば定まる幾何的な辺の長さに相当する。この代表点距離算出部122は、1つのグループ候補に対して、代表点距離をk2の組合せの個数だけ求める。そして、代表点距離算出部122は、すべての処理対象(mkの順列の個数)のグループ候補についてそれぞれ、代表点距離を求める。なお、代表点距離算出部122は、検出グループに対しても、代表点距離をそれぞれ求めておく。 The representative point distance calculation unit 122 obtains the mutual distance (representative point distance) of the k cluster representative points included in the group candidate. This representative point distance corresponds to the length of a geometric side determined by determining two cluster representative points. The representative point distance calculation unit 122 calculates the representative point distance for the number of combinations of k C 2 for one group candidate. Then, the representative point distance calculation unit 122 calculates a representative point distance for each of the group candidates of all the processing targets (the number of permutations of m P k ). Note that the representative point distance calculation unit 122 obtains the representative point distance for each detection group.

また、前記した代表点距離の個数は、一例であって、本発明はこれに限定されるものではない。実用的には、代表点距離の組合せは、膨大になる場合があるので、代表点距離算出部122は、着目するマークの近傍に存在する所定のマークを、着目するマークから所定のマークまでの距離が短い順に予めソートしておき、所定数の組合せのみを演算するようにしてもよい。このようにすることにより、演算処理による負荷を軽減することができる。   The number of representative point distances described above is an example, and the present invention is not limited to this. Practically, the combination of representative point distances may be enormous. Therefore, the representative point distance calculating unit 122 determines a predetermined mark existing near the target mark from the target mark to the predetermined mark. It is also possible to sort in advance in ascending order of distance and calculate only a predetermined number of combinations. By doing in this way, the load by arithmetic processing can be reduced.

また、代表点距離算出部122は、姿勢データ算出部41から入力される姿勢データに基づいて、代表点距離(距離データ)を補正する。なお、本実施形態では、代表点距離算出部122は、入力される脚部R3(図2参照)の姿勢データに基づいて、ロボットRが静止しているか否かを判別し、ロボットRが移動中であると判別した場合には、代表点距離に対して移動中の姿勢を反映した補正処理を実行し、静止していると判別した場合には、補正処理を実行しない。つまり、移動中の姿勢では、天面カメラ72と天井との距離が変化してしまうが、このような移動中の場合には、その変化分が補正され、代表点距離を正確に求めることができる。なお、静止中であっても、頭部R1(図2参照)の駆動により、天面カメラ72が基準位置からずれる場合には、それを反映した補正処理を実行するようにしてもよい。   Further, the representative point distance calculation unit 122 corrects the representative point distance (distance data) based on the posture data input from the posture data calculation unit 41. In the present embodiment, the representative point distance calculation unit 122 determines whether the robot R is stationary based on the posture data of the leg R3 (see FIG. 2) that is input, and the robot R moves. When it is determined that it is in the middle, correction processing that reflects the moving posture with respect to the representative point distance is executed, and when it is determined that it is stationary, the correction processing is not executed. In other words, the distance between the top camera 72 and the ceiling changes in the moving posture, but in such a movement, the change is corrected, and the representative point distance can be accurately obtained. it can. Even when the head is stationary, if the top camera 72 is displaced from the reference position by driving the head R1 (see FIG. 2), a correction process reflecting this may be executed.

グループ抽出部123は、すべてのグループ候補の中で、代表点距離と、検出グループの代表点距離との差が、所定値(例えば、50mm)以下となるようなグループ候補を唯一のグループ候補としてマーク配置記憶部76から抽出する。この抽出されたグループ候補が検出グループと同一であると見なされることとなる。この抽出されたグループ候補のグループID、すなわち、k個のマークIDは、位置情報抽出部124および探索範囲設定部に出力される。   The group extraction unit 123 sets a group candidate whose difference between the representative point distance and the representative point distance of the detected group is equal to or less than a predetermined value (for example, 50 mm) among all group candidates as the only group candidate. Extracted from the mark arrangement storage unit 76. This extracted group candidate is considered to be the same as the detected group. The group IDs of the extracted group candidates, that is, k mark IDs are output to the position information extraction unit 124 and the search range setting unit.

位置情報抽出部124は、マーク配置記憶部76を参照して、取得したグループID(またはk個のマークID)に対応付けられた位置情報(現在位置情報)をロボットRの現在位置として抽出し、制御部40(図4参照)を介して、記憶部30(図4参照)に格納するものである。格納された現在位置情報は、必要に応じてロボットRの行動(発話、移動など)のために利用される。なお、現在位置情報を位置検出部70(図4参照)における図示しない記憶部に格納するように構成してもよい。   The position information extraction unit 124 refers to the mark arrangement storage unit 76 and extracts position information (current position information) associated with the acquired group ID (or k mark IDs) as the current position of the robot R. The data is stored in the storage unit 30 (see FIG. 4) via the control unit 40 (see FIG. 4). The stored current position information is used for the action (speech, movement, etc.) of the robot R as necessary. In addition, you may comprise so that current position information may be stored in the memory | storage part which is not shown in the position detection part 70 (refer FIG. 4).

[ロボットの移動動作]
図1に示した位置検出システムAにおいて、ロボットRは、制御部40(図2参照)によって、無線通信部60(図2参照)を介して管理用コンピュータ3(図2参照)から、移動を伴うタスク実行命令および地図情報を予め取得しておく。そして、ロボットRは、スケジュールに従って、ロボットRの現在位置(ホームポジション)から、移動領域内のタスク実行位置までの経路探索(例えばノード間の経路を探索)及び移動、タスクの実行、タスク終了位置からホームポジションまでの経路探索及び移動の各行動を順次実行する。ここで、ロボットRは、移動に際しては、地図データを参照し、位置検出部70(図2参照)によって、現在位置を検出しつつ、最短距離で目的地に到達する。
[Robot movement]
In the position detection system A shown in FIG. 1, the robot R is moved by the control unit 40 (see FIG. 2) from the management computer 3 (see FIG. 2) via the wireless communication unit 60 (see FIG. 2). Accompanying task execution instructions and map information are acquired in advance. Then, according to the schedule, the robot R searches for a route from the current position (home position) of the robot R to the task execution position in the movement area (for example, searches for a route between nodes) and moves, executes the task, and ends the task. Each of the route search from the home position to the home position and the movement are sequentially executed. Here, the robot R reaches the destination at the shortest distance while referring to the map data and detecting the current position by the position detection unit 70 (see FIG. 2) when moving.

なお、位置検出にあたって、天面カメラ72(図2参照)の校正が予め行われる。すなわち、位置検出部70(図4参照)において、実空間(3次元)における任意の座標系において座標の値が既知の校正用画像を撮像したときに、例えば、天面カメラ72の位置、カメラ向き、撮像素子やカメラレンズ72b(図3参照)の特性を含む各種のカメラパラメータを用いて、画像座標(2次元)に変換するための変換行列を求めておく。   Note that the top camera 72 (see FIG. 2) is calibrated in advance for position detection. That is, when the position detection unit 70 (see FIG. 4) captures a calibration image with known coordinate values in an arbitrary coordinate system in the real space (three dimensions), for example, the position of the top camera 72, the camera A conversion matrix for conversion to image coordinates (two-dimensional) is obtained using various camera parameters including the orientation and characteristics of the imaging element and camera lens 72b (see FIG. 3).

(位置検出動作)
次に、位置検出部の動作について図6を参照(適宜図4参照)して説明する。図6は、図4に示した位置検出部による処理を示すフローチャートである。
位置検出部70は、予め定められたスケジュールに従って、探索範囲設定部78によって、初期値としての探索範囲が入力(記憶)されているか否かを判別する(ステップS1)。初期値としての探索範囲が入力(記憶)されていない場合(ステップS1:No)、位置検出部70は処理を終了する。一方、初期値としての探索範囲情報が入力されている場合(ステップS1:Yes)、探索範囲設定部78は、設定されている探索範囲情報を照射制御部73および撮像制御部74に出力する。そして、位置検出部70は、照射制御部73によって、設定された探索範囲に向けて赤外線を照射するための制御を行い、赤外線照射部71によって、探索範囲(天井)に赤外線を照射する(ステップS2)。また、位置検出部70は、撮像制御部74によって、赤外線の照射に同期して探索範囲を撮像させるように天面カメラ72を制御し、天面カメラ72によって、探索範囲(天井)を撮像する(ステップS3)。これにより、位置検出部70は、赤外線を反射したマークMを含む天井の赤外線画像を取得する。
(Position detection operation)
Next, the operation of the position detection unit will be described with reference to FIG. 6 (refer to FIG. 4 as appropriate). FIG. 6 is a flowchart showing processing by the position detection unit shown in FIG.
The position detection unit 70 determines whether or not a search range as an initial value is input (stored) by the search range setting unit 78 according to a predetermined schedule (step S1). When the search range as the initial value is not input (stored) (step S1: No), the position detection unit 70 ends the process. On the other hand, when search range information as an initial value is input (step S1: Yes), the search range setting unit 78 outputs the set search range information to the irradiation control unit 73 and the imaging control unit 74. And the position detection part 70 performs control for irradiating infrared rays toward the set search range by the irradiation control part 73, and irradiates infrared rays to a search range (ceiling) by the infrared irradiation part 71 (step) S2). In addition, the position detection unit 70 controls the top camera 72 so that the search range is imaged in synchronization with infrared irradiation by the imaging control unit 74, and the top range camera 72 images the search range (ceiling). (Step S3). Thereby, the position detection part 70 acquires the infrared image of the ceiling containing the mark M which reflected the infrared rays.

ステップS2およびステップS3に続いて、位置検出部70は、マーク検出部75によって、マーク検出処理を行い(ステップS4)、現在位置特定部77によって、現在位置特定処理を行う(ステップS5)。これらステップS4およびステップS5の詳細は後記する。そして、位置検出部70は、現在位置特定部77によって、マークIDを探索範囲設定部78に出力すると共に、特定された現在位置情報を記憶部30(図2参照)に格納する(ステップS6)。続いて、位置検出部70は、探索範囲設定部78によって、終了条件が成立したか否かを判別する(ステップS7)。終了条件が成立した場合(ステップS7:Yes)、位置検出部70は、処理を終了する。一方、終了条件が成立していない場合(ステップS7:No)、位置検出部70は、探索範囲設定部78によって、マークIDに基づいて探索範囲を新たに設定し(ステップS8)、ステップS2に戻る。   Subsequent to step S2 and step S3, the position detection unit 70 performs mark detection processing by the mark detection unit 75 (step S4), and performs current position specification processing by the current position specification unit 77 (step S5). Details of step S4 and step S5 will be described later. Then, the position detection unit 70 outputs the mark ID to the search range setting unit 78 by the current position specifying unit 77 and stores the specified current position information in the storage unit 30 (see FIG. 2) (step S6). . Subsequently, the position detection unit 70 determines whether or not the end condition is satisfied by the search range setting unit 78 (step S7). If the end condition is satisfied (step S7: Yes), the position detection unit 70 ends the process. On the other hand, when the end condition is not satisfied (step S7: No), the position detection unit 70 newly sets a search range based on the mark ID by the search range setting unit 78 (step S8), and then proceeds to step S2. Return.

次に、図6に示した位置検出処理の詳細について図7を参照(適宜図5参照)して説明する。図7は、図6に示した位置検出処理の詳細を示すフローチャートであり、(a)はマーク検出処理、(b)は現在位置特定処理をそれぞれ示している。   Next, details of the position detection process shown in FIG. 6 will be described with reference to FIG. 7 (see FIG. 5 as appropriate). FIG. 7 is a flowchart showing details of the position detection process shown in FIG. 6, wherein (a) shows the mark detection process and (b) shows the current position specifying process.

(マーク検出処理)
まず、図7(a)を参照して、前記したステップS4のマーク検出処理を説明する。
マーク検出部75は、画像補正処理部101によって、天面カメラ72からの出力に基づいて、入力画像に対して、カメラレンズ72bの歪みによる補正を行う。そして、マーク検出部75は、ノイズ除去部102によって、赤外線画像から2値画像を生成する(ステップS21)。そして、マーク検出部75は、ラベリング部103によって、2値画像の画像オブジェクトをラベリングし(ステップS22)、マーク特徴抽出部104によって、サイズ、密度および形状に関するマーク特徴を画像の特徴量として抽出する(ステップS23)。
(Mark detection processing)
First, with reference to FIG. 7A, the mark detection process in step S4 will be described.
The mark detection unit 75 uses the image correction processing unit 101 to correct the input image based on the distortion of the camera lens 72b based on the output from the top camera 72. And the mark detection part 75 produces | generates a binary image from an infrared image by the noise removal part 102 (step S21). Then, the mark detection unit 75 labels the image object of the binary image by the labeling unit 103 (step S22), and the mark feature extraction unit 104 extracts the mark features related to size, density, and shape as image feature amounts. (Step S23).

続いて、マーク検出部75は、マーク領域特定部105によって、画像オブジェクトをフィルタリングして複数のマーク領域を特定し(ステップS24)、クラスタリング部106によって、特定されたマーク領域をクラスタリングする(ステップS25)。このクラスタリングの結果、3個のマーク領域で形成されたクラスタが複数(例えば、k個)検出される。そして、マーク検出部75は、クラスタ代表点算出部107によって、k個のクラスタ代表点を算出する(ステップS26)。これにより、k個のクラスタ代表点からなるグループ(検出グループ)が1つ求められる。   Subsequently, the mark detection unit 75 filters the image object by the mark region specifying unit 105 to specify a plurality of mark regions (step S24), and the clustering unit 106 clusters the specified mark regions (step S25). ). As a result of this clustering, a plurality of (for example, k) clusters formed of three mark regions are detected. Then, the mark detection unit 75 calculates k cluster representative points by the cluster representative point calculation unit 107 (step S26). Thereby, one group (detection group) composed of k cluster representative points is obtained.

(現在位置特定処理)
次に、図7(b)を参照して、前記したステップS5の現在位置特定処理を説明する。
前記したステップS26に続いて、現在位置特定部77は、処理対象抽出部121によって、天井に設置されたマークの個数mとクラスタ代表点の個数kとに基づく演算処理の処理対象を抽出する(ステップS31)。これにより、mkの順列の個数だけのグループ候補が処理対象として抽出されることとなる。そして、現在位置特定部77は、代表点距離算出部122によって、各グループ候補について、k個のうち2個のクラスタ代表点を選択することで定められる代表点距離をそれぞれ算出する(ステップS32)。ここで、代表点距離算出部122は、姿勢データ算出部41から入力される姿勢データを適宜反映して、代表点距離を補正する。
(Current position identification processing)
Next, with reference to FIG. 7B, the current position specifying process in step S5 will be described.
Subsequent to step S26 described above, the current position specifying unit 77 causes the processing target extraction unit 121 to extract the processing target of the arithmetic processing based on the number m of marks installed on the ceiling and the number k of cluster representative points ( Step S31). As a result, group candidates as many as the number of permutations of m P k are extracted as processing targets. Then, the current position specifying unit 77 calculates the representative point distance determined by selecting two cluster representative points out of k for each group candidate by the representative point distance calculating unit 122 (step S32). . Here, the representative point distance calculation unit 122 corrects the representative point distance by appropriately reflecting the posture data input from the posture data calculation unit 41.

続いて、現在位置特定部77は、グループ抽出部123によって、各グループ候補と検出グループとを比較して、各グループ候補の中から、検出グループで算出された代表点距離と同様の代表点距離を有するグループを抽出する(ステップS33)。これにより、検出グループを形成するk個のマークで形成される形状と、同様の形状のグループが抽出される。そして、現在位置特定部77は、位置情報抽出部124によって、マーク配置記憶部76から、抽出されたグループに属するマークの位置情報を抽出する(ステップS34)。この抽出されたマークの位置情報、すなわち、現在位置情報によって、ロボットRの現在位置が特定されることとなる。   Subsequently, the current position specifying unit 77 compares each group candidate with the detected group by the group extracting unit 123, and the representative point distance similar to the representative point distance calculated in the detected group from each group candidate. Are extracted (step S33). Thereby, a group having the same shape as the shape formed by the k marks forming the detection group is extracted. Then, the current position specifying unit 77 extracts the position information of the marks belonging to the extracted group from the mark arrangement storage unit 76 by the position information extracting unit 124 (step S34). The current position of the robot R is specified by the position information of the extracted mark, that is, the current position information.

[マーク検出処理の具体例]
図8は、天井におけるマークの配置例を示す説明図である。
天井Fにおけるマークの配置は、2次元位置座標で示される。図8では、X軸は、水平方向の左方を正としている。また、Y軸は、垂直方向の上方を正としている。天井Fには、複数の蛍光灯801が設置されていると共に、複数のマークが不規則に貼着されている。図8には、その一部が示されている。すなわち、図8に示した天井Fには、蛍光灯801が、X軸方向に3個ずつ、Y軸方向に2個ずつ合計6個設置されており、蛍光灯801の設置されていない箇所に、14個のマーク(M1〜M14)が貼着されている。
以下では、図8に示した4個のマーク(M9〜M12)に着目して撮像された画像について、図9および図10を参照して説明する。なお、図9および図10では、図8に示したX軸およびY軸を時計方向に90度回転させた向きでマークMを表示している。
[Specific example of mark detection processing]
FIG. 8 is an explanatory diagram showing an example of the arrangement of marks on the ceiling.
The arrangement of the marks on the ceiling F is indicated by two-dimensional position coordinates. In FIG. 8, the X axis is positive on the left side in the horizontal direction. The Y axis is positive in the vertical direction. A plurality of fluorescent lamps 801 are installed on the ceiling F, and a plurality of marks are irregularly attached. FIG. 8 shows a part thereof. That is, a total of six fluorescent lamps 801 are installed on the ceiling F shown in FIG. 8, three in the X axis direction and two in the Y axis direction, and the fluorescent lamps 801 are not installed. , 14 marks (M1 to M14) are attached.
Hereinafter, an image picked up by paying attention to the four marks (M9 to M12) shown in FIG. 8 will be described with reference to FIG. 9 and FIG. 9 and 10, the mark M is displayed in a direction in which the X axis and the Y axis shown in FIG. 8 are rotated 90 degrees clockwise.

図9は、マーク領域を検出するまでに用いられる画像の一例を示す説明図である。
図9(a)は、マーク検出部75のノイズ除去部102(図5参照)に入力する赤外線画像の一例を示す図である。入力画像には、図9(a)に示すように、蛍光灯に対応した長方形の画素領域901が4個存在する。図9(a)において、右の2個の画素領域901の間には、図8に示した4個のマーク(M9〜M12)に対応した微小画素領域が12個存在している。これらの微小画素領域は、マークに設けられた反射部材H(図1(b)参照)に対応している。なお、図9(a)では、左の2個の画素領域901の間には、図8に示した2個のマーク(M5,M6)に対応した微小画素領域が6個存在しており、他に、図8に示したマークM4に対応した微小画素領域が3個存在している。
FIG. 9 is an explanatory diagram showing an example of an image used until a mark area is detected.
FIG. 9A is a diagram illustrating an example of an infrared image input to the noise removal unit 102 (see FIG. 5) of the mark detection unit 75. As shown in FIG. 9A, the input image includes four rectangular pixel regions 901 corresponding to the fluorescent lamps. In FIG. 9A, there are twelve minute pixel areas corresponding to the four marks (M9 to M12) shown in FIG. 8 between the two right pixel areas 901. These minute pixel regions correspond to the reflecting member H (see FIG. 1B) provided on the mark. In FIG. 9A, there are six micro pixel areas corresponding to the two marks (M5, M6) shown in FIG. 8 between the two left pixel areas 901. In addition, there are three small pixel regions corresponding to the mark M4 shown in FIG.

図9(b)は、マーク検出部75のノイズ除去部102(図5参照)で2値化された2値画像の一例を示す図である。2値画像には、図9(b)に示すように、蛍光灯に対応した長方形の画像オブジェクト902が4個存在する。また、図8に示した4個のマーク(M9〜M12)に設けられた反射部材H(図1参照)に対応した画像オブジェクトが12個存在する。なお、他の画像オブジェクトは、同様に、図9(a)に示した画素領域に対応しているので説明を省略する。   FIG. 9B is a diagram illustrating an example of a binary image binarized by the noise removal unit 102 (see FIG. 5) of the mark detection unit 75. In the binary image, as shown in FIG. 9B, there are four rectangular image objects 902 corresponding to the fluorescent lamps. Further, there are twelve image objects corresponding to the reflecting members H (see FIG. 1) provided on the four marks (M9 to M12) shown in FIG. Similarly, other image objects correspond to the pixel regions shown in FIG.

図9(c)は、マーク検出部75のラベリング部103(図5参照)でラベリングされた画像の一例を示す図である。図9(c)に示した画像は、各画像オブジェクトに識別用のラベルが付与されている点を除いて、図9(b)に示した画像オブジェクトと同一のものである。例えば、蛍光灯に対応した4個の長方形の画像オブジェクト903には、それぞれを識別する異なるラベル(例えば、数字や文字列からなる)が付与されている。同様に、マークM10の各反射部材Hに対応した3個の画像オブジェクト904,905,906には、それぞれを識別する異なるラベルが付与されている。以下、同様である。   FIG. 9C is a diagram illustrating an example of an image labeled by the labeling unit 103 (see FIG. 5) of the mark detection unit 75. The image shown in FIG. 9C is the same as the image object shown in FIG. 9B except that an identification label is assigned to each image object. For example, four rectangular image objects 903 corresponding to fluorescent lamps are given different labels (for example, composed of numbers and character strings) for identifying them. Similarly, a different label for identifying each of the three image objects 904, 905, and 906 corresponding to each reflecting member H of the mark M10 is given. The same applies hereinafter.

図9(d)は、マーク検出部75のマーク領域特定部105(図5参照)で特定されたマーク領域の一例を示す図である。マーク領域特定部105(図5参照)によるフィルタリングの結果、図9(d)に示した画像では、蛍光灯に対応した長方形の画像オブジェクトは、もはや存在しない。そして、マーク領域特定部105(図5参照)は、例えば、図8に示した4個のマーク(M9〜M12)に設けられた反射部材Hに対応した画像オブジェクトの1つ1つを、マーク領域907として特定する。   FIG. 9D is a diagram illustrating an example of the mark area specified by the mark area specifying unit 105 (see FIG. 5) of the mark detection unit 75. As a result of filtering by the mark area specifying unit 105 (see FIG. 5), in the image shown in FIG. 9D, there is no longer a rectangular image object corresponding to the fluorescent lamp. The mark area specifying unit 105 (see FIG. 5), for example, marks each of the image objects corresponding to the reflecting members H provided on the four marks (M9 to M12) illustrated in FIG. This is specified as an area 907.

仮に、マーク領域特定部105(図5参照)によるフィルタリングの結果、蛍光灯に対応した画像オブジェクトが存在していたとしても、マーク検出部75のクラスタリング部106(図5参照)の処理によって、蛍光灯に対応した画像オブジェクトは除去されることとなる。このクラスタリング部106(図5参照)は、図9(d)に示した密集したマーク領域907をクラスタとして検出する。例えば、図8に示した4個のマーク(M9〜M12)が4個のクラスタとして検出されることとなる。   Even if there is an image object corresponding to the fluorescent lamp as a result of filtering by the mark region specifying unit 105 (see FIG. 5), the fluorescence is obtained by the processing of the clustering unit 106 (see FIG. 5) of the mark detection unit 75. The image object corresponding to the light is removed. The clustering unit 106 (see FIG. 5) detects the dense mark areas 907 shown in FIG. 9D as a cluster. For example, the four marks (M9 to M12) shown in FIG. 8 are detected as four clusters.

図10は、現在位置を特定するまでに用いられる画像の一例を示す説明図である。
図10(a)は、マーク検出部75のクラスタリング部106(図5参照)で検出された4つのクラスタ(マークM9〜M12)を示す図である(k=4)。
マーク検出部75のクラスタ代表点算出部107(図5参照)は、各マークM9〜M12にそれぞれ設けられた3個の反射部材Hの中心座標を、クラスタ代表点として求める。つまり、k=4個のクラスタ代表点からなる検出グループG1が求められる。
FIG. 10 is an explanatory diagram illustrating an example of an image used until the current position is specified.
FIG. 10A shows four clusters (marks M9 to M12) detected by the clustering unit 106 (see FIG. 5) of the mark detection unit 75 (k = 4).
The cluster representative point calculation unit 107 (see FIG. 5) of the mark detection unit 75 obtains the central coordinates of the three reflecting members H provided in the marks M9 to M12 as cluster representative points. That is, a detection group G 1 composed of k = 4 cluster representative points is obtained.

図10(b)は、天井に貼着されたマークの配置と一致したマーク配置マップの一例を示す図であり、マーク配置記憶部76(図5参照)に記憶されたマークの配置に関する情報を視覚化したものに相当する。この例では、マーク配置マップは、全周囲を破線で囲む境界線上に10個の頂点を有し、境界内部に、互いに実線で結合された4個の頂点からなる組g1、および、3ないし5本の破線にそれぞれ結合された4個の頂点とを有している。これら合計19個の頂点は、マークMに対応したものである(m=19の場合)。 FIG. 10B is a diagram illustrating an example of a mark arrangement map that matches the arrangement of the marks attached to the ceiling, and information regarding the mark arrangement stored in the mark arrangement storage unit 76 (see FIG. 5). It corresponds to what was visualized. In this example, the mark arrangement map has ten vertices on a boundary line surrounded by a broken line, and a set g 1 consisting of four vertices connected to each other by a solid line, and 3 to 3 And four vertices respectively connected to five broken lines. These 19 vertices in total correspond to the mark M (when m = 19).

このように、k=4、かつ、m=14の場合には、現在位置特定部77の処理対象抽出部121(図5参照)は、144の順列の個数だけのグループ候補を演算処理の処理対象として抽出することとなる。なお、図10(b)に示すマーク配置マップでは、そのグループ候補の一部のみ四角形として示している。 As described above, when k = 4 and m = 14, the processing target extraction unit 121 (see FIG. 5) of the current position specifying unit 77 performs processing for the group candidates corresponding to the number of permutations of 14 P 4. Will be extracted as a processing target. In the mark arrangement map shown in FIG. 10B, only a part of the group candidate is shown as a rectangle.

そして、現在位置特定部77の代表点距離算出部122(図5参照)は、各グループ候補について代表点距離を42の組合せの個数(6個)だけ求める。具体的には、代表点距離算出部122(図5参照)は、各四角形の4本の辺および2本の対角線の長さをそれぞれ算出する。 Then, the representative point distance calculating unit 122 (see FIG. 5) of the current position specifying unit 77 obtains the representative point distance for each group candidate by the number of combinations (6) of 4 C 2 . Specifically, the representative point distance calculation unit 122 (see FIG. 5) calculates the lengths of four sides and two diagonal lines of each quadrangle.

そして、現在位置特定部77のグループ抽出部123(図5参照)は、図10(a)に示す検出グループG1にマッチしたグループ候補を抽出する。例えば、図10(b)に示すマーク配置マップの中では、4本の辺および2本の対角線の長さが最も類似した組g1を同一のグループとして抽出することとなる。なお、形状そのもののパターンマッチングを実行するようにしてもよい。 Then, (see Fig. 5) group extraction section 123 of the current position determining unit 77 extracts the matched group candidates to detect a group G 1 shown in Figure 10 (a). For example, in the mark arrangement map shown in FIG. 10B, the sets g 1 having the most similar lengths of four sides and two diagonal lines are extracted as the same group. Note that pattern matching of the shape itself may be executed.

第1実施形態によれば、ロボットRの移動領域における位置情報と、移動領域の天井Fに貼着された最低3個のマークMから構成されたグループとを関連付けて記憶しておき、画像処理により当該グループを識別することにより、ロボットRの現在位置を特定することができる。また、1つのマークMを3個の画像オブジェクトで形成されるクラスタとして検出するので、1個の画像オブジェクトだけを用いる場合と比較して、正確に位置を検出することが可能である。   According to the first embodiment, the position information in the movement area of the robot R and the group composed of at least three marks M attached to the ceiling F of the movement area are stored in association with each other, and image processing is performed. The current position of the robot R can be specified by identifying the group. In addition, since one mark M is detected as a cluster formed by three image objects, it is possible to detect the position more accurately than in the case where only one image object is used.

(第2実施形態)
図11は、図4に示した位置検出部の構成の別の例を示すブロック図である。
位置検出部70Aは、図11に示すように、移動軌跡記憶部80と、位置情報管理部81と、現在位置推定部82とをさらに備える点を除いて、図4に示した位置検出部70と同様の構成なので、同一の構成には同一の符号を付して説明を省略する。
(Second Embodiment)
FIG. 11 is a block diagram illustrating another example of the configuration of the position detection unit illustrated in FIG. 4.
As shown in FIG. 11, the position detection unit 70A is provided with a movement locus storage unit 80, a position information management unit 81, and a current position estimation unit 82, except that the position detection unit 70 shown in FIG. Therefore, the same components are denoted by the same reference numerals and description thereof is omitted.

移動軌跡記憶部(移動軌跡記憶手段)80は、ロボットRの位置情報を時刻別に記憶するものである。
位置情報管理部(位置情報管理手段)81は、現在位置推定部82で推定された位置情報に基づいて、マーク配置記憶部76に記憶されたマークの配置に関する情報と、移動領域の位置情報とを更新するものである。また、位置情報管理部81は、現在位置特定部77で特定された位置情報を、移動軌跡記憶部80に格納する。
The movement trajectory storage unit (movement trajectory storage means) 80 stores position information of the robot R by time.
The position information management unit (position information management means) 81 is based on the position information estimated by the current position estimation unit 82, information related to the mark arrangement stored in the mark arrangement storage unit 76, position information of the moving area, Is to be updated. Further, the position information management unit 81 stores the position information specified by the current position specifying unit 77 in the movement locus storage unit 80.

現在位置推定部(現在位置推定手段)82は、現在位置特定部77でロボットRの現在位置が特定できない場合に、移動軌跡記憶部80に記憶された所定時刻の位置情報と、現在時刻とに基づいて、ロボットRの現在位置を公知の推定方法で推定するものである。
本実施形態では、ロボットRの現在位置が特定できない場合とは、天井FからマークMが剥がれてしまった場合を想定している。また、公知の推定方法とは、例えば、過去の2地点の情報を用いた線形予測によるものでもよいし、過去の3地点以上の情報を2次曲線上に対応させる予測である曲線予測によるものでもよい。また、線形予測の場合には、カルマンフィルタ(Kalman filter)を適用してもよい。推定された現在位置(現在位置情報)は、位置情報管理部81に出力される。なお、現在位置特定部77は、この推定された現在位置情報に基づいてマークIDを抽出して探索範囲設定部78に出力する。
The current position estimating unit (current position estimating means) 82 determines whether the current position of the robot R cannot be specified by the current position specifying unit 77 and the position information at a predetermined time stored in the movement locus storage unit 80 and the current time. Based on this, the current position of the robot R is estimated by a known estimation method.
In the present embodiment, the case where the current position of the robot R cannot be specified assumes the case where the mark M has been peeled off from the ceiling F. The known estimation method may be, for example, linear prediction using information on the past two points, or based on curve prediction, which is prediction that associates information on the past three points on a quadratic curve. But you can. In the case of linear prediction, a Kalman filter may be applied. The estimated current position (current position information) is output to the position information management unit 81. The current position specifying unit 77 extracts a mark ID based on the estimated current position information and outputs the mark ID to the search range setting unit 78.

次に、位置検出部70Aの動作について図12を参照(適宜図11参照)して説明する。図12は、図11に示した位置検出部による処理を示すフローチャートである。
位置検出部70Aが実行するステップS41〜ステップS44の各処理は、図6のフローチャートに示したステップS1〜ステップS4の各処理と同一なので説明を省略する。
ステップS44に続いて、位置検出部70Aは、現在位置特定部77によって、現在位置特定処理を実行した結果、現在位置が特定できたか否かを判別する(ステップS45)。現在位置が特定できた場合(ステップS45:Yes)、位置検出部70Aは、位置情報管理部81によって、特定された現在位置情報を移動軌跡記憶部80に格納し(ステップS46)、ステップS49に進む。ここで、ステップS49およびステップS50の各処理は、図6のフローチャートに示したステップS7およびステップS8の各処理と同一なので説明を省略する。
Next, the operation of the position detection unit 70A will be described with reference to FIG. 12 (refer to FIG. 11 as appropriate). FIG. 12 is a flowchart showing processing by the position detection unit shown in FIG.
Each process of step S41 to step S44 executed by the position detection unit 70A is the same as each process of step S1 to step S4 shown in the flowchart of FIG.
Subsequent to step S44, the position detection unit 70A determines whether or not the current position is specified as a result of the current position specifying process performed by the current position specifying unit 77 (step S45). When the current position can be specified (step S45: Yes), the position detection unit 70A stores the specified current position information in the movement trajectory storage unit 80 by the position information management unit 81 (step S46), and the process proceeds to step S49. move on. Here, since each process of step S49 and step S50 is the same as each process of step S7 and step S8 shown in the flowchart of FIG. 6, description is abbreviate | omitted.

一方、現在位置が特定できない場合(ステップS45:No)、位置検出部70Aは、現在位置推定部82によって、移動軌跡記憶部80に記憶された所定時刻の位置情報と、現在時刻とに基づいて、ロボットRの現在位置を推定する(ステップS47)。続いて、位置検出部70Aは、位置情報管理部81によって、推定された現在位置情報で移動軌跡記憶部80に格納された情報を更新し(ステップS48)、ステップS49に進む。   On the other hand, when the current position cannot be specified (step S45: No), the position detection unit 70A is based on the position information of the predetermined time stored in the movement locus storage unit 80 by the current position estimation unit 82 and the current time. The current position of the robot R is estimated (step S47). Subsequently, the position detection unit 70A updates the information stored in the movement locus storage unit 80 with the estimated current position information by the position information management unit 81 (step S48), and proceeds to step S49.

位置検出部70Aは前記したように動作するので、ロボットRが移動領域の同じコースを定期的に(例えば1日1回)移動する試行を行うことにより、マークMが天井Fから剥がれたか否かを検出することが可能となる。また、ロボットRは、ステップS45でNoの場合に、無線通信部60(図2参照)によって、マークMが剥離した旨を管理用コンピュータ3に通知するようにしてもよい。   Since the position detection unit 70A operates as described above, whether or not the mark M has been peeled off the ceiling F by performing an attempt to move the robot R periodically (for example, once a day) on the same course in the movement region. Can be detected. Further, when the answer is No in step S45, the robot R may notify the management computer 3 that the mark M has been peeled off by the wireless communication unit 60 (see FIG. 2).

また、現在位置が特定できない理由として、赤外線照射部71や天面カメラ72の故障、あるいは、画像処理等を実行するソフトウェアの不具合も考えられる。このようにロボットR側に原因がある場合を考慮して、次のような動作を実行するようにしてもよい。すなわち、ロボットRは、位置が特定できなかった現在位置(第1ポイント)から、過去に当時の現在位置(位置座標)が特定できた場所(第0ポイント)まで一旦戻り、その場所(第0ポイント)において、位置検出部70Aによって、再び位置検出処理を実行して当時の現在位置が特定できたか否かを判別する。そして、この第0ポイントの位置が特定できれば、第1ポイントで位置が検出できなかった理由はマークMの剥離である可能性が高いので、前記したステップS47以降の処理を実行する。一方、第0ポイントの位置が特定できなければ、第1ポイントで位置が検出できなかった原因はロボット側にあると考えられる。このような場合には、例えば、ロボットRは、不具合が発生した旨を管理用コンピュータ3に通知するようにしてもよい。   Further, as the reason why the current position cannot be specified, there may be a failure of the infrared irradiation unit 71 or the top camera 72 or a malfunction of software for executing image processing or the like. Considering the case where there is a cause on the robot R side as described above, the following operation may be executed. That is, the robot R once returns from the current position (first point) where the position could not be specified to the place (0th point) where the current position (position coordinates) at that time could be specified in the past, and that place (0th point). Point), the position detection unit 70A executes the position detection process again to determine whether or not the current position at that time has been specified. If the position of the 0th point can be specified, the reason why the position could not be detected at the 1st point is likely to be the peeling of the mark M, so the processing from step S47 described above is executed. On the other hand, if the position of the 0th point cannot be specified, it is considered that the reason why the position cannot be detected at the first point is on the robot side. In such a case, for example, the robot R may notify the management computer 3 that a problem has occurred.

なお、天面カメラ72の撮像領域にマークMが2個以下しか存在しなかった場合には、マーク検出部75のクラスタリング部106が1つのマークとして検出するクラスタの個数(k)は、2個以下となる。例えば、2個のマークMしか検出できなかったときには、前記した代表点距離が1通りしかないため、検出グループと同一のグループ候補を探索するときに、類似したグループ候補が多数発見される。その結果、グループを誤認識する可能性が大きくなると考えられる。したがって、このような場合を、現在位置特定部77でロボットRの現在位置が特定できない場合の1つとして含めるようにしてもよい。   When there are only two or less marks M in the imaging area of the top camera 72, the number of clusters (k) detected by the clustering unit 106 of the mark detection unit 75 as one mark is two. It becomes as follows. For example, when only two marks M can be detected, there is only one representative point distance described above. Therefore, when searching for the same group candidate as the detected group, many similar group candidates are found. As a result, the possibility of misrecognizing a group is considered to increase. Accordingly, such a case may be included as one of cases where the current position of the robot R cannot be specified by the current position specifying unit 77.

第2の実施形態によれば、仮に、マークMが天井Fから剥がれたり、登録されていないマークMが貼着されたり、あるいは、有るはずのないマークが検出されてしまったりしたとしても、過去の位置情報から現在位置情報を推定できるので、継続して現在位置を検出することが可能となる。また、マーク配置記憶部76に記憶されたマークの配置に関する情報を自動更新できるので、ユーザが正しい情報を入力する手間を省くことができる。   According to the second embodiment, even if the mark M is peeled off from the ceiling F, an unregistered mark M is pasted, or a mark that should not exist is detected, the past Since the current position information can be estimated from the position information, it is possible to continuously detect the current position. Moreover, since the information regarding the mark arrangement stored in the mark arrangement storage unit 76 can be automatically updated, it is possible to save the user from inputting correct information.

以上、本発明の好ましい実施形態について説明したが、本発明は前記した各実施形態に限定されるものではない。例えば、各実施形態では、位置検出部70(70A)が、2足歩行可能な自律移動型ロボットに備えられるものとして説明したが、これに限定されず、車輪で移動する自律移動型ロボット、産業用ロボット、自動車などの種々の移動体への応用も可能である。   As mentioned above, although preferred embodiment of this invention was described, this invention is not limited to each above-described embodiment. For example, in each embodiment, the position detection unit 70 (70A) has been described as being provided in an autonomous mobile robot capable of walking on two legs. However, the present invention is not limited to this, and the autonomous mobile robot that moves on wheels, industrial Application to various moving bodies such as industrial robots and automobiles is also possible.

本発明の実施形態に係る位置検出システムの構成図であり、(a)はロボット、(b)はマークの一例を示している。It is a block diagram of the position detection system which concerns on embodiment of this invention, (a) is a robot, (b) has shown an example of the mark. 図1に示したロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the robot shown in FIG. 図2に示した赤外線照射部と天面カメラとの配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning with the infrared irradiation part shown in FIG. 2, and a top camera. 図2に示した位置検出部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the position detection part shown in FIG. 図4に示したマーク検出部および現在位置特定部の構成を示すブロック図である。It is a block diagram which shows the structure of the mark detection part and current position specific | specification part which were shown in FIG. 図4に示した位置検出部による位置検出処理を示すフローチャートである。It is a flowchart which shows the position detection process by the position detection part shown in FIG. 図7は、図6に示した位置検出処理の詳細を示すフローチャートであり、(a)はマーク検出処理、(b)は現在位置特定処理をそれぞれ示している。FIG. 7 is a flowchart showing details of the position detection process shown in FIG. 6, wherein (a) shows the mark detection process and (b) shows the current position specifying process. 天井におけるマークの配置例を示す説明図である。It is explanatory drawing which shows the example of arrangement | positioning of the mark in a ceiling. マーク領域を検出するまでに用いられる画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image used until a mark area | region is detected. 現在位置を特定するまでに用いられる画像の一例を示す説明図である。It is explanatory drawing which shows an example of the image used until it specifies a present position. 図4に示した位置検出部の構成の別の例を示すブロック図である。FIG. 5 is a block diagram illustrating another example of the configuration of the position detection unit illustrated in FIG. 4. 図11に示した位置検出部による処理を示すフローチャートである。It is a flowchart which shows the process by the position detection part shown in FIG.

符号の説明Explanation of symbols

A 位置検出システム
R ロボット
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
F 天井
M マーク
B 基材
H 反射部材
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
10 画像処理部
20 音声処理部
30 記憶部
40 制御部
41 姿勢データ算出部
50 自律移動制御部
51a 頭部制御部
51b 腕部制御部
51c 脚部制御部(脚部制御手段)
60 無線通信部
70 位置検出部(自己位置検出装置)
71 赤外線照射部(赤外線照射手段)
71a LED
72 天面カメラ(撮像手段)
72a カメラ本体
72b カメラレンズ
73 照射制御部
74 撮像制御部
75 マーク検出部(マーク検出手段)
76 マーク配置記憶部(マーク配置記憶手段)
77 現在位置特定部(現在位置特定手段)
78 探索範囲設定部
80 移動軌跡記憶部(移動軌跡記憶手段)
81 位置情報管理部(位置情報管理手段)
82 現在位置推定部(現在位置推定手段)
101 画像補正処理部
102 ノイズ除去部
103 ラベリング部
104 マーク特徴抽出部
105 マーク領域特定部
106 クラスタリング部(クラスタリング手段)
107 クラスタ代表点算出部
111 サイズ抽出部
112 密度抽出部
113 形状抽出部
121 処理対象抽出部
122 代表点距離算出部
123 グループ抽出部
124 位置情報抽出部
C カメラ
S スピーカ
MC マイク
SR1 ジャイロセンサ
SR2 GPS受信器
A Position detection system R Robot R1 Head R2 Arm R3 Leg R4 Body R5 Back storage F Ceiling M Mark B Base material H Reflective member 1 Base station 2 Robot dedicated network 3 Management computer 10 Image processing unit 20 Audio processing Unit 30 storage unit 40 control unit 41 posture data calculation unit 50 autonomous movement control unit 51a head control unit 51b arm control unit 51c leg control unit (leg control unit)
60 wireless communication unit 70 position detection unit (self-position detection device)
71 Infrared irradiation part (Infrared irradiation means)
71a LED
72 Top camera (imaging means)
72a Camera body 72b Camera lens 73 Irradiation control unit 74 Imaging control unit 75 Mark detection unit (mark detection means)
76 Mark arrangement storage unit (mark arrangement storage means)
77 Current position specifying part (Current position specifying means)
78 Search range setting unit 80 Moving track storage unit (moving track storage means)
81 Location information management unit (location information management means)
82 Current position estimation unit (current position estimation means)
DESCRIPTION OF SYMBOLS 101 Image correction process part 102 Noise removal part 103 Labeling part 104 Mark feature extraction part 105 Mark area | region identification part 106 Clustering part (clustering means)
107 cluster representative point calculation unit 111 size extraction unit 112 density extraction unit 113 shape extraction unit 121 processing target extraction unit 122 representative point distance calculation unit 123 group extraction unit 124 position information extraction unit C camera S speaker MC microphone SR1 gyro sensor SR2 GPS reception vessel

Claims (7)

少なくとも3個の再帰性反射部材と前記各再帰性反射部材を固定するための基材とを備えた位置特定用の少なくとも4つのマークが不規則配置で貼着された天井を有する移動領域を移動する移動体の自己位置検出装置であって、
前記少なくとも4つのマークを含む天井に向かって赤外線を照射する赤外線照射手段と、
前記照射された赤外線を反射した少なくとも3つのマークを撮像する撮像手段と、
前記天井におけるマークの配置に関する情報と、前記移動領域の位置情報とを関連付けて記憶するマーク配置記憶手段と、
前記撮像されたマークを画像処理することによって、前記再帰性反射部材に対応した少なくとも3個の画像をクラスタリングして1つのマークとして検出し、前記検出したマーク中の当該少なくとも3個の画像の中心座標をクラスタ代表点の座標として算出し、前記撮像された少なくとも3つ以上で前記天井に貼着された全マーク数未満の個数のマークを、当該個数のマークにおける互いの配置で特徴付けられるグループとして検出するマーク検出手段と、
前記マーク配置記憶手段に記憶された前記マークの配置に関する情報を参照して、前記検出されたグループ内の前記クラスタ代表点の個数に応じて、前記天井に貼着された全マークを少なくとも4つのグループ候補に分け、前記グループ候補内の各マークの前記クラスタ代表点の互いの距離を距離データとしてそれぞれ求め、前記グループ候補内の前記クラスタ代表点間の各距離データと、前記検出されたグループ内の前記クラスタ代表点間の各距離データとを比較し、前記検出されたグループにおけるマークの配置と同一の配置を探索し、探索されたマークの配置に対応付けられた位置情報を前記移動体の現在位置として特定する現在位置特定手段と
を備えることを特徴とする移動体の自己位置検出装置。
A moving area having a ceiling on which at least four marks for position identification having at least three retroreflective members and a base material for fixing each retroreflective member are affixed in an irregular arrangement A self-position detecting device for a moving moving body,
Infrared irradiation means for irradiating infrared rays toward the ceiling including the at least four marks;
Imaging means for imaging at least three marks reflecting the irradiated infrared rays;
Mark arrangement storage means for storing information relating to the arrangement of the mark on the ceiling and the positional information of the moving area;
By performing image processing on the captured mark, at least three images corresponding to the retroreflective member are clustered and detected as one mark, and the centers of the at least three images in the detected mark are detected. Coordinates are calculated as the coordinates of cluster representative points, and the number of the captured images and the number of marks less than the total number of marks attached to the ceiling are characterized by the mutual arrangement of the number of marks Mark detection means for detecting as,
With reference to the information on the mark arrangement stored in the mark arrangement storage means, at least four marks attached to the ceiling are selected according to the number of the cluster representative points in the detected group. Dividing into group candidates, each distance of the cluster representative points of each mark in the group candidate is obtained as distance data, each distance data between the cluster representative points in the group candidate, and the detected group Are compared with each distance data between the cluster representative points, and the same arrangement as the arrangement of the marks in the detected group is searched, and the position information associated with the arrangement of the searched marks is obtained. A self-position detecting device for a moving body, comprising: current position specifying means for specifying the current position.
前記移動体の位置情報を時刻別に記憶する移動軌跡記憶手段と、
前記現在位置特定手段で特定された位置情報を、前記移動軌跡記憶手段に格納する位置情報管理手段と、
前記現在位置特定手段で現在位置が特定できない場合に、前記移動軌跡記憶手段に記憶された所定時刻の位置情報と、現在時刻とに基づいて、前記移動体の現在位置を推定する現在位置推定手段とをさらに備えることを特徴とする請求項1に記載の移動体の自己位置検出装置。
Moving trajectory storage means for storing position information of the moving body according to time;
Position information management means for storing the position information specified by the current position specifying means in the movement trajectory storage means;
Current position estimating means for estimating the current position of the moving body based on the position information at a predetermined time stored in the movement locus storage means and the current time when the current position cannot be specified by the current position specifying means. The mobile body self-position detecting device according to claim 1, further comprising:
前記位置情報管理手段は、
前記現在位置推定手段で推定された位置情報に基づいて、前記マーク配置記憶手段に記憶されたマークの配置に関する情報と、前記移動領域の位置情報とを更新することを特徴とする請求項2に記載の移動体の自己位置検出装置。
The location information management means includes:
3. The information on the mark arrangement stored in the mark arrangement storage unit and the position information of the moving area are updated based on the position information estimated by the current position estimation unit. The mobile body self-position detecting device according to claim.
前記移動体は、駆動機構を有した2つの脚部と、前記脚部の駆動機構を制御する脚部制御手段と、前記脚部の駆動により変化した姿勢に関する情報である姿勢データを算出する姿勢データ算出手段とを備えた2足歩行可能なロボットであり、
前記現在位置特定手段は、前記姿勢データに基づいて、前記マーク検出手段で検出されたグループにおけるマークの前記クラスタ代表点間の距離データを補正することを特徴とする請求項1ないし請求項3のいずれか一項に記載の移動体の自己位置検出装置。
The moving body has two legs having a driving mechanism, leg control means for controlling the driving mechanism of the leg, and an attitude for calculating attitude data that is information relating to an attitude changed by driving the leg. A biped walking robot equipped with data calculation means,
The current position specifying means corrects distance data between the cluster representative points of the marks in the group detected by the mark detection means based on the posture data. The mobile unit self-position detecting device according to any one of the preceding claims.
請求項1ないし請求項4のいずれか一項に記載の移動体の自己位置検出装置と、前記移動体の移動する移動領域の天井に不規則配置で貼着された位置特定用の少なくとも4つの複数のマークとを備える位置検出システムであって、
前記マークは、少なくとも3個の再帰性反射部材と前記各再帰性反射部材を固定するための基材とを備えることを特徴とすることを特徴とする位置検出システム。
The mobile body self-position detecting device according to any one of claims 1 to 4, and at least four for position identification attached to a ceiling of a moving area in which the moving body moves in an irregular arrangement . A position detection system comprising a plurality of marks,
The position detection system, wherein the mark includes at least three retroreflective members and a base material for fixing the retroreflective members .
前記マークは、前記基材が透明または半透明な部材で構成され、前記基材には、前記天井から前記マークを脱離するための孔部が設けられていることを特徴とする請求項に記載の位置検出システム。 The mark, the formed of a base material is transparent or semi-transparent member, the substrate, according to claim 5, characterized in that holes for desorbing the mark from the ceiling are provided The position detection system described in. 前記天井において前記複数のマークをそれぞれ貼着すべき複数の位置に一斉に光を照射する投影機をさらに備えることを特徴とする請求項5または請求項に記載の位置検出システム。 The position detection system of claim 5 or claim 6, characterized by further comprising a projector that simultaneously irradiated with light in a plurality of positions to be stuck of the plurality of marks each in the ceiling.
JP2006079927A 2006-03-23 2006-03-23 Self-position detecting device and position detecting system for moving body Expired - Fee Related JP4448497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006079927A JP4448497B2 (en) 2006-03-23 2006-03-23 Self-position detecting device and position detecting system for moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006079927A JP4448497B2 (en) 2006-03-23 2006-03-23 Self-position detecting device and position detecting system for moving body

Publications (2)

Publication Number Publication Date
JP2007257226A JP2007257226A (en) 2007-10-04
JP4448497B2 true JP4448497B2 (en) 2010-04-07

Family

ID=38631424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006079927A Expired - Fee Related JP4448497B2 (en) 2006-03-23 2006-03-23 Self-position detecting device and position detecting system for moving body

Country Status (1)

Country Link
JP (1) JP4448497B2 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271608A (en) * 2008-04-30 2009-11-19 Murata Mach Ltd Travelling vehicle and travelling vehicle system
JP2010117847A (en) * 2008-11-12 2010-05-27 Toyota Motor Corp Moving object, moving object control system, and control method for moving object
JP4933636B2 (en) * 2010-03-15 2012-05-16 富士ソフト株式会社 Learning walking robot apparatus and control program thereof
JP5637355B2 (en) * 2010-03-26 2014-12-10 清水建設株式会社 Mobile object position detection system and method
JP5418387B2 (en) * 2010-04-20 2014-02-19 富士通株式会社 Position detection system, method, storage medium, and program
KR101555823B1 (en) 2012-07-18 2015-10-05 (주)브이아이피 Method And Apparatus for Controlling Robot
JP6398531B2 (en) * 2014-09-25 2018-10-03 日本電気株式会社 Moving body detection device
WO2017068417A2 (en) * 2015-10-22 2017-04-27 Greyorange Pte. Ltd. Automated fault diagnosis and recovery of machines
JP6606471B2 (en) * 2016-06-29 2019-11-13 株式会社ブイ・アール・テクノセンター Landmark for position detection and position detection method for moving body
CN106092090B (en) * 2016-08-06 2023-04-25 合肥中科星翰科技有限公司 Infrared road sign for positioning indoor mobile robot and use method thereof
US10866102B2 (en) * 2016-12-23 2020-12-15 X Development Llc Localization of robotic vehicles
US10761541B2 (en) * 2017-04-21 2020-09-01 X Development Llc Localization with negative mapping
US10222215B2 (en) * 2017-04-21 2019-03-05 X Development Llc Methods and systems for map generation and alignment
JP7392963B2 (en) 2017-09-05 2023-12-06 日本電気株式会社 Spatial recognition device, spatial recognition method, program
JP7392962B2 (en) 2017-09-05 2023-12-06 日本電気株式会社 Spatial recognition device, spatial recognition method, program
US11413755B2 (en) * 2017-12-31 2022-08-16 Sarcos Corp. Covert identification tags viewable by robots and robotic devices
JP6711553B2 (en) * 2018-09-21 2020-06-17 三菱ロジスネクスト株式会社 Unmanned transport system
JP6711554B2 (en) * 2018-09-21 2020-06-17 三菱ロジスネクスト株式会社 Unmanned transport system
JP6707600B2 (en) * 2018-09-26 2020-06-10 三菱ロジスネクスト株式会社 Transport system
JP7417130B2 (en) * 2019-05-21 2024-01-18 日本電信電話株式会社 Position measurement method, motion control method, and motion control system
JP7078343B2 (en) * 2021-02-26 2022-05-31 三菱ロジスネクスト株式会社 Automated guided vehicles and automated guided vehicles
CN113568889B (en) * 2021-07-30 2024-02-23 上海无线电设备研究所 Space-based optical detection-oriented aerial target feature library and construction method thereof
KR102648850B1 (en) * 2021-08-12 2024-03-19 네이버랩스 주식회사 Pattern lighting apparatus for generating robot-recognizable pattern and building including the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0771959A (en) * 1993-09-01 1995-03-17 Tatsumi Denshi Kogyo Kk System for locating robot
KR100552691B1 (en) * 2003-09-16 2006-02-20 삼성전자주식회사 Method and apparatus for localization in mobile robot
JP4264380B2 (en) * 2004-04-28 2009-05-13 三菱重工業株式会社 Self-position identification method and apparatus

Also Published As

Publication number Publication date
JP2007257226A (en) 2007-10-04

Similar Documents

Publication Publication Date Title
JP4448497B2 (en) Self-position detecting device and position detecting system for moving body
Krajník et al. A practical multirobot localization system
US8090193B2 (en) Mobile robot
JP4460528B2 (en) IDENTIFICATION OBJECT IDENTIFICATION DEVICE AND ROBOT HAVING THE SAME
US10750920B2 (en) Control method of robot system including plurality of moving robots
JP5079703B2 (en) System and method for calculating position in real time
JP4262196B2 (en) Autonomous mobile robot
WO2018025531A1 (en) Information processing device, information processing method, and program
Faessler et al. A monocular pose estimation system based on infrared leds
JP4115946B2 (en) Mobile robot and autonomous traveling system and method thereof
EP3656138A1 (en) Aligning measured signal data with slam localization data and uses thereof
CN108022264B (en) Method and equipment for determining camera pose
EP3526626A1 (en) Laser scanner with real-time, online ego-motion estimation
RU2003120057A (en) METHOD FOR RECOGNITION OF LABELS FOR DETERMINING THE LOCATION OF A ROBOT-VACUUM CLEANER AND A ROBOT-VACUUM CLEANER USING THIS METHOD
JP2005092820A (en) Environment recognition apparatus and method, path planning apparatus and method, and robot apparatus
CN102663722A (en) Moving object segmentation using depth images
JP2003269937A (en) Obstruction recognition device, obstruction recognition method, obstruction recognition program and mobile robot device
JP2006346767A (en) Mobile robot, marker, method of computing position and posture of mobile robot, and autonomous traveling system for mobile robot
CN106292657A (en) Mobile robot and patrol path setting method thereof
JP2009033366A (en) Optical marker system
US10949980B2 (en) System and method for reverse optical tracking of a moving object
JP2008090575A (en) Mobile robot
US20210325889A1 (en) Method of redefining position of robot using artificial intelligence and robot of implementing thereof
US11874133B2 (en) Mapping an environment using a state of a robotic device
CN108022265A (en) Infrared camera pose determines method, equipment and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20091204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4448497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees