JP6259233B2 - Mobile robot, mobile robot control system, and program - Google Patents

Mobile robot, mobile robot control system, and program Download PDF

Info

Publication number
JP6259233B2
JP6259233B2 JP2013188164A JP2013188164A JP6259233B2 JP 6259233 B2 JP6259233 B2 JP 6259233B2 JP 2013188164 A JP2013188164 A JP 2013188164A JP 2013188164 A JP2013188164 A JP 2013188164A JP 6259233 B2 JP6259233 B2 JP 6259233B2
Authority
JP
Japan
Prior art keywords
control
mobile robot
virtual
information
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013188164A
Other languages
Japanese (ja)
Other versions
JP2015055969A (en
Inventor
小林 裕之
裕之 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Josho Gakuen Educational Foundation
Original Assignee
Josho Gakuen Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Josho Gakuen Educational Foundation filed Critical Josho Gakuen Educational Foundation
Priority to JP2013188164A priority Critical patent/JP6259233B2/en
Publication of JP2015055969A publication Critical patent/JP2015055969A/en
Application granted granted Critical
Publication of JP6259233B2 publication Critical patent/JP6259233B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自律的に移動する移動ロボット等に関する。   The present invention relates to a mobile robot that moves autonomously.

従来、移動ロボットにおいて、移動範囲等を制限することが行われていた。例えば、特許文献1には、バーコードパターンの表示された物体を複数用意することによって仮想壁を定義し、掃除ロボットの移動を制限することが記載されている。また、例えば、特許文献2には、バーコードを印刷した紙を床面に一定間隔で貼り付け、掃除ロボット等を誘導することが記載されている。また、特許文献3には、バーコードなどで規定されたランドマークで有界領域を策定し、ロボットが隣接する有界領域へ移動しないようにすることが記載されている。また、特許文献4には、掃除ロボットが標示体の位置を検出及び記録し、その標示体が取り除かれた後も、その標示体が存在するかのように掃除を実行することが記載されている。また、赤外線を発する部品を掃除ロボットの移動空間に配置することによって、掃除ロボットの進入を制限するための仮想壁を設けたり、掃除ロボットが充電のため自動的にホームベースに帰還できるようにしたりすることが行われている。   Conventionally, in a mobile robot, a movement range or the like has been limited. For example, Patent Document 1 describes that a virtual wall is defined by preparing a plurality of objects on which a barcode pattern is displayed, thereby restricting the movement of the cleaning robot. Further, for example, Patent Document 2 describes that a paper on which a barcode is printed is pasted on a floor surface at a predetermined interval to guide a cleaning robot or the like. Further, Patent Document 3 describes that a bounded area is defined by landmarks defined by a barcode or the like so that the robot does not move to an adjacent bounded area. Further, Patent Document 4 describes that a cleaning robot detects and records the position of a sign body, and performs cleaning as if the sign body exists even after the sign body is removed. Yes. In addition, by placing infrared emitting parts in the moving space of the cleaning robot, a virtual wall can be provided to limit the entrance of the cleaning robot, or the cleaning robot can automatically return to the home base for charging. To be done.

特開2012−221490号公報JP 2012-212490 A 国際公開第2005/092632号International Publication No. 2005/092632 特開2013−144112号公報JP 2013-144112 A 特開2012−239897号公報JP 2012-239897 A

しかしながら、従来の移動ロボットにおいては、移動を制限したい領域や、移動させたい領域に、物体を配置したりバーコードを貼付したりする必要があった。例えば、特許文献1では、掃除ロボットの移動を制限するために用いられる仮想ラインを2個以上の特定パターンを用いて定義するため、2個以上の特定パターンをそれぞれ有する2個以上の物体を仮想ラインの位置に配置する必要があった。また、例えば、特許文献4でも、掃除ロボットが標示体の位置を検出及び記録するまでは、掃除ロボットに通過してほしくない領域に標示体を配置したり、掃除ロボットに掃除をしてほしい領域に標示体を配置したりすることが必要であった。また、仮想壁や移動ルート等は、実空間に配置されたバーコード等によって決められるものであり、それらの範囲等を任意に設定することはできなった。また、赤外線を発する部品を用いる場合には、その部品自体が高価であり、またその部品の動作のために充電池等の電源が必要であるという問題があった。また、赤外線による制御の場合には、窓際等の自然光の入射するところでは、自然光に含まれる赤外線によって誤作動する可能性があるという問題もあった。   However, in a conventional mobile robot, it is necessary to place an object or attach a barcode to an area where movement is desired to be restricted or an area where movement is desired. For example, in Patent Document 1, in order to define a virtual line used to limit the movement of the cleaning robot using two or more specific patterns, two or more objects each having two or more specific patterns are virtually displayed. It was necessary to arrange at the position of the line. Also, for example, in Patent Document 4, until the cleaning robot detects and records the position of the sign object, the sign object is arranged in an area that the cleaning robot does not want to pass or the cleaning robot wants to clean. It was necessary to place a sign on the surface. In addition, the virtual wall, the moving route, and the like are determined by a bar code or the like arranged in the real space, and the range thereof cannot be arbitrarily set. In addition, when a component that emits infrared rays is used, the component itself is expensive, and a power source such as a rechargeable battery is necessary for the operation of the component. Further, in the case of control by infrared rays, there is a problem that malfunction may occur due to infrared rays contained in natural light where natural light is incident such as near a window.

本発明は、上記問題を解決するためになされたものであり、移動ロボットの移動を制御するための仮想壁等の設定に用いられるものを、必ずしも仮想壁等の近くに配置しなくてもよいようにすることを目的とする。   The present invention has been made to solve the above-described problem, and the one used for setting a virtual wall or the like for controlling the movement of the mobile robot may not necessarily be arranged near the virtual wall or the like. The purpose is to do so.

上記目的を達成するため、本発明による移動ロボットは、自律的に移動する移動ロボットであって、シートに表示された2次元図形であって、仮想的な図形である仮想図形の2次元図形に対する相対的な位置関係を示す仮想図形情報を含むコードを表示する2次元図形である制御図形を撮影する撮影手段と、撮影手段が撮影した撮影画像に含まれる制御図形から、仮想図形情報を取得する取得手段と、撮影画像に含まれる制御図形と、制御図形のサイズを示すサイズ情報と、取得手段が取得した仮想図形情報とを用いて、移動ロボットと仮想図形との位置関係を取得する位置関係取得手段と、移動ロボットを移動させる移動手段と、位置関係取得手段が取得した位置関係に応じて、移動手段による移動を制御する移動制御手段と、を備えたものである。
このような構成により、制御図形のコードに含まれる仮想図形情報によって、移動ロボットの移動を制御することができる。したがって、仮想図形情報によって任意の仮想図形を設定できるため、制御図形を必ずしも仮想図形の近くに配置しなくてもよく、移動ロボットの移動制御の設定の自由度が高まることになる。例えば、制御図形を必ずしも仮想壁の位置に配置しなくてもよいことになる。また例えば、任意の形状や範囲の仮想壁等を設定することができるようになる。また、仮想図形の設定のために赤外線を発する部品を用いなくてよいため、仮想図形を容易に設定することができ、また自然光によって誤作動することもない。
In order to achieve the above object, a mobile robot according to the present invention is a mobile robot that moves autonomously, and is a two-dimensional figure displayed on a sheet, which is a virtual figure that is a virtual figure. Virtual figure information is acquired from a photographing means for photographing a control figure, which is a two-dimensional figure for displaying a code including virtual figure information indicating a relative positional relationship, and a control figure included in a photographed image photographed by the photographing means. The positional relationship for acquiring the positional relationship between the mobile robot and the virtual figure using the acquisition means, the control graphic included in the captured image, the size information indicating the size of the control graphic, and the virtual graphic information acquired by the acquisition means An acquisition means, a movement means for moving the mobile robot, and a movement control means for controlling movement by the movement means in accordance with the positional relationship acquired by the positional relationship acquisition means. It is.
With this configuration, the movement of the mobile robot can be controlled by the virtual graphic information included in the control graphic code. Therefore, since an arbitrary virtual figure can be set based on the virtual figure information, the control figure does not necessarily have to be arranged near the virtual figure, and the degree of freedom in setting the movement control of the mobile robot is increased. For example, the control figure does not necessarily have to be arranged at the position of the virtual wall. For example, a virtual wall having an arbitrary shape or range can be set. Further, since it is not necessary to use a component that emits infrared rays for setting the virtual figure, the virtual figure can be set easily, and it does not malfunction due to natural light.

また、本発明による移動ロボットでは、位置関係取得手段は、撮影画像に含まれる制御図形とサイズ情報とを用いて、移動ロボットの座標系と制御図形の座標系との座標変換を示す座標変換情報を算出し、座標変換情報と仮想図形情報とを用いて、移動ロボットと仮想図形との位置関係を取得してもよい。   Further, in the mobile robot according to the present invention, the positional relationship acquisition means uses coordinate control information indicating coordinate conversion between the coordinate system of the mobile robot and the coordinate system of the control graphic using the control graphic and the size information included in the captured image. And the positional relationship between the mobile robot and the virtual figure may be acquired using the coordinate conversion information and the virtual figure information.

また、本発明による移動ロボットでは、コードは、制御図形の位置及び姿勢を示す位置姿勢情報をも含み、取得手段は、位置姿勢情報をも取得してもよい。その場合には、位置関係取得手段は、取得手段が取得した位置姿勢情報をも用いて、移動ロボットの座標系と制御図形の座標系との座標変換を示す座標変換情報を算出することになる。
このような構成により、制御図形に応じた任意の座標系における移動ロボットの位置を特定することも可能になる。したがって、例えば、制御図形に応じた座標系が、移動ロボットの存在する領域の座標系に対応している場合には、移動ロボットは、制御図形を用いることによって、その領域における移動ロボットの絶対的な位置を取得することも可能となる。
In the mobile robot according to the present invention, the code may also include position / posture information indicating the position and posture of the control graphic, and the acquisition unit may also acquire the position / posture information. In this case, the positional relationship acquisition unit calculates coordinate conversion information indicating coordinate conversion between the coordinate system of the mobile robot and the coordinate system of the control figure using the position and orientation information acquired by the acquisition unit. .
With this configuration, it is possible to specify the position of the mobile robot in an arbitrary coordinate system corresponding to the control figure. Therefore, for example, when the coordinate system corresponding to the control figure corresponds to the coordinate system of the area where the mobile robot exists, the mobile robot uses the control figure to obtain the absolute value of the mobile robot in that area. It is also possible to acquire a correct position.

また、本発明による移動ロボットでは、コードは、サイズ情報をも含み、取得手段は、サイズ情報をも取得し、位置関係取得手段が用いるサイズ情報は、取得手段が取得したサイズ情報であってもよい。
このような構成により、制御情報ごとにサイズ情報が異なる場合であっても、そのサイズ情報をコードに含めることにより、移動ロボットと仮想図形情報との位置関係を適切に取得することができるようになる。
In the mobile robot according to the present invention, the code also includes size information, the acquisition unit acquires the size information, and the size information used by the positional relationship acquisition unit may be the size information acquired by the acquisition unit. Good.
With such a configuration, even if the size information is different for each control information, the positional information between the mobile robot and the virtual figure information can be appropriately acquired by including the size information in the code. Become.

また、本発明による移動ロボットでは、仮想図形は、移動に関する境界を示すものであり、移動制御手段は、仮想図形の示す境界を越えないで移動するように、移動手段による移動を制御してもよい。
このような構成により、仮想図形によって、移動ロボットに対して仮想的な境界を設定できるようになる。
In the mobile robot according to the present invention, the virtual figure indicates a boundary relating to the movement, and the movement control means may control the movement by the moving means so as to move without exceeding the boundary indicated by the virtual figure. Good.
With such a configuration, a virtual boundary can be set for the mobile robot by a virtual figure.

また、本発明による移動ロボットでは、制御図形は、2次元コードであってもよい。
このような構成により、仮想図形のコードに含まれる仮想図形情報やその他の情報を精度高く読み出すことができるようになる。
In the mobile robot according to the present invention, the control figure may be a two-dimensional code.
With such a configuration, it is possible to read out the virtual graphic information and other information included in the virtual graphic code with high accuracy.

また、本発明による移動ロボット制御システムは、上記移動ロボットと、その移動ロボットの移動の制御に用いられる前記制御図形の表示された1または2以上のシートと、を備え、ユーザが、制御図形の表示されたシートを移動ロボットの移動空間に配置することにより移動ロボットの移動が制御される、ものである。
このような構成により、制御図形の表示されたシートを用いることにより、移動ロボットの移動を制御することができる。
A mobile robot control system according to the present invention includes the mobile robot and one or more sheets on which the control graphic used for controlling the movement of the mobile robot is displayed. The movement of the mobile robot is controlled by arranging the displayed sheet in the movement space of the mobile robot.
With such a configuration, the movement of the mobile robot can be controlled by using the sheet on which the control graphic is displayed.

また、本発明による制御図形の表示されたシートは、上記移動ロボットが撮影する制御図形の表示されたシートであって、仮想図形情報を含むコードを表示する制御図形の表示されたシートである。
このような構成により、このシートを移動ロボットの移動する範囲に配置することによって、そのシートに表示された制御図形のコードに含まれる仮想図形情報を用いて、移動ロボットの移動を制御することができる。
The sheet displaying the control graphic according to the present invention is a sheet displaying the control graphic photographed by the mobile robot, and is a sheet displaying the control graphic displaying a code including virtual graphic information.
With such a configuration, the movement of the mobile robot can be controlled using the virtual graphic information included in the control graphic code displayed on the sheet by arranging the sheet in the moving range of the mobile robot. it can.

本発明による移動ロボット等によれば、制御図形のコードに含まれる仮想図形情報によって、移動ロボットの移動を制御できるようになる。   According to the mobile robot and the like according to the present invention, the movement of the mobile robot can be controlled by the virtual graphic information included in the code of the control graphic.

本発明の実施の形態1による移動ロボットと制御図形との関係を示す模式図Schematic diagram showing the relationship between the mobile robot and control figures according to Embodiment 1 of the present invention. 同実施の形態による移動ロボットの構成を示すブロック図The block diagram which shows the structure of the mobile robot by the embodiment 同実施の形態における制御図形と撮影画像との関係を示す図The figure which shows the relationship between the control figure and the picked-up image in the embodiment 同実施の形態による移動ロボットの動作を示すフローチャートA flowchart showing the operation of the mobile robot according to the embodiment 同実施の形態におけるコンピュータシステムの構成の一例を示す図The figure which shows an example of a structure of the computer system in the embodiment

以下、本発明による移動ロボットや、制御図形の表示されたシートについて、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。   Hereinafter, a mobile robot according to the present invention and a sheet on which a control graphic is displayed will be described using embodiments. In the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repetitive description may be omitted.

(実施の形態1)
本発明の実施の形態1による移動ロボットについて、図面を参照しながら説明する。本実施の形態による移動ロボットは、2次元の図形である制御図形を用いて移動に関する制御がなされるロボットである。
(Embodiment 1)
A mobile robot according to Embodiment 1 of the present invention will be described with reference to the drawings. The mobile robot according to the present embodiment is a robot in which control relating to movement is performed using a control graphic which is a two-dimensional graphic.

図1は、本実施の形態による移動ロボット1、及び制御図形2の表示されたシート3を備えた移動ロボット制御システムと、仮想図形4との関係を示す図である。制御図形2は、仮想図形情報を含むコードを表示する2次元図形である。その仮想図形情報は、仮想的な図形である仮想図形4の制御図形2に対する相対的な位置関係を示す情報である。移動ロボット1は、撮影手段11によって制御図形2を撮影し、その撮影画像に含まれる制御図形2と、制御図形2の実空間でのサイズとを用いることによって、移動ロボット1に対する制御図形2の位置(ベクトルC)や姿勢(例えば、オイラー角や、オイラー角に応じた回転行列、制御図形2の法線ベクトル等である。以下、他の姿勢についても同様である)をUVW座標系(移動ロボット1のローカル座標系)上の情報として知ることができる。また、移動ロボット1は、撮影画像に含まれる制御図形2から仮想図形情報を読み出すことによって、UVW座標系における仮想図形4の位置関係、すなわち制御図形2に対する仮想図形4の位置関係を知ることができる。その結果、移動ロボット1は、移動ロボット1と、仮想図形4との位置関係をUVW座標系上で知ることができ、その仮想図形4との位置関係に応じた移動制御を行うことができる。その仮想図形は、後述するように、例えば仮想壁等を示す図形であってもよい。また、移動ロボット1は、ワールド座標系(移動空間に固定された絶対座標系)であるXYZ座標系における制御図形2の位置(ベクトルB)や姿勢を、例えば、制御図形2のコードに含めるようにして知ることができてもよい。移動ロボット1は、このXYZ座標系における制御図形2の姿勢と、先に求めたUVW座標系における制御図形2の姿勢から、XYZ座標系とUVW座標系の変換を求めることができる。これにより先に求めたUVW座標系におけるベクトルCを、XYZ座標系におけるベクトルとして求めることができる。その結果、移動ロボット1は、XYZ座標系における移動ロボット1の位置(ベクトルA=ベクトルB−ベクトルC)や姿勢を知ることもできる。以下、そのような移動ロボット1の詳細について説明する。   FIG. 1 is a diagram showing the relationship between a mobile robot 1 according to the present embodiment, a mobile robot control system including a sheet 3 on which a control graphic 2 is displayed, and a virtual graphic 4. The control graphic 2 is a two-dimensional graphic that displays a code including virtual graphic information. The virtual graphic information is information indicating the relative positional relationship of the virtual graphic 4 that is a virtual graphic with respect to the control graphic 2. The mobile robot 1 captures the control graphic 2 by the image capturing means 11 and uses the control graphic 2 included in the captured image and the size of the control graphic 2 in the real space, so that the control graphic 2 for the mobile robot 1 is captured. Position (vector C) and orientation (for example, Euler angles, rotation matrix corresponding to Euler angles, normal vector of control figure 2, etc. The same applies to other orientations below) in the UVW coordinate system (moving It can be known as information on the local coordinate system of the robot 1. Further, the mobile robot 1 knows the positional relationship of the virtual graphic 4 in the UVW coordinate system, that is, the positional relationship of the virtual graphic 4 with respect to the control graphic 2 by reading the virtual graphic information from the control graphic 2 included in the captured image. it can. As a result, the mobile robot 1 can know the positional relationship between the mobile robot 1 and the virtual graphic 4 on the UVW coordinate system, and can perform movement control according to the positional relationship with the virtual graphic 4. As will be described later, the virtual figure may be, for example, a figure indicating a virtual wall or the like. Further, the mobile robot 1 includes the position (vector B) and orientation of the control figure 2 in the XYZ coordinate system, which is the world coordinate system (an absolute coordinate system fixed in the movement space), in the code of the control figure 2, for example. You may know it. The mobile robot 1 can obtain the transformation between the XYZ coordinate system and the UVW coordinate system from the attitude of the control figure 2 in the XYZ coordinate system and the attitude of the control figure 2 in the UVW coordinate system obtained earlier. Thereby, the vector C in the UVW coordinate system obtained previously can be obtained as a vector in the XYZ coordinate system. As a result, the mobile robot 1 can also know the position (vector A = vector B−vector C) and posture of the mobile robot 1 in the XYZ coordinate system. Hereinafter, details of such a mobile robot 1 will be described.

図2は、本実施の形態による移動ロボット1の構成を示すブロック図である。本実施の形態による移動ロボット1は、自律的に移動するロボットであって、撮影手段11と、記憶手段12と、取得手段13と、位置関係取得手段14と、移動手段15と、移動制御手段16とを備える。なお、自律的に移動するとは、ユーザ等から受け付ける操作指示に応じて移動するのではない、という意味である。この移動ロボット1は、例えば、掃除ロボットであってもよく、エンターテイメントロボットであってもよく、監視ロボットであってもよく、自律的に移動するその他の用途のロボットであってもよい。   FIG. 2 is a block diagram showing a configuration of the mobile robot 1 according to the present embodiment. The mobile robot 1 according to the present embodiment is a robot that moves autonomously, and includes a photographing unit 11, a storage unit 12, an acquisition unit 13, a positional relationship acquisition unit 14, a movement unit 15, and a movement control unit. 16. In addition, autonomously moving means not moving according to an operation instruction received from a user or the like. The mobile robot 1 may be, for example, a cleaning robot, an entertainment robot, a surveillance robot, or a robot for other purposes that moves autonomously.

撮影手段11は、シート3に表示された制御図形2を撮影する。撮影手段11は、例えば、CCDやCMOSなどのイメージセンサによって実現することができる。また、撮影手段11は、撮影対象からの光をイメージセンサの受光平面に結像させるための光学系を有していてもよい。また、撮影画像のデータ形式等は問わない。通常、撮影手段11は移動ロボット1に固定されているため、移動ロボット1の移動に応じて撮影手段11の撮影対象が異なることになる。したがって、撮影手段11は、連続的に撮影を行い、撮影範囲に制御図形2が含まれる場合に、その制御図形2を含む撮影画像を記憶手段12に蓄積してもよい。なお、撮影範囲に制御図形2が含まれるかどうかは、例えば、制御図形2のパターンマッチングによって行ってもよく、その他の方法によって行ってもよい。   The photographing unit 11 photographs the control figure 2 displayed on the sheet 3. The photographing unit 11 can be realized by an image sensor such as a CCD or a CMOS, for example. Further, the photographing means 11 may have an optical system for forming an image of light from the photographing target on the light receiving plane of the image sensor. The data format of the captured image is not limited. Usually, since the photographing unit 11 is fixed to the mobile robot 1, the photographing target of the photographing unit 11 varies depending on the movement of the mobile robot 1. Therefore, the imaging unit 11 may continuously perform imaging, and when the control figure 2 is included in the imaging range, the captured image including the control figure 2 may be accumulated in the storage unit 12. Whether or not the control figure 2 is included in the shooting range may be determined by, for example, pattern matching of the control figure 2 or by other methods.

ここで、制御図形2について説明する。制御図形2は、前述のように、コードを表示する2次元図形である。制御図形2の形状は、例えば、正方形や、長方形、その他の四角形状、その他の多角形状であってもよく、円形状や楕円形状、それらの組み合わせ等であってもよい。ただし、その制御図形2は、特定可能な3以上の点を有していることが好適である。その特定可能な点は、例えば、多角形の頂点であってもよく、円形状における切り欠き等のマークであってもよく、楕円形における長軸や単軸との交点であってもよく、特定可能なその他の点であってもよい。例えば、その特定可能な点間の距離が、後述するサイズ情報によって示されてもよい。なお、上記撮影手段11が撮影した撮影画像において、上記少なくとも3点と、仮想図形情報等を含むコードとを認識しうる範囲内において、制御図形2は凹凸があってもよく、曲面であってもよい。ただし、各点やコードの認識のし易さ、作成のし易さ、貼付のし易さ等の観点から、制御図形2は平面図形であることが好ましく、紙、フィルム、箔、織物等のシート3への印刷物等が好ましい。また、使用空間の美観上、制御図形が容易に認識できる範囲で、シートの色、背景図柄等も適宜選択することができる。制御図形2に表示されるコードは、仮想図形情報を含んでいる。また、そのコードは、サイズ情報を含んでいてもよく、位置姿勢情報を含んでいてもよい。制御図形2のコードは、例えば、2次元コードであってもよく、または、その他のコードであってもよい。前者の場合には、制御図形2は、2次元コードそのものであってもよい。2次元コードは、2つの次元の方向(例えば、水平方向と垂直方向)に情報を有するコードであり、例えば、マトリックス式の2次元コードであるQRコード(登録商標)であってもよく、スタック式の2次元コードであってもよく、その他の形式の2次元コードであってもよい。本実施の形態では、制御図形2がQRコード(登録商標)である場合について主に説明する。制御図形2が2次元コードでない場合には、サイズ情報等を含むコードは、例えば、サイズ情報等を示す文字列であってもよい。その場合には、制御図形2は、例えば、矩形や多角形状等の枠と、その枠内に表示された文字列とを表示するものであってもよい。その文字列は、数字や記号をも含んでいてもよい。   Here, the control figure 2 will be described. As described above, the control graphic 2 is a two-dimensional graphic that displays a code. The shape of the control figure 2 may be, for example, a square, a rectangle, other quadrangular shapes, other polygonal shapes, a circular shape, an elliptical shape, a combination thereof, or the like. However, it is preferable that the control figure 2 has three or more points that can be specified. The identifiable point may be, for example, a polygonal vertex, a mark such as a cutout in a circular shape, or an intersection with a long axis or a single axis in an ellipse, Other points that can be specified may be used. For example, the distance between the identifiable points may be indicated by size information described later. In the captured image captured by the imaging unit 11, the control graphic 2 may be uneven or curved within a range where the at least three points and the code including the virtual graphic information can be recognized. Also good. However, the control figure 2 is preferably a plane figure from the viewpoint of ease of recognition of each point or code, ease of creation, ease of sticking, etc., such as paper, film, foil, fabric, etc. A printed material on the sheet 3 is preferable. In addition, the color of the sheet, the background pattern, and the like can be appropriately selected as long as the control figure can be easily recognized from the aesthetics of the usage space. The code displayed on the control graphic 2 includes virtual graphic information. The code may include size information or may include position and orientation information. The code of the control graphic 2 may be, for example, a two-dimensional code or another code. In the former case, the control figure 2 may be a two-dimensional code itself. The two-dimensional code is a code having information in two dimensional directions (for example, a horizontal direction and a vertical direction). For example, the two-dimensional code may be a QR code (registered trademark) which is a matrix type two-dimensional code and is a stack. It may be a two-dimensional code of an expression, or a two-dimensional code of another form. In the present embodiment, a case where the control graphic 2 is a QR code (registered trademark) will be mainly described. When the control figure 2 is not a two-dimensional code, the code including size information or the like may be a character string indicating size information or the like, for example. In that case, the control figure 2 may display a frame such as a rectangle or a polygon and a character string displayed in the frame, for example. The character string may also include numbers and symbols.

仮想図形情報は、制御図形2に対する仮想図形の相対的な位置関係を示す情報である。その仮想図形は、例えば、立体であってもよく、平面や曲面であってもよく、直線や曲線であってもよく、点であってもよく、それらを組み合わせたものであってもよい。仮想図形情報が平面である仮想図形を示す場合に、その仮想図形の平面は、制御図形2の延長面である平面内に存在する矩形であってもよい。その矩形の上辺及び下辺が水平方向であり、右辺及び左辺が鉛直方向である場合には、仮想図形情報は、制御図形2の中心位置を基準とした仮想図形の4辺のそれぞれまでの距離を示す情報であってもよい。また、その仮想図形の平面が、制御図形2の延長面内に存在しない場合には、仮想図形情報は、制御図形2に対する仮想図形の位置を示す情報と、制御図形2に対する仮想図形の姿勢を示す情報とをさらに含んでいてもよい。その仮想図形情報は、制御図形2と所定の位置関係にある、制御図形2を基準としたIJK座標系あるいはXYZ座標系における仮想図形の位置関係を示す情報であってもよい。例えば、その仮想図形は、XYZ座標系の座標値であってもよく、aX+aY+aZ+a=0等で示される平面であってもよく、(X−b)/c=(Y−b)/c=(Z−b)/c等で示される直線であってもよく、その他の図形であってもよい。なお、a〜a,b〜b,c〜cは係数である。仮想図形情報の用途については後述する。 The virtual graphic information is information indicating the relative positional relationship of the virtual graphic with respect to the control graphic 2. The virtual figure may be, for example, a solid, a plane or a curved surface, a straight line or a curved line, a point, or a combination thereof. When the virtual figure information indicates a virtual figure that is a plane, the plane of the virtual figure may be a rectangle that exists in a plane that is an extension surface of the control figure 2. When the upper and lower sides of the rectangle are horizontal, and the right and left sides are vertical, the virtual graphic information indicates the distance to each of the four sides of the virtual graphic with reference to the center position of the control graphic 2. It may be the information shown. If the plane of the virtual figure does not exist within the extended plane of the control figure 2, the virtual figure information includes information indicating the position of the virtual figure with respect to the control figure 2 and the attitude of the virtual figure with respect to the control figure 2. Information may be further included. The virtual graphic information may be information indicating the positional relationship of the virtual graphic in the IJK coordinate system or the XYZ coordinate system with the control graphic 2 as a reference, which is in a predetermined positional relationship with the control graphic 2. For example, the virtual figure may be a coordinate value in the XYZ coordinate system, may be a plane represented by a 1 X + a 2 Y + a 3 Z + a 4 = 0, or the like, and (X−b 1 ) / c 1 = A straight line represented by (Y−b 2 ) / c 2 = (Z−b 3 ) / c 3 or the like may be used, or another figure may be used. Note that a 1 to a 4 , b 1 to b 3 , and c 1 to c 3 are coefficients. The use of virtual graphic information will be described later.

サイズ情報は、制御図形2のサイズを示す情報である。そのサイズは、通常、実空間でのサイズである。また、後述するように、撮影画像に含まれる制御図形2と、そのサイズ情報とを用いて、移動ロボット1の座標系における制御図形2の位置や姿勢を取得できるのであれば、サイズ情報はどのような情報であってもよい。そのサイズ情報は、例えば、制御図形2における特定可能な複数の点間のサイズ(長さ)を示すものであってもよい。その特定可能な複数の点は、制御図形2の輪郭上に存在してもよく、輪郭内に存在してもよい。すなわち、サイズ情報は、制御図形2の輪郭に関するサイズを示す情報であってもよく、制御図形2の輪郭以外の領域に関するサイズを示す情報であってもよい。その複数の点は、3点以上であってもよい。また、サイズ情報は、特定可能な複数の点間のサイズを結果として知ることができるのであれば、そのサイズそのものでなくてもよい。例えば、制御図形2が正方形である場合には、サイズ情報は一辺の長さであってもよい。その場合には、一辺の長さを用いて対角の頂点間の長さを算出できるからである。また、撮影画像に含まれる制御図形2における特定可能な点間の距離と、サイズ情報の示す実空間での長さとの対応が分かるようになっていることが好適である。例えば、制御図形2が長方形であり、サイズ情報が長辺の長さ及び短辺の長さである場合には、撮影画像において、長方形の長辺と短辺とを区別できないことがある。したがって、そのような場合には、例えば、長辺が水平方向となるように決められていてもよく、長辺や短辺の少なくとも一方を、他方と区別できるようにしていてもよい。後者の場合としては、例えば、一方の辺に切り欠きや突起等のマークを付けてもよく、長辺と短辺との色を変更してもよい。本実施の形態では、サイズ情報が、正方形であるQRコード(登録商標)の一辺の長さを示す場合について主に説明する。なお、サイズ情報は、制御図形2のコードに含まれていてもよく、または、移動ロボット1の図示しない記録媒体で記憶されていてもよい。前者の場合には、制御図形2ごとにサイズ情報が異なってもよいことになる。一方、後者の場合には、あらかじめ決められたサイズ情報の制御図形2を用いることが必要となる。   The size information is information indicating the size of the control figure 2. The size is usually the size in real space. As will be described later, if the position and orientation of the control figure 2 in the coordinate system of the mobile robot 1 can be acquired using the control figure 2 included in the captured image and its size information, Such information may be used. The size information may indicate, for example, the size (length) between a plurality of identifiable points in the control graphic 2. The plurality of identifiable points may exist on the contour of the control graphic 2 or may exist within the contour. That is, the size information may be information indicating a size related to the outline of the control graphic 2 or may be information indicating a size related to an area other than the outline of the control graphic 2. The plurality of points may be three or more points. Further, the size information may not be the size itself as long as the size between a plurality of identifiable points can be known as a result. For example, when the control figure 2 is a square, the size information may be the length of one side. In this case, the length between the diagonal vertices can be calculated using the length of one side. In addition, it is preferable that the correspondence between the distance between identifiable points in the control graphic 2 included in the photographed image and the length in the real space indicated by the size information can be understood. For example, when the control figure 2 is a rectangle and the size information is the length of the long side and the length of the short side, the long side and the short side of the rectangle may not be distinguished in the captured image. Therefore, in such a case, for example, the long side may be determined to be in the horizontal direction, and at least one of the long side and the short side may be distinguished from the other. In the latter case, for example, a mark such as a notch or a protrusion may be provided on one side, and the color of the long side and the short side may be changed. In the present embodiment, a case will be mainly described in which the size information indicates the length of one side of a square QR code (registered trademark). Note that the size information may be included in the code of the control graphic 2 or may be stored in a recording medium (not shown) of the mobile robot 1. In the former case, the size information may be different for each control figure 2. On the other hand, in the latter case, it is necessary to use a control figure 2 having predetermined size information.

位置姿勢情報は、制御図形2の位置及び姿勢を示す情報である。その位置姿勢情報は、例えば、図1のXYZ座標系における制御図形2の位置と姿勢を示す情報であってもよい。位置は、例えば、XYZ座標系における制御図形2の代表点の位置であってもよい。代表点とは、例えば、中心点であってもよく、特定の頂点であってもよく、または、制御図形2におけるその他の点であってもよい。その代表点は、撮影画像に含まれる制御図形2においても特定可能な点であることが好適である。また、姿勢は、前述のように、XYZ座標系に対する制御図形2のオイラー角や、そのオイラー角に応じた回転行列、XYZ座標系における制御図形2の法線ベクトル等であってもよい。   The position / orientation information is information indicating the position and orientation of the control graphic 2. The position and orientation information may be information indicating the position and orientation of the control figure 2 in the XYZ coordinate system of FIG. The position may be, for example, the position of the representative point of the control figure 2 in the XYZ coordinate system. The representative point may be, for example, a center point, a specific vertex, or another point in the control graphic 2. The representative point is preferably a point that can be specified also in the control graphic 2 included in the captured image. Further, as described above, the posture may be an Euler angle of the control graphic 2 with respect to the XYZ coordinate system, a rotation matrix corresponding to the Euler angle, a normal vector of the control graphic 2 in the XYZ coordinate system, or the like.

なお、サイズ情報や位置姿勢情報は、結果としてサイズや位置及び姿勢を知ることができる情報であれば、サイズそのものを示す情報や、位置及び姿勢そのものを示す情報でなくてもよい。具体的には、制御図形2が正方形や矩形である場合には、3次元座標系における4頂点の座標値が分かれば、サイズや位置、姿勢を取得することができる。したがって、そのような場合には、制御図形2の4頂点の座標値が、サイズ情報及び位置姿勢情報であると考えることができる。   Note that the size information and the position / orientation information may not be information indicating the size itself or information indicating the position and orientation itself as long as the information can be obtained as a result of the size, position, and orientation. Specifically, when the control figure 2 is a square or a rectangle, the size, position, and orientation can be acquired if the coordinate values of the four vertices in the three-dimensional coordinate system are known. Therefore, in such a case, the coordinate values of the four vertices of the control figure 2 can be considered as size information and position / orientation information.

ここで、仮想図形情報を少なくとも含むコードを表示する制御図形2が表示されたシート3を生成する方法について簡単に説明する。ユーザは、制御図形2と仮想図形との位置関係を決定し、その位置関係に応じた仮想図形情報を取得する。その仮想図形情報は、あらかじめ決められたフォーマットに応じた仮想図形の位置を示す数字列等(例えば、座標値や、平面の式の係数、直線の式の係数等)であってもよい。そして、ユーザは、その仮想図形情報を含むコードを表示する制御図形2を、コンピュータを用いることなどによって生成する。例えば、制御図形2が2次元コードである場合には、仮想図形情報を2次元コードのエンコーダでエンコードすることにより、2次元コードである制御図形2を生成できる。そして、その制御図形2をプリントアウトすることによって、制御図形2が表示されるシート3を生成することができる。なお、制御図形2のコードには、前述のようにサイズ情報や、位置姿勢情報が含まれていてもよい。例えば、プリンタ等に依存して制御図形2の大きさが異なることがあり得るため、ユーザは、プリントアウトした制御図形2のサイズを定規等で測ることによってサイズ情報を特定し、そのサイズ情報を含むコードを生成するようにしてもよい。また、例えば、制御図形2のコードが文字列である場合には、ユーザは、仮想図形情報等を示す文字列を含む制御図形2をプリントアウトしたり、手書きしたりすることによって、制御図形2が表示されるシート3を生成してもよい。   Here, a method for generating the sheet 3 on which the control graphic 2 displaying the code including at least the virtual graphic information is displayed will be briefly described. The user determines the positional relationship between the control graphic 2 and the virtual graphic, and acquires virtual graphic information corresponding to the positional relationship. The virtual graphic information may be a numeric string indicating the position of the virtual graphic in accordance with a predetermined format (for example, a coordinate value, a coefficient of a plane expression, a coefficient of a straight line expression, etc.). And a user produces | generates the control figure 2 which displays the code | symbol containing the virtual figure information by using a computer. For example, when the control graphic 2 is a two-dimensional code, the control graphic 2 that is a two-dimensional code can be generated by encoding the virtual graphic information with an encoder of the two-dimensional code. Then, by printing out the control graphic 2, a sheet 3 on which the control graphic 2 is displayed can be generated. Note that the code of the control graphic 2 may include size information and position / orientation information as described above. For example, since the size of the control graphic 2 may differ depending on the printer or the like, the user specifies size information by measuring the size of the printed control graphic 2 with a ruler or the like, and the size information is You may make it produce | generate the code containing. For example, when the code of the control graphic 2 is a character string, the user prints out the control graphic 2 including the character string indicating the virtual graphic information or the like, or writes the control graphic 2 by handwriting. May be generated.

記憶手段12には、撮影手段11によって撮影された撮影画像が記憶される。その撮影画像は、前述のように、制御図形2を有するものであってもよい。その撮影画像は、例えば、撮影手段11によって蓄積されてもよい。記憶手段12での記憶は、RAM等における一時的な記憶でもよく、あるいは、長期的な記憶でもよい。記憶手段12は、所定の記録媒体(例えば、半導体メモリや磁気ディスク、光ディスクなど)によって実現されうる。   The storage unit 12 stores a photographed image photographed by the photographing unit 11. The captured image may have the control graphic 2 as described above. The photographed image may be accumulated by the photographing unit 11, for example. The storage in the storage unit 12 may be temporary storage in a RAM or the like, or may be long-term storage. The storage unit 12 can be realized by a predetermined recording medium (for example, a semiconductor memory, a magnetic disk, an optical disk, etc.).

取得手段13は、撮影手段11が撮影した撮影画像に含まれる制御図形2から、仮想図形情報を取得する。具体的には、制御図形2のコードから仮想図形情報を取得する。また、制御図形2のコードにサイズ情報や位置姿勢情報が含まれる場合には、取得手段13は、撮影画像に含まれる制御図形2から、サイズ情報や位置姿勢情報をも取得してもよい。制御図形2が2次元コードである場合には、取得手段13は、その2次元コードをデコードすることによって、仮想図形情報等を取得できる。また、制御図形2が文字列を含むコードである場合には、取得手段13は、その文字列を文字認識することによって、仮想図形情報等を取得できる。なお、取得手段13は、台形補正等によって歪みを除去した後に、文字認識を行ってもよい。取得手段13によって取得された仮想図形情報等は、図示しない記録媒体において記憶されてもよい。   The acquisition unit 13 acquires virtual graphic information from the control graphic 2 included in the captured image captured by the imaging unit 11. Specifically, virtual graphic information is acquired from the code of the control graphic 2. When the size information and the position / orientation information are included in the code of the control graphic 2, the acquisition unit 13 may also acquire the size information and the position / orientation information from the control graphic 2 included in the captured image. When the control graphic 2 is a two-dimensional code, the acquisition unit 13 can acquire virtual graphic information and the like by decoding the two-dimensional code. When the control graphic 2 is a code including a character string, the acquisition unit 13 can acquire virtual graphic information or the like by recognizing the character string. Note that the acquisition unit 13 may perform character recognition after removing the distortion by trapezoid correction or the like. The virtual graphic information acquired by the acquisition unit 13 may be stored in a recording medium (not shown).

位置関係取得手段14は、撮影画像に含まれる制御図形2と、その制御図形2のサイズを示すサイズ情報と、取得手段13が取得した仮想図形情報とを用いて、移動ロボット1と仮想図形との位置関係を取得する。そのサイズ情報は、取得手段13が取得したものであってもよく、または図示しない記録媒体で記憶されているものであってもよい。移動ロボット1と仮想図形との位置関係は、移動ロボット1の座標系における仮想図形の位置関係を示す情報であってもよい。具体的には、位置関係取得手段14は、撮影画像に含まれる制御図形2とサイズ情報とを用いて、移動ロボット1の座標系と制御図形2の座標系との座標変換を示す座標変換情報を算出してもよい。移動ロボット1の座標系における長さの単位と、サイズ情報の長さの単位とが異なる場合には、位置関係取得手段14は、サイズ情報を、移動ロボット1の座標系の長さの単位に変換してから用いてもよい。移動ロボット1の座標系とは、例えば、移動ロボット1が移動制御に用いる座標系であってもよい。制御図形2の座標系とは、制御図形2と所定の位置関係にある座標系であってもよい。その座標変換情報は、両座標系の座標変換を行うことができる情報であればどのようなものであってもよく、例えば、一方の座標系における他方の座標系の原点の位置を示す情報と、一方の座標系における他方の座標系の姿勢を示す情報(例えば、オイラー角や回転行列等)とを含んでいてもよい。位置関係取得手段14は、その座標変換情報と仮想図形情報とを用いて、移動ロボット1と仮想図形との位置関係を取得してもよい。また、取得手段13が位置姿勢情報を取得した場合には、位置関係取得手段14は、取得手段13が取得した位置姿勢情報をも用いて、移動ロボット1の座標系と制御図形2の座標系との座標変換を示す座標変換情報を算出してもよい。位置関係取得手段14によって取得された位置関係を示す情報は、図示しない記録媒体で記憶されてもよい。なお、この位置関係の取得の処理の詳細については後述する。   The positional relationship acquisition unit 14 uses the control figure 2 included in the photographed image, the size information indicating the size of the control figure 2, and the virtual figure information acquired by the acquisition unit 13. Get the positional relationship. The size information may be acquired by the acquiring unit 13 or may be stored on a recording medium (not shown). The positional relationship between the mobile robot 1 and the virtual graphic may be information indicating the positional relationship of the virtual graphic in the coordinate system of the mobile robot 1. Specifically, the positional relationship acquisition unit 14 uses coordinate control information indicating coordinate conversion between the coordinate system of the mobile robot 1 and the coordinate system of the control graphic 2 using the control graphic 2 and the size information included in the captured image. May be calculated. When the unit of length in the coordinate system of the mobile robot 1 is different from the unit of length of the size information, the positional relationship acquisition unit 14 converts the size information into the unit of length of the coordinate system of the mobile robot 1. It may be used after conversion. The coordinate system of the mobile robot 1 may be, for example, a coordinate system used by the mobile robot 1 for movement control. The coordinate system of the control graphic 2 may be a coordinate system in a predetermined positional relationship with the control graphic 2. The coordinate conversion information may be any information as long as it can perform coordinate conversion of both coordinate systems, for example, information indicating the position of the origin of the other coordinate system in one coordinate system; , Information indicating the orientation of the other coordinate system in one coordinate system (for example, Euler angles, rotation matrices, etc.) may be included. The positional relationship acquisition means 14 may acquire the positional relationship between the mobile robot 1 and the virtual graphic using the coordinate conversion information and the virtual graphic information. When the acquisition unit 13 acquires the position and orientation information, the positional relationship acquisition unit 14 also uses the position and orientation information acquired by the acquisition unit 13 to use the coordinate system of the mobile robot 1 and the coordinate system of the control figure 2. The coordinate conversion information indicating the coordinate conversion between and may be calculated. Information indicating the positional relationship acquired by the positional relationship acquisition unit 14 may be stored in a recording medium (not shown). The details of the positional relationship acquisition process will be described later.

移動手段15は、移動ロボット1を移動させる。その移動の方法は問わない。移動手段15は、例えば、タイヤや車輪、無限軌道等を用いて平面上を走行する走行手段であってもよく、歩行ロボットが有する脚式の移動手段であってもよく、プロペラ等を用いて空中を飛行する飛行手段であってもよく、移動のためのその他の手段であってもよい。   The moving means 15 moves the mobile robot 1. The method of the movement is not ask | required. The moving means 15 may be, for example, a traveling means that travels on a plane using tires, wheels, an endless track, or the like, may be a legged moving means that the walking robot has, and uses a propeller or the like. It may be a flying means for flying in the air, or may be other means for movement.

移動制御手段16は、位置関係取得手段14が取得した位置関係に応じて、移動手段15による移動を制御する。すなわち、移動制御手段16は、移動ロボット1に対する仮想図形の位置関係に応じて、移動ロボット1の位置を制御する。例えば、仮想図形が移動に関する境界を示す場合には、移動制御手段16は、移動ロボット1が仮想図形の示す境界を越えないで移動するように、移動手段15による移動を制御してもよい。具体的には、移動制御手段16は、移動ロボット1の現在位置を取得し、その現在位置の軌跡が仮想図形によって示される境界と交わらないように制御してもよい。例えば、移動制御手段16は、移動ロボット1が境界の前に位置した場合に、方向を転換するように移動手段15を制御してもよく、停止するように移動手段15を制御してもよい。また、例えば、移動ロボット1の通過するべき位置を仮想図形が示す場合には、移動制御手段16は、仮想図形の示す位置に移動ロボット1が到達するように、または、仮想図形の示すルートを移動ロボット1が移動するように移動手段15を制御してもよい。具体的には、移動制御手段16は、移動ロボット1の目標位置を仮想図形の示す位置に設定し、移動ロボット1が仮想図形の位置に到達するように移動手段15を制御してもよい。また、例えば、移動ロボット1がより長時間滞在するべき領域を仮想図形が示す場合には、移動制御手段16は、仮想図形の示す領域における移動ロボット1の滞在時間が、他の領域に対して長くなるように移動手段15を制御してもよい。このような制御は、例えば、掃除ロボットである移動ロボット1に特定の領域を念入りに掃除させたい場合や、監視ロボットである移動ロボット1に特定の領域を念入りに監視させたい場合などに有用である。また、仮想図形の用途を示す情報が、制御図形2の表示するコードに含まれており、移動制御手段16は、その用途に応じた制御を行ってもよい。その用途は、例えば、境界や、目的地、ルート、滞在等であってもよい。なお、境界を越えないようにする移動制御や、目的地に到達するようにする移動制御、指定されたルートを通過するようにする移動制御等はすでに公知であり、その説明を省略する。また、現在位置を取得する方法は、例えば、オドメトリによる方法であってもよく、GPS等によって取得する方法であってもよく、加速度センサやジャイロ等を用いて取得する方法であってもよく、その他の方法であってもよい。   The movement control unit 16 controls the movement by the movement unit 15 according to the positional relationship acquired by the positional relationship acquisition unit 14. That is, the movement control means 16 controls the position of the mobile robot 1 according to the positional relationship of the virtual figure with respect to the mobile robot 1. For example, when the virtual figure indicates a boundary relating to movement, the movement control means 16 may control the movement by the movement means 15 so that the mobile robot 1 moves without exceeding the boundary indicated by the virtual figure. Specifically, the movement control means 16 may acquire the current position of the mobile robot 1 and perform control so that the locus of the current position does not intersect with the boundary indicated by the virtual figure. For example, when the mobile robot 1 is located in front of the boundary, the movement control unit 16 may control the movement unit 15 to change the direction, or may control the movement unit 15 to stop. . Further, for example, when the virtual figure indicates the position to which the mobile robot 1 should pass, the movement control means 16 causes the mobile robot 1 to reach the position indicated by the virtual figure or the route indicated by the virtual figure. The moving means 15 may be controlled so that the mobile robot 1 moves. Specifically, the movement control means 16 may set the target position of the mobile robot 1 to the position indicated by the virtual figure, and may control the movement means 15 so that the mobile robot 1 reaches the position of the virtual figure. Also, for example, when the virtual figure indicates an area where the mobile robot 1 should stay for a longer time, the movement control means 16 determines that the stay time of the mobile robot 1 in the area indicated by the virtual figure is relative to other areas. You may control the moving means 15 so that it may become long. Such control is useful, for example, when the mobile robot 1 that is a cleaning robot wants to carefully clean a specific area, or when the mobile robot 1 that is a monitoring robot wants to carefully monitor a specific area. is there. Moreover, the information which shows the use of a virtual figure is contained in the code | cord | chord which the control figure 2 displays, and the movement control means 16 may perform control according to the use. The use may be, for example, a boundary, a destination, a route, a stay, or the like. It should be noted that the movement control that does not cross the boundary, the movement control that reaches the destination, the movement control that passes the designated route, and the like are already known, and the description thereof is omitted. In addition, the method for acquiring the current position may be, for example, a method using odometry, a method using GPS or the like, or a method using an acceleration sensor or a gyro, Other methods may be used.

ここで、位置関係取得手段14による移動ロボット1と仮想図形との位置関係を取得する方法について説明する。ここでは、制御図形2は、仮想図形情報とサイズ情報と位置姿勢情報とを含む正方形の2次元コードであるとする。また、サイズ情報は、その2次元コードの実空間における一辺の長さ「L」であるとする。また、位置姿勢情報は、制御図形2と所定の位置関係にある3次元直交座標系であるXYZ座標系における制御図形2の中心位置を示すベクトルと、ワールド座標系に対する制御図形2のz−x−zのオイラー角(θ,φ,ψ)とであるとする。なお、そのpの左上の添字がWである場合には、ワールド座標系のベクトルであることを示し、Lである場合には、後述する移動ロボット1のローカル座標系のベクトルであることを示すものとする。 Here, a method for acquiring the positional relationship between the mobile robot 1 and the virtual figure by the positional relationship acquisition unit 14 will be described. Here, it is assumed that the control figure 2 is a square two-dimensional code including virtual figure information, size information, and position and orientation information. The size information is assumed to be the length “L” of one side in the real space of the two-dimensional code. The position and orientation information, the control figure 2 and vector W p c indicating the center position of the control figure 2 in the XYZ coordinate system is a predetermined position three-dimensional orthogonal coordinate system in a relationship of the control graphic 2 with respect to the world coordinate system It is assumed that the Euler angles (θ, φ, ψ) of zxz. When the upper left subscript of p is W, it indicates a vector in the world coordinate system, and when it is L, it indicates a vector in the local coordinate system of the mobile robot 1 described later. Shall.

図3で示されるように、ローカル座標系xyzは、撮影手段11の視点を原点とし、受光平面と平行な方向にxy座標をとり、そのxy直交座標系に直交する視線方向にz軸をとった3次元直交座標系である。その撮影画像における制御図形2の4頂点を頂点V1〜V4とし、ローカル座標系における頂点Viの位置ベクトルを、si=(psix,psiy,f)とする。ただし、i=1,2,3,4であり、Tは転置を示す。また、psix,psiyは、頂点Viのxy平面上の座標値であり、撮影画像において、基準点から各頂点V1〜V4までのx軸方向及びy軸方向の距離を測定することによって取得できる。基準点は、ローカル座標系でx=y=0となる撮影画像上の点である。また、fは、焦点距離であり、撮影手段11の光学系によって決まる値である。なお、ローカル座標系と、ワールド座標系と、実空間とのそれぞれにおいて、長さの単位は同じであるとしている。 As shown in FIG. 3, the local coordinate system xyz has the viewpoint of the photographing means 11 as the origin, takes the xy coordinates in the direction parallel to the light receiving plane, and takes the z axis in the viewing direction perpendicular to the xy orthogonal coordinate system. 3D orthogonal coordinate system. The four vertices of the control graphic 2 in the photographed image are vertices V1 to V4, and the position vector of the vertex Vi in the local coordinate system is L p si = (p six , p siy , f) T. However, i = 1, 2, 3, and 4, and T shows transposition. Further, p six, p SiY is the coordinates on the xy plane of the vertex Vi, obtained by the captured image, to measure the distance in the x-axis and y-axis directions to each vertex V1~V4 from the reference point it can. The reference point is a point on the captured image where x = y = 0 in the local coordinate system. Further, f is a focal length, which is a value determined by the optical system of the photographing unit 11. Note that the length unit is the same in each of the local coordinate system, the world coordinate system, and the real space.

実空間における制御図形2の4頂点の位置は、ローカル座標系において、スカラーkを用いて次のように表すことができる。
=k si (1)
また、制御図形2の2次元コードから取得されたサイズ情報「L」を用いると、次の3個の式が得られる。
|=L (2)
|=L (3)
|=21/2L (4)
したがって、(1)〜(4)式を用いることによって、k,k,kを求めることができ、その結果、(1)式から、ローカル座標系における制御図形2の各頂点の位置ベクトルを計算することができる。
The positions of the four vertices of the control figure 2 in the real space can be expressed as follows using the scalar k i in the local coordinate system.
L p i = k i L p si (1)
When the size information “L” acquired from the two-dimensional code of the control graphic 2 is used, the following three expressions are obtained.
| L p 1 - L p 2 | = L (2)
| L p 3 - L p 1 | = L (3)
| L p 2 - L p 3 | = 2 1/2 L (4)
Therefore, k 1 , k 2 , and k 3 can be obtained by using the equations (1) to (4). As a result, the position of each vertex of the control figure 2 in the local coordinate system can be obtained from the equation (1). it can be calculated vector L p i.

また、RQR(θ,φ,ψ),Rcam(α,β,γ)を、それぞれz−x−zのオイラー角(θ,φ,ψ),(α,β,γ)の回転行列であるとする。(θ,φ,ψ)は、前述のように、ワールド座標系における、QRコード(登録商標)である制御図形2の姿勢を示すz−x−zのオイラー角であり、(α,β,γ)は、ワールド座標系における、撮影手段11の受光平面の姿勢を示すz−x−zのオイラー角である。 Also, R QR (θ, φ, ψ) and R cam (α, β, γ) are respectively converted into rotation matrices of zxz Euler angles (θ, φ, ψ), (α, β, γ). Suppose that As described above, (θ, φ, ψ) is the Euler angle of zxz indicating the attitude of the control figure 2 that is a QR code (registered trademark) in the world coordinate system, and (α, β, [gamma]) is a Euler angle of zxz indicating the attitude of the light receiving plane of the photographing means 11 in the world coordinate system.

ワールド座標系の原点に、オイラー角(θ,φ,ψ)=(0,0,0)となるように制御図形2の中心位置を配置したときの制御図形2の3頂点のベクトルをそれぞれ,及びとすると、次式のようになる。
=(−L/2,+L/2,0) (5)
=(+L/2,+L/2,0) (6)
=(−L/2,−L/2,0) (7)
The vectors of the three vertices of the control graphic 2 when the center position of the control graphic 2 is arranged at the origin of the world coordinate system so that the Euler angles (θ, φ, ψ) = (0, 0, 0) are 0 respectively. Assuming p 1 , 0 p 2 , and 0 p 3 , the following equation is obtained.
0 p 1 = (− L / 2, + L / 2, 0) T (5)
0 p 2 = (+ L / 2, + L / 2, 0) T (6)
0 p 3 = (− L / 2, −L / 2, 0) T (7)

また、ワールド座標系における制御図形2の各頂点のベクトルは、次のようにできる。
=RQR (8)
ここで、は、前述のように、ワールド座標系における制御図形2の中心位置を示す位置ベクトルである。,RQRは、制御図形2のコードに含まれる位置姿勢情報から得られる情報であり、は、制御図形2のコードに含まれるサイズ情報と、上記(5)〜(7)式とを用いて容易に得られる情報である。
Furthermore, the vector W p i of each vertex of the control figure 2 in the world coordinate system can be as follows.
W p i = R QR 0 p i + W p c (8)
Here, W pc is a position vector indicating the center position of the control graphic 2 in the world coordinate system, as described above. W pc and R QR are information obtained from the position and orientation information included in the code of the control graphic 2, and 0 p i is the size information included in the code of the control graphic 2 and the above (5) to (7 ) Information that can be easily obtained using the above formula.

また、(8)式の両辺にRcamを掛けて整理すると、i=1,2,3について次式のようになる。
camQR =Rcam
(9)
ここで、=()/2であるため、それを用いて(9)式を解くことによって、オイラー角(α,β,γ)を取得することができる。また、ワールド座標系におけるローカル座標系の原点から制御図形2の中心位置までのベクトルをとすると、
=Rcam −1 (10)
となる。したがって、ワールド座標系の原点からローカル座標系の原点までのベクトルcamを、次式のように算出できる。
cam
−Rcam −1 (11)
なお、上記説明は、camやRcamを算出する一例であって、他の方法によってそれらを算出することもできる。例えば、ローカル座標系における制御図形2の各頂点の位置ベクトルを用いて、ローカル座標系における制御図形2の姿勢を示すオイラー角を算出することも可能であり、それを用いることによって、Rcam等を算出することも可能である。
Further, when both sides of the equation (8) are multiplied by R cam and arranged, the following equation is obtained for i = 1, 2, 3.
R cam R QR 0 p i = R cam (W p i - W p c)
= L p i - L p c (9)
Here, since L pc = ( L p 2 + L p 3 ) / 2, the Euler angles (α, β, γ) can be obtained by solving the equation (9) using this. . Further, if a vector from the origin of the local coordinate system to the center position of the control figure 2 in the world coordinate system is W p d ,
W p d = R cam -1 · L p c (10)
It becomes. Therefore, the vector W p cam from the origin of the world coordinate system to the origin of the local coordinate system can be calculated as follows:
W p cam = W p c - W p d
= W p c -R cam -1 · L p c (11)
The above description is an example of calculating W p cam and R cam , and they can be calculated by other methods. For example, using the position vector L p i of each vertex of the control figure 2 in the local coordinate system, it is also possible to calculate the Euler angles indicating the posture of a control graphic 2 in the local coordinate system, by using it, It is also possible to calculate R cam and the like.

このようにして、ワールド座標系とローカル座標系との座標変換を示す座標変換情報であるベクトルcam及び回転行列Rcamを得ることができたため、それらを用いて、ワールド座標系の仮想図形を示す仮想図形情報を、ローカル座標系における仮想図形の情報に変換できるようになる。したがって、位置関係取得手段14は、ローカル座標系における仮想図形の位置関係、すなわち、移動ロボット1と仮想図形との位置関係を取得することができる。 Thus, since the vector W p cam and the rotation matrix R cam which are coordinate conversion information indicating the coordinate conversion between the world coordinate system and the local coordinate system can be obtained, the virtual figure of the world coordinate system can be obtained using them. Can be converted into virtual figure information in the local coordinate system. Therefore, the positional relationship acquisition means 14 can acquire the positional relationship of the virtual graphic in the local coordinate system, that is, the positional relationship between the mobile robot 1 and the virtual graphic.

なお、2以上の制御図形2を用いた移動ロボット1の制御も可能である。その場合には、制御図形2ごとに、仮想図形を設定することができる。例えば、第1の制御図形2のコードに含まれる仮想図形情報で示される仮想図形について、移動ロボット1のローカル座標系における位置関係を取得し、第2の制御図形2のコードに含まれる仮想図形情報で示される仮想図形についても、移動ロボット1のローカル座標系における位置関係を取得することによって、移動ロボット1は、その2個の仮想図形に応じて制御されることになる。また、1個の制御図形2のコードに、2以上の仮想図形を示す仮想図形情報が含まれていてもよい。また、2以上の制御図形2によって、同じ仮想図形を設定するようにしてもよい。制御図形2が撮影されなければ、その制御図形2のコードに含まれる仮想図形情報に応じた制御を行うことができない。したがって、制御図形2が撮影される可能性を上げるために、2以上の制御図形2によって同じ仮想図形を設定することは好ましいことである。なお、その場合には、それらの制御図形2は、異なる位置に配置されることが好適である。   Control of the mobile robot 1 using two or more control figures 2 is also possible. In that case, a virtual figure can be set for each control figure 2. For example, for the virtual graphic indicated by the virtual graphic information included in the code of the first control graphic 2, the positional relationship in the local coordinate system of the mobile robot 1 is acquired, and the virtual graphic included in the code of the second control graphic 2 As for the virtual figure indicated by the information, the mobile robot 1 is controlled in accordance with the two virtual figures by acquiring the positional relationship of the mobile robot 1 in the local coordinate system. Further, the code of one control figure 2 may include virtual figure information indicating two or more virtual figures. The same virtual figure may be set by two or more control figures 2. If the control graphic 2 is not photographed, control according to the virtual graphic information included in the code of the control graphic 2 cannot be performed. Therefore, it is preferable to set the same virtual figure by two or more control figures 2 in order to increase the possibility that the control figure 2 is photographed. In that case, it is preferable that those control figures 2 are arranged at different positions.

また、移動ロボット1の座標系として、視点を原点とし、受光平面がxy平面に平行となる座標系を用いる場合について説明したが、そうでなくてもよい。別途、移動ロボット1の座標系が存在してもよい。その場合には、上述したxyz座標系と、移動ロボット1の座標系との座標変換を行うことによって、上述したxyz座標系における仮想図形の位置関係を、移動ロボット1の座標系における仮想図形の位置関係に変換することができる。また、移動ロボット1において、撮影方向や撮影位置が変化しうる場合(例えば、制御図形2を探すため、移動ロボット1において、撮影手段11をパンニングしたり、チルトしたりする場合)には、移動ロボット1の基準位置、基準面に対する視点位置、受光平面の姿勢を考慮した上で、xyz座標系と、移動ロボット1の座標系との変換を行ってもよい。   In addition, although the case where the coordinate system of the mobile robot 1 is a coordinate system in which the viewpoint is the origin and the light receiving plane is parallel to the xy plane has been described, this need not be the case. Separately, a coordinate system of the mobile robot 1 may exist. In that case, by performing coordinate conversion between the above-described xyz coordinate system and the coordinate system of the mobile robot 1, the positional relationship of the virtual figure in the above-described xyz coordinate system can be changed to the It can be converted into a positional relationship. Further, when the shooting direction and the shooting position can be changed in the mobile robot 1 (for example, when the shooting means 11 is panned or tilted in the mobile robot 1 in order to search for the control figure 2), the mobile robot 1 moves. The xyz coordinate system and the coordinate system of the mobile robot 1 may be converted in consideration of the reference position of the robot 1, the viewpoint position with respect to the reference plane, and the posture of the light receiving plane.

また、上記説明では、制御図形2の位置や姿勢が、2次元コードに含まれる位置姿勢情報によって示される場合について説明したが、そうでなくてもよい。その位置姿勢情報は、あらかじめ決められたものであってもよい。あらかじめ決められた位置姿勢情報としては、例えば、=(0,0,0)であり、RQRが3次元の単位行列である場合、すなわち、制御図形2の中心位置がワールド座標系の原点であり、制御図形2がXY平面上にある場合としてもよい。なお、RQRが3次元の単位行列である場合には、通常、オイラー角は、(θ,φ,ψ)=(0,0,0)となる。また、それ以外のあらかじめ決められた位置姿勢情報を用いてもよい。その場合には、例えば、そのあらかじめ決められた位置姿勢情報が制御図形2のコードに含まれていてもよく、または、移動ロボット1の図示しない記録媒体において、そのあらかじめ決められた位置姿勢情報が記憶されており、位置関係取得手段14は、その位置姿勢情報を読み出して用いてもよい。ここで、上記説明のように、制御図形2の位置や姿勢が、2次元コードに含まれる位置姿勢情報によって示される場合のメリットについて簡単に説明する。その場合には、例えば、ワールド座標系の原点を、移動ロボット1の移動空間の基準点(例えば、ある部屋の基準点等)とすることができる。そして、あらかじめ移動ロボット1がワールド座標系における移動空間の地図情報を保持している場合には、移動ロボット1は、撮影された制御図形2を用いてcamやRcamを算出することによって、地図上における位置を知ることができる。したがって、その場合には、移動ロボット1は、制御図形2を用いることによって、仮想図形の位置のみでなく、自らの位置をも知ることができるようになる。 In the above description, the case where the position and orientation of the control figure 2 are indicated by the position and orientation information included in the two-dimensional code has been described. The position and orientation information may be determined in advance. The advance position and orientation information determined, for example, W p c = (0,0,0) is a T, when R QR is three-dimensional matrix, i.e., the center position of the control figure 2 is the world coordinate It may be the origin of the system and the control figure 2 is on the XY plane. When RQR is a three-dimensional unit matrix, the Euler angles are usually (θ, φ, ψ) = (0, 0, 0). Further, other predetermined position / orientation information may be used. In this case, for example, the predetermined position / orientation information may be included in the code of the control graphic 2, or the predetermined position / orientation information is stored in a recording medium (not shown) of the mobile robot 1. The positional relationship acquisition unit 14 may store the position / orientation information by reading it out. Here, as described above, the advantages when the position and orientation of the control figure 2 are indicated by the position and orientation information included in the two-dimensional code will be briefly described. In that case, for example, the origin of the world coordinate system can be used as a reference point (for example, a reference point of a room) of the moving space of the mobile robot 1. When the mobile robot 1 holds map information of the moving space in the world coordinate system in advance, the mobile robot 1 calculates W p cam and R cam using the captured control figure 2. , You can know the position on the map. Therefore, in that case, the mobile robot 1 can know not only the position of the virtual figure but also its own position by using the control figure 2.

次に、移動ロボット1の動作について図4のフローチャートを用いて説明する。このフローチャートでは、制御図形2のコードに仮想図形情報、サイズ情報、及び位置姿勢情報が含まれる場合について説明する。
(ステップS101)撮影手段11は、撮影した画像に制御図形2が含まれているかどうか判断する。そして、制御図形2が含まれている場合には、ステップS102に進み、そうでない場合には、撮影した画像に制御図形2が含まれるまで、ステップS101の処理を繰り返す。なお、撮影手段11は、前述のように、パターンマッチング等によって、制御図形2を撮影したかどうかを判断してもよい。
Next, the operation of the mobile robot 1 will be described using the flowchart of FIG. In this flowchart, a case where virtual graphic information, size information, and position and orientation information are included in the code of the control graphic 2 will be described.
(Step S101) The photographing means 11 determines whether or not the control graphic 2 is included in the photographed image. If the control graphic 2 is included, the process proceeds to step S102; otherwise, the process of step S101 is repeated until the control graphic 2 is included in the captured image. Note that the photographing unit 11 may determine whether or not the control figure 2 has been photographed by pattern matching or the like as described above.

(ステップS102)撮影手段11は、撮影した画像に含まれる制御図形2が、すでに仮想図形情報等を取得したものであるかどうか判断する。そして、その制御図形2が、すでに仮想図形情報等を取得したものである場合には、撮影した画像を蓄積せずにステップS101に戻り、そうでない場合には、撮影した画像を記憶手段12に蓄積してステップS103に進む。なお、撮影手段11は、過去に撮影した制御図形2の画像を図示しない記録媒体で記憶しておき、撮影画像に含まれる制御図形2が、その記録媒体で記憶されている制御図形2のいずれかと一致する場合には、すでに仮想図形情報等を取得した制御図形2であると判断してもよい。その場合には、撮影手段11は、ステップS103に進む際に、新たに撮影した制御図形2の画像を、その図示しない記録媒体に蓄積するものとする。   (Step S102) The photographing means 11 determines whether or not the control graphic 2 included in the photographed image has already acquired virtual graphic information and the like. If the control graphic 2 has already acquired virtual graphic information or the like, the process returns to step S101 without accumulating the captured image. If not, the captured image is stored in the storage unit 12. Accumulate and proceed to step S103. The photographing means 11 stores an image of the control graphic 2 photographed in the past on a recording medium (not shown), and the control graphic 2 included in the photographed image is one of the control graphics 2 stored on the recording medium. If they match, it may be determined that the control graphic 2 has already acquired virtual graphic information or the like. In this case, the photographing unit 11 accumulates a newly photographed image of the control figure 2 in a recording medium (not shown) when proceeding to step S103.

(ステップS103)取得手段13は、記憶手段12で記憶されている撮影画像に含まれる制御図形2のコードから仮想図形情報等を取得する。その取得の際に、取得手段13は、デコードや文字認識等の処理を行ってもよい。また、取得された仮想図形情報等は、図示しない記録媒体で記憶されてもよい。   (Step S103) The acquisition unit 13 acquires virtual graphic information and the like from the code of the control graphic 2 included in the captured image stored in the storage unit 12. At the time of acquisition, the acquisition unit 13 may perform processing such as decoding and character recognition. Further, the acquired virtual graphic information and the like may be stored in a recording medium (not shown).

(ステップS104)位置関係取得手段14は、移動ロボット1の座標系と、制御図形2に対応する座標系との座標変換に関する座標変換情報を取得する。その取得された座標変換情報は、図示しない記録媒体で記憶されてもよい。具体的には、位置関係取得手段14は、サイズ情報と、撮影画像における制御図形2の頂点の位置と、(1)〜(4)式とを用いて、を算出し、またその結果を用いてを算出する。また、位置関係取得手段14は、位置姿勢情報に含まれる制御図形2の姿勢を示す情報から、RQRを算出し、そのRQRと、(5)〜(7)、(9)式と、サイズ情報とを用いて、撮影手段11の受光平面のオイラー角(α,β,γ)を算出することによって、回転行列Rcamを取得する。また、位置関係取得手段14は、(11)式と、位置姿勢情報に含まれる制御図形2の中心位置と、算出した回転行列Rcamとを用いて、camを算出する。このようにして、位置関係取得手段14は、座標変換情報であるベクトルcam及び回転行列Rcamを取得することができる。 (Step S104) The positional relationship acquisition means 14 acquires coordinate conversion information related to coordinate conversion between the coordinate system of the mobile robot 1 and the coordinate system corresponding to the control figure 2. The acquired coordinate conversion information may be stored in a recording medium (not shown). Specifically, the positional relationship acquisition unit 14 uses the size information, the position of the vertex of the control figure 2 in the captured image, and the expressions (1) to (4) to calculate L p 1 , L p 2 , L p 3 is calculated, and L pc is calculated using the result. Further, the positional relationship acquisition unit 14 calculates R QR from information indicating the posture of the control figure 2 included in the position and posture information, and the R QR and the equations (5) to (7) and (9), The rotation matrix R cam is obtained by calculating the Euler angles (α, β, γ) of the light receiving plane of the imaging unit 11 using the size information. The positional relationship acquisition means 14, (11) and, using the center position W p c of the control graphic 2 included in the position and orientation information, the calculated rotation matrix R cam, calculates the W p cam. In this manner, the positional relationship acquisition unit 14 can acquire the vector W p cam and the rotation matrix R cam that are coordinate conversion information.

(ステップS105)位置関係取得手段14は、取得手段13によって取得された仮想図形情報の示す仮想図形に対して座標変換情報に応じた座標変換を行うことにより、移動ロボット1の座標系における仮想図形の位置関係を示す情報を取得する。具体的には、位置関係取得手段14は、ベクトルcam及び回転行列Rcamを用いて仮想図形情報の示すワールド座標系における仮想図形の位置関係を、ローカル座標系における仮想図形の位置関係に変換する。 (Step S <b> 105) The positional relationship acquisition unit 14 performs a coordinate conversion according to the coordinate conversion information on the virtual figure indicated by the virtual figure information acquired by the acquisition unit 13, thereby generating a virtual figure in the coordinate system of the mobile robot 1. Information indicating the positional relationship is acquired. Specifically, the positional relationship acquisition means 14 changes the positional relationship of the virtual graphic in the world coordinate system indicated by the virtual graphic information to the positional relationship of the virtual graphic in the local coordinate system using the vector W p cam and the rotation matrix R cam. Convert.

(ステップS106)位置関係取得手段14は、移動制御手段16に対して、移動ロボット1の座標系における仮想図形の位置関係を示す情報である制御情報を設定する。そして、ステップS101に戻る。
なお、図4のフローチャートには含まれないが、移動制御手段16は、その設定された制御情報に応じて、移動手段15による移動を制御するものとする。また、移動手段15は、移動制御手段16の制御に応じて移動ロボット1を移動させる。その結果、例えば、移動ロボット1は、境界を示す仮想図形を超えないように移動したり、ルートを示す仮想図形をたどるように移動したりすることになる。また、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
(Step S <b> 106) The positional relationship acquisition unit 14 sets control information, which is information indicating the positional relationship of virtual figures in the coordinate system of the mobile robot 1, to the movement control unit 16. Then, the process returns to step S101.
Although not included in the flowchart of FIG. 4, the movement control unit 16 controls movement by the movement unit 15 in accordance with the set control information. Further, the moving unit 15 moves the mobile robot 1 in accordance with the control of the movement control unit 16. As a result, for example, the mobile robot 1 moves so as not to exceed the virtual graphic indicating the boundary, or moves so as to follow the virtual graphic indicating the route. In the flowchart of FIG. 4, the process is terminated by power-off or a process termination interrupt.

次に、実験例について説明する。この実験では、三脚の上部に2次元コードとしてQRコード(登録商標)を用い、QRコード(登録商標)による制御図形2の印刷された紙のシート3を固定した。その2次元コードに次の情報が含まれているものとする。なお、この具体例では、制御図形2の延長面内に仮想図形が存在し、次のt,b,l,rは、それぞれ制御図形2の中心位置から仮想図形の上辺、下辺、左辺、右辺までの長さであるとしている。なお、長さの単位は、mmである。
仮想図形情報:(t,b,l,r)=(500,1000,2000,800)
位置姿勢情報:
制御図形2の中心位置(X,Y,Z)=(12000,2500,1200)
制御図形2の姿勢(θ,φ,ψ)=(90°,0,0)
サイズ情報:L=180
Next, experimental examples will be described. In this experiment, QR code (registered trademark) was used as a two-dimensional code on the top of the tripod, and a paper sheet 3 on which a control figure 2 was printed by QR code (registered trademark) was fixed. It is assumed that the following information is included in the two-dimensional code. In this specific example, a virtual figure exists in the extended surface of the control figure 2, and the next t, b, l, and r are the upper side, the lower side, the left side, and the right side of the virtual figure from the center position of the control figure 2, respectively. It is said that the length is up to. The unit of length is mm.
Virtual figure information: (t, b, l, r) = (500, 1000, 2000, 800)
Position and orientation information:
Center position (X, Y, Z) of control figure 2 = (12000, 2500, 1200)
Attitude of control figure 2 (θ, φ, ψ) = (90 °, 0, 0)
Size information: L = 180

また、撮影手段11の撮影機構としては、6Mピクセル、1/2.5型のCCDを有するデジタルカメラ(SONY DSC−T9)を用いた。なお、そのデジタルカメラの焦点距離は6.33mmに設定した。また、撮影手段11を、2次元コードから約3mの位置に配置した。そして、デジタルカメラで撮影した撮影画像を用いて、仮想図形情報、位置姿勢情報、サイズ情報を取得し(ステップS101〜S103)、上述のように座標変換情報を取得することによって、移動ロボット1のローカル座標系における仮想図形の位置を算出した(ステップS104,S105)。その結果、その仮想図形は、2次元コードの中心位置から上述のt,b,l,rに応じた距離の4辺を有する仮想面となっていた。したがって、その仮想面を用いて移動ロボット1を制御することにより、例えば、移動ロボット1の移動範囲を制限することなどができる。   As the photographing mechanism of the photographing means 11, a digital camera (SONY DSC-T9) having a 6M pixel, 1 / 2.5-type CCD was used. The focal length of the digital camera was set to 6.33 mm. Further, the photographing means 11 is arranged at a position of about 3 m from the two-dimensional code. Then, using the captured image captured by the digital camera, virtual figure information, position and orientation information, and size information are acquired (steps S101 to S103), and the coordinate conversion information is acquired as described above, whereby the mobile robot 1 The position of the virtual figure in the local coordinate system was calculated (steps S104 and S105). As a result, the virtual figure was a virtual surface having four sides at a distance corresponding to the above-described t, b, l, and r from the center position of the two-dimensional code. Therefore, by controlling the mobile robot 1 using the virtual plane, for example, the movement range of the mobile robot 1 can be limited.

なお、この具体例では、シート3が紙である場合について説明したが、シート3は、2次元図形である制御図形2を表示することができるものであれば、どのようなものであってもよい。シート3は、例えば、フィルム、箔、膜、織物、プレート、板状のものなどであってもよく、制御図形2を表示可能なその他のものであってもよい。   In this specific example, the case where the sheet 3 is paper has been described. However, the sheet 3 may be anything as long as it can display the control figure 2 which is a two-dimensional figure. Good. The sheet 3 may be, for example, a film, a foil, a film, a woven fabric, a plate, a plate, or the like, or may be another capable of displaying the control graphic 2.

また、制御図形2の表示されたシート3をユーザが作成する場合について説明したが、そうでなくてもよい。例えば、複数のシート3があらかじめ用意されており、ユーザは、その中から目的にあったシート3を選択し、移動ロボット1の移動空間に配置してもよい。具体的には、次のようなシート3のセットが用意されていてもよい。
仮想図形(仮想壁)に関する情報 シートの枚数
後方進入禁止 5枚
前方1m以後進入禁止 2枚
半径2m以内進入禁止 2枚
後方30cm以後、左右方向各1mの範囲進入禁止 2枚
後方30cm以後、左方向1mの範囲侵入禁止 2枚
後方30cm以後、左方向2mの範囲侵入禁止 2枚
後方30cm以後、右方向1mの範囲侵入禁止 2枚
後方30cm以後、右方向2mの範囲侵入禁止 2枚
シートに向かって右方向1mの範囲進入禁止 2枚
シートに向かって左方向1mの範囲進入禁止 2枚
: :
: :
それらのシート3は、制御図形2に対して、前、後、上、下、右、左、斜め右上、斜め右下、斜め左上、斜め左下等の所定の範囲(例えば、A1メートル〜A2メートル等)にある仮想図形を用いて、移動ロボット1の進入禁止や、近接促進等の移動制御を行うものである。
Moreover, although the case where a user produces the sheet | seat 3 on which the control figure 2 was displayed was demonstrated, it may not be so. For example, a plurality of sheets 3 may be prepared in advance, and the user may select a sheet 3 that meets the purpose from among them and place it in the movement space of the mobile robot 1. Specifically, the following set of sheets 3 may be prepared.
Information about virtual figures (virtual walls) Number of sheets No entry to the rear 5 No entry after 1m forward 2 No entry within 2m radius 2 No entry 30cm behind, 1m each in the left and right range 2 pieces 30cm behind, 30m left 1m range entry prohibition 2 sheets 30cm behind, 2m area entry prohibition left 2 sheets 30cm behind, right entry 1m area entry prohibition 2 sheets 30cm behind, 2m area entry prohibition 2m right entry prohibition 2 sheets No entry into the range of 1m to the right direction 2 sheets No entry into the range of 1m to the left direction toward the sheet 2 sheets::
::
Those sheets 3 are in a predetermined range (for example, A1 meter to A2 meter) such as front, rear, top, bottom, right, left, diagonal upper right, diagonal lower right, diagonal upper left, diagonal lower left, etc. Etc.) is used to perform movement control such as entry prohibition and proximity promotion of the mobile robot 1.

なお、「後方進入禁止」等の仮想図形の位置関係を示す文字列や図などの情報が、制御図形2の表示されたシート3と対応付けられて表示されていてもよい。例えば、その仮想図形の位置関係を示す情報は、シート3の裏面に記載されていてもよく、シール状のシート3の枠外等に記載されていてもよい。また、例えば、「後方進入禁止」のシート3に表示されている制御図形2は、その制御図形2の延長面である仮想壁を示す仮想図形情報を含むコードを表示するものであってもよい。また、例えば、「前方1m以後進入禁止」のシート3に表示されている制御図形2は、その制御図形2の前方1mの位置に、制御図形2と平行な方向に延びる仮想壁を示す仮想図形情報を含むコードを表示するものであってもよい。また、例えば、「後方30cm以後、右方向0.2〜1mの範囲侵入禁止」のシート3に表示されている制御図形2は、その制御図形2の右側20cmから1mまでの範囲であり、制御図形2の面から30cmだけ後方(制御図形2の裏面側)の位置の仮想壁を示す仮想図形情報を含むコードを表示するものであってもよい。そのシート3を壁に貼付することによって、例えば、その仮想壁の裏側に扉が存在するような場合に、その扉まで移動ロボット1が移動しないように制御することができる。また、ユーザは、例えば、「半径2m以内進入禁止」に対応するシート3を壁等に貼付することによって、移動ロボット1がその制御図形2の中心位置から半径2メートル以内に近づかないように制御することができる。
更に、上記シートは裏側に粘着剤層が形成され、多数の上記制御図形が並んで納められて制御図形部分が個々に型抜きされており、ユーザーが適宜必要な制御図形を剥がして用いるようになっていてもよい。尚特定の制御図形が無くなった時に備え、制御図形の印刷原稿を原紙として加えておけば、足らなくなった制御図形をユーザーが適宜印刷して用いることができる。
It should be noted that information such as a character string or a figure indicating the positional relationship of the virtual graphic such as “prohibit backward entry” may be displayed in association with the sheet 3 on which the control graphic 2 is displayed. For example, information indicating the positional relationship of the virtual figure may be described on the back surface of the sheet 3 or may be described outside the frame of the seal-like sheet 3 or the like. Further, for example, the control graphic 2 displayed on the sheet 3 of “prohibition of backward entry” may display a code including virtual graphic information indicating a virtual wall that is an extension surface of the control graphic 2. . Further, for example, the control graphic 2 displayed on the sheet 3 of “prohibition of entry after 1 m ahead” is a virtual graphic indicating a virtual wall extending in a direction parallel to the control graphic 2 at a position 1 m ahead of the control graphic 2. A code including information may be displayed. Further, for example, the control graphic 2 displayed on the sheet 3 “prohibit intrusion in the range of 0.2 to 1 m in the right direction after 30 cm behind” is a range from 20 cm to 1 m on the right side of the control graphic 2, You may display the code | symbol containing the virtual figure information which shows the virtual wall of the position 30 cm behind (the back side of the control figure 2) from the surface of the figure 2. FIG. By sticking the sheet 3 on the wall, for example, when there is a door behind the virtual wall, the mobile robot 1 can be controlled not to move to the door. In addition, the user controls the mobile robot 1 so as not to approach within 2 meters from the center position of the control figure 2 by sticking a sheet 3 corresponding to “prohibition of entry within a radius of 2 m” to a wall or the like, for example. can do.
Further, the sheet has an adhesive layer formed on the back side, a large number of the control figures are stored side by side, and the control figure parts are individually cut out, so that the user can peel off the necessary control figures as appropriate. It may be. In addition, if a specific control graphic is lost, a control graphic print original can be added as a base paper so that the user can print out the control graphic that is insufficient.

以上のように、本実施の形態による移動ロボット1によれば、移動ロボット1の移動を制御するための制御図形2のコードが仮想図形情報を含み、その仮想図形情報を用いて移動ロボット1が制御されることによって、移動ロボット1の制御の自由度が高まることになる。例えば、従来例では、バーコード等を配置した位置が仮想壁等を決定することになっていたが、本実施の形態の場合には、その仮想壁等を制御図形2に対して任意の位置に設定することができることになる。また、上述のt,b,l,r等の仮想図形情報を用いることにより、その仮想壁等の範囲を決定することもでき、より細かい移動制御を実現できるようになる。また、コードにサイズ情報も含まれている場合には、異なったサイズの制御図形2を用いたとしても、移動ロボット1の制御を適切に行うことができるようになる。また、制御図形2のコードにサイズ情報や、位置姿勢情報も含まれている場合には、制御図形2のコードに含まれる情報のみで自己完結することになり、移動ロボット1に対してサイズ情報等を与える必要がなくなる。   As described above, according to the mobile robot 1 according to the present embodiment, the code of the control graphic 2 for controlling the movement of the mobile robot 1 includes the virtual graphic information, and the mobile robot 1 uses the virtual graphic information. By being controlled, the degree of freedom of control of the mobile robot 1 is increased. For example, in the conventional example, the position where the barcode or the like is arranged is to determine the virtual wall or the like. However, in the case of the present embodiment, the virtual wall or the like is arbitrarily positioned with respect to the control figure 2. It can be set to. Further, by using the virtual graphic information such as t, b, l, and r described above, the range of the virtual wall and the like can be determined, and finer movement control can be realized. Further, when the size information is included in the code, the mobile robot 1 can be appropriately controlled even if the control figure 2 having a different size is used. In addition, when the size information and the position / orientation information are also included in the code of the control figure 2, the information is contained in only the information contained in the code of the control figure 2, and the size information is transmitted to the mobile robot 1. It is not necessary to give etc.

また、上記説明では、制御図形2に対応する座標系をワールド座標系とし、移動ロボット1に対応する座標系をローカル座標系としたが、それらの名称は、単に両座標系を区別するために用いただけであり、ワールド座標系とローカル座標系とは逆であってもよい。   In the above description, the coordinate system corresponding to the control figure 2 is the world coordinate system, and the coordinate system corresponding to the mobile robot 1 is the local coordinate system. However, their names are simply used to distinguish both coordinate systems. The world coordinate system and the local coordinate system may be reversed.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、あるいは、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。   In the above embodiment, each process or each function may be realized by centralized processing by a single device or a single system, or may be distributedly processed by a plurality of devices or a plurality of systems. It may be realized by doing.

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、あるいは、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。   In the above embodiment, the information exchange between the components is performed by one component when, for example, the two components that exchange the information are physically different from each other. It may be performed by outputting information and receiving information by the other component, or when two components that exchange information are physically the same, one component May be performed by moving from the phase of the process corresponding to to the phase of the process corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、生成したりした情報や、各構成要素が処理で用いるしきい値や数式、設定値等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、あるいは長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、あるいは、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、あるいは、図示しない読み出し部が行ってもよい。   In the above embodiment, information related to processing executed by each component, for example, information received, acquired, and generated by each component, and threshold values used by each component for processing Information such as numerical formulas, setting values, etc. may not be specified in the above description, but may be held temporarily or for a long time in a recording medium (not shown). Further, the storage of information in the recording medium (not shown) may be performed by each component or a storage unit (not shown). Further, reading of information from the recording medium (not shown) may be performed by each component or a reading unit (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いるしきい値や各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、あるいは、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。   Further, in the above embodiment, when information used by each component or the like, for example, information such as a threshold value or various setting values used by each component may be changed by the user, Even if it is not specified in the description, the user may be able to change the information as appropriate, or may not be so. If the information can be changed by the user, the change is realized by, for example, a not-shown receiving unit that receives a change instruction from the user and a changing unit (not shown) that changes the information in accordance with the change instruction. May be. The change instruction received by the receiving unit (not shown) may be received from an input device, information received via a communication line, or information read from a predetermined recording medium, for example. .

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における移動ロボット1の少なくとも一部の機能を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、自律的に移動する移動ロボットにおける処理をコンピュータに実行させるためのプログラムであって、シートに表示された2次元図形であって、仮想的な図形である仮想図形の2次元図形に対する相対的な位置関係を示す仮想図形情報を含むコードを表示する2次元図形である制御図形を撮影する撮影手段が撮影した撮影画像に含まれる制御図形から、仮想図形情報を取得する取得ステップと、撮影画像に含まれる制御図形と、制御図形のサイズを示すサイズ情報と、取得ステップで取得した仮想図形情報とを用いて、移動ロボットと仮想図形との位置関係を取得する位置関係取得ステップと、位置関係取得ステップで取得した位置関係に応じて、移動ロボットを移動させる移動手段による移動を制御する移動制御ステップと、をコンピュータに実行させるためのプログラムである。   In the above embodiment, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution unit may execute the program while accessing the storage unit or the recording medium. In addition, the software which implement | achieves at least one part function of the mobile robot 1 in the said embodiment is the following programs. In other words, this program is a program for causing a computer to execute processing in a mobile robot that moves autonomously, and is a two-dimensional figure displayed on a sheet, which is a virtual figure that is a virtual figure. An acquisition step of acquiring virtual graphic information from a control graphic included in a photographed image taken by a photographing means for photographing a control graphic that is a two-dimensional graphic that displays a code including virtual graphic information indicating a relative positional relationship with respect to the graphic. And a positional relationship acquisition step of acquiring a positional relationship between the mobile robot and the virtual graphic using the control graphic included in the captured image, the size information indicating the size of the control graphic, and the virtual graphic information acquired in the acquisition step. And a movement control that controls movement by the moving means for moving the mobile robot according to the positional relationship acquired in the positional relationship acquisition step. Is a program for executing the steps, to the computer.

なお、上記プログラムにおいて、情報を取得する取得ステップなどでは、ハードウェアでしか行われない処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理は少なくとも含まれない。   In the above program, the acquisition step for acquiring information does not include at least processing performed only by hardware, for example, processing performed by a modem or an interface card in the transmission step.

また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD−ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。   Further, this program may be executed by being downloaded from a server or the like, and a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, or the like) is read out. May be executed by Further, this program may be used as a program constituting a program product. Further, the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図5は、上記プログラムを実行して、上記実施の形態による移動ロボット1の少なくとも一部の機能を実現するコンピュータシステム900の内部構成を示す図である。図5において、コンピュータシステム900は、CD−ROMドライブ905を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。また、コンピュータ901は、CD−ROMドライブ905に加えて、MPU911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANやWAN等への接続を提供する図示しないネットワークカードを含んでいてもよい。   FIG. 5 is a diagram showing an internal configuration of a computer system 900 that executes the program and realizes at least a part of the functions of the mobile robot 1 according to the embodiment. In FIG. 5, the computer system 900 includes a computer 901 including a CD-ROM drive 905, a keyboard 902, a mouse 903, and a monitor 904. In addition to the CD-ROM drive 905, the computer 901 is connected to the MPU 911, a ROM 912 for storing a program such as a bootup program, and the MPU 911, and temporarily stores an instruction of an application program. It includes a RAM 913 that provides a storage space, a hard disk 914 that stores application programs, system programs, and data, and a bus 915 that interconnects the MPU 911, the ROM 912, and the like. The computer 901 may include a network card (not shown) that provides connection to a LAN, WAN, or the like.

コンピュータシステム900に、上記実施の形態による移動ロボット1の少なくとも一部の機能を実行させるプログラムは、CD−ROM921に記憶されて、CD−ROMドライブ905に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD−ROM921、またはネットワークから直接、ロードされてもよい。また、CD−ROM921に代えて他の記録媒体(例えば、DVD等)を介して、プログラムがコンピュータシステム900に読み込まれてもよい。   A program that causes the computer system 900 to execute at least a part of the functions of the mobile robot 1 according to the above embodiment may be stored in the CD-ROM 921, inserted into the CD-ROM drive 905, and transferred to the hard disk 914. . Instead, the program may be transmitted to the computer 901 via a network (not shown) and stored in the hard disk 914. The program is loaded into the RAM 913 when executed. The program may be loaded directly from the CD-ROM 921 or the network. Further, the program may be read into the computer system 900 via another recording medium (for example, a DVD) instead of the CD-ROM 921.

プログラムは、コンピュータ901に、上記実施の形態による移動ロボット1の少なくとも一部の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。   The program does not necessarily include an operating system (OS) or a third-party program that causes the computer 901 to execute at least a part of the functions of the mobile robot 1 according to the above-described embodiment. The program may include only a part of an instruction that calls an appropriate function or module in a controlled manner and obtains a desired result. How the computer system 900 operates is well known and will not be described in detail.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   Further, the present invention is not limited to the above-described embodiment, and various modifications are possible, and it goes without saying that these are also included in the scope of the present invention.

以上より、本発明による移動ロボット等によれば、制御図形のコードに含まれる仮想図形情報によって、移動ロボットの移動を制御できるという効果が得られ、自律的に移動する移動ロボット等として有用である。   As described above, according to the mobile robot and the like according to the present invention, the effect that the movement of the mobile robot can be controlled by the virtual graphic information included in the code of the control graphic is obtained, which is useful as a mobile robot that moves autonomously. .

1 移動ロボット
2 制御図形
3 シート
11 撮影手段
12 記憶手段
13 取得手段
14 位置関係取得手段
15 移動手段
16 移動制御手段
DESCRIPTION OF SYMBOLS 1 Mobile robot 2 Control figure 3 Sheet | seat 11 Image | photography means 12 Memory | storage means 13 Acquisition means 14 Positional relationship acquisition means 15 Movement means 16 Movement control means

Claims (6)

自律的に移動する移動ロボットであって、
シートに表示された2次元図形であって、仮想的な図形であり、前記移動ロボットの移動の制御に影響を与える図形である仮想図形の前記2次元図形に対する相対的な位置関係を示す仮想図形情報を含むコードを表示する2次元図形である制御図形を撮影する撮影手段と、
前記撮影手段が撮影した撮影画像に含まれる制御図形から、前記仮想図形情報を取得する取得手段と、
前記撮影画像に含まれる制御図形と、当該制御図形のサイズを示すサイズ情報と、前記取得手段が取得した仮想図形情報とを用いて、前記移動ロボットと前記仮想図形との位置関係を取得する位置関係取得手段と、
前記移動ロボットを移動させる移動手段と、
前記位置関係取得手段が取得した位置関係に応じて、前記移動手段による移動を制御する移動制御手段と、を備え、
前記コードは、前記サイズ情報をも含み、
前記取得手段は、前記サイズ情報をも取得し、
前記位置関係取得手段が用いるサイズ情報は、前記取得手段が取得したサイズ情報である、移動ロボット。
A mobile robot that moves autonomously,
A virtual figure that is a two-dimensional figure displayed on a sheet, is a virtual figure, and indicates a relative positional relationship of the virtual figure, which is a figure that affects the movement control of the mobile robot, with respect to the two-dimensional figure Photographing means for photographing a control figure which is a two-dimensional figure for displaying a code including information;
An acquisition means for acquiring the virtual graphic information from a control graphic included in a photographed image photographed by the photographing means;
The position for acquiring the positional relationship between the mobile robot and the virtual figure using the control figure included in the captured image, the size information indicating the size of the control figure, and the virtual figure information acquired by the acquisition unit Relationship acquisition means;
Moving means for moving the mobile robot;
A movement control means for controlling movement by the moving means according to the positional relation acquired by the positional relation acquisition means,
The code also includes the size information,
The acquisition means also acquires the size information,
The mobile robot, wherein the size information used by the positional relationship acquisition unit is the size information acquired by the acquisition unit.
前記位置関係取得手段は、前記撮影画像に含まれる制御図形とサイズ情報とを用いて、前記移動ロボットの座標系と前記制御図形の座標系との座標変換を示す座標変換情報を算出し、当該座標変換情報と前記仮想図形情報とを用いて、前記移動ロボットと前記仮想図形との位置関係を取得する、請求項1記載の移動ロボット。 The positional relationship acquisition means calculates coordinate conversion information indicating coordinate conversion between the coordinate system of the mobile robot and the coordinate system of the control graphic, using the control graphic and size information included in the captured image, The mobile robot according to claim 1, wherein a positional relationship between the mobile robot and the virtual graphic is acquired using coordinate conversion information and the virtual graphic information. 前記コードは、前記制御図形の位置及び姿勢を示す位置姿勢情報をも含み、
前記取得手段は、前記位置姿勢情報をも取得し、
前記位置関係取得手段は、前記取得手段が取得した位置姿勢情報をも用いて、前記移動ロボットの座標系と前記制御図形の座標系との座標変換を示す座標変換情報を算出する、請求項2記載の移動ロボット。
The code also includes position and orientation information indicating the position and orientation of the control figure,
The acquisition means also acquires the position and orientation information,
The positional relationship acquisition unit calculates coordinate conversion information indicating coordinate conversion between the coordinate system of the mobile robot and the coordinate system of the control figure using the position and orientation information acquired by the acquisition unit. The described mobile robot.
前記仮想図形は、移動に関する境界を示すものであり、
前記移動制御手段は、前記仮想図形の示す境界を越えないで移動するように、前記移動手段による移動を制御する、請求項1から請求項3のいずれか記載の移動ロボット。
The virtual figure indicates a boundary relating to movement,
The mobile robot according to any one of claims 1 to 3, wherein the movement control means controls movement by the movement means so as to move without exceeding a boundary indicated by the virtual figure.
請求項1から請求項4のいずれか記載の移動ロボットと、
当該移動ロボットの移動の制御に用いられる前記制御図形の表示された1または2以上のシートと、を備え、
ユーザが、前記制御図形の表示されたシートを前記移動ロボットの移動空間に配置することにより前記移動ロボットの移動が制御される、移動ロボット制御システム。
The mobile robot according to any one of claims 1 to 4,
One or more sheets on which the control figures used for controlling the movement of the mobile robot are displayed,
A mobile robot control system in which a user controls movement of the mobile robot by placing a sheet on which the control graphic is displayed in a mobile space of the mobile robot.
自律的に移動する移動ロボットにおける処理をコンピュータに実行させるためのプログラムであって、
シートに表示された2次元図形であって、仮想的な図形であり、前記移動ロボットの移動の制御に影響を与える図形である仮想図形の前記2次元図形に対する相対的な位置関係を示す仮想図形情報を含むコードを表示する2次元図形である制御図形を撮影する撮影手段が撮影した撮影画像に含まれる制御図形から、前記仮想図形情報を取得する取得ステップと、
前記撮影画像に含まれる制御図形と、当該制御図形のサイズを示すサイズ情報と、前記取得ステップで取得した仮想図形情報とを用いて、前記移動ロボットと前記仮想図形との位置関係を取得する位置関係取得ステップと、
前記位置関係取得ステップで取得した位置関係に応じて、前記移動ロボットを移動させる移動手段による移動を制御する移動制御ステップと、をコンピュータに実行させ、
前記コードは、前記サイズ情報をも含み、
前記取得ステップでは、前記サイズ情報をも取得し、
前記位置関係取得ステップにおいて用いられるサイズ情報は、前記取得ステップで取得したサイズ情報である、プログラム。
A program for causing a computer to execute processing in a mobile robot that moves autonomously,
A virtual figure that is a two-dimensional figure displayed on a sheet, is a virtual figure, and indicates a relative positional relationship of the virtual figure, which is a figure that affects the movement control of the mobile robot, with respect to the two-dimensional figure An acquisition step of acquiring the virtual graphic information from a control graphic included in a captured image captured by a photographing unit that captures a control graphic that is a two-dimensional graphic displaying a code including information;
The position for acquiring the positional relationship between the mobile robot and the virtual figure using the control figure included in the captured image, the size information indicating the size of the control figure, and the virtual figure information acquired in the acquisition step A relationship acquisition step;
According to the positional relationship acquired in the positional relationship acquisition step, the computer executes a movement control step for controlling movement by a moving unit that moves the mobile robot,
The code also includes the size information,
In the obtaining step, the size information is also obtained,
The size information used in the positional relationship acquisition step is a program that is the size information acquired in the acquisition step.
JP2013188164A 2013-09-11 2013-09-11 Mobile robot, mobile robot control system, and program Active JP6259233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013188164A JP6259233B2 (en) 2013-09-11 2013-09-11 Mobile robot, mobile robot control system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013188164A JP6259233B2 (en) 2013-09-11 2013-09-11 Mobile robot, mobile robot control system, and program

Publications (2)

Publication Number Publication Date
JP2015055969A JP2015055969A (en) 2015-03-23
JP6259233B2 true JP6259233B2 (en) 2018-01-10

Family

ID=52820343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013188164A Active JP6259233B2 (en) 2013-09-11 2013-09-11 Mobile robot, mobile robot control system, and program

Country Status (1)

Country Link
JP (1) JP6259233B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022035633A1 (en) * 2020-08-14 2022-02-17 Irobot Corporation Visual fiducial for behavior control zone

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6755755B2 (en) * 2016-01-28 2020-09-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Flight altitude controller, unmanned aerial vehicle, flight altitude control method and flight altitude control program
JP7013212B2 (en) * 2017-11-14 2022-01-31 Tvs Regza株式会社 Electronic devices, markers, control methods and programs for electronic devices
JP7153442B2 (en) * 2017-12-19 2022-10-14 株式会社ダイヘン moving body
JP2021039388A (en) * 2017-12-26 2021-03-11 パナソニックIpマネジメント株式会社 Positioning device and vehicle
CN108345304A (en) * 2018-01-29 2018-07-31 星视创(长沙)智能装备有限公司 Intelligent transfer robot positioning system and localization method
JP7012040B2 (en) * 2019-03-28 2022-01-27 本田技研工業株式会社 Operating area limitation method and robot control device
CN113710133B (en) * 2019-09-27 2022-09-09 深圳阿科伯特机器人有限公司 Intelligent terminal, control system and interaction method with mobile robot
WO2021075090A1 (en) * 2019-10-17 2021-04-22 パナソニックIpマネジメント株式会社 Correction parameter calculation method, displacement amount calculation method, correction parameter calculation device, and displacement amount calculation device
CN113211431B (en) * 2021-04-16 2022-07-01 中铁第一勘察设计院集团有限公司 Pose estimation method based on two-dimensional code correction robot system
JP2024071967A (en) * 2022-11-15 2024-05-27 Thk株式会社 Sign detection system, autonomous mobile robot control system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JP2004298977A (en) * 2003-03-28 2004-10-28 Sony Corp Action control device, action control method, action control program and mobile robot device
KR20080029548A (en) * 2006-09-29 2008-04-03 삼성전자주식회사 System and method of moving device control based on real environment image
TW201240636A (en) * 2011-04-11 2012-10-16 Micro Star Int Co Ltd Cleaning system
TWI555496B (en) * 2011-05-17 2016-11-01 微星科技股份有限公司 Cleaning system and control method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022035633A1 (en) * 2020-08-14 2022-02-17 Irobot Corporation Visual fiducial for behavior control zone
US11730328B2 (en) 2020-08-14 2023-08-22 Irobot Corporation Visual fiducial for behavior control zone

Also Published As

Publication number Publication date
JP2015055969A (en) 2015-03-23

Similar Documents

Publication Publication Date Title
JP6259233B2 (en) Mobile robot, mobile robot control system, and program
US11887312B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
US10475209B2 (en) Camera calibration
CN110582798B (en) System and method for virtual enhanced vision simultaneous localization and mapping
US11783543B2 (en) Method and system for displaying and navigating an optimal multi-dimensional building model
JP6658001B2 (en) Position estimation device, program, position estimation method
CN112567201A (en) Distance measuring method and apparatus
CN109074660A (en) The method and system of monocular camera real-time three-dimensional capture and immediate feedback
KR102198851B1 (en) Method for generating three dimensional model data of an object
CN110494792B (en) Visual tracking of peripheral devices
CN106548486A (en) A kind of unmanned vehicle location tracking method based on sparse visual signature map
JP4655242B2 (en) Image processing apparatus for vehicle
JP5387668B2 (en) Information processing terminal, information processing method, and program
CN108933902A (en) Panoramic picture acquisition device builds drawing method and mobile robot
JP2010128133A (en) Mobile information superimposition system and information superimposition method
CN109661631A (en) Control method, device and the unmanned plane of unmanned plane
JP4835243B2 (en) Image composition apparatus and image composition program
CN112912936A (en) Mixed reality system, program, mobile terminal device, and method
KR102389762B1 (en) Space Formation and Recognition System through Digital Twin-linked Augmented Reality Camera and the method thereof
JP2020012774A (en) Method for measuring building
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2021047516A (en) Information processing device, coordinate conversion system, coordinate conversion method, and coordinate conversion program
CN116907536A (en) Information processing apparatus, control method thereof, information processing system, and storage medium
JP2015031922A (en) Information terminal equipment and program
KR20230152146A (en) Position detection device, position detection method, and position detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171208

R150 Certificate of patent or registration of utility model

Ref document number: 6259233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250