JP2012198898A - Position specification device, operation instruction device, and self-propelled robot - Google Patents

Position specification device, operation instruction device, and self-propelled robot Download PDF

Info

Publication number
JP2012198898A
JP2012198898A JP2012083987A JP2012083987A JP2012198898A JP 2012198898 A JP2012198898 A JP 2012198898A JP 2012083987 A JP2012083987 A JP 2012083987A JP 2012083987 A JP2012083987 A JP 2012083987A JP 2012198898 A JP2012198898 A JP 2012198898A
Authority
JP
Japan
Prior art keywords
image
unit
pointing object
instruction
pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012083987A
Other languages
Japanese (ja)
Other versions
JP5536131B2 (en
Inventor
Masahito Takuhara
雅人 宅原
Keiichi Kenmochi
圭一 見持
Yoshihiro Furuyui
義浩 古結
Ryota Hiura
亮太 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2012083987A priority Critical patent/JP5536131B2/en
Publication of JP2012198898A publication Critical patent/JP2012198898A/en
Application granted granted Critical
Publication of JP5536131B2 publication Critical patent/JP5536131B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a position specification device capable of improving an accuracy when specifying an instruction object such as an object to be conveyed or an instruction object position such as a conveying destination, and to provide an operation instruction device, and a self-propelled robot.SOLUTION: A position specification device 101 includes: an image acquiring section 51 for acquiring a pattern projected to an instruction object in a working space by an operation of a user; and a position information extracting section 124 for extracting coordinates that are position information of the instruction object from the pattern acquired by the image acquiring section 51. The position specification device 101 is used for a self-propelled robot that executes an operation to the instruction object and autonomously moves in the working space based on the operation instruction to the instruction object based on the position information of the specified instruction object.

Description

本発明は、指示対象物または指示対象位置の位置特定装置および動作指示装置並びに自走式ロボットに関するものである。   The present invention relates to a position specifying device, an operation instruction device, and a self-propelled robot for an instruction object or an instruction object position.

日常生活で利用される自走式ロボットに対し、ユーザからの指示によって物体の搬送作業等を行わせる場合、搬送する対象物や、対象物の位置・姿勢や、搬送先を人が指示する必要がある。   When a self-propelled robot used in daily life is to carry an object by an instruction from the user, it is necessary for the person to instruct the object to be transported, the position / posture of the object, and the transport destination. There is.

これらの指示を、レーザポインタを用いて行う技術が特許文献1に開示されている。この技術は、ユーザが被搬送物や搬送位置にレーザポインタを照射し、自走式ロボットがその位置を検出することにより指示された動作を実行するものである。   A technique for performing these instructions using a laser pointer is disclosed in Patent Document 1. In this technique, a user irradiates a laser pointer to an object to be transported or a transport position, and a self-propelled robot detects the position to execute an instructed operation.

特開2006−231447号公報JP 2006-231447 A

しかしながら、上記技術では、レーザポインタの輝点の認識が困難な場合があり、特に、直射日光の環境下では輝点の認識精度が著しく低下するため、指示された位置を特定することができず、自走式ロボットに対して動作を正確に指示することができないという問題があった。   However, in the above technique, it may be difficult to recognize the bright spot of the laser pointer, and in particular, in the environment of direct sunlight, the bright spot recognition accuracy is remarkably lowered, so the indicated position cannot be specified. There is a problem that it is not possible to accurately instruct the operation to the self-propelled robot.

本発明は、上記問題を解決するためになされたもので、被搬送物等の指示対象物または搬送先等の指示対象位置の位置を特定する際の精度を向上させることができる位置特定装置および動作指示装置並びに自走式ロボットを提供することを目的とする。   The present invention has been made to solve the above problem, and a position specifying device capable of improving the accuracy in specifying the position of an instruction target object such as a transported object or an instruction target position such as a transport destination. An object is to provide an operation instruction device and a self-propelled robot.

上記課題を解決するために、本発明は以下の手段を採用する。   In order to solve the above problems, the present invention employs the following means.

本発明は、位置に応じて異なるパターンを有する映像パターンを、作業空間における指示対象物を含む所定の領域に投影し、該映像パターンに基づいて該指示対象物の位置を特定する位置特定装置であって、ユーザの操作によって、前記作業空間における前記指示対象物に投影された前記パターンを取得する画像取得部と、該画像取得部により取得された前記パターンから前記指示対象物の位置情報である座標を抽出する位置情報抽出部とを備え、特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置を採用する。   The present invention is a position specifying device that projects a video pattern having a different pattern according to a position onto a predetermined area including a pointing object in a work space, and specifies the position of the pointing object based on the video pattern. An image acquisition unit that acquires the pattern projected onto the pointing object in the work space by a user operation, and positional information of the pointing object from the pattern acquired by the image acquisition unit. A position information extraction unit that extracts coordinates, and performs an operation on the pointing object based on an operation instruction on the pointing object based on the specified position information of the pointing object. A position specifying device used for a self-propelled robot that moves autonomously is adopted.

本発明によれば、指示対象物に投影されたパターンに基づいて、指示対象物の位置情報を位置情報抽出部により抽出することができる。これにより、指示対象物の位置情報を予め登録しておく必要がなく、任意の位置に置かれた指示対象物の位置情報を抽出できるので、指示対象物の位置を容易に特定することが可能となる。   According to the present invention, the position information extraction unit can extract the position information of the pointing object based on the pattern projected onto the pointing object. As a result, it is not necessary to register the position information of the pointing object in advance, and the position information of the pointing object placed at an arbitrary position can be extracted, so that the position of the pointing object can be easily specified. It becomes.

また、上記発明において、前記映像パターンは、複数のドットを有しており、該ドットの配置が位置に応じて異なることとしてもよい。
映像パターンとして、例えば、アノトパターン(登録商標)を用いることにより、指示対象物の位置情報を抽出することが可能となる。
In the above invention, the video pattern may have a plurality of dots, and the arrangement of the dots may differ depending on the position.
By using, for example, an Anoto pattern (registered trademark) as the video pattern, it is possible to extract the position information of the pointing object.

また、上記発明において、前記映像パターンは、複数の色分けされた領域を有しており、位置に応じて色が異なることとしてもよい。
映像パターンとして、例えば、位置に応じて色分けされたパターンを用いることにより、指示対象物の位置情報を抽出することが可能となる。
In the above invention, the video pattern may have a plurality of color-coded regions, and the color may be different depending on the position.
By using, for example, a pattern color-coded according to the position as the video pattern, it is possible to extract the position information of the pointing object.

本発明は、所定の位置に配置された複数の撮像装置により撮影された作業空間の複数の画像に基づいて、前記作業空間における指示対象物の位置を特定する位置特定装置であって、ユーザの操作によって、作業空間における前記指示対象物の画像を取得する画像取得部と、該画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記撮像装置により撮影された前記作業空間の複数の画像から算出した特徴量との比較を行う比較部と、該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、複数の前記撮像装置の位置関係と各前記撮像装置により撮影された前記作業空間の画像内における前記指示対象物の位置とに基づいて、前記指示対象物の位置情報である座標を抽出する位置情報抽出部とを備え、特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置を採用する。   The present invention is a position specifying device that specifies the position of an object to be pointed in a work space based on a plurality of images of the work space photographed by a plurality of image pickup devices arranged at predetermined positions. An image acquisition unit that acquires an image of the pointing object in the work space by an operation, a feature amount calculated from the image of the pointing object acquired by the image acquisition unit, and the work space imaged by the imaging device A comparison unit that compares the feature amounts calculated from the plurality of images, an indication target specifying unit that specifies the indication target based on a comparison result by the comparison unit, and a positional relationship between the plurality of imaging devices A position information extraction unit that extracts coordinates as position information of the pointing object based on the position of the pointing object in the image of the work space imaged by each imaging device; A self-propelled robot that autonomously moves in the work space that performs an operation on the pointing object based on an operation instruction on the pointing object based on the positional information of the specified pointing object Adopt the location device used.

本発明によれば、撮像装置の位置関係と撮像装置により撮影された作業空間の複数の画像とに基づいて、画像取得部により取得された作業空間における指示対象物の位置情報が位置情報抽出部により抽出される。これにより、指示対象物の名称が明確でない場合や、指示対象物を言語で表現することが困難な場合においても、ユーザの操作によって画像取得部により取得された、作業空間における指示対象物の画像を用いてその位置情報を得ることができるので、指示対象物の位置を容易に特定することが可能となる。また、複数の撮像装置により指示対象物の位置情報を抽出することで、指示対象物の位置情報を予め登録しておく必要がなく、任意の位置に置かれた指示対象物の位置を特定することが可能となる。なお、3次元空間において2つの視点から、同一の点を見ているときの位置関係は、公知のエピポーラ幾何を用いた算出方法により推定することが可能である。   According to the present invention, based on the positional relationship of the imaging device and the plurality of images of the workspace taken by the imaging device, the location information extraction unit obtains the location information of the pointing object in the workspace acquired by the image acquisition unit. Extracted by Thereby, even when the name of the pointing object is not clear or when it is difficult to express the pointing object in a language, the image of the pointing object in the work space acquired by the image acquisition unit by the user's operation Since the position information can be obtained using, the position of the pointing object can be easily specified. Further, by extracting the position information of the pointing object by using a plurality of imaging devices, it is not necessary to register the position information of the pointing object in advance, and the position of the pointing object placed at an arbitrary position is specified. It becomes possible. The positional relationship when viewing the same point from two viewpoints in a three-dimensional space can be estimated by a known calculation method using epipolar geometry.

また、上記発明において、前記比較部が、前記画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記撮像装置により撮影された前記空間の画像から算出した特徴量との直接比較を行い、前記指示対象物特定部が、前記比較部による直接比較結果に基づいて前記指示対象物を特定することとしてもよい。
このようにすることで、指示対象物を特定する際の制御を容易に行うことができる。
In the above invention, the comparison unit directly calculates a feature amount calculated from the image of the pointing object acquired by the image acquisition unit and a feature amount calculated from the image of the space photographed by the imaging device. Comparison may be performed, and the pointing object specifying unit may specify the pointing object based on a direct comparison result by the comparing unit.
By doing in this way, control at the time of specifying a pointed object can be performed easily.

また、上記発明において、前記比較部が、前記画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記撮像装置により撮影された前記空間の画像から算出した特徴量とを、予め登録された前記指示対象物の登録画像から算出した特徴量を介して間接比較を行い、前記指示対象物特定部が、前記比較部による間接比較結果に基づいて前記指示対象物を特定することとしてもよい。
各撮像装置と画像取得部とでは指示対象物を撮影する角度や位置が異なるため、各画像における指示対象物の歪み等が異なり、各画像から指示対象物を特定することが困難な場合がある。これに対し、予め登録された指示対象物の登録画像を介して間接比較を行うことで、指示対象物を特定する際の精度を向上させることができる。
In the above invention, the comparison unit calculates a feature amount calculated from the image of the pointing object acquired by the image acquisition unit and a feature amount calculated from the image of the space photographed by the imaging device. Indirect comparison is performed via a feature amount calculated from a registered image of the pointing object registered in advance, and the pointing object specifying unit specifies the pointing object based on an indirect comparison result by the comparing unit. It is good.
Since each imaging device and the image acquisition unit differ in the angle and position at which the pointing object is photographed, the distortion of the pointing object in each image differs, and it may be difficult to identify the pointing object from each image. . On the other hand, by performing an indirect comparison via a registered image of the pointing object registered in advance, it is possible to improve accuracy when specifying the pointing object.

また、上記発明において、前記指示対象物の登録画像が、複数の角度から撮影した前記指示対象物の画像であることとしてもよい。
指示対象物が立体形状を有する場合には、撮影する角度や位置によって指示対象物の見え方が異なる。これに対し、指示対象物の登録画像として、複数の角度から撮影した指示対象物の画像を予め登録しておくことで、指示対象物を特定する際の精度を向上させることができる。
In the above invention, the registered image of the pointing object may be an image of the pointing object taken from a plurality of angles.
When the pointing object has a three-dimensional shape, how the pointing object looks is different depending on the shooting angle and position. On the other hand, by registering in advance the images of the pointing object taken from a plurality of angles as the registered images of the pointing object, the accuracy when specifying the pointing object can be improved.

また、上記発明において、前記画像取得部の撮影方向にレーザを照射するレーザ照射部を備えることとしてもよい。
このようにすることで、画像取得部の撮影方向に照射されたレーザの輝点をユーザが目視することができ、ユーザが意図する指示対象物または指示対象位置を確実に撮影することができる。
Moreover, in the said invention, it is good also as providing the laser irradiation part which irradiates a laser in the imaging | photography direction of the said image acquisition part.
By doing in this way, the user can visually observe the bright spot of the laser irradiated in the shooting direction of the image acquisition unit, and the shooting target position or the pointing target position intended by the user can be reliably shot.

また、上記発明において、前記画像取得部が取得した画像を表示する表示部を備えることとしてもよい。
このようにすることで、画像取得部が取得した画像を、表示部にてユーザが目視することができ、ユーザが意図する指示対象物または指示対象位置を確実に撮影することができる。
Moreover, in the said invention, it is good also as providing the display part which displays the image which the said image acquisition part acquired.
By doing in this way, the image which the image acquisition part acquired can be visually recognized by the user in a display part, and the indication target object or indication target position which a user intends can be image | photographed reliably.

また、上記発明において、前記表示部が、前記指示対象物の候補が複数ある場合に、各前記候補を表示し、表示された各前記候補の中から前記指示対象物の選択をユーザに促すこととしてもよい。
このようにすることで、ユーザが意図する指示対象物を確実に選択することが可能となる。
Further, in the above invention, when there are a plurality of candidates for the pointing object, the display unit displays each of the candidates and prompts the user to select the pointing object from among the displayed candidates. It is good.
By doing in this way, it becomes possible to select the instruction | indication target object which a user intends reliably.

また、上記発明において、前記指示対象物までの距離を測定する距離測定部を備え、前記指示対象物特定部が、前記距離測定部により測定された距離をも用いて前記指示対象物を特定することとしてもよい。
画像取得部により取得した画像だけでなく、距離測定部により測定した距離をも用いて指示対象物の特定を行うことにより、大きさの異なる指示対象物または指示対象位置を識別することが可能となる。
In the above invention, a distance measuring unit that measures a distance to the pointing object is provided, and the pointing object specifying unit specifies the pointing object using the distance measured by the distance measuring unit. It is good as well.
By specifying the pointing object using not only the image acquired by the image acquiring unit but also the distance measured by the distance measuring unit, it is possible to identify the pointing object or the pointing target position having different sizes. Become.

本発明は、上記の位置特定装置により特定された前記指示対象物の位置情報に基づいて、前記指示対象物に対する動作指示を行う動作指示部を備える動作指示装置を採用する。   The present invention employs an operation instruction device including an operation instruction unit that issues an operation instruction to the pointing object based on the position information of the pointing object specified by the position specifying device.

本発明によれば、指示対象物の名称が明確でない場合や、指示対象物を言語で表現することが困難な場合においても、指示対象物に対する動作指示を容易に行うことが可能となる。   According to the present invention, even when the name of the pointing object is not clear or when it is difficult to express the pointing object in a language, it is possible to easily give an operation instruction to the pointing object.

本発明は、上記の動作指示装置による指示に基づいて前記指示対象物に対する動作を実行する自走式ロボットを採用する。   The present invention employs a self-propelled robot that performs an operation on the specified object based on an instruction from the operation instruction device.

本発明によれば、指示対象物の名称が明確でない場合や、指示対象物を言語で表現することが困難な場合においても、指示対象物に対する動作を実行することが可能となる。   According to the present invention, even when the name of the pointing object is not clear or when it is difficult to express the pointing object in a language, it is possible to execute an operation on the pointing object.

本発明によれば、被搬送物等の指示対象物または搬送先等の指示対象位置の位置を特定する際の精度を向上させることができるという効果を奏する。   According to the present invention, there is an effect that it is possible to improve the accuracy in specifying the position of an instruction target object such as an object to be conveyed or an instruction target position such as a conveyance destination.

本発明の参考例1に係るロボットシステムのハードウェア構成図である。It is a hardware block diagram of the robot system which concerns on the reference example 1 of this invention. 図1に示すロボット本体の正面図である。It is a front view of the robot main body shown in FIG. 図1に示すロボット本体の左側面図である。It is a left view of the robot main body shown in FIG. 図1に示すロボットシステムの機能ブロック図である。It is a functional block diagram of the robot system shown in FIG. 図1に示すロボットシステムの作用を説明する図である。It is a figure explaining the effect | action of the robot system shown in FIG. 図1に示すロボットシステムの第1の変形例の機能ブロック図である。It is a functional block diagram of the 1st modification of the robot system shown in FIG. 図1に示すロボットシステムの第2の変形例の作用を説明する図である。It is a figure explaining the effect | action of the 2nd modification of the robot system shown in FIG. 図1に示すロボットシステムの第3の変形例の作用を説明する図である。It is a figure explaining the effect | action of the 3rd modification of the robot system shown in FIG. 図1に示すロボットシステムの第4の変形例の作用を説明する図である。It is a figure explaining the effect | action of the 4th modification of the robot system shown in FIG. 図1に示すロボットシステムの第5の変形例の作用を説明する図である。It is a figure explaining the effect | action of the 5th modification of the robot system shown in FIG. 本発明の第1の実施形態に係るロボットシステムのハードウェア構成図である。It is a hardware block diagram of the robot system which concerns on the 1st Embodiment of this invention. アノトパターン(登録商標)を説明する図である。It is a figure explaining Anoto pattern (registered trademark). 図11に示すロボットシステムの機能ブロック図である。It is a functional block diagram of the robot system shown in FIG. 図11に示すロボットシステムの作用を説明する図である。It is a figure explaining the effect | action of the robot system shown in FIG. 図11に示すロボットシステムの変形例の作用を説明する図である。It is a figure explaining the effect | action of the modification of the robot system shown in FIG. 本発明の参考例2に係るロボットシステムの機能ブロック図である。It is a functional block diagram of the robot system which concerns on the reference example 2 of this invention. 図16に示すロボットシステムの作用を説明する図である。It is a figure explaining the effect | action of the robot system shown in FIG. 本発明の第2の実施形態に係るロボットシステムのハードウェア構成図である。It is a hardware block diagram of the robot system which concerns on the 2nd Embodiment of this invention. 図18に示すロボットシステムの機能ブロック図である。It is a functional block diagram of the robot system shown in FIG. 図18に示すロボットシステムの作用を説明する図である。It is a figure explaining the effect | action of the robot system shown in FIG. 図18に示すロボットシステムの第1の変形例の作用を説明する図である。It is a figure explaining the effect | action of the 1st modification of the robot system shown in FIG. 図18に示すロボットシステムの第2の変形例の作用を説明する図である。It is a figure explaining the effect | action of the 2nd modification of the robot system shown in FIG.

[参考例1]
以下に、本発明に係る位置特定装置、動作指示装置、および自走式ロボット(以下「ロボット」という。)を具備するロボットシステムの参考例1について、図面を参照して説明する。
図1に示すように、本参考例1に係るロボットシステム100は、ロボット1と、ロボット1に対して動作を指示する動作指示装置50とを備えている。
[Reference Example 1]
A reference example 1 of a robot system including a position specifying device, an operation instruction device, and a self-propelled robot (hereinafter referred to as “robot”) according to the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the robot system 100 according to the first reference example includes a robot 1 and an operation instruction device 50 that instructs the robot 1 to perform an operation.

動作指示装置50は、指示対象物の画像を取得する画像取得部51と、ロボット1に対して動作指示を行う動作指示部52とを備えている。画像取得部51は、例えば、レンズおよびCCDを備えるカメラである。
ロボット1は、動作指示装置50からの指示に基づいてロボット1を制御する制御装置40を備えている。制御装置40は、動作指示装置50に備えられた画像取得部51により取得された指示対象物の画像に基づいて、指示対象物の位置を特定するようになっている。
The operation instruction device 50 includes an image acquisition unit 51 that acquires an image of an instruction target and an operation instruction unit 52 that instructs the robot 1 to perform an operation. The image acquisition unit 51 is, for example, a camera that includes a lens and a CCD.
The robot 1 includes a control device 40 that controls the robot 1 based on an instruction from the operation instruction device 50. The control device 40 is configured to specify the position of the pointing object based on the image of the pointing object acquired by the image acquisition unit 51 provided in the operation instruction device 50.

以下に、ロボット1の構成について図2および図3を用いて説明する。
図2は、本参考例1に係るロボットの正面図、図3は、図2に示したロボットの左側面図である。
図2および図3に示すように、ロボット本体1には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
Below, the structure of the robot 1 is demonstrated using FIG. 2 and FIG.
2 is a front view of the robot according to the first reference example, and FIG. 3 is a left side view of the robot shown in FIG.
As shown in FIGS. 2 and 3, the robot body 1 includes a head 2, a chest 3 that supports the head 2 from below, a right arm 4 a provided on the right side of the chest 3, and a chest 3. A left arm portion 4b provided on the left side, a waist portion 5 connected below the chest portion 3, a skirt portion 6 connected below the waist portion 5, and a leg portion 7 connected below the skirt portion 6; Is provided.

頭部2には、頭頂部近傍に全方位カメラ11が一つ設けられている。この全方位カメラ11の外周に沿って複数の赤外線LED12が所定の間隔で円環上に配置されている。
頭部2の前面の中央近傍には、図1に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
One omnidirectional camera 11 is provided near the top of the head 2. A plurality of infrared LEDs 12 are arranged on the ring at predetermined intervals along the outer periphery of the omnidirectional camera 11.
In the vicinity of the center of the front surface of the head 2, as shown in FIG. 1, the front camera 13 for imaging the front is one on the right side when viewed from the front, and the microphone 14 is one on the left side when viewed from the front. Is provided.

胸部3の前面の中央近傍には、モニタ15が一つ設けられている。このモニタ15の上方には、人を検知するための超音波距離センサ16が一つ設けられている。モニタ15の下方には、電源スイッチ17が一つ設けられている。超音波距離センサ16の上方には、2つのスピーカ18が左右に一つずつ設けられている。また、図3に示すように、胸部3の背面には、荷物を収納することができるランドセル部33が設けられている。ランドセル部33には、上部に設けたヒンジ周りに回動可能な開閉扉33aが設けられている。図1に示すように、胸部3の左右の肩部には、マンマシンインターフェースとして機能する肩スイッチ19がそれぞれ一つずつ設けられている。肩スイッチ19には、例えば、タッチセンサが採用されている。   One monitor 15 is provided near the center of the front surface of the chest 3. One ultrasonic distance sensor 16 for detecting a person is provided above the monitor 15. One power switch 17 is provided below the monitor 15. Above the ultrasonic distance sensor 16, two speakers 18 are provided one on each side. Further, as shown in FIG. 3, the back of the chest 3 is provided with a school bag portion 33 that can store luggage. The school bag 33 is provided with an opening / closing door 33a that can be rotated around a hinge provided at the top. As shown in FIG. 1, one shoulder switch 19 that functions as a man-machine interface is provided on each of the left and right shoulders of the chest 3. For the shoulder switch 19, for example, a touch sensor is employed.

右腕部4aおよび左腕部4bには、多関節構造が採用されている。右腕部4a、左腕部4bにおいて、胸部3との接続部近傍には、体や物の挟み込みを検知して腕の動作を止めるための脇スイッチ20がそれぞれ設けられている。図2に示すように、右腕部4aの手のひら部分には、マンマシンインターフェースとして機能する握手スイッチ21が内蔵されている。これら脇スイッチ20や握手スイッチ21には、例えば、押圧センサが採用される。   A multi-joint structure is adopted for the right arm portion 4a and the left arm portion 4b. In the right arm portion 4a and the left arm portion 4b, side switches 20 are provided in the vicinity of the connection portion with the chest portion 3 to detect the pinching of a body or an object and stop the movement of the arm. As shown in FIG. 2, a handshake switch 21 that functions as a man-machine interface is built in the palm of the right arm 4a. For the side switch 20 and the handshake switch 21, for example, a pressure sensor is employed.

腰部5の前面の中央近傍には、人を検知するための超音波距離センサ22が左右に一つずつ設けられている。これら超音波距離センサ22の下方には、複数の赤外センサ23が配列されたセンサ領域24が設けられている。これら赤外線センサ22は、ロボット本体1の下方前方にある障害物等を検出するためのものである。図2および図3に示すように、腰部5の下方には、前面および背面において、音源方向を検出するためのマイクロフォン25が左右に一つずつ、計4つ設けられている。図3に示すように、腰部5の側面の左右には、本体を持ち上げるときに使用する取手部26がそれぞれ一つずつ設けられている。取手部26は、凹所とされており、操作者の手が挿入できるようになっている。   In the vicinity of the center of the front surface of the waist 5, one ultrasonic distance sensor 22 for detecting a person is provided on each side. Below these ultrasonic distance sensors 22, a sensor region 24 in which a plurality of infrared sensors 23 are arranged is provided. These infrared sensors 22 are for detecting an obstacle or the like in the lower front of the robot body 1. As shown in FIGS. 2 and 3, a total of four microphones 25 for detecting the direction of the sound source are provided below the waist 5 on the front and back sides, one on each side. As shown in FIG. 3, one handle portion 26 used for lifting the main body is provided on each of the left and right sides of the waist portion 5. The handle 26 is a recess so that the operator's hand can be inserted.

スカート部6の前面下方には、段差を検出するための赤外線センサ27が、中央および左右に計3つ設けられている。図3に示すように、スカート部6の背面には、充電コネクタ28が設けられている。   Below the front surface of the skirt portion 6, a total of three infrared sensors 27 for detecting a step are provided in the center and on the left and right. As shown in FIG. 3, a charging connector 28 is provided on the back surface of the skirt portion 6.

図2に示すように、脚部7の前面には、側方の距離を検出するための赤外線センサ29が左右に一つずつ設けられている。これら赤外線センサ29は、主に段差検出に用いられるものである。
図3に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。
上述したロボットにおいて、胸部3の超音波距離センサ16、腰部5の超音波距離センサ22およびマイクロフォン25は、ロボット周辺にいる人物を検知する人検知センサ34として機能する。
As shown in FIG. 2, one infrared sensor 29 for detecting a lateral distance is provided on the front surface of the leg portion 7 on the left and right sides. These infrared sensors 29 are mainly used for level difference detection.
As shown in FIG. 3, a hook 30 for fixing the position of the robot body 1 to the charging station is provided on the back surface of the leg portion 7. The leg portion 7 is a carriage provided with traveling wheels 31 and four ball casters 32.
In the robot described above, the ultrasonic distance sensor 16 in the chest 3, the ultrasonic distance sensor 22 in the waist 5, and the microphone 25 function as a human detection sensor 34 that detects a person around the robot.

このようなロボットは、ロボット本体1に内蔵されたバッテリからの電源供給により、作業空間を自立的に移動することが可能な構成を備えており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボットの所有者や操作者などのユーザの生活を補助・支援・介護するための各種サービスを提供するために用いられる。そのため、ロボットは、ユーザとの会話を実現させる会話機能のほか、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。   Such a robot has a configuration capable of moving independently in a work space by supplying power from a battery built in the robot body 1, and coexists with a human being as a work space indoors. For example, it is used to provide various services for assisting, supporting, and caring for the lives of users such as robot owners and operators in general households. Therefore, in addition to a conversation function that realizes a conversation with the user, the robot has a function of watching the user's action, assisting the user's action, and acting with the user.

このような機能は、例えば、ロボット本体1の内部に内蔵されたマイクロコンピュータ等からなる制御装置40により実現されるものである。制御装置40には、図2および図3に示した各種カメラや各種センサ等が接続されており、カメラからの画像情報やセンサからのセンサ検出情報を取得し、これらの情報に基づいて各種プログラムを実行することにより、上述した各種機能を実現させる。また、制御装置40は、動作指示装置50からの信号を取得し、該信号に基づいて指示対象物の位置特定を行う。以下では、この指示対象物の位置特定が、位置特定装置101により行われるとして説明する。   Such a function is realized by, for example, the control device 40 including a microcomputer or the like built in the robot body 1. 2 and 3 are connected to the control device 40, and image information from the camera and sensor detection information from the sensor are acquired, and various programs are based on these information. By executing the above, various functions described above are realized. In addition, the control device 40 acquires a signal from the operation instruction device 50 and specifies the position of the instruction target based on the signal. In the following description, it is assumed that the position of the pointing object is specified by the position specifying device 101.

図4に、位置特定装置101が備える機能を展開して表した機能ブロック図を示す。
図4に示すように、位置特定装置101は、画像および位置情報を記憶する記憶部121と、指示対象物の画像を取得する画像取得部51と、複数の画像の比較を行う比較部122と、指示対象物を特定する指示対象物特定部123と、指示対象物の位置情報を抽出する位置情報抽出部124とを備えている。
FIG. 4 shows a functional block diagram in which the functions of the position specifying device 101 are developed and expressed.
As illustrated in FIG. 4, the position specifying device 101 includes a storage unit 121 that stores an image and position information, an image acquisition unit 51 that acquires an image of an instruction target, and a comparison unit 122 that compares a plurality of images. The pointing object specifying unit 123 that specifies the pointing object and the position information extracting unit 124 that extracts the position information of the pointing object are provided.

記憶部121は、予め撮影した複数の対象物の画像から算出した特徴量と、該対象物の位置情報とを関連付けて記憶するようになっている。ここで、画像から算出した特徴量とは、比較処理をより正確・ロバスト・高速・小メモリでおこなうために、画像から抽出した画像の特徴を示す情報のことであり、例えば、輪郭形状や色等をいう。
画像取得部51は、ユーザの操作によって指示対象物の画像を取得し、取得した指示対象物の画像から算出した特徴量を比較部122に出力するようになっている。
The storage unit 121 stores a feature amount calculated from images of a plurality of objects captured in advance and position information of the objects in association with each other. Here, the feature amount calculated from the image is information indicating the feature of the image extracted from the image in order to perform comparison processing with more accuracy, robustness, high speed, and small memory. Etc.
The image acquisition unit 51 acquires an image of the pointing object by a user operation, and outputs a feature amount calculated from the acquired image of the pointing object to the comparison unit 122.

比較部122は、記憶部121に記憶された複数の対象物の画像から算出した特徴量を読み出し、読み出した複数の対象物の画像から算出した特徴量と画像取得部51により取得された指示対象物の画像から算出した特徴量との比較を行い、比較結果を指示対象物特定部123に出力するようになっている。なお、比較に際しては、比較対象の画像の大きさや角度や歪みが異なっていても、例えば、US Patent 6,711,293, David G. Lowe,“Object recognition from local scale-invariant features,” International Conference on Computer Vision, Corfu, Greece (September 1999), pp.1150-1157.に示される公知の方法により、画像同士の類似度を算出することが可能である。   The comparison unit 122 reads the feature amount calculated from the images of the plurality of objects stored in the storage unit 121, the feature amount calculated from the read images of the plurality of objects, and the instruction target acquired by the image acquisition unit 51 The comparison is made with the feature amount calculated from the image of the object, and the comparison result is output to the instruction target specifying unit 123. In comparison, for example, US Patent 6,711,293, David G. Lowe, “Object recognition from local scale-invariant features,” International Conference on Computer Vision, The similarity between images can be calculated by a known method shown in Corfu, Greece (September 1999), pp. 1150-1157.

指示対象物特定部123は、比較部122による比較結果に基づいて指示対象物に最も一致する対象物を指示対象物として特定し、特定した結果を位置情報抽出部に出力するようになっている。   The indication target specifying unit 123 specifies the target that most closely matches the indication target based on the comparison result by the comparison unit 122, and outputs the specified result to the position information extraction unit. .

位置情報抽出部124は、指示対象物特定部123により特定された指示対象物に対応する対象物の位置情報を記憶部121より読み出し、読み出した対象物の位置情報を指示対象物の位置情報として動作指示部52に出力するようになっている。
動作指示部52は、位置情報抽出部124により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
The position information extraction unit 124 reads the position information of the object corresponding to the specified object specified by the specified object specifying unit 123 from the storage unit 121, and uses the read position information of the object as the position information of the specified object. It is output to the operation instruction unit 52.
The operation instruction unit 52 is configured to output the position information of the pointing object extracted by the position information extraction unit 124 and the operation with respect to the position information to the robot body 1.

このように構成された位置特定装置101の作用について、主に図5を用いて以下に説明する。
記憶部121には予め対象物Aの画像Pから算出した特徴量および対象物Bの画像Pから算出した特徴量が、それぞれの位置情報と関連付けられて記憶されている。
The operation of the position specifying device 101 configured as described above will be described below mainly using FIG.
In the storage unit 121, the feature amount calculated from the image P A of the object A and the feature amount calculated from the image P B of the object B are stored in association with each position information.

ここで、ユーザが指示対象物として対象物Bを選択した場合、ユーザの操作によって画像取得部51により指示対象物の画像Qが取得される。
次に、比較部122により、画像取得部51により取得された指示対象物の画像Qから算出した特徴量と記憶部121から読み出した対象物Aの画像Pから算出した特徴量および対象物Bの画像Pから算出した特徴量との比較が行われる。
Here, if the user selects an object B as an instruction target, the image Q B indicated object by the image acquisition unit 51 by the operation of the user is acquired.
Next, the comparison unit 122, the feature amount and the object calculated from the image P A of the object A that feature amount calculated from image Q B of the obtained instruction object and read out from the storage unit 121 by the image acquisition unit 51 Comparison with the feature amount calculated from the image P B of B is performed.

次に、比較部122による比較結果に基づいて、指示対象物特定部123により画像Qに最も一致する画像として画像Pが選択され、画像Pに対応する対象物Bが指示対象物として特定される。 Then, based on the comparison result by the comparison unit 122, the image P B is selected as the best match image to the image Q B by the instruction object identification unit 123, as an object B indicated object corresponding to the image P B Identified.

次に、位置情報抽出部により、指示対象物として特定された対象物Bの画像Pから算出した特徴量に関連付けられた位置情報、すなわち、図5においてテーブルの中央部の座標が、記憶部121より読み出される。 Next, the position information associated with the feature amount calculated from the image P B of the object B identified as the pointing object by the position information extraction unit, that is, the coordinates of the center of the table in FIG. 121 is read out.

このように記憶部121より読み出された対象物Bの位置情報が、指示対象物の位置情報として抽出され、動作指示部52によりロボット本体1に対して搬送指示等の動作指示が行われる。   Thus, the position information of the object B read from the storage unit 121 is extracted as the position information of the instruction object, and the operation instruction unit 52 issues an operation instruction such as a conveyance instruction to the robot body 1.

以上説明したように、本参考例1に係る位置特定装置101によれば、記憶部121に記憶された複数の対象物の画像から算出した特徴量および位置情報に基づいて、画像取得部51により取得された指示対象物が指示対象物特定部123により特定され、特定された指示対象物の位置情報が位置情報抽出部124により抽出される。これにより、指示対象物の名称が明確でない場合や、指示対象物を言語で表現することが困難な場合においても、画像取得部51により取得された指示対象物の画像を用いて、その位置情報を得ることができ、指示対象物の位置を容易に特定することが可能となる。   As described above, according to the position specifying device 101 according to the first reference example, the image acquisition unit 51 uses the feature amounts and the position information calculated from the images of the plurality of objects stored in the storage unit 121. The acquired pointing object is specified by the pointing object specifying unit 123, and the position information of the specified pointing object is extracted by the position information extracting unit 124. Accordingly, even when the name of the pointing object is not clear or when it is difficult to express the pointing object in a language, the position information is obtained using the image of the pointing object acquired by the image acquisition unit 51. Thus, the position of the pointing object can be easily specified.

なお、本参考例1の第1の変形例として、図6に示すように、画像取得部51に代えてバーコードやQRコード等の画像コードの情報を取得する画像コード取得部54を設け、記憶部121には対象物の画像に代えて画像コードの情報を記憶させることとしてもよい。   As a first modification of the first reference example, as shown in FIG. 6, an image code acquisition unit 54 that acquires image code information such as a barcode and a QR code is provided instead of the image acquisition unit 51. The storage unit 121 may store information of the image code instead of the image of the object.

このようにすることで、例えば、外観が類似している複数の対象物を識別することができ、指示対象物を特定する際の精度を向上させることが可能となる。また、例えば、バーコードは既に多くの製品に付されており、バーコードと指示対象物を関連付けたデータベースを用いることで、指示対象物の名称等の情報を取得することも可能となる。
また、画像取得部51と画像コード取得部54とを併用することで、指示対象物の特定を容易に、かつ、高い精度で行うことが可能となる。
By doing so, for example, it is possible to identify a plurality of objects having similar appearances, and it is possible to improve the accuracy when specifying the pointing object. In addition, for example, barcodes are already attached to many products, and it is possible to acquire information such as names of designated objects by using a database that associates barcodes and designated objects.
Further, by using the image acquisition unit 51 and the image code acquisition unit 54 together, it is possible to easily specify the pointing object with high accuracy.

また、本参考例1の第2の変形例として、図7に示すように、画像取得部51の撮影方向にレーザを照射するレーザ照射部55を備えてもよい。ここで、レーザ照射部55は、例えば、レーザポインタである。
このようにすることで、画像取得部51の撮影方向に照射されたレーザの輝点をユーザが目視することができ、ユーザが意図する指示対象物を確実に撮影することができる。
As a second modification of the first reference example, as shown in FIG. 7, a laser irradiation unit 55 that irradiates a laser in the photographing direction of the image acquisition unit 51 may be provided. Here, the laser irradiation unit 55 is, for example, a laser pointer.
By doing in this way, the user can visually observe the bright spot of the laser irradiated in the shooting direction of the image acquisition unit 51, and the pointing object intended by the user can be reliably shot.

また、本参考例1の第3の変形例として、図8に示すように、指示対象物までの距離を測定する距離測定部56を備え、指示対象位置特定部123が、距離測定部56により測定された距離をも用いて指示対象物を特定することとしてもよい。ここで、距離測定部56は、例えば、レーザ測距機である。
画像取得部51により取得した画像だけでなく、距離測定部56により測定した距離をも用いて指示対象物の特定を行うことにより、大きさの異なる指示対象物を識別することが可能となる。
Further, as a third modification of the present reference example 1, as shown in FIG. 8, the distance measuring unit 56 that measures the distance to the pointing target is provided, and the pointing target position specifying unit 123 is operated by the distance measuring unit 56. The pointing object may be specified using the measured distance. Here, the distance measuring unit 56 is, for example, a laser range finder.
By specifying the target object using not only the image acquired by the image acquisition unit 51 but also the distance measured by the distance measuring unit 56, it is possible to identify the target object having a different size.

また、本参考例1の第4の変形例として、図9に示すように、画像取得部51が取得した画像を表示する表示部57を備えてもよい。ここで、表示部57は、例えば、CRT(cathode-ray tube)やLCD(liquid Crystal Display)等のモニタである。
このようにすることで、画像取得部51が取得した画像を、表示部57にてユーザが目視することができ、ユーザが意図する指示対象物を確実に撮影することができる。
In addition, as a fourth modification of the first reference example, as illustrated in FIG. 9, a display unit 57 that displays an image acquired by the image acquisition unit 51 may be provided. Here, the display unit 57 is a monitor such as a CRT (cathode-ray tube) or an LCD (liquid Crystal Display).
By doing in this way, the image which the image acquisition part 51 acquired can be visually recognized by the user on the display part 57, and the instruction | indication target object which a user intends can be image | photographed reliably.

また、本参考例1の第5の変形例として、図10に示すように、指示対象物の候補が複数ある場合に、各候補を表示部57に表示し、表示された各候補の中から指示対象物の選択をユーザに促すこととしてもよい。
このようにすることで、ユーザが意図する指示対象物を確実に選択することが可能となる。なお、各候補の表示を表示部57ではなく、動作指示装置60とは別に設けられたタッチパネル58に行うこととしてもよい。
In addition, as a fifth modification of the first reference example, as illustrated in FIG. 10, when there are a plurality of candidates for an instruction target, each candidate is displayed on the display unit 57, and from among the displayed candidates The user may be prompted to select an instruction target.
By doing in this way, it becomes possible to select the instruction | indication target object which a user intends reliably. Each candidate may be displayed not on the display unit 57 but on the touch panel 58 provided separately from the operation instruction device 60.

〔第1の実施形態〕
次に、本発明の第1の実施形態について、図11から図15を用いて説明する。
本実施形態のロボットシステムが参考例1と異なる点は、映写装置により位置に応じて異なるパターンを有する映像パターンを投影し、該映像パターンに基づいて指示対象物の位置情報を抽出する点である。以下、本実施形態のロボットシステムについて、参考例1と共通する点については説明を省略し、異なる点について主に説明する。
[First Embodiment]
Next, a first embodiment of the present invention will be described with reference to FIGS.
The robot system of the present embodiment is different from the reference example 1 in that a projection device projects a video pattern having a different pattern depending on the position, and extracts the position information of the pointing object based on the video pattern. . Hereinafter, with respect to the robot system of the present embodiment, description of points that are common to Reference Example 1 is omitted, and different points are mainly described.

図11に示すように、本実施形態に係るロボットシステム200は、ロボット1と、ロボット1に対して動作を指示する動作指示装置60と、位置に応じて異なるパターンを有する映像パターンを投影する映写装置63とを備えている。
ここでは、位置に応じて異なるパターンを有する映像パターンとして、例えば、図12に示すアノトパターン(登録商標)を用いることとして説明する。アノトパターン(登録商標)は、格子状の線分上に複数のドットが配置され、該ドットの配置が位置に応じて異なるパターンである。
As shown in FIG. 11, the robot system 200 according to the present embodiment projects a robot 1, an operation instruction device 60 that instructs the robot 1 to operate, and a projection that projects a video pattern having a different pattern depending on the position. Device 63.
Here, for example, an Anoto pattern (registered trademark) shown in FIG. 12 is used as a video pattern having a different pattern depending on the position. Anoto pattern (registered trademark) is a pattern in which a plurality of dots are arranged on a grid-like line segment and the arrangement of the dots differs depending on the position.

映写装置63は、例えば、人には不可視な近赤外線を映写する映写装置であり、画像取得部61は、例えば、近赤外線の光を取得可能な近赤外線カメラである。これにより、映写装置63により投影される画像パターンを人に認識させることなく、画像取得部61により取得させることが可能となる。   The projection device 63 is, for example, a projection device that projects near-infrared rays that are invisible to humans, and the image acquisition unit 61 is, for example, a near-infrared camera that can acquire near-infrared light. As a result, the image acquisition unit 61 can acquire the image pattern projected by the projection device 63 without causing the person to recognize the image pattern.

上記構成を有するロボットシステム200において、映写装置63により指示対象物に投影された映像パターンを画像取得部61により取得し、取得した映像パターンに基づいて制御装置40により指示対象物の位置特定が行われる。以下では、この指示対象物の位置特定が、位置特定装置103により行われるとして説明する。   In the robot system 200 having the above-described configuration, the image acquisition unit 61 acquires a video pattern projected onto the pointing object by the projection device 63, and the control device 40 specifies the position of the pointing object based on the acquired video pattern. Is called. In the following description, it is assumed that the position of the pointing object is specified by the position specifying device 103.

図13に、位置特定装置103が備える機能を展開して表した機能ブロック図を示す。
図13に示すように、位置特定装置103は、指示対象物に投影されたパターンを取得する画像取得部61と、指示対象物の位置情報を抽出する位置情報抽出部134とを備えている。
FIG. 13 shows a functional block diagram in which the functions of the position specifying device 103 are developed and expressed.
As illustrated in FIG. 13, the position specifying device 103 includes an image acquisition unit 61 that acquires a pattern projected on the pointing object, and a position information extraction unit 134 that extracts position information of the pointing object.

画像取得部61は、ユーザの操作によって、映写部63により指示対象物に投影された映像パターンを取得し、取得した映像パターンを位置情報抽出部134に出力するようになっている。   The image acquisition unit 61 acquires a video pattern projected onto the pointing object by the projection unit 63 by a user operation, and outputs the acquired video pattern to the position information extraction unit 134.

位置情報抽出部134は、画像取得部61により取得された映像パターンから指示対象物の位置情報を抽出し、抽出した指示対象物の位置情報を動作指示部62に出力するようになっている。
動作指示部62は、位置情報抽出部134により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
The position information extraction unit 134 extracts the position information of the pointing object from the video pattern acquired by the image acquisition unit 61, and outputs the extracted position information of the pointing object to the operation instruction unit 62.
The operation instruction unit 62 is configured to output to the robot body 1 the position information of the pointing object extracted by the position information extraction unit 134 and the operation with respect to the position information.

このように構成された位置特定装置102の作用について、主に図14を用いて以下に説明する。
映写装置63より、例えば、アノトパターン(登録商標)の映像パターンが、指示対象物を含む所定の領域に投影されている。
ここで、ユーザが指示対象物として対象物Bを選択した場合、ユーザの操作によって画像取得部61により対象物Bに投影された映像パターンの画像Rが取得される。
The operation of the position specifying device 102 configured as described above will be described below mainly using FIG.
From the projection device 63, for example, an Anoto pattern (registered trademark) video pattern is projected onto a predetermined area including the pointing object.
Here, if the user selects an object B as an instruction target, the image R B of image pattern projected onto the object B by the image acquisition unit 61 by the operation of the user is acquired.

次に、位置情報抽出部134により、対象物Bに投影された映像パターンの画像Rの位置情報、すなわち、図14においてテーブルの中央部の座標が抽出される。 Then, the position information extraction unit 134, the position information of the image R B of image pattern projected onto the object B, ie, the coordinates of the center portion of the table 14 are extracted.

このように指示対象物の位置情報が抽出され、動作指示部62によりロボット本体1に対して搬送指示等の動作指示が行われる。
なお、参考例1と同様に、複数の対象物の画像から算出した特徴量を画像DBに記憶させ、画像取得部61が映像パターンだけでなく対象物の画像をも取得することにより、指示対象物自体を特定することも可能となる。
In this way, the position information of the target object is extracted, and an operation instruction such as a conveyance instruction is given to the robot body 1 by the operation instruction unit 62.
As in Reference Example 1, the feature quantity calculated from the images of the plurality of objects is stored in the image DB, and the image acquisition unit 61 acquires not only the video pattern but also the image of the object, thereby It is also possible to specify the object itself.

以上説明したように、本実施形態に係る位置特定装置103によれば、画像取得部61により指示対象物に投影されたパターンを取得し、該パターンに基づいて指示対象物の位置情報を位置情報抽出部134により抽出することができる。これにより、指示対象物の位置情報を予め登録しておく必要がなく、任意の位置に置かれた指示対象物の位置情報を抽出することが可能となる。   As described above, according to the position specifying device 103 according to the present embodiment, a pattern projected on the pointing object is acquired by the image acquisition unit 61, and the position information of the pointing object is obtained based on the pattern as position information. It can be extracted by the extraction unit 134. Thereby, it is not necessary to register the position information of the pointing object in advance, and it is possible to extract the position information of the pointing object placed at an arbitrary position.

なお、本実施形態の変形例として、図15に示すように、映写装置63が位置に応じて色が異なる映像パターンを投影し、画像取得部61が該パターンを取得することとしてもよい。
このようにすることで、指示対象物に投影された色パターンに基づいて、指示対象物の位置情報を抽出することができる。
As a modification of the present embodiment, as shown in FIG. 15, the projection device 63 may project a video pattern having a different color depending on the position, and the image acquisition unit 61 may acquire the pattern.
By doing so, it is possible to extract the position information of the pointing object based on the color pattern projected onto the pointing object.

〔参考例2〕
次に、本発明の参考例2について、図16および図17を用いて説明する。
本参考例2のロボットシステムが前述の実施形態又は参考例と異なる点は、作業が行われる空間の画像に基づいて指示対象位置の位置情報を抽出する点である。以下、本参考例2のロボットシステムについて、前述の実施形態又は参考例と共通する点については説明を省略し、異なる点について主に説明する。
[Reference Example 2]
Next, Reference Example 2 of the present invention will be described with reference to FIGS. 16 and 17.
The robot system of the present reference example 2 is different from the above-described embodiment or reference example in that position information of the instruction target position is extracted based on an image of a space in which work is performed. Hereinafter, with respect to the robot system according to the second reference example, the description of the points common to the above-described embodiment or the reference example will be omitted, and different points will be mainly described.

図16に、指示対象位置の位置特定装置104が備える機能を展開して表した機能ブロック図を示す。
図16に示すように、位置特定装置104は、画像から算出した特徴量および位置情報を記憶する記憶部121と、指示対象位置の画像を取得する画像取得部51と、複数の画像から算出した特徴量の比較を行う比較部122と、指示対象位置を特定する指示対象位置特定部133と、指示対象位置の位置情報を抽出する位置情報抽出部124とを備えている。
FIG. 16 shows a functional block diagram in which the functions of the position specifying device 104 for specifying the target position are developed.
As illustrated in FIG. 16, the position specifying device 104 calculates a feature amount and position information calculated from an image, an image acquisition unit 51 that acquires an image of an instruction target position, and a plurality of images. A comparison unit 122 that compares feature amounts, an instruction target position specifying unit 133 that specifies an instruction target position, and a position information extraction unit 124 that extracts position information of the instruction target position are provided.

記憶部121は、壁、天井、床面等の作業が行われる空間の画像から算出した特徴量と、該空間の位置情報とを関連付けて記憶するようになっている。
画像取得部51は、ユーザの操作によって指示対象位置の画像を取得し、取得した指示対象位置の画像から算出した特徴量を比較部122に出力するようになっている。
The storage unit 121 stores a feature amount calculated from an image of a space in which work such as a wall, a ceiling, or a floor is performed, and positional information of the space in association with each other.
The image acquisition unit 51 acquires an image of the instruction target position by a user operation, and outputs a feature amount calculated from the acquired image of the instruction target position to the comparison unit 122.

比較部122は、記憶部121に記憶された作業が行われる空間の画像から算出した特徴量を読み出し、読み出した空間の画像から算出した特徴量と画像取得部51により取得された指示対象位置の画像から算出した特徴量との比較を行い、比較結果を指示対象位置特定部133に出力するようになっている。
指示対象位置特定部133は、比較部122による比較結果に基づいて指示対象位置に最も一致する空間を指示対象位置として特定し、特定した結果を位置情報抽出部に出力するようになっている。
The comparison unit 122 reads the feature amount calculated from the image of the space in which the work stored in the storage unit 121 is performed, and calculates the feature amount calculated from the image of the read space and the instruction target position acquired by the image acquisition unit 51. Comparison is made with the feature amount calculated from the image, and the comparison result is output to the instruction target position specifying unit 133.
The instruction target position specifying unit 133 specifies a space that most closely matches the instruction target position based on the comparison result by the comparison unit 122 as an instruction target position, and outputs the specified result to the position information extraction unit.

位置情報抽出部124は、指示対象位置特定部133により特定された指示対象位置に対応する空間の位置情報を記憶部121より読み出し、読み出した空間の位置情報を指示対象位置の位置情報として動作指示部52に出力するようになっている。
動作指示部52は、位置情報抽出部124により抽出された指示対象位置の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
The position information extraction unit 124 reads the position information of the space corresponding to the instruction target position specified by the instruction target position specifying unit 133 from the storage unit 121, and instructs the operation using the read position information of the space as the position information of the instruction target position. The data is output to the unit 52.
The operation instruction unit 52 outputs the position information of the instruction target position extracted by the position information extraction unit 124 and the operation with respect to the position information to the robot body 1.

このように構成された位置特定装置104の作用について、主に図17を用いて以下に説明する。
図17(a)に示すように、記憶部121には作業が行われる空間の壁面Aの画像Sから算出した特徴量、壁面Bの画像Sから算出した特徴量、および壁面Cの画像Sから算出した特徴量が、それぞれの位置情報と関連付けられて記憶されている。
The operation of the position specifying device 104 configured as described above will be described below mainly using FIG.
As shown in FIG. 17A, the storage unit 121 stores the feature amount calculated from the image S A of the wall surface A of the space in which the work is performed, the feature amount calculated from the image S B of the wall surface B, and the image of the wall surface C. feature amount calculated from S C have been stored in association with the respective position information.

ここで、図17(b)に示すように、ユーザが指示対象位置として、壁面Cの領域Xを選択した場合、ユーザの操作によって画像取得部51により指示対象位置の画像Tが取得される。
次に、比較部122により、画像取得部51により取得された指示対象位置の画像Tから算出した特徴量と記憶部121から読み出した壁面Aの画像Sから算出した特徴量、壁面Bの画像Sから算出した特徴量、および壁面Cの画像Sから算出した特徴量との比較が行われる。
Here, as illustrated in FIG. 17B, when the user selects the region X of the wall surface C as the instruction target position, the image acquisition unit 51 acquires the image T X of the instruction target position by the user's operation. .
Next, the comparison unit 122, feature amount calculated from image S A wall A read from the feature storage unit 121 calculated from the image T X of the obtained instruction target position by the image acquiring unit 51, the wall B feature amount calculated from image S B, and comparison between the feature amount calculated from image S C of the wall C is performed.

次に、比較部122による比較結果に基づいて、指示対象位置特定部133により画像Tに最も一致する画像として画像Sの中の領域Xが選択され、領域Xの位置が指示対象位置として特定される。
次に、位置情報抽出部124により、指示対象位置として特定された領域Xに関連付けられた位置情報、すなわち、図17(b)において壁面Cに配置された棚の最上段左側部の座標が、記憶部121より読み出される。
Then, based on the comparison result by the comparison unit 122, the area X in the image S C as an image that best matches the image T X is selected by the instruction target position specifying unit 133, the position of the region X is a referent position Identified.
Next, the position information associated with the region X specified as the instruction target position by the position information extraction unit 124, that is, the coordinates of the upper left portion of the shelf arranged on the wall surface C in FIG. Read from the storage unit 121.

このように記憶部121より読み出された領域Xの位置情報が、指示対象位置の位置情報として抽出され、動作指示部52によりロボット本体1に対して搬送指示等の動作指示が行われる。   Thus, the position information of the region X read from the storage unit 121 is extracted as the position information of the instruction target position, and the operation instruction unit 52 issues an operation instruction such as a conveyance instruction to the robot body 1.

以上説明したように、本参考例2に係る位置特定装置104によれば、壁面、または床面、あるいは天井面等の作業が行われる空間の画像から算出した特徴量および位置情報に基づいて、画像取得部51により取得された指示対象位置の位置情報を抽出することができる。
また、図17(c)に示すように、作業が行われる空間の画像内における窓等の大きさや歪みから、デバイスである動作指示装置70の位置や向いている方向を推定することが可能となる。
As described above, according to the position specifying device 104 according to the second reference example, based on the feature amount and the position information calculated from the image of the space where the work such as the wall surface, the floor surface, or the ceiling surface is performed, The position information of the instruction target position acquired by the image acquisition unit 51 can be extracted.
Further, as shown in FIG. 17C, it is possible to estimate the position and direction of the operation instruction device 70 that is a device from the size and distortion of a window or the like in the image of the space where the work is performed. Become.

〔第2の実施形態〕
次に、本発明の第2の実施形態について、図18から図22を用いて説明する。
本実施形態のロボットシステムが前述の実施形態又は参考例と異なる点は、所定の位置に配置された複数の撮像装置により撮影された作業が行われる空間の画像に基づいて、指示対象物の位置を特定する点である。以下、本実施形態のロボットシステムについて、前述の実施形態又は参考例と共通する点については説明を省略し、異なる点について主に説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS.
The robot system of this embodiment is different from the above-described embodiment or reference example in that the position of the pointing object is based on an image of a space in which work is performed by a plurality of imaging devices arranged at predetermined positions. It is a point to identify. Hereinafter, with respect to the robot system of the present embodiment, description of points common to the above-described embodiment or reference example will be omitted, and different points will be mainly described.

図18に示すように、本実施形態に係るロボットシステム300は、ロボット1と、ロボット1に対して動作を指示する動作指示装置70と、作業が行われる空間を撮影する複数の撮像装置73とを備えている。
撮像装置73は、例えば、作業が行われる空間の隅部の天井面に配置され、レンズおよびCCDを備えるカメラである。
As illustrated in FIG. 18, the robot system 300 according to the present embodiment includes a robot 1, an operation instruction device 70 that instructs the robot 1 to perform an operation, and a plurality of imaging devices 73 that capture a space in which work is performed. It has.
The imaging device 73 is, for example, a camera that is disposed on a ceiling surface at a corner of a space where work is performed and includes a lens and a CCD.

上記構成を有するロボットシステム300において、指示対象物の画像を画像取得部71により取得し、画像取得部71により取得された指示対象物の画像および撮像装置73により撮影された作業が行われる空間の画像に基づいて制御装置40により指示対象物の位置特定が行われる。以下では、この指示対象物の位置特定が、位置特定装置105により行われるとして説明する。   In the robot system 300 having the above-described configuration, the image of the pointing object is acquired by the image acquisition unit 71, and the image of the pointing object acquired by the image acquisition unit 71 and the space where the work photographed by the imaging device 73 is performed are performed. Based on the image, the position of the pointing object is specified by the control device 40. In the following description, it is assumed that the position of the pointing object is specified by the position specifying device 105.

図19に、指示対象物の位置特定装置105が備える機能を展開して表した機能ブロック図を示す。
図19に示すように、位置特定装置105は、指示対象物の画像を取得する画像取得部71と、複数の画像から算出した特徴量の比較を行う比較部122と、指示対象物を特定する指示対象物特定部123と、指示対象物の位置情報を抽出する位置情報抽出部144とを備えている。
FIG. 19 is a functional block diagram in which the functions of the pointing object position specifying device 105 are expanded and represented.
As illustrated in FIG. 19, the position specifying device 105 specifies an instruction target object, an image acquisition unit 71 that acquires an image of the target object, a comparison unit 122 that compares feature amounts calculated from a plurality of images, and the target object. The pointing object specifying unit 123 and a position information extracting unit 144 that extracts position information of the pointing object are provided.

画像取得部71は、ユーザの操作によって指示対象物の画像を取得し、取得した指示対象物の画像から算出した特徴量を比較部122に出力するようになっている。
比較部122は、撮像装置73により撮影された作業が行われる空間の画像から算出した特徴量と画像取得部71により取得された指示対象物の画像から算出した特徴量との比較を行い、比較結果を指示対象物特定部123に出力するようになっている。
The image acquisition unit 71 acquires an image of an instruction target object by a user operation, and outputs a feature amount calculated from the acquired image of the instruction target object to the comparison unit 122.
The comparison unit 122 compares the feature amount calculated from the image of the space where the work photographed by the imaging device 73 is performed with the feature amount calculated from the image of the pointing object acquired by the image acquisition unit 71, and compares The result is output to the instruction target specifying unit 123.

指示対象物特定部123は、比較部122による比較結果に基づいて指示対象物に最も一致する対象物を指示対象物として特定し、特定した結果を位置情報抽出部144に出力するようになっている。   The indication target specifying unit 123 specifies the target that most closely matches the indication target based on the comparison result by the comparison unit 122, and outputs the specified result to the position information extraction unit 144. Yes.

位置情報抽出部144は、撮像装置73の位置関係と撮像装置73により撮影された作業が行われる空間の画像内における指示対象物の位置とに基づいて、指示対象物の位置情報を抽出し、抽出した指示対象物の位置情報を動作指示部72に出力するようになっている。
動作指示部72は、位置情報抽出部144により抽出された指示対象物の位置情報および該位置情報に対する動作をロボット本体1に出力するようになっている。
The position information extraction unit 144 extracts the position information of the pointing object based on the positional relationship of the imaging device 73 and the position of the pointing object in the image of the space where the work photographed by the imaging device 73 is performed, The extracted position information of the instruction target is output to the operation instruction unit 72.
The operation instruction unit 72 is configured to output to the robot body 1 the position information of the pointing object extracted by the position information extraction unit 144 and the operation with respect to the position information.

このように構成された位置特定装置105の作用について、主に図20を用いて以下に説明する。
撮像装置73(a)および撮像装置73(b)により、作業が行われる空間が撮影されている。撮像装置73(a)により撮影された画像が画像U、撮像装置73(b)により撮影された画像が画像Uである。
The operation of the position specifying device 105 configured as described above will be described below mainly using FIG.
A space in which work is performed is photographed by the imaging device 73 (a) and the imaging device 73 (b). An image taken by the imaging device 73 (a) is an image U A , and an image taken by the imaging device 73 (b) is an image U B.

ここで、ユーザが指示対象物として対象物Dを選択した場合、ユーザの操作によって画像取得部71により指示対象物の画像Vが取得される。
次に、比較部122により、画像取得部71により取得された指示対象物の画像Vから算出した特徴量と、撮像装置73(a)により撮影された画像Uから算出した特徴量および撮像装置73(b)により撮影された画像Uから算出した特徴量との比較が行われる。
Here, when the user selects the object D as the instruction object, the image acquisition unit 71 acquires the image V of the instruction object by the user's operation.
Next, the feature amount calculated from the image V of the pointing object acquired by the image acquisition unit 71 by the comparison unit 122, the feature amount calculated from the image U A taken by the imaging device 73 (a), and the imaging device comparison of the feature amount calculated from the photographed image U B is performed by 73 (b).

次に、比較部122による比較結果に基づいて、指示対象物特定部123により画像Vに一致する画像として、画像Uの中の領域Yおよび画像Uの中の領域Zが選択され、領域Yおよび領域Zに対応する対象物が指示対象物として特定される。 Then, based on the comparison result by the comparison unit 122, as an image that matches the image V by an instruction object identification unit 123, the region Y and the image U region Z in the B in the image U A is selected, the area The objects corresponding to Y and the area Z are specified as the pointing objects.

次に、位置情報抽出部144により、撮像装置73(a)と撮像装置73(b)との位置関係と、画像Uおよび画像Uにおける指示対象物の位置とに基づいて、指示対象物の位置情報が抽出される。この際、指示対象物の位置情報は、例えば、Richard Hartley and Andrew Zisserman(2003).Multiple View Geometry in computer vision.Cambridge University Press.ISBN 0-521-54051-8.に示される公知のエピポーラ幾何を用いた算出方法により推定することができる。 Next, based on the positional relationship between the imaging device 73 (a) and the imaging device 73 (b) and the position of the pointing object in the images U A and U B , the position information extraction unit 144 performs the pointing object. Is extracted. At this time, the position information of the pointing object is, for example, Richard Hartley and Andrew Zisserman (2003). Multiple View Geometry in computer vision. Cambridge University Press. ISBN 0-521-54051-8. It can be estimated by a calculation method using a known epipolar geometry shown in FIG.

以上説明したように、本実施形態に係る位置特定装置105によれば、撮像装置73(a)と73(b)との位置関係と、撮像装置73(a)および撮像装置73(b)により撮影された作業が行われる空間の画像とに基づいて、画像取得部71により取得された指示対象物の位置情報が位置情報抽出部144により抽出される。このように、複数の撮像装置により指示対象物の位置情報を抽出することで、指示対象物の位置情報を予め登録しておく必要がなく、任意の位置に置かれた指示対象物の位置を特定することが可能となる。   As described above, according to the position specifying device 105 according to the present embodiment, the positional relationship between the imaging devices 73 (a) and 73 (b) and the imaging device 73 (a) and the imaging device 73 (b). The position information extraction unit 144 extracts the position information of the pointing object acquired by the image acquisition unit 71 based on the image of the space in which the photographed work is performed. In this way, by extracting the position information of the pointing object by using a plurality of imaging devices, it is not necessary to register the position information of the pointing object in advance, and the position of the pointing object placed at an arbitrary position can be determined. It becomes possible to specify.

なお、本実施形態の第1の変形例として、図21に示すように、画像DBに指示対象物の画像から算出した特徴量を予め登録しておき、比較部122が、画像取得部71により取得された指示対象物の画像から算出した特徴量と撮像装置73(a)および撮像装置73(b)により撮影された作業が行われる空間の画像から算出した特徴量とを、画像DBの登録画像から算出した特徴量を介して間接比較を行い、指示対象物特定部123が、比較部122による間接比較結果に基づいて指示対象物を特定することとしてもよい。   As a first modification of the present embodiment, as shown in FIG. 21, the feature amount calculated from the image of the pointing object is registered in advance in the image DB, and the comparison unit 122 is used by the image acquisition unit 71. The feature amount calculated from the acquired image of the pointing object and the feature amount calculated from the image of the space where the work photographed by the imaging device 73 (a) and the imaging device 73 (b) is performed are registered in the image DB. The indirect comparison may be performed via the feature amount calculated from the image, and the indication target specifying unit 123 may specify the indication target based on the indirect comparison result by the comparison unit 122.

撮像装置73(a)と撮像装置73(b)と画像取得部71とでは指示対象物を撮影する角度や位置が異なるため、各画像における指示対象物の歪み等が異なり、各画像から指示対象物を特定することが困難な場合がある。これに対し、予め画像DBに登録された指示対象物の画像を介して間接比較を行うことで、指示対象物を特定する際の精度を向上させることができる。   Since the imaging device 73 (a), the imaging device 73 (b), and the image acquisition unit 71 have different angles and positions for shooting the pointing object, the distortion and the like of the pointing object in each image are different, and the pointing object is different from each image. It may be difficult to identify things. On the other hand, by performing an indirect comparison via the image of the pointing object registered in advance in the image DB, it is possible to improve the accuracy when specifying the pointing object.

また、本実施形態の第2の変形例として、図22に示すように、画像DBに予め登録する指示対象物の画像から算出した特徴量を、複数の角度から撮影した指示対象物の画像から算出した特徴量としてもよい。
指示対象物が立体形状を有する場合には、撮影する角度や位置によって指示対象物の見え方が異なる。これに対し、指示対象物の登録画像として、複数の角度から撮影した指示対象物の画像とすることで、指示対象物を特定する際の精度を向上させることができる。
Further, as a second modification of the present embodiment, as shown in FIG. 22, the feature amount calculated from the image of the pointing object registered in advance in the image DB is obtained from the image of the pointing object captured from a plurality of angles. It may be a calculated feature amount.
When the pointing object has a three-dimensional shape, how the pointing object looks is different depending on the shooting angle and position. On the other hand, the accuracy of specifying the pointing object can be improved by using the pointing object image taken from a plurality of angles as the registered image of the pointing object.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

1 ロボット本体
40 制御装置
50,60,70 動作指示装置
51,61,71 画像取得部
52,62,72 動作指示部
54 画像コード取得部
55 レーザ照射部
56 距離測定部
57 表示部
58 タッチパネル
63 映写装置
73,73(a),72(b) 撮像装置
100,200,300 ロボットシステム
101,103,104,105 位置特定装置
121 記憶部
122 比較部
123 指示対象物特定部
124,134,144 位置情報抽出部
133 指示対象位置特定部
DESCRIPTION OF SYMBOLS 1 Robot main body 40 Control apparatus 50, 60, 70 Operation instruction apparatus 51, 61, 71 Image acquisition part 52, 62, 72 Operation instruction part 54 Image code acquisition part 55 Laser irradiation part 56 Distance measurement part 57 Display part 58 Touch panel 63 Projection Device 73, 73 (a), 72 (b) Imaging device 100, 200, 300 Robot system 101, 103, 104, 105 Position specifying device 121 Storage unit 122 Comparison unit 123 Pointed object specifying unit 124, 134, 144 Position information Extraction unit 133 Instruction target position specifying unit

Claims (13)

位置に応じて異なるパターンを有する映像パターンを、作業空間における指示対象物を含む所定の領域に投影し、該映像パターンに基づいて該指示対象物の位置を特定する位置特定装置であって、
ユーザの操作によって、前記作業空間における前記指示対象物に投影された前記パターンを取得する画像取得部と、
該画像取得部により取得された前記パターンから前記指示対象物の位置情報である座標を抽出する位置情報抽出部と
を備え、
特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。
A position specifying device that projects a video pattern having a different pattern according to a position onto a predetermined area including a pointing object in a work space, and specifies the position of the pointing object based on the video pattern,
An image acquisition unit that acquires the pattern projected on the pointing object in the work space by a user operation;
A position information extraction unit that extracts coordinates that are position information of the pointing object from the pattern acquired by the image acquisition unit;
Used for a self-propelled robot that autonomously moves in the work space that performs an operation on the specified object based on an operation instruction for the specified object based on the positional information of the specified specified object Positioning device.
前記映像パターンは、複数のドットを有しており、該ドットの配置が位置に応じて異なる請求項1に記載の位置特定装置。   The position specifying device according to claim 1, wherein the video pattern has a plurality of dots, and the arrangement of the dots varies depending on the position. 前記映像パターンは、複数の色分けされた領域を有しており、位置に応じて色が異なる請求項1に記載の位置特定装置。   The position specifying device according to claim 1, wherein the video pattern has a plurality of color-coded regions, and the colors differ depending on the position. 所定の位置に配置された複数の撮像装置により撮影された作業空間の複数の画像に基づいて、前記作業空間における指示対象物の位置を特定する位置特定装置であって、
ユーザの操作によって、作業空間における前記指示対象物の画像を取得する画像取得部と、
該画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記撮像装置により撮影された前記作業空間の複数の画像から算出した特徴量との比較を行う比較部と、
該比較部による比較結果に基づいて前記指示対象物を特定する指示対象物特定部と、
複数の前記撮像装置の位置関係と各前記撮像装置により撮影された前記作業空間の画像内における前記指示対象物の位置とに基づいて、前記指示対象物の位置情報である座標を抽出する位置情報抽出部と
を備え、
特定された前記指示対象物の位置情報に基づいた前記指示対象物に対する動作指示に基づいて、前記指示対象物に対する動作を実行する、前記作業空間を自律的に移動する自走式ロボットに用いられる位置特定装置。
A position specifying device for specifying the position of an instruction target in the work space based on a plurality of images of the work space taken by a plurality of image pickup devices arranged at a predetermined position,
An image acquisition unit that acquires an image of the pointing object in the work space by a user operation;
A comparison unit that compares the feature amount calculated from the image of the pointing object acquired by the image acquisition unit with the feature amount calculated from a plurality of images of the work space photographed by the imaging device;
An instruction object specifying unit for specifying the instruction object based on a comparison result by the comparison unit;
Position information for extracting coordinates, which are position information of the pointing object, based on the positional relationship of the plurality of imaging devices and the position of the pointing object in the image of the work space photographed by each of the imaging devices An extraction unit,
Used for a self-propelled robot that autonomously moves in the work space that performs an operation on the specified object based on an operation instruction for the specified object based on the positional information of the specified specified object Positioning device.
前記比較部が、前記画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記撮像装置により撮影された前記空間の画像から算出した特徴量との直接比較を行い、
前記指示対象物特定部が、前記比較部による直接比較結果に基づいて前記指示対象物を特定する請求項4に記載の位置特定装置。
The comparison unit performs a direct comparison between the feature amount calculated from the image of the pointing object acquired by the image acquisition unit and the feature amount calculated from the image of the space photographed by the imaging device,
The position specifying device according to claim 4, wherein the pointing object specifying unit specifies the pointing object based on a direct comparison result by the comparing unit.
前記比較部が、前記画像取得部により取得された前記指示対象物の画像から算出した特徴量と前記撮像装置により撮影された前記空間の画像から算出した特徴量とを、予め登録された前記指示対象物の登録画像から算出した特徴量を介して間接比較を行い、
前記指示対象物特定部が、前記比較部による間接比較結果に基づいて前記指示対象物を特定する請求項5に記載の位置特定装置。
The instruction that is registered in advance with the feature amount calculated from the image of the pointing object acquired by the image acquisition unit and the feature amount calculated from the image of the space photographed by the imaging device by the comparison unit. Perform an indirect comparison via the feature value calculated from the registered image of the object,
The position specifying device according to claim 5, wherein the specified object specifying unit specifies the specified object based on an indirect comparison result by the comparing unit.
前記指示対象物の登録画像が、複数の角度から撮影した前記指示対象物の画像である請求項6に記載の位置特定装置。   The position specifying device according to claim 6, wherein the registered image of the pointing object is an image of the pointing object taken from a plurality of angles. 前記画像取得部の撮影方向にレーザを照射するレーザ照射部を備える請求項1から請求項7のいずれかに記載の位置特定装置。   The position specifying device according to any one of claims 1 to 7, further comprising a laser irradiation unit that irradiates a laser in a photographing direction of the image acquisition unit. 前記画像取得部が取得した画像を表示する表示部を備える請求項1から請求項8のいずれかに記載の位置特定装置。   The position specifying device according to claim 1, further comprising a display unit that displays an image acquired by the image acquisition unit. 前記表示部が、前記指示対象物の候補が複数ある場合に、各前記候補を表示し、表示された各前記候補の中から前記指示対象物の選択をユーザに促す請求項9に記載の位置特定装置。   The position according to claim 9, wherein the display unit displays each of the candidates when there are a plurality of candidates for the pointing object, and prompts the user to select the pointing object from the displayed candidates. Specific device. 前記指示対象物までの距離を測定する距離測定部を備え、
前記指示対象物特定部が、前記距離測定部により測定された距離をも用いて前記指示対象物を特定する請求項1から請求項10のいずれかに記載の位置特定装置。
A distance measuring unit for measuring the distance to the pointing object;
The position specifying device according to any one of claims 1 to 10, wherein the pointing target specifying unit specifies the pointing target using also the distance measured by the distance measuring unit.
請求項1から請求項11のいずれかに記載の位置特定装置により特定された前記指示対象物の位置情報に基づいて、前記指示対象物に対する動作指示を行う動作指示部を備える動作指示装置。   An operation instruction device comprising an operation instruction unit that issues an operation instruction to the pointing object based on position information of the pointing object specified by the position specifying device according to any one of claims 1 to 11. 請求項12に記載の動作指示装置による指示に基づいて前記指示対象物に対する動作を実行する自走式ロボット。   A self-propelled robot that performs an operation on the specified object based on an instruction from the operation instruction device according to claim 12.
JP2012083987A 2012-04-02 2012-04-02 POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT Active JP5536131B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012083987A JP5536131B2 (en) 2012-04-02 2012-04-02 POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012083987A JP5536131B2 (en) 2012-04-02 2012-04-02 POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007301424A Division JP5221939B2 (en) 2007-11-21 2007-11-21 POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT

Publications (2)

Publication Number Publication Date
JP2012198898A true JP2012198898A (en) 2012-10-18
JP5536131B2 JP5536131B2 (en) 2014-07-02

Family

ID=47180998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012083987A Active JP5536131B2 (en) 2012-04-02 2012-04-02 POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT

Country Status (1)

Country Link
JP (1) JP5536131B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014091611A1 (en) * 2012-12-13 2014-06-19 株式会社日立製作所 Autonomous travelling apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6317735A (en) * 1986-07-07 1988-01-25 Okura Yusoki Co Ltd Takeout device
JP2004322298A (en) * 2003-04-30 2004-11-18 Matsushita Electric Ind Co Ltd Teaching method and teaching device of robot
JP2005179433A (en) * 2003-12-17 2005-07-07 Hitachi Maxell Ltd Writing medium for information input device
JP2006015433A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Robot for merchandise explanation
JP2006023831A (en) * 2004-07-06 2006-01-26 Nippon Telegr & Teleph Corp <Ntt> Mobile object detection method and system
JP2006231447A (en) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP2006285566A (en) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International Knowledge sharing system in medical work

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6317735A (en) * 1986-07-07 1988-01-25 Okura Yusoki Co Ltd Takeout device
JP2004322298A (en) * 2003-04-30 2004-11-18 Matsushita Electric Ind Co Ltd Teaching method and teaching device of robot
JP2005179433A (en) * 2003-12-17 2005-07-07 Hitachi Maxell Ltd Writing medium for information input device
JP2006015433A (en) * 2004-06-30 2006-01-19 Honda Motor Co Ltd Robot for merchandise explanation
JP2006023831A (en) * 2004-07-06 2006-01-26 Nippon Telegr & Teleph Corp <Ntt> Mobile object detection method and system
JP2006231447A (en) * 2005-02-23 2006-09-07 Mitsubishi Heavy Ind Ltd Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP2006285566A (en) * 2005-03-31 2006-10-19 Advanced Telecommunication Research Institute International Knowledge sharing system in medical work

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014091611A1 (en) * 2012-12-13 2014-06-19 株式会社日立製作所 Autonomous travelling apparatus
JP5891314B2 (en) * 2012-12-13 2016-03-22 株式会社日立製作所 Autonomous traveling device

Also Published As

Publication number Publication date
JP5536131B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
JP5221939B2 (en) POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT
CN108885459B (en) Navigation method, navigation system, mobile control system and mobile robot
KR100328648B1 (en) Hand Pointing Device
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
KR102183012B1 (en) Mobile device, robot cleaner and method for controlling the same
US9898651B2 (en) Upper-body skeleton extraction from depth maps
Ceriani et al. Rawseeds ground truth collection systems for indoor self-localization and mapping
JP3879848B2 (en) Autonomous mobile device
KR102457222B1 (en) Mobile robot and method thereof
Tölgyessy et al. Foundations of visual linear human–robot interaction via pointing gesture navigation
US20150262002A1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US9008442B2 (en) Information processing apparatus, information processing method, and computer program
KR20080029548A (en) System and method of moving device control based on real environment image
JP6562437B1 (en) Monitoring device and monitoring method
JP6771996B2 (en) Systems and methods for real-time interactive operation of the user interface
JP2005315746A (en) Own position identifying method, and device therefor
US9107613B2 (en) Handheld scanning device
JP6919882B2 (en) Person estimation system and estimation program
WO2018175914A9 (en) Robot localization in a workspace via detection of a datum
JP5536131B2 (en) POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT
CN107538485B (en) Robot guiding method and system
JP2011212764A (en) Remote operation system for robot
KR20140053712A (en) The localization method for indoor mobile robots by sensor fusion
KR20120108277A (en) Method for localizing intelligent mobile robot by using both natural landmark and artificial landmark
KR20120108276A (en) Method for localizing intelligent mobile robot by using a lateral landmark

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140423

R151 Written notification of patent or utility model registration

Ref document number: 5536131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250