JP5213183B2 - Robot control system and robot control program - Google Patents
Robot control system and robot control program Download PDFInfo
- Publication number
- JP5213183B2 JP5213183B2 JP2009165668A JP2009165668A JP5213183B2 JP 5213183 B2 JP5213183 B2 JP 5213183B2 JP 2009165668 A JP2009165668 A JP 2009165668A JP 2009165668 A JP2009165668 A JP 2009165668A JP 5213183 B2 JP5213183 B2 JP 5213183B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- robot
- transport
- robot control
- conveyance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 120
- 230000008569 process Effects 0.000 claims description 114
- 238000012546 transfer Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 26
- 238000003709 image segmentation Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 230000032258 transport Effects 0.000 description 88
- 239000003550 marker Substances 0.000 description 15
- 230000004044 response Effects 0.000 description 14
- 239000011159 matrix material Substances 0.000 description 10
- 230000009466 transformation Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
本発明は、物体の搬送作業を実行可能なロボットを制御するためのロボット制御システムとロボット制御プログラムとに関する。 The present invention relates to a robot control system and a robot control program for controlling a robot capable of performing an object transfer operation.
近年、掃除やモップがけを行える家事支援ロボット(例えば、特許文献1参照。)が、一般家庭で使用されるようになってきている。また、物体を持ち運ぶことが出来るロボットも開発されているため、一般家庭で使用するための、物体の搬送作業が行えるロボットが開発される日も近いと考えられる。 In recent years, housework support robots (see, for example, Patent Document 1) capable of cleaning and moping have come to be used in ordinary homes. In addition, since a robot that can carry an object has been developed, it is considered that the day when a robot capable of carrying an object for use in a general home will be developed.
そこで、本発明の課題は、物体の搬送作業を行えるロボットを好適に制御できるロボット制御システムと、それを用いることにより、そのようなロボット制御システムを実現(構築)できるロボット制御プログラムとを、提供することにある。 Accordingly, the object of the present invention is to provide a robot control system that can suitably control a robot that can carry objects and a robot control program that can realize (construct) such a robot control system by using the robot control system. There is to do.
上記課題を解決するために、本発明のロボット制御システムは、物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間についての画像データを繰り返し生成する撮影手段と、前記撮影手段が生成する各画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、前記撮影手段が生成する画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、前記ユーザインタフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段とを備える。 In order to solve the above-described problems, a robot control system according to the present invention includes an imaging unit that repeatedly generates image data of a robot use space that is a space for functioning a robot capable of performing an object transfer operation, and the imaging unit includes: Based on each image data to be generated, a display means for displaying an image showing the current state of the robot usage space on the screen, and an image segmentation process is performed on the image data generated by the photographing means, whereby the image data Segmentation means for dividing the image shown in FIG. 2 into a plurality of segments, and user interface means for allowing the user to specify a transport object that is an object to be transported by the robot, Processing by the segmentation means when a specified range specification operation is performed By using the results, an image composed of a segment group in which a portion of a predetermined ratio or more is included in the range specified by the range specifying operation from the images displayed on the screen is used as the transport object image. User interface means for performing a search process and determining that an object whose image at that time is the conveyance object image is designated as the conveyance object; and the conveyance object searched by the user interface means Robot control means for causing the robot to carry out the carrying work on the carrying object using an image.
すなわち、本発明のロボット制御システムは、撮影手段からの画像データに基づき、画面上に、ロボット利用空間の現状を示す画像(以下、カメラ画像と表記する)を表示する
システムであると共に、カメラ画像が表示されている画面上の或る範囲をユーザが指定すると、カメラ画像に対する画像セグメンテーション処理結果を利用して、カメラ画像中の、ユーザが指定した範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を、搬送対象物画像(ユーザが搬送対象物として指定した物体の現時点における画像)として探索するシステムとなっている。
That is, the robot control system of the present invention is a system that displays an image showing the current state of the robot use space (hereinafter referred to as a camera image) on the screen based on the image data from the photographing means, and also the camera image. When the user designates a certain range on the screen on which is displayed, the image segmentation processing result for the camera image is used, and a portion of the camera image includes a portion of a predetermined ratio or more within the range designated by the user. This is a system that searches for an image composed of a group of segments as a transport object image (an image at the current time of an object designated by the user as a transport object).
従って、このロボット制御システムでは、他の物体と重ならない形で画面上に表示されている物体をユーザが搬送対象物として指定した場合、他の物体と重なった形で画面上に表示されている物体をユーザが搬送対象物として指定した場合のいずれの場合にも、搬送対象物画像が正確に探索(特定)されることになる。 Therefore, in this robot control system, when the user designates an object displayed on the screen in a form that does not overlap with another object as a transport object, the object is displayed on the screen in a form that overlaps with another object. In any case where the user designates the object as the transport object, the transport object image is accurately searched (specified).
そして、搬送対象物画像を正確に探索できれば、その搬送対象物画像に基づき、搬送対象物の搬送作業をロボットに行わせるために必要な情報(搬送対象物の現在位置に関する情報)を得ることが出来るのであるから、本発明のロボット制御システムによれば、物体の搬送作業を行えるロボットを好適に制御できることになる。 If the transport object image can be accurately searched, information (information on the current position of the transport object) necessary for causing the robot to perform the transport operation of the transport object can be obtained based on the transport object image. Therefore, according to the robot control system of the present invention, it is possible to suitably control a robot capable of carrying an object.
本発明のロボット制御システムを実現するに際しては、ロボット制御手段として、『前記セグメンテーション手段による処理結果を利用して前記画面上に表示されている画像内に含まれている幾つかの連続したセグメントからなる複数個の比較対照画像を特定し、特定した複数個の比較対照画像の中から前記搬送対象物画像と最も類似した比較対照画像を探索し、探索した比較対照画像の前記画面上での位置から、前記ロボットの制御に用いる、前記ロボット利用空間内での前記搬送対象物の現在位置情報を算出する手段』を採用しておくことが出来る。なお、そのようなロボット制御手段を採用しておけば、搬送対象物の現在位置(現在位置情報)を特に正確に把握できる(搬送対象物を見失う可能性がより低い)ロボット制御システムを実現できることになる。 In realizing the robot control system of the present invention, as the robot control means, “from several continuous segments included in the image displayed on the screen using the processing result by the segmentation means”. A plurality of comparison control images are specified, a comparison control image most similar to the transport object image is searched from the specified plurality of comparison control images, and the position of the searched comparison control image on the screen From the above, “means for calculating current position information of the object to be transported in the robot use space” used for controlling the robot can be employed. If such a robot control means is adopted, a robot control system capable of accurately grasping the current position (current position information) of the object to be transported (less likely to lose the object to be transported) can be realized. become.
本発明のロボット制御システムは、搬送対象物の搬送場所(搬送先)を予め指定/設定しておくタイプのシステムとして実現することも、搬送作業毎に、搬送対象物の搬送場所を指定するタイプのシステム(『前記ユーザインターフェース手段が、前記搬送対象物と、前記搬送対象物を搬送すべき場所である搬送場所とを、ユーザに指定させる手段であり、前記ロボット制御手段が、前記搬送対象物画像を利用して、前記搬送対象物を前記搬送場所まで搬送する搬送作業を前記ロボットに行わせる手段である』システム)として実現することも可能なものである。 The robot control system of the present invention can be realized as a type of system in which the transfer location (transfer destination) of the transfer object is designated / set in advance, or the transfer control location of the transfer object is specified for each transfer operation. System (“the user interface means is means for allowing the user to specify the transport object and a transport location where the transport object is to be transported, and the robot control means It is also possible to realize a system that is a means for causing the robot to perform a transport operation for transporting the transport object to the transport location using an image.
本発明のロボット制御システムを、後者のタイプのものとして実現する場合には、ユーザインターフェース手段として、『前記搬送対象物画像を探索した後、ドラッグアンドドロップ操作が可能な搬送場所指定用アイコンを前記画面上に表示し、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作がなされたときに、その搬送場所指定用アイコンのドロップ位置に対応する前記ロボット利用空間内の場所が前記搬送場所として指定されたと判断する手段』を採用しておくことが出来る。また、ユーザインターフェース手段として、『前記搬送対象物画像をアイコン化したものを前記搬送場所指定用アイコンとして表示する手段』を採用しておくことも出来る。 When the robot control system according to the present invention is realized as the latter type, as a user interface means, “a transport location designation icon that allows a drag-and-drop operation after searching for the transport object image is displayed. When a drag-and-drop operation is performed on the transfer location designation icon displayed on the screen, a location in the robot use space corresponding to the drop position of the transfer location designation icon is designated as the transfer location. "Means to judge" can be adopted. Further, as means for user interface, “means for displaying an icon of the transport object image as the transport location designation icon” may be employed.
さらに、“他の物体の画像と重なっていない位置に搬送場所指定用アイコンをドロップしたにも拘わらず、指定した搬送場所に、搬送対象物を配置可能な余地がない”といったようなことが生じないようにするために、ユーザインターフェース手段として、『前記搬送場所指定用アイコンのドラッグアンドドロップ操作中に、前記搬送場所指定用アイコンのサイズを、前記搬送場所指定用アイコンの表示位置に対応する前記ロボット利用空間内の位置に前記搬送対象物が存在していた場合における前記搬送対象物の画像のサイズに変更するサイズ変更機能を有する手段』を採用しておくことも出来る。 In addition, there is a case where “there is no room for placing the object to be transported at the designated transport location even though the transport location designation icon is dropped at a position not overlapping with the image of another object”. In order to avoid such a situation, as a user interface means, “during the drag-and-drop operation of the transport location designation icon, the size of the transport location designation icon corresponds to the display position of the transport location designation icon. Means having a size changing function for changing the size of the image of the conveyance object when the conveyance object is present at a position in the robot use space may be employed.
また、搬送場所指定用アイコンのドラッグアンドドロップ操作中に、ユーザが、搬送場所指定用アイコンのサイズの微妙な変化に起因する違和感を感じないようにするために、ユーザインターフェース手段として、上記サイズ変更機能を有する手段であると共に、『前記撮影手段の前記ロボット利用空間に対する姿勢に応じて、前記サイズ変更機能をON/OFFする手段』を採用しておくことも出来る。 In addition, in order to prevent the user from feeling uncomfortable due to a subtle change in the size of the transport location designation icon during the drag-and-drop operation of the transport location designation icon, the above size change is performed as a user interface means. In addition to means having a function, "means for turning on / off the size changing function according to the posture of the photographing means with respect to the robot use space" may be employed.
また、セットアップ作業な容易なシステムとするために、本発明のロボット制御システムを、『前記ロボットの特定の部分の形状を示す形状情報と前記撮影手段が生成した画像データとに基づき、当該画像データが示している画像中の各画素の位置から、各画素に対応する、前記ロボット利用空間内の位置についての、前記ロボットの走行面に平行な座標面を有する座標系座標を求めるための変換情報を算出する変換情報算出手段を、さらに、備え、前記ロボット制御手段が、前記変換情報算出手段により算出された変換情報を利用して前記撮影手段が生成する画像データを解析することによって、前記ロボットの制御に用いる、前記ロボット利用空間内での前記ロボットの現在位置情報と前記搬送対象物の現在位置情報とを算出する手段である』システムとして実現しておくことも出来る。 Further, in order to make the system easy to set up, the robot control system according to the present invention is changed to “the image data based on the shape information indicating the shape of the specific part of the robot and the image data generated by the photographing means”. Conversion information for obtaining a coordinate system coordinate having a coordinate plane parallel to the traveling surface of the robot, corresponding to each pixel, in the robot use space, from the position of each pixel in the image indicated by Conversion information calculating means for calculating the image information, and the robot control means analyzes the image data generated by the photographing means using the conversion information calculated by the conversion information calculation means, whereby the robot Means for calculating the current position information of the robot and the current position information of the object to be transported in the robot use space. That "it is also possible to be realized as a system.
そして、本発明のロボット制御プログラムは、コンピュータを、物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間に向けられたデジタルカメラからの画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、前記デジタルカメラからの画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、前記ユーザインタフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段とを備える装置として機能させることが出来るものとなっている。 Then, the robot control program of the present invention uses the computer to display the robot on the screen based on image data from a digital camera directed to a robot use space that is a space for functioning a robot capable of carrying an object. Display means for displaying an image showing the current state of the use space, and segmentation means for dividing the image indicated by the image data into a plurality of segments by performing image segmentation processing on the image data from the digital camera. User interface means for allowing a user to designate a transport object that is an object to be transported by the robot, and when a range designation operation for designating a certain range on the screen is performed, by the segmentation means It is displayed on the screen using the processing result. From the image, a process of searching for an image composed of a segment group including a portion of a predetermined ratio or more within the range specified by the range specifying operation is performed as a transport target image, and the image at that time is the transport target User interface means for determining that an object that is an object image has been designated as the transport object, and transport work for the transport object using the transport object image searched by the user interface means. The apparatus can be made to function as an apparatus including a robot control means to be performed by the robot.
従って、このロボット制御プログラムを用いれば、物体の搬送作業を行えるロボットを好適に制御できるロボット制御システム(請求項1記載のロボット制御システムに相当するシステム)を実現できることになる。 Therefore, by using this robot control program, it is possible to realize a robot control system (a system corresponding to the robot control system according to claim 1) capable of suitably controlling a robot capable of carrying an object.
本発明によれば、物体の搬送作業を行えるロボットを好適に制御できるロボット制御システムと、それを用いることにより、そのようなロボット制御システムを実現(構築)できるロボット制御プログラムとを、提供することが出来る。 According to the present invention, there is provided a robot control system that can suitably control a robot that can carry an object, and a robot control program that can realize (construct) such a robot control system by using the robot control system. I can do it.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
《第1実施形態》
まず、図1及び図2を用いて、本発明の第1実施形態に係るロボット制御システム10の概要を説明する。
<< First Embodiment >>
First, the outline of the
図1に示してあるように、本実施形態に係るロボット制御システム10は、ロボット15と、制御装置11と、当該制御装置11にケーブルにて接続されたカメラ12及びタッチスクリーンディスプレイ13とを、備えている。
As shown in FIG. 1, the
このロボット制御システム10が備えるロボット15は、ロボットプラットフォームとして市販されているiRobot Create(iRobot Corporationの商標)を、Bluetooth(Bluetooth-SIG Inc.の商標)による無線制御が可能なように改造したロボットである。
The
図2に示したように、このロボット15の上面中央部には、回転対称性を有さない形状のマーカー図形が描画されている板状のロボットマーカーが、その上下方向(図における上下方向)とロボット15の前後方向(図における上下方向)とが一致し、かつ、その板面とロボット15の走行面(ロボット15に物体の搬送作業を行わせる部屋の床面;以下、ロボット走行面と表記する)とが平行になる姿勢で、取り付けられている。
As shown in FIG. 2, at the center of the upper surface of the
カメラ12(図1)は、被写体(撮影対象)についての画像データ(カラー画像データ)を周期的に出力可能な装置(PCカメラ、Webカメラ等と称されている装置)である。本ロボット制御システム10のセットアップ時には、このカメラ12を、ロボット15に物体の搬送作業を行わせる部屋の天井近傍の箇所に当該部屋の床の様子/状況を斜め上方から撮影できる姿勢で固定する作業が、行われる。なお、本実施形態において、“物体の搬送作業”とは、“床上の物体を押す(床上の物体と接した状態で床上を物体方向に移動する)ことにより当該物体の床上での位置を変更する作業”のことである。
The camera 12 (FIG. 1) is a device (a device called a PC camera, a Web camera, or the like) that can periodically output image data (color image data) about a subject (photographing target). At the time of setting up the
タッチスクリーンディスプレイ13は、指で操作可能なタッチスクリーン14を備えた表示装置(コンピュータの周辺機器として市販されているディスプレイ)である。このタッチスクリーンディスプレイ13は、スピーカーを内蔵したものとなっている。
The
制御装置11は、カメラ12、タッチスクリーンディスプレイ13及びロボット15を統合的に制御することにより、ロボット制御システム10を、『タッチスクリーン14に対する操作により、ユーザが、所望の“物体の搬送作業”をロボット15に行わせることが出来るシステム』として機能させる装置である。
The
この制御装置11は、Bluetoothによる通信機能等を有するコンピュータに、本システ
ム用のものとして用意したプログラムであるロボット制御プログラムや、上記したマーカー図形の形状(各部のサイズや上下方向)を示すマーカー図形情報を、可搬型記録媒体(図示略)からインストールしたものとなっている。
The
次に、ロボット制御システム10の動作を、説明する。
Next, the operation of the
なお、以下の説明では、ロボット15に物体の搬送作業を行わせる部屋ことを、ロボット利用空間と表記し、カメラ12のレンズの光軸と一致するZ軸、カメラ12の上下方向、左右方向とそれぞれ平行なY軸、X軸を有する3次元直交座標系のことを、カメラ座標系と表記する。また、カメラ12により撮影された画像(カメラ12からの画像データがその内容を表している画像)の左辺と一致する座標軸と、当該画像の上辺と一致する座標軸とを有する2次元直交座標系のことを、画像座標系と表記し、ロボット走行面上に設定される(ロボット走行面と一致する座標面を有する)2次元直交座標系のことを、制御用座標系と表記する。
In the following description, a room in which the
ロボット制御プログラムを起動すると、制御装置11は、カメラ12からの各画像データに基づく画像表示をタッチスクリーンディスプレイ13に行わせる処理(カメラ12により撮影された各画像を、順次、タッチスクリーン14上に表示させる処理)を開始する。また、制御装置11は、ロボット座標算出処理と画像セグメンテーション処理とを周期的に実行する状態となる。
When the robot control program is started, the
制御装置11が周期的に実行するロボット座標算出処理は、カメラ12からの画像データを上記したマーカー図形情報を用いて解析することにより、ロボットマーカー(正確には、ロボットマーカー上のマーカー図形)の位置や姿勢を把握し、把握結果に基づき、以下の2情報を算出する処理である。
・“ロボットマーカーの中心点を、制御用座標系の座標面(ロボット走行面)に正射影した点”の座標(制御用座標系座標)であるロボット座標
・“ロボットマーカーの前方向(図2における上方向)を向いたベクトルを制御用座標系の座標面に正射影したベクトル”である進行方向ベクトル
The robot coordinate calculation process periodically executed by the
Robot coordinates that are the coordinates (control coordinate system coordinates) of “a point obtained by orthogonally projecting the center point of the robot marker onto the coordinate plane (robot traveling plane) of the control coordinate system”. Direction vector) which is an orthogonal projection of a vector pointing in the upward direction on the coordinate plane of the control coordinate system.
なお、このロボット座標算出処理は、ロボットマーカーを初めて検出した際には、“画像座標系座標を制御用座標系座標に変換するための座標変換行列”も算出する処理となっている。また、ロボット制御プログラムは、このロボット座標算出処理を制御装置11に実行させるための部分を、NyARtoolkit(ARToolKitをJava(米国Sun Microsystem,Inc.の商標)に移植した、拡張現実アプリケーションの実装を手助けするためのクラスライブラリ:非特許文献1参照。)を利用して作成したプログラムとなっている。
The robot coordinate calculation process is a process for calculating a “coordinate conversion matrix for converting image coordinate system coordinates to control coordinate system coordinates” when a robot marker is detected for the first time. Also, the robot control program helps implement an augmented reality application in which the part for causing the
制御装置11が周期的に実行する画像セグメンテーション処理は、カメラ12からの画像データが表している画像/タッチスクリーン14上に表示されている画像(以下、カメラ画像と表記する)を、特徴が一様と見なせる複数のセグメントに分割する処理である。
The image segmentation process periodically executed by the
この画像セグメンテーション処理は、例えば、カメラ画像が図3(a)に示したものであった場合、当該カメラ画像を、図3(b)に示したようなセグメント群に分割するものとなっている。すなわち、画像セグメンテーション処理は、カメラ画像中の各物体に関する画像を、複数のセグメントに分割してしまうものとなっている。なお、本実施形態に係る制御装置11が実際に実行する画像セグメンテーション処理は、P. F. Felzenszwalbらが開発したアルゴリズム(非特許文献2参照。)によりカメラ画像をセグメント化する処理である。
In this image segmentation process, for example, when the camera image is the one shown in FIG. 3A, the camera image is divided into segment groups as shown in FIG. 3B. . That is, the image segmentation process divides an image relating to each object in the camera image into a plurality of segments. Note that the image segmentation process actually executed by the
ロボット制御プログラムを起動すると、制御装置11は、上記したロボット座標算出処
理による情報算出が成功する(ロボット15上のロボットマーカーがカメラ12によって撮影される)のを監視する処理も開始する。そして、制御装置11は、ロボット座標算出処理による情報算出が成功した場合には、図4に示した手順のメイン処理を開始して、まず、搬送指示受付処理(ステップS101〜S106の処理)を行う。
When the robot control program is activated, the
この搬送指示受付処理は、範囲指定操作とドラッグアンドドロップ操作とを行わせることにより、ユーザに、ロボット15による搬送作業の対象とすべき物体(以下、搬送対象物と表記する)と、その搬送場所(搬送先)とを、指定させる処理である。
In this conveyance instruction reception process, the range designation operation and the drag-and-drop operation are performed to allow the user to perform an object (hereinafter referred to as a conveyance object) to be a conveyance work target by the
図示してあるように、搬送指示受付処理を開始した制御装置11は、まず、範囲指定操作応答処理(ステップS101)を実行する。
As illustrated, the
この範囲指定操作応答処理は、ユーザによる範囲指定操作に応答して、範囲指定操作で指定中の範囲/指定された範囲を示す矩形枠をタッチスクリーン14上に表示する処理である。なお、範囲指定操作とは、範囲として指定したい矩形領域(搬送対象物の画像の全体/大部分が含まれる矩形領域)の一頂点位置から対角の頂点位置までタッチスクリーン14上で指を移動させる操作のことである。
This range designation operation response process is a process for displaying on the touch screen 14 a rectangular frame indicating the range being designated by the range designation operation / the designated range in response to the range designation operation by the user. The range designation operation is a movement of a finger on the
ユーザによる範囲指定操作が完了した場合(ユーザの指がタッチスクリーン14から離れた場合)、制御装置11は、当該範囲指定操作で指定された範囲(以下、指定範囲と表記する)を記憶してから、範囲指定操作応答処理(ステップS101)を終了する。
When the range specifying operation by the user is completed (when the user's finger is separated from the touch screen 14), the
そして、制御装置11は、その時点におけるカメラ画像の画像データ、最新の画像セグメンテーション処理結果、指定範囲に基づき、所定割合以上の部分が指定範囲内に含まれているセグメントを全て探索し、探索したセグメントからなる画像を、ユーザが指定した搬送対象物の現時点における画像(以下、搬送対象物画像と表記する)として特定する処理(ステップS102)を行う。なお、最新の画像セグメンテーション処理結果とは、最も最近行った画像セグメンテーション処理の処理結果のことである。また、所定割合とは、ロボット制御プログラム中に設定されている割合のことである。
And the
その後、制御装置11は、タッチスクリーン14上に表示されている画像中の搬送対象物画像をハイライト表示させるための処理(ステップS103)を行う。
Thereafter, the
既に説明したように、ステップS102の処理時に特定される搬送対象物画像は、所定割合以上の部分が指定範囲内に含まれているセグメントからなる画像(つまり、所定割合未満の部分しか指定範囲内に含まれていないセグメントを構成要素としていない画像)である。従って、ステップS101の処理時にユーザが指定した範囲内に搬送対象物以外の物体の一部が表示されていても、ステップS102の処理時には、搬送対象物のみの画像が搬送対象物画像として特定されることになる。そして、その結果として、ステップS103の処理時には、図5に例示したように、搬送対象物(この場合、ごみ箱)のみがハイライト表示されることになる。 As already described, the conveyance object image specified at the time of the processing of step S102 is an image composed of segments in which a portion of a predetermined ratio or more is included in the specified range (that is, only a portion less than the predetermined ratio is in the specified range). The image does not include segments that are not included in the image. Therefore, even if a part of the object other than the conveyance target is displayed within the range specified by the user during the process of step S101, only the conveyance target image is specified as the conveyance target image during the process of step S102. Will be. As a result, during the process of step S103, as illustrated in FIG. 5, only the conveyance object (in this case, the trash can) is highlighted.
ステップS103の処理(図4)を終えた制御装置11は、搬送対象物画像についてのカラーヒストグラムを生成して、基準ヒストグラム(用途は後述)として記憶する処理(ステップS104)を行う。なお、搬送対象物画像についてのカラーヒストグラムとは、搬送対象物画像の各画素のR、G、B値、それぞれについての規格化したヒストグラムからなる情報のことである。
The
その後、制御装置11は、D&D操作応答処理(ステップS105)を開始して、まず、タッチスクリーン14上の搬送対象物画像を指定する操作(タッチスクリーン14の、
搬送対象物画像が表示されている部分に指を置く操作)が行われるのを監視している状態となる。そして、制御装置11は、搬送対象物画像を指定する操作が行われた場合には、図6(a)に示したように、搬送対象物画像をアイコン化した搬送場所指定用アイコンを搬送対象物画像上に表示した後、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作に実際に応答する処理(ユーザのアイコン操作に従って、搬送場所指定用アイコンの表示位置を変更する処理)を開始する。
Thereafter, the
It is in a state where it is monitored that the operation of placing a finger on the portion where the conveyance object image is displayed is performed. Then, when an operation for designating a transport object image is performed, the
制御装置11は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了した場合(搬送場所指定用アイコン上/タッチスクリーン14上から、指が離れた場合)には、図6(b)に示したように、搬送対象物画像のハイライト表示を中止してから、D&D操作応答処理(ステップS105)を終了する。
When the drag-and-drop operation on the transport location designation icon is completed (when the finger is released from the transport location designation icon / touch screen 14), the
D&D操作応答処理を終了した制御装置11は、ロボット座標算出処理により算出されている座標変換行列を用いて、搬送場所指定用アイコンの現在位置(その時点における搬送場所指定用アイコンの中心位置の画像座標系座標)から、対応するロボット走行面位置の制御用座標系座標を算出し、算出結果を搬送場所座標として記憶する処理(ステップS106)を行う。
The
そして、ステップS106の処理を終えた制御装置11は、搬送指示受付処理(ステップS101〜S106の処理)を終了する。なお、流れ図(図4)中への表記は省略してあるが、制御装置11が実際に実行する搬送指示受付処理は、ユーザが、搬送対象物画像を指定する前に、タッチスクリーン14上に表示されている矩形枠の形状を変更する操作を行った場合、ステップS102以降の処理を再実行する処理である。すなわち、搬送指示受付処理は、大きすぎる/小さすぎる範囲を指定してしまった結果として、搬送対象物以外の部分もハイライト表示されてしまった場合や搬送対象物の一部分しかハイライト表示されなかった場合に、ユーザが、範囲指定をやり直せる処理となっている。
And the
また、搬送指示受付処理は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作の完了後、所定時間内であれば、搬送場所指定用アイコンに対するドラッグアンドドロップ操作(つまり、搬送場所座標の変更指示操作)を受け付ける処理ともなっている。また、メイン処理は、搬送指示受付処理の完了後にも、ロボット制御処理(ステップS110;詳細は後述)の完了前は、搬送場所座標の変更指示操作(搬送場所指定用アイコンに対するドラッグアンドドロップ操作)を受け付ける処理となっている。 In addition, the conveyance instruction reception process is performed within a predetermined time after the completion of the drag-and-drop operation with respect to the transfer location designation icon. It is also processing to accept. In addition, even after the completion of the conveyance instruction reception process, the main process is an instruction to change the conveyance location coordinates (drag and drop operation with respect to the conveyance location designation icon) before the completion of the robot control process (step S110; details will be described later). It is processing to accept.
上記内容の搬送指示受付処理を終えた制御装置11(搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了した後、ドラッグアンドドロップ操作が再開されることなく、所定時間が経過したことを検出した制御装置11)は、ステップS110にて、図7に示した手順のロボット制御処理を実行する。
すなわち、制御装置11は、他の処理(画像セグメンテーション処理等)を適宜実行しながら、周期的に、搬送対象物座標算出処理(ステップS201)を実行する状態となる。
That is, the
制御装置11が周期的に実行する搬送対象物座標算出処理は、搬送対象物画像と最も類似した画像(以下、最類似画像と表記する)をカメラ画像中から探索し、探索した最類似画像の中心点の画像座標系座標に対応する制御用座標系座標を、搬送対象物座標として算出する処理である。
The transport object coordinate calculation process periodically executed by the
この搬送対象物座標算出処理は、最新の画像セグメンテーション処理結果に基づき、カメラ画像内から、“カメラ画像上で並んでいる、搬送対象物画像とほぼ同数のセグメント
からなる画像”を全て探索し、探索した各画像のカラーヒストグラムと基準ヒストグラム(図4のステップS104参照)との間の類似度をヒストグラムインターセクション(非特許文献3参照。)により算出することにより、上記最類似画像を探索する処理となっている。
This transport object coordinate calculation process searches all the “images that are arranged on the camera image and are composed of almost the same number of segments as the transport object image” based on the latest image segmentation process result, Processing for searching for the most similar image by calculating the similarity between the color histogram of each searched image and the standard histogram (see step S104 in FIG. 4) by histogram intersection (see Non-Patent Document 3). It has become.
なお、“カメラ画像上で並んでいる、搬送対象物画像とほぼ同数のセグメントからなる画像”とは、“カメラ画像上で並んでいる複数のセグメント(又は、単一のセグメント)からなる、セグメント数が搬送対象物画像のセグメント数を基準とした所定範囲(本実施形態では、搬送対象物画像のセグメント数−1〜搬送対象物画像のセグメント数+1の範囲)内に入っている画像”のことである。 Note that “an image composed of almost the same number of segments as the conveyance object image arranged on the camera image” means “a segment composed of a plurality of segments (or a single segment) arranged on the camera image”. The number of images in a predetermined range (in this embodiment, the range of the number of segments of the conveyance target image minus the number of segments of the conveyance target image + 1 in this embodiment) based on the number of segments of the conveyance target image. That is.
搬送対象物座標算出処理(ステップS201)を終了した制御装置11は、当該搬送対象物座標算出処理時により探索された最類似画像の類似度が、類似度閾値(ロボット制御プログラム中に設定されている値)未満であるか否かを判断する(ステップS202)。
The
最類似画像の類似度が類似度閾値以上であった場合(ステップS202;NO)、制御装置11は、搬送場所座標がその位置を示している点と搬送対象物座標がその位置を示している点との間の距離(以下、座標間距離と表記する)が、距離閾値(ロボット制御プログラム中に設定されている値)未満であるか否かを判断する(ステップS203)。
When the similarity of the most similar image is equal to or greater than the similarity threshold (step S202; NO), the
そして、制御装置11は、座標間距離が距離閾値以上であった場合(ステップS203;NO)には、搬送場所座標や、その時点におけるロボット座標、進行方向ベクトル及び搬送対象物座標に基づき、ロボット15に対して実行する制御の内容を決定する処理(ステップS204)を行う。詳細説明は省略するが、このステップS204の処理は、“或る方向に或る量(〜数cm)移動させる”、“或る方向を向かせる”といったような、ロボット15の動作が短時間で完了する制御を、ロボット15に対して実行する制御の内容として決定する処理となっている。また、ステップS204の処理は、ロボット走行面上の、搬送対象物以外の物体の位置を特に考慮することなく、ロボット15の進行方向を決定する処理となっている。
When the inter-coordinate distance is equal to or greater than the distance threshold (step S203; NO), the
ステップS204の処理を終えた制御装置11は、当該処理により決定した内容の制御をロボット15に対して実行(ステップS205)してから、ステップS201以降の処理を再び開始する。
After completing the process of step S204, the
そして、制御装置11は、上記手順の処理を繰り返しているうちに、座標間距離が距離閾値未満となったことを検出した場合(ステップS203;YES)には、ロボット制御処理が正常に終了した(物体の搬送作業が完了した)ことを記憶(図示せず)してから、このロボット制御処理(図7の処理)を終了する。
If the
また、制御装置11は、座標間距離が距離閾値未満となる前に、最類似画像の類似度が類似度閾値未満となった場合(ステップS202;YES)には、ロボット制御処理が異常終了した(搬送対象物を見失った)ことを記憶(図示せず)してから、ロボット制御処理を終了する。
Further, the
図4に戻って、ロボット制御処理終了後の制御装置11の動作を説明する。
Returning to FIG. 4, the operation of the
ロボット制御処理(ステップS110)を終えた制御装置11は、当該ロボット制御処理が正常終了していた場合(ステップS111;正常終了)には、搬送場所指定用アイコンをタッチスクリーン14上から消去する(ステップS112)。そして、制御装置11は、ステップS101以降の処理を再び開始する。
The
一方、ロボット制御処理が異常終了していた場合(ステップS111;異常終了)、制御装置11は、搬送対象物再指定要求処理(ステップS113)を行う。この搬送対象物再指定要求処理は、搬送対象物の再指定をユーザに要求するために、タッチスクリーン14上に警告アイコン(本実施形態では、その内部にエクスクラメーションマークが示されている三角形状のアイコン)を表示した上で、タッチスクリーンディスプレイ13のスピーカーに所定の警告音を出力させる処理である。
On the other hand, when the robot control process has ended abnormally (step S111; abnormal end), the
その後、制御装置11は、上記したステップS101〜S104の処理と本質的には同内容の搬送対象物再指定操作受付処理(ステップS114)を行うことにより、ユーザに、搬送対象物を再指定させる(搬送対象物を囲む範囲を再指定させる)。そして、制御装置11は、ユーザによる搬送対象物の再指定が完了したときに、ステップS110以降の処理を再び開始する。
After that, the
以上、説明したように、本実施形態に係るロボット制御システム10は、カメラ画像が表示されているタッチスクリーン14上の或る範囲を指定する操作が行われた場合、カメラ画像に対する画像セグメンテーション処理結果を利用して、カメラ画像中の、ユーザが指定した範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を探索する処理を行い、探索した画像を、搬送対象物画像(ユーザが指定した搬送対象物の現時点における画像)として特定する機能を有している。
As described above, in the
従って、ロボット制御システム10は、常に(ユーザが、他の物体と重なった形でタッチスクリーン14上に表示されている物体を搬送対象物として指定した場合であっても)、搬送対象物画像を正確に特定できるシステムであると共に、ユーザが範囲指定を正確に行わなくても(搬送対象物を完全に包含する範囲を指定しなくても)、搬送対象物画像を正確に特定できるシステムとなっていることになる。
Therefore, the
また、ロボット制御システム10は、上記のようにして特定した搬送対象物画像のカラーヒストグラム(基準ヒストグラム)と、カメラ画像中の、搬送対象物画像とほぼ同数の連続したセグメントからなる各画像のカラーヒストグラムとを比較することにより、カメラ画像中の、搬送対象物画像と最も類似した画像を探索した上で、探索結果に基づき、ロボット15により搬送されている最中の搬送対象物の位置を求める機能も有している。
Further, the
そして、カラーヒストグラムは、図8(a)〜図8(d)に模式的に示したように、元々、物体によってその内容が大きく異なる情報であるし、カラーヒストグラムの比較を行う画像を、矩形画像ではなく、搬送対象物画像とほぼ同数の連続したセグメントからなる画像としておけば、背景成分の影響がない形で、搬送対象物画像に類似した画像を探索できる。従って、本実施形態に係るロボット制御システム10は、画像探索に他の手法を採用したシステムよりも、搬送対象物の位置を正確に把握できるシステム(ロボット15を正確に制御できるシステム)となっていることになる。
As schematically shown in FIGS. 8A to 8D, the color histogram is originally information whose contents vary greatly depending on the object, and an image to be compared with the color histogram is rectangular. If it is not an image but an image composed of approximately the same number of continuous segments as the conveyance object image, an image similar to the conveyance object image can be searched without being affected by the background component. Therefore, the
また、カメラ画像から物体座標を算出する既存のシステムが、セットアップ時に、上記した座標変換行列相当のものを算出させるための処理(カメラキャリブレーション処理等と呼ばれているもの)を行わせる必要があるものとなっているのに対し、ロボット制御システム10は、ロボット15の位置を検出するためにロボット15の上面に取り付けられているロボットマーカーの位置及び姿勢から、座標変換行列を算出してしまうシステムとなっている。従って、ロボット制御システム10は、既存のシステムよりもセットアップが容易なシステム(カメラ12を固定しさえすれば、運用可能な状態となるシステム)となっていると言うことが出来る。
In addition, an existing system that calculates object coordinates from camera images needs to perform a process (what is called a camera calibration process or the like) for calculating an object equivalent to the coordinate transformation matrix described above during setup. On the other hand, the
《第2実施形態》
以下、第1実施形態に係るロボット制御システム10の説明時に用いたものと同じ符号を用いて、本発明の第2実施形態に係るロボット制御システム10の構成及び動作を説明する。
<< Second Embodiment >>
Hereinafter, the configuration and operation of the
本実施形態に係るロボット制御システム10は、メイン処理(図4)のステップS105にて、図9に示した手順の第2D&D操作応答処理が行われるように、第1実施形態に係るロボット制御システム10を改良したシステムである。
The
すなわち、第2実施形態に係るロボット制御システム10内の制御装置11(以下、第2制御装置11と表記する)は、基準ヒストグラムを算出・記憶する処理(図4のステップS104参照)の完了後に、この第2D&D操作応答処理を開始する。
That is, the control device 11 (hereinafter referred to as the second control device 11) in the
そして、第2D&D操作応答処理を開始した第2制御装置11は、まず、タッチスクリーン14上の搬送対象物画像を指定する操作が行われるのを監視している状態(ステップS301の処理/判断を繰り返している状態)となる。
Then, the
搬送対象物画像を指定する操作が行われた場合(ステップS301;YES)、第2制御装置11は、搬送対象物画像をアイコン化した搬送場所指定用アイコンを搬送対象物画像上に表示する(ステップS302)。その後、制御装置11は、座標変換行列からカメラ12の俯角(カメラ12のレンズの光軸とロボット走行面とがなす角度)を算出し、算出した俯角が、予め設定されている俯角閾値(本実施形態では、50度)以下であるか否かを判断する処理(ステップS303)を行う。
When an operation for designating a transport object image is performed (step S301; YES), the
そして、第2制御装置11は、カメラ12の俯角が俯角閾値以下ではなかった場合(ステップS303;NO)には、搬送場所指定用アイコンに対するドラッグアンドドロップ操作に応答して搬送場所指定用アイコンの表示位置を変更するアイコン表示位置変更処理(ステップS304)を行う。第2制御装置11は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了したときに、このアイコン表示位置変更処理を終了する。そして、第2制御装置11は、搬送対象物画像のハイライト表示を中止(ステップS306)してから、この第2D&D操作応答処理(図9の処理)を終了する。
Then, when the depression angle of the
一方、カメラ12の俯角が俯角閾値以下であった場合(ステップS303;YES)、第2制御装置11は、アイコン表示位置・表示サイズ変更処理(ステップS305)を行う。
On the other hand, when the depression angle of the
このアイコン表示位置・表示サイズ変更処理は、搬送場所指定用アイコンが新表示位置にドラッグされた場合、座標変換行列、搬送対象物画像の初期位置等を用いて、新表示位置に対応するロボット走行面上の位置に搬送対象物が実際に存在していた場合における搬送対象物の画像サイズを求め、求めた画像サイズと同サイズとなるように拡縮した搬送場所指定用アイコンを新表示位置に表示する処理である。 This icon display position / display size changing process is performed when the transport location designation icon is dragged to the new display position, using the coordinate transformation matrix, the initial position of the transport object image, etc. Obtain the image size of the transport object when the transport object actually exists at a position on the surface, and display the transfer location designation icon that has been enlarged or reduced to the same size as the calculated image size at the new display position It is processing to do.
第2制御装置11は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了したときに、このアイコン表示位置・表示サイズ変更処理を終了する。そして、第2制御装置11は、搬送対象物画像のハイライト表示を中止(ステップS306)してから、第2D&D操作応答処理を終了する。
The
要するに、カメラ12の俯角が比較的に小さい場合、タッチスクリーン14上には、ロボット走行面の手前側(カメラ12に近い側)に存在する物体/領域が、ロボット走行面の奥側に存在する同サイズの物体/領域よりもかなり大きく表示される。そのため、常に
、同サイズの搬送場所指定用アイコンを表示する第1実施形態に係るロボット制御システム10では、『他の物体の画像と重なっていない位置に搬送場所指定用アイコンをドロップしたにも拘わらず、指定した搬送場所に、搬送対象物を配置可能な余地がない』、『搬送対象物を実際には配置可能な場所であるにも拘わらず、当該場所相当の位置に搬送場所指定用アイコンをドロップすると、搬送場所指定用アイコンが他の物体の画像と重なる』といったことが生じ得ることになる。
In short, when the depression angle of the
一方、本実施形態に係るロボット制御システム10は、カメラ12の俯角が俯角閾値以下となっている場合には、タッチスクリーン14上に表示する搬送場所指定用アイコンのサイズを、その表示位置に応じたサイズ(その表示位置が指示する位置に搬送された場合における搬送対象物の画像サイズ)に変更する構成を有している。
On the other hand, when the depression angle of the
従って、このロボット制御システム10は、第1実施形態に係るロボット制御システム10では生じ得る上記不具合が生じないシステムとなっていることになる。
Therefore, the
なお、第2実施形態に係るロボット制御システム10を、カメラ12の俯角が比較的に大きい場合に、搬送場所指定用アイコンのサイズ変更を行わないシステムとして構成しているのは、カメラ12の俯角が比較的に大きい場合には、ロボット走行面上での位置による画像サイズの変化量が少ないが故に上記のような不具合が殆ど生じにないことに加え、カメラ12の俯角が比較的に大きい場合にも搬送場所指定用アイコンのサイズ変更を行うようにしておくと、搬送場所指定用アイコンのドラッグアンドドロップ操作中に、搬送場所指定用アイコンのサイズの微妙な変化に起因する違和感を感じることが分かったためである。
The
《変形形態》
上記した第1、第2実施形態に係るロボット制御システム10は、各種の変形を行うことが出来る。例えば、上記した各実施形態に係るロボット制御システム10は、マーカー図形の形状を示すマーカー図形情報を利用してカメラ画像を解析することにより、座標変換行列、ロボット座標等を算出するものであったが、各実施形態に係るロボット制御システム10を、ロボット15自体の形状(外観)を示す情報に基づき、座標変換行列等を算出するシステムに変形することが出来る。
<Deformation>
The
また、セットアップ作業がより複雑なシステムとなってしまうが、各実施形態に係るロボット制御システム10を、ロボットマーカー(或いは、ロボット15自体)の位置、姿勢から、座標変換行列を算出しないシステム(セットアップ時に、座標変換行列を算出させるための作業を行うことがシステム)に変形することも出来る。
Further, although the setup work becomes a more complicated system, the
各実施形態に係るロボット制御システム10を、上記したものとは異なる内容の処理により、搬送対象物を追跡する(搬送対象物画像と最も類似した画像をカメラ画像から探索し、その探索結果に基づき、搬送対象物の位置を特定する)システムに変形することも出来る。例えば、各実施形態に係るロボット制御システム10を、カラーヒストグラムと基準ヒストグラムとの間の類似度を、ヒストグラムインターセクション以外の方法で算出するシステムに変形することが出来る。また、各実施形態に係るロボット制御システム10を、カメラ画像内の各所の矩形画像のカラーヒストグラムと基準ヒストグラムとを比較することにより、搬送対象物を追跡するシステムに変形することも出来る。ただし、そのような変形を行うと、背景成分の影響により、搬送対象物の追跡性能が劣化してしまうことになる。従って、各実施形態に係るロボット制御システム10を変形する場合には、幾つかの連続したセグメントを組み合わせた画像のカラーヒストグラムと基準ヒストグラムとの比較により、搬送対象物が追跡されるようにしておくことが望ましい。
The
各実施形態に係るロボット制御システム10を、指定された搬送対象物をロボット15が特定の場所まで搬送するシステム(搬送場所を指定する必要がないシステム)、ロボット15として物体を持ち運べるものを備えたシステムに変形することも出来る。また、各実施形態に係るロボット制御システム10を、カメラ画像のセグメント化を上記したものとは異なる内容(アルゴリズム)の処理により行うシステム、搬送場所指定用アイコンとして、規定形状のアイコン(搬送対象物画像をアイコン化したものではないアイコン)が表示されるシステムに変形することも出来る。
The
各実施形態に係るロボット制御システム10を、最類似画像の探索後、搬送対象物画像を、探索した最類似画像に変更するシステムや、最類似画像の探索時に、カメラ画像内の、前回の最類似画像の近傍に位置する“カメラ画像上で並んでいる、搬送対象物画像とほぼ同数のセグメントからなる画像”のみを探索対象とするシステムに変形することも出来る。また、各実施形態に係るロボット制御システム10を、範囲指定操作やドラッグアンドドロップ操作をマウスにより行うシステム、ロボット15が構成要素となっていないシステム(自システム用に開発されたものではないロボットを制御するシステム)に変形しても良いことなどは、当然のことである。
After searching for the most similar image, the
10・・・ロボット制御システム
11・・・制御装置
12・・・カメラ
13・・・タッチスクリーンディスプレイ
14・・・タッチスクリーン
15・・・ロボット
DESCRIPTION OF
Claims (5)
前記撮影手段が生成する各画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、
前記撮影手段が生成する画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、
前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、
前記ユーザインターフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段と
を備え、
前記ユーザインターフェース手段が、
前記搬送対象物画像を探索した後、前記搬送対象物画像をアイコン化したものをドラッグアンドドロップ操作が可能な搬送場所指定用アイコンとして前記画面上に表示し、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作がユーザによりなされたときに、その搬送場所指定用アイコンのドロップ位置に対応する前記ロボット利用空間内の場所が前記搬送対象物を搬送すべき搬送場所として指定されたと判断する手段であるとともに、
前記搬送場所指定用アイコンのドラッグアンドドロップ操作中に、前記搬送場所指定用アイコンのサイズを、前記搬送場所指定用アイコンの表示位置に対応する前記ロボット利用空間内の位置に前記搬送対象物が存在していた場合における前記搬送対象物の画像のサイズに変更するサイズ変更機能を有する手段であり、
前記ロボット制御手段が、
前記搬送対象物画像を利用して、前記搬送対象物を前記搬送場所まで搬送する搬送作業
を前記ロボットに行わせる手段である
ことを特徴とするロボット制御システム。 Photographing means for repeatedly generating image data about a robot use space, which is a space for functioning a robot capable of performing an object transfer operation;
Display means for displaying an image showing the current state of the robot use space on the screen based on each image data generated by the photographing means;
Segmentation means for dividing the image indicated by the image data into a plurality of segments by performing image segmentation processing on the image data generated by the photographing means;
User interface means for causing a user to designate a transport object that is an object to be transported by the robot, and processing performed by the segmentation means when a range designation operation for designating a certain range on the screen is performed Using the result, an image composed of a segment group in which a portion of a predetermined ratio or more is included in the range specified by the range specifying operation from the images displayed on the screen as a transport target image. User interface means for performing a search process and determining that an object whose image at that time is the conveyance object image is designated as the conveyance object;
Robot control means for causing the robot to perform a transport operation on the transport object using the transport object image searched by the user interface means;
The user interface means comprises:
After searching for the transport object image, an iconized version of the transport object image is displayed on the screen as a transport location designation icon that can be dragged and dropped, and dragged and dropped on the transport location designation icon. when the drop operation is performed by the user, Ru means der to determine that the location of the robotic space corresponding to the drop position of the conveying locations specified icon is designated as the transport where to transport the object to be transported With
During the drag-and-drop operation of the transfer location designation icon, the size of the transfer location designation icon is set so that the transfer object exists at a position in the robot use space corresponding to the display position of the transfer location designation icon. A means having a size changing function for changing to the size of the image of the conveyance object in the case of
The robot control means is
A robot control system, characterized in that it is means for causing the robot to perform a transport operation for transporting the transport object to the transport location using the transport object image.
前記セグメンテーション手段による処理結果を利用して前記画面上に表示されている画像内に含まれている幾つかの連続したセグメントからなる複数個の比較対照画像を特定し、特定した複数個の比較対照画像の中から前記搬送対象物画像と最も類似した比較対照画像を探索し、探索した比較対照画像の前記画面上での位置から、前記ロボットの制御に用いる、前記ロボット利用空間内での前記搬送対象物の現在位置情報を算出する手段であることを特徴とする請求項1に記載のロボット制御システム。 The robot control means is
Using the processing result of the segmentation means, a plurality of comparison images consisting of several consecutive segments included in the image displayed on the screen are identified, and the plurality of identified comparison controls A comparison image that is most similar to the conveyance object image is searched from the image, and the conveyance in the robot use space is used for controlling the robot from the position of the searched comparison image on the screen. 2. The robot control system according to claim 1, wherein the robot control system is means for calculating current position information of the object.
前記撮影手段の前記ロボット利用空間に対する姿勢に応じて、前記サイズ変更機能をON/OFFする手段である
ことを特徴とする請求項1又は請求項2に記載のロボット制御システム。 The user interface means comprises:
3. The robot control system according to claim 1, wherein the size change function is turned on / off according to a posture of the photographing unit with respect to the robot use space.
前記ロボット制御手段が、
前記変換情報算出手段により算出された変換情報を利用して前記撮影手段が生成する画像データを解析することによって、前記ロボットの制御に用いる、前記ロボット利用空間内での前記ロボットの現在位置情報と前記搬送対象物の現在位置情報とを算出する手段である
ことを特徴とする請求項1乃至請求項3のいずれか一項に記載のロボット制御システム。 Use of the robot corresponding to each pixel from the position of each pixel in the image indicated by the image data based on the shape information indicating the shape of the specific part of the robot and the image data generated by the photographing unit Conversion information calculating means for calculating conversion information for obtaining a coordinate system coordinate having a coordinate plane parallel to the traveling surface of the robot with respect to a position in space;
The robot control means is
By analyzing the image data generated by the photographing unit using the conversion information calculated by the conversion information calculation unit, the current position information of the robot in the robot use space, which is used for controlling the robot, and The robot control system according to any one of claims 1 to 3 , wherein the robot control system is means for calculating current position information of the conveyance object.
物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間に向けられたデジタルカメラからの画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、
前記デジタルカメラからの画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、
前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、
前記ユーザインターフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段と
を備える装置として機能させるロボット制御プログラムであって、
前記ユーザインターフェース手段が、
前記搬送対象物画像を探索した後、前記搬送対象物画像をアイコン化したものをドラッグアンドドロップ操作が可能な搬送場所指定用アイコンとして前記画面上に表示し、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作がユーザによりなされたときに、その搬送場所指定用アイコンのドロップ位置に対応する前記ロボット利用空間内の場所が前記搬送対象物を搬送すべき搬送場所として指定されたと判断する手段であるとと
もに、
前記搬送場所指定用アイコンのドラッグアンドドロップ操作中に、前記搬送場所指定用アイコンのサイズを、前記搬送場所指定用アイコンの表示位置に対応する前記ロボット利用空間内の位置に前記搬送対象物が存在していた場合における前記搬送対象物の画像のサイズに変更するサイズ変更機能を有する手段であり、
前記ロボット制御手段が、
前記搬送対象物画像を利用して、前記搬送対象物を前記搬送場所まで搬送する搬送作業を前記ロボットに行わせる手段である
ことを特徴とするロボット制御プログラム。 Computer
Display means for displaying an image showing the current state of the robot use space on a screen based on image data from a digital camera directed to the robot use space, which is a space for functioning a robot capable of carrying objects; ,
Segmentation means for dividing an image indicated by the image data into a plurality of segments by performing an image segmentation process on the image data from the digital camera;
User interface means for causing a user to designate a transport object that is an object to be transported by the robot, and processing performed by the segmentation means when a range designation operation for designating a certain range on the screen is performed Using the result, an image composed of a segment group in which a portion of a predetermined ratio or more is included in the range specified by the range specifying operation from the images displayed on the screen as a transport target image. User interface means for performing a search process and determining that an object whose image at that time is the conveyance object image is designated as the conveyance object;
A robot control program that functions as an apparatus including a robot control unit that causes the robot to perform a transport operation on the transport target using the transport target object image searched by the user interface unit,
The user interface means comprises:
After searching for the transport object image, an iconized version of the transport object image is displayed on the screen as a transport location designation icon that can be dragged and dropped, and dragged and dropped on the transport location designation icon. when the drop operation is performed by the user, Ru means der to determine that the location of the robotic space corresponding to the drop position of the conveying locations specified icon is designated as the transport where to transport the object to be transported And
Also ,
During the drag-and-drop operation of the transfer location designation icon, the size of the transfer location designation icon is set so that the transfer object exists at a position in the robot use space corresponding to the display position of the transfer location designation icon. A means having a size changing function for changing to the size of the image of the conveyance object in the case of
The robot control means is
A robot control program, comprising: means for causing the robot to perform a transport operation for transporting the transport object to the transport location using the transport object image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009165668A JP5213183B2 (en) | 2009-07-14 | 2009-07-14 | Robot control system and robot control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009165668A JP5213183B2 (en) | 2009-07-14 | 2009-07-14 | Robot control system and robot control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011022700A JP2011022700A (en) | 2011-02-03 |
JP5213183B2 true JP5213183B2 (en) | 2013-06-19 |
Family
ID=43632737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009165668A Active JP5213183B2 (en) | 2009-07-14 | 2009-07-14 | Robot control system and robot control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5213183B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104238418A (en) * | 2014-07-02 | 2014-12-24 | 北京理工大学 | Interactive reality system and method |
KR101850118B1 (en) * | 2016-08-09 | 2018-04-19 | 한국생산기술연구원 | Method and System for Calibration of Mobile Robot and Camera |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5892360B2 (en) | 2011-08-02 | 2016-03-23 | ソニー株式会社 | Robot instruction apparatus, robot instruction method, program, and communication system |
JP5892361B2 (en) | 2011-08-02 | 2016-03-23 | ソニー株式会社 | Control device, control method, program, and robot control system |
JP5192598B1 (en) * | 2012-07-03 | 2013-05-08 | 貴章 春日 | Work system with self-propelled device |
EP3067770B1 (en) * | 2013-11-07 | 2019-01-16 | FUJI Corporation | Automatic driving system and automatic travel machine |
JP6168179B2 (en) * | 2016-02-29 | 2017-07-26 | ソニー株式会社 | Control device, control method, and program |
JP6249247B2 (en) * | 2016-02-29 | 2017-12-20 | ソニー株式会社 | Control device, control method, and program |
JP2018014064A (en) * | 2016-07-19 | 2018-01-25 | Gft株式会社 | Position measuring system of indoor self-propelled robot |
CN106527441A (en) * | 2016-11-23 | 2017-03-22 | 河池学院 | Control system for controlling walking path of robot based on mobile phone |
JP6642644B2 (en) * | 2018-07-20 | 2020-02-05 | ソニー株式会社 | Moving object, control method, and program |
JP6922969B2 (en) * | 2018-07-20 | 2021-08-18 | ソニーグループ株式会社 | Mobiles, control methods, and programs |
JP7380829B2 (en) | 2020-02-28 | 2023-11-15 | 日本電気株式会社 | Conveyance system, control device, control method |
CN113808206B (en) * | 2021-09-14 | 2024-02-02 | 广东三水合肥工业大学研究院 | Typesetting system and method based on vision tracking robot |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61227240A (en) * | 1985-04-02 | 1986-10-09 | Mitsubishi Electric Corp | Visual sensor for industrial robot |
JPH03251921A (en) * | 1990-03-01 | 1991-11-11 | Toshiba Corp | Back-up device for software development |
JP3007232B2 (en) * | 1992-10-19 | 2000-02-07 | 富士通株式会社 | Drawing processing apparatus and method |
JPH10181858A (en) * | 1996-12-24 | 1998-07-07 | Sony Corp | Object sorting method and object sorting device using it |
JP2001072247A (en) * | 1999-09-06 | 2001-03-21 | Murata Mach Ltd | Conveying system |
JP4056777B2 (en) * | 2002-03-29 | 2008-03-05 | 綜合警備保障株式会社 | Autonomous mobile object traveling system and autonomous mobile object position correction method |
WO2004106009A1 (en) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | Article operating system and method, and article managing system and method |
US8355569B2 (en) * | 2006-08-10 | 2013-01-15 | Nec Corporation | Object region extracting device |
JP5221939B2 (en) * | 2007-11-21 | 2013-06-26 | 三菱重工業株式会社 | POSITION SPECIFICATION DEVICE, OPERATION INSTRUCTION DEVICE, AND SELF-RUNNING ROBOT |
-
2009
- 2009-07-14 JP JP2009165668A patent/JP5213183B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104238418A (en) * | 2014-07-02 | 2014-12-24 | 北京理工大学 | Interactive reality system and method |
KR101850118B1 (en) * | 2016-08-09 | 2018-04-19 | 한국생산기술연구원 | Method and System for Calibration of Mobile Robot and Camera |
Also Published As
Publication number | Publication date |
---|---|
JP2011022700A (en) | 2011-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5213183B2 (en) | Robot control system and robot control program | |
US20210248828A1 (en) | Image processing apparatus, image processing method, and program | |
CN110073313B (en) | Interacting with an environment using a parent device and at least one companion device | |
US7440691B2 (en) | 360-° image photographing apparatus | |
EP2802977B1 (en) | Information processing apparatus, information processing method, and computer program | |
JP7017689B2 (en) | Information processing equipment, information processing system and information processing method | |
US9300852B2 (en) | Controlling robotic motion of camera | |
JP2019071046A (en) | Robotic virtual boundaries | |
US10203837B2 (en) | Multi-depth-interval refocusing method and apparatus and electronic device | |
US11100602B2 (en) | System and method for geometrical user interactions via three-dimensional mapping | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6360509B2 (en) | Information processing program, information processing system, information processing method, and information processing apparatus | |
JPWO2017204120A1 (en) | Image processing apparatus, image processing method, and program | |
WO2019082853A1 (en) | Image processing device, image processing method, and program | |
CN104699249A (en) | Information processing method and electronic equipment | |
JP2020082274A (en) | Image processing device, control method thereof, and program | |
JP7279975B2 (en) | Method, system, and non-transitory computer-readable recording medium for supporting object control using two-dimensional camera | |
JP4563723B2 (en) | Instruction motion recognition device and instruction motion recognition program | |
JP2003280813A (en) | Pointing device, pointer controller, pointer control method and recording medium with the method recorded thereon | |
US20240255956A1 (en) | Information processing device, information processing system, information processing method, and program | |
JP2011227828A (en) | Information processor, information processing method and information processing program | |
JP5862382B2 (en) | Work support device | |
KR101305947B1 (en) | A method for remote controlling robot using wrap around image and an apparatus thereof | |
WO2023062792A1 (en) | Image processing device, image processing method, and storage medium | |
JP2021018573A (en) | Image processing apparatus, method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120321 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5213183 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |