JP2011022700A - ロボット制御システム及びロボット制御プログラム - Google Patents

ロボット制御システム及びロボット制御プログラム Download PDF

Info

Publication number
JP2011022700A
JP2011022700A JP2009165668A JP2009165668A JP2011022700A JP 2011022700 A JP2011022700 A JP 2011022700A JP 2009165668 A JP2009165668 A JP 2009165668A JP 2009165668 A JP2009165668 A JP 2009165668A JP 2011022700 A JP2011022700 A JP 2011022700A
Authority
JP
Japan
Prior art keywords
image
robot
transport
robot control
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009165668A
Other languages
English (en)
Other versions
JP5213183B2 (ja
Inventor
Kentaro Ishii
健太郎 石井
Yoshiki Takeoka
義樹 竹岡
Masahiko Inami
昌彦 稲見
Takeo Igarashi
健夫 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2009165668A priority Critical patent/JP5213183B2/ja
Publication of JP2011022700A publication Critical patent/JP2011022700A/ja
Application granted granted Critical
Publication of JP5213183B2 publication Critical patent/JP5213183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の搬送作業を行えるロボットを好適に制御できるロボット制御システムを、提供する。
【解決手段】カメラ画像が表示されているタッチスクリーン上の或る範囲を指定する操作が行われた場合、カメラ画像に対する画像セグメンテーション処理結果を利用して、カメラ画像中の、ユーザが指定した範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を探索し、探索した画像を、搬送対象物の画像として特定(S102)し、特定した画像に基づき搬送対象物をロボットに搬送させる制御処理(S110)を行う。
【選択図】図4

Description

本発明は、物体の搬送作業を実行可能なロボットを制御するためのロボット制御システムとロボット制御プログラムとに関する。
近年、掃除やモップがけを行える家事支援ロボット(例えば、特許文献1参照。)が、一般家庭で使用されるようになってきている。また、物体を持ち運ぶことが出来るロボットも開発されているため、一般家庭で使用するための、物体の搬送作業が行えるロボットが開発される日も近いと考えられる。
特開2006−331434号公報
"NyARToolKit"、[online]、[平成21年6月16日検索]、インターネット<URL:http://sourceforge.jp/projects/nyartoolkit/> "Efficient graph-based image segmentation", International Journal of Computer Vision, vol. 59, no. 2, pp. 167-181, 2004 "Fast visual search using focused color matching - active search", System and Computers In Japan, vol. 31, no. 9, pp. 81-88, 2000
そこで、本発明の課題は、物体の搬送作業を行えるロボットを好適に制御できるロボット制御システムと、それを用いることにより、そのようなロボット制御システムを実現(構築)できるロボット制御プログラムとを、提供することにある。
上記課題を解決するために、本発明のロボット制御システムは、物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間についての画像データを繰り返し生成する撮影手段と、前記撮影手段が生成する各画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、前記撮影手段が生成する画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、前記ユーザインタフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段とを備える。
すなわち、本発明のロボット制御システムは、撮影手段からの画像データに基づき、画面上に、ロボット利用空間の現状を示す画像(以下、カメラ画像と表記する)を表示する
システムであると共に、カメラ画像が表示されている画面上の或る範囲をユーザが指定すると、カメラ画像に対する画像セグメンテーション処理結果を利用して、カメラ画像中の、ユーザが指定した範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を、搬送対象物画像(ユーザが搬送対象物として指定した物体の現時点における画像)として探索するシステムとなっている。
従って、このロボット制御システムでは、他の物体と重ならない形で画面上に表示されている物体をユーザが搬送対象物として指定した場合、他の物体と重なった形で画面上に表示されている物体をユーザが搬送対象物として指定した場合のいずれの場合にも、搬送対象物画像が正確に探索(特定)されることになる。
そして、搬送対象物画像を正確に探索できれば、その搬送対象物画像に基づき、搬送対象物の搬送作業をロボットに行わせるために必要な情報(搬送対象物の現在位置に関する情報)を得ることが出来るのであるから、本発明のロボット制御システムによれば、物体の搬送作業を行えるロボットを好適に制御できることになる。
本発明のロボット制御システムを実現するに際しては、ロボット制御手段として、『前記セグメンテーション手段による処理結果を利用して前記画面上に表示されている画像内に含まれている幾つかの連続したセグメントからなる複数個の比較対照画像を特定し、特定した複数個の比較対照画像の中から前記搬送対象物画像と最も類似した比較対照画像を探索し、探索した比較対照画像の前記画面上での位置から、前記ロボットの制御に用いる、前記ロボット利用空間内での前記搬送対象物の現在位置情報を算出する手段』を採用しておくことが出来る。なお、そのようなロボット制御手段を採用しておけば、搬送対象物の現在位置(現在位置情報)を特に正確に把握できる(搬送対象物を見失う可能性がより低い)ロボット制御システムを実現できることになる。
本発明のロボット制御システムは、搬送対象物の搬送場所(搬送先)を予め指定/設定しておくタイプのシステムとして実現することも、搬送作業毎に、搬送対象物の搬送場所を指定するタイプのシステム(『前記ユーザインターフェース手段が、前記搬送対象物と、前記搬送対象物を搬送すべき場所である搬送場所とを、ユーザに指定させる手段であり、前記ロボット制御手段が、前記搬送対象物画像を利用して、前記搬送対象物を前記搬送場所まで搬送する搬送作業を前記ロボットに行わせる手段である』システム)として実現することも可能なものである。
本発明のロボット制御システムを、後者のタイプのものとして実現する場合には、ユーザインターフェース手段として、『前記搬送対象物画像を探索した後、ドラッグアンドドロップ操作が可能な搬送場所指定用アイコンを前記画面上に表示し、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作がなされたときに、その搬送場所指定用アイコンのドロップ位置に対応する前記ロボット利用空間内の場所が前記搬送場所として指定されたと判断する手段』を採用しておくことが出来る。また、ユーザインターフェース手段として、『前記搬送対象物画像をアイコン化したものを前記搬送場所指定用アイコンとして表示する手段』を採用しておくことも出来る。
さらに、“他の物体の画像と重なっていない位置に搬送場所指定用アイコンをドロップしたにも拘わらず、指定した搬送場所に、搬送対象物を配置可能な余地がない”といったようなことが生じないようにするために、ユーザインターフェース手段として、『前記搬送場所指定用アイコンのドラッグアンドドロップ操作中に、前記搬送場所指定用アイコンのサイズを、前記搬送場所指定用アイコンの表示位置に対応する前記ロボット利用空間内の位置に前記搬送対象物が存在していた場合における前記搬送対象物の画像のサイズに変更するサイズ変更機能を有する手段』を採用しておくことも出来る。
また、搬送場所指定用アイコンのドラッグアンドドロップ操作中に、ユーザが、搬送場所指定用アイコンのサイズの微妙な変化に起因する違和感を感じないようにするために、ユーザインターフェース手段として、上記サイズ変更機能を有する手段であると共に、『前記撮影手段の前記ロボット利用空間に対する姿勢に応じて、前記サイズ変更機能をON/OFFする手段』を採用しておくことも出来る。
また、セットアップ作業な容易なシステムとするために、本発明のロボット制御システムを、『前記ロボットの特定の部分の形状を示す形状情報と前記撮影手段が生成した画像データとに基づき、当該画像データが示している画像中の各画素の位置から、各画素に対応する、前記ロボット利用空間内の位置についての、前記ロボットの走行面に平行な座標面を有する座標系座標を求めるための変換情報を算出する変換情報算出手段を、さらに、備え、前記ロボット制御手段が、前記変換情報算出手段により算出された変換情報を利用して前記撮影手段が生成する画像データを解析することによって、前記ロボットの制御に用いる、前記ロボット利用空間内での前記ロボットの現在位置情報と前記搬送対象物の現在位置情報とを算出する手段である』システムとして実現しておくことも出来る。
そして、本発明のロボット制御プログラムは、コンピュータを、物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間に向けられたデジタルカメラからの画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、前記デジタルカメラからの画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、前記ユーザインタフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段とを備える装置として機能させることが出来るものとなっている。
従って、このロボット制御プログラムを用いれば、物体の搬送作業を行えるロボットを好適に制御できるロボット制御システム(請求項1記載のロボット制御システムに相当するシステム)を実現できることになる。
本発明によれば、物体の搬送作業を行えるロボットを好適に制御できるロボット制御システムと、それを用いることにより、そのようなロボット制御システムを実現(構築)できるロボット制御プログラムとを、提供することが出来る。
本発明の第1実施形態に係るロボット制御システムの構成図である。 第1実施形態に係るロボット制御システムが制御するロボットの外観図である。 第1実施形態に係るロボット制御システム内の制御装置が実行する画像セグメンテーション処理の処理内容の説明図である。 第1実施形態に係るロボット制御システム内の制御装置が実行するメイン処理の流れ図である。 メイン処理(搬送指示受付処理)の実行中にタッチスクリーン上に表示される画像の一例を示した図である。 メイン処理(搬送指示受付処理)内で実行されるD&D操作応答処理の内容を説明するための図である。 第1実施形態に係るロボット制御システム内の制御装置が実行するロボット制御処理の流れ図である。 第1実施形態に係るロボット制御システム内の制御装置が算出するカラーヒストグラムの説明図である。 本発明の第2実施形態に係るロボット制御システム内の制御装置が実行する第2D&D操作応答処理の流れ図である。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
《第1実施形態》
まず、図1及び図2を用いて、本発明の第1実施形態に係るロボット制御システム10の概要を説明する。
図1に示してあるように、本実施形態に係るロボット制御システム10は、ロボット15と、制御装置11と、当該制御装置11にケーブルにて接続されたカメラ12及びタッチスクリーンディスプレイ13とを、備えている。
このロボット制御システム10が備えるロボット15は、ロボットプラットフォームとして市販されているiRobot Create(iRobot Corporationの商標)を、Bluetooth(Bluetooth-SIG Inc.の商標)による無線制御が可能なように改造したロボットである。
図2に示したように、このロボット15の上面中央部には、回転対称性を有さない形状のマーカー図形が描画されている板状のロボットマーカーが、その上下方向(図における上下方向)とロボット15の前後方向(図における上下方向)とが一致し、かつ、その板面とロボット15の走行面(ロボット15に物体の搬送作業を行わせる部屋の床面;以下、ロボット走行面と表記する)とが平行になる姿勢で、取り付けられている。
カメラ12(図1)は、被写体(撮影対象)についての画像データ(カラー画像データ)を周期的に出力可能な装置(PCカメラ、Webカメラ等と称されている装置)である。本ロボット制御システム10のセットアップ時には、このカメラ12を、ロボット15に物体の搬送作業を行わせる部屋の天井近傍の箇所に当該部屋の床の様子/状況を斜め上方から撮影できる姿勢で固定する作業が、行われる。なお、本実施形態において、“物体の搬送作業”とは、“床上の物体を押す(床上の物体と接した状態で床上を物体方向に移動する)ことにより当該物体の床上での位置を変更する作業”のことである。
タッチスクリーンディスプレイ13は、指で操作可能なタッチスクリーン14を備えた表示装置(コンピュータの周辺機器として市販されているディスプレイ)である。このタッチスクリーンディスプレイ13は、スピーカーを内蔵したものとなっている。
制御装置11は、カメラ12、タッチスクリーンディスプレイ13及びロボット15を統合的に制御することにより、ロボット制御システム10を、『タッチスクリーン14に対する操作により、ユーザが、所望の“物体の搬送作業”をロボット15に行わせることが出来るシステム』として機能させる装置である。
この制御装置11は、Bluetoothによる通信機能等を有するコンピュータに、本システ
ム用のものとして用意したプログラムであるロボット制御プログラムや、上記したマーカー図形の形状(各部のサイズや上下方向)を示すマーカー図形情報を、可搬型記録媒体(図示略)からインストールしたものとなっている。
次に、ロボット制御システム10の動作を、説明する。
なお、以下の説明では、ロボット15に物体の搬送作業を行わせる部屋ことを、ロボット利用空間と表記し、カメラ12のレンズの光軸と一致するZ軸、カメラ12の上下方向、左右方向とそれぞれ平行なY軸、X軸を有する3次元直交座標系のことを、カメラ座標系と表記する。また、カメラ12により撮影された画像(カメラ12からの画像データがその内容を表している画像)の左辺と一致する座標軸と、当該画像の上辺と一致する座標軸とを有する2次元直交座標系のことを、画像座標系と表記し、ロボット走行面上に設定される(ロボット走行面と一致する座標面を有する)2次元直交座標系のことを、制御用座標系と表記する。
ロボット制御プログラムを起動すると、制御装置11は、カメラ12からの各画像データに基づく画像表示をタッチスクリーンディスプレイ13に行わせる処理(カメラ12により撮影された各画像を、順次、タッチスクリーン14上に表示させる処理)を開始する。また、制御装置11は、ロボット座標算出処理と画像セグメンテーション処理とを周期的に実行する状態となる。
制御装置11が周期的に実行するロボット座標算出処理は、カメラ12からの画像データを上記したマーカー図形情報を用いて解析することにより、ロボットマーカー(正確には、ロボットマーカー上のマーカー図形)の位置や姿勢を把握し、把握結果に基づき、以下の2情報を算出する処理である。
・“ロボットマーカーの中心点を、制御用座標系の座標面(ロボット走行面)に正射影した点”の座標(制御用座標系座標)であるロボット座標
・“ロボットマーカーの前方向(図2における上方向)を向いたベクトルを制御用座標系の座標面に正射影したベクトル”である進行方向ベクトル
なお、このロボット座標算出処理は、ロボットマーカーを初めて検出した際には、“画像座標系座標を制御用座標系座標に変換するための座標変換行列”も算出する処理となっている。また、ロボット制御プログラムは、このロボット座標算出処理を制御装置11に実行させるための部分を、NyARtoolkit(ARToolKitをJava(米国Sun Microsystem,Inc.の商標)に移植した、拡張現実アプリケーションの実装を手助けするためのクラスライブラリ:非特許文献1参照。)を利用して作成したプログラムとなっている。
制御装置11が周期的に実行する画像セグメンテーション処理は、カメラ12からの画像データが表している画像/タッチスクリーン14上に表示されている画像(以下、カメラ画像と表記する)を、特徴が一様と見なせる複数のセグメントに分割する処理である。
この画像セグメンテーション処理は、例えば、カメラ画像が図3(a)に示したものであった場合、当該カメラ画像を、図3(b)に示したようなセグメント群に分割するものとなっている。すなわち、画像セグメンテーション処理は、カメラ画像中の各物体に関する画像を、複数のセグメントに分割してしまうものとなっている。なお、本実施形態に係る制御装置11が実際に実行する画像セグメンテーション処理は、P. F. Felzenszwalbらが開発したアルゴリズム(非特許文献2参照。)によりカメラ画像をセグメント化する処理である。
ロボット制御プログラムを起動すると、制御装置11は、上記したロボット座標算出処
理による情報算出が成功する(ロボット15上のロボットマーカーがカメラ12によって撮影される)のを監視する処理も開始する。そして、制御装置11は、ロボット座標算出処理による情報算出が成功した場合には、図4に示した手順のメイン処理を開始して、まず、搬送指示受付処理(ステップS101〜S106の処理)を行う。
この搬送指示受付処理は、範囲指定操作とドラッグアンドドロップ操作とを行わせることにより、ユーザに、ロボット15による搬送作業の対象とすべき物体(以下、搬送対象物と表記する)と、その搬送場所(搬送先)とを、指定させる処理である。
図示してあるように、搬送指示受付処理を開始した制御装置11は、まず、範囲指定操作応答処理(ステップS101)を実行する。
この範囲指定操作応答処理は、ユーザによる範囲指定操作に応答して、範囲指定操作で指定中の範囲/指定された範囲を示す矩形枠をタッチスクリーン14上に表示する処理である。なお、範囲指定操作とは、範囲として指定したい矩形領域(搬送対象物の画像の全体/大部分が含まれる矩形領域)の一頂点位置から対角の頂点位置までタッチスクリーン14上で指を移動させる操作のことである。
ユーザによる範囲指定操作が完了した場合(ユーザの指がタッチスクリーン14から離れた場合)、制御装置11は、当該範囲指定操作で指定された範囲(以下、指定範囲と表記する)を記憶してから、範囲指定操作応答処理(ステップS101)を終了する。
そして、制御装置11は、その時点におけるカメラ画像の画像データ、最新の画像セグメンテーション処理結果、指定範囲に基づき、所定割合以上の部分が指定範囲内に含まれているセグメントを全て探索し、探索したセグメントからなる画像を、ユーザが指定した搬送対象物の現時点における画像(以下、搬送対象物画像と表記する)として特定する処理(ステップS102)を行う。なお、最新の画像セグメンテーション処理結果とは、最も最近行った画像セグメンテーション処理の処理結果のことである。また、所定割合とは、ロボット制御プログラム中に設定されている割合のことである。
その後、制御装置11は、タッチスクリーン14上に表示されている画像中の搬送対象物画像をハイライト表示させるための処理(ステップS103)を行う。
既に説明したように、ステップS102の処理時に特定される搬送対象物画像は、所定割合以上の部分が指定範囲内に含まれているセグメントからなる画像(つまり、所定割合未満の部分しか指定範囲内に含まれていないセグメントを構成要素としていない画像)である。従って、ステップS101の処理時にユーザが指定した範囲内に搬送対象物以外の物体の一部が表示されていても、ステップS102の処理時には、搬送対象物のみの画像が搬送対象物画像として特定されることになる。そして、その結果として、ステップS103の処理時には、図5に例示したように、搬送対象物(この場合、ごみ箱)のみがハイライト表示されることになる。
ステップS103の処理(図4)を終えた制御装置11は、搬送対象物画像についてのカラーヒストグラムを生成して、基準ヒストグラム(用途は後述)として記憶する処理(ステップS104)を行う。なお、搬送対象物画像についてのカラーヒストグラムとは、搬送対象物画像の各画素のR、G、B値、それぞれについての規格化したヒストグラムからなる情報のことである。
その後、制御装置11は、D&D操作応答処理(ステップS105)を開始して、まず、タッチスクリーン14上の搬送対象物画像を指定する操作(タッチスクリーン14の、
搬送対象物画像が表示されている部分に指を置く操作)が行われるのを監視している状態となる。そして、制御装置11は、搬送対象物画像を指定する操作が行われた場合には、図6(a)に示したように、搬送対象物画像をアイコン化した搬送場所指定用アイコンを搬送対象物画像上に表示した後、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作に実際に応答する処理(ユーザのアイコン操作に従って、搬送場所指定用アイコンの表示位置を変更する処理)を開始する。
制御装置11は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了した場合(搬送場所指定用アイコン上/タッチスクリーン14上から、指が離れた場合)には、図6(b)に示したように、搬送対象物画像のハイライト表示を中止してから、D&D操作応答処理(ステップS105)を終了する。
D&D操作応答処理を終了した制御装置11は、ロボット座標算出処理により算出されている座標変換行列を用いて、搬送場所指定用アイコンの現在位置(その時点における搬送場所指定用アイコンの中心位置の画像座標系座標)から、対応するロボット走行面位置の制御用座標系座標を算出し、算出結果を搬送場所座標として記憶する処理(ステップS106)を行う。
そして、ステップS106の処理を終えた制御装置11は、搬送指示受付処理(ステップS101〜S106の処理)を終了する。なお、流れ図(図4)中への表記は省略してあるが、制御装置11が実際に実行する搬送指示受付処理は、ユーザが、搬送対象物画像を指定する前に、タッチスクリーン14上に表示されている矩形枠の形状を変更する操作を行った場合、ステップS102以降の処理を再実行する処理である。すなわち、搬送指示受付処理は、大きすぎる/小さすぎる範囲を指定してしまった結果として、搬送対象物以外の部分もハイライト表示されてしまった場合や搬送対象物の一部分しかハイライト表示されなかった場合に、ユーザが、範囲指定をやり直せる処理となっている。
また、搬送指示受付処理は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作の完了後、所定時間内であれば、搬送場所指定用アイコンに対するドラッグアンドドロップ操作(つまり、搬送場所座標の変更指示操作)を受け付ける処理ともなっている。また、メイン処理は、搬送指示受付処理の完了後にも、ロボット制御処理(ステップS110;詳細は後述)の完了前は、搬送場所座標の変更指示操作(搬送場所指定用アイコンに対するドラッグアンドドロップ操作)を受け付ける処理となっている。
上記内容の搬送指示受付処理を終えた制御装置11(搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了した後、ドラッグアンドドロップ操作が再開されることなく、所定時間が経過したことを検出した制御装置11)は、ステップS110にて、図7に示した手順のロボット制御処理を実行する。
すなわち、制御装置11は、他の処理(画像セグメンテーション処理等)を適宜実行しながら、周期的に、搬送対象物座標算出処理(ステップS201)を実行する状態となる。
制御装置11が周期的に実行する搬送対象物座標算出処理は、搬送対象物画像と最も類似した画像(以下、最類似画像と表記する)をカメラ画像中から探索し、探索した最類似画像の中心点の画像座標系座標に対応する制御用座標系座標を、搬送対象物座標として算出する処理である。
この搬送対象物座標算出処理は、最新の画像セグメンテーション処理結果に基づき、カメラ画像内から、“カメラ画像上で並んでいる、搬送対象物画像とほぼ同数のセグメント
からなる画像”を全て探索し、探索した各画像のカラーヒストグラムと基準ヒストグラム(図4のステップS104参照)との間の類似度をヒストグラムインターセクション(非特許文献3参照。)により算出することにより、上記最類似画像を探索する処理となっている。
なお、“カメラ画像上で並んでいる、搬送対象物画像とほぼ同数のセグメントからなる画像”とは、“カメラ画像上で並んでいる複数のセグメント(又は、単一のセグメント)からなる、セグメント数が搬送対象物画像のセグメント数を基準とした所定範囲(本実施形態では、搬送対象物画像のセグメント数−1〜搬送対象物画像のセグメント数+1の範囲)内に入っている画像”のことである。
搬送対象物座標算出処理(ステップS201)を終了した制御装置11は、当該搬送対象物座標算出処理時により探索された最類似画像の類似度が、類似度閾値(ロボット制御プログラム中に設定されている値)未満であるか否かを判断する(ステップS202)。
最類似画像の類似度が類似度閾値以上であった場合(ステップS202;NO)、制御装置11は、搬送場所座標がその位置を示している点と搬送対象物座標がその位置を示している点との間の距離(以下、座標間距離と表記する)が、距離閾値(ロボット制御プログラム中に設定されている値)未満であるか否かを判断する(ステップS203)。
そして、制御装置11は、座標間距離が距離閾値以上であった場合(ステップS203;NO)には、搬送場所座標や、その時点におけるロボット座標、進行方向ベクトル及び搬送対象物座標に基づき、ロボット15に対して実行する制御の内容を決定する処理(ステップS204)を行う。詳細説明は省略するが、このステップS204の処理は、“或る方向に或る量(〜数cm)移動させる”、“或る方向を向かせる”といったような、ロボット15の動作が短時間で完了する制御を、ロボット15に対して実行する制御の内容として決定する処理となっている。また、ステップS204の処理は、ロボット走行面上の、搬送対象物以外の物体の位置を特に考慮することなく、ロボット15の進行方向を決定する処理となっている。
ステップS204の処理を終えた制御装置11は、当該処理により決定した内容の制御をロボット15に対して実行(ステップS205)してから、ステップS201以降の処理を再び開始する。
そして、制御装置11は、上記手順の処理を繰り返しているうちに、座標間距離が距離閾値未満となったことを検出した場合(ステップS203;YES)には、ロボット制御処理が正常に終了した(物体の搬送作業が完了した)ことを記憶(図示せず)してから、このロボット制御処理(図7の処理)を終了する。
また、制御装置11は、座標間距離が距離閾値未満となる前に、最類似画像の類似度が類似度閾値未満となった場合(ステップS202;YES)には、ロボット制御処理が異常終了した(搬送対象物を見失った)ことを記憶(図示せず)してから、ロボット制御処理を終了する。
図4に戻って、ロボット制御処理終了後の制御装置11の動作を説明する。
ロボット制御処理(ステップS110)を終えた制御装置11は、当該ロボット制御処理が正常終了していた場合(ステップS111;正常終了)には、搬送場所指定用アイコンをタッチスクリーン14上から消去する(ステップS112)。そして、制御装置11は、ステップS101以降の処理を再び開始する。
一方、ロボット制御処理が異常終了していた場合(ステップS111;異常終了)、制御装置11は、搬送対象物再指定要求処理(ステップS113)を行う。この搬送対象物再指定要求処理は、搬送対象物の再指定をユーザに要求するために、タッチスクリーン14上に警告アイコン(本実施形態では、その内部にエクスクラメーションマークが示されている三角形状のアイコン)を表示した上で、タッチスクリーンディスプレイ13のスピーカーに所定の警告音を出力させる処理である。
その後、制御装置11は、上記したステップS101〜S104の処理と本質的には同内容の搬送対象物再指定操作受付処理(ステップS114)を行うことにより、ユーザに、搬送対象物を再指定させる(搬送対象物を囲む範囲を再指定させる)。そして、制御装置11は、ユーザによる搬送対象物の再指定が完了したときに、ステップS110以降の処理を再び開始する。
以上、説明したように、本実施形態に係るロボット制御システム10は、カメラ画像が表示されているタッチスクリーン14上の或る範囲を指定する操作が行われた場合、カメラ画像に対する画像セグメンテーション処理結果を利用して、カメラ画像中の、ユーザが指定した範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を探索する処理を行い、探索した画像を、搬送対象物画像(ユーザが指定した搬送対象物の現時点における画像)として特定する機能を有している。
従って、ロボット制御システム10は、常に(ユーザが、他の物体と重なった形でタッチスクリーン14上に表示されている物体を搬送対象物として指定した場合であっても)、搬送対象物画像を正確に特定できるシステムであると共に、ユーザが範囲指定を正確に行わなくても(搬送対象物を完全に包含する範囲を指定しなくても)、搬送対象物画像を正確に特定できるシステムとなっていることになる。
また、ロボット制御システム10は、上記のようにして特定した搬送対象物画像のカラーヒストグラム(基準ヒストグラム)と、カメラ画像中の、搬送対象物画像とほぼ同数の連続したセグメントからなる各画像のカラーヒストグラムとを比較することにより、カメラ画像中の、搬送対象物画像と最も類似した画像を探索した上で、探索結果に基づき、ロボット15により搬送されている最中の搬送対象物の位置を求める機能も有している。
そして、カラーヒストグラムは、図8(a)〜図8(d)に模式的に示したように、元々、物体によってその内容が大きく異なる情報であるし、カラーヒストグラムの比較を行う画像を、矩形画像ではなく、搬送対象物画像とほぼ同数の連続したセグメントからなる画像としておけば、背景成分の影響がない形で、搬送対象物画像に類似した画像を探索できる。従って、本実施形態に係るロボット制御システム10は、画像探索に他の手法を採用したシステムよりも、搬送対象物の位置を正確に把握できるシステム(ロボット15を正確に制御できるシステム)となっていることになる。
また、カメラ画像から物体座標を算出する既存のシステムが、セットアップ時に、上記した座標変換行列相当のものを算出させるための処理(カメラキャリブレーション処理等と呼ばれているもの)を行わせる必要があるものとなっているのに対し、ロボット制御システム10は、ロボット15の位置を検出するためにロボット15の上面に取り付けられているロボットマーカーの位置及び姿勢から、座標変換行列を算出してしまうシステムとなっている。従って、ロボット制御システム10は、既存のシステムよりもセットアップが容易なシステム(カメラ12を固定しさえすれば、運用可能な状態となるシステム)となっていると言うことが出来る。
《第2実施形態》
以下、第1実施形態に係るロボット制御システム10の説明時に用いたものと同じ符号を用いて、本発明の第2実施形態に係るロボット制御システム10の構成及び動作を説明する。
本実施形態に係るロボット制御システム10は、メイン処理(図4)のステップS105にて、図9に示した手順の第2D&D操作応答処理が行われるように、第1実施形態に係るロボット制御システム10を改良したシステムである。
すなわち、第2実施形態に係るロボット制御システム10内の制御装置11(以下、第2制御装置11と表記する)は、基準ヒストグラムを算出・記憶する処理(図4のステップS104参照)の完了後に、この第2D&D操作応答処理を開始する。
そして、第2D&D操作応答処理を開始した第2制御装置11は、まず、タッチスクリーン14上の搬送対象物画像を指定する操作が行われるのを監視している状態(ステップS301の処理/判断を繰り返している状態)となる。
搬送対象物画像を指定する操作が行われた場合(ステップS301;YES)、第2制御装置11は、搬送対象物画像をアイコン化した搬送場所指定用アイコンを搬送対象物画像上に表示する(ステップS302)。その後、制御装置11は、座標変換行列からカメラ12の俯角(カメラ12のレンズの光軸とロボット走行面とがなす角度)を算出し、算出した俯角が、予め設定されている俯角閾値(本実施形態では、50度)以下であるか否かを判断する処理(ステップS303)を行う。
そして、第2制御装置11は、カメラ12の俯角が俯角閾値以下ではなかった場合(ステップS303;NO)には、搬送場所指定用アイコンに対するドラッグアンドドロップ操作に応答して搬送場所指定用アイコンの表示位置を変更するアイコン表示位置変更処理(ステップS304)を行う。第2制御装置11は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了したときに、このアイコン表示位置変更処理を終了する。そして、第2制御装置11は、搬送対象物画像のハイライト表示を中止(ステップS306)してから、この第2D&D操作応答処理(図9の処理)を終了する。
一方、カメラ12の俯角が俯角閾値以下であった場合(ステップS303;YES)、第2制御装置11は、アイコン表示位置・表示サイズ変更処理(ステップS305)を行う。
このアイコン表示位置・表示サイズ変更処理は、搬送場所指定用アイコンが新表示位置にドラッグされた場合、座標変換行列、搬送対象物画像の初期位置等を用いて、新表示位置に対応するロボット走行面上の位置に搬送対象物が実際に存在していた場合における搬送対象物の画像サイズを求め、求めた画像サイズと同サイズとなるように拡縮した搬送場所指定用アイコンを新表示位置に表示する処理である。
第2制御装置11は、搬送場所指定用アイコンに対するドラッグアンドドロップ操作が完了したときに、このアイコン表示位置・表示サイズ変更処理を終了する。そして、第2制御装置11は、搬送対象物画像のハイライト表示を中止(ステップS306)してから、第2D&D操作応答処理を終了する。
要するに、カメラ12の俯角が比較的に小さい場合、タッチスクリーン14上には、ロボット走行面の手前側(カメラ12に近い側)に存在する物体/領域が、ロボット走行面の奥側に存在する同サイズの物体/領域よりもかなり大きく表示される。そのため、常に
、同サイズの搬送場所指定用アイコンを表示する第1実施形態に係るロボット制御システム10では、『他の物体の画像と重なっていない位置に搬送場所指定用アイコンをドロップしたにも拘わらず、指定した搬送場所に、搬送対象物を配置可能な余地がない』、『搬送対象物を実際には配置可能な場所であるにも拘わらず、当該場所相当の位置に搬送場所指定用アイコンをドロップすると、搬送場所指定用アイコンが他の物体の画像と重なる』といったことが生じ得ることになる。
一方、本実施形態に係るロボット制御システム10は、カメラ12の俯角が俯角閾値以下となっている場合には、タッチスクリーン14上に表示する搬送場所指定用アイコンのサイズを、その表示位置に応じたサイズ(その表示位置が指示する位置に搬送された場合における搬送対象物の画像サイズ)に変更する構成を有している。
従って、このロボット制御システム10は、第1実施形態に係るロボット制御システム10では生じ得る上記不具合が生じないシステムとなっていることになる。
なお、第2実施形態に係るロボット制御システム10を、カメラ12の俯角が比較的に大きい場合に、搬送場所指定用アイコンのサイズ変更を行わないシステムとして構成しているのは、カメラ12の俯角が比較的に大きい場合には、ロボット走行面上での位置による画像サイズの変化量が少ないが故に上記のような不具合が殆ど生じにないことに加え、カメラ12の俯角が比較的に大きい場合にも搬送場所指定用アイコンのサイズ変更を行うようにしておくと、搬送場所指定用アイコンのドラッグアンドドロップ操作中に、搬送場所指定用アイコンのサイズの微妙な変化に起因する違和感を感じることが分かったためである。
《変形形態》
上記した第1、第2実施形態に係るロボット制御システム10は、各種の変形を行うことが出来る。例えば、上記した各実施形態に係るロボット制御システム10は、マーカー図形の形状を示すマーカー図形情報を利用してカメラ画像を解析することにより、座標変換行列、ロボット座標等を算出するものであったが、各実施形態に係るロボット制御システム10を、ロボット15自体の形状(外観)を示す情報に基づき、座標変換行列等を算出するシステムに変形することが出来る。
また、セットアップ作業がより複雑なシステムとなってしまうが、各実施形態に係るロボット制御システム10を、ロボットマーカー(或いは、ロボット15自体)の位置、姿勢から、座標変換行列を算出しないシステム(セットアップ時に、座標変換行列を算出させるための作業を行うことがシステム)に変形することも出来る。
各実施形態に係るロボット制御システム10を、上記したものとは異なる内容の処理により、搬送対象物を追跡する(搬送対象物画像と最も類似した画像をカメラ画像から探索し、その探索結果に基づき、搬送対象物の位置を特定する)システムに変形することも出来る。例えば、各実施形態に係るロボット制御システム10を、カラーヒストグラムと基準ヒストグラムとの間の類似度を、ヒストグラムインターセクション以外の方法で算出するシステムに変形することが出来る。また、各実施形態に係るロボット制御システム10を、カメラ画像内の各所の矩形画像のカラーヒストグラムと基準ヒストグラムとを比較することにより、搬送対象物を追跡するシステムに変形することも出来る。ただし、そのような変形を行うと、背景成分の影響により、搬送対象物の追跡性能が劣化してしまうことになる。従って、各実施形態に係るロボット制御システム10を変形する場合には、幾つかの連続したセグメントを組み合わせた画像のカラーヒストグラムと基準ヒストグラムとの比較により、搬送対象物が追跡されるようにしておくことが望ましい。
各実施形態に係るロボット制御システム10を、指定された搬送対象物をロボット15が特定の場所まで搬送するシステム(搬送場所を指定する必要がないシステム)、ロボット15として物体を持ち運べるものを備えたシステムに変形することも出来る。また、各実施形態に係るロボット制御システム10を、カメラ画像のセグメント化を上記したものとは異なる内容(アルゴリズム)の処理により行うシステム、搬送場所指定用アイコンとして、規定形状のアイコン(搬送対象物画像をアイコン化したものではないアイコン)が表示されるシステムに変形することも出来る。
各実施形態に係るロボット制御システム10を、最類似画像の探索後、搬送対象物画像を、探索した最類似画像に変更するシステムや、最類似画像の探索時に、カメラ画像内の、前回の最類似画像の近傍に位置する“カメラ画像上で並んでいる、搬送対象物画像とほぼ同数のセグメントからなる画像”のみを探索対象とするシステムに変形することも出来る。また、各実施形態に係るロボット制御システム10を、範囲指定操作やドラッグアンドドロップ操作をマウスにより行うシステム、ロボット15が構成要素となっていないシステム(自システム用に開発されたものではないロボットを制御するシステム)に変形しても良いことなどは、当然のことである。
10・・・ロボット制御システム
11・・・制御装置
12・・・カメラ
13・・・タッチスクリーンディスプレイ
14・・・タッチスクリーン
15・・・ロボット

Claims (9)

  1. 物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間についての画像データを繰り返し生成する撮影手段と、
    前記撮影手段が生成する各画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、
    前記撮影手段が生成する画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、
    前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、
    前記ユーザインタフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段と
    を備えることを特徴とするロボット制御システム。
  2. 前記ロボット制御手段が、
    前記セグメンテーション手段による処理結果を利用して前記画面上に表示されている画像内に含まれている幾つかの連続したセグメントからなる複数個の比較対照画像を特定し、特定した複数個の比較対照画像の中から前記搬送対象物画像と最も類似した比較対照画像を探索し、探索した比較対照画像の前記画面上での位置から、前記ロボットの制御に用いる、前記ロボット利用空間内での前記搬送対象物の現在位置情報を算出する手段である
    ことを特徴とする請求項1に記載のロボット制御システム。
  3. 前記ユーザインターフェース手段が、
    前記搬送対象物と、前記搬送対象物を搬送すべき場所である搬送場所とを、ユーザに指定させる手段であり、
    前記ロボット制御手段が、
    前記搬送対象物画像を利用して、前記搬送対象物を前記搬送場所まで搬送する搬送作業を前記ロボットに行わせる手段である
    ことを特徴とする請求項1又は請求項2に記載のロボット制御システム。
  4. 前記ユーザインターフェース手段が、
    前記搬送対象物画像を探索した後、ドラッグアンドドロップ操作が可能な搬送場所指定用アイコンを前記画面上に表示し、当該搬送場所指定用アイコンに対するドラッグアンドドロップ操作がなされたときに、その搬送場所指定用アイコンのドロップ位置に対応する前記ロボット利用空間内の場所が前記搬送場所として指定されたと判断する手段である
    ことを特徴とする請求項3に記載のロボット制御システム。
  5. 前記ユーザインターフェース手段が、
    前記搬送対象物画像をアイコン化したものを前記搬送場所指定用アイコンとして表示する手段である
    ことを特徴とする請求項4に記載のロボット制御システム。
  6. 前記ユーザインターフェース手段が、
    前記搬送場所指定用アイコンのドラッグアンドドロップ操作中に、前記搬送場所指定用
    アイコンのサイズを、前記搬送場所指定用アイコンの表示位置に対応する前記ロボット利用空間内の位置に前記搬送対象物が存在していた場合における前記搬送対象物の画像のサイズに変更するサイズ変更機能を有する手段である
    ことを特徴とする請求項5に記載のロボット制御システム。
  7. 前記ユーザインターフェース手段が、
    前記撮影手段の前記ロボット利用空間に対する姿勢に応じて、前記サイズ変更機能をON/OFFする手段である
    ことを特徴とする請求項6に記載のロボット制御システム。
  8. 前記ロボットの特定の部分の形状を示す形状情報と前記撮影手段が生成した画像データとに基づき、当該画像データが示している画像中の各画素の位置から、各画素に対応する、前記ロボット利用空間内の位置についての、前記ロボットの走行面に平行な座標面を有する座標系座標を求めるための変換情報を算出する変換情報算出手段を、さらに、備え、
    前記ロボット制御手段が、
    前記変換情報算出手段により算出された変換情報を利用して前記撮影手段が生成する画像データを解析することによって、前記ロボットの制御に用いる、前記ロボット利用空間内での前記ロボットの現在位置情報と前記搬送対象物の現在位置情報とを算出する手段である
    ことを特徴とする請求項1乃至請求項7のいずれか一項に記載のロボット制御システム。
  9. コンピュータを、
    物体の搬送作業を実行可能なロボットを機能させる空間であるロボット利用空間に向けられたデジタルカメラからの画像データに基づき、画面上に、前記ロボット利用空間の現状を示す画像を表示する表示手段と、
    前記デジタルカメラからの画像データに対して画像セグメンテーション処理を行うことにより、当該画像データが示している画像を複数のセグメントに分割するセグメンテーション手段と、
    前記ロボットに搬送させるべき物体である搬送対象物をユーザに指定させるためのユーザインターフェース手段であって、前記画面上の或る範囲を指定する範囲指定操作がなされた場合に、前記セグメンテーション手段による処理結果を利用して、前記画面上に表示されている画像中から、前記範囲指定操作で指定された範囲内に所定割合以上の部分が含まれているセグメント群からなる画像を搬送対象物画像として探索する処理を行い、その時点における画像が当該搬送対象物画像となっている物体が、前記搬送対象物として指定されたと判断するユーザインターフェース手段と、
    前記ユーザインタフェース手段により探索された前記搬送対象物画像を利用して、前記搬送対象物に対する搬送作業を前記ロボットに行わせるロボット制御手段と
    を備える装置として機能させることを特徴とするロボット制御プログラム。
JP2009165668A 2009-07-14 2009-07-14 ロボット制御システム及びロボット制御プログラム Active JP5213183B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009165668A JP5213183B2 (ja) 2009-07-14 2009-07-14 ロボット制御システム及びロボット制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009165668A JP5213183B2 (ja) 2009-07-14 2009-07-14 ロボット制御システム及びロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2011022700A true JP2011022700A (ja) 2011-02-03
JP5213183B2 JP5213183B2 (ja) 2013-06-19

Family

ID=43632737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009165668A Active JP5213183B2 (ja) 2009-07-14 2009-07-14 ロボット制御システム及びロボット制御プログラム

Country Status (1)

Country Link
JP (1) JP5213183B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5192598B1 (ja) * 2012-07-03 2013-05-08 貴章 春日 自走式装置による作業システム
WO2015068229A1 (ja) * 2013-11-07 2015-05-14 富士機械製造株式会社 自動運転システム及び自動走行機
JP2016104512A (ja) * 2016-02-29 2016-06-09 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2016106038A (ja) * 2016-02-29 2016-06-16 ソニー株式会社 制御装置、制御方法、およびプログラム
CN106527441A (zh) * 2016-11-23 2017-03-22 河池学院 一种基于手机对机器人的行走路径进行控制的控制系统
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
US9802311B2 (en) 2011-08-02 2017-10-31 Sony Corporation Display control device, display control method, computer program product, and communication system
JP2018014064A (ja) * 2016-07-19 2018-01-25 Gft株式会社 室内用自走式ロボットの位置測定システム
JP2019012527A (ja) * 2018-07-20 2019-01-24 ソニー株式会社 移動体、制御方法、およびプログラム
JP2020049653A (ja) * 2018-07-20 2020-04-02 ソニー株式会社 移動体、制御方法、およびプログラム
WO2021171618A1 (ja) * 2020-02-28 2021-09-02 日本電気株式会社 搬送システム、制御装置、制御方法
CN113808206A (zh) * 2021-09-14 2021-12-17 广东三水合肥工业大学研究院 一种基于视觉追踪机器人的排版系统及方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104238418A (zh) * 2014-07-02 2014-12-24 北京理工大学 一种交互现实系统和方法
KR101850118B1 (ko) * 2016-08-09 2018-04-19 한국생산기술연구원 이동 로봇과 카메라의 캘리브레이션 방법 및 시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61227240A (ja) * 1985-04-02 1986-10-09 Mitsubishi Electric Corp 産業用ロボツト用視覚センサ
JPH03251921A (ja) * 1990-03-01 1991-11-11 Toshiba Corp ソフトウェア開発支援装置
JPH06131436A (ja) * 1992-10-19 1994-05-13 Fujitsu Ltd 描画処理装置及び方法
JPH10181858A (ja) * 1996-12-24 1998-07-07 Sony Corp 物体選別方法及び該方法を用いた物体選別装置
JP2001072247A (ja) * 1999-09-06 2001-03-21 Murata Mach Ltd 搬送システム
JP2003295951A (ja) * 2002-03-29 2003-10-17 Sogo Keibi Hosho Co Ltd 自律移動体巡回システムおよび自律移動体の位置補正方法
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
WO2008018398A1 (fr) * 2006-08-10 2008-02-14 Nec Corporation dispositif d'extraction de région d'objet
JP2009129058A (ja) * 2007-11-21 2009-06-11 Mitsubishi Heavy Ind Ltd 位置特定装置および動作指示装置並びに自走式ロボット

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61227240A (ja) * 1985-04-02 1986-10-09 Mitsubishi Electric Corp 産業用ロボツト用視覚センサ
JPH03251921A (ja) * 1990-03-01 1991-11-11 Toshiba Corp ソフトウェア開発支援装置
JPH06131436A (ja) * 1992-10-19 1994-05-13 Fujitsu Ltd 描画処理装置及び方法
JPH10181858A (ja) * 1996-12-24 1998-07-07 Sony Corp 物体選別方法及び該方法を用いた物体選別装置
JP2001072247A (ja) * 1999-09-06 2001-03-21 Murata Mach Ltd 搬送システム
JP2003295951A (ja) * 2002-03-29 2003-10-17 Sogo Keibi Hosho Co Ltd 自律移動体巡回システムおよび自律移動体の位置補正方法
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
WO2008018398A1 (fr) * 2006-08-10 2008-02-14 Nec Corporation dispositif d'extraction de région d'objet
JP2009129058A (ja) * 2007-11-21 2009-06-11 Mitsubishi Heavy Ind Ltd 位置特定装置および動作指示装置並びに自走式ロボット

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11654549B2 (en) 2011-08-02 2023-05-23 Sony Corporation Display control device, display control method, computer program product, and communication system
US10843337B2 (en) 2011-08-02 2020-11-24 Sony Corporation Display control device, display control method, computer program product, and communication system
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
US9802311B2 (en) 2011-08-02 2017-10-31 Sony Corporation Display control device, display control method, computer program product, and communication system
US9815199B2 (en) 2011-08-02 2017-11-14 Sony Corporation Display control device, display control method, computer program product, and communication system
US10717189B2 (en) 2011-08-02 2020-07-21 Sony Corporation Display control device, display control method, computer program product, and communication system
US12036672B2 (en) 2011-08-02 2024-07-16 Sony Group Corporation Display control device, display control method, computer program product, and communication system
US10500720B2 (en) 2011-08-02 2019-12-10 Sony Corporation Display control device, display control method, computer program product, and communication system
JP5192598B1 (ja) * 2012-07-03 2013-05-08 貴章 春日 自走式装置による作業システム
WO2015068229A1 (ja) * 2013-11-07 2015-05-14 富士機械製造株式会社 自動運転システム及び自動走行機
JPWO2015068229A1 (ja) * 2013-11-07 2017-03-09 富士機械製造株式会社 自動運転システム及び自動走行機
JP2016106038A (ja) * 2016-02-29 2016-06-16 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2016104512A (ja) * 2016-02-29 2016-06-09 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2018014064A (ja) * 2016-07-19 2018-01-25 Gft株式会社 室内用自走式ロボットの位置測定システム
CN106527441A (zh) * 2016-11-23 2017-03-22 河池学院 一种基于手机对机器人的行走路径进行控制的控制系统
JP2020049653A (ja) * 2018-07-20 2020-04-02 ソニー株式会社 移動体、制御方法、およびプログラム
JP2019012527A (ja) * 2018-07-20 2019-01-24 ソニー株式会社 移動体、制御方法、およびプログラム
WO2021171618A1 (ja) * 2020-02-28 2021-09-02 日本電気株式会社 搬送システム、制御装置、制御方法
US12103786B2 (en) 2020-02-28 2024-10-01 Nec Corporation Conveyance system, control device, and control method
CN113808206A (zh) * 2021-09-14 2021-12-17 广东三水合肥工业大学研究院 一种基于视觉追踪机器人的排版系统及方法
CN113808206B (zh) * 2021-09-14 2024-02-02 广东三水合肥工业大学研究院 一种基于视觉追踪机器人的排版系统及方法

Also Published As

Publication number Publication date
JP5213183B2 (ja) 2013-06-19

Similar Documents

Publication Publication Date Title
JP5213183B2 (ja) ロボット制御システム及びロボット制御プログラム
US11468648B2 (en) Image processing apparatus and image processing method
CN110073313B (zh) 使用母设备和至少一个伴随设备与环境交互
US20190121458A1 (en) Information Processing Apparatus, Information Processing Method, And Computer Program
US7440691B2 (en) 360-° image photographing apparatus
JP7017689B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
JP2019071046A (ja) ロボット仮想境界線
US10203837B2 (en) Multi-depth-interval refocusing method and apparatus and electronic device
US20100149337A1 (en) Controlling Robotic Motion of Camera
JP2018112789A (ja) 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法、ゲームシステム、ゲームプログラム、ゲーム装置、及びゲーム方法
JP6360509B2 (ja) 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置
JP2015049776A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2014206866A (ja) 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理の実行方法
JP7279975B2 (ja) 2次元カメラを利用して客体制御を支援する方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体
WO2019082853A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP5907163B2 (ja) データ関連度判定装置、データ関連度判定方法、および、プログラム
JP4563723B2 (ja) 指示動作認識装置及び指示動作認識プログラム
JP2013218423A (ja) 指向性映像コントロール装置及びその方法
JP2011227828A (ja) 情報処理装置、その処理方法及びプログラム
JP5862382B2 (ja) 作業支援装置
WO2023062792A1 (ja) 画像処理装置、画像処理方法、記憶媒体
TW201821766A (zh) 導航系統及導航方法
JP2020197497A (ja) 三次元計測装置、三次元計測方法およびプログラム
JP2011053924A (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130222

R150 Certificate of patent or registration of utility model

Ref document number: 5213183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250