JP5857747B2 - 撮像装置を搭載したロボットの動作設定法。 - Google Patents

撮像装置を搭載したロボットの動作設定法。 Download PDF

Info

Publication number
JP5857747B2
JP5857747B2 JP2012000329A JP2012000329A JP5857747B2 JP 5857747 B2 JP5857747 B2 JP 5857747B2 JP 2012000329 A JP2012000329 A JP 2012000329A JP 2012000329 A JP2012000329 A JP 2012000329A JP 5857747 B2 JP5857747 B2 JP 5857747B2
Authority
JP
Japan
Prior art keywords
robot
imaging device
procedure
face
plane mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012000329A
Other languages
English (en)
Other versions
JP2013139067A (ja
Inventor
安川 裕介
裕介 安川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012000329A priority Critical patent/JP5857747B2/ja
Publication of JP2013139067A publication Critical patent/JP2013139067A/ja
Application granted granted Critical
Publication of JP5857747B2 publication Critical patent/JP5857747B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置を搭載したロボットの動作設定法に関する。
人間とコミュニケーションをとることを目的とする、いわゆるコミュニケーションロボットと呼ばれるロボットがある。これらのコミュニケーションロボットは、人間等の利用者とアイコンタクトをとる、利用者に向かって手を振る等の、その場の状況に応じた適切なコミュニケーションをとることを目的として作られている。
また、特に高齢者において、他者とのコミュニケーションが認知症の防止および進行の緩徐化につながることが知られている。このことから、これらのコミュニケーションロボット(以下適宜単にロボットと呼ぶ)を高齢者のいる家庭に配備し、当該高齢者とコミュニケーションを取らせることで、前記効果を奏することが期待されている。
これらのロボットにおいては、ロボットに搭載されたカメラ等の撮像装置によって撮像された画像をもとに、当該ロボットが適切な動作を行う手法が知られている。
撮像画像をもとにロボットを適切に動作させる手法として、ロボットに搭載された撮像装置によって周囲を撮像し、その撮像画像に写った利用者の視線が当該カメラを向いた状態である等、予め定めた適切な状態となるように当該ロボットを駆動させる例がある。また、撮像画像に写った利用者の視線等の状態に応じて当該ロボットを駆動させる例がある。
しかし、搭載カメラに取り付け誤差が生じている場合や、ロボットを動作させるモータの劣化等の要因により、駆動部の制御パラメータが変化した場合は、当該ロボットが適切な動作を行うことができない。このため、当該ロボットの制御パラメータを修正し適切な動作設定を行う必要がある。
特開2004‐41251号公報 特開2009‐106325号公報
ロボットの制御パラメータを設定する方法として、例えば外部のカメラによって当該ロボットを撮像し、その画像を利用する等の手段が考えられる。しかし、家庭等の環境で外部カメラ等特別な追加装置を用意することは困難である。
本発明は、上記の課題を解決するためになされたものであって、カメラ等の撮像装置が搭載され、当該撮像装置が取得した撮像画像をもとに動作を行うコミュニケーションロボット等のロボットにおいて、特別な追加装置を用いることのない動作設定方法を提供すること、及び当該動作設定方法を利用してロボットの動作設定を行うことを目的とする。
上記の目的を達成するために、本発明にかかるロボットの動作設定方法は、ロボットの動作部位が写るように、当該ロボットの前方に設置された平面鏡との間の位置関係が調節されたロボットに搭載された撮像装置による撮像画像中の、当該ロボットの位置を記録する手順と、
当該撮像装置による撮像画像中において、前記平面鏡に写った当該ロボットの動作部位の像が予め定めた適切な状態となるように当該ロボットの駆動部を動作させる手順と、
前記動作に要した当該ロボットの駆動部の初期状態からの駆動量を記録する手順と、
を有する。
本発明により、利用者との間に適切な動作を成立させられるようにロボットの動作設定を行うことができる。
第1の実施形態における、ロボット、カメラ、鏡の配置を例示した模式図。 第1の実施形態における、ロボットの制御部4の構成例を示すブロック図。 第1の実施形態における、ロボット1の動作設定に用いる記録テーブルの作成手順を表すフローチャート。 第1の実施形態において、ロボットの動作設定を行う範囲及び平面鏡10の移動地点を説明するための平面図。 第1の実施形態において、ロボットの動作設定を行う範囲及び平面鏡10の移動地点を説明するための側面図。 第1の実施形態において、平面鏡10にロボット1の顔が写っているときのカメラ画像例。 第1の実施形態における、駆動量を格納する記録テーブル例。 第1の実施形態における、ロボット1運用時の動作手順を表すフローチャート。 第2の実施形態における、ロボットの制御部の一例を示すブロック図。 第2の実施形態における、ロボット1の動作設定に用いる記録テーブルの作成手順を表すフローチャート。 第2の実施形態において、平面鏡10にロボットの全身が写っているときのカメラ画像の例 第2の実施形態における、駆動量を格納する記録テーブル例。 第2の実施形態における、ロボット1の運用時の動作手順を表すフローチャート。 第3の実施形態における、ロボット、カメラ、平面鏡の配置を例示した模式図。 第3の実施形態における、ロボット1の動作設定に用いる記録テーブルの作成手順を表すフローチャート。 第3の実施形態において、平面鏡10の中心にロボット1の顔が写っているときのカメラ画像例。 第3の実施形態における記録テーブル例。 第3の実施形態における、ロボット1の運用時の動作手順を表すフローチャート。 第4の実施形態における、ロボット1の動作設定に用いる記録テーブルの作成手順を表すフローチャート。 第4の実施形態でのロボット1の運用時における動作手順を表すフローチャート。 第5の実施形態における、ロボット1の動作設定に用いる記録テーブルの作成手順を表すフローチャート。 第5の実施形態において、同じ顔位置であるが、顔の傾きが異なる場合を例示したカメラ画像例。 第5の実施形態における、駆動量を格納する記録テーブル例。 第5の実施形態における、ロボット1の運用時の動作手順を表すフローチャート。
以下、図面に基づいて本発明の実施形態を説明する。本発明にかかる実施形態では、鏡に写ったロボットを仮想的な利用者として扱い、疑似的にロボットと利用者との間にアイコンタクトが成立している状況を作り出すことで、ロボットの動作設定が行われる。具体的には、鏡に写ったロボットの視線が、当該ロボットに搭載されたカメラに向かうように(画像中の当該ロボットのアイコンタクトを感じられるように)当該ロボットを駆動させる。そして、撮像画像中のロボットの顔位置と、アイコンタクトをとる際に要した駆動量を対応付けて記録することで、ロボットの動作が設定される。
図1乃至図6をもとに、本発明における第1の実施形態について説明する。図1は、第1の実施形態における、ロボット、カメラ、鏡の配置を例示した模式図である。ロボット1は頭部2と胴体3および制御部4を含む。なお、制御部4は図1のようにロボットの外部にあってもよく、ロボットの内部に格納されていてもよい。
胴体3には左腕5Lと右腕5Rが設けられ、頭部2は眼球6及び鼻7を含む。また、図1の実施形態ではカメラ8は台座9に固定されて正面を撮像するように設定されている。なお、カメラ8の位置はこれに限らず、後述する第3の実施形態のようにロボット1のどこかに搭載あるいは内蔵されていても構わない。
頭部2は2自由度の動作(上下・左右の首ふり)が可能であり、胴体3によって支持されている。また、平面鏡10は任意に位置及び角度を調節可能なものとなっている。調節可能に平面鏡を保持する方法として、角度調節可能な平面鏡を所定の支持台(図示せず)に載せる、あるいは、所定の支持柱(図示せず)にクランプ等で平面鏡を固定する、等の方法を用いることができる。
図2は第1の実施形態における、ロボットの制御部4の一例を示すハードウェア構成図である。ロボット1の制御部は、CPU(Central Processing Unit)11、メモリ12、補助記憶装置13、センサ入力インタフェース14、モータ制御インタフェース15を含み、バス16によって相互に接続されている。
さらに、モータ制御インタフェース15はロボット首モータ17を制御し、センサ入力インタフェース14はカメラ8からの情報を受け取る。
なお、センサ入力インタフェース14が受け取る情報はタッチセンサ18等からのものであってもよく、カメラ8からの情報と同時に受け取ってもよい。タッチセンサ18は利用者がロボット1を触ったことを検知するセンサであり、利用者がロボット1を触った行為に反応して、ロボット1がくすぐったいしぐさをする等のリアクションを発現させるために使用できる。
また、ロボット首モータ17は、上下方向の移動を制御するモータ(図示せず)と、左右方向の移動を制御するモータ(図示せず)の2つのモータによって構成されている。
本実施形態において、ロボット1の動作設定を行う手順について説明する。図3はロボット1の動作設定に使用する記録テーブルを作成する手順を表すフローチャートである。本実施形態では、撮像画像中のロボットの顔位置、ロボットと平面鏡との距離(利用者との距離に対応)に応じたロボットの駆動量を記録した記録テーブルを作成する。運用時には前記記録テーブルを参照し、撮像画像中の利用者の顔位置と利用者との距離に応じてロボットを動作させる。
まず、平面鏡10を初期位置に設置し(ステップS1)、ロボット1の顔が平面鏡10で反射してカメラ8で撮像できるように平面鏡10の位置及び角度を調節する(ステップS2)。
本実施形態では一例として、利用者が図4及び図5に示す範囲(ロボットの正面前方1m、ロボットの目の高さを基準とし、その地点から上下、前後50cm、左右1mの直方体)にいる場合にアイコンタクトをとれるよう、ロボットの動作設定を行うものとする。具体的には、前記範囲内で20cm間隔の格子点でロボットを較正し、中間位置は内挿で対処する。つまり、図4及び図5において黒丸で示した計396か所(左右11列、上下、前後6列)の格子点に順次平面鏡10を移動させてロボットの動作設定を行う。なお、前記初期位置は、この396か所のうちのどれかであればよい。
鏡にロボット1の顔が写っているときのカメラ画像の例を図6に示す。このように、平面鏡10に写ったロボット1の顔がカメラ8によって撮像される。
図3のフローに戻って、カメラ画像中のロボット1の顔位置を、例えば画像左上を原点とした座標(x'i,y'i)として記録する(ステップS3)。このとき、例えば両目の中間点あるいは鼻7等の特徴点をロボットの顔位置として用いることができる。
また、カメラ8と、平面鏡10までの距離d'iを計測する(ステップS4)。距離d'iの求め方としては、メジャー等で直接計測する方法がある。そのほか、画像中のロボット1の顔の大きさと距離の対応式を導出し、その関係から概算することで、前記方法よりも簡便に距離d'iを求めることができる。これらの方法はあくまで一例であり、本発明の趣旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
次に、カメラ8の撮像画像を利用し、ロボット1の視線がカメラ8に向かっている状態(鏡越しにアイコンタクトが取れている状態)になるように、頭部2を駆動させる。このときのロボット首モータ17の駆動量(k1i,k2i)を記憶する(ステップS5)。
ここで、前記駆動量(k1i,k2i)におけるk1iは上下方向の移動を制御するモータの駆動量、k2iは左右方向の移動を制御するモータの駆動量を表す。
撮像画像中のロボット1の顔位置(x'i,y'i)と、距離d'iと、アイコンタクトを発生させるのに要した各モータの駆動量(k1i,k2i)を記録テーブルに格納する(ステップS6)。
図7は駆動量を格納する記録テーブルの例である。図7に示すように、記録テーブルには撮像画像中のロボットの顔位置(x',y')と、カメラ8と平面鏡10との距離d'と、それらに対応する駆動量(k1,k2)が格納されている。
なお、図7に記載した数値は一例として挙げたものであり、単位はそれぞれ以下のとおりである。記録テーブルに格納するロボットの位置は、撮像画像中の左上を原点としたピクセル数で表している。カメラ8と平面鏡10との距離は、センチメートル単位で表している。さらに、ロボットの駆動量は、各モータの可動範囲を12ビットデータで表した場合の変動量をビット単位で表したものである。これらの単位設定は本発明の本質的要素ではなく、本発明を限定するものではない。
図3のフローに戻って、全ての平面鏡位置においてデータの計測および格納が終了していると判断されれば(ステップS7)、処理を終了し、終了が指示されなければ、平面鏡10の位置を変更し(ステップS8)、ステップS2からステップS6までの処理を繰り返す。
なお、平面鏡位置の設定・変更方法としては手動によるもので説明しているが、モータを用いたコンピュータ制御により、平面鏡の位置を設定変更するものであってもよい。コンピュータ制御により処理を行うことで、正確に位置の測定等を行うことが可能である。また、その他本発明の趣旨を逸脱しない範囲で種々変更可能である。これは以降の実施形態についても同様である。
ロボット1に搭載されたカメラ8の撮像画像を用いて、画像中におけるロボット1の顔位置と、鏡越しにロボット1からアイコンタクトを感じられるようにロボット1を駆動させるのに要した駆動量と、そのときのロボット1と平面鏡10の位置関係を複数記録する。
これにより、撮像画像から導出された駆動量と、利用者とアイコンタクトをとれる必要な駆動量との間の誤差を修正し、種々の位置で利用者とロボットとのアイコンタクトを成立させることができる。以下、上記手順で動作設定を行ったロボットの、運用時における動作手順を説明する。
図8はロボット1の運用時における動作手順を表すフローチャートである。カメラ画像から利用者の顔が検出されなければ処理を終了し(ステップS101)、検出された場合はカメラ7画像中の利用者の顔位置を計測し、(x,y)として記憶する(ステップS102)。
次に、カメラ8と利用者の顔との距離dを計測する(ステップS103)。距離dの求め方としては、画像中の利用者の顔の大きさと距離の対応式を予め導出しておき、その関係から概算値を求めることができる。ただし、この計測方法はあくまで一例であり、本発明の技術範囲を限定するものではない。
計測された(x,y)及びdに最も近い、動作設定時に記録テーブルに格納された(x',y')及びd'の組を検索し、検索されたこれらのパラメータの組に対応する駆動量(k1,k2)を記録テーブルから読み出す(ステップS104)。その値に従ってロボット1の頭部を駆動させ(ステップS105)、処理を終了する。
なお、このとき、予め動作設定時に内挿した値を記録テーブルに記録しておき、その値を用いて動作させることができる。また、計測された(x,y)及びdに近い、記録テーブルに格納された(x',y')及びd'の組を複数検索し、検索結果を基に内挿した値を基に駆動量(k1,k2)を決定して動作させることができる。
そして、ロボット1の運用時における利用者との位置関係に応じて、記録された情報を参照し、その情報に従ってロボット1を駆動させることで、利用者との間にアイコンタクトを成立させることができる。
次に、図9〜図13をもとに本発明の第2の実施形態について説明する。本実施形態は、ロボットの動作を腕などの体部に拡張させた例である。なお、ロボット、カメラ、平面鏡の配置及び構成は第1の実施形態と同様であり、図1のように表される。
図9は第2の実施形態における、ロボットの制御部の一例を示すブロック図である。ロボット1の制御部は、CPU(Central Processing Unit)11、メモリ12、補助記憶装置13、センサ入力インタフェース14、モータ制御インタフェース15、によって構成され、バス16によって相互に接続されている。
さらに、モータ制御インタフェース15はロボット首モータ17、ロボット体部モータ19を制御し、センサ入力インタフェース14はカメラ8からの情報を受け取る。ロボット体部モータ19は、複数のモータ(駆動部位の種類・数や駆動の自由度によって異なる)によって構成されている。
本実施形態において、ロボット1の動作設定を行う手順について説明する。図10はロボット1の動作設定に使用する記録テーブルを作成する手順を表すフローチャートである。説明を簡単にするため、ここでは体部の自由度は1(体部モータ数が1)と設定する。
しかし、実際には体部モータの数が2以上であってもよく、この設定は本発明の形態を制限するものではない。また、第1の実施形態と同じ手順については、独立した符号を付しているが、必要があれば説明を簡略化する旨を実施例中で言及するものとする。
本実施形態は、ロボットの「適切な動作」として、単に「利用者とアイコンタクトを成立させるだけでなく、「利用者に向かって右腕5R(または左腕5L)を差し出す動作(利用者との握手を想定)」を適切に行えるよう、ロボットの動作設定を行う場合について説明する。
まず、平面鏡10をロボット1の前方(初期位置)に配置(ステップS201)したのち、ロボット1の全身あるいは動作させる部位全てが平面鏡10に写り、カメラ8で撮像できるように平面鏡8の位置及び角度を調節する(ステップS202)。
ロボットの全身鏡像が写っているときのカメラ画像の例を図11に示す。このように、平面鏡10に写ったロボット1の像がカメラ8によって撮像される。平面鏡が固定されている場合は第1の実施形態における記載と同様、後述する第4の実施形態に記載の手法を用いることが望ましい。
次に、カメラ画像中のロボット1の顔位置座標(x'i,y'i)を計測、記憶(ステップS203)し、カメラ8と平面鏡10までの距離d'iを計測、記憶する(ステップS204)。
その後、カメラ8の撮像画像を利用し、ロボット1の全身鏡像が希望する姿勢になるようにロボット1を駆動させる。具体的には、ロボット1の視線がカメラ8に向かっており、かつ、平面鏡の方向に右腕5R(または左腕5L)を差し出している状態になるようにロボット1を駆動させる。
このときの駆動部(ロボット首モータ17及びロボット体部モータ19)の駆動量(k1i,k2i,t1i)を記憶する(ステップS205)。ここで、駆動量(k1i,k2i,t1i)において、k1は上下方向の移動を制御するモータの駆動量、k2は左右方向の移動を制御するモータの駆動量、t1は体部モータ(本実施形態では右腕5Rまたは左腕5Lを制御するモータ)の駆動量を表す。
撮像画像中のロボット1の位置(x'i,y'i)と計測した距離d'iに応じた各モータの駆動量(k1i,k2i,t1i)を記録テーブルに格納する(ステップS206)。
図12は駆動量を格納する記録テーブルの例である。図12に示すように、記録テーブルには撮像画像中のロボット1の位置(x',y')と、カメラ8と平面鏡10との距離d'と、それらに対応する駆動量(k1,k2,t1)が格納されている。
なお、図12において、記録テーブルに記載した数値は一例として挙げたものであり、ロボットの位置、カメラ8と平面鏡10の距離、及びロボットの駆動量(t1も同様)の単位は実施形態1(図7)と同じである。これらの単位設定は本発明の本質的要素ではなく、本発明を限定するものではない。
全ての平面鏡位置においてデータの計測および格納が終了していると判断されれば(ステップS207)、処理を終了する。終了が指示されなければ、平面鏡10の位置を変更し(ステップS208)、ステップS202からステップS206までの処理を繰り返す。第1の実施形態同様、すべての平面鏡位置とは、図4、図5に示した計396か所であってもよい。
撮像装置を搭載したロボット1の鏡像が、当該撮像装置に適切な形で写るようロボット1を駆動させる際に要した駆動量と、そのときのロボット1と平面鏡9の位置関係を複数記録する。これにより、撮像画像から導出された駆動量と、必要な駆動量との間の誤差を修正し、種々の位置で利用者とアイコンタクトを成立させながら右腕4R(または左腕5L)を差し出すことができる。以下、上記手順で動作設定を行ったロボットの、運用時における動作手順を説明する。
図13はロボット1の運用時における動作手順を表すフローチャートである。ステップS301〜ステップS303までの手順は第一の実施形態において図8に記載されたステップS101〜ステップS103と共通である。
ステップS301〜S303までの手順によって計測された(x,y)及びdに最も近い、動作設定時に記録テーブルに格納された(x',y')及びd'の組を検索し、検索されたこれらのパラメータの組に対応する駆動量(k1,k2,t1)を記録テーブルから読み出す(ステップS304)。その値に従ってロボット1の頭部および腕部を駆動させ(ステップS305)、処理を終了する。
そして、ロボット1の運用時における利用者との位置関係に応じて、記録された情報を検索し、検索された情報に従ってロボット1を駆動させることで、利用者とアイコンタクトをとり、さらに利用者の方向に手を差し出す等のコミュニケーションを成立させることができる。
次に、図14〜図18をもとに、本発明第3の実施形態について説明する。本実施形態は、撮像装置のレンズの位置とロボットの目の位置とを近づけて配置した例である。この条件では、利用者との距離を求めることなくアイコンタクトを成立させることが可能である。
図14は、第3の実施形態における、ロボット、カメラ、平面鏡の配置を例示した模式図である。図1との相違点は、カメラ108の位置がロボット101の視線ポイント近くに位置していることである。したがって、台座はなくても構わないので、ここでは省略している。また、本実施形態におけるロボットの制御部の構造は第一の実施形態と共通であり、図2で表される。
本実施形態において、ロボット101の動作設定を行う手順について説明する。図15はロボット101の動作設定に使用する記録テーブルの作成手順を表すフローチャートである。
まず、平面鏡110を撮像画像中の初期位置に設置し、このときの胴体の向き及び水平面に対する首の向き(相対位置)を、例えばロボットの頭部が水平正面を向いた状態を原点としたときの当該原点からの角度(θ'i,φ'i)として記録する(ステップS401)。ここで、θ'は垂直方向の首角度、φ'は水平方向の首角度を表す。なお、撮像画像中の初期位置とは、後述する100ピクセル間隔の格子点のうちのどれかであればよい。
カメラ画像を確認し、ロボット101の顔が平面鏡110に写るように平面鏡110の角度を調節し、カメラ画像中のロボット101の顔位置を、例えば画像左上を原点とした座標(x'i,y'i)として記録する(ステップS402)。
平面鏡110にロボット101の顔が写っているときのカメラ画像の例を図16に示す。このように、平面鏡110に写ったロボット101の顔がカメラ108によって撮像される。
次に、カメラ108の撮像画像を利用し、ロボットの視線がカメラに向かうように頭部102を駆動させ、そのときの首角度(θgigi)を取得、記憶する(ステップS403)。なお、首角度の代わりにモータの駆動量をパラメータとして用いてもよい。次に、(θ'i,φ'i)、(x'i,y'i)、(θgigi)を記録テーブルに格納する(ステップS404)。図17は本実施形態における記録テーブルの例である。
ここで記載した数値は一例としてあげたものであり、記録テーブルに格納するロボットの位置は、撮像画像中の左上を原点としたピクセル数で表したものである。検出時首角度及び目標首角度は、首の可動範囲を12ビットデータで表した場合の変動量をビット単位で表したものである。
カメラ画像中のすべての顔位置においてデータの計測および格納が終了していると判断されれば(ステップS405)処理を終了する。終了が指示されなければロボットの首角度を(θ'i,φ'i)に戻すとともに、カメラ画像中のロボット顔位置が変更されるように平面鏡110を移動し(ステップS406)、ステップS402からステップS404までの処理を繰り返す。
ステップS406において、カメラ画像中の顔位置は、例えば、画像全体において、前後左右おおよそ100ピクセル間隔の格子点において計測を行い、中間点は内挿で対処するなど、任意に設定、変更可能である。
そして、すべてのロボット首の向きにおいて各データの計測および格納が終了していると判断されれば(ステップS407)処理を終了する。終了が指示されなければロボットの首の向きを次の向き(θ'i+1,φ'i+1)に変更し(ステップS408)、ステップS402からステップS405での処理を繰り返す。
なお、ステップS407において、ロボット101の首の向きは例えば、ロボットの首をθ'、φ'ともに10度刻み−30度〜+30度までの範囲で動かし、合計49通りの首の向きで動作設定を行う。中間点は内挿で対処するなど、任意に設定、変更可能である。
以下、上記手順で動作設定を行ったロボットの、運用時における動作手順を説明する。図18は本実施形態でのロボット101の運用時における動作手順を表すフローチャートである。
まず、ステップS501、ステップS502により、利用者の顔位置(x,y)を記憶する。なお、ステップS501、S502はそれぞれ第1の実施形態におけるステップS101、S102と共通である。
次に、ロボット101の胴体の向き及び水平面に対する首の向きを(θ,φ)として記憶する(ステップS503)。そして、計測された(x,y)及び(θ,φ)に最も近い、動作設定時に記録テーブルに格納された(x',y')及び(θ',φ')を検索し、検索されたこれらのパラメータの組に対応する首角度(θg,φg)を記録テーブルから読み出す(ステップS504)。その値に従ってロボット101を駆動させ(ステップS505)、処理を終了する。
この手順に従ってロボットの動作設定を行うことで、カメラ位置がロボットの視線ポイントに近い場合、利用者との距離を計測することなく利用者とアイコンタクトを成立させることができる。
次に、図19、図20をもとに、本発明第4の実施形態について説明する。本実施形態は、カメラ位置がロボットの視線ポイントに近い場合の例である。本実施形態はモータの駆動量ではなく、カメラで撮像した撮像画像をもとに動作設定を行う例である。また、本実施形態では動作設定時に鏡を動かす必要がないので、化粧鏡のように位置や角度が固定された鏡を使用しての動作設定に適している。
カメラに取り付け誤差がない場合には、一般には画像の中央に利用者の顔が位置するようにロボットの頭部を駆動させればよい。しかし、カメラに取り付け誤差がある場合には、画像の中央に利用者の顔があっても、必ずしもアイコンタクトが成立しているとは限らない。そこで、本発明第4の実施形態では、画像中のどこに利用者の顔を位置させればアイコンタクトが成立するかを、鏡を用いて計測する。本実施形態によれば、動作設定時に鏡の位置を逐次変更する必要がないので、化粧鏡等のように位置や角度が固定された鏡を使用しても、ロボットの動作設定を行うことができる。
第4の実施形態におけるロボット、カメラ、鏡の配置は第3の実施形態と共通であり、図14で表される。また、本実施形態におけるロボットの制御部の構造は第1、第3の実施形態と同等であり、図2で表される。よって、ここでの説明は省略する。
本実施形態において、実際にロボット101の動作設定を行う手順について説明する。図19はロボット101の動作設定に用いる記録テーブルの作成手順を表すフローチャートである。
まず、カメラ108にロボット101の顔が写るようにロボットと平面鏡との位置関係を調節する(ステップS601)。具体的には、平面鏡110の法線方向がカメラ108に向かうようにロボット101と平面鏡110との位置関係を調節する。これにより、ロボット101の首を動かすことで、ロボット101の視線をカメラ108に向かわせることができる。そして、ロボット101の視線がカメラ108に向かうように(アイコンタクトが成立するように)ロボット頭部102を駆動させる(ステップS602)。
アイコンタクトが成立したら、そのときの撮像画像中におけるロボット101の顔位置を(xg,yg)として記録する(ステップS603)。
図20は本実施形態でのロボット101の運用時における動作手順を表すフローチャートである。ステップS701は第1の実施形態におけるステップS101と共通である。ステップS701の処理を行った後、カメラ画像中の利用者の顔位置を計測する(ステップS702)。
次に、画像中の利用者の顔位置が、アイコンタクト位置(xg,yg)になるようにロボット頭部102を駆動させ(ステップS703)、処理を終了する。
この手順に従ってロボットの動作設定を行うことで、カメラ位置がロボットの視線ポイントに近い場合、フィードバック制御を利用して利用者とアイコンタクトを成立させることができる。さらに、前述のように本手法では動作設定時に鏡を動かす必要がないので、化粧鏡のように位置や角度が固定された鏡を使用しての動作設定に適している。
次に、図21〜図24をもとに、本発明第5の実施形態について説明する。本実施形態は、首の自由度が3である(上下左右の首ふりに加え、首を傾げる動作が可能である)場合の例である。第1〜第4の実施形態では、ロボットの首の自由度は2として説明を行ってきたが、首の自由度が3である場合でも本発明による動作設定によって利用者とアイコンタクトを成立させることが可能である。ロボット、カメラ、平面鏡の配置及び構成は第1の実施形態と同様であり、図1のように表される。
ロボットの内部構成は第一の実施形態と同様、図2のブロック図で表されるが、ロボット首モータ17は、上下、左右方向の移動を制御するモータ(図示せず)の2つに、首の回転を制御するモータ(図示せず)を加えた、3つのモータによって構成されている。
本実施形態において、ロボット1の動作設定を行う手順について説明する。図21はロボット1の動作設定に用いる記録テーブルの作成手順を表すフローチャートである。
ステップS801〜S804は第1の実施形態におけるステップS1〜S4と共通であるが、本実施形態では図22に示すように、画像中のロボット顔位置(x',y')が同じであっても、顔の傾きの異なる複数のデータが存在する点は第一の実施形態と異なる。
ステップS801〜S804の処理を行ったのち、カメラ8の撮像画像を利用し、ロボット1の視線がカメラ8に向かっている状態(鏡越しにアイコンタクトが取れている状態)になるように、頭部2を駆動させる。このときのロボット首モータ17の駆動量(k1i,k2i,k3i)を記憶する(ステップS805)。
なお、前記駆動量(k1i,k2i,k3i)において、k1iは上下方向の移動を制御するモータの駆動量、k2iは左右方向の移動を制御するモータの駆動量、k3iは顔の傾きを制御するモータの駆動量を表す。
撮像画像中のロボット1の位置(x'i,y'i)、距離d'i、ロボット顔の傾きαと、アイコンタクトを発生させるのに要した各モータの駆動量(k1i,k2i,k3i)を記録テーブルに格納する(ステップS806)。
図23は駆動量を格納する記録テーブルの例である。図23に示すように、記録テーブルには撮像画像中のロボット1の位置(x',y')と、カメラ7と平面鏡10との距離d'と、ロボットの顔の傾きαと、それらの組に対応する駆動量(k1,k2,k3)が格納されている。
なお、図23に記載した数値は一例として挙げたものであり、単位はそれぞれ以下のとおりである。記録テーブルに格納するロボットの位置は、撮像画像中の左上を原点としたピクセル数で表し、カメラ8と平面鏡10との距離は、センチメートル単位で表している。また、首角度は、首の可動範囲を12ビットデータで表した場合の変動量をビット単位で表したものである。ロボットの駆動量は、各モータの可動範囲を12ビットデータで表した場合の変動量をビット単位で表したものである。これらの単位設定は本発明の本質的要素ではなく、本発明を限定するものではない。
全ての平面鏡位置においてデータの計測および格納が終了していると判断されれば(ステップS807)後述するステップS809に進み、そうでなければ平面鏡10の位置を変更し(ステップS808)、ステップS802からステップS806までの処理を繰り返す。
全ての顔の傾きαにおいてデータの計測および格納が終了していると判断されれば(ステップS809)処理を終了し、終了が指示されなければ顔の傾きαを変更し(ステップS810)、ステップS802からステップS807までの処理を繰り返す。
なお、すべての平面鏡位置とは、第1の実施形態同様、例えば図4、図5に示した計396か所であってもよい。また、すべての顔の傾きαとは、例えば「−10°から+10°の範囲で(5°間隔)計5か所計測」など、予め任意に設定できるものとする。
以下、上記手順で動作設定を行ったロボットの、運用時における動作手順を説明する。図24はロボット1の運用時における動作手順を表すフローチャートである。第1の実施形態におけるステップS101〜S103と共通である、ステップS901〜S903までの処理を行った後、表現上必要なロボットの顔の傾きαを指定する(ステップS904)。なお、この処理はステップS901〜903の前もしくは中間に行っても特に問題はない。
計測された(x,y)及びd、に最も近い、動作設定時に記録テーブルに格納された(x',y')、d'を検索し、検索されたこれらのパラメータの組と、あらかじめ指定されたαの組み合わせに対応する駆動量(k1,k2,k3)を記録テーブルから読み出す(ステップS905)。その値に従ってロボット1を駆動させ(ステップS906)、処理を終了する。
この手順に従い、その頭部が3自由度で駆動可能なロボット1に搭載されたカメラ8の撮像画像を用いて、鏡越しにロボット1からアイコンタクトを感じられるようにロボット1を駆動させるのに要した駆動量と、そのときのロボット1と平面鏡10の位置関係を記録することで、撮像画像から導出された駆動量と、利用者とアイコンタクトをとれる最適な駆動量との間の誤差を修正することができる。
そして、ロボット1の運用時における利用者との位置関係に応じて、記録された情報と、予め設定した首角度情報を参照し、その情報に従ってロボット1を駆動させることで、ロボットの首角度を考慮しつつ、利用者とアイコンタクトを成立させることができる。
1 コミュニケーションロボット等のロボット
2 ロボット頭部
3 ロボット体部
4 ロボット制御部
5 ロボット腕部
6 ロボット眼部
7 ロボット鼻部
8 カメラ等の撮像装置
9 台座
10 平面鏡
11 CPU
12 メモリ
13 補助記憶装置
14 センサ入力インタフェース
15 モータ制御インタフェース
16 バス
17 ロボット首モータ
18 タッチセンサ
19 ロボット体部モータ
101 コミュニケーションロボット等のロボット
102 ロボット頭部
103 ロボット体部
104 ロボット制御部
105 ロボット腕部
106 ロボット眼部
107 ロボット鼻部
108 カメラ等の撮像装置
110 平面鏡

Claims (7)

  1. 撮像装置を搭載したロボットの動作設定方法であって、
    当該ロボットの頭部が写るように、当該ロボットの前方に設置された平面鏡との間の位置関係が調節された、当該ロボットに搭載された当該撮像装置による撮像画像中の、当該ロボットの位置を記録する手順と、
    当該撮像装置による撮像画像中において、当該平面鏡に写った当該ロボットの頭部の像が当該平面鏡で反射された当該ロボットの視線が、当該撮像装置の光軸と一致している状態となるように当該ロボットの駆動部を動作させる手順と、
    当該動作に要した当該ロボットの駆動部の駆動量を記録する手順と、
    含む、撮像装置を搭載したロボットの動作設定方法。
  2. 当該撮像装置は当該ロボットの頭部と異なる位置に設けられており、当該撮像装置による撮像画像中の当該ロボットの位置とともに、当該平面鏡と当該撮像装置との間の距離を記録する手順を含む、請求項1記載の撮像装置を搭載したロボットの動作設定方法。
  3. 当該撮像装置は当該ロボットの頭部に設置されており、
    当該ロボットの初期状態は、当該ロボットの頭部と胴体の向きが一致するとともに、当該ロボットの視線が水平方向となった状態を原点とした当該ロボットの首の向きであること、
    を特徴とする、請求項1記載の撮像装置を搭載したロボットの動作設定方法。
  4. 撮像装置を搭載したロボットの動作設定方法であって、
    当該ロボットの顔が写るように、当該ロボットの前方に設置された平面鏡との間の位置関係が調節された、当該ロボットの頭部に設置された当該撮像装置による撮像画像中において、当該平面鏡を介して当該ロボットの視線が当該撮像装置の光軸と一致している状態となるように当該ロボットの駆動部を動作させる手順と、
    当該撮像装置による撮像画像中の、当該ロボットの顔の位置を記録する手順と、
    を含む、撮像装置を搭載したロボットの動作設定方法。
  5. 動作部位と異なる位置に撮像装置を搭載したロボットの動作方法であって、
    当該ロボットの動作部位が写るように、当該ロボットの前方に設置された平面鏡との間の位置関係が調節された、当該ロボットに搭載された当該撮像装置による撮像画像中の、当該ロボットの位置を記録する手順と、
    当該撮像装置による撮像画像中において、当該平面鏡に写った当該ロボットの動作部位の像が予め定めた適切な状態となるように当該ロボットの駆動部を動作させる手順と、
    当該動作に要した当該ロボットの駆動部の駆動量を記録する手順と、
    当該平面鏡と当該ロボットとの間の位置関係を変更する手順と、
    利用者の顔が当該撮像装置によって撮像可能であるとき、当該ロボットと当該利用者との距離及び、当該撮像装置による撮像画像中における当該利用者の顔の位置を計測する手順と、
    計測された当該ロボットと当該利用者との距離及び、当該撮像装置による撮像画像中における当該利用者の顔の位置に最も近い、当該ロボットの初期状態を検索する手順と、
    検索された当該ロボットの初期状態に対応する、当該ロボットの駆動部の駆動量を読み出す手順と、
    読み出された当該ロボットの駆動部の駆動量に従って当該ロボットを動作させる手順と、
    を含むことを特徴とする、撮像装置を搭載したロボットの動作方法。
  6. 撮像装置を搭載したロボットの動作方法であって、
    当該ロボットの頭部と胴体の向きが一致するとともに、当該ロボットの視線が水平方向となった状態を原点とした当該ロボットの首の向きと、当該ロボットの顔が平面鏡に写るよう当該平面鏡を調節したときの当該撮像装置による撮像画像中の当該ロボットの顔の位置を当該ロボットの初期状態として記録する手順と、
    当該ロボットの顔が写るように、当該ロボットの前方に設置された当該平面鏡との間の位置関係が調節された、当該ロボットの頭部に設置された当該撮像装置による撮像画像中において、当該平面鏡を介して当該ロボットの視線が当該撮像装置の光軸と一致している状態となるように当該ロボットの頭部の駆動部を動作させる手順と、
    当該ロボットの頭部の駆動部の当該ロボットの初期状態からの駆動量を記録する手順と、
    利用者の顔が当該撮像装置によって撮像可能であるとき、当該撮像装置による撮像画像中における当該利用者の顔の位置及び、当該ロボットの首の向きを計測する手順と、
    計測された当該撮像装置による撮像画像中における当該利用者の顔の位置及び、当該ロボットの首の向きに最も近い、当該ロボットの初期状態を検索する手順と、
    検索された当該ロボットの初期状態に対応する、当該ロボットの頭部の駆動部の検索された当該ロボットの初期状態からの駆動量を読み出す手順と、
    読み出された当該ロボットの初期状態からの駆動量に従って当該ロボットを動作させる手順と、
    を含む、撮像装置を搭載したロボットの動作方法。
  7. 撮像装置を搭載したロボットの動作方法であって、
    当該ロボットの顔が写るように、当該ロボットの前方に設置された平面鏡との間の位置関係が調節された、当該ロボットの頭部に設置された当該撮像装置による撮像画像中において、当該平面鏡を介して当該ロボットの視線が当該撮像装置の光軸と一致している状態となるように当該ロボットの駆動部を動作させる手順と、
    当該撮像装置による撮像画像中の、当該ロボットの顔の位置を記録する手順と、
    利用者の顔が当該撮像装置によって撮像可能であるとき、当該撮像装置による撮像画像中の当該利用者の顔の位置が、記録された当該ロボットの顔の位置と等しくなるように当該ロボットの頭部を動作させる手順と、
    を含む、撮像装置を搭載したロボットの動作方法。
JP2012000329A 2012-01-05 2012-01-05 撮像装置を搭載したロボットの動作設定法。 Expired - Fee Related JP5857747B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012000329A JP5857747B2 (ja) 2012-01-05 2012-01-05 撮像装置を搭載したロボットの動作設定法。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012000329A JP5857747B2 (ja) 2012-01-05 2012-01-05 撮像装置を搭載したロボットの動作設定法。

Publications (2)

Publication Number Publication Date
JP2013139067A JP2013139067A (ja) 2013-07-18
JP5857747B2 true JP5857747B2 (ja) 2016-02-10

Family

ID=49037013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012000329A Expired - Fee Related JP5857747B2 (ja) 2012-01-05 2012-01-05 撮像装置を搭載したロボットの動作設定法。

Country Status (1)

Country Link
JP (1) JP5857747B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170272623A1 (en) 2014-12-03 2017-09-21 Nec Corporation Direction control device, direction control method and recording medium
JP6607162B2 (ja) * 2016-09-23 2019-11-20 カシオ計算機株式会社 ロボット、状態判定システム、状態判定方法及びプログラム
JP6677198B2 (ja) 2017-03-16 2020-04-08 トヨタ自動車株式会社 ロボットの故障診断支援システム及び故障診断支援方法
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
KR102203438B1 (ko) * 2018-12-26 2021-01-14 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
WO2020213755A1 (ko) * 2019-04-17 2020-10-22 엘지전자 주식회사 로봇 및 이를 이용한 지도 업데이트 방법
CN114390963A (zh) * 2019-09-06 2022-04-22 罗伯特·博世有限公司 用于工业机器人的标定方法及装置、三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60211303A (ja) * 1984-04-05 1985-10-23 Fuji Electric Co Ltd 視覚装置の光軸方向修正装置
JPH08243957A (ja) * 1995-03-03 1996-09-24 Shimadzu Corp マイクロマニピュレータシステム
JP2003304095A (ja) * 2002-04-10 2003-10-24 Fuji Mach Mfg Co Ltd 吸着ノズルの電子回路部品保持能力取得プログラムおよび電子回路部品ハンドリング装置
JP4617428B2 (ja) * 2004-09-24 2011-01-26 株式会社国際電気通信基礎技術研究所 動作生成システム
JP2007160473A (ja) * 2005-12-15 2007-06-28 Fujitsu Ltd ロボットにおける対話相手識別方法およびロボット

Also Published As

Publication number Publication date
JP2013139067A (ja) 2013-07-18

Similar Documents

Publication Publication Date Title
JP5857747B2 (ja) 撮像装置を搭載したロボットの動作設定法。
JP6514089B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
US9958938B2 (en) Gaze tracking for a mobile device
US8768043B2 (en) Image display apparatus, image display method, and program
CN108453701A (zh) 控制机器人的方法、示教机器人的方法和机器人系统
JP7027109B2 (ja) 姿勢位置推測システム、姿勢位置推測方法、および姿勢位置推測装置
US20160188109A1 (en) Electronic system with gesture calibration mechanism and method of operation thereof
JP6255117B2 (ja) 撮像制御方法、装置および雲台装置
US11710350B2 (en) Sensor fusion eye tracking
CN104914988A (zh) 手势识别装置以及手势识别装置的控制方法
US9507414B2 (en) Information processing device, information processing method, and program
US20170078570A1 (en) Image processing device, image processing method, and image processing program
JP6015743B2 (ja) 情報処理装置、情報処理方法及びプログラム
EP3289963A1 (en) Oral cavity endoscope detection system and detection method thereof
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
US20210042513A1 (en) Information processing apparatus, information processing method, and program
JP2017006990A (ja) ロボット、制御装置、及び制御方法
JP6385725B2 (ja) 情報処理システム及び情報処理プログラム
CN107843257A (zh) 姿态信息获取方法及电子设备
CN116135169A (zh) 定位方法、装置、电子设备及计算机可读存储介质
CN108616744B (zh) 一种仿生双眼视觉校准系统及校准方法
CN113301249B (zh) 全景视频处理方法、装置、计算机设备和存储介质
JP6381092B2 (ja) 摂動因子存在下で入力の値を推定する方法及び装置
CN110900606B (zh) 一种基于小型机械臂手眼联动系统及其控制方法
WO2021166717A1 (ja) 表示制御装置、表示制御方法及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R150 Certificate of patent or registration of utility model

Ref document number: 5857747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees