JP5915381B2 - ロボット及びロボットの制御方法 - Google Patents

ロボット及びロボットの制御方法 Download PDF

Info

Publication number
JP5915381B2
JP5915381B2 JP2012120379A JP2012120379A JP5915381B2 JP 5915381 B2 JP5915381 B2 JP 5915381B2 JP 2012120379 A JP2012120379 A JP 2012120379A JP 2012120379 A JP2012120379 A JP 2012120379A JP 5915381 B2 JP5915381 B2 JP 5915381B2
Authority
JP
Japan
Prior art keywords
search
robot
unit
search operation
partial areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012120379A
Other languages
English (en)
Other versions
JP2013244566A (ja
Inventor
隼人 立田
隼人 立田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012120379A priority Critical patent/JP5915381B2/ja
Publication of JP2013244566A publication Critical patent/JP2013244566A/ja
Application granted granted Critical
Publication of JP5915381B2 publication Critical patent/JP5915381B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本件は、探索動作を行うロボット及びロボットの制御方法に関する。
従来、人間の発話や身体接触動作(スキンシップ),身体運動(ジェスチャ)等に対して、あたかも生物のような振る舞いを示し、人間と自然なコミュニケーションを行うロボットが開発されている。この種のロボットは、コミュニケーションロボットやソーシャルロボットと呼ばれており、家庭内やエンターテイメントの分野だけでなく、宿泊施設や店舗,医療施設といったさまざまな生活空間での活用が期待されている。
ところで、コミュニケーションロボットには、人間の行動,動作に的確に対応することができるように、多種多様なセンサが内蔵されたものがある。例えば、周囲の環境情報を取得する小型ビデオカメラや超音波センサ,人間の音声情報を取得するマイクロフォン等を内蔵したものが知られている。また、ロボットへの接触動作を検知する静電容量センサや圧力センサ,ロボットの姿勢を検知するジャイロセンサ等を搭載したものもある。コミュニケーションロボットは、これらの各種センサで検出された情報に基づいて周囲の対話対象を決定し、その対話対象とのインタラクションを開始する。
一方、センサ情報に基づいて受動的に応答するだけでなく、対話対象を能動的に探索してインタラクションのきっかけを作るという試みもなされている。例えば、小型ビデオカメラを内蔵したロボットの頭部を胴体に対して揺動可能とし、旋回,俯仰方向に頭部を揺動させることによって周囲に存在する対話対象を自ら進んで探索するものである。
しかし、ロボットによるこのような探索動作は、それを目にした利用者に対してロボットの視線を意識させ、円滑なコミュニケーションの妨げになることがある。例えば、ビデオカメラのような撮影装置を用いた探索では、「機械に監視されている」という悪印象を利用者に与えやすく、ロボットに対して利用者が親近感を抱きにくい場合がある。ロボットの探索動作に対する人間の心理的な負荷は比較的大きく、実機の展示会,発表会等においても、撮影機能や録画機能の有無を気にかける利用者は数多い。
そこで、利用者への心理的な負荷を軽減するための制御手法が検討されている。例えば、ロボットが利用者を見ている動作と、利用者を見ていない動作とを適切に切り換えることで、ロボットが周囲を監視しているような印象を払拭するという制御手法が考えられる。あるいは、利用者に所定の動作を促すような働きかけを行うことでセンシングの確度を高め、探索動作に依存することなくインタラクションを開始するといった制御手法も考えられる(例えば、特許文献1〜3参照)。
特開2011-33837号公報 特開2002-370183号公報 特開2004-357915号公報
しかしながら、従来の制御手法は、ロボットによる探索動作の有無を利用者に意識させるか否かに主眼が置かれており、具体的な探索動作の内容については考慮されていない。そのため、ロボットが利用者を探している間、利用者はロボットの探索動作を意識せざるを得ず、利用者に心理的な負荷を与えやすい。一方、このような探索動作を禁止すれば利用者に心理的な負荷を与えることはないものの、ロボットの自発的な動作が制限されて「生物らしさ」が損なわれ、自然なコミュニケーションを確立することが困難となる。
本件の目的の一つは、探索動作に伴う機械的な印象を軽減することである。
また、この目的に限らず、後述する「発明を実施するための形態」に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的として位置づけることができる。
開示のロボットは、探索装置を有する可動部位を駆動して対象の探索動作を行うロボットである。このロボットは、前記探索動作の対象領域を複数の部分領域に分割する分割部を備える。
また、このロボットは、前記分割部で分割された前記複数の部分領域の探索順序をランダムに設定する第一設定部と、前記分割部で分割された個々の前記部分領域における探索方向を任意に設定する第二設定部とを備える。
さらに、このロボットは、前記第一設定部で設定された前記探索順序と前記第二設定部で設定された前記探索方向とに順って前記探索動作を制御する制御部を備える。
開示の技術によれば、探索動作に伴う機械的な印象を軽減することができる。
実施形態に係るロボットの外観図である。 図1のロボットのハードウェア構成を例示するブロック図である。 図1のロボットの探索動作時の制御に関する機能ブロック図である。 図1のロボットの探索動作を説明するための図であり、(a)は探索方向を示すロボットの上面図、(b)は探索動作中のロボットの正面図、(c)は探索方向の経時変動を示すグラフである。 (a)〜(d)は静的分割手法を説明するためのグラフである。 (a)〜(d)は動的分割手法を説明するためのグラフである。 探索動作の制御手法を例示するフローチャートである。 自律動作の制御手法を例示するフローチャートである。 探索動作の中断に係る判定手法を例示するフローチャートである。 (a)〜(c)は仰角及び方位角方向についての探索動作を説明するための図である。
以下、図面を参照して、ロボット及びロボット制御方法に係る実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形や技術の適用を排除する意図はない。すなわち、本実施形態の趣旨を逸脱しない範囲で種々変形(実施形態及び各変形例を組み合わせる等)して実施することができる。
[1.装置構成]
実施形態に係るロボット10の外観を図1に例示する。ロボット10は、人間とのコミュニケーションを目的として製造された据え置き型のコミュニケーションロボット(ソーシャルロボット)である。本実施形態のロボット10の外観は、利用者に親しみやすくすべく、人または動物を模した形状とされる。このロボット10には、人間のさまざまな行動,動作を検出するための各種センサや、人間の行動,動作に対してさまざまなリアクションを表現するための駆動装置,音響装置が内蔵される。
ロボット10は、胴体部41に対して頭部42,左腕部43,右腕部44,左足部45及び右足部46を連結した構造を持つ。これらの頭部42,左腕部43,右腕部44,左足部45及び右足部46は、それぞれが関節装置を介して胴体部41に連結される。
関節装置の自由度は多自由度であり、例えば頭部42は胴体部41に対して、鉛直軸を中心とした揺動方向(左右方向,パン方向),左右水平軸を中心とした揺動方向(俯仰方向,ティルト方向),前後水平軸を中心とした揺動方向(横転方向,ロール方向)の三方向に揺動可能とされる。これらの動作は、胴体部41と頭部42との間の関節装置である頭部モータ33によって制御される。
同様に、左腕部43,右腕部44,左足部45及び右足部46のそれぞれと胴体部41との間には左腕モータ34,右腕モータ35,左足モータ36及び右足モータ37が設けられ、これらのモータ34〜37によってロボット10の四肢の動作が制御される。
頭部42には、目,鼻,口,耳等を模した造形が施され、その内部には目蓋モータ31,表情制御モータ32,スピーカ38等が内蔵される。目蓋モータ31は、目を覆う目蓋の動作を制御するモータであり、表情制御モータ32は、顔の表情(例えば、口元や目元,頬等の立体形状)を制御するモータである。また、スピーカ38は音や音声を発するための音響装置である。
上記の各種モータ31〜37及びスピーカ38は、人間とのコミュニケーションにおけるロボット10からの働きかけを実現するための出力装置である。一方、人間からの働きかけをロボット10が把握するための入力装置として、ビデオカメラ21,タッチセンサ22,マイクロフォン23,外部インターフェース24(図2参照)等がロボット10に内蔵される。また、上記の各種センサ類及びアクチュエータ類は、コントローラ11(図2参照)で統括制御される。
コントローラ11は、例えばCentral Processing Unit(CPU,中央処理装置),Micro Processing Unit(MPU,超小型演算処理装置)といったプロセッサやRead Only Memory(ROM,読み出し専用メモリ),Random Access Memory(RAM,ランダムアクセスメモリ),記憶装置等を有するコンピュータである。このコントローラ11は、ロボット10の内部に設けられたバス(通信ライン)を介して上記の各種センサ類及びアクチュエータ類と互いに通信可能に接続され、ロボット10の内部での情報処理全般を統括管理する。
ビデオカメラ21(探索装置)は、ロボット10の周囲を撮影する撮像装置であり、例えば頭部42に内蔵される。言い換えれば、頭部42は、探索装置としてのビデオカメラ21が設けられた部位であり、探索装置によるセンシング範囲、すなわち撮影方向及び撮影範囲を変更する機能を持つ。頭部42の向きは頭部モータ33を駆動することによって変更可能であることから、ビデオカメラ21によって得られる視界の範囲は頭部モータ33で制御される。
タッチセンサ22は、ロボット10に対して何らかの物体(例えば人間の手足)が接触したことを検出するものであり、頭部42や胴体部41,左腕部43,右腕部44等の表面に設けられる。また、マイクロフォン23は音を検出する装置であり、例えば頭部42の耳に内蔵される。なお、外部インターフェース24は、図示しないコンピュータやリモコン装置等を接続するための接続装置である。
[2.コントローラ構成]
図2は、ロボット10及びコントローラ11のハードウェア構成を例示するブロック図である。このコントローラ11の内部には、CPU12,センサ入力部13,通信部14,メモリ15,モータ制御部16,音声出力部17が設けられ、これらがバス18(情報伝送路)を介して接続される。
センサ入力部13は、ビデオカメラ21,タッチセンサ22,マイクロフォン23及び外部インターフェース24から入力される電圧信号を数値情報に変換し、CPU12に伝達するものである。また、通信部14は、ロボット10の無線通信機能に係る通信装置を制御するものであり、例えば図示しないアンテナ装置に接続される。通信部14は、アンテナで受信した無線信号を数値情報に変換し、CPU12に伝達する。
メモリ15はROM及びRAMを含む記憶装置である。メモリ15のROMには、人間とロボット10との間のコミュニケーションに係るソフトウェアプログラムやこのプログラム用のデータ類が書き込まれている。メモリ15上のソフトウェアプログラムは、CPU12に適宜読み込まれて実行される。また、メモリ15のRAMは、一次記憶メモリあるいはワーキングメモリとして利用される。
CPU12は、メモリ15に記録されたソフトウェアプログラムを呼び出して実行し、センサ入力部13及び通信部14から伝達される情報に基づいて制御信号を生成する。ここで生成された制御信号は、バス18を介してモータ制御部16及び音声出力部17に伝達される。
モータ制御部16は、上記の各種モータ31〜37の動作を制御するものである。CPU12から伝達された制御信号は、ここで各種モータ31〜37を駆動するための電圧信号に変換される。同様に、音声出力部17はスピーカ38の動作を制御するものであり、CPU12から伝達された制御信号をスピーカ38の駆動用の電圧信号に変換する。
上記のセンサ入力部13,通信部14,モータ制御部16,音声出力部17のそれぞれは、CPU12やメモリ15が設けられた基盤上に設けられたものであってもよいし、独立した基盤上に設けられたもの(所謂センサ入力ボードや通信ボード,モータ制御ボード,音声出力ボード等)であってもよい。
[3.制御構成]
ロボット10の探索動作時の制御について説明する。探索動作とは、ロボット10が頭部モータ33を駆動してビデオカメラ21の撮像範囲(すなわち、頭部42の向き)を変更し、対話対象となるユーザを能動的に走査する動作である。ロボット10は、探索開始条件が成立したときに探索動作を開始し、探索終了条件が成立すると探索動作を終了する。
探索開始条件は、例えば前回の探索動作が終了してからの経過時間が所定時間以上であることや、対話対象を見失ったこと等である。また、探索終了条件は、所定の探索範囲を全て探索したことや、外部からの終了命令が入力されたこと等である。ロボット10は、探索開始条件が成立するとメモリ15からソフトウェアプログラムをCPU12に読み込み、探索動作を制御する。
図3は、このソフトウェアプログラムの機能ブロック図である。このソフトウェアプログラムには、分割部1,第一設定部2,第二設定部3,制御部4及び自律制御部5が設けられる。
分割部1は、探索動作の対象領域を複数の部分領域に分割するものである。本実施形態における探索動作の対象領域は、図4(a)に示すように、ロボット10に内蔵されたビデオカメラ21の位置を中心としたパン方向の角度範囲で表現される。例えば、ロボット10の胴体部41の正面方向を基準として、ロボット10が左側を向いているときの頭部42の最大方位角θ1を負とし、右側を向いているときの頭部42の最大方位角θ2を正とすると、方位角θの範囲θ1≦θ≦θ2が対象領域である。分割部1では、この方位角θの範囲θ1≦θ≦θ2が複数に分割される。ただし、分割数は少なくとも1以上であり、好ましくは2以上である。
図5(a)は、分割部1が方位角θの範囲θ1≦θ≦θ2を四つの部分領域に分割した場合を例示するグラフである。ここでは、以下に示すような四つの部分領域A〜Dが生成される。部分領域A〜Dの名称に含まれるアルファベットの順序は、便宜的に方位角θの小さい順としている。
部分領域A:θ1≦θ≦θ3 ,部分領域B:θ3≦θ≦θ4
部分領域C:θ4≦θ≦θ5 ,部分領域D:θ5≦θ≦θ2
(ただし、θ1<θ3<θ4<θ5<θ2
なお、従来技術に係るロボットでの一般的な探索動作では、ビデオカメラ21の向きがθ1からθ2へと変化するように、頭部モータ33が駆動されていた。例えば従来のロボットの探索動作において、図4(b)に示すように、時刻T1にビデオカメラ21の向きがθ1であり、時刻T2の向きが0(すなわち真正面の向き)であり、時刻T3の向きがθ3であるとする。ここで、横軸に時間,縦軸に方位角θをとれば、ビデオカメラ21の向きの変化は、図4(c)に示すように、従来のロボットの探索動作は、探索開始時に対応する点と探索終了時に対応する点とを結んだ直線として表現される。
第一設定部2は、分割部1で分割された部分領域A〜Dの探索順序をランダムに入れ替えて設定するものである。例えば、部分領域A〜Dの入れ替え前の探索順序がA→B→C→Dであるとき、探索順序の入れ替え後では探索順序をA→D→C→Bとする。
第二設定部3は、個々の部分領域A〜Dにおける探索方向を任意に設定するものである。ここでいう探索方向とは、個々の部分領域A〜Dを探索するときにロボット10の頭部42が移動する方向(左から右への方向、又は、右から左への方向)であり、時間及び方位角θの関係を示すグラフの傾きの方向に相当する。例えば、第二設定部3は、探索方向を変更する対象を個々の部分領域A〜Dの中からランダムに選択し、選択した部分領域での探索方向を逆方向に変更する。図5(c)に示すように、部分領域C,部分領域Dのそれぞれについて、探索方向を変更する。
例えば、分割部1で分割された個々の部分領域について、所定の確率で探索方向を反転させることとしてもよい。あるいは、部分領域の大きさに応じて反転確率を変更してもよい。なお、探索方向は必ずしもランダムである必要はない。例えば、部分領域の切り換え前後におけるビデオカメラ21の向きの移動量が最小となるように、あるいは最大となるように、探索開始点を設定してもよい。
制御部4は、第一設定部2で設定された探索順序と第二設定部3で設定された探索方向とに順って、探索動作を制御するものである。ここでは、個々の部分領域A〜Dを探索するのに要する時間に基づいて、各部分領域A〜Dの始点及び終点のそれぞれに対応する時刻が設定される。これらの時刻のことを以下、始点対応時刻,終点対応時刻とも呼ぶ。また、図5(d)中に示すように、部分領域Aの始点対応時刻をtA1とし、終点対応時刻をtA2とする。他の部分領域B〜Dの始点対応時刻はそれぞれtB1,tC1,tD1とし、終点対応時刻はtB2,tC2,tD2とする。
始点対応時刻は、その部分領域が探索される前にロボット10の頭部42の方位角θがどこに位置するかに応じて設定される。例えば、方位角θの移動量が大きいほど、始点対応時刻を遅らせてもよい。また、始点対応時刻と終点対応時刻との時間差は、その部分領域の幅に応じて設定される。例えば、部分領域Aの幅(θ3−θ1)が大きいほど、この部分領域Aの始点対応時刻tA1と終点対応時刻tA2との時間差(tA2−tA1)を大きくしてもよい。
制御部4は、頭部モータ33を駆動し、ビデオカメラ21の実際の向きを制御する。
自律制御部5は、個々の部分領域A〜Dにおける探索動作の合間に、ロボット10に自律動作を実施させるものである。ここでいう自律動作には、以下の動作が含まれる。
(1)頭部モータ33の動作のうち、制御部4で設定された探索動作とは異なる動作
(2)目蓋モータ31,表情制御モータ32,左腕モータ34,右腕モータ35,
左足モータ36,右足モータ37の少なくとも何れか一つを含む動作
したがって、ロボット10の探索動作とは関連性のない動作や、探索動作に必要不可欠な動作を含まない動作など(例えば手足をばたつかせる動作や目蓋を閉じる動作)は、ここでいう自律動作に該当する。また、ロボット10の探索動作に関連する動作であっても、ビデオカメラ21の向きを探索範囲から逸らすなど、ロボット10の探索動作に適さない動作(例えばくしゃみや欠伸を模した頭部の動作)も、自律動作に該当する。
自律制御部5は、制御部4で設定された個々の部分領域A〜Dの合間において、ロボット10の頭部42の方位角θを次の部分領域の始点まで移動させるように自律動作を実施する。この自律動作によるロボット10の方位角θの変化を図5(d)中に破線で示す。例えば、部分領域Aと部分領域Dとの間の自律動作には、時刻tA2から時刻tD1までの間に、方位角θをθ3からθ2まで移動させる動作が含まれる。
このように、部分領域Aの探索が終了した後、次の部分領域Dの探索開始点まで頭部42を移動させる際には、ロボット10が自律動作を実施しながら頭部42を移動させる。つまり、単に頭部42のみを一定速度で移動させるのではなく、探索動作に関連しないような非機械的な動作で頭部42を駆動することになる。これにより、ロボット10の動作から機械的な印象が払拭され、人間的な暖かみに溢れた挙動となる。
[4.静的分割と動的分割]
上記のソフトウェアプログラムによる対象領域の分割手法には、静的分割と動的分割との二種類の分割手法が考えられる。静的分割とは、ロボット10が探索動作を開始する前に、対象領域を予め分割しておく手法である。一方、動的分割とは、探索動作中に、その時点までに探索が完了した領域を考慮し、未探索の対象領域を分割し、ロボット10の動作を動的に変化させる手法である。本実施形態のロボット10は、静的分割,動的分割の双方を用いた探索動作が可能であり、何れか一方のみを用いた探索動作も可能である。
静的分割では、図5(d)に示すような探索動作および自立動作の順序が、探索動作の開始前に設定される。つまり、分割部1での分割操作や第一設定部2,第二設定部3での設定が時刻tA1よりも前に完了することになる。一方、動的分割では、分割部1での分割操作や第一設定部2,第二設定部3での設定が時刻tA1よりも後に実施される。
図6(a)〜(d)を用いて動的分割の手法を説明する。
動的分割の場合、分割部1はその時点までに探索が完了した領域を考慮し、未探索の対象領域を分割する。探索の初期には、全対象領域を一つの部分領域として探索動作が設定される。図6(a)に示す例では、方位角θの範囲θ6≦θ≦θ7が対象領域である。これを受けて、制御部4は時刻tE1に探索動作を開始する。この時点ではまだ、探索動作を中断する時刻tE2のタイミングが決定されていない。分割のタイミングは、探索動作中に分割部1で判定される。
時刻tE2に所定の分割条件が成立すると、図6(a)に示すように、探索動作が中断される。なお、分割条件には、乱数による条件が含まれることが好ましい。例えば、制御サイクル毎に所定の確率で分割条件が判定されることとしてもよいし、探索動作の継続時間が長引くほど分割条件が成立する確率が上昇するようにしてもよい。
探索動作が中断されると、第二設定部3において、次の探索領域における探索方向がランダムに設定される。これにより、図6(b)に示すように、新たな探索開始点が決定され、方位角θの移動量が把握される。制御部4は、その方位角θの移動量に基づいて、新たな探索開始点に対応する時刻tE3を設定する。一方、自律制御部5は、時刻tE2から時刻tE3までの合間にロボット10に自律動作を実施させる。
この自律動作によるロボット10の頭部42の方位角θの変化を図6(b)中に破線で示す。これにより、ロボット10の動作から機械的な印象が払拭される。また、自律動作が完了して時刻tE3にロボット10の頭部42の方位角θがθ7に達すると、探索動作が再開される。以後、図6(c),(d)に示すように、全ての対象領域の探索が完了するまで(すなわち、探索動作が探索終了点に達するまで)、分割条件の判定,探索方向の設定,自律動作,探索動作が繰り返される。
[5.フローチャート]
上記のロボット10で実施される探索動作に係る制御用フローチャートを図7〜図9に例示する。図7は、探索開始条件が成立したときに実施されるフローであり、図8は図7のステップA50の内容を具体化したフローであり、図9は図7のステップA80の内容を具体化したフローである。
まず、図7のフローにおけるステップA10では、メモリ15に記録されているテーブルが参照され、探索動作の対象領域(初期探索範囲)が設定される。ここでは例えば図4(a)に示すように、ロボット10の正面を基準とした左右90度の範囲が探索範囲として設定される。続くステップA20では、分割部1において、探索動作の対象領域が複数の部分領域に分割される。例えば、図5(a)に示すように、方位角θの範囲θ1≦θ≦θ2が四つの部分領域A〜Dに分割される。このステップで生成される部分領域の数は少なくとも1以上である。つまり、対象領域の全体を一つの部分領域としてもよい。
続くステップA30では、分割部1で分割された部分領域A〜Dの探索順序が、第一設定部2でランダムに設定される。例えば図5(b)に示すように、部分領域Bと部分領域Dとの順序が交換されて、探索順序がA→D→C→Bとされる。なお、全ての部分領域A〜Dの中から最初に探索する領域をランダムに選択してもよい。
ステップA40では、第二設定部3において、個々の部分領域A〜Dにおける探索方向がランダムに設定される。これにより、図5(c)に示すように、探索方向が多方向となる。なお、最初に探索する領域の探索方向は、その時点におけるロボット10の頭部42の方位角θを基準として、最も近い端点を探索開始点としてもよい。
ステップA50では、自律制御部5において、ビデオカメラ21の実際の向きが探索開始点まで移動するように自律動作が制御される。例えば、探索開始点が頭部42の向いている方向よりも左側に位置しているときには、ロボット10がくしゃみをした拍子に左側を向くような自律動作が実行される。これにより、ロボット10の頭部42の方位角が探索開始点まで移動する。
ステップA50での制御に係るフローチャートを図8に例示する。ステップB10では、その時点での頭部42の方位角θが検出される。続くステップB20では、頭部42の移動距離、すなわち探索開始点の角度と現在の方位角θとの差が所定値以上であるか否かが判定される。ここで移動距離が所定値以上である場合にはステップB30に進み、移動用の自律動作が読み込まれる。一方、移動距離が所定値未満である場合にはステップB40に進み、通常の自律動作が読み込まれる。移動用の自律動作は、通常の自律動作よりも方位角θの移動量が大きい動作である。
ステップB50では、ステップB30又はB40で読み込まれた自律動作が自律制御部5で実施される。そしてステップB60で現在の方位角θが探索開始点の角度に到達したか否かが判定される。ここで、方位角θが探索開始点の角度に到達していない場合にはステップB50に戻り、自律動作を継続する。また、方位角θが探索開始点の角度に到達している場合にはこのフローを終了し、図7のフローチャートにおけるステップA60に進む。
図7のフローチャートにおけるステップA60では、制御部4において、探索動作が制御される。ここでは、第一設定部2で設定された探索順序と第二設定部3で設定された探索方向とに順って、探索動作が制御される。続くステップA70では、探索動作が探索終了点に達したか否かが判定される。つまり、全ての探索領域の探索が完了したか否かが判定される。ここで、探索動作が探索終了点に達したと判断された場合にはこのフローを終了し、探索動作を完了する。一方、探索終了点に達していない場合にはステップA80に進む。
ステップA80では、探索動作の中断条件が成立したか否かが判定される。ここでいう中断条件とは、実施中の探索動作を中断して動的分割を実施するか否かを判断するための条件である。具体的には、以下に列挙する条件の少なくとも何れか一つが成立したときに、中断条件が成立したものとする。
(A)部分領域の探索継続時間が所定時間以上になった
(B)対話対象(ユーザ)を発見した
(C)タッチセンサからの入力があった
(D)外部インターフェースからの入力があった
これらの中断条件は、例えば図9に示すようなフローチャートで判定される。このフローチャートのステップC10,C20,C30,C40はそれぞれ、上記の中断条件A,B,C,Dを判定するステップである。全ての条件が不成立の場合には、中断条件が成立しないものと判断され、図7のフローチャートにおけるステップA90に進む。一方、少なくとも何れかの条件が成立した場合には、中断条件が成立したものと判断され図7のフローチャートにおけるステップA110に進む。
図7のフローチャートにおけるステップA90では、現在の部分領域の探索が終了したか否かが判定される。この条件が成立したときにはステップA100に進み、次の部分領域が探索対象として選択されるとともに探索開始点が設定されて、ステップA50に進む。これにより、ビデオカメラ21の実際の向きが次の探索開始点まで移動するまでの間は、自律動作が実施される。一方、現在の部分領域の探索が未完了の場合には、ステップA50に進み、その部分領域の探索が継続される。
中断条件が成立したときに進むステップA110では、その時点での探索が中断され、ステップA20〜A40で設定された静的分割の手法による探索順序,探索方向の設定の代わりに、動的分割の手法による設定が実施される。すなわち、ステップA120では、探索動作の対象領域のうち、その時点までに探索された領域を除く未探索領域の範囲が算出される。また、ステップA130では、前ステップで算出された未探索領域が新たな部分領域として設定される。新たな分割領域の探索方向は、第二設定部3においてランダムに選択される。なお、このステップで新たな分割領域をさらに複数の部分領域に分割してもよい。その後、制御がステップA50に進み、新たな部分領域の探索が継続される。
[6.作用,効果]
(1)上記のロボット10の制御では、探索動作の対象領域が分割され、その探索順序がランダムに設定される。これにより、機械的な印象を与えないように頭部42を駆動しながら、探索動作を実施することができる。また、これに加えて、探索方向についてもランダムに設定されるため、頭部42の動きをより生物的な動きに近づけることができる。したがって、探索動作に伴う機械的な印象を軽減することができ、人間との円滑なコミュニケーションを図ることができる。
(2)また、部分領域毎の探索の合間に自律動作が介装されるため、探索動作に係るロボット10の動きをより生物的な動きに近づけることができ、機械的な印象を効果的に払拭することができる。
(3)さらに上記のロボット10では、図8に示すように、頭部42の移動量に応じて自律動作の種類が変更される。これにより、探索動作に係るロボット10の動きをより生物的な動きに近づけることができ、機械的な印象を効果的に払拭することができる。例えば、移動量が大きい場合には、身振りの大きい動作を伴う自律動作を選択することで、自然な動作で迅速に、ロボット10の頭部42の方位角を所望の方向に移動させることができる。
(4)また、上記のロボット10の制御では、対象領域の分割手法として静的分割と動的分割との二種類の手法が併用されている。前者の手法には、探索動作時の演算負荷を軽減できるというメリットがある。また、後者の手法には、探索動作の過程で対象領域を分割することで、探索順序や探索方向を動的に(フレキシブルに)変更することができ、より非機械的な動作を実現できるというメリットがある。これらの手法を併用することで、ロボット10の制御構成を簡素化しつつ、機械的な印象を効果的に払拭することができる。
(5)また、上記のロボット10の制御では、探索動作の対象領域がロボット10の位置を中心としたパン方向の角度範囲(方位角θの範囲θ1≦θ≦θ2)で表現され、この方位角θの範囲θ1≦θ≦θ2が複数に分割される。つまり、ロボット10を中心とした仮想球を想定すれば、対象領域は仮想球の周面方向に分割されることになる。これにより、分割された部分領域とロボット10の頭部42の動作とが一対一で対応し、確実にロボット10の動作を非機械的な動きにすることができる。
[7.その他適用例]
開示の実施形態の一例に関わらず、本実施形態の趣旨を逸脱しない範囲で部分的に実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。例えば、上述の実施形態では、頭部42には、目,鼻,口,耳等を模した造形が施されるものとしたが、頭部に配置される目,鼻,口,耳等は物理的な造形である必要はなく、例えばディスプレイ等の表示装置に表情を表示する等であってもよい。
また、探索装置は必ずしもビデオカメラ21である必要はなく、レーザースキャナ,超音波センサ等他の機器でも良い。また、探索装置は単一の機器である必要はなく、複数の機器を組み合わせて使用してもよい。少なくとも、ロボット10の周囲におけるコミュニケーション対象に関する情報を取得するものであればよい。なお、コミュニケーション対象に関する情報とは、少なくとも、対象が存在するか否かを示す情報を含み、これに加えて、対象の存在位置の情報や対象の種類,属性に関する情報等を含んでもよい。
また、上述の実施形態では、探索動作が頭部42をパン方向に揺動させる動作であるロボット10について詳述したが、具体的な探索動作はこれに限定されない。例えば、頭部42をパン方向及びティルト方向に駆動して探索動作を実施するロボット10においても、同様の制御を実施することができる。
ここで、ロボット10に内蔵されたビデオカメラ21の位置から水平な方向を基準として、実際の撮影方向の仰角をφとおく。探索動作の対象領域は、ロボット10の頭部42の方位角θ及び仰角φのそれぞれの角度範囲で表現される。ある時刻にビデオカメラ21で撮像される範囲の中心を概念的に点で表現すれば、探索動作の対象領域は、図10(a)に示すように、方位角θ及び仰角φを座標軸とした空間内におけるその点の移動軌跡である一本の直線又は曲線(すなわち一本のライン)として表現される。つまり、本適用例のロボット10の探索動作は、上述の実施形態と同様に直線では表現されず、探索開始点と探索終了点とを結ぶ線であって、折れ線や直線,曲線等を組み合わせたラインで表現される。
従来技術に係るロボットでの一般的な探索動作では、このライン上を点が一方から他方へと連続的に移動することになる。これに対し、本件の探索動作では点の位置や移動方向が部分領域毎にランダムに変化するように移動する。
分割部1は、図10(b)に示すように、探索動作の対象領域に対応するこのラインを複数の部分領域A〜Hに分割する。個々の部分領域A〜Hの長さは任意である。また、第一設定部2が部分領域A〜Hの探索順序をランダムに入れ替えるとともに、第二設定部3が部分領域A〜Hの探索方向をランダムに設定する。さらに、自律制御部5が個々の部分領域A〜Hにおける探索の合間に自律動作を介装しつつ、制御部4が探索動作を制御する。これにより、図10(c)に示すように、非機械的な動作でロボット10の頭部42を駆動することができる。
また、探索動作の対象領域がロボット10の位置を中心としたパン方向及びティルト方向の角度範囲で表現したときに、方位角θの範囲と仰角φの範囲とが複数に分割される。つまり、ロボット10を中心とした仮想球を想定すれば、対象領域は仮想球の周面方向に分割されることになる。これにより、分割された部分領域とロボット10の頭部42の動作とを一対一で対応させることができ、確実にロボット10の動作を非機械的な動きにすることができる。
なお、ロボット10の周囲の空間は全て探索動作の対象領域となり得ることから、ビデオカメラ21で撮像される方向だけでなく、焦点の位置を考慮した三次元空間を探索動作の対象領域としてもよい。すなわち、方位角θ,仰角φ及び焦点距離の三つのパラメータを座標軸とした空間内で、直線,曲線等を組み合わせたラインとして対象領域を表現し、これを分割するような制御構成としてもよい。
[8.付記]
以上の実施形態及び変形例に関し、さらに以下の付記を開示する。
(付記1)
探索装置を有する可動部位を駆動して行われる探索動作に関し、前記探索動作の対象領域を複数の部分領域に分割する分割部と、
前記分割部で分割された前記複数の部分領域の探索順序をランダムに設定する第一設定部と、
前記分割部で分割された個々の前記部分領域における探索方向を任意に設定する第二設定部と、
前記第一設定部で設定された前記探索順序と前記第二設定部で設定された前記探索方向とに順って前記探索動作を制御する制御部と、
を備えたことを特徴とする、ロボット。
(付記2)
個々の前記部分領域における探索の合間に、前記ロボットに自律動作を実施させる自律制御部を備え、
前記自律動作には、前記探索装置を有する可動部位の動作であって前記探索動作とは異なる動作と、前記探索装置を有する可動部位以外の可動部位の動作とが含まれる
ことを特徴とする、付記1記載のロボット。
(付記3)
前記自律制御部が、前記自律動作の移動量に応じて前記自律動作の種類を変更する
ことを特徴とする、付記2記載のロボット。
(付記4)
前記分割部が、前記探索動作の過程で、その時点以後に前記探索動作がなされる領域を複数の部分領域に分割する
ことを特徴とする、付記1〜3の何れか1項に記載のロボット。
(付記5)
前記分割部が、前記ロボットを中心とした仮想球の周面方向に前記対象領域を分割する
ことを特徴とする、付記1〜4の何れか1項に記載のロボット。
(付記6)
探索装置を有する可動部位を駆動してコミュニケーション対象の探索動作を行うロボットの制御方法であって、
前記探索動作の対象領域を複数の部分領域に分割し、
前記複数の部分領域の探索順序をランダムに設定し、
個々の前記部分領域における探索方向を任意に設定し、
ランダムに設定された前記探索順序及び前記探索方向に順って前記探索動作を制御する
ことを特徴とする、ロボットの制御方法。
(付記7)
個々の前記部分領域における探索の合間に、前記ロボットに自律動作を実施させ、
前記自律動作には、前記探索装置を有する可動部位の動作であって前記探索動作とは異なる動作と、前記探索装置を有する可動部位以外の可動部位の動作とが含まれる
ことを特徴とする、付記6記載のロボットの制御方法。
(付記8)
前記自律動作の移動量に応じて前記自律動作の種類を変更する
ことを特徴とする、付記7記載のロボットの制御方法。
(付記9)
前記探索動作の過程で、その時点以後に前記探索動作がなされる領域を複数の部分領域に分割する
ことを特徴とする、付記6〜8の何れか1項に記載のロボットの制御方法。
(付記10)
前記ロボットを中心とした仮想球の周面方向に前記対象領域を分割する
ことを特徴とする、付記6〜9の何れか1項に記載のロボットの制御方法。
1 分割部
2 第一設定部
3 第二設定部
4 制御部
5 自律制御部
10 ロボット
11 コントローラ
21 ビデオカメラ(探索装置)
33 頭部モータ
42 頭部(可動部位)

Claims (6)

  1. 探索装置を有する可動部位を駆動して行われる探索動作に関し、前記探索動作の対象領域を複数の部分領域に分割する分割部と、
    前記分割部で分割された前記複数の部分領域の探索順序をランダムに設定する第一設定部と、
    前記分割部で分割された個々の前記部分領域における探索方向を任意に設定する第二設定部と、
    前記第一設定部で設定された前記探索順序と前記第二設定部で設定された前記探索方向とに順って前記探索動作を制御する制御部と、
    を備えたことを特徴とする、ロボット。
  2. 個々の前記部分領域における探索の合間に、前記ロボットに自律動作を実施させる自律制御部を備え、
    前記自律動作には、前記探索装置を有する可動部位の動作であって前記探索動作とは異なる動作と、前記探索装置を有する可動部位以外の可動部位の動作とが含まれる
    ことを特徴とする、請求項1記載のロボット。
  3. 前記自律制御部が、前記部分領域間の距離に応じて前記自律動作の種類を変更する
    ことを特徴とする、請求項2記載のロボット。
  4. 前記分割部が、前記探索動作の過程で、その時点以後に前記探索動作がなされる領域を複数の部分領域に分割する
    ことを特徴とする、請求項1〜3の何れか1項に記載のロボット。
  5. 前記分割部が、前記ロボットを中心とした仮想球の周面方向に前記対象領域を分割する
    ことを特徴とする、請求項1〜4の何れか1項に記載のロボット。
  6. 探索装置を有する可動部位を駆動してコミュニケーション対象の探索動作を行うロボットの制御方法であって、
    前記探索動作の対象領域を複数の部分領域に分割し、
    前記複数の部分領域の探索順序をランダムに設定し、
    個々の前記部分領域における探索方向を任意に設定し、
    ランダムに設定された前記探索順序及び前記探索方向に順って前記探索動作を制御する
    ことを特徴とする、ロボットの制御方法。
JP2012120379A 2012-05-28 2012-05-28 ロボット及びロボットの制御方法 Active JP5915381B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012120379A JP5915381B2 (ja) 2012-05-28 2012-05-28 ロボット及びロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012120379A JP5915381B2 (ja) 2012-05-28 2012-05-28 ロボット及びロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2013244566A JP2013244566A (ja) 2013-12-09
JP5915381B2 true JP5915381B2 (ja) 2016-05-11

Family

ID=49844745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012120379A Active JP5915381B2 (ja) 2012-05-28 2012-05-28 ロボット及びロボットの制御方法

Country Status (1)

Country Link
JP (1) JP5915381B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110405778B (zh) * 2018-04-28 2022-10-21 深圳果力智能科技有限公司 一种机器人
JP7176244B2 (ja) * 2018-06-20 2022-11-22 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7253900B2 (ja) * 2018-11-13 2023-04-07 株式会社日立製作所 コミュニケーションロボット
JP7335096B2 (ja) 2019-06-07 2023-08-29 ファナック株式会社 ロボットシステムの障害物探索装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004229003A (ja) * 2003-01-23 2004-08-12 Sony Corp ロボット装置、撮像方向切換方法
JP4612280B2 (ja) * 2003-02-25 2011-01-12 本田技研工業株式会社 自動作業装置及び自動作業装置制御プログラム
JP4317518B2 (ja) * 2004-12-14 2009-08-19 本田技研工業株式会社 物品運搬システム

Also Published As

Publication number Publication date
JP2013244566A (ja) 2013-12-09

Similar Documents

Publication Publication Date Title
JP7344894B2 (ja) 眼追跡カメラからの顔の表情
US11348300B2 (en) Avatar customization for optimal gaze discrimination
JP5120745B2 (ja) コミュニケーションロボット
US10438394B2 (en) Information processing method, virtual space delivering system and apparatus therefor
EP3456487A2 (en) Robot, method of controlling the same, and program
US20230034657A1 (en) Modes of user interaction
EP3196734B1 (en) Control device, control method, and program
JP5915381B2 (ja) ロボット及びロボットの制御方法
JP7128842B2 (ja) エンターテインメントシステム、ロボット装置およびサーバ装置
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
WO2019087484A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2011258130A (ja) プログラム、情報記憶媒体及び画像生成システム
JP7355006B2 (ja) 情報処理装置、情報処理方法、および記録媒体
JP6565853B2 (ja) コミュニケーション装置
US20200269421A1 (en) Information processing device, information processing method, and program
JP2015066624A (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
TW202117498A (zh) 化身臉部表情產生系統及化身臉部表情產生方法
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7014168B2 (ja) 仮想生物制御システム、仮想生物制御方法、およびプログラム
WO2019123744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2006088276A (ja) 動作生成システム
JP2007130691A (ja) コミュニケーションロボット
JP2004298975A (ja) ロボット装置、障害物探索方法
JP6587364B2 (ja) プログラムおよび画像表示システム
CN108369477B (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160321

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5915381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150