JP5948359B2 - ロボット、およびロボットの制御方法 - Google Patents

ロボット、およびロボットの制御方法 Download PDF

Info

Publication number
JP5948359B2
JP5948359B2 JP2014048167A JP2014048167A JP5948359B2 JP 5948359 B2 JP5948359 B2 JP 5948359B2 JP 2014048167 A JP2014048167 A JP 2014048167A JP 2014048167 A JP2014048167 A JP 2014048167A JP 5948359 B2 JP5948359 B2 JP 5948359B2
Authority
JP
Japan
Prior art keywords
robot
audience
head
unit
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014048167A
Other languages
English (en)
Other versions
JP2015171737A (ja
Inventor
孝裕 有泉
孝裕 有泉
近藤 宏
宏 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014048167A priority Critical patent/JP5948359B2/ja
Publication of JP2015171737A publication Critical patent/JP2015171737A/ja
Application granted granted Critical
Publication of JP5948359B2 publication Critical patent/JP5948359B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット、およびロボットの制御方法に関する。
従来、ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、ロボットが説明を行う際にロボットが視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、視聴者状況把握部が把握した視聴者の数に基づき、動作パターン記憶部から、いずれかの動作パターンを選択する動作パターン選択部と、動作パターン選択部が選択した動作パターンに基づき、ロボットの動作を決定し、視線モーションを生成する視線モーション生成部、を含むロボットが知られている(例えば、特許文献1参照)。
また、動作時間が互いに異なる値に決まっている複数の動作パターンのデータをデータベースに格納しておき、ロボットの発話開始前に生成される音声の波形データから発話時間の長さを測定し、発話時間に対して発話の開始と終了とに動作の開始と終了とが一致するように、データベースの内容から2つ以上の動作パターンの組合せ、再生順序及び再生タイミングを生成するロボットが知られている(例えば、特許文献2参照)。
特開2007−050461号公報 特開2004−034273号公報
従来のロボットは、観客の注意を十分に惹きつけることができない場合があった。
本発明は、このような事情を考慮してなされたものであり、観客の注意を効果的に惹きつけることが可能なロボット、およびロボットの制御方法を提供することを目的の一つとする。
請求項1に記載の発明は、ロボット(1)の基体(20)を移動させる移動部(26、28、50、60)と、観客の位置を示す情報を取得する取得部(92)と、所定の領域(ST)内において前記観客に向けて説明を行うように制御する制御部(90)であって、前記取得部により取得される前記観客の位置に基づいて、前記ロボットの立ち位置を決定し、前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御する制御部と、前記ロボットの頭部を駆動し、前記ロボットの頭部の向きを変化させる頭部駆動部と、を備え、前記制御部は、前記観客に頭部の正面または視線を向けた回数を所定の軸上に投影してカウントして投影データ(87)を記憶部(80)に記憶しておき、前記投影データに基づいて移動するように前記移動部を制御し、前記頭部の正面または視線を向けた観客であるか否かを、前記頭部駆動部に指示した方向を基準として定まる方向を中心とした所定範囲内に存在したか否かによって判定するロボットである。
請求項に記載の発明は、請求項記載のロボットであって、前記制御部は、観客に頭部の正面または視線を向けた時間を、観客毎に累積して記憶部(80)に記憶しておき、前記累積した時間の短い観客に対して優先的に頭部の向きを向けるように、前記頭部駆動部を制御するロボットである。
請求項3に記載の発明は、請求項1または2記載のロボットであって、前記制御部は、前記観客に向けての説明の内容および形態を指定するシナリオデータを順次選択することで、前記ロボットの立ち位置および頭部の向きの配分態様を指定する動作モードを決定し、前記決定した動作モードと、前記取得部により取得される前記観客の位置とに基づいて、前記ロボットの立ち位置および頭部の向きを決定するロボットである。
請求項4記載の発明は、請求項3記載のロボットであって、前記シナリオデータは、所定の箇所から前記観客の全体を見渡して説明を行う態様を指定するシナリオデータと、前記観客の一部に接近して説明を行う態様を指定するシナリオデータとを含む複数のシナリオデータの中から選択されるロボットである。
請求項5記載の発明は、請求項1から4のいずれか1項記載のロボットであって、前記制御部は、前記投影データにおいて投影回数の少ない観客に接近するように前記移動部を制御するロボットである。
請求項記載の発明は、ロボットの基体を移動させる移動部と、観客の位置を示す情報を取得する取得部と、前記ロボットの頭部を駆動し、前記ロボットの頭部の向きを変化させる頭部駆動部とを備えるロボットを、所定の領域内において前記観客に向けて説明を行うように制御するロボットの制御方法であって、前記取得部により取得される前記観客の位置と、前記観客に前記頭部の正面または視線を向けた回数を所定の軸上に投影してカウントした投影データとに基づいて、前記ロボットの立ち位置を決定し、前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御前記頭部の正面または視線を向けた観客であるか否かは、前記頭部駆動部に指示した方向を基準として定まる方向を中心とした所定範囲内に存在したか否かによって判定するロボットの制御方法である。
請求項1、記載の発明によれば、取得部により取得される前記観客の位置に基づいて、前記ロボットの立ち位置を決定し、前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御するため、観客の注意を効果的に惹きつけることができる。
請求項2〜に記載の発明によれば、観客間での平等感を向上させることができる。
一実施形態に係るロボット1の外観構成の一例を示す図である。 ロボット1が備える機能構成の一例を示す図である。 ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。 シナリオデータAが実行されることで実現される説明の形態を例示した図である。 シナリオデータBが実行されることで実現される説明の形態を例示した図である。 シナリオデータCが実行されることで実現される説明の形態を例示した図である。 シナリオデータ84と、シナリオ/動作モード対応テーブル85との関係を説明するための図である。 観客全体に対して説明する場面を説明するための図である。 現に視線方向を向けている観客Atの近傍にいる観客Asに対して累積時間を加算する処理を説明するための図である。 観客の一部に接近して説明する場面を説明するための図である。 観客の一部に接近して説明する場面の他の例を説明するための図である。 現に視線方向を向けている観客Atの近傍にいる観客Asに対して注視回数ヒストグラム87にカウント数を加算する処理を説明するための図である。 本実施形態の制御部90により実行される処理の流れの一例を示すフローチャートである。
[構成]
以下、図面を参照し、本発明のロボット、およびロボットの制御方法の実施形態について説明する。以下に説明するロボットは、例えば、左右一対の脚部と左右一対の腕部とを備え、脚部の動作によって移動可能な人型ロボットである。なお、これに限らず、ロボットは、車輪やホバークラフト等によって移動可能なロボットであってもよいし、腕部を一つまたは三つ以上有するものであってもよい。本発明に係るロボットは、ステージ上で(所定の領域内において)、ステージ外にいる観客に向けて説明を行うように制御される。
図1は、一実施形態に係るロボット1の外観構成の一例を示す図である。また、図2は、ロボット1が備える機能構成の一例を示す図である。ロボット1は、例えば、頭部10と、ボディ部20と、左右一対の腕部30と、左右一対の手部40と、左右一対の脚部50とを備える。なお、以下では、左右一対の構成要素について、左右いずれの構成要素であるかを区別せずに説明する。
頭部10には、左右一対のカメラ12が取り付けられている。カメラ12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を有するカメラである。カメラ12は、可視光または赤外光を撮像し、撮像した画像を制御部90に送信する。なお、カメラ12は、単眼または3眼以上のカメラであってもよい。
ボディ部20は、首関節部22を介して頭部10と連結され、肩関節部24を介して腕部30と連結され、腰関節部26および股関節部28を介して脚部50と連結される。首関節部22は、頭部10をボディ部20に対して、例えばヨー方向に1自由度で回動させる。以下の説明では、回動方向をヨー方向、ピッチ方向、ロール方向と表現して説明する。図3は、ヨー方向、ピッチ方向、ロール方向の定義を説明するための図である。図示するように、関節部Aから見た被駆動部材Bの方向Cを軸として被駆動部材Bを回動させる方向をロール方向と定義する。また、方向C自体を第1の方向に回動させる方向をピッチ方向と、方向C自体を第1の方向に直交する第2の方向に回動させる方向をヨー方向と定義する。
肩関節部24は、腕部30をボディ部20に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。腰関節部26は、股関節部28をボディ部に対して、例えばロール方向に1自由度で回動させる。股関節部28は、脚部50を腰関節部26に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。なお、ボディ部20には、図示しない腰カメラ等が内蔵されてよい。
腕部30は、例えば、二の腕に相当する腕第1リンク部32と、肘関節部34と、前腕部に相当する腕第2リンク部36と、手首関節部38とを備える。肘関節部34は、腕第2リンク部36を腕第1リンク部32に対して、例えばピッチ方向に(腕の内側に)1自由度で回動させる。手首関節部38は、手部40を腕第2リンク部36に対して、例えばヨー方向、ピッチ方向、およびロール方向に3自由度で回動させる。
脚部50は、例えば、脚第1リンク部51と、膝関節部52と、脚第2リンク部53と、足首関節部54と、足部55とを備える。膝関節部52は、脚第2リンク部53を脚第1リンク部51に対して、例えばピッチ方向に1自由度で回動させる。足首関節部54は、足部55を脚第2リンク部53に対して、例えばピッチ方向およびヨー方向に2自由度で回動させる。
ロボット1は、関節部に回動力を付与し、被駆動部材(膝関節部52であれば脚第2リンク部53)を連結元部材(膝関節部52であれば脚第1リンク部51)に対して回動させるアクチュエータ群60を備える。アクチュエータ群60の各アクチュエータは、関節部毎に設けられてもよいし、複数の関節部に回動力を付与するアクチュエータが存在してもよい。また、アクチュエータは、関節部に内蔵されてもよいし、関節部の外に配置されてもよい。後者の場合、アクチュエータは、ワイヤーやベルト、プーリ、油圧機構等によって関節部や被駆動部材と接続されることで、関節部に回動力を付与する。
また、アクチュエータ群60に含まれる各アクチュエータには、ロータリーエンコーダ群62に含まれる各ロータリーエンコーダが取り付けられる。各ロータリーエンコーダは、対応するアクチュエータの回転角度をそれぞれ検出して制御部90に送信する。なお、ロータリーエンコーダ群62は、アクチュエータ群60の回転角度ではなく、関節部の回転角度を検出してもよい。
ロボット1は、音声を出力するためのスピーカ70を備える。スピーカ70が出力する音声の内容は、制御部90によって決定される。ロボット1は、更に、記憶部80と、制御部90とを備える。
記憶部80は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等を含む。記憶部80には、制御部90が備えるCPU(Central Processing Unit)等のプロセッサが実行する制御プログラム81、ロボット1が説明を行うステージの位置範囲を記述したステージデータ82、ロボット1が説明のために出力する音声のデータである音声データ83、観客に向けての説明の内容および形態を指定するシナリオデータ84、シナリオデータ84とロボット1の動作モードとの対応関係を規定するシナリオ/動作モード対応テーブル85などが格納されている。また、記憶部80には、各観客に視線を向けた時間を累積した累積時間データ86、視線方向を向けた回数を所定の軸上に投影した注視回数ヒストグラム87などが、制御部90の処理に応じて書き込まれる。なお、本実施形態のロボット1は、眼に相当する部材(例えばカメラ12)を自在に駆動する構成となっていないため、頭部の正面を向けることが、視線を向けているのと同じ印象を観客に与える。従って、以下の説明において、「視線方向を決定する」ことは、「頭部の向きを決定する」ことと同義である。なお視線方向とは、眼に相当する部材の光軸方向や正対方向など、人間の視線に相当する方向のことを指す。
制御部90は、例えば、通信部91と、環境認識部92と、シナリオ選択部93と、動作モード決定部94と、立ち位置決定部95と、視線方向決定部96と、姿勢制御部97と、音声制御部98とを備える。これらの機能部のうち一部または全部は、制御部90のプロセッサが、制御プログラム81を実行することにより機能するソフトウェア機能部である。なお、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
通信部91は、外部カメラ120と通信を行い、外部カメラ120により撮像された画像を受信する。外部カメラ120は、ロボット1が説明を行うステージ上の天井等に設置され、観客の顔や頭部を撮像する(後述する図4〜6を参照)。
環境認識部92は、通信部91が取得した画像やロボット1が備えるカメラ12により撮像された画像に基づいて、各観客の位置を認識する。環境認識部92は、顔認識技術等によって各観客を識別し、各観客に観客IDを付与して記憶部80に格納する。なお、各観客を見分けて観客IDを付与する機能は、ロボット1の外部の装置によって実行されてもよい。また、観客の認識は、観客が保持する通信タグ等との通信によって行われてもよい。また、環境認識部92は、姿勢制御部97による制御量をフィードバックすることで、ステージ上におけるロボット1の位置を認識する。
[シナリオデータ]
シナリオ選択部93は、シナリオデータ84を順次選択する。ロボット1が1回の説明を行うための1つの説明シナリオは、例えば複数のシナリオデータ84によって構成されており、大本の説明シナリオにはシナリオデータ84の遷移順序が記述されている。シナリオデータ84の遷移は1本道であってもよいし、途中で、例えば挙手認識による観客Aの反応によって遷移が分岐したりしてもよい。シナリオデータ84には、所定の箇所から観客の全体を見渡して説明を行う態様を指定するシナリオデータA、観客の一部に接近して説明を行う態様を指定するシナリオデータB、ステージ奥に設置された説明対象(例えばスクリーン)を指し示して説明を行う態様を指定するシナリオデータC等、複数のものが記憶部80に格納される。シナリオ選択部93は、例えば、シナリオデータ84に従って、各シナリオデータを順次選択する。
図4〜6は、ロボット1がシナリオデータ84を実行することで実現される説明の形態を例示した図である。図4は、シナリオデータAが実行されることで実現される説明の形態を例示した図である。シナリオデータAが実行されると、ロボット1は、例えばステージSTの中央部に立ち、観客Aの全体を見渡して説明を行う。図4における矩形枠内は、シナリオデータAが実行された場合のロボット1の姿勢の一例である。
図5は、シナリオデータBが実行されることで実現される説明の形態を例示した図である。シナリオデータBが実行されると、ロボット1は、例えば観客Aの一部に接近して、目前にいる観客Aに顔向けをしながら説明を行う。図5における矩形枠内は、シナリオデータBが実行された場合のロボット1の姿勢の一例である。
図6は、シナリオデータCが実行されることで実現される説明の形態を例示した図である。シナリオデータCが実行されると、ロボット1は、例えばステージSTの奥側に設置されたスクリーンSCを指し示しながら説明を行う。図6における矩形枠内は、シナリオデータCが実行された場合のロボット1の姿勢の一例である。
動作モード決定部94は、シナリオ選択部93により選択されたシナリオデータ84を用いてシナリオ/動作モード対応テーブル85を検索し、ロボット1の動作モードを選択する。図7は、シナリオデータ84と、シナリオ/動作モード対応テーブル85との関係を説明するための図である。図示するように、シナリオデータには、音声内容、ジェスチャ、スクリーン画像、停止と移動のどちらを行うか、といった付随情報が付与されている。そして、動作モードとは、立ち位置と、視線配分の態様との双方を指定する情報である。
シナリオデータAが実行される場合、ステージ中央で停止し、且つ視線配分モード(1)で視線配分を行う動作モードが選択される。各視線配分モードの詳細については後述する。また、シナリオデータAからシナリオデータBへの遷移状態では、ステージ前方に移動し、且つ視線配分モード(2)で視線配分を行う動作モードが選択される。また、シナリオデータBが実行される場合、ステージ前方で停止し、且つ視線配分モード(3)で視線配分を行う動作モードが選択される。また、シナリオデータBからシナリオデータCへの遷移状態では、説明対象の横に移動し、且つ視線配分モード(2)で視線配分を行う動作モードが選択される。また、シナリオデータCが実行される場合、説明対象の横で停止し、且つ視線配分モード(1)(4)で視線配分を行う動作モードが選択される。また、シナリオデータCからシナリオデータAへの遷移状態では、ステージ中央に移動し、且つ視線配分モード(2)で視線配分を行う動作モードが選択される。
立ち位置決定部95は、動作モードによって指定される立ち位置に従って、ロボット1の立ち位置を決定し、姿勢制御部97に出力する。また、視線方向決定部96は、動作モードによって指定される視線配分モードに従ってロボット1の視線方向を決定し、姿勢制御部97に出力する。姿勢制御部97は、立ち位置決定部95および視線方向決定部96から入力されたロボット1の立ち位置と視線方向を実現するように、アクチュエータ群60を制御する。音声制御部98は、シナリオデータ84に付随する音声を出力するように、スピーカ70を制御する。
[動作モード]
以下、各動作モードにおけるロボット1の挙動について、より詳細に説明する。本実施形態におけるロボット1の挙動は、以下の知見に基づいている。まず、観客の注意を効果的に惹きつけるためには、以下の条件が必要であると考えられる。(1)観客全員に疎外感を与えない(2)観客を説明に引き込む(3)説明対象に観客の興味を誘導する。ここで、ロボット1が説明する内容に合わせて、立ち位置や視線配分の態様を適切に選択しないと、観客が説明内容に集中してくれなかったり、疎外感を感じて途中退場してしまったりするという知見が得られている。従って、観客全体を万遍なく見回す場合、素早く観客全体を見回したり、じっくり一人ひとりの顔を順に見つめながら観客全体を見回すなど、説明内容やシーン、また観客の位置分布に応じて、見回し方をコントロールするのが好ましい。このとき、以下の3点について両立させる必要がある。(1)スピード(見回しの所要時間、一人ひとりを見つめる時間)のコントロール(2)(1)の条件下で、観客の分布範囲全体を見回す(3)説明全体を通じて、観客全員に万遍なく視線配分する。また、ロボット1が観客に接近して説明する場合、一部の観客に接近して説明していると、離れた場所の聴衆が疎外感を感じるため、説明全体を通じて、観客全体に対して公平に接近する必要がある。また、説明途中で観客が増減して分布が変わった場合でも、それに合わせて万遍なく接近する位置を選択することが好ましい。これらの条件のうち少なくとも一部を満たすことで、観客の注意を効果的に惹きつけることができると考えられる。
[観客の全体を見渡して説明]
観客の全体を見渡して説明するシナリオデータAが実行される際に指定される視線配分モード(1)とは、ある観客に視線方向を向けてから一定時間、その観客に視線方向を向け続け、一定時間が経過すると他の観客に視線方向を向けるというものである。ここで、「視線方向を向ける」とは、ロボット1の頭部10の正対方向に観客がいることを意味してもよいし、黒目に相当する部材が駆動可能なロボットであれば、文字通り黒目を駆動して視線を向けることを意味してもよい。本実施形態では、観客にロボット1の頭部10の正対方向を向けることを意味するものとする。
観客の全体を見渡して説明するという動作は、例えば、ステージ中央に前進、観客全体への問いかけの発話、その他の説明という動作を含む。ステージ中央に前進するときにロボット1は、前進に要する所要時間の間、観客の端から端までを見渡す動作を行う。
図8は、観客全体に対して説明する場面を説明するための図である。視線配分モード(1)において、視線方向決定部96は、まず、シナリオデータ84に付随する音声内容を参照し、問いかける内容の発話に要する時間Tを取得する。そして、視線方向決定部96は、時間Tを、一人あたりの視線滞留時間tで除算して、視線方向を向ける観客Aの数nを決定する。視線滞留時間tは、固定値(t=3[sec]程度)として計算してもよいし、変動値としてもよい。例えば、視線方向決定部96は、T=12[sec]、t=3[sec]であれば、12/3=4人の観客Aに視線方向を向けると決定する。
次に、視線方向決定部96は、観客Aが分布する領域Sを認識し、領域Sを、各分割領域内の観客Aが同じ人数となるように、上記決定した視線方向を向ける観客Aの数nで分割する。これによって、説明全体を通じて、観客Aの間で視線配分される機会を均等にし、それぞれの観客A間での平等感を向上させることができる。上記の例では、n=4であるため、領域Sを分割領域S1〜S4に分割する。そして、視線方向決定部96は、分割領域S1内の観客Aに視線を向けると、次に分割領域S1以外の分割領域内の観客Aに視線を向けるというように、視線を向ける先の観客Aが属する分割領域を順次切り替える。例えば、視線方向決定部96は、分割領域S1→S2→S3→S4というように、左側から右側に向けて、或いは、この逆に右側から左側に向けて分割領域を選択し、選択した分割領域の中から、視線を向ける観客Aを選択する。また、これに限らず視線方向決定部96は、ランダムに分割領域を選択してもよい。
視線方向決定部96は、選択した分割領域内で視線方向を向ける観客Aを、累積時間データ86を参照し、累積時間が少ない観客Aを優先して選択する。図2に示すように、累積時間データ86は、顔認識等の手法により識別される観客Aの識別情報(観客ID)と、その観客Aについての累積時間が対応付けられたデータである。累積時間データ86は、シナリオデータ84の中でどのシナリオデータが実行されているかに拘わらず、1回の説明を通じて累積して計算される。これにより、ロボット1は、観客間での平等感を向上させることができる。
ここで、累積時間の計算は、現に視線方向を向けている観客Atだけでなく、その観客Aに対してロボット1を基準とした方位が所定の角度範囲内(例えばプラスマイナス10度以内)の観客Asについて、観客Atに対して加算する累積時間よりも少ない時間を、加算するようにしてもよい。図9は、現に視線方向を向けている観客Atの近傍にいる観客Asに対して累積時間を加算する処理を説明するための図である。図示するように、観客ID=0002の観客Aに3[sec]の間、視線方向を向けた場合、例えば3[sec]の半分の1.5[sec]を累積時間に加算してよい。
更に、視線方向決定部96は、大きく視線方向を変化させてから視線方向を向けた観客に対して、累積時間を通常よりも大きく重み付けして加算してもよい。こうすれば、わざわざ頭部10を振って視線方向を向けてくれたと感じることが想定される観客に対して、累積時間が大きく加算されることになり、観客間の平等感を高めることができる。また、視線方向決定部96は、ロボット1からの距離が近い観客に対し、同じ視線方向を向けた時間に対する累積時間の加算を大きくしてもよい。この場合、例えば、所定の角度範囲内において、ロボットの視線方向に近い角度にいる観客ほど重みを大きくする。ここで、ロボット1の視線方向上に存在する観客Aであって、視線方向を向けている観客Atとは別の観客Aについては、角度差0°でも観客Atよりも重みを小さくするようにする。例えば、同一方向上に大人と子供が重なっている場合もありうるからである。また、重み付けは、パン角とチルト角の双方を考慮して行ってもよい。
また、視線方向決定部96は、異なる分割領域にいる観客同士であっても、位置が近い観客が存在することを考慮し、現に視線方向を向けている観客(以下、観客At)に対してロボット1を基準とした方位が所定の角度範囲内(例えばプラスマイナス10度以内)の観客(以下、観客As)には、観客Atに続いて、視線方向を向けないようにしてよい。こうすれば、連続して同じ観客ばかりに視線方向を向けているという印象を与えずに済む。
また、視線方向決定部96は、問いかける内容でない発話を行う場面では、観客を端から端まで15〜20[sec]程度で見渡し、その間、上記と同様の一人あたりの視線滞留時間tの間、一人の観客に視線方向を向ける。係る動作は、ロボット1が所定のジェスチャをするときに中断されてよく、中断からの再開時には、中断前の状態が引き継がれる。ここで、ジェスチャの内容は、説明の内容(ロボット1自身に注目させたいのか、スクリーンSCに注目させたいのか)に応じて種類を異ならせてよい。例えば大切な説明をするためスクリーンSCに注目して欲しいときに、ロボット1が大きなジェスチャを行うと、観客の注目がロボット1に集中してしまうからである。また、ジェスチャの大小は、観客の盛り上がり具合に応じて変化させてよい。盛り上がり具合は、笑い声や歓声、拍手の大きさ、挙手のスピード等によって数値化される。
[観客の一部に接近して説明]
観客の一部に接近して説明するシナリオデータBが実行される場合、立ち位置決定部95は、以下の処理を行う。図10は、観客の一部に接近して説明する場面を説明するための図である。立ち位置決定部95は、まず、観客Aが分布する領域Sを認識し、領域Sを、各分割領域の幅が所定距離(例えば2.5[m]程度)以下となるように、均等に分割する。そして、立ち位置決定部95は、注視回数ヒストグラム87を参照し、対応する投影回数の最も少ない分割領域内の観客Aに接近するように立ち位置を定める。
ここで、注視回数ヒストグラム87とは、例えば、シナリオデータBが実行されている間に、各観客に視線方向を向けた回数を、所定の軸上に投影してカウントしたデータである。図10において、ステージSTの後端部に沿った直線xが、所定の軸の一例である。また、これに代えて、ステージSTの前端部に沿った曲線を所定の軸としてもよいし、ステージ上のある点を中心とした円弧を所定の軸としてもよい。更に、注視回数ヒストグラム87は、実行されているシナリオデータに拘わらず、各観客に視線方向を向けた回数を所定の軸上に投影してカウントしたデータであってもよい。また、注視回数ヒストグラム87に代えて、シナリオデータBが実行されている間に、各観客に視線方向を向けた累積時間を、所定の軸上に投影してカウントした注視時間ヒストグラムを用いてもよい。
図10の例では、注視回数ヒストグラム87のうち分割領域S1に対応する部分のカウント数が、分割領域S2に対応する部分のカウント数よりも少ないため、立ち位置決定部95は、分割領域S1内の観客Aに接近して説明を行うと決定する。これにより、ロボット1は、観客間での平等感を向上させることができる。
ここで、観客分布が変動した場合について説明する。図11は、観客の一部に接近して説明する場面の他の例を説明するための図である。図示するように、新たな観客Aが流入して観客分布Sが変動した場合、立ち位置決定部95は、観客Aが分布する領域Sを再認識し、領域Sを、各分割領域の幅が所定距離以下となるように、均等に分割する。図11の例では、領域Sを2分割したのでは各分割領域の幅が所定距離を超えるため、領域Sを3分割して分割領域S1〜S3を設定する。この場合、新たに設定された分割領域S1には、注視回数ヒストグラム87上でカウント数が蓄積されていないため、立ち位置決定部95は、分割領域S1内の観客Aに接近して説明を行うと決定する。これにより、ロボット1は、時々刻々と変動する観客Aの分布に対応した動作を行うことができる。
なお、シナリオデータBが実行される場合においても、観客Atに視線方向を向けた場合、ロボット1を基準とした方位が所定の角度範囲内の観客Asについて、観客Atに対して加算するカウント数よりも少ない数を、注視回数ヒストグラム87に加算するようにしてもよい。図12は、現に視線方向を向けている観客Atの近傍にいる観客Asに対して注視回数ヒストグラム87にカウント数を加算する処理を説明するための図である。図示するように、観客Atに視線方向を向けた場合、例えば0.5回分のカウント数を、注視回数ヒストグラム87の観客Asに対応する部分に加算してよい。
シナリオデータBが実行される場合に指定される視線配分モード(3)とは、ロボット1が接近した分割領域内の観客に対し、前述した「累積時間」の少ない観客から順に、所定時間t(例えば3[sec])ずつ視線方向を向けるものである。視線方向決定部96は、ロボット1が接近した分割領域内で視線方向を向ける観客を、累積時間データ86を参照し、累積時間が少ない観客から順に選択する。
[説明対象を指し示して説明]
シナリオデータCが選択されると、視線方向決定部96は、視線配分モード(1)または(4)で視線方向を決定する。視線配分モード(1)は前述したものと同じであり、視線配分モード(4)は、説明対象(スクリーンSC)を見続けるものである。
[遷移状態]
シナリオデータ間の遷移状態において、視線方向決定部96は、移動に要する所要時間の間、観客の端から端までを見渡す動作を行う(視線配分モード(2))。ここで、シナリオデータBに遷移する場合には、観客の端から端までに代えて、接近するエリアの端から端までを見渡してもよい。
[動作フロー]
図13は、本実施形態の制御部90により実行される処理の流れの一例を示すフローチャートである。まず、シナリオ選択部93がシナリオデータを読み込み(ステップS200)、動作モード決定部94が動作モードを決定する(ステップS202)。次に、環境認識部92が、観客の位置を示す情報を取得する(ステップS204)。次に、立ち位置決定部95と視線方向決定部96が、ロボット1の立ち位置と視線配分モードをそれぞれ決定する(ステップS206)。そして、姿勢制御部97と音声制御部98が、ステップS206で決定されたロボット1の立ち位置と視線配分モード、およびシナリオデータに付随する音声内容に基づいて、アクチュエータ群60とスピーカ70をそれぞれ制御する(ステップS208)。そして、制御部90は、シナリオデータの全てが実行されたか否かを判定し、シナリオデータの全てが実行されていなければステップS200に処理を戻し、シナリオデータの全てが実行されていれば本フローチャートの処理を終了する(ステップS210)
以上説明した本実施形態のロボット1、およびロボット1の制御方法によれば、環境認識部92により取得される観客の位置に基づいて、ロボット1の立ち位置を実現するように、アクチュエータ群60を制御するため、観客の注意を効果的に惹きつけることができる。
なお、以上説明したロボット1の制御部90の機能のうち、一部の機能が、ロボット1の外部に備えられてもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…ロボット、10…頭部、20…ボディ部、22…首関節部、26…腰関節部、28…股関節部、30…腕部、50…脚部、60…アクチュエータ群、62…ロータリーエンコーダ群、70…スピーカ、80…記憶部、84…シナリオデータ、90…制御部、120…外部カメラ

Claims (6)

  1. ロボットの基体を移動させる移動部と、
    観客の位置を示す情報を取得する取得部と、
    所定の領域内において前記観客に向けて説明を行うように制御する制御部であって、前記取得部により取得される前記観客の位置に基づいて、前記ロボットの立ち位置を決定し、前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御する制御部と、
    前記ロボットの頭部を駆動し、前記ロボットの頭部の向きを変化させる頭部駆動部と、
    を備え
    前記制御部は、
    前記観客に頭部の正面または視線を向けた回数を所定の軸上に投影してカウントして投影データを記憶部に記憶しておき、前記投影データに基づいて移動するように前記移動部を制御し、
    前記頭部の正面または視線を向けた観客であるか否かを、前記頭部駆動部に指示した方向を基準として定まる方向を中心とした所定範囲内に存在したか否かによって判定する、
    ロボット。
  2. 前記制御部は、観客に頭部の正面または視線を向けた時間を、観客毎に累積して記憶部に記憶しておき、前記累積した時間の短い観客に対して優先的に頭部の向きを向けるように、前記頭部駆動部を制御する、
    請求項1記載のロボット。
  3. 前記制御部は、前記観客に向けての説明の内容および形態を指定するシナリオデータを順次選択することで、前記ロボットの立ち位置および頭部の向きの配分態様を指定する動作モードを決定し、前記決定した動作モードと、前記取得部により取得される前記観客の位置とに基づいて、前記ロボットの立ち位置および頭部の向きを決定する、
    請求項1または2記載のロボット。
  4. 前記シナリオデータは、所定の箇所から前記観客の全体を見渡して説明を行う態様を指定するシナリオデータと、前記観客の一部に接近して説明を行う態様を指定するシナリオデータとを含む複数のシナリオデータの中から選択される、
    請求項3記載のロボット。
  5. 前記制御部は、前記投影データにおいて投影回数の少ない観客に接近するように前記移動部を制御する、
    請求項1から4のいずれか1項記載のロボット。
  6. ロボットの基体を移動させる移動部と、観客の位置を示す情報を取得する取得部と、前記ロボットの頭部を駆動し、前記ロボットの頭部の向きを変化させる頭部駆動部とを備えるロボットを、所定の領域内において前記観客に向けて説明を行うように制御するロボットの制御方法であって、
    前記取得部により取得される前記観客の位置と、前記観客に前記頭部の正面または視線を向けた回数を所定の軸上に投影してカウントした投影データとに基づいて、前記ロボットの立ち位置を決定し、
    前記決定した前記ロボットの立ち位置を実現するように、前記移動部を制御
    前記頭部の正面または視線を向けた観客であるか否かは、前記頭部駆動部に指示した方向を基準として定まる方向を中心とした所定範囲内に存在したか否かによって判定する、
    ロボットの制御方法。
JP2014048167A 2014-03-11 2014-03-11 ロボット、およびロボットの制御方法 Active JP5948359B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014048167A JP5948359B2 (ja) 2014-03-11 2014-03-11 ロボット、およびロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014048167A JP5948359B2 (ja) 2014-03-11 2014-03-11 ロボット、およびロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2015171737A JP2015171737A (ja) 2015-10-01
JP5948359B2 true JP5948359B2 (ja) 2016-07-06

Family

ID=54259413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014048167A Active JP5948359B2 (ja) 2014-03-11 2014-03-11 ロボット、およびロボットの制御方法

Country Status (1)

Country Link
JP (1) JP5948359B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106426269A (zh) * 2016-11-24 2017-02-22 深圳市旗瀚云技术有限公司 一种用于仿人机器人的腰部结构和控制方法
CN109986579A (zh) * 2019-04-28 2019-07-09 山东大学 多模式运动仿灵长类机器人

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001198868A (ja) * 2000-01-17 2001-07-24 Atr Media Integration & Communications Res Lab サイバー漫才用ロボットおよび支援装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2006263858A (ja) * 2005-03-24 2006-10-05 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP4822319B2 (ja) * 2005-10-27 2011-11-24 株式会社国際電気通信基礎技術研究所 コミュニケーションロボットおよびそれを用いた注意制御システム
JP4599522B2 (ja) * 2006-02-21 2010-12-15 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
JP2008087140A (ja) * 2006-10-05 2008-04-17 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP5751610B2 (ja) * 2010-09-30 2015-07-22 学校法人早稲田大学 会話ロボット

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106426269A (zh) * 2016-11-24 2017-02-22 深圳市旗瀚云技术有限公司 一种用于仿人机器人的腰部结构和控制方法
CN109986579A (zh) * 2019-04-28 2019-07-09 山东大学 多模式运动仿灵长类机器人
CN109986579B (zh) * 2019-04-28 2021-06-15 山东大学 多模式运动仿灵长类机器人

Also Published As

Publication number Publication date
JP2015171737A (ja) 2015-10-01

Similar Documents

Publication Publication Date Title
JP6212667B1 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
US9838597B2 (en) Imaging device, imaging method, and program
JP6244593B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10313481B2 (en) Information processing method and system for executing the information method
JP5187517B2 (ja) 情報提供装置、情報提供方法およびプログラム
US9332219B2 (en) Telepresence device
US10579109B2 (en) Control device and control method
JP6229089B1 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
Pateromichelakis et al. Head-eyes system and gaze analysis of the humanoid robot Romeo
US10860089B2 (en) Method of suppressing VR sickness, system for executing the method, and information processing device
US11609428B2 (en) Information processing apparatus and information processing method
JP2017111539A (ja) プログラム及びコンピュータ
JP5948359B2 (ja) ロボット、およびロボットの制御方法
JP7390541B2 (ja) アニメーション制作システム
JP2007130691A (ja) コミュニケーションロボット
JP2004042151A (ja) コミュニケーションロボット
JP2017121082A (ja) プログラム及びコンピュータ
WO2017090298A1 (ja) 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP6158665B2 (ja) ロボット、ロボット制御方法、およびロボット制御プログラム
JPWO2021059361A1 (ja) アニメーション制作方法
Makabe et al. Development of movable binocular high-resolution eye-camera unit for humanoid and the evaluation of looking around fixation control and object recognition
US20180239420A1 (en) Method executed on computer for providing virtual space to head mount device, program for executing the method on the computer, and computer apparatus
WO2020081090A1 (en) Video capture device positioning based on participant movement
JP6964302B2 (ja) アニメーション制作方法
US20190099895A1 (en) Robot control system, robot control method and user apparatus for robot control system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160606

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5948359

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150