JP7476941B2 - ロボット、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP7476941B2
JP7476941B2 JP2022180696A JP2022180696A JP7476941B2 JP 7476941 B2 JP7476941 B2 JP 7476941B2 JP 2022180696 A JP2022180696 A JP 2022180696A JP 2022180696 A JP2022180696 A JP 2022180696A JP 7476941 B2 JP7476941 B2 JP 7476941B2
Authority
JP
Japan
Prior art keywords
robot
predetermined target
approach
behavior
rating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022180696A
Other languages
English (en)
Other versions
JP2023027060A (ja
Inventor
香莉 門澤
広城 渥美
哲司 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2022180696A priority Critical patent/JP7476941B2/ja
Publication of JP2023027060A publication Critical patent/JP2023027060A/ja
Application granted granted Critical
Publication of JP7476941B2 publication Critical patent/JP7476941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。
ロボット等の機器が普及するには所定の対象への親しみやすさをどのように表現するかが重要な点となっている。現状では、所定の対象への好感度に応じてロボットと所定の対象との間の距離を変更する技術が知られている。(例えば、特許文献1参照)。
特開2000-326274公報
しかしながら、特許文献1の技術は、好感度に応じて所定の対象との間の移動後の距離のみを変更するものであり、所定の対象への好感度に応じた感情表現としては不充分であるという問題がある。
そこで、本発明は、前述のような事情に鑑みてなされたものであり、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することを目的とする。
前記目的を達成するため、本発明に係るロボットの一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
を備え、
前記制御手段は、
前記好感度が閾値よりも高い場合、第1の接近速度で、前記所定の対象と正面から向き合うような第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なる第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るロボットの別の一様態は、
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
を備え、
前記制御手段は、
前記好感度が閾値よりも高い場合、第1の接近速度で、第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なり前記所定の対象と正面から向き合わないような第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする。
前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含み、
前記制御ステップにおいて、
前記好感度が閾値よりも高い場合、第1の接近速度で、前記所定の対象と正面から向き合うような第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なる第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るロボットの制御方法の別の一様態は、
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含み、
前記制御ステップにおいて、
前記好感度が閾値よりも高い場合、第1の接近速度で、第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なり前記所定の対象と正面から向き合わないような第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るプログラムの一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記制御処理において、
前記好感度が閾値よりも高い場合、第1の接近速度で、前記所定の対象と正面から向き合うような第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なる第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
また、前記目的を達成するため、本発明に係るプログラムの別の一様態は、
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させ、
前記制御処理において、
前記好感度が閾値よりも高い場合、第1の接近速度で、第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なり前記所定の対象と正面から向き合わないような第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
ことを特徴とする。
本発明によれば、所定の対象に好感度に応じて従来よりも豊かな感情表現をすることができるロボット、ロボットの制御方法及びプログラムを提供することが可能となる。
本発明の実施の形態に係るロボットの正面図である。 ロボットの構成を示すブロック図である。 ユーザ行動テーブルの一例を示す図である。 好感度設定テーブル(好感度取得テーブル)の一例を示す図である。 接近様態決定テーブルの一例を示す図である。 直線的な移動経路(接近経路)を説明するための図である。 湾曲した移動経路を説明するための図である。 蛇行した移動経路を説明するための図である。 ロボットがユーザと真正面で向き合う状態を説明するための図である。 ロボットがユーザと斜めに向き合う状態を説明するための図である。 応対制御処理(接近制御処理)の流れを示すフローチャートである。 迂回経路(通過経路)が形成された移動経路を説明するための図である。
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。以下の実施の形態では、本発明の実施の形態に係る対話装置を備えるロボットを例に説明する。
ロボット100は、所定の対象とコミュニケーションをするロボットである。ここで、所定の対象とは、ロボット100を利用するユーザ(利用者)であり、典型的には、ロボット100の所有者や所有者の家族や友人等である。また、所定の対象には、人以外に、動物や他のロボットも含まれる。
ロボット100は、図1に示すように、外観的には人間を模した立体的な形状を有するロボットである。また、ロボット100の外装は、合成樹脂を主たる材料として形成されている。ロボット100は、胴体部101と、胴体部101の上部に接続する頭部102と、胴体部101の左右のそれぞれに接続する手部103と、胴体部101の下部に接続する2本の足部104と、を有する。頭部102、手部103、足部104の各部は、図示しない関節部材を介して胴体部101に取り付けられ、後述する制御部110の制御に従って、予め設定された動作を行うように構成されている。また、頭部102は、左右一対の目部105、口部106を有する。なお、図1の上側、下側、左側、右側を、各々、ロボット100の上側、下側、右側、左側とする。
次に、図2を参照して、ロボット100の構成について説明する。ロボット100は、図2に示すように、制御部110、記憶部120、撮像部130、センサ部140、移動部150、動作部160、音声入力部170、音声出力部180を備える。これらの各部は、バスラインBLを介して相互に電気的に接続されている。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を有するコンピュータにより構成され、ロボット100の動作を制御する。制御部110は、CPUがROMに記憶された制御プログラムを読み出してRAM上で実行することにより、ロボット100の各部の動作を制御する。
制御部110は、制御プログラムを実行することによって、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部(好感度取得部)115、応対制御部(接近制御部)116として機能する。
ユーザ認識部111は、ロボット100の周囲(例えば、ロボット100から半径3mの範囲内)に存在するユーザを識別して認識する。ユーザ認識部111は、例えば、後述する顔認識部112による顔認識結果、音声認識部113による話者認識結果のいずれか又は両方に基づいて、ロボット100の周囲に存在するユーザが誰であるかを認識する。また、ユーザ認識部111は、例えば、顔認識部112が撮像部130の撮像画像から検出した顔画像の位置や大きさ、音声認識部113が認識した音源方向等に基づいて、ロボット100の周囲に存在するユーザの位置及びユーザまでの距離を認識する。ユーザ認識部111は、本発明の認識手段として機能する。
顔認識部112は、ロボット100の周囲に存在するユーザの顔を認識する。顔認識部112は、例えば、後述する撮像部130から取得した撮像画像に基づき、周知の顔検出技術、物体検出技術等を用いて、ロボット100の周囲に存在するユーザを検知する。続いて、顔認識部112は、例えば、撮像部130による撮像画像から検知したユーザの顔部分に相当する顔画像を検出して、顔の特徴量を示す顔特徴情報を抽出する。そして、顔認識部112は、顔画像から抽出した顔特徴情報と、後述する記憶部120のユーザ情報DB(Data Base)121が記憶する各ユーザ情報に含まれる顔特徴情報とを照合し、類似度が所定の基準を満たす登録ユーザを特定する。顔認識部112は、類似度が所定の基準を満たす登録ユーザを特定できない場合には、検出したユーザは未登録ユーザであると認識する。顔の特徴量は、ユーザの顔を識別可能な情報であればよく、例えば、目、鼻、口等の顔に含まれる各パーツの形状、大きさ、配置等の外観的特徴を数値で示したものである。このように、顔認識部112は、本発明の顔認識手段として機能する。
音声認識部113は、後述する音声入力部170から取得した音声データに含まれるユーザの発話の内容を認識する。音声認識部113は、記憶部120の音声認識DB122に格納された音声認識データを用いて、音声データに音声認識処理を行い、発話認識結果として、ユーザの発話内容を示すテキストデータを生成する。音声認識部113は、本発明の音声認識手段として機能する。
また、音声認識部113は、音声入力部170から取得した音声データに含まれる音声を発した発話者を認識する。音声認識部113は、例えば、音声入力部170から取得した音声データから背景雑音等を消去し、ユーザの音声の特徴量を示す音声特徴情報を抽出する。そして、音声認識部113は、音声データから抽出した音声特徴情報と、記憶部120のユーザ情報DB121が記憶する各ユーザ情報に含まれる音声特徴情報とを照合し、話者認識結果として、類似度が所定の基準を満たす登録ユーザを特定する。音声特徴情報は、ユーザの音声を識別可能な情報であればよく、例えば、声の高さ、強さ、速さ、声質等の音響的特徴を数値で示したものである。このように、音声認識部113は、ユーザ認識部111によりロボット100の周囲に存在する複数のユーザが認識された場合、何れのユーザによって発話されたかを特定することが可能である。
また、音声認識部113は、音声入力部170から取得した音声データに基づいて、音源方向を認識する。音声認識部113は、例えば、音声入力部170が有するマイクユニットの各マイクの集音時間差や音圧レベル差等に基づいて音源方向を認識する。
ユーザ行動認識部114は、ロボット100に対するユーザの行動(以下、「ユーザ行動」と称する)を認識する。ユーザ行動認識部114は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に応じて、ユーザ行動を認識する。ユーザ行動認識部114は、例えば、タッチセンサにより検出された接触強度が予め設定された基準値よりも低い場合には、そのユーザ行動を「撫でる」と認識し、接触強度が予め設定された基準値よりも高い場合には、そのユーザ行動を「叩く」と認識する。なお、ユーザ行動判定部は、撮像部130による撮像画像からユーザの表情や振る舞い等を検出することにより、ユーザ行動として認識してもよい。ユーザ行動認識部114は、認識したユーザ行動を、該当するユーザのユーザ情報に追加し、履歴情報として記憶する。ユーザ行動認識部114は、本発明の行動認識手段として機能する。
好感度設定部(好感度取得部)115は、各ユーザの好感度を設定(取得)する。好感度設定部115は、例えば、ロボット100に対するユーザ行動に応じて、そのユーザに対する好感度を決定する。好感度設定部115は、好感度を決定するにあたり、例えば、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブル(好感度取得テーブル)を参照する。
ユーザ行動テーブルは、図3に示すように、「ユーザ行動」と「付与ポイント」とが対応付けられている。「ユーザ行動」として、「話しかける」、「撫でる」等が列挙されている。また、「付与ポイント」は、各ユーザ行動に予め設定された数値である。各ユーザ行動に異なる付与ポイントを設定することにより、ユーザ行動の属性(ロボット100に対するユーザの好意性)に応じた重み付けが施されている。例えば、「話しかける」、「撫でる」等の好意的な行動には正値が設定され、「応答しない」、「叩く」等の非好意的な行動には負値が設定されている。このような重み付けを施すことにより、各ユーザ行動を、好意的な行動と非好意的な行動とに区別することができるとともに、好意的な行動であれば好感度を上げ、非好意的な行動であれば好感度を下げることができる。
好感度設定テーブルは、図4に示すように、「好感度」と「好感度ポイント」とが対応付けられている。「好感度」は、好感度の度合いに応じて、「A」、「B」、「C」、「D」、「E」の5つのレベルに分類されている。「好感度ポイント」は、所定期間において同一のユーザによって実施された各ユーザ行動に設定された付与ポイントの合計値である。好感度「A」~「E」の順に高い好感度ポイントが対応付けられている。すなわち、好感度に関する1または複数の閾値が設けられ、好感度は、設けられた閾値によって複数の区分に分類されている。「好感度ポイント」は、例えば、直近の所定期間における付与ポイントの合計値、最近の所定期間における好感度ポイントほど重みを大きくして求めた加重平均値、直近の所定期間を含むある程度長期間の好感度ポイントによって求めた移動平均値等を用いることができる。
好感度設定部115は、例えば、所定期間が経過する毎に、各ユーザの好感度(好感度レベル)を設定し、記憶部120のユーザ情報DB121に格納された対応するユーザ情報に含まれる現状の好感度を更新して記憶する。また、好感度設定部115は、ユーザ情報DB121に格納された該当するユーザ情報を参照して予め設定された好感度を適宜取得することができる。このように、好感度設定部115は、本発明の記録手段、取得手段として機能する。
応対制御部116は、対象ユーザに対する好感度に応じて応対様態を決定し、決定された応対様態に基づいて、感情表現をするように、移動部150、動作部160、音声出力部180のうち少なくとも1つを制御して、各種行動を実行する。
応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、そのユーザ行動に応答するロボット100の行動(以下、「応答行動(応答動作)」と称する)を実行するための応対様態を好感度に応じて決定する。応対制御部116は、例えば、ユーザ行動認識部114が「おはよう」、「こんにちは」等のあいさつを認識した場合、好感度が高い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつと、これに続けて、「今日はいい天気だね」、「今日は何をするの?」等の対象ユーザとの対話を持続、発展させるような発話を加えた応答を応対様態として決定する。一方、好感度が低い対象ユーザに対しては、「おはよう」、「こんにちは」等のあいさつのみの形式的、儀礼的な応答を応対様態として決定する。そして、応対制御部116は、音声出力部180を制御して、決定された応答様態を示す音声を出力する。
また、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識した場合、対象ユーザが予め設定された接近条件を満たすか否かを判定し、接近条件を満たすと判定した場合には、好感度に応じて応対様態としての接近様態を決定する。接近条件として、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけ(例えば、「おいで」、「こっちに来て」等)があったこと等が挙げられる。この場合、応対制御部116は、音声認識部113による発話認識結果に基づいて、接近条件を満たすか否かを判定すればよい。以下の説明では、接近条件を満たす対象ユーザを、「接近対象ユーザ」と称する。接近条件を満たすと判定した場合、応対制御部116は、例えば、図5に示す接近様態決定テーブルを参照して、接近様態として、接近対象ユーザに接近中の移動経路(接近経路)及び移動速度(接近速度)、接近終了時の接近対象ユーザとの間の対向距離(接近距離)及びユーザと向き合う接近中又は接近終了時の対向姿勢(接近姿勢)のうちの少なくとも1つを決定する。このように、応対制御部(接近制御部)116は、本発明の制御手段、決定手段として機能する。
接近様態決定テーブルは、例えば、図5に示すように、好感度のレベル毎に、応対様態(接近様態)として「移動経路」、「移動速度」、「対向距離」、「対向姿勢」が対応付けられている。
「移動経路(接近経路)」は、好感度が高いほど接近対象ユーザに向かって直行する(直線的な)経路パターンが設定され、好感度が低いほど遠回りをする(蛇行する)経路パターンが設定されている。例えば、好感度「A」には直線的な経路である「直線」、好感度「C」には曲率が小さい経路である「湾曲(大)」、好感度「E」には蛇行幅が大きい経路である「蛇行(大)」、がそれぞれ設定されている。
より具体的には、移動経路「直線」の場合、図6に示すように、ロボット100は、接近対象ユーザURに向かって、直線的な移動経路MRに沿って接近する。また、移動経路「湾曲(大)」、「湾曲(小)」の場合、図7に示すように、ロボット100は、接近対象ユーザURに向かって、湾曲した移動経路MRに沿って接近する。なお、「湾曲(大)」は、「湾曲(小)」よりも曲率が小さいことを示す。また、移動経路「蛇行(大)」、「蛇行(小)」の場合、図8に示すように、ロボット100は、接近対象ユーザURに向かって、蛇行した移動経路MRに沿って接近する。なお、「蛇行(大)」は、「蛇行(小)」よりも蛇行幅が大きいことを示す。このように、「移動経路」は、好感度が低くなるに従って移動距離が長くなるように設定されている。応対制御部116は、ユーザ認識部111が認識した対象ユーザの位置及び対象ユーザまでの距離、「移動経路」が示す経路パターンに基づいて、具体的な移動経路を決定する。
「移動速度(接近速度)」は、好感度が高いほど高速で移動するように設定され、好感度が低いほど低速で移動するように設定されている。例えば、好感度「A」には予め設定された標準速度(例えば、0.3m/秒)よりも高速である「高」(例えば、0.5m/秒)、好感度「B」には標準速度よりもやや高速である「やや高」(例えば、0.4m/秒)、好感度「C」には標準速度である「中」、好感度「D」には標準速度よりもやや低速である「やや低」(例えば、0.2m/秒)、好感度「E」には標準速度よりも低速である「低」(例えば、0.1m/秒)が設定されている。
「対向距離(接近距離)」は、好感度が高いほど移動終了時にロボット100と接近対象ユーザとの間の距離が短くなるように設定され、好感度が低いほど移動終了時にロボット100と接近対象ユーザとの間の距離が長くなるように設定されている。例えば、好感度「A」には予め設定された標準距離(例えば、0.5m)よりも短い距離(例えば、0.3m)である「短」、好感度「B」には標準距離よりもやや短い距離(例えば、0.4m)である「やや短」、好感度「C」には標準距離である「中」、好感度「D」には標準距離よりもやや長い距離(例えば、0.6m)である「やや長」、好感度「E」には標準距離よりも長い距離(例えば、0.7m)である「長」が設定されている。このように、「対向距離」は、好感度が低くなるに従って、離間した位置で接近移動を終了して接近対象ユーザと向き合うように設定されている。
「対向姿勢(接近姿勢)」は、ロボット100が、接近対象ユーザに向かう接近中又は接近終了時にユーザに向き合う姿勢であって、図9及び図10に示すように、接近対象ユーザURの正面方向UDとロボット100の正面方向RDとがなす角度である対向角度αによって表されている。ここで、接近対象ユーザの正面方向UDは、接近対象ユーザの左右方向に沿った面を後方から前方に垂直に貫く方向である。また、ロボット100の正面方向RDとは、ロボット100の左右方向に沿った面を後方から前方に垂直に貫く方向である。好感度が高いほど接近対象ユーザと真正面で向き合うように設定され、好感度が低いほど接近対象ユーザと斜めに向き合うように設定されている。例えば、好感度「A」には「0°」、好感度「B」には「10°」好感度「C」には「20°」、好感度「D」には「30°」、好感度「E」には「40°」が設定されている。対向角度αが0°の場合には、図9に示すように、ロボット100は接近対象ユーザURと真正面に向き合い、対向角度αが0°以外の場合には、図10に示すように、ロボット100が接近対象ユーザURと斜めに向き合うことになる。
なお、ロボット100の胴体部101と頭部102の正面方向が一致するものとして説明したが、ロボット100の胴体部101を接近対象ユーザと真正面で向き合うようにして、ロボット100の頭部102(顔部)の正面方向と接近対象ユーザの正面方向とがなす角度を対向角度αとしてもよい。すなわち、好感度が低くなるにつれて、頭部102を左右いずれかの方向に回転させて、ロボット100の頭部102(顔部)を接近対象ユーザからそむけるようにしてもよい。
このように、図5に示す接近様態決定テーブルには、ロボット100が、好感度が高いユーザに対して早く近くに接近するといった好意的な動作を実行する一方、好感度が低いユーザに対して時間をかけて移動し離れた位置で接近をやめるといった好意的でない動作を実行するように、接近様態が設定されている。なお、接近様態決定テーブルにおいて、好感度の度合い(レベル)に応じて、優先的な動作や優先的でない動作を設定してもよい。
さらに、応対制御部116は、ユーザ行動認識部114がユーザ行動を認識しない場合であっても、ロボット100の自発的な行動(以下、「自発行動」と称する)を実行するか否かを判定し、実行すると判定した場合には、自発行動を実行するための応対様態を好感度に応じて決定する。自発行動を実行するか否かの判定に際して、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間、すなわち、対象ユーザがロボット100に対して何ら働きかけをしない時間が、所定時間(例えば、30分)継続したこと等を判定条件として用いればよい。自発行動としては、対象ユーザにロボットとのコミュニケーションを促す発話(例えば、「何をしているの?」、「会話しようよ」等)や動作(例えば、対象ユーザの注意を引くように手を振る動作等)が挙げられ、好感度に応じて発話内容や動作の程度が適宜調整される。なお、ユーザ行動の有無や接近条件を満たすか否かに関わらず、好感度の高い対象ユーザに対しては自発的に接近するようにしてもよい。
なお、ユーザ認識部111、顔認識部112、音声認識部113、ユーザ行動認識部114、好感度設定部115、応対制御部116は、単一のコンピュータで各機能を実現してもよいし、各々別個のコンピュータによって各機能を実現してもよい。
記憶部120は、記憶内容が書き換え可能な不揮発性の半導体メモリ、ハードディスクドライブ等を備え、制御部110がロボット100の各部を制御するために必要な各種データを記憶する。記憶部120は、例えば、前述したユーザ行動テーブル、好感度設定テーブル、接近様態決定テーブル等を所定の記憶領域に記憶する。記憶部120は、本発明の記録手段として機能する。
また、記憶部120は、各種データをそれぞれ格納する複数のデータベースを有する。記憶部120は、例えば、ユーザ情報DB121、音声認識DB122、対話情報DB123を有する。
ユーザ情報DB121は、登録ユーザに関する各種情報をユーザ情報として蓄積して記憶する。ユーザ情報は、例えば、ユーザを識別するために予め割り当てられたユーザ識別情報、ユーザの顔の特徴量を示す顔特徴情報、ユーザの音声の特徴量を示す音声特徴情報、所定の期間毎のユーザ行動や好感度ポイント等の履歴情報、現状の好感度等を含む。
音声認識DB122は、音声認識処理に用いられる音声認識データを格納する。音声認識データには、例えば、他の語と意味を区別する音の最小単位である音素の各々の特徴(周波数特性)を表わす音響モデル、音素の特徴と単語とを対応付ける単語辞書、単語の並びとその連接確率を表す言語モデルが含まれる。
対話情報DB123は、応対制御部116が、ユーザとの対話におけるロボット100の応答及び発話に係る音声データを生成するために必要となる対話情報を格納する。対話情報は、例えば、ユーザの発話に対するロボット100の応答を生成するために用いられる応答情報、ユーザに自発的に話しかける際のロボット100の発話を生成するために用いられる発話情報、ロボット100の応答及び発話の合成音声波形を示す音声データを生成するために用いられる音声合成情報を含む。応答情報は、例えば、ユーザの発話内容を示すテキストデータと、ロボット100の応答内容を示すテキストデータとが対応付けられている。発話情報は、例えば、ロボット100の発話内容を示すテキストデータを含む。また、音声合成情報は、例えば、テキストデータを音声化するために用いられる各音素の音声波形を示す音声データを含む。
撮像部130は、レンズ、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を備えるカメラで構成され、ロボット100の周囲を撮像する。撮像部130は、例えば頭部102の正面上部に設置され、頭部102の前方を撮像し、デジタル画像データを生成して出力する。カメラは、レンズが向く方向を変えるように動作可能なモータ駆動の架台(ジンバル等)に取り付けられ、ユーザの顔等を追尾することができるように構成される。撮像部130は、本発明の撮像手段として機能する。
センサ部140は、ロボット100の外部状態及び内部状態を示す情報(物理量)を取得し、適宜、所定の信号に変換して制御部110に供給する。センサ部140は、例えば、ユーザの接触により受けた圧力を検知するタッチセンサ、ロボット100の加速度を検知する加速度センサ、外部の温度及び湿度を検知する温湿度センサ等の各種センサを有する。タッチセンサは、接触圧力の大きさに応じて、「撫でる」や「叩く」といったユーザの物理的な働きかけを認識するために、例えば、頭部102の上方部に配置される。なお、加速度センサを用いて、互いに直交する3軸方向の加速度から接触強度を検出してもよい。
移動部150は、ロボット100を移動可能とするための部位である。移動部150は、例えば、ロボット100の左右の足部104の底部にそれぞれ設けられた車輪と、左右の車輪を回転駆動するモータと、モータを駆動制御する駆動回路と、を有する。制御部110から受信した制御信号に従って、駆動回路は、モータに駆動用のパルス信号を供給する。モータは、駆動用のパルス信号に従って、左右の車輪を回転駆動させ、ロボット100を移動させる。このように、移動部150は、本発明の移動手段として機能する。なお、左右の車輪がそれぞれ独立して回転駆動するように構成され、ロボット100が前進、後退、旋回、加減速などの走行が可能であれば、モータの数は任意である。例えば、連結機構や操舵機構を設けるなどして1つのモータで左右の車輪を駆動させてもよい。また、モータの数に合わせて駆動回路の数も適宜変更することができる。
動作部160は、制御部110の制御に従って予め定められた動作を行う部位である。動作部160は、頭部102、手部103、足部104等の被駆動部材と、被駆動部材を駆動するアクチュエータ等の駆動部材と、駆動部材を駆動制御する駆動回路と、により構成される。動作部160は、制御部110(応対制御部116)の制御の下、駆動回路から供給された駆動信号に従って駆動部材が被駆動部材を駆動することにより、例えば、手足を動かす動作や頭を上下左右に振る動作を行う。このように、動作部160は、本発明の動作手段として機能する。
音声入力部170は、複数のマイクで構成されるマイクユニット、A/D(Analog to Digital)変換器等で構成され、例えば頭部102の異なる位置に設置された複数のマイクで集音した音声を増幅し、A/D変換、符号化等の信号処理を施したデジタル音声データ(音声情報)を制御部110に出力する。音声入力部170は、本発明の音声入力手段として機能する。
音声出力部180は、スピーカ、D/A(Digital to Analog)変換器等で構成され、制御部110(応対制御部116)から供給される音声データに復号化、D/A変換、増幅等の信号処理を施し、アナログ音声信号を例えば口部106に設置されたスピーカから出力する。このように、音声出力部180は、本発明の音声出力手段として機能する。
次に、図11に示すフローチャートを参照しながら、ロボット100が実行する応対制御処理について説明する。応対制御処理は、ロボット100が好感度に応じた応対様態で対象ユーザと応対するようにロボット100の行動を制御する処理である。制御部110は、ユーザ認識部111がロボット100の周囲に存在するユーザを認識したことを契機に、応対制御処理を開始する。
制御部110は、応対制御処理を開始すると、まず、対象ユーザに対する好感度を設定する(ステップS101)。制御部110(好感度設定部115)は、記憶部120に記憶されたユーザ行動テーブル及び好感度設定テーブルを参照し、好感度ポイントに対応付けられた好感度のレベルを特定することにより、対象ユーザに対する好感度を設定する。なお、好感度設定部115は、ユーザ情報DB121を参照して、対象ユーザのユーザ情報に含まれる予め設定された現状の好感度を取得してもよい。
次に、制御部110は、ロボット100の周囲に対象ユーザが存在するか否かを判定する(ステップS102)。制御部110は、撮像部130が撮像した撮像画像に基づいて、対象ユーザが依然として周囲に存在するか否かを確認する。ロボット100の周囲に対象ユーザが存在しないと判定した場合(ステップS102:NO)、制御部110は、応対制御処理を終了する。
一方、ロボット100の周囲に対象ユーザが存在すると判定した場合(ステップS102:YES)、制御部110は、ユーザ行動を認識したか否かを判定する(ステップS103)。制御部110(ユーザ行動認識部114)は、例えば、音声認識部113により認識されたユーザの発話内容、センサ部140のタッチセンサにより検出された接触強度等に基づいて、ユーザ行動を新たに認識したか否かに応じて判定する。
ユーザ行動を認識していないと判定した場合(ステップS103:NO)、制御部110は、自発行動を実行するか否かを判定する(ステップS104)。制御部110(応対制御部116)は、例えば、ユーザ行動認識部114がユーザ行動を認識しない時間が、所定時間継続したか否かに応じて判定する。自発行動を実行しないと判定した場合(ステップS104:NO)、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。
ステップS103において、ユーザ行動を認識したと判定した場合(ステップS103:YES)、制御部110(応対制御部116)は、接近条件を満たすか否かを判定する(ステップS105)。応対制御部116は、例えば、対象ユーザがロボット100を自身の近傍に呼び寄せるための呼びかけの有無に応じて判定する。
ステップS105を実行した後、又は、ステップS104において自発行動を実行すると判定した場合(ステップS104:YES)、制御部110(応対制御部116)は、好感度に応じた応対様態を決定する(ステップS106)。応対制御部116は、ステップS104における判定結果(自発行動を実行するという判定結果)、ステップS105における判定結果(接近条件を満たすか否かの判定結果)に基づいて、好感度に応じた応対様態を決定する。
ステップS104において自発行動を実行すると判定した場合、応対制御部116は、ステップS101において設定された好感度に応じて、発話内容や動作の程度を適宜調整して、自発行動を実行するための応対様態を決定する。
ステップS105において接近条件を満たさないと判定した場合、応対制御部116は、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定する。
ステップS105において接近条件を満たすと判定した場合、応対制御部116は、応対様態として、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定する。
続いて、制御部110は、ステップS106において決定した応対様態に基づいて、各部を制御して各種行動を実行する(ステップS107)。応対制御部116は、ステップS106において、自発行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して自発行動を実行する。自発行動に係る応対様態が、例えば、対象ユーザにロボット100とのコミュニケーションを促す発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。
応対制御部116は、ステップS106において、接近条件を満たさず、ステップS103において認識したユーザ行動に対する応答行動を実行するための応対様態を好感度に応じて決定した場合、その応対様態に基づいて、各部を制御して応答行動を実行する。応答行動に係る応対様態が、例えば、対象ユーザのあいさつに応答する発話である場合、その発話内容を示す音声データを生成し、音声出力部180を制御して、生成した音声データに基づく音声を出力する。
応対制御部116は、ステップS106において、接近条件を満たし、接近対象ユーザに接近中の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及び接近対象ユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを決定した場合、その応対様態に基づいて、移動部150、動作部160を制御して接近行動を実行する。
ステップS107を実行した後、制御部110は、処理をステップS102に戻し、対象ユーザが依然として周囲に存在するか否かを確認する。
以上に説明したように、本実施の形態によれば、ロボット100は、ユーザに対する好感度に応じて応対様態を決定し、決定した応対様態に基づいて、各部を制御することにより、各種行動を実行する。例えば、応対制御部116は、予め定められた接近条件を満たす場合、応対様態として、接近対象であるユーザに接近する際の移動経路及び移動速度、接近終了時の接近対象ユーザとの間の対向距離及びユーザと向き合う接近中又は接近終了時の対向姿勢のうちの少なくとも1つを好感度に応じて決定し、決定した応対様態に基づいて接近行動を実行する。これにより、好感度に応じた応対を向上させることができる。
また、ロボット100は、接近条件を満たす場合以外にも、ユーザ行動に対する応答行動に係る応対様態を好感度に応じて決定し、決定した応対様態に基づいて応答行動を実行する。さらに、自発行動に係る応対様態を好感度に応じて決定し、決定された応対様態に基づいて自発行動を実行する。これにより、好感度に応じた応対を向上させることができる。
なお、本発明は、前記の実施の形態に限定されず、種々の変形及び応用が可能である。前記の実施の形態は、次のように変形されてもよい。
前記の実施の形態において、ユーザ認識部111により認識された所定の対象に対する好感度を好感度設定部(好感度取得部)115が設定または取得して、好感度設定部(好感度取得部)115により設定または取得された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定していた。しかしながら、本発明は、これに限定されず、ユーザ認識部111により認識された所定の対象に対する好感度に基づいて、所定の対象への接近中の接近様態を応対制御部(接近制御部)116が決定してもよい。
例えば、ユーザ認識部111が、移動経路上において接近対象ユーザとは異なる他のユーザを認識した場合には、好感度設定部115は、他のユーザに対する好感度を設定し、応対制御部116は、他のユーザに対する好感度に応じて、接近対象ユーザの応対様態及び他のユーザの応対様態を決定してもよい。この場合、応対制御部116は、接近対象ユーザの応対様態として決定された移動経路において、他のユーザを避けて通過するための迂回経路(通過経路)を決定する。ここで、接近対象ユーザは、本発明の所定の対象の一例であり、他のユーザは、本発明の他の対象の一例である。
図12を参照しながら説明すると、応対制御部116は、接近対象ユーザURに接近中の移動経路MR上に、他のユーザUR’が存在する場合、他のユーザUR’を避けて通過するために、迂回経路(通過経路)DRを形成した新たな移動経路MRを決定する。この際、応対制御部116は、他のユーザUR’に対する好感度に応じて迂回経路DRを形成する。応対制御部116は、例えば、他のユーザUR’の好感度が高い場合には、他のユーザUR’のすぐそばを通過するように迂回経路DRを形成し、他のユーザUR’の好感度が低い場合には、他のユーザUR’を大回りして通過する迂回経路DRを形成する。また、応対制御部116は、他のユーザUR’の応対様態として、他のユーザUR’に対する好感度に応じてロボット100が迂回経路DRを通過する際の移動姿勢を決定する。応対制御部116は、移動姿勢として、例えば、他のユーザUR’の好感度が高い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’に向くようにし(ロボット100が他のユーザUR’を見ているようにする)、他のユーザUR’の好感度が低い場合には、迂回経路DRを通過する際に、ロボット100の頭部102(顔部)の正面方向が他のユーザUR’を向かないようにする(そっぽを向くようにする)。これにより、好感度に応じて多様な表現を演出することができ、好感度に応じた応対をさらに向上させることができる。
前記の実施の形態において、ロボット100が、例えば、無線通信モジュール等を有する通信部を備え、インターネット上に構築されたクラウドシステムを利用して記憶部120が記憶する各種データを記憶し、ロボット100からこれらのデータに適宜アクセスできるようにしてもよい。
また、ロボット100が、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ等の表示装置により構成される表示部を備えることにより、ユーザ毎の応対をさらに多様化してもよい。例えば、ロボット100の目部105に表示部を備え、好感度に応じた異なる目を表現する画像を表示することにより、ロボット100の表情を演出するようにしてもよい。
前記の実施の形態において、制御部110のCPUが実行する制御プログラムは、予めROM等に記憶されていた。しかしながら、本発明は、これに限定されず、前記の各種処理を実行させるための制御プログラムを、既存の汎用コンピュータや、フレームワーク、ワークステーション等の電子機器に実装することにより、前記の実施の形態に係るロボット100に相当する装置として機能させてもよい。
このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM)等に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。
また、前記の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(Bulletin Board System:BBS)に前記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、配信されたプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、前述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及び特許請求の範囲と同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記)
(付記1)
所定の対象を認識する認識手段と、
前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定手段と、
前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように自装置を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記自装置に移動をさせる移動手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近経路を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近経路に応じて前記所定の対象に前記感情表現をするように前記移動手段を制御する、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記自装置に動作をさせる動作手段を更に備え、
前記所定の対象への接近中の前記接近様態は、接近姿勢を含み、
前記制御手段は、前記所定の対象への接近中において、決定された前記接近姿勢に応じて前記所定の対象に前記感情表現をするように前記動作手段を制御する、
ことを特徴とする付記1又は2に記載のロボット。
(付記4)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
を更に備え、
前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
ことを特徴とする付記1乃至3の何れか1つに記載のロボット。
(付記5)
前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
を更に備え、
前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(付記6)
前記取得手段は、
前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
ことを特徴とする付記5に記載のロボット。
(付記7)
情報を記録する記録手段を更に備え、
前記記録手段は、
前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
ことを特徴とする付記6に記載のロボット。
(付記8)
前記行動認識手段は、
前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
ことを特徴とする付記6又は7に記載のロボット。
(付記9)
前記制御手段は、前記所定の対象への接近中の前記接近様態として、前記自装置が前記所定の対象に接近する場合の接近経路、接近速度、対向角度、接近姿勢を前記好感度に基づいて決定する、
ことを特徴とする付記1に記載のロボット。
(付記10)
前記制御手段は、前記所定の対象への接近中において、
前記好感度が閾値よりも高い場合、直線的な第1の接近経路で、第1の接近速度で、前記所定の対象と正面から向き合うような第1の接近姿勢に対応する第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、蛇行する第2の接近経路で、前記第1の接近速度よりも遅い第2の接近速度で、前記所定の対象と正面から向き合わないような第2の接近姿勢に対応する第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
ことを特徴とする付記9に記載のロボット。
(付記11)
前記制御手段は、前記所定の対象への接近中において、前記感情表現として、
前記好感度が閾値よりも高い場合、前記所定の対象に好意的な動作又は優先的な動作をするように前記自装置を制御して、
前記好感度が前記閾値よりも低い場合、前記所定の対象に好意的でない動作又は優先的でない動作をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(付記12)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的な動作の程度又は前記優先的な動作の程度を変更する、
ことを特徴とする付記11に記載のロボット。
(付記13)
前記制御手段は、前記所定の対象への接近中において、前記好感度に応じて前記所定の対象に対する前記好意的でない動作の程度又は前記優先的でない動作の程度を変更する、
ことを特徴とする付記11又は12に記載のロボット。
(付記14)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(付記15)
前記所定の対象への接近中において、前記認識手段が、前記所定の対象とは異なる他の対象を認識した場合、
前記決定手段は、前記認識手段により認識された前記他の対象に対する他の好感度に基づいて、前記他の対象に対する通過中の通過様態を決定して、
前記制御手段は、前記他の対象への通過中において、前記決定手段により決定された前記通過様態に応じて前記他の対象に他の感情表現をするように前記自装置を制御する、
ことを特徴とする付記1に記載のロボット。
(付記16)
前記制御手段は、
前記他の対象への前記通過様態として、前記他の対象を避けて通過するための通過経路を決定する、
ことを特徴とする付記15に記載のロボット。
(付記17)
前記制御手段は、
前記他の対象への前記通過様態として、前記通過経路を通過する場合の通過姿勢を決定する、
ことを特徴とする付記16に記載のロボット。
(付記18)
前記他の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記15乃至17の何れか1つに記載のロボット。
(付記19)
所定の対象を認識する認識ステップと、
前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定ステップと、
前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするようにロボットを制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(付記20)
ロボットのコンピュータに、
所定の対象を認識する認識処理と、
前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態を決定する決定処理と、
前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
を実行させる、
ことを特徴とするプログラム。
100…ロボット、101…胴体部、102…頭部、103…手部、104…足部、105…目部、106…口部、110…制御部、111…ユーザ認識部、112…顔認識部、113…音声認識部、114…ユーザ行動認識部、115…好感度設定部(好感度取得部)、116…応対制御部(接近制御部)、120…記憶部、121…ユーザ情報DB、122…音声認識DB、123…対話情報DB、130…撮像部、140…センサ部、150…移動部、160…動作部、170…音声入力部、180…音声出力部、BL…バスライン、DR…迂回経路(通過経路)、MR…移動経路(接近経路)、RD…正面方向、UD…正面方向、UR…接近対象ユーザ(所定の対象)、UR’…他のユーザ(他の対象)

Claims (15)

  1. 所定の対象を認識する認識手段と、
    前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定手段と、
    前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
    を備え、
    前記制御手段は、
    前記好感度が閾値よりも高い場合、第1の接近速度で、前記所定の対象と正面から向き合うような第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
    前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なる第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
    ことを特徴とするロボット。
  2. 所定の対象を認識する認識手段と、
    前記認識手段により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、自装置が前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定手段と、
    前記所定の対象への接近中において、前記決定手段により決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記自装置を制御する制御手段と、
    を備え、
    前記制御手段は、
    前記好感度が閾値よりも高い場合、第1の接近速度で、第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御して、
    前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なり前記所定の対象と正面から向き合わないような第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
    ことを特徴とするロボット。
  3. 前記自装置に移動をさせる移動手段を更に備えたことを特徴とする請求項1又は2に記載のロボット。
  4. 前記自装置に動作をさせる動作手段を更に備えたことを特徴とする請求項1乃至3の何れか1項に記載のロボット。
  5. 画像を撮像する撮像手段と、
    前記撮像手段により撮像された画像から顔を検出して顔認識を行う顔認識手段と、
    音声を入力する音声入力手段と、
    前記音声入力手段により入力された音声から音声認識をする音声認識手段と、
    を更に備え、
    前記認識手段は、前記顔認識手段、又は/及び、前記音声認識手段により前記所定の対象を認識する、
    ことを特徴とする請求項1乃至の何れか1項に記載のロボット。
  6. 前記認識手段により認識された前記所定の対象に対する前記好感度を取得する取得手段と、
    前記自装置に対する前記所定の対象の行動を認識する行動認識手段と、
    を更に備え、
    前記取得手段は、前記行動認識手段により認識された前記所定の対象の行動に応じて、前記好感度を取得する、
    ことを特徴とする請求項1乃至の何れか1項に記載のロボット。
  7. 前記取得手段は、
    前記行動認識手段により認識された前記所定の対象の行動が、好意的な行動である場合には現状の好感度よりも前記好感度の度合いを上げ、前記好意的な行動でない場合には、前記現状の好感度よりも前記好感度の度合いを下げる、
    ことを特徴とする請求項に記載のロボット。
  8. 情報を記録する記録手段を更に備え、
    前記記録手段は、
    前記行動認識手段により認識された前記所定の対象の行動が、前記好意的な行動である場合には前記好感度を閾値よりも高く記録し、前記好意的な行動でない場合には、前記好感度を前記閾値よりも低く記録し、
    前記取得手段は、前記記録手段を介して前記所定の対象の前記好感度を取得する、
    ことを特徴とする請求項に記載のロボット。
  9. 前記行動認識手段は、
    前記所定の対象によって前記自装置が撫でられた場合、又は、前記所定の対象によって前記自装置が話しかけられた場合、前記所定の対象の行動が、前記好意的な行動であると認識し、
    前記所定の対象によって前記自装置が叩かれた場合、又は、前記所定の対象によって前記自装置が無視された場合、前記所定の対象の行動が、前記好意的な行動でないと認識する、
    ことを特徴とする請求項又はに記載のロボット。
  10. 前記制御手段は、前記好感度が閾値よりも高い場合、更に、直線的な第1の接近経路で、記第1の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
    ことを特徴とする請求項1乃至の何れか1項に記載のロボット。
  11. 前記制御手段は、前記好感度が前記閾値よりも低い場合、更に、蛇行する第2の接近経路で、記第2の対向角度で、前記自装置が前記所定の対象に接近するように前記自装置を制御する、
    ことを特徴とする請求項1乃至の何れか1項に記載のロボット。
  12. 所定の対象を認識する認識ステップと、
    前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定ステップと、
    前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含み、
    前記制御ステップにおいて、
    前記好感度が閾値よりも高い場合、第1の接近速度で、前記所定の対象と正面から向き合うような第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
    前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なる第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
    ことを特徴とするロボットの制御方法。
  13. 所定の対象を認識する認識ステップと、
    前記認識ステップにおいて認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中のロボットの接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定ステップと、
    前記所定の対象への接近中において、前記決定ステップにおいて決定された前記接近様態に応じて前記所定の対象に感情表現をするように前記ロボットを制御する制御ステップと、を含み、
    前記制御ステップにおいて、
    前記好感度が閾値よりも高い場合、第1の接近速度で、第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
    前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なり前記所定の対象と正面から向き合わないような第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
    ことを特徴とするロボットの制御方法。
  14. ロボットのコンピュータに、
    所定の対象を認識する認識処理と、
    前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定処理と、
    前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
    を実行させ、
    前記制御処理において、
    前記好感度が閾値よりも高い場合、第1の接近速度で、前記所定の対象と正面から向き合うような第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
    前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なる第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
    ことを特徴とするプログラム。
  15. ロボットのコンピュータに、
    所定の対象を認識する認識処理と、
    前記認識処理により認識された前記所定の対象に対する好感度に基づいて、前記所定の対象への接近中の接近様態として、前記ロボットが前記所定の対象に接近する場合の接近速度及び対向角度を決定する決定処理と、
    前記所定の対象への接近中において、前記決定処理により決定された前記接近様態に応じて前記所定の対象に感情表現をするように、前記ロボットを制御する制御処理と、
    を実行させ、
    前記制御処理において、
    前記好感度が閾値よりも高い場合、第1の接近速度で、第1の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御して、
    前記好感度が前記閾値よりも低い場合、前記第1の接近速度よりも遅い第2の接近速度で、前記第1の対向角度とは異なり前記所定の対象と正面から向き合わないような第2の対向角度で、前記ロボットが前記所定の対象に接近するように前記ロボットを制御する、
    ことを特徴とするプログラム。
JP2022180696A 2018-06-22 2022-11-11 ロボット、ロボットの制御方法及びプログラム Active JP7476941B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022180696A JP7476941B2 (ja) 2018-06-22 2022-11-11 ロボット、ロボットの制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018118480A JP7180139B2 (ja) 2018-06-22 2018-06-22 ロボット、ロボットの制御方法及びプログラム
JP2022180696A JP7476941B2 (ja) 2018-06-22 2022-11-11 ロボット、ロボットの制御方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018118480A Division JP7180139B2 (ja) 2018-06-22 2018-06-22 ロボット、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2023027060A JP2023027060A (ja) 2023-03-01
JP7476941B2 true JP7476941B2 (ja) 2024-05-01

Family

ID=69094786

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018118480A Active JP7180139B2 (ja) 2018-06-22 2018-06-22 ロボット、ロボットの制御方法及びプログラム
JP2022180696A Active JP7476941B2 (ja) 2018-06-22 2022-11-11 ロボット、ロボットの制御方法及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018118480A Active JP7180139B2 (ja) 2018-06-22 2018-06-22 ロボット、ロボットの制御方法及びプログラム

Country Status (1)

Country Link
JP (2) JP7180139B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7442341B2 (ja) 2020-02-28 2024-03-04 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
JP7431149B2 (ja) * 2020-12-17 2024-02-14 トヨタ自動車株式会社 移動体システム
JP2023049116A (ja) 2021-09-29 2023-04-10 カシオ計算機株式会社 ロボット、ロボット制御方法及びプログラム
JP2023141463A (ja) 2022-03-24 2023-10-05 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
JP2024076459A (ja) 2022-11-25 2024-06-06 カシオ計算機株式会社 動作制御装置、動作制御方法、及び、プログラム
CN117708305B (zh) * 2024-02-05 2024-04-30 天津英信科技有限公司 一种针对应答机器人的对话处理方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (ja) 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP2004042246A (ja) 2002-05-17 2004-02-12 Victor Co Of Japan Ltd 移動ロボット
JP2004114285A (ja) 2002-09-02 2004-04-15 Sony Corp ロボット装置及びその行動制御方法
JP2005084789A (ja) 2003-09-05 2005-03-31 Advanced Telecommunication Research Institute International パーソナルコンピュータ
JP2017226044A (ja) 2016-06-23 2017-12-28 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (ja) 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
JP2004042246A (ja) 2002-05-17 2004-02-12 Victor Co Of Japan Ltd 移動ロボット
JP2004114285A (ja) 2002-09-02 2004-04-15 Sony Corp ロボット装置及びその行動制御方法
JP2005084789A (ja) 2003-09-05 2005-03-31 Advanced Telecommunication Research Institute International パーソナルコンピュータ
JP2017226044A (ja) 2016-06-23 2017-12-28 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Also Published As

Publication number Publication date
JP2019217122A (ja) 2019-12-26
JP7180139B2 (ja) 2022-11-30
JP2023027060A (ja) 2023-03-01

Similar Documents

Publication Publication Date Title
JP7476941B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP7173031B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5429462B2 (ja) コミュニケーションロボット
CN110774285A (zh) 人形机器人和执行人形机器人与用户之间的对话的方法
JP7416295B2 (ja) ロボット、対話システム、情報処理方法及びプログラム
US10576618B2 (en) Robot having communication with human, robot control method, and non-transitory recording medium
JP7502520B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP2020057300A (ja) 識別装置、ロボット、識別方法及びプログラム
JP2024023193A (ja) 情報処理装置及び情報処理方法
US11780098B2 (en) Robot, robot control method, and recording medium
CN108665907B (zh) 声音识别装置、声音识别方法、记录介质以及机器人
WO2020105309A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20190295526A1 (en) Dialogue control device, dialogue system, dialogue control method, and recording medium
US20220180887A1 (en) Multimodal beamforming and attention filtering for multiparty interactions
JP7435641B2 (ja) 制御装置、ロボット、制御方法およびプログラム
JP7156300B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP4539313B2 (ja) 音声認識辞書作成システム、音声認識辞書作成方法、音声認識システムおよびロボット
WO2024054714A1 (en) Avatar representation and audio generation
JP2001188896A (ja) 情報処理装置および方法、並びに記録媒体
WO2024054713A1 (en) Avatar facial expressions based on semantical context
KR20210109722A (ko) 사용자의 발화 상태에 기초하여 제어 정보를 생성하는 디바이스 및 그 제어 방법
Mitsunaga et al. Conversation System of an Everyday Robot Robovie-IV
JP2018063324A (ja) インタラクション装置及びインタラクションの表出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7476941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150