JP2019095523A - ロボットおよびロボット制御方法 - Google Patents

ロボットおよびロボット制御方法 Download PDF

Info

Publication number
JP2019095523A
JP2019095523A JP2017223082A JP2017223082A JP2019095523A JP 2019095523 A JP2019095523 A JP 2019095523A JP 2017223082 A JP2017223082 A JP 2017223082A JP 2017223082 A JP2017223082 A JP 2017223082A JP 2019095523 A JP2019095523 A JP 2019095523A
Authority
JP
Japan
Prior art keywords
user
robot
face
control unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017223082A
Other languages
English (en)
Other versions
JP6845121B2 (ja
Inventor
石田 卓也
Takuya Ishida
卓也 石田
匡将 榎本
Tadamasa Enomoto
匡将 榎本
正樹 渋谷
Masaki Shibuya
正樹 渋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Soft Inc
Original Assignee
Fuji Soft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Soft Inc filed Critical Fuji Soft Inc
Priority to JP2017223082A priority Critical patent/JP6845121B2/ja
Publication of JP2019095523A publication Critical patent/JP2019095523A/ja
Application granted granted Critical
Publication of JP6845121B2 publication Critical patent/JP6845121B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】簡易な構成で速やかに発話したユーザを特定して振り向くことができるようにしたロボットおよびロボット制御方法を提供すること。【解決手段】ロボット1は、少なくとも一つのカメラ232と複数のマイクロホン231とを有するロボット本体10と、ロボット本体を制御するロボット制御部20とを有し、ロボット制御部は、ロボット本体の周囲のユーザをカメラで撮影することにより、ユーザのロボット本体に対する位置をユーザ位置マップ228として管理し、各マイクロホンで検出された音声の到着時刻の差に基づいて音声到来方向を判定し、判定された音声到来方向とユーザ位置マップとを照合することにより、音声到来方向に対応するユーザを特定し、特定されたユーザに向けてロボット本体の頭部を振り向かせる。【選択図】図1

Description

本発明は、ロボットおよびロボット制御方法に関する。
近年、一人または複数の人間(ユーザ)との間でコミュニケーションを行うロボットが開発されている(特許文献1,2,3)。ロボットの視野の外にいるユーザから呼びかけられた場合には、呼びかけられた方向にロボットが振り向いて応答するのが自然な動作である。
特許文献1には、画像認識と音声認識を併用して正確に相手を検出して対話するロボットが開示されている。特許文献1では、視野外の話者からの呼びかけに対して音源方向を特定し、振り向いて対話することが開示されている。さらに、特許文献1には、呼びかけに対しては広い指向性で音源方向を推定し、対話時には話者方向に指向性を限定することも記載されている。
特許文献2には、2つのマイクで検出した入力音の時系列の相互相関関数から時系列間の位相差を推定して音到達時間差を求め、音到達時間差に基づいて音源方向を特定し、特定した音源方向に撮影手段を向けるロボットが開示されている。
特許文献3には、ロボットとユーザの顔の位置関係を示す顔位置情報を記憶し、この顔位置情報を利用して、ユーザの注意を喚起し興味を惹きつけるように振り向くロボットが開示されている。
特開2006−251266号公報 特許第4689107号明細書 特開2016−68197号公報
前記特許文献1,2では、音源方向を正確に推定するために、多量の計算リソースを必要とする。これにより特許文献1,2では、音源方向の計算に要する時間も長くなり、短時間で自然に応答するのが難しい上に、製造コストも増大する。
特許文献3は、小型で安価なコミュニケーションロボットを開示するが、音声の到来方向とロボット周囲のユーザの位置情報とから発話者を特定する技術ではない。
本発明は、上記の課題に鑑みてなされたもので、その目的は、簡易な構成で速やかに発話したユーザを特定して振り向くことができるようにしたロボットおよびロボット制御方法を提供することにある。
本発明の一つの観点に係るロボットは、少なくとも一つのカメラと複数のマイクロホンとを有するロボット本体と、ロボット本体を制御するロボット制御部とを有し、ロボット制御部は、ロボット本体の周囲のユーザをカメラで撮影することにより、ユーザのロボット本体に対する位置をユーザ位置マップとして管理し、各マイクロホンで検出された音声の到着時刻の差に基づいて音声到来方向を判定し、判定された音声到来方向とユーザ位置マップとを照合することにより、音声到来方向に対応するユーザを特定し、特定されたユーザに向けてロボット本体の頭部を振り向かせる。
ロボット制御部は、ロボット本体の顔の正面にユーザが存在しない場合に、特定されたユーザに向けて頭部を振り向かせてもよい。
ロボット制御部は、特定されたユーザをカメラで撮影し、特定されたユーザの顔がロボット本体の顔の正面を向いている場合は、特定されたユーザの発話の認識結果に応じて応答し、特定されたユーザの顔がロボット本体の顔の正面を向いていない場合は、特定されたユーザの発話の認識結果を特定されたユーザに対して確認してもよい。
ロボット制御部は、各マイクロホンの指向性を合成した総合的指向性を、ロボット本体の顔の正面にユーザが存在する場合にはロボット本体の顔の正面方向に向くように調整し、ロボット本体の顔の正面にユーザが存在しない場合にはユーザ位置マップにて管理されている他のユーザの方向に向くように調整することもできる。すなわち、ロボット制御部は、各マイクロホンの指向性を合成した総合的指向性を、特定の方向へ調整することができる。
ロボット制御部は、カメラの撮影可能範囲を分割してなる分割領域ごとの撮影時刻を記憶する空間タイムスタンプ情報と、カメラにより撮影された各分割領域の画像を顔認証した結果を記憶する人物タイムスタンプ情報とを用いることにより、各分割領域におけるユーザの存在を所定の頻度で確認することもできる。
所定の頻度は、各分割領域のうちロボット本体の正面の所定範囲内の分割領域を確認する頻度と、各分割領域のうちカメラまたは各マイクロホンのいずれかによりユーザの存在が検知された方向の分割領域を確認する頻度とが高く設定されており、それ以外の分割領域の頻度は低く設定されてもよい。
所定の頻度は、各分割領域のうち人物タイムスタンプ情報によりユーザの存在が検出された分割領域に対して、ユーザの存在が検出されてから所定時間が経過するまでの間高く設定することもできる。
所定の頻度は、ロボット本体の使用場面に応じて設定することができる。
本実施形態に係るロボットの全体概要を示す説明図。 ロボット制御部の構成例を示す説明図。 音声到来方向を複数のマイクロホンで推定する手法を示す説明図。 各マイクロホンの音声到着時間の差から音声到来方向を判別するための判定テーブルの例を示す。 ロボット頭部に搭載されたカメラで撮影可能な範囲を複数の領域に分割してユーザの顔画像を管理する手法を示す説明図。 分割領域毎の撮影時刻を管理する空間タイムスタンプの例。 ユーザの顔認証の結果を管理する人物タイムスタンプの例。 ユーザ位置マップの構成例。 ユーザ位置に応じてマイクロホンの指向性を調整する様子を示す説明図。 ユーザ位置マップを生成する処理を示すフローチャート。 コミュニケーションを実行する全体処理のフローチャート。 第2実施例に係り、全体処理のフローチャート。 第3実施例に係り、使用場面に応じて首振り周期を設定する処理を示すフローチャート。
本実施形態では、以下に詳述する通り、高速であるが分解能の低い音声到来方向判定部24と、ロボット1とユーザ(例えばユーザの顔)との位置関係を記憶したユーザ位置マップ228とを連携させることにより、発話したユーザを速やかに特定してロボット頭部12を振り向かせることができるようにしたロボットを提供する。
図1は、本実施形態に係るロボット1の全体概要を示す。ロボット1の詳細は、図2以降で詳述する。ロボット1は、一人または複数のユーザとコミュニケーションすることができるコミュニケーションロボットとして構成されている。
ここで、ユーザとは、ロボット1の提供するサービスを利用する人間であり、例えば、介護施設のユーザ、病院の入院患者、銀行やホテルなどの施設を利用する顧客、保育園や幼稚園の園児、家庭内の家族などである。
ロボット1は、使用場面に応じたサービスを提供することができる。家庭内で使用されるロボット1は、例えば、家族からの質問を受けて情報を検索したり、クイズやゲームなどの相手をしたり、日常的な会話をしたりする。介護施設で使用されるロボット1は、例えば、クイズ、ゲーム、体操、ダンスなどのレクリエーション活動を提供する。銀行、ホテル、病院などの受付で使用されるロボット1は、例えば、ユーザの行き先へ案内したり、担当者へ連絡したりする。使用場面に応じて、コミュニケーションのパラメータを調整する例は後述する。
ロボット1は、ロボット本体10と、ロボット本体10を制御するためのロボット制御部20を備える。ロボット本体10は、ユーザが親しみやすいように、人型に形成されるが、これに限らず、猫、犬、うさぎ、熊、象、キリン、ラッコなどの動物形状に形成してもよいし、ひまわりなどの草花形状などに形成してもよい。要するに、ロボット1は、対面して会話しているかのような印象をユーザに与えることのできる形態やデザインを備えていればよい。本実施形態では、ロボット本体10を人型に形成する場合を例に挙げて説明する。
ロボット本体10は、例えば胴体11と、頭部12と、両腕部13と、両脚部14を備えている。頭部12、両腕部13および両脚部14は、アクチュエータ230(図2で後述)により動作する。例えば、頭部12は、上下左右に回動可能である。両腕部13は上げ下げしたり、前後に動かしたりできる。両脚部14は、膝の折り曲げなどができ、歩行することができる。
ロボット制御部20は、ロボット本体10の内部に設けられている。ロボット制御部20の全機能をロボット本体10内に設けてもよいし、一部の機能をロボット本体10の外部の装置、例えば、通信ネットワーク上のコンピュータなどに設ける構成でもよい。例えば、ユーザとのコミュニケーションに必要な処理の一部を外部コンピュータで実行し、その実行結果を外部コンピュータからロボット制御部20へ送信することで、コミュニケーション処理を実行する構成としてもよい。
ロボット制御部20は、図2で後述するようにマイクロコンピュータシステムを利用して構成されており、画像認識部21、動体検出部22、音声認識部23、音声到来方向判定部24、コミュニケーション維持部25、イベント検出部26、ユーザ位置マップ管理部27、首振り制御部28、対話制御部29といった各機能を実現する。これら機能21〜29については後述する。
ロボット制御部20は、頭部12に搭載したマイクロホン231(以下、マイク231)やスピーカ233(図2参照)などを用いて、ユーザと対話することができる。なお、マイク231の検出する音は正確には音声に限らない。物音や足音などの雑音もマイク231で検出することができる。
また、ロボット制御部20は、頭部12に搭載したカメラ232を用いて、各ユーザの顔を識別したり、ユーザの顔とロボット1との位置関係を示すユーザ位置マップ228を作成したりすることができる。
ロボット制御部20は、周囲を見渡すことでユーザU1,U2の存在を認識し、顔の位置を特定して記憶する。以下の説明では、首振り動作を、頭部12を回動させると表現する場合がある。
ロボット制御部20は、カメラ232の撮影可能範囲200を複数の領域201に分割して、ロボット1の周囲に位置するユーザU1,U2を管理する。詳細は図5で後述するが、各領域201は、ロボット1の視野から切り取られるものである。すなわち各領域201は、カメラ232で一度に撮影できる領域の中から領域201に相当する部分を切り出したものである。領域201を分割領域201と呼ぶこともできる。図1では、ロボット1を基準として左右方向を5つに、上下方向を3つに区切るように領域201を設定しているが、これらの数値は一例であり、限定されない。
ロボット制御部20は、頭部12を左右または上下に回動させることにより、各領域201を一つずつ撮影し、ユーザの顔を検出する。例えば、ロボット1の頭部12がユーザU2の方を向いており、カメラ232がユーザU2を撮影している場合、カメラ232には別の領域201内に位置するユーザU1は映らない。この場合ユーザU1は、カメラ232の視野外、すなわちロボット1の視野の外に位置することになる。
ロボット制御部20の各機能を説明する。画像認識部21は、カメラ232で撮影された画像データを解析することにより、ユーザの顔などを認識する機能である。動体検出部22は、画像認識部21の認識結果から何らかの物体の動きを検出する機能である。画像認識部21および動体検出部22は、例えば、後述の画像処理部215とCPU211との共同作業により実現される。
音声認識部23は、各マイク231で検出された音声を認識する機能である。音声到来方向判定部24は、音声の到来方向を判別する機能である。音声認識部23および音声到来方向判定部24は、後述の音声処理部214とCPU211との共同作業により実現される。
コミュニケーション維持部25は、ユーザとのコミュニケーションが行われている場合に、そのコミュニケーションを維持する機能である。コミュニケーション維持部25は、イベント検出部26の検出したイベントに基づいた首振り動作の実施を阻止する。すなわち、ロボット1が或るユーザと対話している場合は、他のユーザから呼びかけられたとしても、その呼びかけに応答するのを禁止させる。コミュニケーション維持部25は、CPU211により実現される。
イベント検出部26は、首振り動作を行うべき所定のイベントが発生したか検出する機能である。所定のイベントとしては、例えば、ロボット1の現在の視野外から呼びかけられた場合や、視野の隅で何らかの動きが検出された場合を挙げることができる。イベント検出部26は、CPU211により実現される。イベント検出部26は、CPU211により実現される。
ユーザ位置マップ管理部27は、例えば、いつどこに誰が存在したかといったユーザ位置マップ228を生成して管理する機能である。ユーザ位置マップ228の一例は、図8で後述する。ユーザ位置マップの生成方法については、図10で後述する。ユーザ位置マップ管理部27は、CPU211により実現される。
首振り制御部28は、イベント検出部26により所定のイベントが検出されると、ロボット1の頭部12を所定方向に旋回させる。さらに、首振り制御部28は、上下方向に頭部12をチルト動作させることができる。首振り制御部28は、後述のアクチュエータ制御部221とCPU211の共同作業により実現される。
対話制御部29は、ユーザの音声に対応する合成音声を応答する機能である。対話制御部29は、ユーザが所定のコマンド(キーワード)を発した場合には、そのコマンドに応じた動作を実行する。例えば、ユーザが「クイズ」と言った場合、対話制御部29は、クイズを出題する。また例えば、ユーザが「○○への行き方を教えて」と言った場合、対話制御部29は、ユーザの希望する場所へ案内するための情報を発話する。
なお、図1に示す機能構成は、その全てが必要であるとは限らない。一部の機能は省略することもできる。また、ある機能と別のある機能とを結合させたり、一つの機能を複数に分割したりしてもよい。さらに、図1では、各機能間の関係は主要なものを示しており、接続されていない機能間であっても必要な情報は交換可能である。
図2は、ロボット制御部20の構成説明図である。ロボット制御部20は、例えば、マイクロプロセッサ(以下CPU)211、ROM(Read Only Memory)212、RAM(Random Access Memory)213、音声処理部214、画像処理部215、音声出力部216、センサ制御部217、通信部218、タイマ219、記憶装置220、アクチュエータ制御部221、バス222、図示せぬ電源装置などを備える。
ロボット制御部20は、通信プロトコルを有する通信部218から通信ネットワークを介して外部装置(いずれも図示せず)と双方向通信することができる。外部装置は、例えば、パーソナルコンピュータ、タブレットコンピュータ、携帯電話、携帯情報端末などのように構成してもよいし、サーバコンピュータとして構成してもよい。
CPU211は、記憶装置220に格納されているコンピュータプログラム223を読み込んで実行することにより、ユーザと対話等する。
ROM212には、システム起動用のコンピュータプログラム(不図示)が記憶される。RAM213は、CPU211により作業領域として使用されたり、管理や制御に使用するデータの全部または一部を一時的に記憶したりする。
音声処理部214は、頭部12の周囲に配置された各マイク231から取得した音データを解析し、周囲の音声を認識する。音声到来方向を判定できるのであれば、マイク231の設置場所は問わない。ただし、モータ音などの雑音を拾わないように、関節から離れた場所に配置してもよい。
画像処理部215は、一つまたは複数のカメラ232から取得した画像データを解析して、ユーザの顔など周囲の画像を認識する。音声出力部216は、音声処理部214の認識結果や画像処理部215での認識結果などに応じた応答を、音声としてスピーカ233から出力する。
センサ制御部217は、ロボット本体10に設けられる一つまたは複数のセンサ234からの信号を受信して処理する。センサ234としては、例えば、距離センサ、圧力センサ、ジャイロセンサ、加速度センサ、障害物検出センサ等がある。
なお、センサ234、マイク231、カメラ232、スピーカ233などは、全てロボット本体10内に搭載されている必要はなく、ロボット本体10の外部に設けられていてもよい。例えば、介護施設の室温を検出する温度センサからの信号を、ロボット制御部20は取り込んで利用することができる。またロボット制御部20は、施設内に設置されたカメラやマイク、スピーカと無線で接続することで利用することもできる。
記憶装置220は、例えば、ハードディスクドライブ、フラッシュメモリデバイスなどの比較的大容量の記憶装置として構成することができる。記憶装置220は、例えば、コンピュータプログラム223、コンテンツデータ224、音声到来方向判定テーブル225、空間タイムスタンプ226、人物タイムスタンプ227、ユーザ位置マップ228およびユーザ管理テーブル229を記憶する。なお、記憶装置220に記憶させる情報(プログラム、データ)は、図2に示すものに限らない。
コンピュータプログラム223は、ロボット1の持つ各機能21〜29を実現するためのプログラムである。実際には、例えば、画像認識プログラム、音声認識プログラム、対話制御プログラム、音声到来方向判定プログラムなどの複数のコンピュータプログラムがあるが、図2では、一つのコンピュータプログラム223として示す。
コンテンツデータ224は、例えば、クイズ、ゲーム、体操、ダンス、案内などの各種コンテンツをロボット1が実演するためのシナリオデータである。上述した全てのコンテンツをロボット1は備えてもよいし、ロボット1の使用場面に応じたコンテンツだけを備えてもよい。
音声到来方向判定テーブル225は、各マイク231の音声到着時間の差に基づいて、その音声の到来した方向を判別するために用いる情報である。
空間タイムスタンプ226は、「空間タイムスタンプ情報」の例であり、例えば、分割領域201ごとの撮影時刻を記憶する。
人物タイムスタンプ227は、「人物タイムスタンプ情報」の例であり、例えば、各分割領域201でのユーザの顔の認証結果とその位置情報とを対応づけて記憶する。
ユーザ位置マップ228は、例えば、いつ、どの位置に、誰が存在するかを管理する情報である。
ユーザ管理テーブル229は、ユーザの顔の特徴を示すデータとユーザの氏名およびユーザIDを対応づけて記憶する。ユーザIDとしてユーザ氏名を用いてもよい。ユーザ氏名は本名である必要はなく、愛称や番号などでもよい。
アクチュエータ制御部221は、各種アクチュエータ230を制御する。各種アクチュエータ230としては、例えば、頭部12、腕部13、脚部14などを駆動する電動モータなどがある。
図3,図4は、音声到来方向を複数のマイク231で推定する方法を示す。本実施例では、音声到来方向を高速に推定するために、計算量の多い複雑な音声分析を行わない。本実施例では、複数のマイク231で検出した音声の到着時間差から音声到来方向を短時間で推定する。但し、推定の精度(分解能)は低い。
図3に示すように、一つの例として、頭部12の前後左右にそれぞれ一つずつマイク231を配置する場合を説明する。例えば、ロボット頭部12において、左右の耳部と首の前後とにそれぞれマイク231(M1,M2,M3,M4)を設ける。ここでは、マイク231を区別するために、M1〜M4の符号を用いる。
図4の音声到来方向判定テーブル225には、前後のマイクM1,M2のペアと左右のマイクM3,M4のペアとで、音声到着時間差のパターンから、音声到来方向を推定できることが示されている。
音声到来方向判定テーブル225は、例えば、マイクM1,M2のペアにおける音声到着時間の差2251と、マイクM3,M4のペアにおける音声到着時間の差2252と、判別結果である音声到来方向2253とを対応づけて管理する。
例えば、前方のマイクM1への音声到着時間の方が後方のマイクM2への音声到着時間よりも速く、左右のマイクM3,M4ではほとんど音声到着時間に差がない場合、ロボット頭部12の正面前方から音声が発せられたと判定することができる。また、例えば、前方マイクM1の音声到着時間の方が後方マイクM2の音声到着時間よりも速く、かつ、左方マイクM3の音声到着時間の方が右方マイクM4の音声到着時間よりも速い場合は、ロボット頭部12の左斜め前から音声が発せられたと判定することができる。
すなわち、本実施例では、頭部12の前後左右にそれぞれマイク231を配置し、各マイク231への音声到着時間の差から音声の発せられた方向(音声到来方向)を判定するため、「前」「右前」「右」「右後」「後」「左後」「左」「左前」の8方向で方向を判別することができる。なお、この場合、マイク231の検出した音声信号だけに基づいて音声到来方向を判別すると、最大45度/2=22.5度のズレを生じうる。
図5は、ロボット1の周囲に位置するユーザの存在を管理するユーザ位置マップ228の管理手法を示す説明図である。
図5の上側に示すように、ユーザ位置マップ228は、ロボット1が停止した状態で、頭部12を左右または上下に首振りして得られる撮影可能領域200に対して複数の領域201を設定し、認識されたユーザの顔画像の位置を対応づける。詳細は後述する。
本実施例では、撮影可能領域200に対して、上下方向(ピッチ方向)に上段(A)、中段(B)、下段(C)の3つに区切ると共に、左右方向(ヨー方向)を正面を中心として5つに区切る。本実施例では、ロボット1が停止した状態でカメラ232により撮影可能な全領域に対して、A1〜A5,B1〜B5,C1〜C5の合計15個の領域201を設定して管理する。
図5の下側には、ある段を構成する5つの領域201が示されている。頭部12を回動させることによりカメラ232で撮影可能な範囲をθ1とし、カメラ232の画角をθ2とする。各領域201は、カメラで撮影した画像(画角θ2)内の所定領域として設定されている。領域201の画角をθ3とする(θ3<θ2<θ1)。カメラ232で撮影する画像と領域201の間には隙間が生じるが、この隙間の画像も動体検出などの処理に利用する。つまり、図5の下側に示すように、カメラ232で撮影する範囲と領域201との間には若干の差異がある。
本実施例では、所定時間以上撮影しない領域201が生じないように、頭部12を動かしてカメラ232で撮影し、撮影時刻のタイムスタンプを空間タイムスタンプ226に記録する。なお、撮影対象領域201への移動中に通過しただけの領域201は、撮影していないので空間タイムスタンプ226にタイムスタンプを記録しない。
ここで、首振り制御の概要を先に説明する。首振り制御とは、頭部12を移動させながらカメラ232でユーザを撮影する制御である。首振り制御は、例えば、(1)起動時、(2)定常動作時、(3)イベント検出時の3つに大別することができる。
(1)起動時
ロボット1の電源を投入した起動時には、頭部12は正面を向いて撮影する。これにより例えば領域B3が撮影される。
(2)定常動作時
ロボット1が起動して定常動作に移行すると、各領域201をそれぞれの所定頻度で撮影できるように、頭部12の向く方向を変化させながらカメラ232で撮影する。本実施例では、首振り制御の優先度を、例えば、左右方向>上方向>下方向となるように設定している。各段では、それぞれ正面に近いほど頻度が大きくなるように設定する。
したがって、例えば、B3>B2,B4>A3>A2,A4>C3>C2,C4の順番でカメラ232が撮影できるように頭部12が回動する。ここで、不等号は撮影の優先準位を示す。B3>B2とは、中段の中央に位置する領域B3の方が中段の中央から左右方向に外れた領域B2よりも優先して撮影されることを意味する。B4>A3>A2とは、中段の中央から外れた領域B4は、上段の中央に位置する領域A3に優先して撮影され、かつ、上段の中央に位置する領域A3は、上段の左右方向に外れた領域A2に優先して撮影されることを意味する。A4>C3>C2,C4とは、上段の中央から左右方向に外れた領域A4は、下段の中央に位置する領域C3に優先して撮影され、かつ、下段中央の領域C3は、下段中央から左右方向に外れた領域C2,C4に優先して撮影されることを意味する。なお、以上はカメラ232の撮影順序は優先度に基づいて決定されることの例示であり、全ての撮影順序のうちの一部について述べたものである。撮影間隔は例えば100ミリ秒であるが、100ミリ秒に限定されない。
本実施例では、撮影対象の領域201へ向くように頭部12を動かした後、カメラ232で撮影対象領域201を撮影させ、撮影した領域201を特定する領域IDと撮影時刻(首振り時刻)とを対応づけて空間タイムスタンプ226に記憶させる。ロボット制御部20は、空間タイムスタンプ226に記録されたタイムスタンプを参照することにより、所定の頻度で各領域201が撮影されるように、首振り動作を制御する。
(3)イベント検出時
定常動作中に所定のイベントが検出された場合は、イベントが検出された方向へ頭部12を回動し、イベント発生方向をカメラ232で撮影する。ロボット制御部20は、撮影対象の領域201を特定する領域IDと撮影時刻とを対応づけて、空間タイムスタンプ226に記憶させる。
所定のイベントとしては、例えば、(3A)所定値以上の音が検出された場合、(3B)動体が検出された場合、(3C)ユーザ存在確認時期が到来した場合(再確認イベント)が挙げられる。
(3A)音検出イベント
所定値以上の音(音声)を検出し、到来方向も推定できた場合、その到来方向へ向けて頭部12を回動させ、カメラ232で撮影する。ただし、音検出イベントの発生時に、ユーザとのコミュニケーションが実施されている場合は、そのままコミュニケーションを継続し、音の到来方向へ頭部12を回動させない。コミュニケーションが実施されているとは、例えば、ユーザの正面顔がロボット1の正面を向いており、ロボット1との距離も所定値以下の場合である。対話の有無は問わない。対話中は、ロボット1とユーザとは面と向き合っているため、上述のコミュニケーション維持条件(ユーザの正面顔がロボット1の正面にあること、ユーザとロボットの距離が所定値以下であること)を満たす。
(3B)動体検出イベント
頭部12の固定中にカメラ232の視野の隅で動体が検出された場合、ロボット制御部20は、その動体の検出された方向へ頭部12を回動させて撮影し、ユーザの顔の検出を試みる。動体の検出には、例えば、オプティカルフロー、輝度変化といったアルゴリズムを用いればよい。
ユーザの顔を検出できない場合であって、超音波センサ等が障害物の存在を検出しているときは、頭部12を上方へチルトさせて撮影し、ユーザの顔を検出する。最初の動体検出時には、ユーザの胴体を検知している可能性があるためである。胴体の上方を撮影すれば、ユーザの顔を検出できる可能性が高い。
ただし、音検出イベントでも述べたように、動体検出イベントの発生時に、ユーザとのコミュニケーションが行われている場合には、ロボット制御部20は、動体の検出方向へ頭部12を回動させず、現在のコミュニケーションを維持する。
(3C)再確認イベント
本実施例では、ロボット制御部20は、ロボット1の周囲のユーザについて、所定間隔で存在を確認する。例えば、ロボット制御部20は、一分間に一回の割合で頭部12を回動させてカメラ232で撮影することにより、検出済みのユーザがまだそこに存在するか確認する。一分間に一回とは一つの例示に過ぎず、この値に限定されない。
ロボット制御部20は、人物タイムスタンプ227に記憶されている場所を中心に捉えた視野で撮影し、所定時間(例えば2秒)内にユーザの顔を検出できたか判定する。所定時間内にユーザの顔を検出できなかった場合、その検出できなかったユーザに関するエントリをユーザ位置マップ228から削除する。
なお、カメラ232の視野が、人物タイムスタンプ227上ではユーザが存在しているはずの場所を中心に捉えていない場合には、所定時間内にユーザの顔を検出できなくても、そのユーザの存在を示す情報をユーザ位置マップ228から削除しない。
このように、本実施例では、所定の各イベントに対応する比較的短周期の首振り制御と、首振りの頻度(各領域201の撮影頻度、確認頻度)が所定の頻度分布となるように維持する比較的長周期の首振り制御とを実施する。
そして、既存のコミュニケーションを維持するために、ユーザの顔がカメラ232の正面にあり、かつ、ユーザとロボット1との距離が所定値以下である場合は、イベントの発生を無視する。これとは逆に、カメラ232で撮影したユーザの顔が横顔などであり、正面を向いていない場合、または、ユーザの顔は正面を向いているがロボット1から所定値を超えて離れている場合のいずれかの場合には、検出されたイベントの方へ頭部12を回動させる。
図6は、空間タイムスタンプ226の例を示す。空間タイムスタンプ226は、例えば、番号2261、分割領域ID2262、首振り時刻(撮影時刻)2263を対応づけて管理する。
番号2261は、レコード管理用の連続番号である。分割領域ID2262は、分割された各領域201のうち撮影対象となった領域201を特定する情報である。首振り時刻2263とは、分割領域ID2262で特定された領域201へ頭部12を向けてカメラ232で撮影した時刻(タイムスタンプ)である。
図7は、人物タイムスタンプ227の例を示す。人物タイムスタンプ227は、ロボット1の周囲のユーザの存在を管理する情報である。人物タイムスタンプ227は、例えば、番号2271、撮影時刻2272、ユーザ位置2273、ユーザID2274、追跡ID2275を対応づけて管理する。
ロボット制御部20は、カメラ232で撮影中にユーザの顔を見つけたら、そのユーザの顔を画角の中央に捉えるように頭部12の角度を制御する。そして、ロボット制御部20は、頭部12の回動を停止させた後、顔認証を実施する。ロボット制御部20は、顔認証が終了すると、上述のように、撮影時刻2272、ユーザ位置2273、ユーザID2274、追跡ID2275を人物タイムスタンプ227へ登録する。
番号2271は、レコード管理用の連続番号である。撮影時刻2272は、ユーザを撮影した時刻(タイムスタンプ)である。ユーザ位置2273は、撮影されたユーザの顔の位置である。本実施例では、ロボット1の本体10の正面を基準として、(ヨー角度、ピッチ角度、距離)の組み合わせでユーザの顔の位置を特定する。ユーザID2274は、顔認証の結果判別されたユーザのIDである。
追跡ID2275は、首振り動作をしないで撮影した連続する画像内のユーザに付与する識別情報である。画像間でユーザを追跡し、同一ユーザであると判断できる場合は同じIDを付与する。ここで、同一ユーザであるか否かは、例えば、追跡IDが一致するか、個人IDが一致するか、ユーザ位置が近いかといった順に判断すればよい。これにより、人物タイムスタンプ227に登録済みのユーザが現在もロボット1の周囲に存在するか確認することができる。
なお、ユーザの存在の確認時に、最初の所定時間(例えば1.5秒程度)連続して存在を確認できないユーザは、人物タイムスタンプ227から削除する。すなわち、いわゆるチラ見しただけのユーザの顔は人物タイムスタンプ227から取り除く。
図8は、ユーザ位置マップ228の例である。ロボット制御部20のユーザ位置マップ管理部27は、人物タイムスタンプ227から検出されたユーザの最新情報を抽出することにより、ユーザ位置マップ228を生成する。
ユーザ位置マップ228は、例えば、番号2281、撮影時刻2282、ユーザ位置2283、ユーザID2284を備える。
番号2281は、レコード管理用の連続番号である。撮影時刻2282,ユーザ位置2283,ユーザID2284は、図7で述べた人物タイムスタンプ227の撮影時刻2272,ユーザ位置2273,ユーザID2274に対応するので、これ以上の説明は割愛する。
ユーザ位置マップ管理部27は、ユーザの存在しているはずの領域を撮影できない場合であっても、所定時間(例えば3分間)以上そのユーザの顔を認識することができなかった場合には、ユーザ位置マップ228から削除する。ユーザは、気まぐれに自由に移動するためである。
図9は、ユーザ位置に応じてマイク231の総合的指向性を調整する様子を示す。図9(1)に示すように、総合的指向性の0度の方向(基準方向)は、ロボット頭部12の顔の正面方向とする。図9では、ロボット頭部12の顔が、ロボット本体10の正面の方向に向いている状態での総合的指向性の変化を示している。ロボット本体10とユーザの位置関係が同じでも、ロボット頭部12の顔の正面方向の向きに応じて、総合的指向性の形状及び方向は変化する。図9では、総合的指向性を0〜360度で示す。位置マップ228は、ロボット本体10の正面を基準として、その左右に90度ずつの範囲で作成される(0度〜±90度)。
図9(1)に示すように、ロボットの頭部12はロボット本体10の正面方向(図9中の右方向)を向いている。ここでユーザの顔が90度の方向に存在するとユーザ位置マップ228が示している場合、ロボット制御部20は、90度の方向から到来する音声(コマンド)を優先的に採用するように設定することができる。例えば、90度方向からの音声を強調するように、各マイク231の指向性を合成した総合的指向性が90度の方向に向くように、音声処理部214の設定を調整する。このような調整を、本明細書では各マイク231の指向性を調整すると表現する。
同様に、図9(2)に示すように、0度の方向にユーザの顔が存在するとユーザ位置マップ228が示している場合、ロボット制御部20は、0度の方向から到来する音声を優先的に処理できるようにすべく、各マイク231の指向性を合成した総合的指向性が0度の方向を向くように調整する。
図9(3)に示すように、45度の方向および90度の方向にユーザの顔がそれぞれ存在するとユーザ位置マップ228が示している場合、ロボット制御部20は、45度および90度の方向から到来する音声を優先的に処理できるように、各マイク231の指向性を合成した総合的指向性を調整する。
ロボット制御部20は、ユーザ位置マップ228が更新されるたびに、上述した各マイク231の指向性(詳しくは、各マイク231の指向性を合成した総合的指向性)を調整することができる。すなわち、ロボット制御部20は、ユーザとの対話中において、ユーザ位置マップ228に基づき動的に各マイク231の指向性を調整することができる。すなわち、本実施例では、ロボット1とユーザとの位置関係が同じであっても、ロボット頭部12の顔の向きに応じて、各マイク231の指向性を合成した総合的指向性が変化するようになっている。
図10は、ユーザ位置マップ228を生成する処理を示すフローチャートである。本処理は、ロボット制御部20により実行される。
ロボット制御部20は、ユーザとコミュニケーション中であるか(あるいは対話中であるか)判定する(S11)。コミュニケーション中の場合(S11:Yes)、ステップS12〜S19をスキップして、後述のステップS21へ移る。
コミュニケーション中ではない場合(S11:No)、マイク231で所定値以上の音声を検出したか判定する(S12)。すなわちロボット制御部20は、音検出イベントが発生したか判定する。
音検出イベントが発生していない場合(S12:No)、ロボット制御部20は、動体が検出されたか判定する(S13)。すなわちロボット制御部20は、動体検出イベントが発生したか判定する。
動体検出イベントが発生していない場合(S13:No)、ロボット制御部20は、タイマ219による再確認イベントの割込みが発生したか判定する(S14)。
再確認イベントが発生した場合(S14:Yes)、ロボット制御部20は、空間タイムスタンプ226とユーザ位置マップ228とに基づいて、各領域201の撮影頻度(確認頻度)を計算し(S15)、計算した撮影頻度に基づいて撮影対象の領域201を決定する(S16)。すなわちロボット制御部20は、所定の撮影頻度の分布を維持すべく、撮影すべき領域201を決定する。
ロボット制御部20は、撮影対象の領域201に向けて頭部12を回動させて(S17)、その撮影対象の領域201をカメラ232で撮影する(S21)。
ロボット制御部20は、撮影対象領域201を撮影したことを空間タイムスタンプ226に記憶させる(S22)。ロボット制御部20は、撮影した画像データを解析することによりユーザの顔を検出し、検出された顔が登録されたユーザの顔に一致するか認証する(S23)。
ロボット制御部20は、検出されたユーザの顔の位置やユーザIDを人物タイムスタンプ227へ記憶させる(S24)。さらにロボット制御部20は、人物タイムスタンプ117の更新に伴い、ユーザ位置マップ228を更新する(S25)。
一方、ステップS12において所定値以上の音声を検出した場合(S12:Yes)、ロボット制御部20は、音声到来方向を判定し(S18)、判定した方向へ頭部12を回動させて(S19)、撮影する(S21)。同様に、ステップS13において動体を検出した場合(S13:Yes)、ロボット制御部20は、検出された動体の方向へ頭部12を回動させて(S20)、撮影する(S21)。
図10で述べたように、ロボット制御部20は、所定の契機で首振り動作を実行して撮影することにより、空間タイムスタンプ226、人物タイムスタンプ227、ユーザ位置マップ228をそれぞれ更新する。したがって、ロボット制御部20は、ユーザ位置マップ228を参照することにより、ロボット1の周囲のユーザの存在状況を直ちに把握することができる。
図11は、対話制御時の全体処理を示すフローチャートである。ロボット制御部20は、マイク231により所定値以上の音声が検出されたか判定する(S31)。所定値以上の音声が検出された場合(S31:Yes)、ロボット制御部20は、その音声の認識結果が事前に設定されているいずれかのコマンドであるか判定する(S32)。
コマンドを受信したと判定した場合(S32:Yes)、ロボット制御部20は、その音声の到来方向を判定する(S33)。
ロボット制御部20は、ユーザ位置マップ228を参照し、ステップS33で判定された音声到来方向に存在するユーザが存在するか確認する(S34)。ここで、音声到来方向は45度単位で検出可能なため、ユーザ位置マップ228に登録されているユーザ位置とは一致しないことが多い。そこで、ロボット制御部20は、登録されたユーザ位置のうち、音声到来方向と所定範囲内で最も近いユーザが存在するか判定する(S35)。
ロボット制御部20は、音声到来方向にユーザが存在すると判定すると(S35:Yes)、登録されたユーザ位置に向けて頭部12を回動させ(S36)、ユーザ位置の方向をカメラ232で撮影し、ユーザの顔を検出する(S37)。
一方、判定された音声到来方向にはユーザが存在しないとユーザ位置マップ228が示す場合(S35:No)、ロボット制御部20は、音声到来方向に頭部12を回動させてカメラ232で撮影することにより、ユーザ位置マップを更新する(S38)。
すなわち、現在のカメラ232の視野外からコマンドが音声で入力された場合、ユーザ位置マップ228におけるユーザ位置2283と判別された音声到来方向との差が、22.5度以内の場合、ロボット制御部20は、頭部12をユーザ位置2283に向けて振り向かせ、カメラ232で撮影することによりユーザの存在を確認する(S36)。
一方、音声到来方向とユーザ位置2283との差が22.5度を超えている場合、音声到来方向へ向けて頭部12を振り向かせ、カメラ232で撮影する(S38)。
ただし、カメラ232の視野の外から呼びかけられた場合(S35:No)、既にカメラ232の正面にユーザの正面顔を捉えているならば、その視野外からの呼びかけを無視し、現在のコミュニケーションを維持する。
ロボット制御部20は、ユーザの顔を認識できた場合(S39:Yes)、ステップS40へ移る。ユーザの顔を認識できなかったときは(S39:No)、通りすがりのユーザの声を拾ったにすぎない場合なので、ステップS31へ戻る。
ロボット制御部20は、ステップS37またはステップS39のいずれかで認識されたユーザの顔が正面を向いた顔であるか判定する(S40)。正面を向いた顔(正面顔とも呼ぶ)である場合(S40:Yes)、ロボット制御部20は、ステップS32で認識したコマンドを実行する(S41)。
これに対し、認識されたユーザの顔が正面を向いていない場合(S40:No)、例えば、「いま○○と言いました?」などの合成音声を発することで、ユーザがコマンドを発話したか確認する(S42)。
以上が対話時の全体処理である。
このように構成される本実施例によれば、カメラ232の視野外から呼びかけられた場合に、音声到着時間の差から音声到来方向を粗く判定し、ユーザ位置マップ228と音声到来方向との照合結果に基づいて頭部12を回動させる。したがって、本実施例のロボット1によれば、音声を検出した後ただちに呼びかけたユーザの方に正確に振り向くことができ、円滑なコミュニケーションを開始することができる。
本実施例によれば、高度な音声解析処理などを実行する必要がなく、比較的性能の低いCPU211を用いて、カメラ232の視野外から発話したユーザの位置を正確に特定することができ、高速に振り向かせることができる。したがって、ロボット1の製造コストを増加させることなく、性能および使い勝手を向上させることができる。
本実施例によれば、視野外からの呼びかけに対応して振り向いた場合に、呼びかけたユーザの顔が正面を向いていないときには、発話したかを確認する。これにより、カメラ232の視野外でのユーザ同士の会話や独り言などに過剰に反応するのを抑制でき、信頼性の高い応答を実行することができる。
本実施例によれば、ユーザ位置マップ228の情報に応じて、マイク231の指向性を動的に調整することができるため、雑音などの影響を少なくして、信頼性の高い応答を実行することができる。
本実施例によれば、空間タイムスタンプ226と人物タイムスタンプ227とに基づいて、全ての分割領域201をカバーしながら、ユーザの存在(出現と退避)を確認するように首振り制御し、ユーザ位置マップ228を随時更新する。ユーザ位置マップ228は、全視野にわたってユーザの出入りを記録しているため、ロボット1の周辺にいるユーザの状況を表している。従って、本実施例によれば、ロボットの視野(カメラの画角)より広い範囲から呼びかけられた場合でも、性能の高いリソースや精度の高い音声認識などの処理を用いずに、正確にユーザ位置を把握し、的確なコミュニケーションを実現することができる。
本実施例によれば、空間タイムスタンプ226を参照して、ロボット1の正面から周辺方向にいくに従って振り向く頻度が低くなるように、頭部12を首振りして撮影することにより、ユーザ位置マップ228を生成する。さらに、本実施例によれば、音声を検出した場合、または動体を検出した場合に、音声または動体を検出した方向に首振りして撮影する。これにより、ユーザとの対話を続けながら、物音などに対するユーザ同様の反応を示しつつ、ユーザ位置マップ228を自然に更新することができる。
本実施例によれば、人物タイムスタンプ227に登録されているユーザについては、所定時間経過するまでの間、首振り向き頻度を一時的に高くして、そのユーザの存在を確認する。これにより、気まぐれに立ち寄っては立ち去るユーザの状況を把握して、ユーザ位置マップ228を最新状態に保持することができる。
本実施例によれば、ユーザとのコミュニケーション中に、カメラ232の視野外から呼びかけられても無視し、既存のコミュニケーションを維持するため、ユーザの使い勝手、信頼感が向上する。
図12を用いて第2実施例を説明する。本実施例を含む以下の各実施例は第1実施例の変形例に該当するため、第1実施例との差異を中心に説明する。
図12は、本実施例による対話制御の全体処理を示すフローチャートである。本処理と図11で述べた処理とを比較すると、本処理ではステップS38およびS39を備えておらず、ステップS35で「No」と判定された場合は、ステップS11へ戻る点で異なっている。本実施例では、カメラ232の視野外から呼びかけたユーザがユーザ位置マップ228に記憶されていない場合、その呼びかけを無視する。
このように構成される本実施例も第1実施例と同様の作用効果を奏する。
図13を用いて第3実施例を説明する。図13は、首振りの頻度としての首振り周期の基準値をロボット1の使用場面に応じて設定する処理を示す。
ロボット1の管理者がパーソナルコンピュータなどを用いて、ロボット制御部20にアクセスすると、ロボット制御部20は、設定メニュー241を提示する(S51)。設定メニュー241には、例えば、「家庭」「介護施設」「受付」などのようにロボット1の使用場面(用途)が表示されている。
ロボットの管理者が設定メニュー241からいずれかの使用場面を選択すると(S52:Yes)、ロボット制御部20は、首振り周期設定テーブル242を参照して、首振り周期の基準値を設定する(S53)。例えば、ロボット1を家庭内で使用する場合、ユーザ数が限られるため、首振り周期の基準値t1は長くしてもよい。これに対し、多数の訪問客が訪れる受付や、施設利用者の多い介護施設などでは首振り周期の基準値t2,t3を短く設定すればよい。ロボット制御部20は、基準値を元にして、各領域201を撮影する頻度を決定する。
このように構成される本実施例も第1実施例と同様の作用効果を奏する。さらに、本実施例によれば、ロボット1の使用場面に応じた周期で首振り動作を行わせることができるため、より一層使い勝手、信頼性が向上する。
なお、本発明は、上述した実施の形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。
1:ロボット、10:ロボット本体、12:頭部、20:ロボット制御部、21:画像認識部、22:動体検出部、23:音声認識部、24:音声到来方向判定部、25:コミュニケーション維持部、26:イベント検出部、27:ユーザ位置マップ管理部、28:首振り制御部、29:対話制御部

Claims (9)

  1. 少なくとも一つのカメラと複数のマイクロホンとを有するロボット本体と、
    前記ロボット本体を制御するロボット制御部とを有し、
    前記ロボット制御部は、
    前記ロボット本体の周囲のユーザを前記カメラで撮影することにより、前記ユーザの前記ロボット本体に対する位置をユーザ位置マップとして管理し、
    前記各マイクロホンで検出された音声の到着時刻の差に基づいて、音声到来方向を判定し、
    前記判定された音声到来方向と前記ユーザ位置マップとを照合することにより、前記音声到来方向に対応するユーザを特定し、前記特定されたユーザに向けて前記ロボット本体の頭部を振り向かせる、
    ロボット。
  2. 前記ロボット制御部は、前記ロボット本体の顔の正面にユーザが存在しない場合に、前記特定されたユーザに向けて前記頭部を振り向かせる、
    請求項1に記載のロボット。
  3. 前記ロボット制御部は、前記特定されたユーザを前記カメラで撮影し、前記特定されたユーザの顔が前記ロボット本体の顔の正面を向いている場合は、前記特定されたユーザの発話の認識結果に応じて応答し、前記特定されたユーザの顔が前記ロボット本体の顔の正面を向いていない場合は、前記特定されたユーザの発話の認識結果を前記特定されたユーザに対して確認する、
    請求項1または2のいずれか一項に記載のロボット。
  4. 前記ロボット制御部は、前記各マイクロホンの指向性を合成した総合的指向性を、前記ロボット本体の顔の正面にユーザが存在する場合には前記ロボット本体の顔の正面方向に向くように調整し、前記ロボット本体の顔の正面にユーザが存在しない場合には前記ユーザ位置マップにて管理されている他のユーザの方向に向くように調整する、
    請求項3に記載のロボット。
  5. 前記ロボット制御部は、前記カメラの撮影可能範囲を分割してなる分割領域ごとの撮影時刻を記憶する空間タイムスタンプ情報と、前記カメラにより撮影された前記各分割領域の画像を顔認証した結果を記憶する人物タイムスタンプ情報とを用いることにより、各分割領域におけるユーザの存在を所定の頻度で確認する、
    請求項1〜4のいずれか一項に記載のロボット。
  6. 前記所定の頻度は、前記各分割領域のうち前記ロボット本体の正面の所定範囲内の分割領域を確認する頻度と、前記各分割領域のうち前記カメラまたは前記各マイクロホンのいずれかによりユーザの存在が検知された方向の分割領域を確認する頻度とが高く設定されており、それ以外の分割領域の頻度は低く設定されている、
    請求項5に記載のロボット。
  7. 前記所定の頻度は、前記各分割領域のうち前記人物タイムスタンプ情報によりユーザの存在が検出された分割領域に対して、前記ユーザの存在が検出されてから所定時間が経過するまでの間高く設定される、
    請求項6に記載のロボット。
  8. 前記所定の頻度は、前記ロボット本体の使用場面に応じて設定することができる、
    請求項5〜7のいずれか一項に記載のロボット。
  9. 少なくとも一つのカメラと複数のマイクロホンとを有するロボットを制御する方法であって、
    前記ロボット本体の周囲のユーザを前記カメラで撮影することにより、前記ユーザの前記ロボット本体に対する位置をユーザ位置マップとして管理し、
    前記各マイクロホンで検出された音声に基づいて音声到来方向を判定し、
    前記判定された音声到来方向と前記ユーザ位置マップとを照合することにより、前記音声到来方向に対応するユーザを特定し、前記特定されたユーザに向けて前記ロボット本体の頭部を振り向かせる、
    ロボット制御方法。
JP2017223082A 2017-11-20 2017-11-20 ロボットおよびロボット制御方法 Active JP6845121B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223082A JP6845121B2 (ja) 2017-11-20 2017-11-20 ロボットおよびロボット制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223082A JP6845121B2 (ja) 2017-11-20 2017-11-20 ロボットおよびロボット制御方法

Publications (2)

Publication Number Publication Date
JP2019095523A true JP2019095523A (ja) 2019-06-20
JP6845121B2 JP6845121B2 (ja) 2021-03-17

Family

ID=66971510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223082A Active JP6845121B2 (ja) 2017-11-20 2017-11-20 ロボットおよびロボット制御方法

Country Status (1)

Country Link
JP (1) JP6845121B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145252A (zh) * 2019-11-11 2020-05-12 云知声智能科技股份有限公司 一种儿童机器人上利用图像辅助的声源方向判定系统
WO2021075118A1 (ja) * 2019-10-15 2021-04-22 ソニー株式会社 画像表示装置
US12002141B2 (en) 2019-10-15 2024-06-04 Sony Group Corporation Image display apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003251583A (ja) * 2002-03-01 2003-09-09 Japan Science & Technology Corp ロボット視聴覚システム
JP2007069302A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 動作表出装置
JP2008254122A (ja) * 2007-04-05 2008-10-23 Honda Motor Co Ltd ロボット
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2010010857A (ja) * 2008-06-25 2010-01-14 Oki Electric Ind Co Ltd 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003251583A (ja) * 2002-03-01 2003-09-09 Japan Science & Technology Corp ロボット視聴覚システム
JP2007069302A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 動作表出装置
JP2008254122A (ja) * 2007-04-05 2008-10-23 Honda Motor Co Ltd ロボット
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2010010857A (ja) * 2008-06-25 2010-01-14 Oki Electric Ind Co Ltd 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075118A1 (ja) * 2019-10-15 2021-04-22 ソニー株式会社 画像表示装置
US12002141B2 (en) 2019-10-15 2024-06-04 Sony Group Corporation Image display apparatus
CN111145252A (zh) * 2019-11-11 2020-05-12 云知声智能科技股份有限公司 一种儿童机器人上利用图像辅助的声源方向判定系统
CN111145252B (zh) * 2019-11-11 2023-05-30 云知声智能科技股份有限公司 一种儿童机器人上利用图像辅助的声源方向判定系统

Also Published As

Publication number Publication date
JP6845121B2 (ja) 2021-03-17

Similar Documents

Publication Publication Date Title
US11729487B2 (en) Image pickup apparatus and control method therefor
JP5456832B2 (ja) 入力された発話の関連性を判定するための装置および方法
US9883143B2 (en) Automatic switching between dynamic and preset camera views in a video conference endpoint
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
CN106131413B (zh) 一种拍摄设备的控制方法及拍摄设备
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP2015089119A (ja) 物体を追跡するためのシステム及び方法
US20230362472A1 (en) Image pickup apparatus and control method therefor
JP6989395B2 (ja) 相互作用装置、相互作用方法、相互作用プログラム及びロボット
KR20180079824A (ko) 홈 로봇 및 그 동작 방법
US10701661B1 (en) Location determination for device control and configuration
JP2013167986A (ja) 画像認識システム、画像認識方法
JP6565853B2 (ja) コミュニケーション装置
JP2009166184A (ja) ガイドロボット
JP6845121B2 (ja) ロボットおよびロボット制御方法
WO2017147827A1 (zh) 一种图像获取方法
JP2003528548A (ja) ハンドフリー家庭用映像製作カムコーダ
JP2013016929A (ja) 撮像装置、撮像方法およびプログラム
KR101919354B1 (ko) 기계학습과 음성인식 기반의 스마트폰 착탈식 지능형 이동로봇 시스템
JP2018183856A (ja) 音声対話ロボットおよび音声対話システム
JP7451235B2 (ja) 撮像装置、制御方法、およびプログラム
CN110730378A (zh) 一种信息处理方法及系统
JP6993802B2 (ja) 画像処理装置
JP2017098668A (ja) 投影制御装置、ロボットおよび投影制御装置の投影制御方法
US11491660B2 (en) Communication system and method for controlling communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6845121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250