JP2020017206A - 情報処理装置、行動決定方法及びプログラム - Google Patents

情報処理装置、行動決定方法及びプログラム Download PDF

Info

Publication number
JP2020017206A
JP2020017206A JP2018141480A JP2018141480A JP2020017206A JP 2020017206 A JP2020017206 A JP 2020017206A JP 2018141480 A JP2018141480 A JP 2018141480A JP 2018141480 A JP2018141480 A JP 2018141480A JP 2020017206 A JP2020017206 A JP 2020017206A
Authority
JP
Japan
Prior art keywords
attention
action
degree
map
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018141480A
Other languages
English (en)
Inventor
夏子 尾崎
Natsuko Ozaki
夏子 尾崎
順 横野
Jun Yokono
順 横野
嘉寧 呉
Ka-Nyong Oh
嘉寧 呉
達人 佐藤
Tatsuhito Sato
達人 佐藤
明香 渡辺
Asuka Watanabe
明香 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018141480A priority Critical patent/JP2020017206A/ja
Priority to EP19840632.4A priority patent/EP3832421A4/en
Priority to US17/259,693 priority patent/US20210316452A1/en
Priority to PCT/JP2019/027903 priority patent/WO2020022122A1/ja
Publication of JP2020017206A publication Critical patent/JP2020017206A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices

Abstract

【課題】より自然なコミュニケーションやインタラクションを可能にする自律ロボットを提供する。【解決手段】自律システムは、所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップ40に基づいて駆動機構に実行させる行動を決定する行動決定部142を備える。駆動機構は、自律移動体の位置及び姿勢を制御する。駆動機構の周囲の情報に基づいて、注目度マップを更新する更新部130をさらに備える。センサ110で取得されたセンサデータを認識処理する認識部120の処理の結果に基づいて注目度マップを更新する。画像データを出力するカメラ32を、所定空間中を伝播する音を入力して音声データを出力するマイクロフォン31を含み、認識部は、画像認識処理、音声データを音声認識処理の結果に基づいて注目度マップを更新する。【選択図】図4

Description

本開示は、情報処理装置、行動決定方法及びプログラムに関する。
近年、家庭におけるロボット掃除機やペットロボット、工場や物流倉庫における運搬ロボットなど、人工知能を備えた自律ロボットの開発が盛んに行なわれている。
なかでも、ペットロボットやヒューマノイドロボットや介護ロボットなど、人と密接に関わり合うことを目的とした自律ロボットでは、インタラクティブなコミュニケーションやユーザの行動や感情等に応じたインタラクションを可能にするための研究・開発が日々なされている。
特開2013−246588号公報
しかしながら、従来技術に係る自律ロボットのインタラクションは未だ十分に自然なものとはいえず、ユーザに対して違和感を与えてしまう場合が存在した。
そこで本開示では、より自然なコミュニケーションやインタラクションを可能にする情報処理装置、行動決定方法及びプログラムを提案する。
上記の課題を解決するために、本開示に係る一形態の情報処理装置は、所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定する行動決定部を備える。
(作用)本開示に係る一形態の情報処理装置によれば、注目度マップに基づいて駆動機構の次の行動が決定されるため、注目すべき場所又は領域に応じてより的確な行動を実行することができる。それにより、より自然なコミュニケーションやインタラクションを実行することが可能となる。
本開示によれば、より自然なコミュニケーションやインタラクションを実行することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本開示の一実施形態に係る自律システムのシステム構成例を示すブロック図である。 本開示の一実施形態に係る自律移動体のハードウェア構成例を示す図である。 本開示の一実施形態に係る自律移動体の概略構成例を示すブロック図である。 本開示の一実施形態に係る自律システムの機能ブロック構成の一例を示すブロック図である。 本開示の一実施形態に係る注目度マップの一例を示す模式図である。 図4に示す自律システムをより具体化した自律システムの概略構成例を示すブロック図である。 本開示の一実施形態に係る自律システムの全体の概略動作の一例を示すフローチャートである。 本開示の一実施形態に係る行動フェーズの流れの一例を示すフローチャートである。 図8のステップS106の動作を説明するための図である。 図8のステップS108の動作を説明するための図である。 図8のステップS110の動作を説明するための図である。 図8のステップS105のYES〜S110の動作を説明するための図である。 図8のステップS107のYES〜S110の動作を説明するための図である。 本開示の一実施形態に係る注目領域設定動作の一例を示すフローチャートである。 図14におけるステップS121を説明するための図である。 図14におけるステップS124を説明するための図である。 図14におけるステップS125及びS126を説明するための図である。 本開示の一実施形態に係る認識フェーズの流れの一例を示すフローチャートである。 図18におけるステップS205を説明するための図である。 図18におけるステップS208を説明するための図である。 図20に示す3次元の個別の注目度マップを2次元の個別の注目度マップとした場合の例を示す図である。 図18におけるステップS212を説明するための図である。 図18におけるステップS214を説明するための図である。 本開示の一実施形態に係る認識フェーズの他の流れの一例を示すフローチャートである。 本開示の一実施形態において扱う情報の例を示す図である。
以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.一実施形態
1.1 自律システムの構成例
1.2 自律移動体の構成例
1.2.1 自律移動体の外観構成例
1.2.1.1 マイクロフォン
1.2.1.2 カメラ
1.2.1.3 ToFセンサ
1.2.1.4 人感センサ
1.2.1.5 PSD
1.2.1.6 タッチセンサ
1.2.1.7 照度センサ
1.2.1.8 足裏ボタン
1.2.1.9 慣性計測装置(IMU)
1.2.2 自律移動体のブロック構成例
1.3 自律システムのブロック構成例
1.3.1 センサ群
1.3.2 物体検出・認識部
1.3.3 注目度マップ作成・更新部
1.3.4 行動決定部
1.3.5 インタラクション実行部
1.3.6 個人識別DB
1.3.7 注目度マップDB
1.3.8 行動ルールDB
1.3.9 特定行動ルールDB
1.4 注目度マップ
1.5 自律システムの具体例
1.5.1 物体検出・認識部の具体例
1.5.2 行動決定部の具体例
1.5.3 インタラクション実行部の具体例
1.6 自律システムの動作例
1.6.1 行動フェーズ
1.6.1.1 自律移動体が注目領域に近すぎ且つ注目領域が画角の中心に無い場合
1.6.1.2 自律移動体が注目領域から遠すぎ且つ注目領域が画角の中心に無い場合
1.6.1.3 注目領域設定処理
1.6.1.4 注目領域設定処理の具体例
1.6.2 認識フェーズ(注目度マップ作成・更新)
1.6.2.1 注目度の減衰処理から現フレームの個別の注目度マップを既存の注目度マップに加算するまで
1.6.3 自律システムの動作の他の例
1.7 注目度マップの作成に用いる情報の例
1.8 作用・効果
1.9 変形例
1.一実施形態
以下に、本開示の一実施形態に係る情報処理装置、情報処理システム、行動決定方法及びプログラムについて、図面を参照して詳細に説明する。
以下で例示する実施形態では、家庭内ペットロボットやヒューマノイドロボットやロボット掃除機や無人航空機や追従運搬ロボットや自動運転機能を搭載した自動車など、各種センサを搭載した自律移動体を含む自律システムが適用対象として想定されているが、本開示はこのような自律システムに限定されず、例えば駆動機構を備えたロボットアームやマニピュレータ等の可動部及び/又はインタラクティブなコミュニケーション機能を備えたスマートスピーカなど、自律又は遠隔操作による駆動(発音や発光等を含む)が可能な種々の装置又はそれを含むシステムを適用対象とすることが可能である。
1.1 自律システムの構成例
図1は、本開示の一実施形態に係る自律システムのシステム構成例を示すブロック図である。図1に示すように、本実施形態に係る自律システム100は、1以上の自律移動体1A〜1Nがネットワーク4を介してサーバ2に接続された構成を備える。サーバ2は、例えばクラウドサーバなど、複数のサーバで構成されたサーバ群であってもよい。ネットワーク4は、例えば、インターネットやLANや移動体通信網等、種々のネットワークを適用することが可能である。以下の説明において、自律移動体1A〜1Nのうちの任意の1つを自律移動体1として説明する。
サーバ2又は自律移動体1には、ユーザがスマートフォン等の通信端末3からネットワーク4を介してアクセス可能であってもよい。例えば、ユーザは、自律移動体1の所有者に関する情報やその他の所定の情報を、通信端末3を用いてサーバ2又は自律移動体1に登録可能であってもよい。
1.2 自律移動体の構成例
次に、本開示の一実施形態に係る自律移動体1のハードウェア構成例について説明する。なお、以下では、自律移動体1がイヌ型の四足歩行ロボットである場合を例に説明する。
1.2.1 自律移動体の外観構成例
図2は、本実施形態に係る自律移動体のハードウェア構成例を示す図である。図2に示すように、自律移動体1は、頭部(首部を含む)、胴部、4つの脚部、および尾部を有するイヌ型の四足歩行ロボットである。また、自律移動体1は、頭部に少なくとも2つのディスプレイ21と、1つ以上のスピーカ22とを備える。ディスプレイ21は、例えば目に相当するものであり、目で表現される様々な感情や表情を表現する。スピーカ22は、鳴き声や種々の情報を音声によってユーザに発信する。
また、自律移動体1は、種々のセンサを備える。自律移動体1は、例えば、マイクロフォン31、カメラ32、ToF(Time of Flight)センサ33、人感センサ34、PSD(Position Sensitive Detector)35、タッチセンサ36、照度センサ37、足裏ボタン38、慣性計測装置(Inertial Measurement Unit:IMU)39を備える。
1.2.1.1 マイクロフォン
マイクロフォン31は、周囲の音を収集する機能を有する。上記の音には、例えば、ユーザの発話や、周囲の環境音が含まれる。自律移動体1は、例えば、頭部に4つのマイクロフォンを備えてもよい。複数のマイクロフォン31を備えることで、周囲で発生する音を感度高く収集すると共に、音源の定位を実現することが可能となる。
1.2.1.2 カメラ
カメラ32は、自律移動体1(又はその駆動機構)の周囲に存在するユーザや周囲環境を撮像する機能を有する。自律移動体1は、例えば、鼻先と腰部に2つの広角カメラを備えてもよい。この場合、鼻先に配置される広角カメラは、自律移動体1の前方視野(すなわち、イヌの視野)に対応した画像を撮像し、腰部の広角カメラは、上方を中心とする周囲領域の画像を撮像する。自律移動体1は、例えば、腰部に配置される広角カメラにより撮像された画像に基づいて、天井の特徴点などを抽出し、SLAM(Simultaneous Localization and Mapping)を実現することができる。
1.2.1.3 ToFセンサ
ToFセンサ33は、自律移動体1(又はその駆動機構)の頭部前方に存在する物体との距離を検出する機能を有する。ToFセンサ33は、頭部の鼻先に備えられる。ToFセンサ33によれば、種々の物体との距離を精度高く検出することができ、ユーザを含む対象物や障害物などとの相対位置に応じた動作を実現することが可能となる。なお、ToFセンサ33に代えて、深度マップあるいは深度画像などを取得する深度センサ(深度カメラともいう)が用いられてもよい。
1.2.1.4 人感センサ
人感センサ34は、自律移動体1(又はその駆動機構)の周囲に存在するユーザやユーザが飼育するペットなどの所在を検知する機能を有する。人感センサ34は、例えば、胸部に配置される。人感センサ34によれば、前方に存在する動物体を検知することで、当該動物体に対する種々の動作、例えば、興味、恐怖、驚きなどの感情に応じた動作を実現することが可能となる。
1.2.1.5 PSD
PSD35は、自律移動体1(又はその駆動機構)の前方床面の状況を取得する機能を有する。PSD35は、例えば、胸部に配置される。PSD35によれば、自律移動体1の前方床面に存在する物体との距離を精度高く検出することができ、当該物体との相対位置に応じた動作を実現することができる。
1.2.1.6 タッチセンサ
タッチセンサ36は、ユーザによる接触を検知する機能を有する。タッチセンサ36は、例えば、頭頂、あご下、背中など、ユーザが自律移動体1に対し触れる可能性が高い部位に配置される。タッチセンサ36は、例えば、静電容量式や感圧式のタッチセンサであってよい。タッチセンサ36によれば、ユーザによる触れる、撫でる、叩く、押すなどの接触行為を検知することができ、当該接触行為に応じた動作を行うことが可能となる。
1.2.1.7 照度センサ
照度センサ37は、自律移動体1(又はその駆動機構)が位置する空間の照度を検出する。照度センサ37は、例えば、頭部背面において尾部の付け根などに配置されてもよい。照度センサ37によれば、周囲の明るさを検出し、当該明るさに応じた動作を実行することが可能となる。
1.2.1.8 足裏ボタン
足裏ボタン38は、自律移動体1(又はその駆動機構)の脚部底面が床と接触しているか否かを検知する機能を有する。このために、足裏ボタン38は、4つの脚部の肉球に該当する部位にそれぞれ配置される。足裏ボタン38によれば、自律移動体1と床面との接触または非接触を検知することができ、例えば、自律移動体1がユーザにより抱き上げられたことなどを把握することが可能となる。
1.2.1.9 慣性計測装置(IMU)
IMU39は、頭部や胴部の速度や加速度、回転などの物理量を検出する6軸センサである。すなわち、IMU39は、X軸、Y軸、Z軸の加速度および角速度を検出する。IMU39は、頭部および胴部にそれぞれ配置される。IMU39によれば、自律移動体1の頭部および胴部の運動を精度高く検出し、状況に応じた動作制御を実現することが可能となる。
以上、本実施形態に係る自律移動体1(又はその駆動機構)が備えるセンサの一例について説明した。なお、図2を用いて説明した上記の構成はあくまで一例であり、自律移動体1が備え得るセンサの構成は係る例に限定されない。自律移動体1は、上記の構成のほか、例えば、深度センサ、超音波センサ、温度センサ、地磁気センサ、GNSS(Global Navigation Satellite System)信号受信機を含む各種の通信装置などをさらに備えてよい。自律移動体1が備えるセンサの構成は、仕様や運用に応じて柔軟に変形され得る。
1.2.2 自律移動体のブロック構成例
図3は、本実施形態に係る自律移動体の概略構成例を示すブロック図である。図3に示すように、自律移動体1は、例えば、図2に例示した、ディスプレイ21、スピーカ22及び各種センサ31〜39に加え、コントロール部10を備える。コントロール部10は、CPU(Central Processing Unit)12、DRAM(Dynamic Random Access Memory)13、フラッシュROM(Read Only Memory)14、PC(Personal Computer)カードインタフェース(I/F)15、無線通信部16及び信号処理回路11が内部バス17を介して相互に接続された構成を備える。さらに、自律移動体1は、動力源としてのバッテリ18を備える。
また、自律移動体1は、位置及び姿勢を制御するための駆動機構として、頭部(首部)、胴部、脚部及び尾部の関節部分等の可動部25と、この可動部25を駆動するためのアクチュエータ24とを備える。この駆動機構は、移動やインタラクションに必要な動作を実現するための機構でもある。したがって、駆動機構は、ディスプレイ21、スピーカ22及び各種センサ31〜39に加え、コントロール部10を備えると言い換えることもできる。さらに、駆動機構は、自律移動体1の位置及び姿勢の制御の一つとして、例えば、カメラ32のズームやピントを制御したり、マイクロフォン31のズームを独立又はカメラ32のズームに連動して制御したりしてもよい。
以上の構成において、マイクロフォン31、カメラ32、ToFセンサ33、人感センサ34、PSD35、タッチセンサ36、照度センサ37、足裏ボタン38、IMU39、エンコーダ23及びバッテリ18は、それぞれコントロール部10の信号処理回路11と接続されている。
信号処理回路11は、上述の各種センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス17を介してDRAM13内の所定位置に順次格納する。また、信号処理回路11は、これと共にバッテリ18から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM13内の所定位置に格納する。
このようにしてDRAM13に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、CPU12が自律移動体1の動作制御を行う際に利用されるとともに、必要に応じて、無線通信部16を介して外部のサーバ2へ送信される。なお、無線通信部16は、Bluetooth(登録商標)やWi−Fi(登録商標)などの他、無線LAN(Local Area Network)や移動体通信網等の所定のネットワークを介して外部のサーバ2と通信を行なうための通信部であってよい。
CPU12は、例えば、自律移動体1の電源が投入された初期時、不図示のPCカードスロットに装填されたメモリカード19又はフラッシュROM14に格納された制御プログラムをPCカードインタフェース15を介して又は直接読み出し、これをDRAM13に格納する。
また、CPU12は、上述のように信号処理回路11よりDRAM13に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自機及び周囲の状況や、ユーザからの指示及び働きかけの有無などを判断する。
さらに、CPU12は、DRAM13等に格納されている地図データ又は無線通信部16を介して外部のサーバ2から取得した地図データと各種情報とを利用して、自己位置推定や種々の動作を実行する。例えば、CPU12は、無線通信部16を介して外部のサーバ2から取得した行動計画情報(自機)105aに基づいて、アクチュエータ24へ与える制御指令106aを生成し、これを信号処理回路11を介してアクチュエータ24へ出力する。
そして、CPU12は、上述の判断結果や推定された自己位置やDRAM13に格納されている制御プログラムや作成又は受信した行動計画情報等に基づいて、その後の行動を決定すると共に、当該決定結果に基づいて必要なアクチュエータ24を駆動させることにより、移動やインタラクションなどの各種行動を実行する。
その際、CPU12は、必要に応じて音声データを生成し、これを信号処理回路11を介して音声信号としてスピーカ22に与えることにより当該音声信号に基づく音声を外部に出力させてもよい。さらに、CPU12は、必要に応じて画像データを生成し、これを信号処理回路11を介して画像信号としてディスプレイ21に与えることによりディスプレイ21に各種情報を表示させてもよい。
このようにして、自律移動体1は、自機及び周囲の状況や、ユーザからの指示及び働きかけに応じて自律的に行動し得るように構成されている。
なお、以上で説明した自律移動体1は、単なる一例に過ぎず、上述したように、家庭内ペットロボットやヒューマノイドロボットやロボット掃除機や無人航空機や追従運搬ロボットや自動運転機能を搭載した自動車など、各種センサを搭載した自律移動体だけでなく、例えば駆動機構を備えたロボットアームやマニピュレータ等の可動部及び/又はインタラクティブなコミュニケーション機能を備えたスマートスピーカなど、自律又は遠隔操作による駆動(発音や発光等を含む)によって音を発する可能性のある種々の自律移動体を用いることが可能である。
1.3 自律システムのブロック構成例
図4は、本実施形態に係る自律システムの機能ブロック構成の一例を示すブロック図である。図4に示すように、自律システム100は、センサ群110と、物体検出・認識部(認識部)120と、注目度マップ作成・更新部(更新部)130と、行動決定部140と、インタラクション実行部(実行部)150と、注目度マップデータベース(DB)103と、行動ルールデータベース(DB)104と、特定行動ルールデータベース(DB)105とを備える。また、図4には示されていないが、自律システム100には、個人識別データベース(DB)102(図6参照)が含まれてもよい。
このような構成において、センサ群110、行動決定部140及びインタラクション実行部150は、例えば、図1における自律移動体1に実装される。一方、物体検出・認識部120、注目度マップ作成・更新部130、個人識別DB102、注目度マップDB103、行動ルールDB104、及び、特定行動ルールDB105は、例えば、サーバ2に実装される。ただし、このような構成に限定されず、センサ群110、物体検出・認識部120、注目度マップ作成・更新部130、行動決定部140及びインタラクション実行部150を自律移動体1に実装した構成や、これらに加え、個人識別DB102、注目度マップDB103、行動ルールDB104及び特定行動ルールDB105を含む全ての構成を自律移動体1に実装した構成など、種々変形することが可能である。
また、センサ群110、物体検出・認識部120及び注目度マップ作成・更新部130は、注目度マップを作成する段階(これを認識フェーズという)で使用される構成であり、行動決定部140及びインタラクション実行部150は、自律移動体1に実際に行動を実行させる段階(これを行動フェーズという)で使用される構成である。
1.3.1 センサ群
センサ群110は、例えば、上述したマイクロフォン31、カメラ32、ToFセンサ33、人感センサ34、PSD35、タッチセンサ36、照度センサ37、足裏ボタン38、IMU39などで構成される。なお、説明の都合上、図4及び以下の説明では、人感センサ34、PSD35、タッチセンサ36、照度センサ37、足裏ボタン38、IMU39等をその他のセンサ30とする。
1.3.2 物体検出・認識部
物体検出・認識部120は、マイクロフォン31、カメラ32、ToFセンサ33及びその他のセンサ30それぞれで取得されたセンサデータに対し、センサの種類やセンサデータの属性等に応じた認識処理121〜124を実行し、その結果を注目度マップ作成・更新部130へ出力する。物体検出・認識部120が実行する認識処理121〜124には、例えば、マイクロフォン31で取得された音声データに対する音声認識処理(121)や、カメラ32で取得された画像データ(動画像データを含む)に対する画像認識処理(122)や、ToFセンサ33で取得された距離画像に対する画像認識処理(123)や、その他のセンサ30で取得されたセンサデータに対する認識処理124等が含まれる。
なお、図4には、マイクロフォン31、カメラ32、ToFセンサ33及びその他のセンサ30それぞれで取得されたセンサデータに対して個別に認識処理121〜124を実行する場合が例示されているが、このような構成に限定されず、2又はそれ以上のセンサで得られたセンサデータを統合し、統合されたセンサデータに対して認識処理を実行するなど、種々変形されてよい。
1.3.3 注目度マップ作成・更新部
注目度マップ作成・更新部130は、物体検出・認識部120から入力された認識処理121〜124の結果それぞれに基づいて、所定空間内における注目すべき場所又は領域(以下、注目領域という)の位置を予測(又は推定)する注目領域予測131〜134を実行する。そして、注目度マップ作成・更新部130は、注目領域予測131〜134それぞれの結果に基づいて、それぞれが対応するセンサ31〜34及び30で得られたセンサデータに基づく個別の注目度マップを生成する注目度マップ生成135〜138を実行する。なお、所定空間とは、例えば家屋やマンション等であればその各部屋(リビングやダイニングやキッチンや寝室やバスルーム等)であってもよいし、家屋全体やフロア全体やマンション全体など、種々の空間を適用することができる。
注目度マップ生成135〜138で生成された個別の注目度マップは、それぞれ注目度マップDB103に既に格納されている注目度マップ40に加算される。これにより、注目度マップDB103内の注目度マップ40が、逐次、最新の注目度マップ40に更新される。
また、注目度マップ作成・更新部130には、注目度減衰部(減衰部)139が設けられている。注目度減衰部139は、所定の条件が満たされる度に、注目度マップDB103内の注目度マップ40における注目度を所定のルールに従って減衰する。例えば、注目度減衰部139は、後述する行動フェーズで確認した領域(注目領域)の注目度を所定のルールに従って減衰する。また、注目度減衰部139は、ある一定の周期で、注目度マップ40における各領域の注目度を所定のルールに従って減衰する。
1.3.4 行動決定部
行動決定部140は、例えば、自律移動体1におけるコントロール部10、ディスプレイ21、スピーカ22、エンコーダ23、アクチュエータ24、可動部25等(図3参照)で構成され、注目度マップ40を用いて注目領域を決定する注目領域決定141と、決定された注目領域の情報(位置や範囲やピークの注目度の値等)に応じて自律移動体1の行動を決定する行動決定142と、決定された行動を実行する行動143とを実行する。なお、行動決定142では、行動決定部140は、注目領域の情報やその他の条件や状況等に応じて行動を決定する際のルール(以下、行動ルールという)が予め登録された行動ルールDB104に登録されている行動ルールに基づいて、自律移動体1の行動143を決定する。
1.3.5 インタラクション実行部
インタラクション実行部150は、自律移動体1にインタラクティブなコミュニケーションやユーザの行動や感情等に応じたインタラクションを実行させるための構成であり、例えば、自律移動体1におけるコントロール部10、ディスプレイ21、スピーカ22、エンコーダ23、アクチュエータ24、可動部25等で構成される。このインタラクション実行部150は、特定のイベントの発生を検知(イベント発生検知151)すると、発生したイベントの種類に応じて、特定行動ルールDB105に予め登録されている特定の行動(インタラクション)152を実行する。なお、特定の行動152とは、ユーザとのインタラクティブなコミュニケーションや、ユーザの行動や感情等に応じたインタラクション等であってよい。
1.3.6 個人識別DB
個人識別DB102は、例えば、マイクロフォン31で取得された音声データに対して認識処理121を実行することで特定された声紋や、カメラ32で取得された画像データに対して認識処理122を実行することで認識された顔等から、自律移動体1の所有者などの個人を特定するための情報を格納する。
1.3.7 注目度マップDB
注目度マップDB103は、注目度マップ40を格納する。例えば、注目度マップDB103は、最新のセンサデータに基づいて更新された注目度マップ40を格納する。また、注目度マップDB103は、更新前の注目度マップを履歴として時系列に沿って蓄積しておいてもよい。
1.3.8 行動ルールDB
行動ルールDB104は、上述したように、目領域の情報(位置や範囲やピークの注目度の値等)やその他の条件や状況等に応じて自律移動体1が実行する行動を決定する際の行動ルールを予め格納する。ここで、行動ルールの例としては、「自律移動体1から注目領域までの距離と注目領域のサイズとに基づいて、注目領域の全体をカメラ32の画角内に収めきれないと判断される場合には、(自律移動体1が)注目領域から遠ざかる方向へ移動する」というルールや、「自律移動体1から注目領域までの距離と注目領域のサイズとに基づいて、注目領域のサイズがカメラ32の画角に対して小さすぎると判断される場合には、(自律移動体1が)注目領域に近づく方向へ移動する」というルールや、「注目領域がカメラ32の視野(画角)から外れている場合は、注目領域がカメラ32の視野(画角)の中心となるようにカメラ32のロール角(R)、ピッチ角(P)、ヨー角(Y)等を制御する」というルールなどを挙げることができる。ただし、これらの行動ルールに限定されず、種々変形及び追加が可能であることは言うまでもない。
1.3.9 特定行動ルールDB
特定行動ルールDB105は、発生したイベントの種類に応じて、自律移動体1に実行させる特定の行動を予め登録する。なお、特定の行動152とは、ユーザとのインタラクティブなコミュニケーションや、ユーザの行動や感情等に応じたインタラクション等であってよい。
1.4 注目度マップ
図5は、本実施形態に係る注目度マップの一例を示す模式図である。注目度マップ40は、例えば、3次元空間である所定空間SPに対して注目度の分布が設定された構成を有している。より具体的には、例えば、注目度マップ40の所定空間SPは、例えばボックスセルが立体的に組み合わされてなる3次元のグリッドマップであり、各ボックスセルに注目度の値が設定されている。注目度マップ40における注目度の局所的なピーク付近の分布51〜53の形状は、それぞれ例えば3次元ガウス分布に近似していてもよい。ただし、3次元の注目度マップ40に限定されず、2次元の注目度マップなどとすることも可能である。
1.5 自律システムの具体例
つぎに、本実施形態に係る自律システム100について、より具体的に説明する。図6は、図4に示す自律システムをより具体化した自律システムの概略構成例を示すブロック図である。
1.5.1 物体検出・認識部の具体例
図6と図4とを比較すると分かるように、図6に示す構成では、物体検出・認識部120が実行する処理の具体例として、顔検出221、顔識別222、個人識別223、視線検出224、動体検出225、人体検出(一部分を含む)226、音源方向検出227、音声識別228、トラッキング229等が挙げられている。
顔検出221は、例えば、カメラ32で取得された画像データに含まれる人物の顔の領域を検出する処理であってよい。
顔識別222は、例えば、顔検出221で検出された顔の領域から顔の形状等の特徴を認識する処理であってよい。
個人識別223は、例えば、顔識別222で特定された顔の特徴に基づいて個人識別DB102を参照することで、当該顔を持つ個人を特定する処理であってよい。
視線検出224は、例えば、顔識別222で特定された顔の特徴に基づいてその人物の視線の向き、例えばその人物が注目している方向を検出する処理であってよい。
動体検出225は、例えば、カメラ32で取得された画像データに含まれるボール等の動体を検出する処理であってよい。
人体検出(一部分を含む)226は、例えば、カメラ32で取得された画像データに含まれる人体やその一部(腕や脚など)を検出する処理であってよい。
音源方向検出227は、例えば、マイクロフォン31で取得された音声データから音源の位置や方向等を検出する処理であってよい。
音声識別228は、例えば、マイクロフォン31で取得された音声データから音源(人、動物、無機物、有機物等)等を識別する処理であってよい。例えば、音源が人であれば、音声データが人の声であること、及び、その声紋等を検出する処理であってよい。
トラッキング229は、例えば、カメラ32で取得された画像データに含まれる人や物体の移動を追跡する処理や、マイクロフォン31で取得された音声データから特定される音源の移動を追跡する処理等であってよい。
1.5.2 行動決定部の具体例
行動決定部140が実行する行動の具体例としては、見上げる・首を振る(任意の方向にカメラを向ける)241、近づく・下がる(任意の方向へ移動)242、カメラのズーム・ピント制御243、マイクロフォンのズームホーミング244等が挙げられている。ここで、見上げる・首を振る(任意の方向にカメラを向ける)241は、上述した、「注目領域がカメラ32の視野(画角)から外れている場合は、注目領域がカメラ32の視野(画角)の中心となるようにカメラ32のロール角(R)、ピッチ角(P)、ヨー角(Y)等を制御する」という行動ルールに対応している。また、近づく・下がる(任意の方向へ移動)242は、上述した、「自律移動体1から注目領域までの距離と注目領域のサイズとに基づいて、注目領域の全体をカメラ32の画角内に収めきれないと判断される場合には、(自律移動体1が)注目領域から遠ざかる方向へ移動する」という行動ルール、及び、「自律移動体1から注目領域までの距離と注目領域のサイズとに基づいて、注目領域のサイズがカメラ32の画角に対して小さすぎると判断される場合には、(自律移動体1が)注目領域に近づく方向へ移動する」という行動ルールに対応している。なお、カメラのズーム・ピント制御243は、例えば、「自律移動体1から注目領域までの距離が変化した場合には、カメラ32のズーム及びピントを制御する」という行動ルールに対応していてもよい。また、マイクロフォンのズームホーミング244は、例えば、「カメラ32のズームが変更された場合には、カメラ32のズームに連動してマイクロフォン31のズームを制御する」という行動ルールに対応していてもよい。ただし、これらの行動ルールに限定されるものではなく、種々変形されてよい。
行動決定部140が実行する行動、例えば、見上げる・首を振る(任意の方向にカメラを向ける)241と近づく・下がる(任意の方向へ移動)242とカメラのズーム・ピント制御243とマイクロフォンのズームホーミング244とは、別々に実行されてもよいし、同時に実行されてもよい。例えば、行動決定部140は、自律移動体1を注目領域に近づけつつ(242)、見上げる(241)ように動作させてもよい。
1.5.3 インタラクション実行部の具体例
インタラクション実行部150が実行する特定の行動(インタラクション)152の具体例としては、動物や生き物(以下、動物等という)の動作に近い動作251、人等のユーザとのコミュニケーション252、人まね(関節マッピングを含む)や歌まね(声まねを含む)やボール遊びなどの遊び253、笑ったり嬉しがったり怒ったり泣いたりなどの感情表現254などの行動を挙げることができる。これにより、例えば、自律移動体1の所有者を識別した場合には喜びを表現するアクションを実行したり、ボールを認識した場合にはボールで遊ぶアクションを実行したりなどを、インタラクション実行部150は自律移動体1に実行させることが可能となる。
動物等の動作に近い動作251には、例えば、「足があったら見上げる」、「音がしたら振り返る」、「気になるものを順番に確認する」、「よく見えなかったら近づいて確認する」、「相手の動きに反応する」、「人の目線と同じ方向を見る」、「夢中になっていると周囲からの呼びかけに対して反応しない場合がある」などが含まれ得る。これらの動作251を特定の行動(インタラクション)152としてインタラクション実行部150に実行させることで、自律移動体1に好奇心などを表現するように行動させることが可能となる。
コミュニケーション252には、例えば、「所有者(飼い主)から呼ばれたら鳴いて近づく」、「手を叩かれたら近づく」、「話しかけられたら目を合わせる」、「撫でられたらおなかを見せる」などが含まれ得る。これらのコミュニケーション252を特定の行動(インタラクション)152としてインタラクション実行部150に実行させることで、ユーザが自律移動体1を呼び寄せたり、自律移動体1と会話をしたりなど、自律移動体1にユーザとのコミュニケーションを実行させることが可能となる。また、これらのコミュニケーション252を特定の行動(インタラクション)152としてインタラクション実行部150に実行させることで、自律移動体1が顔や人や物体を見つける回数が増えるため、自律移動体1がインタラクションを実行する機会を増加させることも可能となる。
遊び253には、例えば、「ボールが投げられたら追いかける」、「ボールを相手に蹴る」、「走ったらついて行く」などが含まれ得る。これらの遊び253を特定の行動(インタラクション)152としてインタラクション実行部150に実行させることで、ユーザがボールなどの遊び道具を用いて自律移動体1と遊ぶことが可能になる。
感情表現254には、例えば、「所有者(飼い主)を見つけたら尻尾を振る」、「叩かれそうになったら伏せる」、「怒られたら尻尾を下げる」などが含まれ得る。これらの感情表現254を特定の行動(インタラクション)152としてインタラクション実行部150に実行させることで、自律移動体1に自我を持ったような行動を実行させることが可能となる。
1.6 自律システムの動作例
つづいて、本実施形態に係る自律システム100の動作例を、図面を参照して詳細に説明する。なお、以下では、説明の簡略化のため、使用するセンサをカメラ32とし、カメラ32で取得された画像データに対して自律システム100が実行する動作を例示する。
図7は、本実施形態に係る自律システムの全体の概略動作の一例を示すフローチャートである。図7に示すように、本動作では、所定の終了条件が満たされるまで(ステップS300のYES)、行動フェーズ(ステップS100)と認識フェーズ(注目度マップ作成・更新)(ステップS200)とが繰り返し実行される(ステップS300のNO)。なお、行動フェーズ(ステップS100)と認識フェーズ(注目度マップ作成・更新)(ステップS200)との順番は逆であってもよい。
ステップS100の行動フェーズでは、行動決定部140によって各ステップが実行される。ステップS200の認識フェーズ(注目度マップ作成・更新)では、センサ群110、物体検出・認識部120、注目度マップ作成・更新部130又はインタラクション実行部150によって各ステップが実行される。
1.6.1 行動フェーズ
まず、図7のステップS100に示す行動フェーズについて、図面を参照して詳細に説明する。図8は、本実施形態に係る行動フェーズの流れの一例を示すフローチャートである。図8に示すように、行動フェーズでは、行動決定部140は、まず、注目度マップDB103から最新の注目度マップ40を取得する(ステップS101)。つづいて、行動決定部140は、注目度マップ40に対して注目領域Aを設定する注目領域設定処理を実行する(ステップS102)。なお、注目領域設定処理の詳細については、後述において触れる。
つぎに、行動決定部140は、自律移動体1から注目領域Aまでの距離と注目領域Aのサイズとに基づいて、カメラ32の画角に対して注目領域Aのサイズが大きすぎるか否かを判断し(ステップS105)、大きすぎない場合(ステップS105のNO)、ステップS107へ進む。一方、注目領域Aのサイズが大きすぎる場合(ステップS105のYES)、行動決定部140は、行動ルールDB104を参照することで、「注目領域Aのサイズがカメラ32の画角と合うように、注目領域Aから遠ざかる方向へ移動する」という行動を決定し、この決定した行動を実行する。これにより、図9の矢印Y1に示されているように、注目領域Aがカメラ32の画角AF内に丁度よく収まるように、自律移動体1が注目領域Aから遠ざかる(下がる)(図8のステップS106)。その後、行動決定部140は、ステップS109へ進む。
ステップS107では、行動決定部140は、自律移動体1から注目領域Aまでの距離と注目領域Aのサイズとに基づいて、カメラ32の画角に対して注目領域Aのサイズが小さすぎるか否かを判断し、小さすぎない場合(ステップS107のNO)、ステップS109へ進む。一方、注目領域Aのサイズが小さすぎる場合(ステップS107のYES)、行動決定部140は、行動ルールDB104を参照することで、「注目領域Aのサイズがカメラ32の画角と合うように、注目領域Aに近づく方向へ移動する」という行動を決定し、この決定した行動を実行する。これにより、図10の矢印Y2に示されているように、注目領域Aがカメラ32の画角AF内に丁度よく収まるように、自律移動体1が注目領域Aに近づく(図8のステップS108)。その後、行動決定部140は、ステップS109へ進む。
なお、カメラ32の画角AFに対して注目領域Aのサイズが大きすぎるか否か、又は、小さすぎる否かについては、自律移動体1から注目領域Aまでの距離と注目領域Aのサイズとに基づいて、カメラ32から見た注目領域Aの角度範囲(縦方向及び横方向)を求め、この角度範囲がカメラ32の画角に対してどの程度の割合であるかに基づいて判断されてもよい。
具体例を用いて説明すると、例えば、カメラ32から見た注目領域Aの縦方向及び横方向のうちの少なくとも一方向の角度範囲がカメラ32の画角又は画角に対する第1の割合(例えば画角の80%など)よりも大きい場合、行動決定部140がカメラ32の画角に対する注目領域Aのサイズが大きすぎると判断(ステップS105のYES)し、それ以外の場合は大きすぎないと判断(ステップS105のNO)してもよい。
同様に、例えば、カメラ32から見た注目領域Aの縦方向及び横方向のうちの少なくとも一方向の角度範囲がカメラ32の画角又は画角に対する第2の割合(例えば画角の10%など)未満である場合、行動決定部140がカメラ32の画角に対する注目領域Aのサイズは小さすぎると判断(ステップS107のYES)、それ以外の場合小さすぎないと判断(ステップS107のNO)してもよい。
なお、第1の割合は、自律移動体1の位置・姿勢の誤差や注目領域Aを画角内に収める際の効率等を考慮して、画角に対してある程度のマージンを設定できる値であってよい。また、第2の割合は、カメラ32で取得した画像データから注目領域A中の物体(例えば顔等)を認識できるか否か等に基づいて設定されてよい。その場合、例えば解像度の高いカメラ32であれば第2の割合は比較的小さな値に設定され、解像度の低いカメラ32であれば第2の割合は比較的大きな値に設定される。
ステップS109では、行動決定部140は、注目領域Aがカメラ32の画角の中心又は略中心に位置しているか否かを判断する。例えば、行動決定部140は、注目領域Aの中心、又は、注目領域Aにおける最も注目度の高い位置がカメラ32の画角の中心又は略中心に位置しているか否かを判断する。注目領域Aがカメラ32の画角の中心又は略中心に位置している場合(ステップS109のYES)、本動作が図7に示す動作へリターンする。一方、注目領域Aがカメラ32の画角の中心又は略中心に位置していない場合(ステップS109のNO)、行動決定部140は、行動ルールDB104を参照することで、「注目領域Aの中心、又は、注目領域Aにおける最も注目度の高い位置がカメラ32の画角の中心又は略中心に位置するように、カメラ32のロール角(R)、ピッチ角(P)、ヨー角(Y)等を制御する」という行動を決定し、この決定した行動を実行する。これにより、図11の矢印Y3に示されているように、注目領域Aの中心、又は、注目領域Aにおける最も注目度の高い位置がカメラ32の画角AFの中心又は略中心に位置するように、カメラ32のロール角(R)、ピッチ角(P)、ヨー角(Y)等が制御されてカメラ32の画角AFが移動される(図8のステップS110)。その後、本動作が図7に示す動作へリターンする。
1.6.1.1 自律移動体が注目領域に近すぎ且つ注目領域が画角の中心に無い場合
ここで、自律移動体1が注目領域Aに近すぎ且つ注目領域が画角の中心に無い場合の動作、すなわち、図8のステップS105のYES〜S110の動作を、図12を用いて説明する。図12に示すように、自律移動体1が注目領域Aに近すぎる場合、カメラ32の画角に対して注目領域Aのサイズが大きすぎると判断される(ステップS105のYES)。その場合、行動決定部140によって決定された行動を実行することで、注目領域Aがカメラ32の画角AF内に丁度よく収まるように、自律移動体1が注目領域Aから遠ざかる(下がる)(ステップS106)。
そして、注目領域Aがカメラ32の画角の中心又は略中心に位置していないと判断される(ステップS109のNO)。この判断に対し、行動決定部140よって決定された行動を実行することで、注目領域Aの中心、又は、注目領域Aにおける最も注目度の高い位置がカメラ32の画角AFの中心又は略中心に位置するように、カメラ32のロール角(R)、ピッチ角(P)、ヨー角(Y)等が制御される(ステップS110)。
1.6.1.2 自律移動体が注目領域から遠すぎ且つ注目領域が画角の中心に無い場合
つづいて、自律移動体1が注目領域Aから遠すぎ且つ注目領域が画角の中心に無い場合の動作、すなわち、図8のステップS107のYES〜S110の動作を、図13を用いて説明する。図13に示すように、自律移動体1が注目領域Aから遠すぎる場合、カメラ32の画角に対して注目領域Aのサイズが小さすぎると判断される(ステップS107のYES)。その場合、行動決定部140によって決定された行動を実行することで、注目領域Aがカメラ32の画角AF内に丁度よく収まるように、自律移動体1が注目領域Aに近づく(ステップS108)。
そして、注目領域Aがカメラ32の画角の中心又は略中心に位置していないと判断される(ステップS109のNO)。この判断に対し、行動決定部140よって決定された行動を実行することで、注目領域Aの中心、又は、注目領域Aにおける最も注目度の高い位置がカメラ32の画角AFの中心又は略中心に位置するように、カメラ32のロール角(R)、ピッチ角(P)、ヨー角(Y)等が制御される(ステップS110)。
1.6.1.3 注目領域設定処理
つぎに、図8のステップS103に示す、注目度が高い領域を注目領域Aに設定する際の動作(注目領域設定動作)について、図面を参照して詳細に説明する。図14は、本実施形態に係る注目領域設定動作の一例を示すフローチャートである。図14に示すように、本動作では、行動決定部140は、まず、図8のステップS101で取得した注目度マップ40における注目度の最大値を探索する(ステップS121)。
つぎに、行動決定部140は、探索された注目度の最大値が予め設定しておいた第1閾値よりも大きいか否かを判断し(ステップS122)、大きい場合(ステップS122のYES)、ステップS124へ進む。一方、注目度の最大値が第1閾値以下である場合(ステップS122のNO)、行動決定部140は、注目度マップ40の所定空間SPからランダムで選択した領域を注目領域Aに設定し(ステップS123)、図8に示す動作へリターンする。
ステップS124では、行動決定部140は、注目度の最大値の近傍領域で注目度が第2閾値以上である領域を探索する。なお、第2閾値は、第1閾値よりも低い値であってよい。つづいて、行動決定部140は、ステップS124で特定した領域の外接直方体を作成し(ステップS125)、作成した外接直方体を注目領域Aに設定する(ステップS126)。その後、行動決定部140は、図8に示す動作へリターンする。
なお、行動決定部140は、ステップS123においてランダムで選択した領域を注目領域Aに設定する代わりに、ステップS124をスキップして図8に示す動作へリターンしてもよい。その場合、例えば、前回の行動フェーズにおける注目領域設定処理で設定された注目領域Aが継続して使用されてもよい。
1.6.1.4 注目領域設定処理の具体例
ここで、図14に示す注目領域設定処理について、具体例を用いて詳細に説明する。なお、以下では、説明の簡略化のため、注目度マップ40として2次元の注目度マップ41を例示する。注目度マップ41は、例えば、グリッドマップ43における各セル(マスともいう)に注目度が設定された構成を有している。
図15は、図14におけるステップS121を説明するための図である。図15に示すように、図14のステップS121では、行動決定部140は、注目度マップ41の各セルを探索することで、最大値の注目度が設定されている第1のセルM1を特定する。
図16は、図14におけるステップS124を説明するための図である。図16に示すように、図14のステップS124では、行動決定部140は、ステップS121で特定した第1のセルM1の周囲のセルを探索することで、注目度が第2閾値以上(図16に示す例では、5以上)の第2のセルM2を特定する。なお、探索する領域は、例えば、第1のセルM1から予め設定しておいた所定数のセル(図16に示す例では、3セル)までの領域であってよい。
図17は、図14におけるステップS125及びS126を説明するための図である。図16に示すように、図14のステップS124では、行動決定部140は、以上のようにして特定した第1のセルM1及び第2のセルM2の領域の外縁に接し且つ当該領域を包含する矩形の領域(ただし、3次元の注目度マップ40の場合は、直方体の領域)を作成する。そして、行動決定部140は、図14のステップS125において、この矩形の領域を注目領域Aに設定する。
1.6.2 認識フェーズ(注目度マップ作成・更新)
つぎに、図7のステップS200に示す認識フェーズ(注目度マップ作成・更新)について、図面を参照して詳細に説明する。図18は、本実施形態に係る認識フェーズの流れの一例を示すフローチャートである。なお、図18において、ステップS201は、センサ群110が実行するステップであり、ステップS202〜S204、S206及びS209は、物体検出・認識部120が実行するステップであり、ステップS205、S207、S208、及び、S212〜S214は、注目度マップ作成・更新部130が実行するステップであり、ステップS210及びS211は、インタラクション実行部150が実行するステップである。
図18に示すように、認識フェーズでは、まず、センサ群110のカメラ32が、取得した画像データを物体検出・認識部120に入力する(ステップS201)。つぎに、物体検出・認識部120が、入力された画像データに対して画像認識処理(図4の認識処理122、図6の顔検出221、顔識別222、個人識別223、人体検出(一部分を含む)226等に相当)を実行する(ステップS202)。
つぎに、物体検出・認識部120は、ステップS202の画像認識処理(人体検出(一部分を含む)226に相当)の結果、人が検出されたか否かを判断する(ステップS203)。人が検出されなかった場合(ステップS203のNO)、本動作が図7に示す動作へリターンする。
一方、人が検出された場合(ステップS203のYES)、物体検出・認識部120は、ステップS202の画像認識処理(顔検出221に相当)の結果、人の顔が検出されたか否かを判定する(ステップS204)。人の顔が検出されていない場合(ステップS204のNO)、注目度マップ作成・更新部130が、ステップS202の画像認識処理(人体検出(一部分を含む)226に相当)で検出された人の部位等から、注目度マップ40内における当該人の顔があるであろう位置(方向を含んでもよい)を予測し(ステップS205)、ステップS208へ進む。例えば、図19に示すように、ステップS202の画像認識処理(人体検出(一部分を含む)226に相当)で人H1の脚H2の部位が検出された場合では、当該人H1の頭は、通常では、脚H2の上方に存在している。そこで、ステップS205では、検出された脚H2の上方に頭があるとして、所定空間SP内における当該人の顔があるであろう位置(又は領域)R1を予測する。
一方、人の顔が検出されていた場合(ステップS204のYES)、物体検出・認識部120は、ステップS202の画像認識処理(顔識別222に相当)の結果、人の顔を識別できたか否かを判定する(ステップS206)。人の顔を識別できなかった場合(ステップS206のNO)、注目度マップ作成・更新部130が、ステップS202の画像認識処理(人体検出(一部分を含む)226又は顔検出221に相当)で検出された人の部位又は顔の位置及び向き等から、注目度マップ40内における当該人の顔を識別できるであろう位置(方向を含んでもよい)を予測し(ステップS207)、ステップS208へ進む。
一方、人の顔を識別できていた場合(ステップS206のYES)、物体検出・認識部120は、個人識別DB102を参照することで、識別された顔を持つ個人が個人識別DB102に登録されているか否かを判定する(ステップS209)。個人識別DB102に登録されている顔である場合(ステップS209のYES)、インタラクション実行部150が、特定行動ルールDB105を参照することで、個人識別DB102から特定した個人に対して現在の状況等に応じた特定の行動152(図4参照)を実行し(ステップS210)、その後、本動作がステップS212へ進む。一方、個人識別DB102に登録されていない顔である場合(ステップS209のNO)、インタラクション実行部150が、特定行動ルールDB105を参照することで、未知の個人に対して現在の状況等に応じた特定の行動152(図4参照)を実行し(ステップS211)、その後、本動作がステップS212へ進む。
ステップS208では、注目度マップ作成・更新部130が、ステップS205又はS207で予測した位置の周囲に高い注目度を設定した現フレームについての個別の注目度マップ42を作成する。そして、本動作がステップS212へ進む。例えば、図19で例示したように、ステップS205において、検出された脚H2の上方に頭があるとして、注目度マップ40内における当該人の顔があるであろう位置(又は領域)R1が予測された場合には、図20に示すように、現フレームについての個別の注目度マップ42として、予測された位置R1(又は領域の中心)に注目度の局所的なピークを持つ3次元ガウス分布形状の分布54を含む現フレームについての個別の注目度マップ42が作成される。なお、現フレームとは、例えばカメラ32で取得された画像データであれば、直前に取得された最新の画像データに相当する。また、例えばマイクロフォン31で取得された音声データであれば、直前の所定期間に取得された最新の音声データに相当する。
ステップS212では、注目度マップ作成・更新部130の注目度減衰部139(図4参照)が、注目度マップDB103に格納されている注目度マップ40に対して、所定のルールに従った注目度の減衰処理を実行する。つぎに、注目度マップ作成・更新部130が、ステップS208において現フレームにつての個別の注目度マップが作成されたか否かを判断し(ステップS213)、作成していない場合(ステップS213のNO)、本動作が図7に示す動作へリターンする。
一方、現フレームについての個別の注目度マップ42が作成されていた場合(ステップS213のYES)、注目度マップ作成・更新部130が、現フレームについての個別の注目度マップ42を、注目度マップDB内の注目度マップ40に加算し(ステップS214)、その後、本動作が図7に示す動作へリターンする。なお、注目度マップDB内の注目度マップ40に対する現フレームについての個別の注目度マップ42の加算では、例えば、注目度マップ40と現フレームについての個別の注目度マップ42とで対応するセル(3次元の注目度マップの場合はボックスセル)の注目度が加算されてもよい。
1.6.2.1 注目度の減衰処理から現フレームの個別の注目度マップを既存の注目度マップに加算するまで
ここで、図18におけるステップS212〜S214までの動作、すなわち、注目度の減衰処理(S212)から現フレームの個別の注目度マップを既存の注目度マップに加算する処理(S214)までの動作について、具体例を用いて説明する。なお、本説明では、注目度マップDB103に図5に示す注目度マップ40が格納されており、そして、図18のステップS208において、図20に示す個別の注目度マップ42が作成されたものとする。また、以下では、簡略化のため、3次元の注目度マップを2次元の注目度マップに置き換えて説明する。その場合、図5に示す3次元の注目度マップ40が図22の上段に示す2次元の注目度マップ40に置き換えられ、図20に示す3次元の個別の注目度マップ42が図21に示す2次元の個別の注目度マップ42aに置き換えられる。
本動作では、図8に示す行動フェーズにより、図5における分布51に相当する領域が注目領域Aに設定されて処理される。そこで、図18のステップS212では、図22に示すように、例えば、行動フェーズにおいて処理された分布51に相当する領域の注目度が、所定のルールに従って減衰される。その結果、図22の下段に示す注目度マップ40aに示すように、分布51がこれよりも注目度の低い分布51aに減衰する。なお、所定のルールとは、例えば、該当する領域の注目度を所定の割合(例えば半分等)に減衰するなどのルールであってよい。
そして、図18のステップS214では、図23に示すように、減衰済みの注目度マップ40aと、現フレームについての個別の注目度マップ42とが加算される。その結果、図23の最下段に示すように、減衰済みの注目度マップ40aと現フレームについての個別の注目度マップ42とが合成された新たな注目度マップ40Aが作成されて、注目度マップDB103に格納される。
なお、注目度マップDB103内の注目度マップ40を減衰するルールとしては、上述のような、確認済みの領域の注目度を減衰するルールの他、例えば、所定時間が経過する度に注目度マップ40全体の注目度を減衰するルールや、行動フェーズにおいて確認したが注目すべきものが存在しなかった領域の注目度を大幅に減衰するルールなど、種々のルールを適用することが可能である。
1.6.3 自律システムの動作の他の例
上述では、センサ群110において使用するセンサをカメラ32とし、カメラ32で取得された画像データに対して自律システム100が実行する動作の例を説明したが、以下では、センサ群110において使用するセンサをマイクロフォン31とし、マイクロフォン31で取得された音声データに対して自律システム100が実行する動作の例を説明する。
上述において、図7〜図17を用いて説明した行動フェーズの動作は、基本的には、使用するセンサをマイクロフォン31とした場合にも適用可能であるため、ここでは重複する説明を省略する。
図24は、使用するセンサをマイクロフォンとした場合の認識フェーズ(注目度マップ作成・更新)の流れの一例を示すフローチャートである。なお、図24に示す動作において、図18に示すステップと同様のステップについては、それを引用することで、詳細な説明を省略する。
図24に示すように、認識フェーズでは、まず、センサ群110のマイクロフォン31が、取得した音声データを物体検出・認識部120に入力する(ステップS241)。つぎに、物体検出・認識部120が、入力された音声データの音量が予め設定しておいた閾値より大きいか否かを判定し(ステップS242)、閾値以下である場合(ステップS242のNO)、本動作が図7に示す動作へリターンする。一方、閾値より大きい場合(ステップS242のYES)、物体検出・認識部120が、入力された音声データに対して音声認識処理(図4の認識処理121、図6の音源方向検出227、音声識別228、個人識別223等に相当)を実行する(ステップS243)。
つぎに、物体検出・認識部120は、ステップS243の音声認識処理(音源方向検出227に相当)の結果、音源の方向を推定できたか否かを判定する(ステップS244)。音源の方向を推定できなかった場合(ステップS244のNO)、注目度マップ作成・更新部130が、注目度マップ40の空間全体を音源が存在する可能性のある位置として予測範囲に設定する(ステップS245)。つづいて、注目度マップ作成・更新部130が、例えば、空間全体に対して一様な注目度を設定した現フレームについての個別の注目度マップ42を作成し(ステップS246)、ステップS212へ進む。
一方、音源の方向を推定できた場合(ステップS244のYES)、物体検出・認識部120は、ステップS243の音声認識処理(音声識別228に相当)の結果、音源が人であるか否かを判定する(ステップS247)。人でない場合(ステップS247のNO)、注目度マップ作成・更新部130が、ステップS243の音声認識処理(音源方向検出227に相当)の結果から、音源の種類を特定できるであろう位置(方向を含んでもよい)を予測する(ステップS248)。つづいて、注目度マップ作成・更新部130が、予測した位置の周囲に高い注目度を設定した現フレームについての個別の注目度マップ42を作成し(ステップS249)、ステップS212へ進む。
一方、音源が人であった場合(ステップS247のYES)、物体検出・認識部120は、個人識別DB102を参照することで、検出された声紋と一致する声紋を持つ個人が個人識別DB102に登録されているか否かを判定する(ステップS250)。個人識別DB102に登録されている声紋である場合(ステップS250のYES)、インタラクション実行部150が、図18に示す動作と同様に、特定行動ルールDB105を参照することで、個人識別DB102から特定した個人に対して現在の状況等に応じた特定の行動152(図4参照)を実行し(ステップS210)、その後、本動作がステップS212へ進む。一方、個人識別DB102に登録されていない顔である場合(ステップS250のNO)、インタラクション実行部150が、図18に示す動作と同様に、特定行動ルールDB105を参照することで、未知の個人に対して現在の状況等に応じた特定の行動152(図4参照)を実行し(ステップS211)、その後、本動作がステップS212へ進む。
ステップS212では、図18に示す動作と同様に、注目度マップ作成・更新部130の注目度減衰部139が注目度マップDB103内の注目度マップ40の注目度を所定のルールに従った減衰する。以降、図18に示す動作と同様に、注目度マップ作成・更新部130が、ステップS246又はS249において現フレームにつての個別の注目度マップが作成されたか否かを判断し(ステップS213)、作成していない場合(ステップS213のNO)、本動作が図7に示す動作へリターンする。一方、現フレームについての個別の注目度マップ42が作成されていた場合(ステップS213のYES)、注目度マップ作成・更新部130が、現フレームについての個別の注目度マップ42を、注目度マップDB内の注目度マップ40に加算し(ステップS214)、その後、本動作が図7に示す動作へリターンする。
1.7 注目度マップの作成に用いる情報の例
上述の説明において注目度マップ40を作成する際に使用した情報(顔検出221、顔識別222、音源方向検出227、音声識別228等)は、単なる例であって、これらに限定されるものではない。そこで、図25に、注目度マップの作成に使用する情報510の例と、その情報に基づいて注目度を高くする場所520の例と、注目度を高くする理由530の例とを示す。
図25に示すように、注目度マップ40の作成に使用する情報510としては、顔検出結果、人体検出結果(一部分を含む)、視線検出結果、物体認識結果、動体検出結果、トラッキング結果、音源方向検出結果、振動方向検出結果、匂い検出結果、時間と習慣との組合せ等を例示することができる。
顔検出結果は、顔検出221の結果であってよい。人体検出結果(一部分を含む)は、人体検出(一部分を含む)226の結果であってよい。視線検出結果は、視線検出224の結果であってよい。動体検出結果は、動体検出225の結果であってよい。トラッキング結果は、トラッキング229の結果であってよい。音源方向検出結果は、音源方向検出227の結果であってよい。
また、物体認識結果は、例えば、物体検出・認識部120がカメラ32等で取得された画像データ等に対して実行した物体認識の結果であってよい。振動方向検出結果は、例えば、センサ群110に振動センサが含まれている場合であって、物体検出・認識部120が振動センサによって取得されたセンサデータから振動源の方向を特定したその結果であってよい。匂い検出結果は、例えば、センサ群110に匂いセンサが含まれている場合であって、物体検出・認識部120が匂いセンサによって取得されたセンサデータから特定の匂いを検出した際のその結果であってよい。時間と習慣との組合せは、例えば、センサ群110の各センサで取得されたセンサデータに基づいて特定される人の行動を時間情報と共に蓄積しておき、この蓄積されているセンサデータから直接、又は、統計処理することで得られる人の習慣に関する情報であってよい。
顔検出結果又は人体検出結果(一部分を含む)に基づいて注目度を高くする場所520は、顔が位置する場所、人体全体が位置する場所等であってよい。顔が位置する場所の注目度を高くする理由530は、例えば、センサ群110において顔を含む画像データを取得し、物体検出・認識部120において画像データに対する顔識別や表情識別を実行するためである。人体全体が位置する場所の注目度を高くする理由530は、例えば、センサ群110において人体全体を含む画像データを取得し、物体検出・認識部120において画像データに対する人識別や人の行動を認識するアクション認識を実行するためである。
視線検出結果に基づいて注目度を高くする場所520は、人が注目している物体が位置する場所等であってよい。人が注目している物体が位置する場所の注目度を高くする理由530は、例えば、センサ群110において人が注目している物体を含む画像データを取得し、物体検出・認識部120において画像データに対する物体認識を実行するためである。
物体認識結果に基づいて注目度を高くする場所520は、テーブルの上などの物体が位置する場所等であってよい。テーブルの上などの物体が位置する場所の注目度を高くする理由530は、例えば、センサ群110においてテーブルの上などの物体が位置する場所を含む画像データを取得し、物体検出・認識部120において画像データに対する物体認識を実行するためである。
動体検出結果に基づいて注目度を高くする場所520は、動体が位置する場所等であってよい。動体が位置する場所の注目度を高くする理由530は、例えば、センサ群110において動体を含む画像データを取得し、物体検出・認識部120において画像データに基づいて動体を特定したり人を特定したりするためである。
トラッキング結果に基づいて注目度を高くする場所520は、人の移動先となる場所等であってよい。人の移動先となる場所の注目度を高くする理由530は、例えば、センサ群110において人の移動先を含む画像データを取得し、物体検出・認識部120において画像データに基づいて人を特定したり人の行動を特定したりするためである。
音源方向検出結果に基づいて注目度を高くする場所520は、音源の位置する場所等であってよい。音源の位置する場所の注目度を高くする理由530は、例えば、センサ群110において音源を含む画像データを取得し、物体検出・認識部120において画像データに基づいて人を特定したり人の行動を特定したりするためである。
振動方向検出結果に基づいて注目度を高くする場所520は、振動源の位置する場所等であってよい。振動源の位置する場所の注目度を高くする理由530は、例えば、センサ群110において振動源を含む画像データを取得し、物体検出・認識部120において画像データに基づいて動体を特定したり人を特定したり人の行動を特定したりするためである。
匂い検出結果に基づいて注目度を高くする場所520は、匂い源の位置する場所等であってよい。匂い源の位置する場所の注目度を高くする理由530は、例えば、センサ群110において音源を含む画像データを取得し、物体検出・認識部120において画像データに基づいて人を特定したり人の行動を特定したりするためである。
時間と習慣との組合せに基づいて注目度を高くする場所520は、人のいそうな場所等であってよい。人のいそうな場所の注目度を高くする理由530は、例えば、センサ群110において人を含む画像データを取得し、物体検出・認識部120において画像データに基づいて人を特定したり人の行動を特定したりするためである。
1.8 作用・効果
以上のように、本実施形態によれば、センサ群110で取得されたセンサデータに基づいて注目度マップ40が逐次更新され、注目度マップ40に基づいて自律移動体1の次の行動が決定されるため、自律移動体1が注目すべき場所又は領域を状況やコミュニケーションの相手に応じてより的確に注目領域Aに設定することが可能となる。それにより、より自然なコミュニケーションやインタラクションを実行することが可能となる。
また、本実施形態では、確認済みの領域や時間経過などに基づいて注目度マップ40の注目度を減衰させるため、自律移動体1が注目すべき場所又は領域を現在の状況に応じてより的確に注目領域Aに設定することが可能となる。それにより、より自然なコミュニケーションやインタラクションを実行することが可能となる。
また、本実施形態では、1つ又は複数のセンサで取得されたセンサデータを用いて現フレームについての個別の注目度マップ42を作成し、この個別の注目度マップ42を注目度マップ40に加算するため、複数の事象を統合した注目度マップ40を容易に作成することが可能となる。
1.9 変形例
上述の実施形態では、行動フェーズと認識フェーズとを交互に実行する場合を例示したが、このような動作に限定されるものではない。例えば、行動フェーズと認識フェーズとを交互に実行し、ある時点で、行動フェーズを所定回数連続して繰り返し実行してもよい。ただし、その場合でも、各行動フェーズのあとに注目度マップ40における確認済みの領域の注目度を所定のルールで減衰させる処理を実行させるとよい。
また、上述の実施形態では、注目度マップ40において、自律移動体1が注目すべき場所又は領域に高い注目度が設定される場合を例示したが、これに限らず、例えば、自律移動体1が位置すべき場所に高い注目度が設定されるように構成することも可能である。その場合、注目度マップ40は、自律移動体1の一連の動作が登録された動作マップとして機能し得る。自律移動体1は、注目度マップ40において注目度の高い位置を順に辿るように動作することとなる。
また、上述の実施形態では、行動フェーズと認識フェーズとが一連の動作(同一スレッド)として実行される場合を例示したが、これに限らず、例えば、行動フェーズと認識フェーズとがそれぞれマルチタスクのスレッド又はプロセスとして独立して実行されてもよい。その場合、行動フェーズにおいて、突発的に発生した注目度の高いイベント等によって割り込みが発生してもよい。
なお、行動フェーズと認識フェーズとをそれぞれマルチタスクのスレッド又はプロセスとして独立して実行する場合、図18又は図24のステップS210又はS211で実行される特定の行動152は、例えば、一定の期間、継続して実行されてもよい。その場合、特定の行動152の継続中は、認識フェーズを実行しないこととしてもよいし、認識フェーズの実行サイクルを下げてもよいし、注目領域Aを決定する際の第1閾値(図14のステップS122参照)を一時的に上げることで注目領域Aが設定されることを回避してもよい。
また、上述の実施形態において例示した注目度マップ40又は注目度マップDB103は、複数の自律移動体1A〜1Nで共有されてもよい。
さらに、注目度マップ40の各ボックスセルに設定されている注目度は、スカラー値であってもよいし、ベクトル値であってよい。例えば、人の顔の位置に相当するボックスセルには、人の顔の方向を向くベクトル値が注目度として設定されていてもよい。
また、各ボックスセルに設定されている注目度には、属性情報が付加されていてもよい。この属性情報には、例えば、ソース属性、結果属性、時間係数などを含めることができる。
ソース属性とは、その注目度の算出において使用したセンサデータを取得したセンサに関する情報であり、例えば、その注目度が、カメラ32で取得された画像データを認識処理122することで得られたものであるか、マイクロフォン31で取得された音声データを認識処理121することで得られた情報であるか等の情報である。このようなソース属性を付加することで、例えば、行動決定部140が行動を決定する際(図4の行動決定142)に、ソース属性に応じて決定する行動を変えるように構成することが可能である。例えば、ソース属性がカメラ32で取得された画像データを認識処理122することで得られたものであることを示している場合、行動決定部140は、行動決定142において、カメラ32での撮像に好適な位置へ自律移動体1を移動させる行動を決定することができる。また、ソース属性がマイクロフォン31で取得された音声データを認識処理121することで得られたものであることを示している場合、行動決定部140は、行動決定142において、マイクロフォン31での集音に好適な位置、又は、マイクロフォン31での集音とカメラ32での撮影との両方が可能である位置へ、自律移動体1を移動させる行動を決定することができる。
結果属性とは、その注目度の由来に関する情報であり、例えば、その注目度が、楽しそうな事象に対する注目度であるか、恐ろしい事象に対する注目度であるか、危険な事象に対する注目度であるか等の情報である。このような結果属性を付加することで、例えば、行動決定部140が行動を決定する際(図4の行動決定142)に、結果属性に応じて決定する行動を変えるように構成することが可能である。例えば、結果属性が楽しそうな事象に対する注目度であることを示している場合、行動決定部140は、行動決定142において、楽しさを表現する行動(例えば、尻尾を振るなど)を決定することができる。また、結果属性が恐ろしい事象に対する注目度であることを示している場合、行動決定部140は、行動決定142において、恐れを表現する行動(例えば、遠くから確認するや尻尾を下げるなど)を決定することができる。
結果属性とは、その注目度の由来に関する情報であり、例えば、その注目度が、楽しそうな事象に対する注目度であるか、恐ろしい事象に対する注目度であるか、危険な事象に対する注目度であるか等の情報である。このような結果属性を付加することで、例えば、行動決定部140が行動を決定する際(図4の行動決定142)に、結果属性に応じて決定する行動を変えるように構成することが可能である。例えば、結果属性が楽しそうな事象に対する注目度であることを示している場合、行動決定部140は、行動決定142において、楽しさを表現する行動(例えば、尻尾を振るなど)を決定することができる。また、結果属性が恐ろしい事象に対する注目度であることを示している場合、行動決定部140は、行動決定142において、恐れを表現する行動(例えば、遠くから確認するや尻尾を下げるなど)を決定することができる。
時間係数とは、その注目度が設定された領域に対してどの程度の時間継続して注目すべきであるかに関する情報である。このような時間係数を付加することで、例えば、注目度マップ作成・更新部130の注目度減衰部139が注目度マップ40内の注目度を減衰する際の減衰の程度や頻度をボックスセルごとに決定することが可能となる。例えば、大きな音に由来する注目度であれば、行動決定部140が発生から直ぐに確認の行動を取らなかった場合には、比較的短時間で減衰するように構成することが可能となる。
また、上述の実施形態では、注目すべき領域の注目度を高くするための、現フレームについての個別の注目度マップ42を作成する場合を例示したが、これに限られず、例えば、注目すべきでない、若しくは、注目する必要のない領域の注目度を低くするための、現フレームについての個別の注目度マップ42が作成されてもよい。例えば、行動決定部140が注目領域Aを確認したが注目すべき対象が何も存在しなかった場合には、当該注目領域Aの注目度を下げるための現フレームについての個別の注目度マップ42が作成されてもよい。このような注目度マップは、例えば、注目度を下げるべき領域に対応するボックスセルの注目度にマイナスの注目度を設定することで作成することができる。
また、上述の実施形態において、現フレームについての個別の注目度マップ42は、例えば、注目する対象や領域に応じて注目度のピーク値及び注目度の分布が制御されてもよい。例えば、自律移動体1に対して「ピンクのボールが好き」という好みが設定されている場合、現フレームについての個別の注目度マップ42におけるピンクのボールが位置する領域の注目度の分布を、通常よりも高いピーク値を持つ注目度の分布としてもよい。これにより、自律移動体1がピンクのボールに対して優先的に興味を示させることが可能となる。逆に、自律移動体1に対して「虫が嫌い」という好みが設定されている場合、現フレームについての個別の注目度マップ42における虫が位置する領域の注目度の分布を、通常よりも低いピーク値又はマイナスのピーク値を持つ注目度の分布としてもよい。これにより、自律移動体1に虫に対して興味を示さないように行動させることが可能となる。
「ピンクのボールが好き」などの好みの設定は、例えば、ユーザが自律移動体1に対して直接、又は、ネットワーク4を介して接続された通信端末3を用いることで、自律移動体1に設定できてもよい。これにより、自律移動体1をユーザの好みに応じて行動するように設定することが可能となる。
また、センサ群110によって頻繁に検出される物体については、自律移動体1が好きなものとして、又は、自律移動体1の興味が薄れたもの(飽きたもの)として、自動又は手動で自律移動体1にその好みが設定されてもよい。
また、上述の実施形態において、注目度マップ40の更新は、以下のような式(1)に基づいて実行されてもよい。なお、以下の式(1)は、対応するボックスセル同士が加算されることを前提としている。
最新の注目度マップ=(1−α)(現在の注目度マップ)+α(現フレームについての個別の注目度マップ) …(1)
式(1)において、αは更新率を示しており、例えば、0より大きく1未満の値である。従って、更新率αの値を調整することで、更新の程度を調整することが可能である。例えば、更新率αを大きな値とした場合、更新の程度が大きくなり、注目度マップ40が短時間で変化することとなる。一方、更新率αを小さな値とした場合、更新の程度が小さくなり、注目度マップ40が余り変化しなくなる。
また、更新率αは、インタラクション実行部150が実行している特定の行動152に応じて変更されてもよい。例えば、インタラクション実行部150が何かしらの特定の行動152を夢中になっている状態を実行している場合や、インタラクション実行部150が休んでいる状態(寝ている状態を含む)を実行している場合には、更新率αが低い値に変更されてもよい。それにより、自律移動体1が小さな物音などに反応しないようにすることが可能となる。
さらに、更新率αは、画像認識処理(認識処理122に相当)や音声認識処理(認識処理121に相当)の結果に応じて制御されてもよい。例えば、画像認識処理(個人識別223)の結果、所有者(飼い主)が識別できた場合には、この所有者(飼い主)に対応する領域に対する更新率αを小さくして注目度を低くなり難くし、それ以外の人物である場合には、この人物に対応する領域に対する更新率αを大きくして注目度を低くなり易くしてもよい。その際、初めて見る人物である場合には、この人物に対応する警戒を表現するために、この人物に対応する領域に対する更新率αを小さくして注目度を低くなり難くしてもよい。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定する行動決定部を備える情報処理装置。
(2)
前記駆動機構は、自律移動体の位置及び姿勢のうちの少なくとも一つを制御する移動機構であり、
前記行動決定部は、前記行動を前記駆動機構に実行させることで、前記自律移動体の位置及び姿勢のうちの少なくとも一つを制御する
前記(1)に記載の情報処理装置。
(3)
前記駆動機構の周囲の情報に基づいて、前記注目度マップを更新する更新部をさらに備える前記(1)又は(2)に記載の情報処理装置。
(4)
前記駆動機構の周囲の情報を取得するセンサと、
前記センサで取得されたセンサデータを認識処理する認識部と、
をさらに備え、
前記更新部は、前記認識処理の結果に基づいて前記注目度マップを更新する
前記(3)に記載の情報処理装置。
(5)
前記更新部は、前記認識処理の結果に基づいて、前記注目度マップにおける注目度を高く又は低くすべき領域を推定し、推定した前記領域の注目度が高く又は低くなるように、前記注目度マップを更新する前記(4)に記載の情報処理装置。
(6)
前記更新部は、前記推定した領域に注目度が設定された個別の注目度マップを作成し、前記個別の注目度マップを前記注目度マップに加算することで、前記注目度マップを更新する前記(5)に記載の情報処理装置。
(7)
前記センサは、前記駆動機構の周囲を撮像して画像データを出力するカメラを含み、
前記認識部は、前記画像データを画像認識処理し、
前記更新部は、前記画像認識処理の結果に基づいて前記注目度マップを更新する
前記(4)〜(6)の何れか1項に記載の情報処理装置。
(8)
前記画像認識処理は、前記画像データに含まれる人体の全体又は一部を検出する人体検出と、前記画像データに含まれる人の顔を検出する顔検出と、前記画像データに含まれる人の顔を識別する顔識別とのうち少なくとも一つを含む前記(7)に記載の情報処理装置。
(9)
前記センサは、所定空間中を伝播する音を入力して音声データを出力するマイクロフォンを含み、
前記認識部は、前記音声データを音声認識処理し、
前記更新部は、前記音声認識処理の結果に基づいて前記注目度マップを更新する
前記(4)〜(8)の何れか1項に記載の情報処理装置。
(10)
前記音声認識処理は、前記駆動機構に対する前記音の音源の方向を検出する音源方向検出と、前記音の音源を識別する音源識別とのうち少なくとも1つを含む前記(9)に記載の情報処理装置。
(11)
前記センサは、カメラ、マイクロフォン、ToF(Time of Flight)センサ、人感センサ、PSD(Position Sensitive Detector)、タッチセンサ、照度センサ、慣性計測装置のうち少なくとも1つを含む前記(4)に記載の情報処理装置。
(12)
前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に基づいて、前記駆動機構に実行させる前記行動を決定する前記(1)〜(11)の何れか1項に記載の情報処理装置。
(13)
前記駆動機構に設けられて前記駆動機構の周囲を撮像して画像データを出力するカメラをさらに備え、
前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に対応する前記所定空間内の領域が前記カメラの画角内に収まるように、前記駆動機構に実行させる前記行動を決定する前記(1)〜(11)の何れか1項に記載の情報処理装置。
(14)
前記駆動機構に設けられて前記駆動機構の周囲を撮像して画像データを出力するカメラをさらに備え、
前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に対応する前記所定空間内の領域が前記カメラの画角の略中心に位置するように、前記駆動機構に実行させる前記行動を決定する前記(1)〜(11)の何れか1項に記載の情報処理装置。
(15)
前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に対応する前記所定空間内の領域に前記駆動機構が移動するように、前記駆動機構に実行させる前記行動を決定する前記(1)〜(11)の何れか1項に記載の情報処理装置。
(16)
前記駆動機構は、揺動可能な頭部を含み、
前記行動は、下がる、近づく、見上げる、首を振るのうち少なくとも1つを含む
前記(2)に記載の情報処理装置。
(17)
前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に基づいて、前記駆動機構に実行させる前記行動を決定し、
前記行動は、前記自律移動体が前記注目領域に対応する前記所定空間内の領域から遠ざかる、前記自律移動体が前記注目領域に対応する前記所定空間内の領域に近づく、前記自律移動体が前記注目領域に対応する前記所定空間内の領域を見上げる、前記自律移動体が前記注目領域に対応する前記所定空間内の領域を向くのうち少なくとも1つを含む前記(2)に記載の情報処理装置。
(18)
前記更新部は、所定の条件に基づいて前記注目度マップにおける注目度を減衰させる減衰部を含む前記(3)〜(11)の何れか1項に記載の情報処理装置。
(19)
前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に基づいて、前記駆動機構に実行させる前記行動を決定し、
前記減衰部は、前記駆動機構が前記行動を実行後、前記注目領域の注目度を減衰させる前記(18)に記載の情報処理装置。
(20)
前記減衰部は、所定時間が経過する度に前記注目度マップの注目度を減衰させる前記(18)又は(19)に記載の情報処理装置。
(21)
特定のイベントの発生に応じて特定の行動を実行する実行部をさらに備える前記(1)〜(20)の何れか1項に記載の情報処理装置。
(22)
前記特定の行動は、動物や生き物の行動に近い動作、ユーザとのコミュニケーション、遊び、及び、感情表現のうち少なくとも1つを含む前記(21)に記載の情報処理装置。
(23)
所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定する行動決定部を備える情報処理システム。
(24)
所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定することを含む行動決定方法。
(25)
所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定することをコンピュータに実行させるためのプログラム。
1、1A〜1N 自律移動体
2 サーバ
3 通信端末
10 コントロール部
11 信号処理回路
12 CPU
13 DRAM
14 フラッシュROM
15 PCカードI/F
16 無線通信部
17 内部バス
18 バッテリ
19 メモリカード
21 ディスプレイ
22 スピーカ
23 エンコーダ(ポテンショメータ)
24 アクチュエータ
25 可動部
30 その他のセンサ
31 マイクロフォン
32 カメラ
33 ToFセンサ
34 人感センサ
35 PSD
36 タッチセンサ
37 照度センサ
38 足裏ボタン
39 IMU
40、40A、41 注目度マップ
42 現フレームについての個別の注目度マップ
100 自律システム
102 個人識別DB
103 注目度マップDB
104 行動ルールDB
105 特定行動ルールDB
110 センサ群
120 物体検出・認識部
121〜124 認識処理
130 注目度マップ作成・更新部
131〜134 注目領域予測
135〜138 注目度マップ作成
139 注目度減衰部
140 行動決定部
141 注目領域決定
142 行動決定
143 行動
150 インタラクション実行部
151 イベント発生検知
152 特定の行動
221 顔検出
222 顔識別
223 個人識別
224 視線検出
225 動体検出
226 人体検出(一部分を含む)
227 音源方向検出
228 音声識別
229 トラッキング
241 見上げる・首を振る(任意の方向にカメラを向ける)
242 近づく・下がる(任意の方向へ移動)
243 カメラのズーム・ピント制御
244 マイクロフォンのズームホーミング
251 動物等の動作に近い動作
252 コミュニケーション
253 遊び
254 感情表現
A 注目領域
AF 画角
SP 所定空間

Claims (20)

  1. 所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定する行動決定部を備える情報処理装置。
  2. 前記駆動機構は、自律移動体の位置及び姿勢のうちの少なくとも一つを制御する移動機構であり、
    前記行動決定部は、前記行動を前記駆動機構に実行させることで、前記自律移動体の位置及び姿勢のうちの少なくとも一つを制御する
    請求項1に記載の情報処理装置。
  3. 前記駆動機構の周囲の情報に基づいて、前記注目度マップを更新する更新部をさらに備える請求項1に記載の情報処理装置。
  4. 前記駆動機構の周囲の情報を取得するセンサと、
    前記センサで取得されたセンサデータを認識処理する認識部と、
    をさらに備え、
    前記更新部は、前記認識処理の結果に基づいて前記注目度マップを更新する
    請求項3に記載の情報処理装置。
  5. 前記更新部は、前記認識処理の結果に基づいて、前記注目度マップにおける注目度を高く又は低くすべき領域を推定し、推定した前記領域の注目度が高く又は低くなるように、前記注目度マップを更新する請求項4に記載の情報処理装置。
  6. 前記更新部は、前記推定した領域に注目度が設定された個別の注目度マップを作成し、前記個別の注目度マップを前記注目度マップに加算することで、前記注目度マップを更新する請求項5に記載の情報処理装置。
  7. 前記センサは、前記駆動機構の周囲を撮像して画像データを出力するカメラを含み、
    前記認識部は、前記画像データを画像認識処理し、
    前記更新部は、前記画像認識処理の結果に基づいて前記注目度マップを更新する
    請求項4に記載の情報処理装置。
  8. 前記センサは、所定空間中を伝播する音を入力して音声データを出力するマイクロフォンを含み、
    前記認識部は、前記音声データを音声認識処理し、
    前記更新部は、前記音声認識処理の結果に基づいて前記注目度マップを更新する
    請求項4に記載の情報処理装置。
  9. 前記センサは、カメラ、マイクロフォン、ToF(Time of Flight)センサ、人感センサ、PSD(Position Sensitive Detector)、タッチセンサ、照度センサ、慣性計測装置のうち少なくとも1つを含む請求項4に記載の情報処理装置。
  10. 前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に基づいて、前記駆動機構に実行させる前記行動を決定する請求項1に記載の情報処理装置。
  11. 前記駆動機構に設けられて前記駆動機構の周囲を撮像して画像データを出力するカメラをさらに備え、
    前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に対応する前記所定空間内の領域が前記カメラの画角内に収まるように、前記駆動機構に実行させる前記行動を決定する請求項1に記載の情報処理装置。
  12. 前記駆動機構に設けられて前記駆動機構の周囲を撮像して画像データを出力するカメラをさらに備え、
    前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に対応する前記所定空間内の領域が前記カメラの画角の略中心に位置するように、前記駆動機構に実行させる前記行動を決定する請求項1に記載の情報処理装置。
  13. 前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に対応する前記所定空間内の領域に前記駆動機構が移動するように、前記駆動機構に実行させる前記行動を決定する請求項1に記載の情報処理装置。
  14. 前記駆動機構は、揺動可能な頭部を含み、
    前記行動は、下がる、近づく、見上げる、首を振るのうち少なくとも1つを含む
    請求項2に記載の情報処理装置。
  15. 前記更新部は、所定の条件に基づいて前記注目度マップにおける注目度を減衰させる減衰部を含む請求項3に記載の情報処理装置。
  16. 前記行動決定部は、前記注目度マップにおいて注目度が最大の位置を特定し、前記注目度が最大の位置を囲む領域を注目領域と設定し、前記注目領域に基づいて、前記駆動機構に実行させる前記行動を決定し、
    前記減衰部は、前記駆動機構が前記行動を実行後、前記注目領域の注目度を減衰させる請求項15に記載の情報処理装置。
  17. 前記減衰部は、所定時間が経過する度に前記注目度マップの注目度を減衰させる請求項15に記載の情報処理装置。
  18. 特定のイベントの発生に応じて特定の行動を実行する実行部をさらに備える請求項1に記載の情報処理装置。
  19. 所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定することを含む行動決定方法。
  20. 所定空間中の各位置に対して注目すべき程度を示す注目度が設定された注目度マップに基づいて駆動機構に実行させる行動を決定することをコンピュータに実行させるためのプログラム。

JP2018141480A 2018-07-27 2018-07-27 情報処理装置、行動決定方法及びプログラム Pending JP2020017206A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018141480A JP2020017206A (ja) 2018-07-27 2018-07-27 情報処理装置、行動決定方法及びプログラム
EP19840632.4A EP3832421A4 (en) 2018-07-27 2019-07-16 INFORMATION PROCESSING DEVICE, ACTION DETERMINATION PROCEDURE AND PROGRAM
US17/259,693 US20210316452A1 (en) 2018-07-27 2019-07-16 Information processing device, action decision method and program
PCT/JP2019/027903 WO2020022122A1 (ja) 2018-07-27 2019-07-16 情報処理装置、行動決定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141480A JP2020017206A (ja) 2018-07-27 2018-07-27 情報処理装置、行動決定方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020017206A true JP2020017206A (ja) 2020-01-30

Family

ID=69181594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141480A Pending JP2020017206A (ja) 2018-07-27 2018-07-27 情報処理装置、行動決定方法及びプログラム

Country Status (4)

Country Link
US (1) US20210316452A1 (ja)
EP (1) EP3832421A4 (ja)
JP (1) JP2020017206A (ja)
WO (1) WO2020022122A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022035927A (ja) * 2020-08-20 2022-03-04 上海姜歌机器人有限公司 ロボット障害回避処理方法、装置、ロボット

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11583997B2 (en) * 2018-09-20 2023-02-21 Sony Group Corporation Autonomous robot

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6604091B2 (en) * 1999-09-10 2003-08-05 Yamaha Hatsudoki Kabushiki Kaisha Interactive artificial intelligence
JP2003191189A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法
JP4281286B2 (ja) * 2002-03-18 2009-06-17 ソニー株式会社 ロボット装置及びその制御方法
JP4586138B2 (ja) * 2004-03-31 2010-11-24 株式会社国際電気通信基礎技術研究所 ロボット
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
JP4976903B2 (ja) * 2007-04-05 2012-07-18 本田技研工業株式会社 ロボット
JP5157595B2 (ja) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 接客システム及び接客方法
US8406925B2 (en) * 2009-07-01 2013-03-26 Honda Motor Co., Ltd. Panoramic attention for humanoid robots
JP5863423B2 (ja) * 2011-11-30 2016-02-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR101984214B1 (ko) * 2012-02-09 2019-05-30 삼성전자주식회사 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법
JP2013246588A (ja) 2012-05-24 2013-12-09 Sharp Corp 機能実行装置、空間情報利用システム、機能実行方法、制御プログラム、および、記録媒体
JP5983159B2 (ja) * 2012-08-01 2016-08-31 富士通株式会社 視線制御装置、視線制御方法及び視線制御プログラム並びに端末装置
US9395723B2 (en) * 2013-09-30 2016-07-19 Five Elements Robotics, Inc. Self-propelled robot assistant
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
JP6669948B2 (ja) * 2014-09-08 2020-03-18 日本電産株式会社 移動体制御装置及び移動体
CN109690435A (zh) * 2016-09-08 2019-04-26 Groove X 株式会社 保持自然的距离感的行为自主型机器人
US10366540B2 (en) * 2017-03-23 2019-07-30 Htc Corporation Electronic apparatus and method for virtual reality or augmented reality system
US10627828B2 (en) * 2017-06-30 2020-04-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and program recording medium
US10970527B2 (en) * 2017-09-01 2021-04-06 Digital Dream Labs, Llc Robot attention detection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022035927A (ja) * 2020-08-20 2022-03-04 上海姜歌机器人有限公司 ロボット障害回避処理方法、装置、ロボット

Also Published As

Publication number Publication date
WO2020022122A1 (ja) 2020-01-30
EP3832421A4 (en) 2021-10-06
US20210316452A1 (en) 2021-10-14
EP3832421A1 (en) 2021-06-09

Similar Documents

Publication Publication Date Title
JP4396273B2 (ja) ロボット装置及びその制御方法
US9552056B1 (en) Gesture enabled telepresence robot and system
JP7400923B2 (ja) 情報処理装置および情報処理方法
JP7375748B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7259843B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019138619A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004110802A (ja) 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置
US11780098B2 (en) Robot, robot control method, and recording medium
WO2020022122A1 (ja) 情報処理装置、行動決定方法及びプログラム
KR20200128486A (ko) 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법
JP7014168B2 (ja) 仮想生物制御システム、仮想生物制御方法、およびプログラム
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
US20210141381A1 (en) Information processing device, information processing system, behavior planning method, and computer program
WO2019123744A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2020151070A (ja) ロボット及びロボットの制御方法
JP7327391B2 (ja) 制御装置、制御方法及びプログラム
WO2020008754A1 (ja) 情報処理装置、最適時間推定方法、自己位置推定方法及びプログラムを記録した記録媒体
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP7238796B2 (ja) 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
JP7363823B2 (ja) 情報処理装置、および情報処理方法
WO2020166373A1 (ja) 情報処理装置および情報処理方法
JP2005271137A (ja) ロボット装置及びその制御方法
JPWO2020090332A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7459791B2 (ja) 情報処理装置、情報処理方法、およびプログラム