JP2019111603A - ロボット、ロボット制御システム、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボット制御システム、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP2019111603A
JP2019111603A JP2017245907A JP2017245907A JP2019111603A JP 2019111603 A JP2019111603 A JP 2019111603A JP 2017245907 A JP2017245907 A JP 2017245907A JP 2017245907 A JP2017245907 A JP 2017245907A JP 2019111603 A JP2019111603 A JP 2019111603A
Authority
JP
Japan
Prior art keywords
robot
unit
decoration
decoration information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017245907A
Other languages
English (en)
Other versions
JP6747423B2 (ja
Inventor
茉紀 前田
Miki Maeda
茉紀 前田
大塚 利彦
Toshihiko Otsuka
利彦 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017245907A priority Critical patent/JP6747423B2/ja
Priority to US16/212,304 priority patent/US11325262B2/en
Priority to EP18211410.8A priority patent/EP3501761A1/en
Priority to CN201811531141.0A priority patent/CN109955264B/zh
Publication of JP2019111603A publication Critical patent/JP2019111603A/ja
Application granted granted Critical
Publication of JP6747423B2 publication Critical patent/JP6747423B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】娯楽性を向上させることが可能なロボット、ロボット制御システム、ロボットの制御方法及びプログラムを提供する。【解決手段】ロボット100は、動作部120と装飾情報取得部150と動作制御部130とを備える。動作部120は、自装置に動作をさせる。装飾情報取得部150は、自装置に施された装飾を示す装飾情報を取得する。動作制御部130は、装飾情報取得部150によって取得された装飾情報に応じた動作をするように動作部120を制御する。【選択図】図3

Description

本発明は、ロボット、ロボット制御システム、ロボットの制御方法及びプログラムに関する。
人とコミュニケーションをするロボットが知られている。例えば、特許文献1は、歩行型のロボットに着脱可能な衣装を装着させる技術を開示している。このようにロボットに衣装等の装飾を施すことにより、ロボットに親近感を持たせ、外観上の娯楽性を向上させることができる。
特開2003−1582号公報
前記のような装飾を施すことが可能なロボットにおいて、外観上だけでなく外観に応じた動作によってより娯楽性を向上させることが求められている。
本発明は、以上のような課題を解決するためのものであり、娯楽性を向上させることが可能なロボット、ロボット制御システム、ロボットの制御方法及びプログラムを提供することを目的とする。
前記目的を達成するため、本発明に係るロボットの一様態は、
自装置に動作をさせる動作手段と、
前記自装置に施された装飾を示す装飾情報を取得する装飾情報取得手段と、
前記装飾情報取得手段によって取得された前記装飾情報に応じた前記動作をするように前記動作手段を制御する動作制御手段と、
を備える、
ことを特徴とする。
前記目的を達成するため、本発明に係るロボット制御システムの一様態は、
前記に記載の前記ロボットと、
前記ロボットを充電する充電ステーションと、
を備える、
ことを特徴とする。
前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
ロボットに動作をさせ、
前記ロボットに施された装飾を示す装飾情報を取得し、
取得された前記装飾情報に応じた前記動作をするように前記ロボットの前記動作を制御する、
ことを含む、
ことを特徴とする。
前記目的を達成するため、本発明に係るプログラムの一様態は、
ロボットのコンピュータを、
前記ロボットに動作をさせる動作手段、
前記ロボットに施された装飾を示す装飾情報を取得する装飾情報取得手段、
前記装飾情報取得手段によって取得された前記装飾情報に応じた前記動作をするように前記動作手段を制御する動作制御手段、
として機能させる、
ことを特徴とする。
本発明によれば、娯楽性を向上させることが可能なロボット、ロボット制御システム、ロボットの制御方法及びプログラムを提供することができる。
本発明の実施形態1に係るロボットの外観を示す図である。 実施形態1に係るロボットのハードウェア構成を示すブロック図である。 実施形態1に係るロボットの機能的な構成を示すブロック図である。 実施形態1に係るロボットが撮像される様子を示す図である。 実施形態1に係るロボットが撮像された撮像画像の例を示す図である。 実施形態1に係るロボットによって実行される装飾動作の例を示す図である。 実施形態1に係るロボットが装飾動作を実行している様子を示す第1の図である。 実施形態1に係るロボットが装飾動作を実行している様子を示す第2の図である。 実施形態1に係るロボットによって実行されるロボット制御処理の流れを示すフローチャートである。 本発明の実施形態2に係るロボット制御システムを示す図である。 実施形態2に係る充電ステーションの制御に係る構成を示すブロック図である。 実施形態2の変形例に係るロボット制御システムを示す図である。 本発明の実施形態3に係るロボットの機能的な構成を示すブロック図である。 実施形態3に係るロボットによって実行される単独動作の例を示す図である。 実施形態3に係るロボットによって実行されるロボット制御処理の流れを示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当する部分には同一符号を付す。
(実施形態1)
図1に、本発明の実施形態1に係るロボット100の外観を示す。ロボット100は、人(子供)を模した形状を有し、予め規定された動作プログラムに従って自律的に動作する装置である。
ロボット100は、自装置の外部に存在する所定の対象からの呼び掛け、接触等の外部からの刺激に反応して、様々に動作する。これによって、ロボット100は、所定の対象とコミュニケーションをとり、所定の対象と交流することができる。所定の対象とは、ロボット100の外部に存在し、且つ、ロボット100とコミュニケーション及び交流する相手となる対象である。所定の対象として、具体的には、ロボット100の所有者であるユーザ、ユーザの周囲の人間(ユーザの家族又は友人等)、ユーザの周囲の動物(ユーザ等に飼われているペット等)等が挙げられる。所定の対象は、コミュニケーション対象、コミュニケーション相手、交流対象、交流相手等とも言うことができる。
図1に示すように、ロボット100は、外観的には人(子供)を模した立体的な形状を有する。ロボット100は、例えばプラスチック等の硬質合成樹脂を主たる材料として作製されている。ロボット100は、頭部101と、胴体部102と、目部104と、口部105と、手部107と、足部108と、を備える。
頭部101、手部107及び足部108は、ロボット100に内蔵された駆動部材によって動かすことができる部位である。頭部101は、首に設けられた首の関節によって、ピッチ、ロール及びヨーの3方向に回転可能に胴体部102に取り付けられている。目部104には、目に関する画像(目玉等)を表示する表示部117が設けられている。口部105には、ロボット100の前方を撮像する撮像部115aが設けられている。
図2に、ロボット100のハードウェア構成を示す。図2に示すように、ロボット100は、制御部110と、記憶部111と、バッテリ112と、駆動ドライバ113と、可動部114と、センサ部115と、無線通信部116と、表示部117と、音声出力部118と、画像認識部119と、を備える。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等であって、様々な処理や演算を実行する中央演算処理部である。制御部110において、CPUが、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、自装置(ロボット100)全体の動作を制御する。制御部110は、制御手段として機能する。
記憶部111は、フラッシュメモリ、ハードディスク等の不揮発性メモリである。記憶部111は、OS(Operating System)及びアプリケーションプログラムを含む、制御部110が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部111は、制御部110が各種処理を行うことにより生成又は取得するデータを記憶する。記憶部111は、記憶手段として機能する。
バッテリ112は、電気エネルギーを蓄電し、ロボット100の各部に電力を供給する蓄電池である。バッテリ112は、ロボット100が充電ステーションに帰巣した際に、充電ステーションによって充電される。
駆動ドライバ113は、ロボット100の可動部114を駆動させるモータ、アクチュエータ等の駆動部材と、これらの駆動部材を駆動する駆動回路と、を備える。可動部114とは、可動する部位であって、具体的には頭部101、手部107及び足部108である。制御部110は、動作プログラムに基づいて、駆動回路に制御信号を送信する。駆動回路は、制御部110から送信された制御信号に従って、駆動部材に駆動用のパルス信号を供給する。駆動部材は、駆動回路から供給されたパルス信号に従って、可動部114を駆動させる。可動部114は、可動手段として機能する。
ロボット100は、駆動ドライバ113が可動部114を駆動させることによって、様々に動作することができる。例えば、ロボット100は、足部108を動かすことによって、前方又は後方に移動することができ、自装置の向きを変えることができる。また、ロボット100は、頭部101又は手部107を動かすことによって、人の動作及び人の仕草を真似ることができる。
センサ部115は、自装置の周囲又は内部の物理量を検知する複数のセンサを備える。図2に示すように、センサ部115は、周囲を撮像する撮像部115a、音を検知する音センサ115b、自装置への接触を検知する接触センサ115c、及び、周囲の物体までの距離を測定する距離センサ115d、を含む。また、センサ部115は、図示しないが、自装置の動きを検知する加速度センサ、自装置の回転を検知するジャイロセンサ、自装置の方角を検知する地磁気センサ、自装置の周囲の温度を検知する温度センサ、自装置の周囲の気圧を検知する気圧センサ等を含む。
撮像部115aは、いわゆるカメラであって、口部105に設置されている。撮像部115aは、被写体から射出された光を集光して被写体の画像を取得する画像取得部と、画像取得部によって取得された画像を処理する画像処理部と、を備えており、ロボット100の前方を撮像する撮像手段(ロボット側撮像手段)として機能する。音センサ115bは、頭部101に設置されており、所定の対象から発せられた音声、周囲の環境音等を検知する。ロボット100は、図示しないが、音センサ115bとして頭部101を囲むように複数のマイクを備えており、四方で発生した音を効率良く検知することができる。その他のセンサは、ロボット100の各所に設置され、ロボット100の周囲の状態又は内部の状態を示す情報を取得する。その他のセンサは、ロボット100の適宜の場所に設置される。センサ部115は、このような複数のセンサによって、ロボット100の周囲の状態又は内部の状態を示す情報を取得し、制御部110に供給する。
無線通信部116は、外部の機器と無線で通信するためのインタフェースを備える。無線通信部116は、制御部110の制御の下、例えばWi−Fi(Wireless Fidelity)等の無線LAN(Local Area Network)、Bluetooth(登録商標)、NFC(Near Field Communication)等の通信規格に従って、充電ステーションを含む外部の機器と無線通信する。無線通信部116は、通信手段として機能する。
表示部117は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)等の表示デバイスである。表示部117は、目部104の眼球部分に設置されており、図示しない表示駆動回路による制御のもと、状況に応じて様々な画像を表示する。表示部117は、表示手段として機能する。
音声出力部118は、スピーカと音声出力インタフェースとを備え、制御部110によって生成された音声データを音声に変換して外部に出力する。スピーカは、頭部101に設置されている。音声出力部118は、動物の鳴き声及び人間の言葉を含む様々な音声を出力する。例えば、ロボット100は、音センサ115bで所定の対象の音声を収集し、所定の対象の発話内容に対応する音声を音声出力部118から出力する。これにより、所定の対象と簡単な会話をすることができる。音声出力部118は、音声出力手段として機能する。
画像認識部119は、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等の画像処理用のプロセッサと、処理される画像を一時的に保存するバッファメモリと、を備え、撮像部115aによって撮像された画像を認識する。画像認識部119は、周知の画像認識手法を用いて、撮像部115aによって撮像された画像に含まれる人、顔、物体、パターン等を認識する。画像認識部119は、撮像部115aによって撮像された所定の対象の顔を認識する認識手段として機能する。
次に、図3を参照して、ロボット100の機能的な構成について説明する。図3に示すように、ロボット100は、機能的に、動作部120と、動作制御部130と、判定部140と、装飾情報取得部150と、動作設定部160と、を備える。制御部110において、CPUがROMに記憶されたプログラムをRAMに読み出して、そのプログラムを実行して制御することにより、動作制御部130、判定部140、装飾情報取得部150及び動作設定部160の各部として機能する。
動作部120は、ロボット100に動作をさせる部位である。具体的に説明すると、動作部120は、可動部114と表示部117と音声出力部118とを含み、可動部114を動かす、表示部117に画像を表示する、又は、音声出力部118から音声を出力することによって、ロボット100に動作させる。動作部120は、動作手段として機能する。
動作制御部130は、動作部120を制御して、予め規定された様々な動作をロボット100に実行させる。例えば、動作制御部130は、足部108を含む可動部114を動かすことによって、ロボット100の位置、向き、姿勢等を変更する。また、動作制御部130は、表示部117に画像を表示することによって、顔の表情を変更する。更に、動作制御部130は、音声出力部118から音声を出力することによって、所定の対象と対話する。動作制御部130は、制御部110が、駆動ドライバ113、可動部114、表示部117及び音声出力部118と協働することによって実現される。動作制御部130は、動作制御手段として機能する。
判定部140は、ロボット100に装飾が施されたか否かを判定する。装飾とは、例えば衣装、アクセサリ、眼鏡、時計等であって、ロボット100に外部から付加的に取り付けられる物品(部品)である。判定部140は、このような装飾が例えばユーザによってロボット100に取り付けられたか否かを判定する。
具体的に説明すると、判定部140は、ロボット100が撮像された撮像画像に基づいて、ロボット100に装飾が施されたか否かを判定する。図4に、装飾として帽子211が被せられたロボット100が撮像される様子を示す。また、図5に、撮像によって得られたロボット100の撮像画像200を示す。
図4に示すように、ユーザは、ロボット100に何らかの装飾を施すと、通信端末250を用いてロボット100の外観を撮像する。これにより、例えば図5に示したような撮像画像200を取得する。通信端末250は、例えばスマートフォン、携帯電話、デジタルカメラ等の撮像手段(通信端末側撮像手段)を備える機器である。ユーザは、通信端末250を用いてロボット100を撮像すると、撮像によって得られた撮像画像200を通信端末250からロボット100に送信する。判定部140は、通信端末250から送信された撮像画像200を、無線通信部116を介して取得する。このとき、撮像画像200は、通信端末250から直接的にロボット100に送信されても良いし、充電ステーション、サーバ等の他の装置を経由して間接的にロボット100に送信されても良い。
判定部140は、このようにしてロボット100の撮像画像200を取得すると、取得した撮像画像200を参照画像と比較することによって、ロボット100に装飾が施されたか否かを判定する。参照画像は、ロボット100のデフォルトの外観の基準となる画像であって、装飾が全く施されていない状態におけるロボット100の外観を示す画像である。判定部140は、画像認識部119の機能によって撮像画像200に撮像されたロボット100を認識する。そして、判定部140は、認識したロボット100の外観と、参照画像によって示されるロボット100の外観と、の間に違いが有る場合に、ロボット100に装飾が施されたと判定する。判定部140は、制御部110が無線通信部116及び画像認識部119と協働することによって実現される。判定部140は、判定手段として機能する。
装飾情報取得部150は、ロボット100に装飾が施された場合に、その装飾を示す装飾情報を取得する。装飾情報は、ロボット100に施された装飾が何であるのかを示す情報である。装飾情報取得部150は、ロボット100が撮像された撮像画像200に基づいて、装飾情報を取得する。
具体的に説明すると、装飾情報取得部150は、判定部140によってロボット100に装飾が施されたと判定された場合、撮像画像200に撮像されたロボット100と参照画像によって示されるロボット100との差分を取得する。そして、判定部140は、オブジェクト認識の手法により、取得した差分に対応するオブジェクトを識別する。
例えば、図5に示したように、ロボット100に帽子211が被せられた場合には、装飾情報取得部150は、ロボット100に施された装飾が帽子211であることを示す装飾情報を取得する。或いは、ロボット100に衣装が着せられた場合には、装飾情報取得部150は、ロボット100に施された装飾が衣装であることを示す装飾情報を取得する。装飾情報取得部150は、制御部110が画像認識部119と協働することによって実現される。装飾情報取得部150は、装飾情報取得手段として機能する。
動作設定部160は、装飾情報取得部150によって取得された装飾情報に応じて、動作部120にさせる動作を設定する。具体的に説明すると、動作設定部160は、予め規定された動作テーブル165を参照する。動作テーブル165は、ロボット100に施された装飾に対応する動作(以下では「装飾動作」と呼ぶ。)を定めたテーブルであって、予め記憶部111に記憶されている。
図6に、動作テーブル165の具体例を示す。図6に示すように、ロボット100に施された装飾と、その装飾が施されたロボット100にさせる装飾動作の内容と、が対応付けられている。例えば、(1)装飾として背の高い帽子が取り付けられた場合、動作設定部160は、ロボット100が移動する際に帽子が障害物に当たらないように、ロボット100の通行ルートを高さ制限の緩いルートに変更する。(2)装飾として厚手の冬服が着付けられた場合、動作設定部160は、頭部101、手部107及び足部108の可動域を狭めることにより、ロボット100の動きを鈍くする。(3)装飾としてサングラスが取り付けられた場合、動作設定部160は、表示部117の明度を下げることにより、目部104の消費電力を抑える。また、動作設定部160は、サングラスが取り付けられていない場合には、サングラスが取り付けられている場合に比べて、日当たりの良いルートを避けて通るように、ロボット100の通行ルートを変更する。(4)装飾として眼鏡が取り付けられた場合、動作設定部160は、手部107によって眼鏡を上げる仕草を設定する。(5)装飾として腕時計が取り付けられた場合、動作設定部160は、腕時計を見る仕草を設定する。その他、図6に示す(6)〜(12)のように、動作設定部160は、装飾としてカメラ、スカート等が施された場合に、その装飾を用いた機能又は技能を発揮するように装飾動作を設定する。
また、動作設定部160は、ロボット100に複数の装飾が施された場合に、複数の装飾に応じた動作を設定する。例えば、(13)筆に加えて絵描き帽が取り付けられた場合、動作設定部160は、筆のみが取り付けられた場合に比べて上手に絵を描くように、ロボット100の動作を設定する。また、(14)プレゼン資料に加えてレーザーポインタ又は指示棒が取り付けられた場合には、動作設定部160は、レーザーポインタ又は指示棒を使用してプレゼンを行うように、ロボット100の動作を設定する。
或いは、動作設定部160は、ロボット100に装飾が施された場合に、その装飾が施された場所に応じて動作を設定しても良い。例えば、(15)装飾として筆が利き手に取り付けられた場合には、筆が利き手とは反対の手に取り付けられた場合に比べて上手に絵を描くように、ロボット100の動作を設定する。また、(16)装飾としてリボンが頭に取り付けられた場合には、動作設定部160は、リボンを髪飾りであると認識して、女の子のように振る舞うようにロボット100の動作を設定する。これに対して、(17)装飾としてリボンが首に取り付けられた場合には、動作設定部160は、リボンをネクタイであると認識して、男の子のように振る舞うようにロボット100の動作を設定する。
このように、動作設定部160は、ロボット100に施された装飾に応じて、様々な動作を設定する。動作設定部160は、制御部110が記憶部111と協働することによって実現する。動作設定部160は、動作設定手段として機能する。
動作設定部160によって動作が設定されると、動作制御部130は、動作部120を制御して、設定された動作をロボット100に実行させる。言い換えると、動作制御部130は、ロボット100に装飾が施された場合に、その装飾に応じた装飾動作をするように動作部120を制御する。
例えば、装飾として厚手の冬服である衣装212が着付けられた場合、図7に示すように、動作制御部130は、手部107の可動域を狭める。具体的に説明すると、動作制御部130は、衣装212が着付けられていない場合に比べて、図7において矢印で示す方向における手部107の動きが小さくなるように、手部107の動作を制御する。或いは、装飾として眼鏡213が取り付けられた場合、図8に示すように、動作制御部130は、手部107を頭部101に移動させることにより、眼鏡213を上げる仕草を実行する。
このように、動作制御部130は、頭部101、手部107及び足部108を駆動させる、表示部117に画像を表示する、又は、音声出力部118から音声を出力することにより、図6に規定された様々な動作をロボット100に実行させる。装飾に応じてロボット100が様々に動作するため、ユーザを楽しませることができる。
以上のように構成されるロボット100において実行される処理の流れについて、図9に示すフローチャートを参照して、説明する。
図9に示すロボット制御処理は、ロボット100の電源が投入され、且つ、バッテリ112が充電されることによって、ロボット100が正常に動作可能な状態になると、開始する。
ロボット制御処理を開始すると、制御部110は、動作制御部130として機能し、動作部120に通常の動作を実行させる(ステップS1)。通常の動作とは、ロボット100に装飾が施されたか否かに関わらない、平常時の動作である。例えば、制御部110は、可動部114を動かしてロボット100の位置、向き、姿勢等を変更する。或いは、制御部110は、表示部117に画像を表示し、音声出力部118から音声を出力する。このように、制御部110は、予め規定された様々な動作を動作部120に実行させることにより、ロボット100としての一般的な振る舞いをさせる。
動作部120に通常の動作を実行させている間、制御部110は、判定部140として機能し、ロボット100に装飾が施されたか否かを判定する(ステップS2)。具体的に説明すると、制御部110は、ユーザによるロボット100の撮像によって得られた撮像画像200を取得し、取得した撮像画像200を参照画像と比較することにより、ロボット100に何らかの装飾が施されているか否かを判定する。
ロボット100に装飾が施されていないと判定した場合(ステップS2;NO)、制御部110は、ステップS1に留まり、引き続き動作部120に通常の動作を実行させる。
ロボット100に装飾が施されていると判定した場合(ステップS2;YES)、制御部110は、装飾情報取得部150として機能し、ロボット100に施された装飾情報を取得する(ステップS3)。具体的に説明すると、制御部110は、ロボット100の撮像画像200と参照画像との差分に対してオブジェクト認識を実行する。これにより、制御部110は、ロボット100に施された装飾が、例えば帽子211であるのか、衣装212であるのか、又は、眼鏡213であるのか等を識別する。
装飾情報を取得すると、制御部110は、動作設定部160として機能し、ロボット100に施された装飾に応じた装飾動作を設定する(ステップS4)。具体的に説明すると、制御部110は、図6に示した動作テーブルを参照して、ロボット100に施されている装飾に対応する動作を特定し、特定した動作をロボット100に実行させる動作として設定する。
装飾動作を設定すると、制御部110は、動作制御部130として機能し、設定した動作をロボット100に実行させる(ステップS5)。具体的に説明すると、制御部110は、可動部114、表示部117又は音声出力部118を制御して、例えば図7又は図8に示したような、装飾に対応する動作をロボット100に実行させる。
装飾動作をロボット100に実行させると、制御部110は、処理をステップS1に戻し、ステップS1〜ステップS5の処理を繰り返す。言い換えると、制御部110は、ロボット100に通常の動作を実行させながら、ロボット100に装飾が施される毎に、その装飾に応じた動作をロボット100に実行させる処理を繰り返す。
以上説明したように、実施形態1に係るロボット100は、自装置に装飾が施されているか否かを判定し、自装置に装飾が施されていると判定した場合に、その装飾に応じた動作を実行する。これにより、ユーザが自分好みに装飾可能なロボット100において、ロボット100に施した装飾に反応してロボット100が様々に動作するため、娯楽性をより向上させることができる。
なお、前記実施形態1では、判定部140は、ユーザによって撮像された撮像画像200に基づいて、ロボット100に装飾が施されているか否かを判定した。しかしながら、本発明において、判定部140は、ロボット100に装飾が施されたか否かを、接触センサ115c又はスイッチによって判定しても良い。例えば、ロボット100における装飾が施される可能性の有る複数の位置に接触センサ115c又はスイッチが設けられており、装飾が帽子211であれば頭部101に装着し、装飾が衣装212であれば胴体部102に装着し、装飾が眼鏡213であれば目部104に装着する等のように、装飾の種類によって装着可能な場所が予め決められていても良い。この場合、判定部140は、いずれかの位置の接触センサ115cによって接触を検知した場合、又は、いずれかの位置のスイッチによって押圧を検知した場合に、装飾が施されたと判定する。そして、装飾情報取得部150は、どの位置の接触センサ115c又はスイッチによって装飾を検知したかによって、その装飾が例えば帽子211であるのか、衣装212であるのか、又は、眼鏡213であるのかを示す装飾情報を取得する。
又は、装飾に予めIC(Integrated Circuit)タグが組み込まれており、判定部140は、ICタグを用いたNFC等の無線通信によって、ロボット100に装飾が施されたか否かを判定しても良い。具体的に説明すると、判定部140は、ロボット100に装飾が施された際に、その装飾に組み込まれたICタグから発せられる無線信号を、無線通信部116の機能によって受信する。判定部140は、このようにしてICタグから無線信号を受信した場合に、装飾が施されたと判定する。また、ICタグから発せられる無線信号には、装飾を識別するための識別情報が含まれている。装飾情報取得部150は、この識別情報によって、ロボット100に施された装飾が例えば帽子211であるのか、衣装212であるのか、又は眼鏡213であるのかを示す装飾情報を取得する。
(実施形態2)
次に、本発明の実施形態2について説明する。なお、実施形態1と同様の構成及び機能については、適宜説明を省略する。
前記実施形態1に係るロボット100は、ユーザによって撮像された撮像画像200に基づいて、ロボット100に装飾が施されているか否かを判定し、装飾情報を取得した。これに対して、実施形態2に係るロボット100は、充電ステーションに備えられた鏡を利用して自装置の外観を撮像して、撮像画像200を取得する。以下、説明する。
図10に、実施形態2に係るロボット制御システム300を示す。ロボット制御システム300は、ロボット100と、充電ステーション310と、を備える。ロボット100は、実施形態1と同様の構成を備える。
充電ステーション310は、ロボット100を充電するための設備である。充電ステーション310は、例えばロボット100と同じ部屋内のように、ロボット100が自律的に充電ステーション310まで移動(帰巣)できる適宜の場所に設置される。
充電ステーション310は、図10に示すように、上部に鏡部312を備え、下部に台座311を備える。台座311は、鏡部312を指示する柱状の支持部と、ロボット100を乗せる平板状の底部と、を備える。また、充電ステーション310は、図11に示すように、制御に係る構成として、制御部320と、記憶部321と、通信部322と、電源部323と、充電部324と、を備える。
制御部320は、CPU、ROM及びRAMを備える。CPUは、例えばマイクロプロセッサ等であって、様々な処理や演算を実行する中央演算処理部である。制御部320において、CPUが、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、充電ステーション310全体の動作を制御する。
記憶部321は、フラッシュメモリ、ハードディスク等の不揮発性メモリである。記憶部321は、制御部320が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部321は、制御部320が各種処理を行うことにより生成又は取得するデータを記憶する。
通信部322は、外部の機器と有線又は無線で通信するためのインタフェースを備える。通信部322は、制御部320の制御のもと、Wi−Fi等の無線LAN、Bluetooth(登録商標)等の通信規格に従って、ロボット100と無線通信する。
電源部323は、電源回路を備え、充電ステーション310の各部に必要な電源を作り出して供給する。充電部324は、充電回路を備え、ロボット100のバッテリ112を充電する。
充電部324は、図10に示すように、台座311の底部に設けられている。ロボット100は、充電ステーション310に帰巣した際、充電部324の上に乗った状態で留まる。ロボット100の足部108の底面には、充電部324からの充電を受けるための電極が設けられている。充電部324は、電源部323によって作り出された電力を、足部108の電極を介してロボット100に供給することにより、帰巣したロボット100のバッテリ112に充電する。
鏡部312は、可視光を反射する鏡面を、充電ステーション310に帰巣したロボット100と対向する位置に備える。ロボット100は、充電部324によって充電されている間、その前方を鏡部312の方に向ける。この状態において、ロボット100の撮像部115aの撮像範囲(図10において破線で示す範囲)には、鏡部312の鏡面が含まれる。
鏡部312の鏡面には、充電部324で充電中のロボット100の撮像部115aから見た場合に、図10において一転鎖線で示される範囲が鏡像として映る。このように、鏡部312の鏡面は、充電中のロボット100の撮像部115aの撮像範囲にロボット100の全体が鏡像として含まれるように、その形状、寸法及び設置位置が定められている。
充電ステーション310の位置は、記憶部111に予め記憶されている。ロボット100は、所定の充電条件が満たされると、バッテリ112に充電するために、可動部114を駆動させてロボット100を充電ステーション310の位置に移動させる。所定の充電条件は、ロボット100に充電するための予め定められた条件であって、具体的にはバッテリ112の充電量が規定値を下回った場合、又は、予め規定された定期的なタイミングが到来した場合に、満たされる。このような充電条件が満たされてロボット100が充電ステーション310に移動すると、充電部324による充電が開始される。充電が開始されると、撮像部115aは、鏡部312を介して充電中の自装置の外観を撮像して、撮像画像200を取得する。
判定部140は、このように自装置の撮像部115aによって得られた撮像画像200に基づいて、ロボット100に装飾が施されたか否かを判定する。具体的に説明すると、判定部140は、撮像部115aによってロボット100の撮像画像200が取得されると、実施形態1と同様に、撮像画像200を参照画像と比較することによって、ロボット100に装飾が施されたか否かを判定する。
装飾情報取得部150は、判定部140によってロボット100に装飾が施されたと判定された場合に、その装飾を示す装飾情報を取得する。具体的に説明すると、装飾情報取得部150は、画像認識部119によって撮像画像200と参照画像との差分を識別することにより、ロボット100に施された装飾が例えば帽子211であるのか、衣装212であるのか、眼鏡213であるのか等を判別する。動作設定部160は、装飾情報取得部150によって取得された装飾情報に応じて、動作部120にさせる動作を設定する。動作制御部130は、動作設定部160によって設置された動作をするように、動作部120を制御する。これら各部の機能は、実施形態1で説明したものと同様である。
以上説明したように、実施形態2に係るロボット100は、充電ステーション310で充電している最中に、充電ステーション310に備えられた鏡部312を利用して自身の外観を撮像することにより、ロボット100に施された装飾を判定及び識別する。このように、実施形態2に係るロボット100は、鏡部312を利用して自身の外観を撮像するため、実施形態1のように、通信端末250等の外部の機器によってロボット100を撮像する必要が無い。そのため、装飾に応じて様々な動作するロボット100において、より手間の少ない方法で、ロボット100に施された装飾を判定及び識別することができる。
なお、上記実施形態2では、鏡部312は充電ステーション310に備えられていた。しかしながら、本発明において、鏡部312は、充電ステーション310以外の場所に備えられていても良い。例えば、家具として利用される一般的な鏡が、ロボット100の外観を撮像するための鏡部312として用いられても良い。この場合、鏡部312の位置は記憶部111に予め記憶されており、動作部120は、例えば予め定められた定期的なタイミングでロボット100を鏡部312が備えられた位置に移動させる。そして、撮像部115aは、動作部120がロボット100を鏡部312の前に移動させた際に、鏡部312を介してロボット100を撮像して撮像画像200を取得する。
又は、ロボット100が、鏡部312を用いずに、自装置に備えられた撮像部115aによって自装置の外観を撮像しても良い。例えば撮像部115aが手部107の先端に備えられている場合、ロボット100は、手部107を伸ばして撮像部115aの撮像範囲を自装置の方に向けることにより、自装置の外観を撮像することができる。このように、ロボット100の構成によっては、鏡部312を利用しなくても、自装置が撮像された撮像画像200を取得することができる。
又は、例えば図12に示すように、充電ステーション310aがロボット100を撮像する撮像部330を備えていても良い。図12に示すロボット制御システム300aにおいて、充電ステーション310aは、図10において鏡部312が備えられていた位置に撮像部330を備えている。撮像部330は、ステーション側撮像手段として機能し、図12において破線で示す範囲を撮像範囲として撮像する。これにより、撮像部330は、充電部324で充電中のロボット100の外観を示す撮像画像200を取得する。制御部320は、通信部322と協働することにより送信手段として機能し、撮像部330によって撮像された撮像画像200をロボット100に送信する。
ロボット100において、制御部110は、無線通信部116と協働することにより受信手段として機能し、充電ステーション310aから送信された撮像画像200を受信する。そして、判定部140は、受信された撮像画像200に基づいて、ロボット100に施された装飾を判定する。装飾情報取得部150は、判定部140によってロボット100に装飾が施されたと判定された場合に、その装飾を示す装飾情報を取得する。このように充電ステーション310aが撮像部330を備えることにより、鏡を利用しなくてもロボット100の外観を撮像してロボット100に施された装飾を判定することができる。
(実施形態3)
次に、本発明の実施形態3について説明する。なお、実施形態1又は2と同様の構成及び機能については、適宜説明を省略する。
図13に、実施形態3に係るロボット100aの機能的な構成を示す。図13に示すように、実施形態3に係るロボット100aは、機能的に、動作部120と、動作制御部130と、判定部140と、装飾情報取得部150と、動作設定部160と、を備える。これら各部は、実施形態1又は2で説明したものと同様に機能する。これらの機能に加えて、実施形態3に係るロボット100aは、存在検知部170と、行動検知部180と、反応取得部190と、を備える。制御部110において、CPUがROMに記憶されたプログラムをRAMに読み出して、そのプログラムを実行して制御することにより、これらの各部として機能する。
存在検知部170は、ロボット100aの外部に存在する所定の対象、すなわちユーザ等の存在を検知する。具体的に説明すると、存在検知部170は、撮像部115aによって周囲を撮像して、周囲の様子を表す画像を取得する。そして、存在検知部170は、撮像部115aによって取得した画像を画像認識部119によって認識し、画像中に人間又は動物が写っているか否かを判定する。このように、存在検知部170は、制御部110が撮像部115a及び画像認識部119と協働することによって実現される。存在検知部170は、存在検知手段として機能する。
行動検知部180は、ロボット100aに対する所定の対象の行動を検知する。ロボット100aに対する所定の対象の行動とは、所定の対象がロボット100aと交流(コミュニケーション)をするために働きかける、対話又は接触等の行動を意味する。所定の対象は、ロボット100aに対する行動として、例えば、ロボット100aに対して呼びかける、ロボット100aの表面に接触する、又は、ロボット100aに対して身振りを示す。行動検知部180は、このような所定の対象による行動を、センサ部115の各種センサによって検知する。
具体的に説明すると、所定の対象から呼びかけられた場合、行動検知部180は、音センサ115bを介して所定の対象から発せられた音声を検知する。また、所定の対象から接触された場合、行動検知部180は、接触センサ115cを介して接触を検知する。又は、所定の対象から身振りを示された場合、行動検知部180は、撮像部115aを介して身振りを検知する。このように、行動検知部180は、制御部110がセンサ部115の各種センサと協働することによって実現される。行動検知部180は、行動検知手段として機能する。
動作制御部130は、行動検知部180がロボット100aに対する所定の対象の行動を検知した場合、検知された行動に応答するための交流動作をするように動作部120を制御する。交流動作とは、所定の対象と交流(コミュニケーション)をするための動作であって、応答動作(応答行動)とも呼ぶ。
具体的に説明すると、動作制御部130は、行動検知部180が所定の対象からの音声、接触、身振り等を検知した場合、頭部101を動かして所定の対象の方に向ける、又は、足部108を動かして所定の対象の方に移動することにより、交流動作を実行する。或いは、動作制御部130は、表示部117に画像を表示する、又は、音声出力部118から音声を出力することにより、交流動作を実行しても良い。このように、動作制御部130は、行動検知部180が検知した所定の対象の行動に応じて、交流動作として様々な動作をロボット100aに実行させる。これにより、所定の対象は、ロボット100aとコミュニケーションをとって楽しむことができる。
一方で、動作制御部130は、行動検知部180がロボット100aに対する所定の対象の行動を検知していない場合、交流動作とは異なる単独動作をするように動作部120を制御する。単独動作とは、所定の対象とは独立してロボット100aが単独で実行する動作であって、所定の対象との交流(コミュニケーション)を介さない自発的な動作である。単独動作は、単独行動、単独遊びとも呼ぶ。
言い換えると、動作制御部130は、ロボット100aが周囲に存在するいずれかの対象と交流する場合には、前述した交流動作をロボット100aに実行させ、一方で、ロボット100aが周囲に存在するどの対象とも交流していない場合には、ロボット100aに単独動作を実行させるこれにより、実際の人(子供)を模した自然な動作をロボット100aに実行させ、ロボット100aに対する親しみを向上させることができる。
図14に、単独動作の例を示す。動作制御部130は、行動検知部180がロボット100aに対する所定の対象の行動を最後に検知してから規定時間が経過した場合、図14に示すいずれかの単独動作をロボット100aに実行させる。
具体的に説明すると、動作制御部130は、ロボット100aの感情に応じて異なる単独動作をロボット100aに実行させる。ロボット100aは、具体的には図14に示すように、2つの感情値"calm"及び"excite"によって、「心細い気分」、「やる気がある気分」、「楽しい気分」及び「落ち着いた気分」の4つの感情を示す。動作制御部130は、所定の対象との交流における所定の対象の行動及びその他の状況によって、2つの感情値を変化させ、ロボット100の感情を変化させる。
例えば、ロボット100aが「心細い気分」の感情を示している場合、動作制御部130は、「何かを探して部屋の隅に移動して見つめる。」等のうちのいずれか1つの単独動作をロボット100aに実行させる。ロボット100aが「やる気がある気分」の感情を示している場合、動作制御部130は、「外に行きたそうに部屋の端に移動してうろうろする。」等のうちのいずれか1つの単独動作をロボット100aに実行させる。ロボット100aが「楽しい気分」の感情を示している場合、動作制御部130は、「歌う。」等のうちのいずれか1つの単独動作をロボット100aに実行させる。ロボット100aが「落ち着いた気分」の感情を示している場合、動作制御部130は、「窓の外をじっと見つめる。」等のうちのいずれか1つの単独動作をロボット100aに実行させる。各感情において実行可能な複数の単独動作のうちのどの単独動作を実行するかは、ランダムに決定される。
また、ロボット100aの単独動作は、実施形態1の図6に記載の装飾動作を含むようにしてもよい。
この他、図示しないが、動作制御部130は、ロボット100aの周囲の環境又は時間に起因する単独動作をロボット100aに実行させる。ロボット100aの周囲の環境とは、例えば音量、温度、気圧、明るさ、障害物等のようなロボット100aの外部の情報であって、センサ部115に備えられた各種センサによって検知される。時間は、現在の時刻、日付、季節等の情報である。例えば、「音楽が聞こえた。」、「人同士の会話が聞こえた。」等の環境に関する予め定められた条件が成立すると、動作制御部130は、対応する単独動作をロボット100aに実行させる。また、「寝る時間になった。」、「正月又は誕生日等の朝になった。」等の時間に関する予め定められた条件が成立すると、動作制御部130は、対応する単独動作をロボット100aに実行させる。
以上のような交流動作及び単独動作は、記憶部111に記憶された動作テーブル165のうちの一部として予め規定されている。動作設定部160は、交流動作又は単独動作の条件が成立すると、動作テーブル165を参照して、ロボット100aに実行させる交流動作又は単独動作を設定する。そして、動作制御部130は、動作設定部160によって設定された交流動作又は単独動作をロボット100aに実行させる。
図13に戻って、反応取得部190は、ロボット100aが交流動作をしている際に、動作制御部130が装飾動作として第1の動作をするように動作部120を制御した場合、第1の動作に対する所定の対象の反応を取得する。前述したように、動作制御部130は、所定の対象の存在を検知し、且つ、ロボット100aに対する所定の対象の行動を検知した場合、交流動作をロボット100aに実行させる。このようにロボット100aが交流動作を実行している際において、ロボット100aに装飾が施されると、動作制御部130は、動作部120を制御して、装飾動作として、例えば図6に示した動作のうちのいずれかをロボット100aに実行させる。反応取得部190は、このようにして動作制御部130が装飾動作をロボット100aに実行させた場合に、その動作に対する所定の対象の反応を取得する。
具体的に説明すると、反応取得部190は、動作制御部130が装飾動作をロボット100aに実行させた後の所定時間において、所定の対象から発せられた音声、所定の対象からのロボット100aへの接触、又は、所定の対象の身振りを検知することで、所定の対象の反応を取得する。例えば、所定の対象から音声が発せられた場合、反応取得部190は、音センサ115bを介して音声を検知する。また、所定の対象からロボット100aに接触された場合、反応取得部190は、接触センサ115cを介して接触を検知する。又は、所定の対象から身振りを示された場合、反応取得部190は、撮像部115aを介して身振りを検知する。このように、反応取得部190は、制御部110がセンサ部115の各種センサと協働することによって実現される。反応取得部190は、反応取得手段として機能する。
動作制御部130は、反応取得部190によって取得された反応に応じて、第1の動作とは異なる第2の動作をするように動作部120を制御する。第1の動作とは、ロボット100aに施された装飾に応じた動作であって、例えば図6に示した動作テーブル165に規定された動作のうちのいずれかである。これに対して、第2の動作は、第1の動作とは異なる動作であって、第1の動作よりもより詳細に規定された動作(詳細動作)である。例えば、第2の動作は、第1の動作よりも、可動部114をより大きく、又は、より長い時間をかけて動かす動作として規定される。又は、第2の動作は、第1の動作よりも、可動部114と表示部117と音声出力部118とをより複雑に組み合わせて規定されても良い。第2の動作として規定される動作は、第1の動作と同様に、ロボット100aに施された装飾に応じて異なっていても良いし、所定の対象の反応に応じて異なっていても良い。
第2の動作は、第1の動作と共に、記憶部111に記憶された動作テーブル165のうちの一部として予め規定されており、動作設定部160は、動作テーブル165を参照して第2の動作を設定する。又は、第2の動作は、充電ステーション310,310a等の外部の機器に記憶された動作プログラムに規定されており、動作設定部160が、外部の機器から無線通信を介して動作プログラムを取得して第2の動作を設定しても良い。
より詳細に説明すると、動作設定部160は、反応取得部190によって取得された反応が特定の条件を満たした場合に、ロボット100aに実行させる動作として第2の動作を設定する。ここで、特定の条件は、装飾動作に対する所定の対象の反応が想定範囲外であると認められるような場合に成立する。例えば、反応取得部190が所定の対象の反応として音声を検知した場合、特定の条件は、検知した音声の大きさが予め規定された第1の閾値よりも大きい場合に成立する。また、反応取得部190が所定の対象の反応としてロボット100aへの接触を検知した場合、特定の条件は、検知した接触の強さが予め規定された第2の閾値よりも大きい場合に成立する。或いは、反応取得部190が所定の対象の反応として身振りを検知した場合、特定の条件は、検知した身振りの大きさが予め規定された第3の閾値よりも大きい場合に成立する。
このように、特定の条件は、装飾動作に対する所定の対象の反応が通常よりも大きいと認められる場合に成立する。第1の閾値から第3の閾値は、所定の対象の反応が通常よりも大きい場合に特定の条件が成立するように、適宜の値に予め設定される。
動作設定部160は、所定の対象の反応が特定の条件を満たした場合、ロボット100aが実行する動作として、直前に実行した装飾動作とは異なる第2の動作を設定する。そして、動作制御部130は、動作設定部160によって設定された第2の動作をするように動作部120を制御する。このように、所定の対象の反応に応じてロボット100aが更なる動作を実行することにより、ロボット100aの娯楽性を更に向上させることができる。
以上のように構成されるロボット100aにおいて実行される処理の流れについて、図15に示すフローチャートを参照して、説明する。
図15に示すロボット制御処理は、ロボット100の電源が投入され、且つ、バッテリ112が充電されることによって、ロボット100が正常に動作可能な状態になると、開始する。
図15に示すロボット制御処理において、ステップS1からステップS5の処理は、図9に示した実施形態1のロボット制御処理におけるステップS1からステップS5の処理と同様である。具体的に説明すると、制御部110は、動作部120に通常の動作を実行させ(ステップS1)、その間、ロボット100に装飾が施されたか否かを判定する(ステップS2)。判定の結果、ロボット100に装飾が施されていないと判定した場合(ステップS2;NO)、制御部110は、ステップS1において引き続き動作部120に通常の動作を実行させる。これに対して、ロボット100に装飾が施されていると判定した場合(ステップS2;YES)、制御部110は、ロボット100に施された装飾情報を取得する(ステップS3)。装飾情報を取得すると、制御部110は、ロボット100に施された装飾に応じた装飾動作を設定し(ステップS4)、設定した装飾動作をロボット100aに実行させる(ステップS5)。
このようにして装飾動作をロボット100aに実行させると、制御部110は、存在検知部170及び行動検知部180として機能し、所定の対象と交流中であるか否かを判定する(ステップS6)。具体的に説明すると、制御部110は、所定の対象の存在を検知し、且つ、ロボット100aに対する所定の対象の行動を検知した場合に、所定の対象の行動に応答するための交流動作をロボット100aに実行させる。一方で、制御部110は、所定の対象の存在を検知していても、ロボット100aに対する所定の対象の行動を検知していない場合には、所定の対象とは独立した動作である単独動作をロボット100aに実行させる。制御部110は、このような2種類の動作のうちの交流動作を実行中である場合、又は、現在のタイミングが交流動作を実行してから次に単独動作を実行するまでの間である場合に、所定の対象と交流中であると判定する。
判定の結果、所定の対象と交流中でないと判定した場合(ステップS6;NO)、制御部110は、以降の処理をスキップして、処理をステップS1に戻す。これに対して、所定の対象と交流中であると判定した場合(ステップS6;YES)、制御部110は、反応取得部190として機能し、ステップS5において実行した装飾動作に対する所定の対象の反応を取得する(ステップS7)。具体的に説明すると、制御部110は、装飾動作を実行した直後の所定時間において、所定の対象から発せられた音声、所定の対象からのロボット100aへの接触、又は、所定の対象の身振りを検知する。
所定の対象の反応を取得すると、制御部110は、取得した反応が想定範囲外であるか否かを判定する(ステップS8)。具体的に説明すると、制御部110は、装飾動作に対する反応として取得された音声の大きさ、接触の強さ、又は、身振りの大きさが、予め規定された閾値よりも大きいか否かを判定する。
所定の対象の反応が想定範囲外であると判定した場合(ステップS8;YES)、制御部110は、動作設定部160として機能し、詳細動作を設定する(ステップS9)。具体的に説明すると、制御部110は、ステップS5においてロボット100aに実行させた装飾動作とは異なる動作を、ロボット100aに実行させる動作として設定する。
詳細動作を設定すると、制御部110は、動作制御部130として機能し、設定した詳細動作をロボット100aに実行させる(ステップS10)。具体的に説明すると、制御部110は、可動部114、表示部117又は音声出力部118を制御して、所定の対象の反応に応じた詳細動作をロボット100aにさせる。
これに対して、所定の対象の反応が想定範囲内であると判定した場合(ステップS8;NO)、制御部110は、ステップS9,ステップS10の処理をスキップして、詳細動作をロボット100aに実行させない。
その後、制御部110は、処理をステップS1に戻し、ステップS1〜ステップS10の処理を繰り返す。言い換えると、制御部110は、ロボット100aに通常の動作を実行させながら、ロボット100aに装飾が施される毎に、その装飾に応じた動作をロボット100aに実行させ、更に所定の対象の反応に応じて、より詳細な動作をロボット100aに実行させる処理を繰り返す。
以上説明したように、実施形態3に係るロボット100aは、所定の対象と交流中に装飾動作を実行した場合に、その装飾動作に対する所定の対象の反応に応じて、装飾動作とは異なる動作を実行する。このように、実施形態3に係るロボット100aは、自装置に施された装飾に応じて動作するだけでなく、所定の対象の反応に対して応答するように更に動作するため、ユーザをより楽しませることができ、娯楽性をより向上させることができる。
なお、前記実施形態3において、ロボット100aが交流動作を実行している際における装飾動作と、ロボット100aが単独動作を実行している際における装飾動作とは、ロボット100aに同じ装飾が施された場合であっても、異なっていても良い。例えば、動作制御部130は、ロボット100aが交流動作を実行している際には、装飾動作として、所定の対象が反応し易い動作をロボット100aに実行させ、ロボット100aが単独動作を実行している際には、単独動作の一環として装飾動作をロボット100aに実行させても良い。このように、交流動作中であるか単独動作中であるかによって、装飾動作として状況に合わせた動作をロボット100aに実行させることにより、より娯楽性を向上させることができる。
(変形例)
以上に本発明の実施形態について説明したが、前記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、前記実施形態では、動作設定部160は、ロボット100,100a内に予め記憶された動作テーブル165に基づいて、装飾動作を設定した。しかしながら、本発明において、動作設定部160は、装飾動作を定義したプログラムを無線通信部116の機能によって外部の機器から取得しても良い。例えば、動作設定部160は、ロボット100,100aに装飾が施されたことに応答して充電ステーション310,310aと無線通信し、充電ステーション310,310aからその装飾に対応する動作を定義したプログラムを取得しても良い。或いは、動作設定部160は、ロボット100,100aに装飾が施されたことに応答してインターネット等の広域ネットワークを介して外部のサーバと通信し、外部のサーバからその装飾に対応する動作を定義したプログラムを取得しても良い。また、装飾内のICタグに、その装飾に対応する動作を定義したプログラムが予め組み込まれていても良い。この場合、動作設定部160は、ロボット100,100aに装飾が施された際に、ICタグから発せられる無線信号を受信することにより、その装飾に対応する動作を定義したプログラムを取得する。
また、動作制御部130は、図6に示した動作以外の様々な装飾動作をロボット100,100aに実行させても良い。更に、装飾毎に複数の装飾動作が対応付けられており、動作制御部130は、ロボット100,100aに施された装飾に対応する複数の装飾動作のうちから、現在のバッテリ112の充電量の範囲で実施可能な装飾動作を選択し、選択した装飾動作をロボット100,100aに実行させても良い。
前記実施形態では、ロボット100,100aが、自装置に装飾が施されたか否かを判定する判定部140を備えていた。しかしながら、本発明において、ロボット100,100aの外部の機器が判定部140の機能を備えていても良い。外部の機器とは、例えば充電ステーション310,310a、通信端末250等である。この場合、外部の機器が、制御部110、画像認識部119等に相当する構成を備えており、ロボット100,100aの外観が撮像された撮像画像200に基づいて、ロボット100,100aに施された装飾を判定する。ロボット100において、装飾情報取得部150は、無線通信部116を介して外部の機器と通信することにより、装飾情報として、外部の機器によって判定された判定結果を外部の機器から取得する。このように判定部140の機能を外部の機器に設けることで、ロボット100,100aの構成を簡略化することができる。
前記実施形態では、ロボット100,100aは、人を模したロボットであった。しかしながら、本発明に係るロボット100,100aは、人を模した形状に限らず、どのような形状を有していても良い。例えば、本発明に係るロボット100,100aは、外観的に犬、猫、鼠、兎等の動物(ペット)を模したロボットであっても良い。
前記実施形態では、表示部117は目部104に設けられており、撮像部115aは口部105に設けられていた。しかしながら、本発明において、表示部117は目部104以外の場所に設けられていても良いし、撮像部115aは口部105以外の場所(例えば鼻部等)に設けられていても良い。
前記実施形態では、制御部110において、CPUがROMに記憶されたプログラムを実行することによって、図3に示した各部として機能した。しかしながら、本発明において、制御部110は、CPUの代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、図3に示した各部として機能しても良い。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。
なお、本発明に係る機能を実現するための構成を予め備えたロボットとして提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係るロボットとして機能させることもできる。すなわち、前記実施形態で例示したロボット100,100aによる各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係るロボットとして機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
自装置に動作をさせる動作手段と、
前記自装置に施された装飾を示す装飾情報を取得する装飾情報取得手段と、
前記装飾情報取得手段によって取得された前記装飾情報に応じた前記動作をするように前記動作手段を制御する動作制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記装飾情報取得手段は、前記自装置が撮像された撮像画像に基づいて、前記装飾情報を取得する、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記自装置を撮像する撮像手段、を更に備え、
前記装飾情報取得手段は、前記撮像手段によって前記自装置が撮像された前記撮像画像に基づいて、前記装飾情報を取得する、
ことを特徴とする付記2に記載のロボット。
(付記4)
前記撮像手段は、鏡に映った前記自装置の鏡像を撮像する、
ことを特徴とする付記3に記載のロボット。
(付記5)
前記動作手段は、前記自装置を移動させ、
前記撮像手段は、前記動作手段が前記自装置を前記鏡が備えられた位置に移動させた際に、前記鏡に映った前記自装置の前記鏡像を撮像する、
ことを特徴とする付記4に記載のロボット。
(付記6)
前記鏡は、前記自装置を充電する充電ステーションに備えられ、
前記撮像手段は、前記自装置が前記充電ステーションによって充電されている際に、前記鏡を介して前記自装置を撮像する、
ことを特徴とする付記5に記載のロボット。
(付記7)
前記自装置に前記装飾が施されたか否かを判定する判定手段、を更に備え、
前記装飾情報取得手段は、前記判定手段によって前記自装置に前記装飾が施されたと判定された場合に、前記装飾情報を取得する、
ことを特徴とする付記1乃至6のいずれか1つに記載のロボット。
(付記8)
前記自装置の外部の機器が、前記自装置が撮像された撮像画像に基づいて、前記自装置に施された前記装飾を判定し、
前記装飾情報取得手段は、前記装飾情報として、前記外部の機器によって判定された判定結果を前記外部の機器から取得する、
ことを特徴とする付記1乃至6のいずれか1つに記載のロボット。
(付記9)
前記自装置に対する所定の対象の行動を検知する行動検知手段、を更に備え、
前記動作制御手段は、前記行動検知手段が前記行動を検知した場合、前記行動に応答するための交流動作をするように前記動作手段を制御し、前記行動検知手段が前記行動を検知していない場合、前記所定の対象とは独立して前記自装置が単独で実行する前記動作であって、前記所定の対象との交流を介さない自発的な単独動作をするように前記動作手段を制御する、
ことを特徴とする付記1乃至8のいずれか1つに記載のロボット。
(付記10)
前記単独動作は、前記装飾情報に応じた前記動作を含む、
ことを特徴とする付記9に記載のロボット。
(付記11)
前記自装置が前記交流動作をしている際に、前記動作制御手段が前記装飾情報に応じた前記動作として第1の動作をするように前記動作手段を制御した場合、前記第1の動作に対する前記所定の対象の反応を取得する反応取得手段、を更に備え、
前記動作制御手段は、前記反応取得手段によって検知された前記反応に応じて、前記第1の動作とは異なる第2の動作をするように前記動作手段を制御する、
ことを特徴とする付記9又は10に記載のロボット。
(付記12)
前記動作制御手段は、前記反応取得手段によって検知された前記所定の対象の前記反応が想定範囲外である場合に、前記第2の動作をするように前記動作手段を制御し、
前記第2の動作は、前記第1の動作よりもより詳細に規定された詳細動作である、
ことを特徴とする付記11に記載のロボット。
(付記13)
前記所定の対象は、人間又は動物である、
ことを特徴とする付記9乃至12のいずれか1つに記載のロボット。
(付記14)
前記自装置の前記装飾は、衣装又はアクセサリを含む、
ことを特徴とする付記1乃至13のいずれか1つに記載のロボット。
(付記15)
付記1乃至14のいずれか1つに記載の前記ロボットと、
前記ロボットを充電する充電ステーションと、
を備える、
ことを特徴とするロボット制御システム。
(付記16)
前記充電ステーションは、前記ロボットを撮像するステーション側撮像手段と、
前記ステーション側撮像手段によって前記ロボットが撮像された撮像画像を前記ロボットに送信する送信手段と、を備え、
前記ロボットは、前記充電ステーションから送信された前記撮像画像を受信する受信手段、を更に備え、
前記装飾情報取得手段は、前記受信手段によって受信された前記撮像画像に基づいて、前記装飾情報を取得する、
ことを特徴とする付記15に記載のロボット制御システム。
(付記17)
ロボットに動作をさせ、
前記ロボットに施された装飾を示す装飾情報を取得し、
取得された前記装飾情報に応じた前記動作をするように前記ロボットの前記動作を制御する、
ことを含む、
ことを特徴とするロボットの制御方法。
(付記18)
ロボットのコンピュータを、
前記ロボットに動作をさせる動作手段、
前記ロボットに施された装飾を示す装飾情報を取得する装飾情報取得手段、
前記装飾情報取得手段によって取得された前記装飾情報に応じた前記動作をするように前記動作手段を制御する動作制御手段、
として機能させる、
ことを特徴とするプログラム。
100,100a…ロボット、101…頭部、102…胴体部、104…目部、105…口部、107…手部、108…足部、110,320…制御部、111,321…記憶部、112…バッテリ、113…駆動ドライバ、114…可動部、115…センサ部、115a,330…撮像部、115b…音センサ、115c…接触センサ、115d…距離センサ、116…無線通信部、117…表示部、118…音声出力部、119…画像認識部、120…動作部、130…動作制御部、140…判定部、150…装飾情報取得部、160…動作設定部、165…動作テーブル、170…存在検知部、180…行動検知部、190…反応取得部、200…撮像画像、211…帽子、212…衣装、213…眼鏡、250…通信端末、300,300a…ロボット制御システム、310,310a…充電ステーション、311…台座、312…鏡部、322…通信部、323…電源部、324…充電部

Claims (18)

  1. 自装置に動作をさせる動作手段と、
    前記自装置に施された装飾を示す装飾情報を取得する装飾情報取得手段と、
    前記装飾情報取得手段によって取得された前記装飾情報に応じた前記動作をするように前記動作手段を制御する動作制御手段と、
    を備える、
    ことを特徴とするロボット。
  2. 前記装飾情報取得手段は、前記自装置が撮像された撮像画像に基づいて、前記装飾情報を取得する、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記自装置を撮像する撮像手段、を更に備え、
    前記装飾情報取得手段は、前記撮像手段によって前記自装置が撮像された前記撮像画像に基づいて、前記装飾情報を取得する、
    ことを特徴とする請求項2に記載のロボット。
  4. 前記撮像手段は、鏡に映った前記自装置の鏡像を撮像する、
    ことを特徴とする請求項3に記載のロボット。
  5. 前記動作手段は、前記自装置を移動させ、
    前記撮像手段は、前記動作手段が前記自装置を前記鏡が備えられた位置に移動させた際に、前記鏡に映った前記自装置の前記鏡像を撮像する、
    ことを特徴とする請求項4に記載のロボット。
  6. 前記鏡は、前記自装置を充電する充電ステーションに備えられ、
    前記撮像手段は、前記自装置が前記充電ステーションによって充電されている際に、前記鏡を介して前記自装置を撮像する、
    ことを特徴とする請求項5に記載のロボット。
  7. 前記自装置に前記装飾が施されたか否かを判定する判定手段、を更に備え、
    前記装飾情報取得手段は、前記判定手段によって前記自装置に前記装飾が施されたと判定された場合に、前記装飾情報を取得する、
    ことを特徴とする請求項1乃至6のいずれか1項に記載のロボット。
  8. 前記自装置の外部の機器が、前記自装置が撮像された撮像画像に基づいて、前記自装置に施された前記装飾を判定し、
    前記装飾情報取得手段は、前記装飾情報として、前記外部の機器によって判定された判定結果を前記外部の機器から取得する、
    ことを特徴とする請求項1乃至6のいずれか1項に記載のロボット。
  9. 前記自装置に対する所定の対象の行動を検知する行動検知手段、を更に備え、
    前記動作制御手段は、前記行動検知手段が前記行動を検知した場合、前記行動に応答するための交流動作をするように前記動作手段を制御し、前記行動検知手段が前記行動を検知していない場合、前記所定の対象とは独立して前記自装置が単独で実行する前記動作であって、前記所定の対象との交流を介さない自発的な単独動作をするように前記動作手段を制御する、
    ことを特徴とする請求項1乃至8のいずれか1項に記載のロボット。
  10. 前記単独動作は、前記装飾情報に応じた前記動作を含む、
    ことを特徴とする請求項9に記載のロボット。
  11. 前記自装置が前記交流動作をしている際に、前記動作制御手段が前記装飾情報に応じた前記動作として第1の動作をするように前記動作手段を制御した場合、前記第1の動作に対する前記所定の対象の反応を取得する反応取得手段、を更に備え、
    前記動作制御手段は、前記反応取得手段によって検知された前記反応に応じて、前記第1の動作とは異なる第2の動作をするように前記動作手段を制御する、
    ことを特徴とする請求項9又は10に記載のロボット。
  12. 前記動作制御手段は、前記反応取得手段によって検知された前記所定の対象の前記反応が想定範囲外である場合に、前記第2の動作をするように前記動作手段を制御し、
    前記第2の動作は、前記第1の動作よりもより詳細に規定された詳細動作である、
    ことを特徴とする請求項11に記載のロボット。
  13. 前記所定の対象は、人間又は動物である、
    ことを特徴とする請求項9乃至12のいずれか1項に記載のロボット。
  14. 前記自装置の前記装飾は、衣装又はアクセサリを含む、
    ことを特徴とする請求項1乃至13のいずれか1項に記載のロボット。
  15. 請求項1乃至14のいずれか1項に記載の前記ロボットと、
    前記ロボットを充電する充電ステーションと、
    を備える、
    ことを特徴とするロボット制御システム。
  16. 前記充電ステーションは、前記ロボットを撮像するステーション側撮像手段と、
    前記ステーション側撮像手段によって前記ロボットが撮像された撮像画像を前記ロボットに送信する送信手段と、を備え、
    前記ロボットは、前記充電ステーションから送信された前記撮像画像を受信する受信手段、を更に備え、
    前記装飾情報取得手段は、前記受信手段によって受信された前記撮像画像に基づいて、前記装飾情報を取得する、
    ことを特徴とする請求項15に記載のロボット制御システム。
  17. ロボットに動作をさせ、
    前記ロボットに施された装飾を示す装飾情報を取得し、
    取得された前記装飾情報に応じた前記動作をするように前記ロボットの前記動作を制御する、
    ことを含む、
    ことを特徴とするロボットの制御方法。
  18. ロボットのコンピュータを、
    前記ロボットに動作をさせる動作手段、
    前記ロボットに施された装飾を示す装飾情報を取得する装飾情報取得手段、
    前記装飾情報取得手段によって取得された前記装飾情報に応じた前記動作をするように前記動作手段を制御する動作制御手段、
    として機能させる、
    ことを特徴とするプログラム。
JP2017245907A 2017-12-22 2017-12-22 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム Active JP6747423B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017245907A JP6747423B2 (ja) 2017-12-22 2017-12-22 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
US16/212,304 US11325262B2 (en) 2017-12-22 2018-12-06 Robot, robot control system, robot control method, and non-transitory storage medium
EP18211410.8A EP3501761A1 (en) 2017-12-22 2018-12-10 Robot, robot control system, robot control method, and program
CN201811531141.0A CN109955264B (zh) 2017-12-22 2018-12-14 机器人、机器人控制系统、机器人的控制方法以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017245907A JP6747423B2 (ja) 2017-12-22 2017-12-22 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019111603A true JP2019111603A (ja) 2019-07-11
JP6747423B2 JP6747423B2 (ja) 2020-08-26

Family

ID=64664196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017245907A Active JP6747423B2 (ja) 2017-12-22 2017-12-22 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Country Status (4)

Country Link
US (1) US11325262B2 (ja)
EP (1) EP3501761A1 (ja)
JP (1) JP6747423B2 (ja)
CN (1) CN109955264B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム
JP7200991B2 (ja) * 2018-06-05 2023-01-10 ソニーグループ株式会社 情報処理装置、情報処理システム、プログラム、及び情報処理方法
JP7107017B2 (ja) * 2018-06-21 2022-07-27 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
CN112571433A (zh) * 2020-12-14 2021-03-30 王永安 宠物机器人的情感交流方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205857A (ja) * 2016-05-20 2017-11-24 鴻海精密工業股▲ふん▼有限公司 インテリジェントロボット
JP2017207901A (ja) * 2016-05-18 2017-11-24 株式会社Nttドコモ 応答システム及び入出力装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001191275A (ja) 1999-10-29 2001-07-17 Sony Corp ロボット・システム、外装及びロボット装置
JP2002144260A (ja) * 2000-11-13 2002-05-21 Sony Corp 脚式移動ロボット及びその制御方法
JP2003001582A (ja) 2001-06-21 2003-01-08 Kenji Fuse ロボットの衣装
US7689319B2 (en) 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
EP2806326B1 (en) * 2005-09-02 2016-06-29 Neato Robotics, Inc. Multi-function robotic device
EP1941411B1 (en) * 2005-09-30 2011-09-14 iRobot Corporation Companion robot for personal interaction
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
CN102059700A (zh) * 2010-11-22 2011-05-18 南京信息工程大学 迎宾机器人系统
JP5857747B2 (ja) * 2012-01-05 2016-02-10 富士通株式会社 撮像装置を搭載したロボットの動作設定法。
JP6364747B2 (ja) 2013-11-14 2018-08-01 オムロン株式会社 監視装置および監視方法
US9618937B1 (en) * 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
WO2018008323A1 (ja) * 2016-07-08 2018-01-11 Groove X株式会社 服を着る自律行動型ロボット
JP6607162B2 (ja) * 2016-09-23 2019-11-20 カシオ計算機株式会社 ロボット、状態判定システム、状態判定方法及びプログラム
CN106293102A (zh) 2016-10-13 2017-01-04 旗瀚科技有限公司 一种基于用户心情变化情绪的机器人情感交流方法
US20180229372A1 (en) * 2017-02-10 2018-08-16 JIBO, Inc. Maintaining attention and conveying believability via expression and goal-directed behavior with a social robot
US10792578B2 (en) * 2017-10-20 2020-10-06 Thinker-Tinker, Inc. Interactive plush character system
WO2019116521A1 (ja) * 2017-12-14 2019-06-20 株式会社ソニー・インタラクティブエンタテインメント エンターテインメントシステム、ロボット装置およびサーバ装置
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207901A (ja) * 2016-05-18 2017-11-24 株式会社Nttドコモ 応答システム及び入出力装置
JP2017205857A (ja) * 2016-05-20 2017-11-24 鴻海精密工業股▲ふん▼有限公司 インテリジェントロボット

Also Published As

Publication number Publication date
US20190193279A1 (en) 2019-06-27
JP6747423B2 (ja) 2020-08-26
CN109955264B (zh) 2022-05-03
US11325262B2 (en) 2022-05-10
EP3501761A1 (en) 2019-06-26
CN109955264A (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20200376398A1 (en) Interactive plush character system
CN109955264B (zh) 机器人、机器人控制系统、机器人的控制方法以及记录介质
US11148294B2 (en) Autonomously acting robot that maintains a natural distance
US11198221B2 (en) Autonomously acting robot that wears clothes
CN109108960B (zh) 机器人、机器人的控制方法以及存储介质
US20170352351A1 (en) Communication robot
CN107870589B (zh) 机器人、机器人的控制方法以及记录介质
US11514269B2 (en) Identification device, robot, identification method, and storage medium
JP7502520B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20210023704A1 (en) Information processing apparatus, information processing method, and robot apparatus
US11780098B2 (en) Robot, robot control method, and recording medium
CN107870588B (zh) 机器人、故障诊断系统、故障诊断方法以及记录介质
JP6586810B2 (ja) 玩具
US20220299999A1 (en) Device control apparatus, device control method, and recording medium
JPWO2019138618A1 (ja) 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
WO2020166373A1 (ja) 情報処理装置および情報処理方法
JP6667878B1 (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
JP2021074361A (ja) 撮影システム、撮影方法、撮影プログラム、及びぬいぐるみ
WO2023037608A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP7329457B2 (ja) 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
WO2023037609A1 (ja) 自律移動体、情報処理方法、及び、プログラム
JP2004066418A (ja) 自律ロボット
JP2024047370A (ja) ロボット、ロボット制御方法及びプログラム
JP2024047372A (ja) ロボット、ロボット制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6747423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150