JP7107017B2 - ロボット、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP7107017B2
JP7107017B2 JP2018117796A JP2018117796A JP7107017B2 JP 7107017 B2 JP7107017 B2 JP 7107017B2 JP 2018117796 A JP2018117796 A JP 2018117796A JP 2018117796 A JP2018117796 A JP 2018117796A JP 7107017 B2 JP7107017 B2 JP 7107017B2
Authority
JP
Japan
Prior art keywords
user
robot
motion
predetermined target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018117796A
Other languages
English (en)
Other versions
JP2019217081A (ja
Inventor
利彦 大塚
久雄 熊井
高弘 冨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018117796A priority Critical patent/JP7107017B2/ja
Priority to CN201910509245.XA priority patent/CN110625607B/zh
Priority to US16/447,719 priority patent/US11305433B2/en
Publication of JP2019217081A publication Critical patent/JP2019217081A/ja
Application granted granted Critical
Publication of JP7107017B2 publication Critical patent/JP7107017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40264Human like, type robot arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Automation & Control Theory (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Rehabilitation Tools (AREA)

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。
所定の対象の身体機能に関する身体情報を取得して身体機能をケアする技術が知られている。例えば、特許文献1は、所定の対象の握力の強さを身体情報として取得し、取得した握力の強さに基づいて所定の対象の緊張状態又は疲労状態を判定し、所定の対象がストレス等を感じている場合に所定の対象に緊張緩和又は疲労軽減の効果を与える刺激を発生するストレスケア装置を開示している。
特開2006-320621号公報
しかしながら、特許文献1は、所定の対象がストレス等を感じている場合に、所定の対象をリラックスさせる技術であり、所定の対象の身体情報を取得して、所定の対象の身体機能のセルフケアを支援するには不充分であるという問題がある。
本発明は、以上のような課題を解決するためのものであり、身体機能のセルフケアを支援することが可能なロボット、ロボットの制御方法及びプログラムを提供することを目的とする。
前記目的を達成するため、本発明に係るロボットの一様態は、
自装置に動作をさせる動作手段と、
所定の対象により把持される把持手段と、
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得する取得手段と、
前記取得手段により取得された前記身体情報に応じて前記動作手段を制御することにより、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方を前記自装置に実行させる動作制御手段と、
を備える、
ことを特徴とする。
前記目的を達成するため、本発明に係るロボットの制御方法の一様態は、
所定の対象により把持される把持手段を有するロボットの制御部が実行する制御方法であって、
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得し、
取得した前記身体情報に応じて、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方をロボットに実行させる、
ことを含む、
ことを特徴とする。
前記目的を達成するため、本発明に係るプログラムの一様態は、
所定の対象により把持される把持手段を有するロボットのコンピュータを、
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得する取得手段、
前記取得手段により取得された前記身体情報に応じて、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方を前記ロボットに実行させる動作制御手段、
として機能させる、
ことを特徴とする。
本発明によれば、身体機能のセルフケアを支援することが可能なロボット、ロボットの制御方法及びプログラムを提供することができる。
本発明の実施形態1に係るロボットの外観を示す図である。 実施形態1に係るロボットのハードウェア構成を示すブロック図である。 実施形態1に係るロボットの機能的な構成を示すブロック図である。 実施形態1に係るロボットの動作DBに記憶された動作情報の例を示す図である。 実施形態1に係るロボットのユーザDBに記憶されたユーザ情報の例を示す図である。 実施形態1に係るロボットの左右の手部がユーザにより把持される様子を示す図である。 (a)、(b)共に、実施形態1に係るロボットの手部における握力センサの配置例を示す図である。 実施形態1に係るロボットが手部を強く握るようにユーザに要求する例を示す図である。 実施形態1に係るロボットの握力DBに記憶された握力情報の例を示す図である。 図8に示した握力DBに記憶された握力値の推移を示す図である。 実施形態1に係るロボットが検査動作を実行する第1の例を示す図である。 実施形態1に係るロボットが検査動作を実行する第2の例を示す図である。 実施形態1に係るロボットがトレーニング支援動作を実行する例を示す図である。 実施形態1に係るロボットによって実行されるロボット制御処理の流れを示す第1のフローチャートである。 実施形態1に係るロボットによって実行されるロボット制御処理の流れを示す第2のフローチャートである。 本発明の実施形態2に係るロボットの機能的な構成を示すブロック図である。 実施形態2に係るロボットによって実行されるロボット制御処理の流れを示す第2のフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当する部分には同一符号を付す。
(実施形態1)
図1に、本発明の実施形態1に係るロボット100の外観を示す。ロボット100は、動物(ペット)を模した形状を有し、予め規定された動作プログラムに従って自律的に動作する装置である。
ロボット100は、自装置の外部に存在する所定の対象からの呼び掛け、接触等の外部からの刺激に反応して、様々に動作する。これによって、ロボット100は、所定の対象とコミュニケーションをとり、所定の対象と交流をすることができる。
所定の対象とは、ロボット100の外部に存在し、且つ、ロボット100とコミュニケーション及び交流をする相手となる対象である。所定の対象として、具体的には、ロボット100の周囲の人間であるユーザ(ロボット100の所有者、家族、友人等)、ユーザの周囲の動物(ユーザに飼われているペット等)、ロボット100以外の他のロボット等が挙げられる。所定の対象は、コミュニケーション対象、コミュニケーション相手、交流対象、交流相手等とも言うことができる。以下では、所定の対象がユーザである場合を例にとって説明する。
図1に示すように、ロボット100は、外観的には犬を模した立体的な形状を有する。ロボット100は、例えばプラスチック等の硬質合成樹脂を主たる材料として作製されている。ロボット100は、頭部101と、胴体部102と、耳部103と、目部104と、口部105と、手部107と、足部108と、を備える。
頭部101、耳部103、手部107及び足部108は、ロボット100に内蔵された駆動部材によって動かすことができる部位である。頭部101は、首に設けられた首の関節によって、ピッチ、ロール及びヨーの3方向に回転可能に胴体部102に取り付けられている。目部104には、目に関する画像(目玉等)を表示する表示部117が設けられている。口部105には、ロボット100の前方を撮像する撮像部115aが設けられている。
図2に、ロボット100のハードウェア構成を示す。図2に示すように、ロボット100は、制御部110と、記憶部111と、バッテリ112と、駆動ドライバ113と、可動部114と、センサ部115と、無線通信部116と、表示部117と、音声出力部118と、画像認識部119と、を備える。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等であって、様々な処理や演算を実行する中央演算処理部である。制御部110において、CPUが、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、自装置(ロボット100)全体の動作を制御する。制御部110は、制御手段として機能する。
記憶部111は、フラッシュメモリ、ハードディスク等の不揮発性メモリである。記憶部111は、OS(Operating System)及びアプリケーションプログラムを含む、制御部110が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部111は、制御部110が各種処理を行うことにより生成又は取得するデータを記憶する。記憶部111は、記憶手段として機能する。
バッテリ112は、電気エネルギーを蓄電し、ロボット100の各部に電力を供給する蓄電池である。バッテリ112は、ロボット100が充電ステーションに帰巣した場合に、充電ステーションによって充電される。
駆動ドライバ113は、ロボット100の可動部114を駆動させるモータ、アクチュエータ等の駆動部材と、これらの駆動部材を駆動する駆動回路と、を備える。可動部114とは、可動する部位であって、具体的には頭部101、手部107及び足部108である。制御部110は、動作プログラムに基づいて、駆動回路に制御信号を送信する。駆動回路は、制御部110から送信された制御信号に従って、駆動部材に駆動用のパルス信号を供給する。駆動部材は、駆動回路から供給されたパルス信号に従って、可動部114を駆動させる。可動部114は、可動手段として機能する。
ロボット100は、駆動ドライバ113が可動部114を駆動させることによって、様々に動作することができる。例えば、ロボット100は、足部108を動かすことによって、前方又は後方に移動することができ、自装置の向きを変えることができる。ここで、足部108には車輪が設けられており、駆動ドライバ113が車輪を回転駆動させることにより、ロボット100の位置又は向きを変えても良い。また、ロボット100は、頭部101又は手部107を動かすことによって、人の動作及び人の仕草を真似ることができる。
センサ部115は、自装置の周囲又は内部の物理量を検知する複数のセンサを備える。図2に示すように、センサ部115は、周囲を撮像する撮像部115aと、音を検知する音センサ115bと、自装置への接触を検知する接触センサ115cと、握力を検知する握力センサ115dと、を含む。また、センサ部115は、図示しないが、周囲の物体までの距離を測定する距離センサ、自装置の動きを検知する加速度センサ、自装置の回転を検知するジャイロセンサ、自装置の方角を検知する地磁気センサ、自装置の周囲の温度を検知する温度センサ、自装置の周囲の気圧を検知する気圧センサ等を含む。
撮像部115aは、いわゆるカメラであって、口部105に設置されている。撮像部115aは、被写体から射出された光を集光して被写体の画像を取得する画像取得部と、画像取得部によって取得された画像を処理する画像処理部と、を備えており、ロボット100の前方を撮像する撮像手段として機能する。音センサ115bは、頭部101に設置されており、ユーザから発せられた音声、周囲の環境音等を検知する。ロボット100は、図示しないが、音センサ115bとして頭部101を囲むように複数のマイクを備えており、四方で発生した音を効率良く検知することができる。音センサ115bは、ユーザから発せられた音声の入力を受け付ける音声入力手段として機能する。
接触センサ115cは、ロボット100の各所に設置されており、ユーザにより自装置の表面に接触された場合に、その接触の位置を検知する。握力センサ115dは、左右の手部107に設置されており、ユーザにより手部107が握られた場合に、その握力の強さを測定する握力測定手段として機能する。例えば握力センサ115dは、ユーザにより手部107が握られた場合にその荷重を歪みセンサにより検知し、検知された荷重を電気信号に変換する方式で握力の強さを測定する。
その他のセンサは、ロボット100の各所に設置され、ロボット100の周囲の状態又は内部の状態を示す情報を取得する。センサ部115は、このような複数のセンサによって、ロボット100の周囲の状態又は内部の状態を示す情報を取得し、制御部110に供給する。
無線通信部116は、外部の機器と無線で通信するためのインタフェースを備える。無線通信部116は、制御部110の制御の下、例えばWi-Fi(Wireless Fidelity)等の無線LAN(Local Area Network)、Bluetooth(登録商標)、NFC(Near Field Communication)等の通信規格に従って、ロボット100を充電するための充電ステーション、クラウドサーバ等の外部の機器と無線通信する。無線通信部116は、通信手段として機能する。
表示部117は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)等の表示デバイスである。表示部117は、目部104の眼球部分に設置されており、図示しない表示駆動回路による制御のもと、状況に応じて様々な画像を表示する。表示部117は、表示手段として機能する。
音声出力部118は、スピーカと音声出力インタフェースとを備え、制御部110によって生成された音声データを音声に変換して外部に出力する。スピーカは、頭部101に設置されている。音声出力部118は、動物の鳴き声及び人間の言葉を含む様々な音声を出力する。例えば、ロボット100は、音センサ115bでユーザの音声を収集し、ユーザの発話内容に対応する音声を音声出力部118から出力する。これにより、ユーザと簡単な会話をすることができる。音声出力部118は、音声出力手段として機能する。
画像認識部119は、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等の画像処理用のプロセッサと、処理される画像を一時的に保存するバッファメモリと、を備え、撮像部115aによって撮像された画像を認識する。画像認識部119は、周知の画像認識手法を用いて、撮像部115aによって撮像された画像に含まれる人、顔、物体、パターン等を認識する。画像認識部119は、撮像部115aによって撮像された所定の対象の顔を認識する認識手段として機能する。
次に、図3を参照して、ロボット100の機能的な構成について説明する。図3に示すように、ロボット100は、機能的に、動作部120と、動作制御部130と、識別部140と、取得部150と、判定部160と、を備える。動作制御部130、識別部140、取得部150及び判定部160の各部は、制御部110において、CPUがROMに記憶されたプログラムをRAMに読み出して、読み出されたプログラムを実行して制御することにより機能する。
また、ロボット100は、動作DB(Database)191と、ユーザDB192と、握力DB193と、を備える。これら各DBは、記憶部111の適宜の記憶領域に構築される。
動作部120は、自装置、すなわちロボット100を動作させる部位である。図3に示すように、動作部120は、可動部114と、表示部117と、音声出力部118と、を含む。動作部120は、可動部114を動かしてロボット100の姿勢を変化させる、表示部117にロボット100の表情を表す画像を表示する、又は、音声出力部118から音声を出力する。このようにして、動作部120は、ロボット100に様々な動作を実行させる。動作部120は、動作手段として機能する。
また、動作部120は、移動部121を含む。移動部121は、駆動ドライバ113が足部108を前後左右に動かす、又は足部108に設けられた車輪を回転させることにより、ロボット100を移動させる。これにより、ロボット100は、自律的に走行することができる。移動部121は、移動手段として機能する。
動作制御部130は、動作部120を制御して、予め規定された様々な動作をロボット100に実行させる。例えば、動作制御部130は、可動部114として設けられた頭部101、手部107及び足部108を動かすことにより、ロボット100の位置、向き、姿勢等を変更する。また、動作制御部130は、表示部117に画像を表示することによって、顔の表情を変化させる。更に、動作制御部130は、音声出力部118から音声を出力することによって、ユーザと対話する。動作制御部130は、制御部110が、駆動ドライバ113、可動部114、表示部117及び音声出力部118と協働することによって実現される。動作制御部130は、動作制御手段として機能する。
ロボット100の動作は、動作DB191に予め規定されている。動作DB191は、ロボット100が実行する動作を定めたデータベースである。動作制御部130は、動作DB191を参照して、状況に応じて動作部120を制御することにより、様々な動作をロボット100に実行させる。
図4に、動作DB191に規定された動作の具体例を示す。図4に示すように、動作DB191は、ロボット100が実行する動作を、条件毎に規定している。例えば、「人を認識した」ことを撮像部115aにより検知すると、動作制御部130は、「興味を示しながら人の方に向けて移動する」との動作をロボット100に実行させる。また、「音楽が聞こえた」ことを音センサ115bにより検知すると、動作制御部130は、「楽しそうに動き回る」との動作をロボット100に実行させる。このように、動作DB191は、発生し得る様々な状況に応じて、ロボット100が実行する動作を規定している。
識別部140は、所定の対象であるユーザを識別する。具体的に説明すると、識別部140は、撮像部115aによって周囲を撮像して、周囲の様子を表す画像を取得する。そして、識別部140は、撮像部115aによって得られた画像にユーザが含まれている場合、ユーザの顔を画像認識部119によって認識する。識別部140は、ユーザDB192を参照して、認識した顔に対応する顔画像を特定することにより、ユーザを識別する。
ユーザDB192は、所定の対象となる複数のユーザに関する情報が記憶されたデータベースである。図5に、ユーザDB192に記憶された情報の例を示す。図5に示すように、ユーザDB192は、複数のユーザのそれぞれについて、ユーザIDと、ユーザの顔画像データと、ユーザの身体機能の検査履歴と、ユーザの身体機能のトレーニング履歴と、を対応付けて記憶している。
識別部140は、ユーザDB192に記憶された顔画像の中に、撮像部115aによって撮像されたユーザの顔に合致する顔画像が含まれているか否かを判定する。識別部140は、判定の結果、撮像された顔に合致する顔画像がユーザDB192に記憶されている場合に、撮像されたユーザがその顔画像に対応するユーザであると識別する。これにより、識別部140は、ロボット100の周囲に存在しているユーザを認証する。識別部140は、制御部110が画像認識部119と協働することによって実現される。識別部140は、識別手段として機能する。
より詳細に説明すると、識別部140は、ユーザにより左右の手部107の少なくとも一方が把持された場合に、ユーザを識別する。例えば、ユーザは、ロボット100が稼働している最中において、ロボット100との交流の一環として、ロボット100の手部107を把持する行動をとる。ここで、把持とは、ユーザが手でロボット100の手部107に接触して握る(掴む)ことを意味する。
具体的に図6に、ロボット100の左右の手部107がユーザにより把持される様子を示す。図6に示すように、ユーザは、ロボット100と向かい合った状態で、右手UHでロボット100の左側の手部107を把持し、且つ、左手UHでロボット100の右側の手部107を把持する。このように、ロボット100の左右の手部107は、ユーザにより把持される把持部(把持手段)として機能する。
識別部140は、左右の手部107の少なくとも一方がユーザにより把持された場合、把持による接触を接触センサ115cにより検知する。このように手部107が把持された状態では、ユーザの顔がロボット100の正面を向いている可能性が高いため、ロボット100の口部105に設けられた撮像部115aによりユーザの顔を撮像し易い。そのため、識別部140は、ユーザにより手部107が把持された場合にユーザを識別することにより、的確にユーザを認識することができる。
図3に戻って、取得部150は、左右の手部107のうちの少なくとも一方がユーザにより把持された場合に、ユーザの身体機能に関する身体情報を取得する。身体機能とは、所定の対象であるユーザの身体を正常に活動させるための機能である。以下では、ユーザの身体機能として、取得部150がユーザの脳機能、より詳細にはユーザの認知機能に関する身体情報を取得する場合について説明する。ここで、認知機能とは、ユーザが外界を正しく認識し、正しく行動するための機能であって、一般的な傾向として加齢に伴って低下し易い。
取得部150は、身体情報として、握力センサ115dにより測定されたユーザの握力の強さを取得する。取得部150は、図6に示したように、左右の手部107の少なくとも一方がユーザにより把持されている状態で、手部107に設けられた握力センサ115dにより、手部107を把持するユーザの握力の強さを取得する。
握力センサ115dは、握力の強さを的確に測定できるように、左右の手部107における握力を測定し易い位置に設けられている。具体的に図7(a)、図7(b)に、ロボット100の左右の手部107における握力センサ115dの配置例を示す。例えば図7(a)に示すように、ユーザが手部107をどのように把持しても握力を測定することができるように、左右の手部107の先端部において全体的に散らばるように、複数の握力センサ115dが配置されている。又は、図7(b)に示すように、左右の手部107のそれぞれにおいて、ユーザが手部107を左右から把持した場合に指が握力センサ115dに接触するように、握力センサ115dが横手方向に延びるように配置されていても良い。更には、図示しないが、ユーザが指を接触させる位置を認識し易いように、ユーザが指を接触させる位置に窪み又は開口が設けられていており、そこに握力センサ115dが設けられていても良い。
また、取得部150が握力の強さを取得するために、動作制御部130は、左右の手部107の少なくとも一方がユーザにより把持されたことが接触センサ115cにより検知されると、動作部120を制御して、ユーザに手部107を把持する力を強めるように要求する動作をロボット100に実行させる。具体的には図8に示すように、動作制御部130は、ユーザに左右の手部107が把持されている状態で、「手を強く握って下さい。」との音声を音声出力部118から出力する。取得部150は、動作制御部130がこのような音声によりユーザに手部107を把持する力を強めるように要求した後、握力センサ115dにより測定された握力の強さを取得する。ユーザがこのような要求に応答して手部107を強く握ることで、取得部150は、ユーザの握力の強さを適切に取得することができる。
なお、動作制御部130は、ユーザにより手部107が握られた場合に、動作部120を制御して、ユーザが手部107をより強く握りたくなるような反応を示しても良い。例えば、動作制御部130は、ユーザにより手部107が握られた場合に、目部104に設置された表示部117に、にこやかな表情を表す画像を表示させる。又は、動作制御部130は、可動部114を動かして楽しそうな動作をロボット100にさせても良い。また、動作制御部130は、ユーザが継続して手部107を握りたくなるように、表情又は動作をランダムに変化させて、ユーザを飽きさせないようにしても良い。
取得部150は、握力の強さを取得すると、取得した握力の強さを示す値を握力DB193に記憶させる。具体的に説明すると、取得部150は、左右の手部107のそれぞれが規定時間以上に亘ってユーザに把持された場合、左右の手部107のそれぞれにおいて測定された握力の値のうちの最も大きい値を、握力DB193に登録する。
図9に、握力DB193に記憶された情報の例を示す。図9に示すように、握力DB193は、取得部150により取得された握力の強さを示す値として、ユーザの右手の握力値、ユーザの左手の握力値、及び右手と左手との握力の平均値を、その握力が取得された日時に対応付けて、時系列順に記憶する。握力DB193に記憶された情報は、ユーザDB192に記憶された複数のユーザのIDに紐付けられている。握力DB193は、取得部150により取得された握力の強さの履歴を、複数のユーザのそれぞれについて記憶する。
取得部150は、握力の強さを取得する毎に、握力DB193に新たに取得された握力の強さを示す値を、その取得日時と共に、識別部140により識別されたユーザIDに紐付けられた握力の履歴に追加する。このようにして、取得部150は、握力DB193を随時更新する。取得部150は、制御部110が握力センサ115dと協働することによって実現される。取得部150は、取得手段として機能する。
図3に戻って、判定部160は、取得部150により取得された握力の強さに基づいて、ユーザの脳機能が低下しているか否かを判定する。握力と脳機能との間の関連性について、近年、握力が弱い人は脳機能が低下し易いという研究結果が報告されている。例えば、Clouston SA, et al. “The dynamic relationship between physical function and cognition in longitudinal aging cohorts.” Epidemiol Rev. 2013;35:33-50.には、握力を含む身体機能の低下が認知機能の低下に関連しているとの報告がされている。
このような握力と脳機能との関連性に基づいて、判定部160は、ユーザの脳機能に異常が生じているか否かを判定する。具体的に説明すると、判定部160は、取得部150により取得された握力の強さが所定の閾値未満に低下したか否かを判定する。そして、判定部160は、取得部150により取得された握力の強さが所定の閾値未満である場合に、ユーザの脳機能が低下していると判定する。
図10に、図9に示した握力DB193に記憶されたあるユーザの握力の強さの推移を示す。図10では、右手の握力値を点線で示し、左手の握力値を一点鎖線で示し、右手と左手とで平均された握力値を実線で示している。図10に示す例では、9月4日に取得された最新の握力の強さは、その直前の3日間に取得された握力の強さに比べて、低下している。判定部160は、最新の握力の強さが、所定の閾値未満に低下したかを判定する。
ここで、所定の閾値は、取得部150により取得されたユーザの握力の強さの過去の履歴に応じて定められる。具体的に説明すると、判定部160は、図9及び図10に示したように9月4日に取得された握力が最新である場合、それより以前に取得された同じユーザの握力に基づいて、所定の閾値を設定する。例えば、判定部160は、9月1日から9月3日に取得された握力の強さの平均に所定の比率を乗じた値を、所定の閾値として設定する。所定の比率は、0よりも大きく1よりも小さい値であって、以前に比べて大きく低下したことが判定可能な値に予め設定される。判定部160は、握力DB193に新たに握力の強さが登録される毎に、所定の閾値を更新する。
判定部160は、このようにユーザの過去の握力の強さに応じて設定された閾値よりも、新たに取得された握力の強さが低下したか否かを判定する。これにより、判定部160は、ユーザの握力が以前に比べて大きく低下したか否かを判定する。例えば図10では、9月4日において取得された最新の握力の強さが、破線で示す所定の閾値を下回っている。このように、左手の握力値と右手の握力値とそれらの平均値とのうちの少なくとも何れかが所定の閾値を下回った場合に、判定部160は、ユーザの握力の強さが所定の閾値よりも低下したと判定する。そして、この場合、判定部160は、ユーザの脳機能が低下していると判定する。
これに対して、判定部160は、取得部150により取得された握力の強さが所定の閾値以上である場合には、ユーザの握力の強さは以前に比べて大きく低下していない。そのため、この場合、判定部160は、ユーザの脳機能が低下していないと判定する。
このようにして、判定部160は、取得部150により取得された握力の強さに基づいて、ユーザの脳機能に異常の懸念があるか否かを診断する。判定部160は、制御部110が記憶部111と協働することによって実現される。判定部160は、判定手段として機能する。
動作制御部130は、取得部150により取得されたユーザの握力の強さに応じて動作部120を制御することにより、ユーザの脳機能を検査する検査動作と、ユーザに脳機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方をロボット100に実行させる。具体的に説明すると、動作制御部130は、判定部160によりユーザの脳機能が低下していると判定され、且つ、直近の所定期間内にユーザの脳機能が検査されていない場合、動作部120を制御して、検査動作をロボット100に実行させる。
検査動作は、ユーザの認知機能に異常が有るか否かを検査するための動作であって、より詳細には、ユーザが認知症であるか否かを検査するための動作である。判定部160によりユーザの握力の強さが所定の閾値未満であると判定された場合、ユーザの脳機能が低下している虞がある。この場合、動作制御部130は、検査動作をロボット100に実行させることにより、ユーザの脳機能に異常があるか否かをより詳細に調べる。
図11及び図12に、ロボット100が検査動作を実行する様子を示す。図11に示す検査動作は、ユーザが簡単な日付の質問に答えることができるか否かを検査するための動作である。図11に示す検査動作をロボット100に実行させる場合、動作制御部130は、今日の日付を質問する音声を音声出力部118から出力する。これに対して、図12に示す検査動作は、ユーザの注意力及び反応力を検査するための動作である。図12に示す検査動作をロボット100に実行させる場合、動作制御部130は、左右の目部104に方向を示す画像を表示し、且つ、左右の手部107をそれぞれ左右の目部104に表示された方向に動かすように指示する音声を音声出力部118から出力する。
取得部150は、検査動作に対するユーザの応答を検知することにより、検査結果を示す検査情報を取得する。例えば、ロボット100により図11に示した検査動作が実行された場合、ユーザは、今日の日付を声に出して答える。取得部150は、ユーザから発せられた音声を音センサ115bにより検知する。これにより、取得部150は、ユーザが簡単な日付の質問に正しく答えることができたか否かを示す検査情報を取得する。
又は、ロボット100により図12に示した検査動作が実行された場合、ユーザは、把持しているロボット100の左右の手部107を、指示された方向にレバーのように動かす。例えば、ロボット100の右側の目部104に表示された「上」との文字に対して、ユーザは、ロボット100の右側の手部107を上に向けて動かす。また、ロボット100の左側の目部104に表示された「右」との文字に対して、ユーザは、ロボット100の左側の手部107を右に向けて動かす。取得部150は、ユーザにより手部107が動かされた方向を検知する。これにより、取得部150は、ユーザの注意力及び反応力を示す検査情報を取得する。
判定部160は、取得部150により取得された検査情報に基づいて、ユーザの脳機能が低下しているか否かを判定する。例えば、判定部160は、図11に示した検査動作に対して、ユーザから正しい日付の応答が取得されたか否かを判定する。又は、判定部160は、図12に示した検査動作に対して、ユーザから適切なタイミングで正しい方向の入力が取得されたか否かを判定する。
検査動作に対してユーザから正常な応答が得られた場合、判定部160は、ユーザの脳機能が正常であって、ユーザが認知症に罹患していないと判定する。一方で、検査動作に対してユーザから正常な応答が得られなかった場合、判定部160は、ユーザの脳機能が低下しており、ユーザが認知症に罹患している可能性があると判定する。判定部160は、検査情報によりユーザの脳機能が低下しているか否かを判定すると、その検査結果を日時と対応付けてユーザDB192に記憶させる。
なお、動作制御部130は、検査動作として、図11及び図12に示した動作に限らず、脳機能を検査することができるものであれば、どのような動作をロボット100に実行させても良い。例えば、図示しないが、動作制御部130は、表示部117に漢字や計算の課題を表示して、漢字の読み方や計算結果をユーザに答えさせても良い。
動作制御部130は、このような検査動作を、直近の所定期間内にユーザの脳機能が検査されていない場合に、ロボット100に実行させる。直近の所定期間とは、現時点を基準として、予め設定された時間長の過去の期間であって、一例として1か月程度の長さの期間である。
これに対して、動作制御部130は、判定部160によりユーザの脳機能が低下していると判定され、且つ、直近の所定期間内にユーザの脳機能が検査されている場合、動作部120を制御して、トレーニング支援動作をロボット100に実行させる。
トレーニング支援動作は、ユーザに脳機能をトレーニングさせることにより、ユーザが認知症に罹患することを予防するための動作である。動作制御部130は、直近の所定期間内にユーザの脳機能を検査している場合には、再度の検査を実施しても同じ結果が得られる可能性が高い。そのため、この場合、動作制御部130は、検査動作に代えて、ユーザに脳機能をトレーニングさせるためのトレーニング支援動作をロボット100に実行させる。
図13に、ロボット100がトレーニング支援動作を実行する様子を示す。図13に示すトレーニング支援動作は、ユーザの注意力及び言語能力をトレーニングするための動作である。図13に示すトレーニング支援動作をロボット100に実行させる場合、動作制御部130は、所定のタイミングで左右の目部104の少なくとも一方に文字を表示し、且つ、表示された言葉を言いながら手部107を動かすようにユーザに指示する音声を、音声出力部118から出力する。
このようなトレーニング支援動作に対して、ユーザは、表示された文字(図13の例では「ふ」)を言いながら、把持しているロボット100の左右の手部107の一方をレバーのように動かす。例えば左側の目部104に言葉が表示された場合には、ユーザは、表示された言葉を言いながら左側の手部107を動かす。また、右側の目部104に言葉が表示された場合には、ユーザは、表示された言葉を言いながら右側の手部107を動かす。このようなトレーニング支援動作により、ユーザは脳を積極的に活動させて行動するため、ユーザの脳機能及び認知機能をトレーニングすることができる。
なお、動作制御部130は、トレーニング支援動作として、図13に示した動作に限らず、脳機能をトレーニングすることができるものであれば、どのような動作をロボット100に実行させても良い。例えば、図示しないが、動作制御部130は、トレーニング支援動作として、表示部117に言葉や算数に関する課題を出題しても良い。又は、動作制御部130は、トレーニング支援動作として、左右の目部104のそれぞれに画像を表示し、左側の目部104に表示された画像と右側の目部104に表示された画像との間での違いをユーザに答えさせるゲーム(いわゆる間違い探しゲーム)をロボット100に実行させても良い。動作制御部130は、トレーニング支援動作をロボット100に実行させると、そのトレーニング支援動作の内容を日時と対応付けてユーザDB192に記憶させる。
以上のように構成されるロボット100において実行されるロボット制御処理の流れについて、図14及び図15に示すフローチャートを参照して説明する。図14に示すロボット制御処理は、ロボット100の電源が投入され、且つ、バッテリ112が充電されることによって、ロボット100が正常に動作可能な状態になると、開始する。
ロボット制御処理を開始すると、制御部110は、まず各種の設定を初期化する(ステップS101)。そして、制御部110は、状況に応じてロボット100に各種の動作を実行させる(ステップS102)。具体的に説明すると、制御部110は、ロボット100に動作させるための条件として動作DB191に規定された複数の条件のうちの何れかの条件が成立したか否かを判定する。そして、制御部110は、成立した条件に応じて動作部120を制御することにより、ロボット100に動作させる。
次に、制御部110は、手部107を握られたか否かを判定する(ステップS103)。具体的に説明すると、制御部110は、接触センサ115cにより左右の手部107の少なくとも一方への接触を検知したか否かを判定する。手部107を握られていない場合(ステップS103;NO)、制御部110は、処理をステップS102に戻し、引き続き状況に応じて各種動作を動作部120に実行させる。
これに対して、ユーザに手部107を握られた場合(ステップS103;YES)、制御部110は、識別部140として機能し、ユーザの顔を認識する(ステップS104)。具体的に説明すると、制御部110は、手部107を握ったユーザの顔を撮像部115aにより撮像する。そして、制御部110は、画像認識部119の機能により、撮像された画像に含まれるユーザの顔を認識する。
ユーザの顔を認識すると、制御部110は、ユーザがユーザDB192に登録されているか否かを判定する(ステップS105)。具体的に説明すると、制御部110は、ユーザDB192を参照して、ユーザDB192に記憶された複数のユーザの顔画像の中に、撮像されたユーザの顔と合致するものがあるか否かを判定する。判定の結果、ユーザDB192に撮像されたユーザの顔と合致する顔画像がある場合に、制御部110は、ユーザが登録されていると判定する。
ユーザがユーザDB192に登録されていない場合(ステップS105;NO)、制御部110は、顔を認識したユーザが脳機能を検査又はトレーニングする対象ではないと判定する。そのため、制御部110は、ステップS106以降の処理には進まず、処理をステップS102に戻す。このとき、制御部110は、ユーザから新たに登録の指示を受け付けた場合等のように、必要に応じて、このユーザの顔画像をユーザDB192に新たに登録しても良い。
これに対して、ユーザがユーザDB192に登録されている場合(ステップS105;YES)、制御部110は、ユーザに対して手部107を強く握るように要求する(ステップS106)。例えば図8に示すように、制御部110は、「手を強く握ってください。」等の音声を音声出力部118から出力する。
ユーザに対して手部107を強く握るように要求すると、制御部110は、取得部150として機能し、ユーザの握力を測定する(ステップS107)。具体的に説明すると、制御部110は、ユーザにより手部107が握られた場合における握力の強さを、左右の手部107に設けられた握力センサ115dにより測定する。
握力の測定を開始すると、制御部110は、測定開始から規定時間が経過したか否かを判定することにより、握力の測定が完了したか否かを判定する(ステップS108)。握力の測定が完了していない場合(ステップS108;NO)、制御部110は、握力の測定が完了するまで、ステップS107で握力の測定を継続する。
握力の測定を完了すると(ステップS108;YES)、制御部110は、測定された握力を握力DB193に登録する(ステップS109)。具体的に説明すると、制御部110は、新たに測定された握力の値を、握力DB193に記憶された握力の履歴に追加することで、握力DB193を更新する。
測定された握力を握力DB193に登録すると、図15に示すフローチャートに移り、制御部110は、判定部160として機能し、測定された握力が所定の閾値未満であるか否かを判定する(ステップS110)。具体的に説明すると、制御部110は、新たに測定された握力が、以前に測定された握力に基づいて定められる閾値を下回ったか否かを判定する。これにより、制御部110は、ユーザの握力が以前に比べて大きく下がったか否かを判定する。
測定された握力が所定の閾値以上である場合(ステップS110;NO)、制御部110は、ユーザの脳機能の検査又はトレーニングを実施する必要が無いと判定する。そのため、制御部110は,処理をステップS102に戻し、引き続きロボット100に通常の動作を実行させる。
これに対して、測定された握力が所定の閾値未満である場合(ステップS110;YES)、制御部110は、直近の所定期間内にユーザの脳機能の検査を実施しているか否かを判定する(ステップS111)。具体的に説明すると、制御部110は、ユーザDB192を参照して、ユーザの脳機能を検査した最後の日時が、現時点から所定期間内であるか否かを判定する。
直近の所定期間内に脳機能の検査を実施していない場合(ステップS111;NO)、制御部110は、ユーザの脳機能の検査を実施する(ステップS112)。制御部110は、例えば図11又は図12に示した検査動作をロボット100に実行させる。このとき、制御部110は、検査動作に対するユーザの応答を音センサ115b又は手部107を介して検知する。これにより、制御部110は、ユーザの脳機能及び認知機能が正常であるか否かの検査を実施する。
これに対して、直近の所定期間内に脳機能の検査を実施している場合(ステップS111;YES)、制御部110は、ユーザの脳機能のトレーニングを実施する(ステップS113)。制御部110は、例えば図13に示したトレーニング支援動作をロボット100に実行させる。これにより、制御部110は、ユーザの脳機能をトレーニングし、ユーザの脳機能が低下することを抑制する。
ステップS112又はステップS113でユーザの脳機能の検査又はトレーニングを実施すると、制御部110は、ユーザDB192を更新する(ステップS114)。具体的に説明すると、制御部110は、脳機能の検査を実施した場合、検査結果をその日時と共にユーザDB192に記憶させる。一方で、制御部110は、トレーニングを実施した場合、トレーニングの内容をその日時と共にユーザDB192に記憶させる。
その後、制御部110は,処理をステップS102に戻す。そして、制御部110は、引き続きロボット100に通常の動作を実行させながら、必要に応じてユーザの握力を測定し、検査動作又はトレーニング支援動作をロボット100に実行させる処理を繰り返す。
以上説明したように、実施形態1に係るロボット100は、左右の手部107の少なくとも一方がユーザにより把持された場合に、ユーザの脳機能が低下しているか否かを示す情報として、ユーザの握力の強さを取得する。そして、実施形態1に係るロボット100は、取得した握力の強さが所定の閾値未満である場合に、ユーザの脳機能を検査するための検査動作と、ユーザの脳機能をトレーニングするためのトレーニング支援動作と、のうちの少なくとも一方を実行する。このように、左右の手部107の少なくとも一方がユーザにより把持された場合にロボット100が握力の強さからユーザの脳機能を診断するため、ユーザは、ロボット100と交流している場合に手軽に脳機能の診断を受けることができる。そして、握力による診断結果に応じて、ユーザは、脳機能の検査又はトレーニングを受けることができる。その結果、ユーザは、自身の脳機能を手軽にセルフケアすることができる。
(実施形態2)
次に、本発明の実施形態2について説明する。なお、実施形態1と同様の構成及び機能については、適宜説明を省略する。
前記実施形態1に係るロボット100は、所定の対象の身体機能に関する身体情報として、ユーザの握力の強さを取得した。これに対して、実施形態2に係るロボット100aは、所定の対象の身体情報として、検査動作に対する所定の対象の応答を検知することにより、検査情報を取得する。
図16に、実施形態2に係るロボット100aの機能的な構成を示す。図16に示すように、実施形態2に係るロボット100aは、機能的に、動作部120と、動作制御部130aと、識別部140と、取得部150aと、判定部160aと、を備える。制御部110において、CPUがROMに記憶されたプログラムをRAMに読み出して、読み出されたプログラムを実行して制御することにより、これら各部として機能する。なお、動作部120及び識別部140は、実施形態1において説明したものと同様であるため、ここでは説明を省略する。
また、ロボット100aは、動作DB191と、ユーザDB192とを備える。これらは、記憶部111の適宜の記憶領域に構築される。
動作制御部130aは、ロボット100aの左右の手部107の少なくとも一方がユーザにより把持された場合に、動作部120を制御して、ユーザの脳機能を検査するための検査動作をロボット100aに実行させる。ここで、検査動作は、実施形態1で説明したものと同様である。具体的に説明すると、動作制御部130aは、例えば図11に示したように、今日の日付を質問する音声を音声出力部118から出力する。又は、動作制御部130aは、図12に示したように、左右の目部104に方向を示す画像を表示し、且つ、左右の手部107をそれぞれ左右の目部104に表示された方向に動かすように指示する音声を音声出力部118から出力する。
取得部150aは、検査動作に対するユーザの応答を検知することにより、ユーザの身体機能に関する身体情報を取得する。例えば、ロボット100aにより図11に示した検査動作が実行された場合、ユーザは、今日の日付を声に出して答える。取得部150aは、ユーザから発せられた音声を音センサ115bにより検知する。これにより、取得部150aは、ユーザが簡単な日付の質問に正しく答えることができたか否かを示す検査情報を取得する。又は、ロボット100aにより図12に示した検査動作が実行された場合、ユーザは、把持しているロボット100aの左右の手部107を、指示された方向に動かす。取得部150aは、ユーザにより手部107が動かされた方向を検知する。これにより、取得部150aは、ユーザの注意力及び反応力を示す検査情報を取得する。
判定部160aは、取得部150aにより取得された身体情報に基づいて、ユーザの身体機能が低下しているか否かを判定する。例えば、判定部160aは、図11に示した検査動作に対して、ユーザから正しい日付の応答が取得されたか否かを判定する。又は、判定部160aは、図12に示した検査動作に対して、ユーザから適切なタイミングで正しい方向の入力が取得されたか否かを判定する。
検査動作に対してユーザから正常な応答が得られた場合、判定部160aは、ユーザの脳機能が正常であって、ユーザが認知症に罹患していないと判定する。一方で、検査動作に対してユーザから正常な応答が得られなかった場合、判定部160aは、ユーザの脳機能が低下しており、ユーザが認知症に罹患している可能性があると判定する。判定部160aは、検査情報によりユーザの脳機能が低下しているか否かを判定すると、その検査結果を日時と対応付けてユーザDB192に記憶させる。
動作制御部130aは、判定部160aによりユーザの脳機能が低下していると判定された場合に、動作部120を制御して、トレーニング支援動作をロボット100aに実行させる。ここで、トレーニング支援動作は、実施形態1で説明したものと同様である。具体的に説明すると、動作制御部130aは、例えば図13に示したように、所定のタイミングで左右の目部104の少なくとも一方に文字を表示し、且つ、表示された言葉を言いながら手部107を動かすようにユーザに指示する音声を、音声出力部118から出力する。
このようなトレーニング支援動作に対して、ユーザは、表示された文字を言いながら、把持しているロボット100aの左右の手部107の一方をレバーのように動かす。このようなトレーニング支援動作により、ユーザは脳を積極的に活動させて行動するため、ユーザの脳機能及び認知機能をトレーニングすることができる。
このように、検査動作によってユーザの脳機能が低下していると判定された場合にユーザの脳機能をトレーニングすることで、ユーザの脳機能が更に低下することを抑制することができる。動作制御部130aは、トレーニング支援動作をロボット100aに実行させると、そのトレーニング支援動作の内容を日時と対応付けてユーザDB192に記憶させる。
図17に示すフローチャートを参照して、実施形態2に係るロボット100aにおいて実行されるロボット制御処理の流れについて説明する。図17に示すロボット制御処理は、ロボット100aの電源が投入され、且つ、バッテリ112が充電されることによって、ロボット100aが正常に動作可能な状態になると、開始する。
図17に示すロボット制御処理において、ステップS201からステップS204までの処理は、図14に示したステップS101からステップS104の処理と同様である。具体的に説明すると、制御部110は、ロボット制御処理を開始すると、まず各種の設定を初期化する(ステップS201)。そして、制御部110は、状況に応じてロボット100aに各種の動作を実行させる(ステップS202)。
次に、制御部110は、手部107を握られたか否かを判定する(ステップS203)。手部107を握られていない場合(ステップS203;NO)、制御部110は、処理をステップS202に戻し、引き続き状況に応じて各種動作を動作部120に実行させる。これに対して、ユーザに手部107を握られた場合(ステップS203;YES)、制御部110は、識別部140として機能し、ユーザの顔を認識する(ステップS204)。
ユーザの顔を認識すると、制御部110は、ユーザがユーザDB192に登録されているか否かを判定する(ステップS205)。ユーザがユーザDB192に登録されていない場合(ステップS205;NO)、制御部110は、顔を認識したユーザが脳機能を検査又はトレーニングする対象ではないと判定する。そのため、制御部110は、ステップS206以降の処理には進まず、処理をステップS202に戻す。
これに対して、ユーザがユーザDB192に登録されている場合(ステップS205;YES)、制御部110は、ユーザの脳機能の検査を実施する(ステップS206)。制御部110は、例えば図11又は図12に示した検査動作をロボット100aに実行させる。このとき、制御部110は、検査動作に対するユーザの応答を音センサ115b又は手部107を介して検知する。これにより、制御部110は、ユーザの脳機能及び認知機能が正常であるか否かの検査を実施する。
脳機能の検査を実施すると、制御部110は、ユーザの脳機能が低下しているか否かを判定する(ステップS207)。具体的に説明すると、制御部110は、検査動作に対してユーザから正常な応答が得られた場合に、ユーザの脳機能が低下していないと判定し、検査動作に対してユーザから正常な応答が得られなかった場合に、ユーザの脳機能が低下していると判定する。
ユーザの脳機能が低下していないと判定した場合(ステップS207;NO)、制御部110は、ユーザの脳機能をトレーニングする必要が無いと判定する。そのため、制御部110は、処理をステップS202に戻し、引き続きロボット100aに通常の動作を実行させる。
これに対して、ユーザの脳機能が低下していると判定した場合(ステップS207;YES)、制御部110は、脳機能のトレーニングを実施する(ステップS208)。制御部110は、例えば図13に示したトレーニング支援動作をロボット100aに実行させる。これにより、制御部110は、ユーザの脳機能をトレーニングし、ユーザの脳機能が低下することを抑制する。
脳機能のトレーニングを実施すると、制御部110は、ユーザDB192を更新する(ステップS209)。具体的に説明すると、制御部110は、脳機能の検査を実施した場合、検査結果をその日時と共にユーザDB192に記憶させる。一方で、制御部110は、トレーニングを実施した場合、トレーニングの内容をその日時と共にユーザDB192に記憶させる。
その後、制御部110は,処理をステップS202に戻す。そして、制御部110は、引き続きロボット100aに通常の動作を実行させながら、必要に応じて検査動作又はトレーニング支援動作をロボット100aに実行させる処理を繰り返す。
以上説明したように、実施形態2に係るロボット100aは、左右の手部107の少なくとも一方がユーザにより把持された場合に、ユーザの脳機能を検査するための検査動作を実行し、ユーザの脳機能が低下しているか否かを示す情報を取得する。そして、実施形態2に係るロボット100aは、検査動作の結果として脳機能が低下していると判定された場合に、ユーザの脳機能をトレーニングするためのトレーニング支援動作を実行する。このように、左右の手部107の少なくとも一方がユーザにより把持された場合にロボット100aが検査動作を実行するため、ユーザは、ロボット100aとの交流中に手軽に脳機能の検査を受けることができる。その場合に、ユーザは、検査結果に応じて脳機能をトレーニングすることができる。その結果、ユーザは、自身の脳機能を手軽にセルフケアすることができる。
また、実施形態2に係るロボット100aは、ユーザの握力の強さを取得する構成が不要であるため、実施形態1に比べてより簡易な構成で、ユーザの脳機能の低下を抑制することを効果的に支援することができる。
(変形例)
以上に本発明の実施形態について説明したが、前記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、前記実施形態では、動作制御部130,130aは、左右の手部107がユーザにより把持された状態で、検査動作又はトレーニング支援動作をロボット100,100aに実行させた。このように左右の手部107がユーザにより把持された状態は、ユーザの顔はロボット100,100aの頭部101と向かい合っている状態であるため、撮像部115aにより撮像されたユーザの顔の画像からユーザの表情を高精度で認識することが可能である。そのため、画像認識部119は、ユーザの顔を認識し、動作制御部130,130aは、画像認識部119により認識されたユーザの顔の表情の変化に応じて、ロボット100,100aに実行させる検査動作又はトレーニング支援動作を変化させても良い。
例えば、検査動作又はトレーニング支援動作の最中にユーザの表情が悪くなった場合、動作制御部130,130aは、別の検査動作又は別のトレーニング支援動作をロボット100,100aに実行させても良い。又は、検査動作又はトレーニング支援動作の最中にユーザが相対的に良い表情をしている場合、動作制御部130,130aは、そのユーザに対して今後もその検査動作又はトレーニング支援動作をロボット100,100aに実行させても良い。これにより、ユーザのセルフケアをより効果的に支援することができる。
前記実施形態では、取得部150,150aは、身体情報として、所定の対象の脳機能及び認知機能に関する情報を取得した。しかしながら、本発明において、取得部150,150aは、身体情報として、これら以外の機能に関する情報を取得しても良い。
動作制御部130,130aは、左右の手部107の少なくとも一方がユーザにより把持された時間が規定時間よりも短い場合、動作部120を制御して、ユーザに手部107を把持する時間を延長するように要求する動作をロボット100,100aに実行させても良い。規定時間は、身体情報を取得するために必要な時間として予め規定された長さの時間であって、具体的には、ユーザの握力を測定するため、又は、ユーザの身体機能を検査するために必要な時間である。例えば、ユーザが手部107を把持し始めてから規定時間が経過するまでに把持する力を弱めた場合、動作制御部130,130aは、ユーザに把持する力を暫くの間は弱めないように要求する音声を音声出力部118から出力する。
動作制御部130,130aは、予め定められた期間(例えば1か月等)に亘ってユーザの身体情報を取得していない場合に、ユーザに手部107を把持するように促す動作をロボット100,100aに実行させても良い。例えば、動作制御部130,130aは、手部107を自装置の前方に差し出しながら、移動部121によりユーザの方に向けてロボット100,100aを移動させても良い。このように定期的にユーザの身体情報を取得することで、ユーザの身体機能が低下しているか否かを判定することができるため、ユーザのセルフケアを効果的に支援することができる。
動作制御部130,130aは、判定部160,160aによりユーザの身体機能が低下していると判定された場合、身体機能の低下レベル、すなわち身体機能の低下の度合に応じて、ロボット100,100aに実行させるトレーニング支援動作の回数、種類又は難易度を変化させても良い。例えば、動作制御部130,130aは、身体機能の低下レベルが相対的に大きい場合には、トレーニング支援動作の回数を増やしても良い。又は、トレーニング支援動作の後に実行した検査動作によりユーザの身体機能が改善されていないと判定された場合、動作制御部130,130aは、ロボット100,100aに実行させるトレーニング支援動作の種類又は難易度を変化させても良い。このようにして、状況に応じて効果が高いトレーニングをユーザに実施させることにより、ユーザのセルフケアを的確に支援することができる。
前記実施形態では、ロボット100,100aは、犬を模したロボットであった。しかしながら、本発明に係るロボット100,100aは、どのような形状を有していても良い。例えば、本発明に係るロボット100,100aは、外観的に猫、鼠、兎等の他の動物を模していても良いし、人間を模していても良い。
前記実施形態では、表示部117は目部104に設けられており、撮像部115aは口部105に設けられていた。しかしながら、本発明において、表示部117は目部104以外の場所に設けられていても良いし、撮像部115aは口部105以外の場所(例えば鼻部等)に設けられていても良い。
前記実施形態では、動作DB191、ユーザDB192及び握力DB193は、ロボット100,100aの内部に設けられていた。しかしながら、本発明において、これらのDBのうちの少なくとも1つは、ロボット100,100aの外部の装置に設けられていても良い。外部の装置とは、例えばクラウドサーバであっても良いし、ロボット100,100aのバッテリ112に充電する充電ステーションであっても良い。この場合、ロボット100,100aは、無線通信部116を介して外部の装置と通信することにより、各DBにデータを登録し、各DBからデータを読み出す。
また、判定部160,160aの機能は、ロボット100,100aに設けられることに限らず、ロボット100,100aの外部の装置に設けられていても良い。例えば、握力DB193を備えた外部の装置が判定部160,160aの機能を備えていても良い。この場合、外部の装置は、ロボット100,100aにおいて取得された所定の対象の身体情報をロボット100,100aから受信し、受信した身体情報により握力DB193を更新する。そして、外部の装置は、握力DB193を参照して、所定の対象の身体機能が低下しているか否かを判定し、判定結果をロボット100,100aに通知する。
また、実施形態1で説明した機能及び動作と実施形態2で説明した機能及び動作とを自由に組み合わせても良い。例えば、ロボット100,100aは、ユーザの身体情報として、実施形態1で説明したように握力の強さを取得し、握力の強さが所定の閾値未満である場合に、更にユーザの身体情報として、実施形態2で説明したように検査動作に対するユーザの応答を検知しても良い。そして、ロボット100,100aは、実施形態2で説明したように、検査動作に対するユーザの応答に基づいてユーザの身体機能が低下しているか否かを判定し、ユーザの身体機能が低下していると判定された場合に、トレーニング支援動作を実行しても良い。
前記実施形態では、制御部110において、CPUがROMに記憶されたプログラムを実行することによって、図3に示した各部として機能した。しかしながら、本発明において、制御部110は、CPUの代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、図3に示した各部として機能しても良い。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうちの、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。
なお、本発明に係る機能を実現するための構成を予め備えたロボットとして提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係るロボットとして機能させることもできる。すなわち、前記実施形態で例示したロボット100による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係るロボットとして機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
自装置に動作をさせる動作手段と、
所定の対象により把持される把持手段と、
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得する取得手段と、
前記取得手段により取得された前記身体情報に応じて前記動作手段を制御することにより、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方を前記自装置に実行させる動作制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記取得手段により取得された前記身体情報に基づいて、前記所定の対象の前記身体機能が低下しているか否かを判定する判定手段、
を更に備え、
前記動作制御手段は、前記判定手段により前記身体機能が低下していると判定された場合、前記動作手段を制御して、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記動作制御手段は、前記判定手段により前記身体機能が低下していると判定され、且つ、直近の所定期間内に前記所定の対象の前記身体機能が検査されていない場合、前記動作手段を制御して、前記検査動作を前記自装置に実行させる、
ことを特徴とする付記2に記載のロボット。
(付記4)
前記動作制御手段は、前記判定手段により前記身体機能が低下していると判定され、且つ、直近の所定期間内に前記所定の対象の前記身体機能が検査されている場合、前記動作手段を制御して、前記トレーニング支援動作を前記自装置に実行させる、
ことを特徴とする付記2又は3に記載のロボット。
(付記5)
前記取得手段は、前記身体情報として、前記所定の対象の脳機能に関する情報を取得する、
ことを特徴とする付記1乃至4の何れか1つに記載のロボット。
(付記6)
前記検査動作は、前記所定の対象の認知症であるか否かを検査するための動作であり、
前記トレーニング支援動作は、前記認知症を予防するための動作である、
ことを特徴とする付記1乃至5の何れか1つに記載のロボット。
(付記7)
前記把持手段に、前記所定の対象の握力の強さを測定する握力測定手段、
を更に備え、
前記取得手段は、前記身体情報として、前記握力測定手段により測定された前記握力の強さを取得する、
ことを特徴とする付記1乃至6の何れか1つに記載のロボット。
(付記8)
前記動作制御手段は、前記取得手段により取得された前記握力の強さが所定の閾値未満である場合に、前記動作手段を制御して、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
ことを特徴とする付記7に記載のロボット。
(付記9)
前記動作制御手段は、前記把持手段が前記所定の対象に把持された場合に、前記動作手段を制御して、前記検査動作を前記自装置に実行させ、
前記取得手段は、前記検査動作に対する前記所定の対象の応答を検知することにより、前記身体情報を取得し、
前記動作制御手段は、前記取得手段により取得された前記身体情報に基づいて、前記所定の対象の前記身体機能が低下していると判定された場合に、前記動作手段を制御して、前記トレーニング支援動作を前記自装置に実行させる、
ことを特徴とする付記1乃至8の何れか1つに記載のロボット。
(付記10)
前記取得手段は、前記応答として、前記所定の対象から発せられた音声を検知することにより、又は、前記所定の対象により前記把持手段が動かされた方向を検知することにより、前記身体情報を取得する、
ことを特徴とする付記9に記載のロボット。
(付記11)
前記動作制御手段は、前記把持手段が前記所定の対象により把持された状態で、前記動作手段を制御して、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
ことを特徴とする付記1乃至10の何れか1つに記載のロボット。
(付記12)
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の顔を認識する認識手段、
を更に備え、
前記動作制御手段は、前記認識手段により認識された前記顔の表情の変化に応じて、前記自装置に実行させる前記検査動作又は前記トレーニング支援動作を変化させる、
ことを特徴とする付記1乃至11の何れか1つに記載のロボット。
(付記13)
前記動作制御手段は、前記把持手段が前記所定の対象により把持された時間が規定時間よりも短い場合、前記動作手段を制御して、前記所定の対象に前記把持手段を把持する時間を延長するように要求する、
ことを特徴とする付記1乃至12の何れか1つに記載のロボット。
(付記14)
前記動作手段は、前記自装置を移動させる移動手段を含み、
前記動作制御手段は、前記把持手段を前記自装置の前方に差し出しながら、前記移動手段を制御することにより、前記自装置を前記所定の対象に向けて移動させる、
ことを特徴とする付記1乃至13の何れか1つに記載のロボット。
(付記15)
前記動作制御手段は、前記取得手段により取得された前記身体情報に基づいて前記所定の対象の前記身体機能が低下していると判定された場合、前記身体機能の低下レベルに応じて、前記自装置に実行させる前記トレーニング支援動作の回数、種類又は難易度を変化させる、
ことを特徴とする付記1乃至14の何れか1つに記載のロボット。
(付記16)
前記把持手段は、前記自装置に設けられた少なくとも1つの手部である、
ことを特徴とする付記1乃至15の何れか1つに記載のロボット。
(付記17)
前記動作手段は、可動手段と表示手段と音声出力手段とのうちの少なくとも1つを含み、
前記動作制御手段は、前記可動手段を動かす、前記表示手段に画像を表示する、又は、前記音声出力手段から音声を出力することにより、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
ことを特徴とする付記1乃至16の何れか1つに記載のロボット。
(付記18)
前記所定の対象は、人間を含む、
ことを特徴とする付記1乃至17の何れか1つに記載のロボット。
(付記19)
所定の対象により把持される把持手段を有するロボットの制御方法であって、
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得し、
取得した前記身体情報に応じて、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方をロボットに実行させる、
ことを含む、
ことを特徴とするロボットの制御方法。
(付記20)
所定の対象により把持される把持手段を有するロボットのコンピュータを、
前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得する取得手段、
前記取得手段により取得された前記身体情報に応じて、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方を前記ロボットに実行させる動作制御手段、
として機能させる、
ことを特徴とするプログラム。
100,100a…ロボット、101…頭部、102…胴体部、103…耳部、104…目部、105…口部、107…手部、108…足部、110…制御部、111…記憶部、112…バッテリ、113…駆動ドライバ、114…可動部、115…センサ部、115a…撮像部、115b…音センサ、115c…接触センサ、115d…握力センサ、116…無線通信部、117…表示部、118…音声出力部、119…画像認識部、120…動作部、121…移動部、130,130a…動作制御部、140…識別部、150,150a…取得部、160,160a…判定部、191…動作DB、192…ユーザDB、193…握力DB、UH…手

Claims (20)

  1. 自装置に動作をさせる動作手段と、
    所定の対象により把持される把持手段と、
    前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得する取得手段と、
    前記取得手段により取得された前記身体情報に応じて前記動作手段を制御することにより、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方を前記自装置に実行させる動作制御手段と、
    を備える、
    ことを特徴とするロボット。
  2. 前記取得手段により取得された前記身体情報に基づいて、前記所定の対象の前記身体機能が低下しているか否かを判定する判定手段、
    を更に備え、
    前記動作制御手段は、前記判定手段により前記身体機能が低下していると判定された場合、前記動作手段を制御して、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記動作制御手段は、前記判定手段により前記身体機能が低下していると判定され、且つ、直近の所定期間内に前記所定の対象の前記身体機能が検査されていない場合、前記動作手段を制御して、前記検査動作を前記自装置に実行させる、
    ことを特徴とする請求項2に記載のロボット。
  4. 前記動作制御手段は、前記判定手段により前記身体機能が低下していると判定され、且つ、直近の所定期間内に前記所定の対象の前記身体機能が検査されている場合、前記動作手段を制御して、前記トレーニング支援動作を前記自装置に実行させる、
    ことを特徴とする請求項2又は3に記載のロボット。
  5. 前記取得手段は、前記身体情報として、前記所定の対象の脳機能に関する情報を取得する、
    ことを特徴とする請求項1乃至4の何れか1項に記載のロボット。
  6. 前記検査動作は、前記所定の対象の認知症であるか否かを検査するための動作であり、
    前記トレーニング支援動作は、前記認知症を予防するための動作である、
    ことを特徴とする請求項1乃至5の何れか1項に記載のロボット。
  7. 前記把持手段に、前記所定の対象の握力の強さを測定する握力測定手段、
    を更に備え、
    前記取得手段は、前記身体情報として、前記握力測定手段により測定された前記握力の強さを取得する、
    ことを特徴とする請求項1乃至6の何れか1項に記載のロボット。
  8. 前記動作制御手段は、前記取得手段により取得された前記握力の強さが所定の閾値未満である場合に、前記動作手段を制御して、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
    ことを特徴とする請求項7に記載のロボット。
  9. 前記動作制御手段は、前記把持手段が前記所定の対象に把持された場合に、前記動作手段を制御して、前記検査動作を前記自装置に実行させ、
    前記取得手段は、前記検査動作に対する前記所定の対象の応答を検知することにより、前記身体情報を取得し、
    前記動作制御手段は、前記取得手段により取得された前記身体情報に基づいて、前記所定の対象の前記身体機能が低下していると判定された場合に、前記動作手段を制御して、前記トレーニング支援動作を前記自装置に実行させる、
    ことを特徴とする請求項1乃至8の何れか1項に記載のロボット。
  10. 前記取得手段は、前記応答として、前記所定の対象から発せられた音声を検知することにより、又は、前記所定の対象により前記把持手段が動かされた方向を検知することにより、前記身体情報を取得する、
    ことを特徴とする請求項9に記載のロボット。
  11. 前記動作制御手段は、前記把持手段が前記所定の対象により把持された状態で、前記動作手段を制御して、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
    ことを特徴とする請求項1乃至10の何れか1項に記載のロボット。
  12. 前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の顔を認識する認識手段、
    を更に備え、
    前記動作制御手段は、前記認識手段により認識された前記顔の表情の変化に応じて、前記自装置に実行させる前記検査動作又は前記トレーニング支援動作を変化させる、
    ことを特徴とする請求項1乃至11の何れか1項に記載のロボット。
  13. 前記動作制御手段は、前記把持手段が前記所定の対象により把持された時間が規定時間よりも短い場合、前記動作手段を制御して、前記所定の対象に前記把持手段を把持する時間を延長するように要求する、
    ことを特徴とする請求項1乃至12の何れか1項に記載のロボット。
  14. 前記動作手段は、前記自装置を移動させる移動手段を含み、
    前記動作制御手段は、前記把持手段を前記自装置の前方に差し出しながら、前記移動手段を制御することにより、前記自装置を前記所定の対象に向けて移動させる、
    ことを特徴とする請求項1乃至13の何れか1項に記載のロボット。
  15. 前記動作制御手段は、前記取得手段により取得された前記身体情報に基づいて前記所定の対象の前記身体機能が低下していると判定された場合、前記身体機能の低下レベルに応じて、前記自装置に実行させる前記トレーニング支援動作の回数、種類又は難易度を変化させる、
    ことを特徴とする請求項1乃至14の何れか1項に記載のロボット。
  16. 前記把持手段は、前記自装置に設けられた少なくとも1つの手部である、
    ことを特徴とする請求項1乃至15の何れか1項に記載のロボット。
  17. 前記動作手段は、可動手段と表示手段と音声出力手段とのうちの少なくとも1つを含み、
    前記動作制御手段は、前記可動手段を動かす、前記表示手段に画像を表示する、又は、前記音声出力手段から音声を出力することにより、前記検査動作と前記トレーニング支援動作とのうちの少なくとも一方を前記自装置に実行させる、
    ことを特徴とする請求項1乃至16の何れか1項に記載のロボット。
  18. 前記所定の対象は、人間を含む、
    ことを特徴とする請求項1乃至17の何れか1項に記載のロボット。
  19. 所定の対象により把持される把持手段を有するロボットの制御部が実行する制御方法であって、
    前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得し、
    取得した前記身体情報に応じて、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方をロボットに実行させる、
    ことを含む、
    ことを特徴とするロボットの制御方法。
  20. 所定の対象により把持される把持手段を有するロボットのコンピュータを、
    前記把持手段が前記所定の対象により把持された場合に、前記所定の対象の身体機能に関する身体情報を取得する取得手段、
    前記取得手段により取得された前記身体情報に応じて、前記所定の対象の前記身体機能を検査する検査動作と、前記所定の対象に前記身体機能をトレーニングさせるトレーニング支援動作と、のうちの少なくとも一方を前記ロボットに実行させる動作制御手段、
    として機能させる、
    ことを特徴とするプログラム。
JP2018117796A 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム Active JP7107017B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018117796A JP7107017B2 (ja) 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム
CN201910509245.XA CN110625607B (zh) 2018-06-21 2019-06-13 机器人及存储介质
US16/447,719 US11305433B2 (en) 2018-06-21 2019-06-20 Robot, robot control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018117796A JP7107017B2 (ja) 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019217081A JP2019217081A (ja) 2019-12-26
JP7107017B2 true JP7107017B2 (ja) 2022-07-27

Family

ID=68968424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018117796A Active JP7107017B2 (ja) 2018-06-21 2018-06-21 ロボット、ロボットの制御方法及びプログラム

Country Status (3)

Country Link
US (1) US11305433B2 (ja)
JP (1) JP7107017B2 (ja)
CN (1) CN110625607B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035639B (zh) * 2020-08-30 2021-08-03 上海松鼠课堂人工智能科技有限公司 智能自动答题机器人系统
WO2023063159A1 (ja) * 2021-10-13 2023-04-20 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001162055A (ja) 1999-12-14 2001-06-19 Sanyo:Kk 音声再生人形玩具
JP2002045343A (ja) 2000-08-01 2002-02-12 Sanyo Electric Co Ltd バイタルセンサ
JP2004157941A (ja) 2002-11-08 2004-06-03 Nippon Colin Co Ltd ホームケア・システムおよびそのサーバ,ならびにホームケア・システムに用いられるおもちゃ装置
JP2006280966A (ja) 2006-06-19 2006-10-19 Toshiba Corp 生体検査システム
JP2007282992A (ja) 2006-04-19 2007-11-01 Sky Kk 認知症診断支援システム
US20160174901A1 (en) 2014-12-18 2016-06-23 Id Guardian Ltd. Child health monitoring toy
JP2018047163A (ja) 2016-09-23 2018-03-29 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2246799A1 (en) * 2001-05-15 2010-11-03 Psychogenics Inc. Systems and methods for monitoring behaviour informatics
US20060241718A1 (en) * 2003-11-26 2006-10-26 Wicab, Inc. Systems and methods for altering brain and body functions and for treating conditions and diseases of the same
WO2006021952A2 (en) * 2004-08-25 2006-03-02 Reability Inc. Motor training with brain plasticity
JP2006320621A (ja) 2005-05-20 2006-11-30 Sharp Corp ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置
US7856264B2 (en) * 2005-10-19 2010-12-21 Advanced Neuromodulation Systems, Inc. Systems and methods for patient interactive neural stimulation and/or chemical substance delivery
US7827124B2 (en) * 2005-12-28 2010-11-02 Neurosciences Research Foundation, Inc. Brain-based device having a cerebellar model for predictive motor control
US7558622B2 (en) * 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
CN100594867C (zh) * 2007-12-10 2010-03-24 华中科技大学 一种穿戴式手功能康复机器人及其控制系统
WO2009104190A2 (en) * 2008-02-21 2009-08-27 Motorika Limited A system and a method for scoring functional abilities of a patient
US20100268287A1 (en) * 2009-03-13 2010-10-21 The Johns Hopkins University Methods and devices for increasing learning and effects of training in healthy individuals and patients after brain lesions using dc stimulation and apparatuses and systems related thereto
US10617348B2 (en) * 2009-09-10 2020-04-14 Newton Howard Fundamental code unit of the brain: photoreceptor protein-mediated photonic signaling within neural tissue and its uses in brain co-processor
US8562488B2 (en) * 2009-10-05 2013-10-22 The Cleveland Clinic Foundation Systems and methods for improving motor function with assisted exercise
JP2014035541A (ja) * 2012-08-10 2014-02-24 Casio Comput Co Ltd コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム
EP2895834A1 (en) * 2012-09-11 2015-07-22 Syntouch LLC Compliant tactile sensor with fluid-filled, sponge-like material
US10071015B2 (en) * 2013-04-18 2018-09-11 Uwm Research Foundation, Inc. Wearable device for improving tactile sensitivity
US9390630B2 (en) * 2013-05-03 2016-07-12 John James Daniels Accelerated learning, entertainment and cognitive therapy using augmented reality comprising combined haptic, auditory, and visual stimulation
US9717440B2 (en) * 2013-05-03 2017-08-01 The Florida International University Board Of Trustees Systems and methods for decoding intended motor commands from recorded neural signals for the control of external devices or to interact in virtual environments
US10546185B2 (en) * 2015-12-01 2020-01-28 Casio Computer Co., Ltd. Image processing apparatus for performing image processing according to privacy level
JP6693111B2 (ja) * 2015-12-14 2020-05-13 カシオ計算機株式会社 対話装置、ロボット、対話方法及びプログラム
JP2017173547A (ja) * 2016-03-23 2017-09-28 カシオ計算機株式会社 ロボット制御装置、ロボット、ロボット制御方法、ロボット制御システム及びプログラム
US11957897B2 (en) * 2016-04-22 2024-04-16 Newton Howard Biological co-processor (BCP)
JP6380469B2 (ja) * 2016-06-23 2018-08-29 カシオ計算機株式会社 ロボット、ロボット制御方法及びプログラム
JP2018046485A (ja) * 2016-09-16 2018-03-22 カシオ計算機株式会社 情報出力制御装置、情報出力制御方法、及びプログラム
JP6607162B2 (ja) * 2016-09-23 2019-11-20 カシオ計算機株式会社 ロボット、状態判定システム、状態判定方法及びプログラム
JP6468274B2 (ja) * 2016-12-08 2019-02-13 カシオ計算機株式会社 ロボット制御装置、生徒ロボット、教師ロボット、学習支援システム、ロボット制御方法及びプログラム
JP6673276B2 (ja) * 2017-03-28 2020-03-25 カシオ計算機株式会社 音声検出装置、音声検出方法、及びプログラム
JP2019005842A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP2019005846A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10960225B2 (en) * 2017-10-10 2021-03-30 Massachusetts Institute Of Technology Systems and methods for preventing, mitigating, and/or treating dementia via visual stimulation that binds higher order brain regions, reduces neurodegeneration and neuroinflammation, and improves cognitive function
CN108078733B (zh) * 2017-11-17 2020-12-15 中国科学院宁波材料技术与工程研究所 用于减缓帕金森患者上肢震颤及肌强直的训练设备及方法
JP6724889B2 (ja) * 2017-12-07 2020-07-15 カシオ計算機株式会社 見守りシステム及び見守り方法
JP2019104087A (ja) * 2017-12-13 2019-06-27 カシオ計算機株式会社 デバイス制御装置、デバイス制御方法及びプログラム
JP6747423B2 (ja) * 2017-12-22 2020-08-26 カシオ計算機株式会社 ロボット、ロボット制御システム、ロボットの制御方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001162055A (ja) 1999-12-14 2001-06-19 Sanyo:Kk 音声再生人形玩具
JP2002045343A (ja) 2000-08-01 2002-02-12 Sanyo Electric Co Ltd バイタルセンサ
JP2004157941A (ja) 2002-11-08 2004-06-03 Nippon Colin Co Ltd ホームケア・システムおよびそのサーバ,ならびにホームケア・システムに用いられるおもちゃ装置
JP2007282992A (ja) 2006-04-19 2007-11-01 Sky Kk 認知症診断支援システム
JP2006280966A (ja) 2006-06-19 2006-10-19 Toshiba Corp 生体検査システム
US20160174901A1 (en) 2014-12-18 2016-06-23 Id Guardian Ltd. Child health monitoring toy
JP2018047163A (ja) 2016-09-23 2018-03-29 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Also Published As

Publication number Publication date
CN110625607B (zh) 2023-05-09
US11305433B2 (en) 2022-04-19
JP2019217081A (ja) 2019-12-26
US20190389072A1 (en) 2019-12-26
CN110625607A (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US11514269B2 (en) Identification device, robot, identification method, and storage medium
US11675360B2 (en) Information processing apparatus, information processing method, and program
JP5294315B2 (ja) 対話活性化ロボット
JP7107017B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20200269421A1 (en) Information processing device, information processing method, and program
US11780098B2 (en) Robot, robot control method, and recording medium
US20220241985A1 (en) Systems and methods to manage conversation interactions between a user and a robot computing device or conversation agent
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
Silva et al. Mirroring and recognizing emotions through facial expressions for a RoboKind platform
KR101307783B1 (ko) 사회성 훈련 장치 및 그 방법
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20220288791A1 (en) Information processing device, information processing method, and program
US20230215436A1 (en) Systems and methods for adaptive human-machine interaction and automatic behavioral assessment
EP3738726B1 (en) Animal-shaped autonomous moving body, method of operating animal-shaped autonomous moving body, and program
US11446813B2 (en) Information processing apparatus, information processing method, and program
US20210264899A1 (en) Information processing apparatus, information processing method, and program
WO2013183822A1 (ko) 사회성 훈련 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7107017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150