JP2021121316A - パーソナルアシスタント制御システム - Google Patents

パーソナルアシスタント制御システム Download PDF

Info

Publication number
JP2021121316A
JP2021121316A JP2021068595A JP2021068595A JP2021121316A JP 2021121316 A JP2021121316 A JP 2021121316A JP 2021068595 A JP2021068595 A JP 2021068595A JP 2021068595 A JP2021068595 A JP 2021068595A JP 2021121316 A JP2021121316 A JP 2021121316A
Authority
JP
Japan
Prior art keywords
user
period
sensor
information
sensor group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021068595A
Other languages
English (en)
Other versions
JP7350356B2 (ja
Inventor
康裕 川内
Yasuhiro Kawauchi
康裕 川内
珠幾 中村
Tamaki Nakamura
珠幾 中村
理 遠山
Osamu Toyama
理 遠山
貴裕 井上
Takahiro Inoue
貴裕 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Living Robot Inc
Original Assignee
Living Robot Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Living Robot Inc filed Critical Living Robot Inc
Priority to JP2021068595A priority Critical patent/JP7350356B2/ja
Publication of JP2021121316A publication Critical patent/JP2021121316A/ja
Application granted granted Critical
Publication of JP7350356B2 publication Critical patent/JP7350356B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Telephonic Communication Services (AREA)
  • Massaging Devices (AREA)
  • Sewing Machines And Sewing (AREA)
  • Lock And Its Accessories (AREA)

Abstract

【課題】人の成長に合わせてロボット等がパートナーとしてユーザを適切にサポートすることが可能なパーソナルアシスタント制御システムを提供する。【解決手段】期間T1に利用され、第1センサ群から情報を取得する第1パーソナルアシスタント(PA1)と、期間T2に利用され、第2センサ群から情報を取得する第2パーソナルアシスタント(PA2)と、PA1及びPA2と接続され、第1センサ群または第2センサ群から得た情報に基づいてユーザ3の状況を推定するサーバ5とを備え、サーバ5は、T1において第1センサ群から取得した情報に基づいて、ユーザ3に対する第三者の行為を抽出し、第三者の行為とユーザ3の状況とを関連付けて学習し、T2において第2センサ群で取得した情報から推定されたユーザ3の状況に基づいて、T1における第三者の行為の少なくとも一部を再現するようPA2に対して指示を行う。【選択図】図1

Description

本発明は、ロボット等のパーソナルアシスタントを制御するパーソナルアシスタント制御システムに関し、特に人の成長に合わせて適切なサービスを提供するパーソナルアシスタント制御システムに関する。
これまでロボットは、主に生産の自動化等を目的としたいわゆる産業用ロボットが大半を占めていたが、昨今では受付/接客、製品紹介等といった不特定多数の人とのコミュニケーションを行うロボットが社会に導入され始めている。今後ロボットは、個人によって所有され、当該個人に対して適切なサービスを提供するために、パーソナルアシスタントとしての機能が強化されていくと考えられ、現在においては幼児向けや高齢者向けの見守りロボットの開発が進められている。
幼児向けの見守りロボットとして、例えばスマートフォン等を持たない小さな子ども(幼児)向けに親子間、友人間の音声チャットを実現するコミュニケーションロボットが知られている。他方、高齢者向けの見守りロボットについては、経済産業省と厚生労働省とが、ロボット技術の介護利用における重点分野として「見守り・コミュニケーション」を掲げ、具体的には重点分野として「介護施設において使用する、センサや外部通信機能を備えたロボット技術を用いた機器のプラットフォーム」、「高齢者等とのコミュニケーションにロボット技術を用いた生活支援機器」が挙げられている。
従来の見守り機器が単に見守り対象の状態を検知・通知するものであったのに対し、見守りロボットは見守り対象の状態を検知してアラートを通知するのみならず、見守り対象の状態を予測する点や、アラート発生時の状況を分析できるようになった点で改良されており、また見守りロボットをネットワークに接続することで、見守りと同時に見守り対象の行動や生活データを蓄積し、そのデータを活用することで、例えば高齢者向けの見守りにおいては、ケアプランの改善や介護の質の向上にも繋げることができるとされている。
パーソナルアシスタントとしてのロボットを提供する技術として、例えば、少なくとも1つのセンサ、通信ユニット及び出力装置に接続されたロボット装置又はプラットフォームを用いてパーソナルアシスタントを能動的且つ自動的に提供するコンピュータベースの方法であって、前記少なくとも1つのセンサを用いて、前記少なくとも1つのセンサの少なくとも1つの近くの少なくとも1人の人と関連した第1のデータを検出する工程と、前記少なくとも1つのセンサを用いて、前記少なくとも1つのセンサの少なくとも1つの近くの物体、生物、イベント、場所、環境又はこれらの組合せと関連した第2のデータを検出する工程と、前記プロセッサを用いて、学習データを、前記第1検出データ、前記第2検出データ、前記データベースに保存された予めプログラムされたアルゴリズム又はこれらの組合せに基づいてデータベースに選択的に保存する工程と、前記プロセッサと接続され又は通信可能な前記通信ユニット又は前記出力装置を用いて、第1出力データを、前記プロセッサによって受信された要求又は前記データベースに保存された所定の若しくは予定されたイベントに応じて受動的に出力する工程と、前記通信ユニット又は前記出力装置を用いて、第2出力データを、前記第1検出データ、前記第2検出データ、前記学習データ、前記予めプログラムされたアルゴリズム又はこれらの組合せに基づいて能動的且つ自動的に出力する工程と、を含むコンピュータベースの方法が知られている。(特許文献1)
特許文献1によれば、ユーザとユーザをとりまく環境に関するデータを検出及び処理するとともに、検出及び分析したデータに基づいて、ロボットプラットフォーム/装置を使用してパーソナルアシスタントを能動的且つ自動的に提供するための方法/システムを提供することができるとしている。
特開2014−176963号公報
しかしながら、特許文献1に記載された技術は、ユーザに対するリマインドの提供、医療機関での診察時のアドバイス、アルツハイマー病であるユーザのサポート、親/介護者の子供に対するペアレンタル・コントロールの支援、車椅子を利用するユーザの支援等の各シーンについてパーソナルアシスタントが介在する状況については開示されているものの、人の成長とともにパーソナルアシスタントとしてのロボットが入れ替わった際における、具体的なパーソナルアシスタントの制御態様については何ら開示されていない。
即ち、幼児が成人に成長する過程や成人後に徐々に高齢化していく過程は日々連続的な事象であるが、他方ロボット等のパーソナルアシスタントは人の成長や高齢化におけるある時点において、ユーザ等の購入等の行為によってドラスティックに入れ替わるのが通常であると考えられる。特許文献1に記載された技術は、このようなパーソナルアシスタントのドラスティックな入れ替わりが生じた場合に、ロボットを含むシステムにおいてどのような処理が実行されるべきであるかについては言及されていない。
本発明は、このような従来技術の課題を解決するべく案出されたものであり、人の成長とともにロボット等のパーソナルアシスタントが入れ替わったとしても、パーソナルアシスタントが単なる道具ではなく、人の成長に合わせてパートナーとしてユーザを適切にサポートすることが可能なパーソナルアシスタント制御システムを提供することにある。
前記課題を解決するためになされた本発明は、ユーザによって第1の期間に利用され、複数のセンサを含む第1のセンサ群から情報を取得する第1のパーソナルアシスタントと、前記ユーザによって第2の期間に利用され、複数のセンサを含む第2のセンサ群から情報を取得する第2のパーソナルアシスタントと、前記第1のパーソナルアシスタント及び前記第2のパーソナルアシスタントとネットワークを介して接続され、前記第1のセンサ群または前記第2のセンサ群から取得した情報に基づいて前記ユーザの状況を推定するサーバとを備え、前記サーバは、前記第1の期間において、前記第1のセンサ群から取得した情報に基づいて、前記ユーザに対する第三者の行為を抽出し、前記第三者の行為と前記第1のセンサ群で取得した情報に基づく前記ユーザの状況とを関連付けて学習し、前記第2の期間において、前記第2のセンサ群で取得した情報から推定された前記ユーザの状況に基づいて、前記第1の期間における前記第三者の行為の少なくとも一部を再現するよう、前記第2のパーソナルアシスタントに対して指示を行うパーソナルアシスタント制御システムである。
これによって、第2の期間においては、第2のセンサ群で取得された情報に基づいてユーザの状況を示す指標が導出される。そして、導出された指標に基づいて、第1の期間において学習された第三者の行為(例えば、ユーザに対する語りかけ)が再現される。
例えば第1の期間において第三者としての母親の「〇〇ちゃん、可愛いよ」との語りかけにより、ユーザが「興奮している」から「おちついている」、「笑っている」に変化した場合が多いほど、第2の期間においてユーザが「興奮している」状況においては、蓄積された音情報のうち、母親の「〇〇ちゃん、可愛いよ」の発声行為が再生・再現される確率が高くなる。この機能は、特にユーザの近くに第三者が不在であるときに、例えばユーザが泣き出したようなシーンにおいて、有効に機能する。
また、本発明は、前記第1のセンサ群及び前記第2のセンサ群には、共通の属性を取得する共通センサと、前記共通センサ以外の非共通センサとが含まれ、前記第1の期間及び前記第2の期間において、前記サーバは、前記共通センサの出力と前記非共通センサの出力とを参照して、前記ユーザの状況を示す共通の指標を導出するものである。
これによって、共通する指標(感性指標)を用いることで、例えばユーザが乳児のときに学習された応答内容を、その後ユーザが幼児に成長したときにおいても活用できるようになる。
このように本発明によれば、人の成長とともにロボット等のパーソナルアシスタントが入れ替わったとしても、パーソナルアシスタントが単なる道具ではなく、人の成長に合わせてパートナーとしてユーザを適切にサポートすることが可能となる。
本発明の第1実施形態における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図 (a)〜(d)は、本発明の第1実施形態における第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図 本発明の第1実施形態における第1の期間T1におけるパーソナルアシスタント制御システムS1の構成を示すブロック図 本発明の第1実施形態における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図 第1実施形態の第1変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図 第1実施形態の第1変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図 第1実施形態の第2変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図 第1実施形態の第2変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図 本発明の第2実施形態における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図 (a),(b)は、本発明の第2実施形態におけるプレ期間T0、第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図 本発明の第2実施形態におけるプレ期間T0におけるパーソナルアシスタント制御システムS1の構成を示すブロック図 本発明の第2実施形態の変形例における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図
(第1実施形態)
以下、本発明の第1実施形態について図面を参照して説明する。
図1は、本発明の第1実施形態における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。
図1に示すように、パーソナルアシスタント制御システムS1には、第1のパーソナルアシスタント(以降、簡略化して「第1のPA1」と称することがある。)と、第2のパーソナルアシスタント(以降、簡略化して「第2のPA2」と称することがある。また、第1のPA1と第2のPA2とを区別しないときは、単に「PA」と称することがある。)と、第1のPA1及び第2のPA2が接続されたネットワーク4と、ネットワーク4と接続されたサーバ5と、ネットワーク4に接続された情報端末6とが含まれている。
ここでPAとしては、例えばロボットが好適に用いられる。なおPAは、少なくともユーザ3との間で何らかの相互作用(インタラクション)が可能に構成されていればよく、アーム等の変位機構や移動機構の有無は問わない。また移動機構を備える場合、当該移動機構は、二足歩行機構や車輪等で構成されていてもよいし、例えばドローンのように空中を移動可能に構成されていてもよい。
図1において、第1のPA1は第1の期間T1においてユーザ3に利用され、また第2のPA2は第2の期間T2において同一のユーザ3に利用される。第1実施形態においては、第1の期間T1としてユーザ3が乳児(例えば0歳〜満一歳)〜幼児前半(例えば一歳〜二歳)の期間を、第2の期間T2としてユーザ3が幼児後半(例えば三歳〜小学校就学前)の期間を想定している。
各PAが利用される期間におけるユーザ3の発達の程度を考慮し、第1の期間T1に利用される第1のPA1は例えば小動物をデフォルメした外観を備え、第1の期間T1におけるユーザ3が親近感・安心感を持つように構成されている。他方、第2の期間T2に利用される第2のPA2は、第1の期間T1から成長したユーザ3に合わせて、より機能性が重視された構成を備える。即ち、第2のPA2は、例えばディスプレイ1uを備え、ユーザ3に対して視覚的な情報を提供できるように構成される。
なお、後述するように、第1の期間T1と第2の期間T2とは時系列に重なっていてもよく、第1の期間T1と第2の期間T2とが時系列に離間していてもよい。即ち、図1には第1のPA1及び第2のPA2の双方が記載されているが、パーソナルアシスタント制御システムS1には、ユーザ3の成長に伴って第1のPA1または第2のPA2のいずれか一方のみが含まれる状態もあり得る。
第1のPA1は後述する第1のセンサ群41(図3参照)から種々の情報を取得し、少なくともその一部はネットワーク4を介してサーバ5に送信される。サーバ5は受信した第1のセンサ群41の出力に基づいてユーザ3の状況を推定する。
サーバ5は推定したユーザ3の状況に基づいて、ネットワーク4を介して第1のPA1に対して制御指令を出力する。これを受信した第1のPA1は、例えばユーザ3が泣いているような状況では、ユーザ3の気持ちを穏やかにするような音声等を出力する。そしてこの音声等に対するユーザ3の反応や応答が第1のセンサ群41によって取得され、この情報もサーバ5に送信される。このようにしてユーザ3と第1のPA1の間でインタラクションが図られる。サーバ5は、例えばユーザ3の状況に応じて、どのように応答すればユーザ3がより穏やかになるかを学習し、次に同様の状況がユーザ3に生じた場合は、学習結果に基づいて適切に応答するようになる。
第2のPA2は後述する第2のセンサ群42(図4参照)から種々の情報を取得し、少なくともその一部はネットワーク4を介してサーバ5に送信される。サーバ5は受信した第2のセンサ群42の出力に基づいてユーザ3の状況を推定する。ユーザ3が成長して第2の期間T2を迎えた際に、第1の期間T1で獲得した学習結果は第2のPA2とユーザ3とのインタラクションにおいて継承して利用される。第2の期間T2では、ユーザ3の言語能力は大幅に向上していることから、この期間においては、ユーザ3と第2のPA2の間では、主に言語を介したインタラクション(双方向の会話)が図られる。
なお、図1において情報端末6はスマートフォン、タブレット、スマートウォッチ、パーソナルコンピュータ等であり、例えばユーザ3の母親としての第三者15に所持されている。サーバ5は第1のPA1あるいは第2のPA2から得た情報に基づいて推測したユーザ3の状況やユーザ3の置かれた環境に関する情報を情報端末6に送信し、第三者15はユーザ3と離れていても、ユーザ3の状況や周囲の環境を把握することができる。そして第三者15は、例えば情報端末6に音声を入力することで、当該音声がPAにて再現される。
また、図1においてバイタルセンサ7は、例えばリストバンド形状とされてユーザ3の手首等に装着される。
図2(a)〜(d)は、本発明の第1実施形態における第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図である。上述したように、第1実施形態では、第1のPA1が利用される第1の期間T1としてユーザ3が乳児〜幼児前半の期間を、第2のPA2が利用される第2の期間T2としてユーザ3が幼児後半の期間を想定している。即ち、第1の期間T1は、第2の期間T2よりも過去を含む期間である。
図2(a)〜(d)に示すように、第1の期間T1及び第4の期間T4はユーザ3が出生してから所定時間経過した後を始期としているが、もちろん第1の期間T1及び第4の期間T4は、ユーザ3が出生した時点が始期であってもよい。このように第1の期間T1及び第4の期間T4の始期が変化するのは、例えばユーザ3の保護者(第三者15)が、どのタイミングで第1のPA1を導入するか(購入して利用に供するか)に依存するためである。
図2(a)に示すように、時間軸T方向に第1の期間T1と第2の期間T2とが分断していてもよい。このケースは、第1のPA1の利用が終了して、しばらく時間をおいて第2のPA2の利用が開始されたことを示す。
また、図2(b)に示すように、第1の期間T1の終期と第2の期間T2の始期とが同時であってもよい。このケースは、第2のPA2が購入された時点で第1のPA1の利用を停止したことを示す。
また、図2(c)、(d)に示すように、第1の期間T1の後半の一部と第2の期間T2の前半の一部とが重畳していてもよい。このケースは、第1のPA1を利用しながら、更に第2のPA2も同時に利用していることを示す。
ここで、第3の期間T3は、第1の期間T1と第2の期間T2とを跨ぐ期間をいい、図2(a)に示すように、第3の期間T3において、第1の期間T1と第2の期間T2とが時系列に離間していてもよく、図2(b)に示すように、第3の期間T3において、第1の期間T1の終期と第2の期間T2の始期とが一致していてもよく、図2(c)、図2(d)に示すように、第3の期間T3において、第1の期間T1の後半と第2の期間T2の前半とが重畳してもよく、更に図2(d)に示すように、第3の期間T3の終期が第2の期間T2の終期と一致していてもよい。
また、図2(a)〜(d)に示すように、第4の期間T4は、第1の期間T1のうち第3の期間T3に含まれない期間をいう。即ち、第4の期間T4は、第3の期間T3よりも過去の期間である。以降、詳細に説明するように、第1実施形態では、これら第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の各期間に応じて、サーバ5は、ユーザ3の状況を推定する際に参照するセンサの種類(組み合わせ)を変えていく。
図3は、本発明の第1実施形態における第1の期間T1におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。パーソナルアシスタント制御システムS1は、少なくとも第1のPA1と、サーバ5とで構成され、第1のPA1とサーバ5とはネットワーク4を介して接続されている。更にパーソナルアシスタント制御システムS1は、情報端末6、バイタルセンサ7を含んでいてもよい。
以降、第1のPA1について説明する。第1のPA1は、環境センサ50と、第1のセンサ群41と、出力インタフェース53と、入力部1kと、第1のPA1とネットワーク4を接続し、サーバ5と情報の入出力を行うPAネットワークインタフェース1pと、PA制御部1vとを備える。
これらの各構成要素及び後述する第1のセンサ群41を構成する種々のセンサ(またはその出力(ここではアナログ信号)をA/D変換する変換モジュール)は図示しないバスで結合されている。PA制御部1vは、例えばROM(Read Only Memory)やRAM(Random access memory)等で構成されるPA記憶部1qと、例えばCPU(Central Processing Unit)等で構成されるPA演算部1sとを備える。PA演算部1sは、PA記憶部1qに記憶されたプログラムに基づき、第1のセンサ群41から取得した情報を、PAネットワークインタフェース1pを制御してサーバ5に送信し、逆にサーバ5から送信されたコマンド等に基づいて、出力インタフェース53を制御する。
なお、PA記憶部1qには、第1のPA1を特定するコード情報、ユーザID及びユーザ3の個人情報として、例えば生年月日、氏名、愛称等が記憶されている。ユーザ3の個人情報は、例えばユーザ3の保護者等の第三者15が情報端末6を操作・入力することで、情報端末6から第1のPA1にネットワーク4を介して送信され、第1のPA1は個人情報を受信すると、これをPA記憶部1qに格納するとともに、予めPA記憶部1qに格納されていたコード情報と合わせてサーバ5に送信する。サーバ5はこれらを受信すると、ユニークな識別子としてのユーザIDを発行し、情報端末6から送信された第1のPA1のコード情報とユーザIDと個人情報とを関連付けてデータベース5kに格納する。そしてサーバ5は生成したユーザIDを第1のPA1に送信する。第1のPA1は受信したユーザIDをPA記憶部1qに格納する。このユーザIDは、例えばサーバ5のデータベース5kを検索するときの検索キーとして使用される。
以降、環境センサ50について説明する。第1のPA1には、焦電センサやイメージセンサ等で構成される人感センサ1a、光学フィルタを内蔵したフォトトランジスタ等で構成される照度センサ1b、測温抵抗体等で構成される温度センサ1c、湿度の変化に応じた抵抗値や静電容量の変化を検出する湿度センサ1dが環境情報を計測するいわゆる環境センサ50として設けられ、ユーザ3が置かれた環境に関する情報を計測する。
ここで、人感センサ1aとしては、人の位置と数を検出可能ないわゆる画像型のセンサが好適に用いられる。人感センサ1aは、第1のPA1の近傍にユーザ3(図1参照)が存すること、あるいは第三者15(あるいは第三者15以外の他者)が存することを検出する。なお、第1実施形態において人感センサ1aは第1のPA1に内蔵されているが、画像型センサの場合は、第1のPA1とは別体として、例えば天井に設けられて、人の位置と数を計測した結果を無線で第1のPA1に送信する構成としてもよい。照度センサ1bは第1のPA1が置かれた環境(通常はユーザ3の置かれた環境でもある)の照度を検出する。温度センサ1cは第1のPA1が置かれた環境の温度を、湿度センサ1dは第1のPA1が置かれた環境の湿度を検出する。これら環境センサ50の出力はサーバ5に送信される。
次に、第1のセンサ群41について説明する。第1のセンサ群41のうち、イメージセンサ等で構成されるカメラ1e、音を取得するセンサとしてのマイクロフォン1f、匂いセンサ1g、圧力センサ1h、加速度センサ1i、角速度センサ1j、バイタルセンサ7は、ユーザ3の状況を検出するセンサとして用いられる。
第1の期間T1において、通常、第1のPA1はユーザ3が置かれたベビーベッド等の近傍に配置される。この態様において、カメラ1eは主に被写体としてのユーザ3を撮影する。カメラ1eは動画あるいは静止画を撮像し、撮像された画像はサーバ5に送信される。画像が静止画の場合、撮像するタイミングは任意に定めることができる。例えば、定期的に撮像を行ってもよく、またマイクロフォン1fで所定の音圧を超える音が検出された場合(例えば、ユーザ3が泣き出したようなケース)に撮像を行ってもよく、カメラ1eの出力に基づいてユーザ3の笑顔を検出した際に撮像を行ってもよい。また、PA制御部1vは取得した画像に基づいてユーザ3の位置を検出してもよく、またアクチュエータ1oとしてカメラ1eのパン・チルト機能、あるいは少なくとも第1のPA1を平面内で回転させる機構を備えていてもよく、PA制御部1vは撮像された画像に基づいてユーザ3の位置をトレースし、カメラ1eの撮像範囲にユーザ3が含まれるようアクチュエータ1oを制御してもよい。
マイクロフォン1fは、主にユーザ3が発した音声を取得する。取得された音情報はディジタル化された状態で定期的にサーバ5に送信されてもよく、あるいはPA制御部1vにて取得した音声等の音圧が所定の値を超えたと判断した場合にのみ送信してもよい。またPA制御部1vが周波数解析機能を具備する場合は、所定の周波数を含む音情報のみを送信してもよい。
匂いセンサ1gは、例えば金属酸化物半導体の表面に特定の匂い分子が吸着することで半導体の抵抗値が下がる現象を応用したセンサである。通常、匂いセンサ1gは環境センサ50として利用されることも多いが、上述したように、第1の期間T1はユーザ3が乳児の時期を想定しており、ここでは乳児の排尿や排便に基づく臭気を検出する観点で、匂いセンサ1gはユーザ3の状況を検出するセンサに包含されるものとする。PA制御部1vは、匂いセンサ1gの出力を直接的にサーバ5に送ってもよいし、当該出力が所定の値より大きくなった場合に、ユーザ3が排尿あるいは排便したと判断し、その旨をサーバ5に送信してもよい。
圧力センサ1hは、例えばダイヤフラムの表面に形成した半導体ひずみゲージの変形を検出する。圧力センサ1hはユーザ3が第1のPA1を腕に抱えたり、抱きかかえたりする状況、あるいは第1のPA1に対するユーザ3の取り扱い方(大切に取り扱っているか、乱暴に取り扱っているか等)、即ち、第1のPA1に対するユーザ3の直接的な行動を検出する。PA制御部1vは、例えば圧力センサ1hの出力が所定の値を超えた場合に、当該値をサーバ5に送信する。なお、圧力センサ1hがユーザ3の行動に直接的に起因する値を計測する観点において、圧力センサ1hは第1のPA1に複数個設けられていてもよい。
加速度センサ1iは、例えばMEMS技術を用いて静電容量変化を検出する(3軸)。また、角速度センサ1jは、例えばコリオリ力を検出する(3軸)。加速度センサ1i及び角速度センサ1jは、圧力センサ1hと同様に第1のPA1に対するユーザ3の直接的な行動を検出する。
バイタルセンサ7は、例えばリストバンド形状に構成されている(図1参照)。バイタルセンサ7は例えば近赤外光の受発光素子を備えており、ユーザ3の手首等に装着されて脈波等を計測する。もちろん、バイタルセンサ7を用いて脈波のみならず、ユーザ3のリストバンド装着部位の体温を計測してもよい。また、バイタルセンサ7が加速度や角速度の計測が可能な場合、これらを計測してもよい。また、脈波に関しては、上述したカメラ1eでユーザ3の顔画像等を動画として撮像し、撮像した画像(特にGチャネルの出力)を用いてユーザ3の脈波を計測してもよい。
なお第1実施形態においては、第1のセンサ群41のうち、バイタルセンサ7以外は第1のPA1に内蔵されている。第1のPA1の外部に存するバイタルセンサ7は、BLE等の無線によって第1のPA1と接続され、脈波の計測結果は第1のPA1を介してサーバ5に送信される。なお、第1のセンサ群41で取得された情報は、後述する学習モデルの入力に供されることから、第1のセンサ群41からの情報の取得にあたっては同期が図られる。もちろん当該同期のトリガは特に限定される必要はなく、情報は周期的に取得されてもよいし、例えばマイクロフォン1fの出力が所定の値よりも大きくなった状態をトリガとして取得されてもよい。
次に入力部1kについて説明する。入力部1kは、例えば第1のPA1の所定位置に設けられ外部からのタッチや押圧を検出する。入力部1kの用途としては、ユーザ3(ここでは、幼児)に接する第三者15が、ユーザ3の状況を判断し、例えば「落ち着いている」、「いらいらしている」等のユーザ3の状況(後述する「感性指標」に対応する)を入力する。入力部1kとして、これらユーザ3の種々の状況に対応した押圧スイッチを複数設けてもよいし、所定の項目を選択した上で確定する方式の入力インタフェースを構成してもよい。
次に、出力インタフェース53(第1のユーザインタフェース)について説明する。伝達部1lは、第1のPA1の表面の一部に設けられた例えば柔軟性を備えるポリプロピレン(PP)等で構成される膜状部材である。幼児前半の期間におけるユーザ3を想定したとき、例えばユーザ3が第1のPA1を抱きかかえた際に、伝達部1lを介して母親の心臓の鼓動を模した比較的低周波の振動を伝達することで、ユーザ3をよりリラックスした状態に導くことが可能である。
また出力インタフェース53には、音声等を出力するスピーカ1m、第1のPA1の目視しやすい部位に設けられ例えばLED(Light Emitting Diode)やOLED(Organic Light Emitting Diode)で構成された発光部1n、第1のPA1に所定の機械的動作を行わせるアクチュエータ1o(この一種としてのバイブレータ)の少なくとも一つが含まれる。これらは、ネットワーク4を介してサーバ5から送信された情報及び指示に基づいて駆動される。
次にサーバ5について説明する。サーバ5は、ネットワーク4を介して第1のPA1、情報端末6と情報の入出力を行うサーバネットワークインタフェース5aと、サーバ制御部5nを備える。サーバ制御部5nは、例えばROMやRAM等で構成されるサーバ記憶部5bと、例えばCPU等で構成されるサーバ演算部5cとを備える。サーバ演算部5cは、サーバ記憶部5bに記憶されたプログラム等に基づき、サーバ5の他の構成要素を制御する。
更にサーバ5は、画像認識部5d、音声認識部5e、話者解析部5f、ユーザ状況推定部5g、バイタルデータ解析部5h、PA指令生成部5i、ユーザ成熟度判定部5j、データベース5k、ユーザ行動範囲認識部5mを含む。
画像認識部5dは、第1のPA1から送信された画像情報からユーザ3の顔領域を抽出し、所定の特徴量を抽出する。音声認識部5eは、第1のPA1から送信された音情報から「音素」を抽出し、テキストに変換したうえで語彙情報を特定する。話者解析部5fは音情報に対して例えば周波数分析を行って、少なくとも話者としてのユーザ3と第三者15(母親以外を含んでもよい)とを区別する。バイタルデータ解析部5hは、第1のPA1から送信されたユーザ3の脈波情報等に基づき、ユーザ3の体調等を推定する。PA指令生成部5iは、サーバ制御部5nの指示に基づき第1のPA1に対する所定のコマンド等を生成して送信する。ユーザ成熟度判定部5jは、特に音声認識部5eが認識した語彙数、単語の難易度、認識の確からしさの程度を判定する。データベース5kはいわゆる大容量ストレージで構成されている。
データベース5kには上述したように、第1のPA1からサーバ5に送信されたユーザID及びユーザ3の個人情報が記憶されている。またデータベース5kには予め一通りの学習が完了した学習モデルが格納されている。ユーザ状況推定部5gは、第1のセンサ群41で取得された情報を当該学習モデルに入力して(以下に示すように、一部は特徴量等に変換された情報が入力される)、学習モデルの出力として所定の指標(感性指標)を導出する。ここで学習モデルとしては、例えばパターン認識モデルであるSVM(Support Vector Machine)が好適に応用できる。もちろん深層学習によって、複数の感性指標に対して各々学習を施されたモデルを適用してもよい。
この学習モデルに対して入力されるのは、例えば、カメラ1eで取得されたカメラ画像(静止画が望ましく、動画の場合は静止画がキャプチャされる)に基づき画像認識部5dが生成した特徴量、マイクロフォン1fで取得された音情報に基づく声のトーンや音声認識部5eが生成した語彙情報、匂いセンサ1gで取得された匂い情報(特に排尿や排便に関連する匂い)、ユーザ3の第1のPA1に対する直接的に行動によって圧力センサ1h、加速度センサ1i、角速度センサ1jで取得された情報である。もちろん、これと併せてバイタルデータ解析部5hの出力が入力されてもよい。
ここで感性指標とはユーザ3の状況を示す指標であり、「笑っている」、「怒っている」、「泣いている」といった表情に現れやすい状況、「落ち着いている」、「いらいらしている」、「興奮している」、「安静にしている」、「集中している」といった内面的な状況が同時に含まれうる、ユーザ状況推定部5gは学習モデルを適用して、「泣いている」、「興奮している」のように複数の側面において感性指標を導出する。そして、この感性指標の組み合わせによってユーザ3の状況が推定される。このように、第1実施形態においては、学習モデルは一群の入力に対して複数の感性指標を出力するが、もちろん感性指標は単一であってもよい。
また、感性指標は、ユーザ3の置かれた環境によっても影響をうけることから、学習モデルを構築(学習)する際に、環境センサ50で取得した情報が参照されてもよい。このとき学習済みの学習モデルの入力には、環境センサ50から取得された情報も含まれることとなる。また同様に、感性指標は、ユーザ3の体調や健康に関連する肉体的あるいは身体的なコンディションによっても影響を受けることから、バイタルセンサ7で取得され、あるいはカメラ1eで撮像された画像を用いた脈波情報に基づく値が加味されてもよい。このとき、サーバ5はバイタルセンサ7から得られた脈波の計測結果を参照してユーザ3のストレス度合い等を計測して、これをユーザ状況推定部5gの入力として用いてもよい。
ユーザ状況推定部5gは導出した感性指標をサーバ制御部5nに送信する。感性指標を受信したサーバ制御部5nは、PA指令生成部5iに対して、例えばユーザ3が「興奮している」かつ「泣いている」状況においては、過去に学習した(あるいは当初に学習済みの)応答内容のうち、ユーザ3を「興奮している」かつ「泣いている」状況から「落ち着いている」状況に変化させた際の応答内容である音楽や音声(例えば母親の言葉)を抽出するよう指示を行い、これを受けてPA指令生成部5iは、データベース5kを検索して適切と推定されるコンテンツデータを選定し、音声による再生指示を第1のPA1に対して出力する。もちろん予め感性指標と第1のPA1の発光部1nの発光パターンや、アクチュエータ1o(バイブレータ)を駆動することによる第1のPA1の動作パターンの間に、何らかの相関(ここでは、例えばユーザ3をリラックスさせる効果)があるのであれば、音声のみならず、発光部1nの発光パターンや第1のPA1の動作パターン(振動パターン)に関する再生指示を出力してもよい。
このようにすることで、第1のセンサ群41の出力に基づいて導出された感性指標を用いて、第1のPA1とユーザ3との間にインタラクションが発生する。例えば、バイタルセンサ7で取得した所定時間における脈波の数(即ち心拍数)が通常よりも多く、ユーザ3が第1のPA1を叩いたり投げ飛ばしたりする行為が検出された場合(このとき圧力センサ1h、加速度センサ1i、角速度センサ1jの出力が大きく変動する)、ユーザ状況推定部5gは、例えばユーザ3が「イライラしている」と判断する。これに基づいてサーバ制御部5nは、複数の応答候補のうちから、例えば母親の言葉「〇〇ちゃん、よしよし。おりこうさん」を再生することが最も効果的だと判断して、PA指令生成部5iに対して、当該コンテンツを再生する指示を第1のPA1に送信するよう指令を行い、PA指令生成部5iは当該指令に基づき、第1のPA1に所定のコマンドとコンテンツに関するデータを送信する。
このようにして第1のPA1で再生される、音、発光ないし動作パターンによって、ユーザ3には新たな感情及び行動の変化が生じる。当該感情及び行動の変化は、第1のセンサ群41によって取得され、サーバ5に送信されて新たな感性指標が導出される。例えば「いらいらしている」という感情指標に改善が見られないとき、サーバ制御部5nは効果的と考えられるコンテンツのうち、他の候補の使用を指令し、ユーザ3と第1のPA1とのインタラクションが継続される。そしてこのインタラクションを通じて、サーバ制御部5nは、感情指標に対して応答すべきコンテンツのプライオリティを修正する。この応答内容はデータベース5kに蓄積され、感性指標と応答内容との関連が学習される。
このように第1実施形態においては、サーバ5は、第1の期間T1(上述したように第2の期間T2よりも過去を含む期間)においては、第1のセンサ群41から取得した情報に基づいてユーザ3の状況(感性指標)を推定し、推定したユーザ3の状況に基づいて、第1のPA1に設けられた第1のユーザインタフェース(ここでは例えば出力インタフェース53に含まれるスピーカ1m)を介してユーザ3に応答するとともに、この応答内容とユーザ3の状況(感性指標)とを関連付けて学習する。更に後述するように、第2の期間T2においては、第2のPA2に設けられた第2のセンサ群42から取得した情報に基づいてユーザ3の状況を推定し、推定したユーザ3の状況に基づいて、第1の期間T1において学習された応答内容を参照し、第2のPA2に設けられた第2のユーザインタフェース(例えば、スピーカ1mやディスプレイ1u(図4参照))を介してユーザ3に応答する。
ここで重要なのは、第1の期間T1において情報を取得する第1のセンサ群41と、第2の期間T2において情報を取得する第2のセンサ群42とには異なるセンサが含まれているが、ユーザ状況推定部5gは、異なるセンサから取得された情報が入力として含まれる場合であっても、ユーザ3の状況を共通の指標である感性指標として導出する点である。この共通する感性指標を用いることで、ユーザ3が乳児のときに学習された応答内容を、その後ユーザ3が幼児に成長したときにおいても活用できるようになる。
なお、第1のセンサ群41の出力と応答すべきコンテンツを直接的に関連付けて学習することも可能である。ただしこの場合、学習モデルのブラックボックス化の度合いが大きくなる。第1のセンサ群41の出力と、出力すべきコンテンツの間にユーザ3の年代に依存しない共通指標としての「感性指標」を設けることで、ブラックボックス化は最低限に留められ、ユーザ3の年代に問わず適切なサポートを行うことが可能となる。
また、第1のPA1に設けられた入力部1kに対する入力結果(第三者15が抱く主観的なユーザ3の状況)と、ユーザ状況推定部5gが推定した感性指標との間に乖離がある場合は、上述した学習モデルの再トレーニングや追加学習を行うことで、乖離を小さくすることが可能である。
また、データベース5kには、カメラ1eで撮像された画像情報が、撮像年月日、撮像時刻、感性指標とともに蓄積(アーカイブ)される。もちろん撮像時に得られた他の第1のセンサ群41に基づく情報が画像情報と関連付けて蓄積されてもよい。
更に、データベース5kには、マイクロフォン1fで収録された音情報が、収録年月日、収録時刻、感性指標とともに蓄積されてもよい。もちろん収録時に得られた他の第1のセンサ群41に基づく情報が音情報と関連付けて蓄積されてもよく、例えば異常音が検出されたようなケースでは、検出時の過去数十秒に遡って画像情報を蓄積するようにしてもよい。
これら蓄積された画像情報や音情報は、ユーザ3または第三者15が、後に第1のPA1や情報端末6に対して音声等にて指示することで再生が可能とされている。例えばユーザ3は成人に達した後に「私が3歳のころ、笑っている写真が見たい」とリクエストを行うことができる。サーバ5の音声認識部5eは当該リクエストを解釈し、サーバ制御部5nは年代に感性指標をキーとして加えてデータベース5kを検索し、例えば情報端末6にユーザ3が所望する情報を送信する。
また、サーバ制御部5nは、第1のPA1の環境センサ50(人感センサ1a)の計測結果及び話者解析部5fの解析結果に基づいて、例えば第三者15(ここでは母親)とユーザ3とのインタラクションを検出する。第三者15がユーザ3に語りかけたときの音声は音情報としてデータベース5kに蓄積されるとともに、音声認識部5eで語彙として抽出され、更にそのときのユーザ3の感性指標が取得される。このインタラクションの状況もデータベース5kに蓄積され、第三者15の行為(ここでは語りかけ)と第1のセンサ群41で取得した情報に基づく前記ユーザ3の状況(感性指標)とが関連付けられて学習される。
この学習によって、例えば母親の「〇〇ちゃん、可愛いよ」との語りかけにより、ユーザ3の感性指標が「興奮している」から「おちついている」、「笑っている」に変化した場合が多いほど、ユーザ3の感性指標が「興奮している」となった状況においては、データベース5kに蓄積された音情報のうち、母親の「〇〇ちゃん、可愛いよ」の発声行為が第1のPA1で再生・再現される確率が高くなる。この機能は、特にユーザ3の近くに第三者15が不在であるときに、例えばユーザ3が泣き出したようなシーンにおいて、有効に機能する。
このように、第1実施形態においては、サーバ5は、第1の期間T1において、第1のセンサ群41から取得した情報に基づいて、ユーザ3に対する第三者15の行為(例えば語りかけ)を抽出し、第三者15の行為と第1のセンサ群41で取得した情報に基づくユーザ3の状況(感性指標)とを関連付けて学習する。後に説明するように、第2の期間T2においては、第2のセンサ群42で取得した情報から推定されたユーザ3の状況に基づいて、第1の期間T1における第三者15の行為の少なくとも一部を再現するよう、第2のPA2に対して指示が行われる。
なお、第三者15とユーザ3とのインタラクションは上述した直接的なものに限定されない。第1実施形態では、環境センサ50で取得された情報、カメラ1eで撮像された画像情報、マイクロフォン1fで収録された音情報等は、ネットワーク4を介してサーバ5に送信され、サーバ5はこれらの情報を第三者15の所持する情報端末6に送信することが可能である。このとき上述した感性指標が同時に送信されてもよい。更にサーバ5は、情報端末6に備えられた第2のマイクロフォン(図示せず)で収録された音情報を受信して、PA指令生成部5iを介して音声の再生指示を1のPA1に送信することが可能である。
例えば、情報端末6で受信した画像情報や音情報に基づきユーザ3が泣いていることを第三者15が把握した場合、第三者15は情報端末6の第2のマイクロフォン(図示せず)を用いて間接的にユーザ3に語りかけることができる。また第三者15が例えば部屋の温度や湿度が高い、部屋が明るすぎる等と判断した場合は、情報端末6を操作してユーザ3の置かれた環境をより快適にすることもできる。このようなユーザ3に対する第三者15の行為も結果的に環境センサ50、第1のセンサ群41で計測されて、サーバ5で感性指標が導出される。そしてこれらの第三者15の行為と感性指標は関連付けられて学習に供される。そして例えばサーバ5は、ユーザ3が特定の状況になった際に、例えば情報端末6を介して第三者15に対して「部屋の明かりを少し暗くすると、○○ちゃんが落ち着きますよ」といったアドバイスを提供してもよく、更にサーバ5に部屋の照明を制御する機能がある場合は、部屋の照明を暗くするよう制御してもよい。
さて、上述したように、第1の期間T1は、ユーザ3が乳児(例えば0歳〜満一歳)〜幼児前半(例えば一歳〜二歳)の期間と想定している。第1の期間T1においてユーザ3の成長は特に言語の発達において著しいとされている。乳児は生後二か月を過ぎると、「あ−」や「うー」といったいわゆる「クーイング」を始める。その後、第三者15とのインタラクションが進むうちに、乳児は「音が聞こえたこと」に対して徐々に音声で反応するようになり、更に生後四か月を過ぎるころから、「まぁ−」、「だー」といった母音の他に子音を含む喃語を発するようになる。そして生後八カ月を過ぎると、様々な子音を明確に発声できるようになり、母親等の発する語彙の模倣が始まる。厚生労働省の資料等によれば、その後、生後二十か月までの間に、およそ95%の幼児が意味のある単語を自己意思に基づいて話すことができるとされている。その一方で、乳児から幼児にかけての言葉の発達には個人差が大きいことも知られている。
第1の期間T1において、乳児または幼児が成長していくと、音声認識部5eにおいて認識される語彙の数が増加していき、また使用される単語の難易度も上がり、また成長に伴って発音が明瞭になっていくことで音声認識部5eによる認識率も向上していく。
サーバ5に設けられたユーザ成熟度判定部5jは、音声認識部5eが認識した語彙数、単語の難易度、認識の確からしさの程度の少なくとも一つに基づいて、ユーザ3の成熟度を判定する。即ち、ユーザ成熟度判定部5jはコーパス等に基づいてユーザ3の言語能力を評価して、これを成熟度指標として出力する。サーバ制御部5nは成熟度指標が所定の値よりも大きくなった場合、ユーザ3が言語を用いたより高度なインタラクションが十分に可能な段階に到達したと判断し、ユーザ3または第三者15に対して、例えば第1のPA1または情報端末6を通じて、第1のPA1の役割が終了する時期に近づいており、ユーザ3に対して例えば文字や画像による情報提供といったより高度なインタラクションが実行可能に構成された第2のパーソナルアシスタント(後に説明する第2のPA2)への入れ替え(新規購入等)を促す提案が行われる。なお、ユーザ成熟度判定部5jはユーザ状況推定部5gが出力する感性指標を参照して、例えば一日において喜怒哀楽が変化する割合が小さくなったことを参照してユーザ3の成熟度を判定してもよく、また、ユーザ行動範囲認識部5mによって推定されたユーザ3の行動範囲が所定の値より拡大したことを参照してもよく、更に、PA記憶部1qに記憶されたユーザ個人情報のうち、生年月日の情報を参照してもよい。
図4は、本発明の第1実施形態における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。なお、図4においてサーバ5は図3を用いて説明したものと同等であるので同一の符号を付したうえで説明を省略し、第2のPA2に含まれる構成要素についても、図3で説明したものと共通な要素には同一の符号を付し、説明を省略する。
以降、図4に図3を併用して、第2の期間T2に利用される第2のPA2について説明する。図示するように、第2のPA2は第2のセンサ群42を備える。第2のセンサ群42は上述した第1のセンサ群41と比較して、匂いセンサ1g、圧力センサ1h、加速度センサ1i、角速度センサ1jが除去され、他方、第1位置情報センサ1tと第2位置情報センサ8とが追加されている。
また出力インタフェース53については、第1のPA1と比較して伝達部1l、発光部1nが除去され、他方、ディスプレイ1uが追加されている。即ち、第2のPA2は、出力インタフェース53(第2のユーザインタフェース)として、少なくともスピーカ1m、ディスプレイ1u、アクチュエータ1oの一つを含む。
上述したように、第2の期間T2はユーザ3が幼児後半(例えば3歳〜小学校就学前)の期間を想定している。一般に幼児は1歳半〜2歳頃までに日中の「おむつはずれ」ができるようになるのが目安とされていることから、第2の期間T2において使用される第2のPA2には、日常的に排尿や排便の有無を検出する匂いセンサ1gは搭載されていない。また、第2の期間T2において、ユーザ3は自己の感情を言葉で表現することが可能となっており、更に行動についても理性的な側面が現れることから、第2のPA2に対する直接的な行為をもって感情指標を導出するよりも、カメラ1eで取得した画像情報に基づく表情や、マイクロフォン1fで取得した音情報を用いて音声認識部5eで認識した語彙に基づく方がより適切な感情指標を導出できると考えられる。もちろん、感情指標に影響を及ぼす環境センサ50やバイタルセンサ7の出力を参照すしてもよい。
第2のセンサ群42に含まれる第1位置情報センサ1tは、屋内において第2のPA2の位置を計測するセンサであり、例えば複数のWiFiアクセスポイントからの電波強度や到達時間の違いから三点測位を演算することで位置を計測するWiFi測位や、BLE(Bluetooth(登録商標) Low Energy)規格に基づく電波強度等を利用して三点測位を演算することで位置を計測するビーコン測位等を応用することが可能である。
また、第2位置情報センサ8は、屋内におけるユーザ3の位置を計測するセンサであり、例えば第1位置情報センサ1tと同様のセンシング手段が用いられる。この場合、ユーザ3は例えばBLE規格に基づくBeacon発信機等を携帯する。もちろん第1位置情報センサ1t及び第2位置情報センサ8としてGPS(Global Positioning System)を利用した測位センサが用いられてもよいし、IMES(Indoor MEssaging System)のような測位技術を応用してもよく、またカメラ1eが出力する画像情報を用いて、屋内における第2のPA2の位置情報を基準としてユーザ3の相対的な位置を計測し、これをもってユーザ3の位置としてもよい。この場合カメラ1eとしては、デプス情報が得られる点でいわゆるステレオカメラが望ましい。
第2の期間T2では、ユーザ3は屋内を自由に移動することが可能となり、例えば移動速度や移動範囲は感情指標にも影響を及ぼすと考えられる。即ち、落ち着いているときは移動速度が比較的ゆっくりとなり、他方、いらいらしているときの移動速度は一般的に速くなる。また、第2のPA2とユーザ3との離間距離は、両者の関係性を示すパラメータの一つであると考えられる。特に第2のPA2がアクチュエータ1oによって移動可能に構成されているケースでは、両者の位置関係が取得されることで、感性指標に基づいて第2のPA2をユーザ3の近くに移動させたり、逆に離間させたりすることが可能となる。
第2の期間T2においても第2のセンサ群42で取得された情報は、ネットワーク4を介してサーバ5に送信され、ユーザ状況推定部5gは感性指標を出力し、サーバ制御部5nは感性指標に基づいてユーザ3の状況を推定し、PA指令生成部5iに対して第2のPA2に動作を選択させるとともに、PA指令生成部5iは当該動作を実行するためのコマンドを生成する。このコマンドには上述した第2のPA2の位置を移動させるコマンドも含まれる。
第2のPA2には、第1のPA1に搭載されていなかったディスプレイ1uが搭載されており、ディスプレイ1uにはテキストあるいは画像(静止画、動画)のコンテンツが表示される。サーバ5は、第2のPA2から送信されたコード情報(上述したようにPAを特定するコード)に基づいて、第2のPA2にディスプレイ1uが搭載されていると判断して、音のコンテンツに代えて、あるいは音のコンテンツとともに、画像のコンテンツを第2のPA2に送信する。
第2の期間T2ではユーザ3は言語能力の他に、画像認識能力も大幅に向上していることから、ユーザ3に対して画像のコンテンツを提供することは極めて重要となる。例えば、ユーザ3に対して乗り物の画像を表示したときに特定の感性指標(ここでは、例えば「集中している」等)が、他のコンテンツを表示したときと比較して優位であるとき、サーバ5は、例えば「こんどは外国のバスを見てみますか?」等の提案をユーザ3に対して行うようになる。これは画像情報に限られたものではなく、音情報についても、同様の提案を行うことが可能である。これによってユーザ3の知的好奇心が育まれ、更に「〇〇ちゃんは、街中のモビリティに対する興味がとても高いようです。関連する基礎知識の提供頻度を増やしましょうか?」のように、情報端末6を介して第三者15に対してユーザ3の学習指針等についてのアドバイスも行えるようになる。
なお、第2のPA2においては、入力部1kはディスプレイ1uの映像面に重畳して設けられたタッチパネル等であってもよい。ユーザ3は入力部1kを操作することで、所望のコンテンツを選択することができる。もちろん、第1のPA1と同様に、入力部1kは第三者15によって操作されてユーザ3の状況を入力する手段としても使用される。即ち、第2の期間T2において、第三者15は例えばユーザ3が特定の楽曲を聴いているときに安らいでいると感じたような場合に、「落ち着いている」といった主観的な情報を入力する。
以降、第1の期間T1から第2の期間T2の経過に伴って、第1のPA1が情報を取得する第1のセンサ群41及び第2のPA2が情報を取得する第2のセンサ群42がどのような態様で使用されるかについて、図3、図4に図2を用いて説明する。
第1の期間T1においては第1のPA1がユーザ3に利用され、第1のPA1は第1のセンサ群41から情報を取得する。第1の期間T1において、ユーザ3の状況は、第1のセンサ群41の出力に基づいて感性指標として推定されるが、感性指標の導出にあたって各センサの寄与度はユーザ3の成長とともに変化する。第1の期間T1のうち少なくとも前半を占める第4の期間T4においては、第1のセンサ群41に含まれる全てのセンサの出力に基づいて感性指標が導出されるが、ユーザ3の成長に伴い、例えば「おむつはずれ」の後は徐々に匂いセンサ1gの寄与度は低下し、ユーザ3の行動に理性が芽生えた後は、同様に圧力センサ1h、加速度センサ1i、角速度センサ1jの寄与度は低下していく。
なお、ここでいう「寄与度の低下」とは、学習モデルに対する特徴的な入力の頻度が減少し、他方、他の入力である画像情報、音情報、バイタルセンサ7から取得される情報による学習モデルの追加学習が進行することで、匂いセンサ1g等から提供される情報の重みが実質的に低下することを意味する。
第1の期間T1の後半においては、ユーザ3の言語能力が向上するとともに表情も豊かになり、更にユーザ3は動き回るようになる。従ってこの期間においては、第1のセンサ群41が取得する情報のうち、カメラ1eによって取得される画像情報、マイクロフォン1fによって取得される音情報、バイタルセンサ7によって取得される脈波等の情報が感性指標の導出に影響を及ぼすこととなる。
ユーザ3の成長は日々連続的であるから、第1の期間T1の少なくとも終期から第2の期間T2の少なくとも初期にあっては、ユーザ3の言語能力等に大きな変化はないと考えることができる。従って第2の期間T2の初期においても、ユーザ3に利用される第2のPA2に情報を提供する第2のセンサ群42が取得する情報のうち、カメラ1eによって取得される画像情報、マイクロフォン1fによって取得される音情報、バイタルセンサ7によって取得される脈波等の情報が、感性指標の導出に影響を及ぼす。
即ち第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3においては、第1の期間T1と第2の期間T2とにおいて共通する属性(ここでは、画像、音、生体情報)を取得する「共通センサ」としてのカメラ1e、マイクロフォン1f、バイタルセンサ7から得た情報に基づいて、ユーザ3の状況が推定される。なお共通センサとしては少なくとも、カメラ1e、マイクロフォン1fが含まれていればよい。
即ち、第1実施形態のパーソナルアシスタント制御システムS1は、ユーザ3によって第1の期間T1に利用され、複数のセンサを含む第1のセンサ群41から情報を取得する第1のPA1と、同一のユーザ3によって第2の期間T2に利用され、複数のセンサを含む第2のセンサ群42から情報を取得する第2のPA2と、第1のPA1及び第2のPA2とネットワーク4を介して接続され、第1のセンサ群41または第2のセンサ群42から取得した情報に基づいてユーザ3の状況を推定するサーバ5とを備え、サーバ5は、第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3において、第1のセンサ群41及び第2のセンサ群42に含まれるセンサのうち、少なくとも共通の属性(少なくとも画像及び音)を取得する「共通センサ」から得た情報に基づいてユーザ3の状況を推定する。なお、図3と図4において、「共通センサ」には■のマークを付している。
ここで、第1の期間T1のうち第3の期間T3に含まれない第4の期間T4においては、第1のセンサ群41に含まれる「共通センサ」としてのカメラ1e、マイクロフォン1f、バイタルセンサ7以外のセンサ、即ち、「非共通センサ」としての匂いセンサ1g、圧力センサ1h、加速度センサ1i、角速度センサ1jのうち少なくとも1つで取得された情報も感性指標の導出に反映される。また、非共通センサに上述した全てのセンサが含まれている必要はなく、例えば圧力センサ1hを除外する等適宜選択されてよい。このように、パーソナルアシスタント制御システムS1は、第4の期間T4においては、サーバ5は、第1のセンサ群41のうち共通センサ以外の非共通センサから取得した情報を少なくとも参照してユーザ3の状況を推定する。即ちサーバ5は、第3の期間T3において共通センサから取得した情報を参照する場合と、第4の期間T4において非共通センサから取得した情報を参照する場合とのいずれにおいても、共通の指標としての感性指標を導出する。
さて、第2のPA2が利用される第2の期間T2においては、第2のセンサ群42における共通センサとしてのカメラ1e、マイクロフォン1f、バイタルセンサ7以外にも第1位置情報センサ1t、第2位置情報センサ8で取得した情報も加味して感性指標が導出される。感性指標は、第1の期間T1及び第2の期間T2のいずれにおいても共通して用いられる指標である。従って、第2の期間T2において導出された感性指標に基づいてユーザ3に応答する場合、当該応答には第1の期間T1において学習された応答内容が参照(反映)されることになる。ただし第2のPA2には、第1のPA1には搭載されていなかったディスプレイ1uが搭載されていることから、例えばサーバ制御部5nは、第1のPA1で行った応答がスピーカ1mを介したものであったとしても、これに代えてディスプレイ1uを介して例えばテキスト情報を用いて応答しても構わないし、更にスピーカ1mによる音情報と併せて応答してもよい。そして、どのような出力インタフェース53の組合せを用いた場合にユーザ3がより落ち着くかといった観点でも学習が行われる。
また、上述したように、第1の期間T1においては、第三者15の行為と第1のセンサ群41で取得した情報に基づく前記ユーザの状況(感性指標)とは関連付けて学習されており、第2の期間T2においては、第2のセンサ群42で取得された情報に基づいてユーザ3の感性指標が導出される。そして、導出された感性指標に基づいて、第1の期間T1において学習された第三者15の行為(例えば、ユーザ3に対する語りかけ)が再現されることとなる。
図5は、第1実施形態の第1変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。図1においては、第1の期間T1におけるユーザ3として乳児〜幼児前半を、第2の期間T2におけるユーザ3として幼児後半を想定したが、第1変形例においては、第1の期間T1におけるユーザ3として幼児後半を、第2の期間T2におけるユーザ3として成人を想定している。
また、第1実施形態では情報端末6を使用する者として第三者15を想定しているが、第1変形例では、第2の期間T2においては主に成人に達したユーザ3が情報端末6を使用する。また、第2のPA2については、自律的にユーザ3とのインタラクションを図り、成人に達したユーザ3を的確にサポートすることが可能なように移動可能な形態(例えば二足歩行ロボットや移動機構が付加されたロボット)を想定しているが、例えばユーザ3が携帯することを前提とする場合は、移動機構がない態様であっても構わない。
図6は、第1実施形態の第1変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。以降、図6に図4を併用して、第1変形例における第2の期間T2に利用される第2のPA2の構成と機能、及び第1の期間T1に利用される第1のPA1との関係について説明する。なお第1変形例では、図4で示した第2のPA2は第1の期間T1で利用される観点で、第1のPA1に相当することとなる。
図示するように、第1変形例では、第2のPA2は第3のセンサ群43(図4における第2のセンサ群42に相当する)を備える。第3のセンサ群43は上述した第2のセンサ群42(図4参照)と比較して、第1生活センサ9が追加されている。ここで第1生活センサ9は、例えばユーザ3の電力使用量、ガス使用量、水道使用量等を計測するセンサであり、いわゆるスマートメータとも称される。通常、ユーザ3は成人になると親から独立して生活を始めることが多い。スマートメータによる計測値はユーザ3の生活パターンを反映したものであるから、ユーザ3の状況を示す指標としての感性指標にも影響を及ぼす。第1生活センサ9が追加されることで、ユーザ状況推定部5gは、例えば土曜、日曜、休日を含め一カ月の生活パターンが殆ど変わらないような状況ではユーザ3が「ふさぎ込みがち」や「気力がない」と推定することが可能となる。
また、更に第1変形例においては、ユーザ3が幼児等であれば問題になることが少ない「疲れた」や「だるい」といった身体的な状況及び「気力がない」といった精神的な状況が感性指標に含まれる。即ち、第1変形例では感性指標の拡張が図られる。これらの感性指標の拡張に際しては学習モデルを再トレーニングしてもよいし、異なる学習モデルを並列して用いてもよい。また感性指標を拡張する観点において、第1生活センサ9として、例えば体重計、血圧計といった計測機器が含まれてもよい。また入力部1kを介してユーザ3が日々の食事のメニューや量、カロリー値を入力可能にしてもよい。
さて、ユーザ3が乳児や幼児である場合、入力部1kは母親等の第三者15がユーザ3の状況を主観に基づいて入力する手段であったが、第1変形例においては、入力部1kは、ユーザ3が自己の状況を第2のPA2(即ちサーバ5)に通知する手段として設けられる。上述したように入力部1kの入力に基づいて学習モデルの再トレーニングや追加学習が行われる。第2のPA2の応答がユーザ3の主観的な状況から乖離しているような場合に、ユーザ3は例えば「もっと私のことを理解して欲しい」との思いに基づいて、入力部1kを操作する。そしてサーバ制御部5nは、入力部1kの入力に基づいてユーザ3と第2のPA2とのインタラクションがより好ましくなるように学習モデルを再トレーニングし、あるいは追加学習を実行する。
図4及び図6に示すように、第1変形例における「共通センサ」は、カメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8である。なお、図4及び図6において、「共通センサ」には▲のマークを付している。
第1変形例においても、第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3では、第1の期間T1と第2の期間T2とにおいて共通する属性(ここでは、画像属性、音属性、生体属性、位置属性)を取得する「共通センサ」としてのカメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8から得た情報に基づいて、ユーザ3の状況が推定される。
図7は、第1実施形態の第2変形例における第1の期間T1及び第2の期間T2におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。第1変形例においては、第1の期間T1におけるユーザ3として幼児後半を、第2の期間T2におけるユーザ3として成人を想定したが、第2変形例においては、第1の期間T1におけるユーザ3として成人を、第2の期間T2におけるユーザ3として高齢者を想定している。
図7においては、第2の期間T2におけるユーザ3は高齢者であることから、情報端末6は主にユーザ3を介護する第三者15が使用する(もちろん、ユーザ3自らが使用してもよい)。また、第2のPA2については、第1変形例と同様に移動可能な形態であってもよく、またユーザ3が搭乗して移動する電動車椅子のような形態であってもよい。もちろんユーザ3が携帯することを前提とする場合は、移動機構がない態様であっても構わない。
図8は、第1実施形態の第2変形例における第2の期間T2におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。以降、図8に図6を併用して、第2変形例において、第2の期間T2に利用される第2のPA2の構成と機能、及び第1の期間T1に利用される第1のPA1との関係について説明する。なお第2変形例では、図6で示した第2のPA2は第1の期間T1で利用される観点で、第1のPA1に相当することとなる。
図示するように、第2のPA2は第4のセンサ群44(図4における第2のセンサ群42に相当する)を備える。第4のセンサ群44は上述した第3のセンサ群43(図6参照)と比較して、匂いセンサ1g及び第2生活センサ10が追加されている。ここで匂いセンサ1gはユーザ3の失禁等に基づく匂いを検出する。第2生活センサ10は、ユーザ3が部屋間を移動している状況を検出するドアセンサや、ベッドに設けられてユーザ3の寝起きの状況を検出するマットセンサが該当する。当該マットセンサは圧力や加速度を検出するセンサで構成される。即ち、第2生活センサ10は高齢者の見守りに重点を当てたセンサである。
例えばマットセンサによる計測値は高齢者としてのユーザ3の生活パターンを反映したものであるから、ユーザ3の状況を示す指標としての感性指標にも影響を及ぼす。第2生活センサ10が追加されることで、ユーザ状況推定部5gは、例えばドアセンサでユーザ3の移動が極端に少ない状況や、マットセンサでユーザ3がほぼ終日ベッドに横たわっているような状況を検出したような場合、ユーザ3が「ふさぎ込みがち」や「気力がない」と推定することが可能となる。特にバイタルセンサ7から取得した脈波等の情報が異常でないにもかかわらず「気力がない」ような状況は、特に高齢者ではいわゆる「フレイル化」に直結することから、サーバ制御部5nは第2のPA2を介してユーザ3との対話を通じて例えば外出を促すといったインタラクションを図ることが可能となる。
図6及び図8に示すように、第2変形例における「共通センサ」は、カメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8、第1生活センサ9である。なお、図6と図8において、「共通センサ」には▼のマークを付している。
第2変形例においても、第1の期間T1と第2の期間T2とを跨ぐ第3の期間T3では、第1の期間T1と第2の期間T2とにおいて共通する属性(ここでは、画像属性、音属性、生体属性、位置属性、使用電力量等の生活関連属性)を取得する「共通センサ」としてのカメラ1e、マイクロフォン1f、第1位置情報センサ1t、バイタルセンサ7、第2位置情報センサ8、第1生活センサ9から得た情報に基づいて、ユーザ3の状況が推定される。
なお、第2のPA2が電動車椅子のようにユーザ3を搬送する機構を備える場合、ユーザ3は第2のPA2に搭乗して外出を行うこともある。このとき第1位置情報センサ1tはGPS等を利用した測位センサとすることが望ましい。そして、ユーザ3が第2のPA2とともに屋外にいる場合、例えばスマートメータ等で構成される第1生活センサ9の出力は感性指標の導出には用いられない。このような場合であっても、学習モデルは多次元空間のクラスタリングによって、感性指標を導出することが可能である。もちろん、屋内と屋外とで学習モデルそのものを入れ替えるようにしてもよい。
以上詳細に説明したように、本発明に係るパーソナルアシスタント制御システムS1では、パーソナルアシスタントが世代を超えてユーザ3に対して継続的にサービスを提供する。この観点でパーソナルアシスタント制御システムS1は、いわゆる基盤としてのパーソナルアシスタントプラットフォームあるいはパーソナルロボットプラットフォームと言い換えてもよい。
(第2実施形態)
以下、本発明の第2実施形態について図面を参照して説明する。図9は、本発明の第2実施形態における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。第1実施形態において、ユーザ3は全て出生後を想定しているが、第2実施形態では、ユーザ3は出生前の胎児の時期も含んでいる点で第1実施形態と相違する。なお、以降の説明において、第1実施形態において既に説明した第1のPA1、サーバ5、情報端末6には同一の符号を付し、説明を省略する。
図9に示すように、パーソナルアシスタント制御システムS1には、第1のPA1と、プレ期間用パーソナルアシスタント(以降、簡略化して「プレ期間用PA20」と称することがある。)と、第1のPA1及びプレ期間用PA20が接続されたネットワーク4と、ネットワーク4と接続されたサーバ5と、ネットワーク4に接続された情報端末6とが含まれている。
ここで第1のPA1とプレ期間用PA20は例えばロボットが好適に用いられる。なおPAは、少なくともユーザ3との間で何らかの相互作用(インタラクション)が可能に構成されていればよく、アーム等の変位機構や移動機構の有無は問わない。
図9において、第1のPA1は第1の期間T1(出生後)においてユーザ3に利用され、またプレ期間用PA20はユーザ3が出生前の期間であるプレ期間T0において利用される。従って、パーソナルアシスタント制御システムS1には、第1のPA1とプレ期間用PA20とが同時に含まれないことがあり得る。なお、プレ期間T0においてプレ期間用PA20を直接的に利用するのは第三者15であるが、プレ期間用PA20及び第1のPA1は出生前から出生後にかけて同一のユーザ3に対するサービスを提供することから、プレ期間T0においてユーザ3は間接的にプレ期間用PA20を利用していることになる。
プレ期間T0におけるプレ期間用PA20は、これに直接触れる第三者15に安心・安全といったイメージを想起させるよう、3次元曲面が多用されたデザインとされ、柔軟な素材で構成されている。即ち、プレ期間用PA20は、第三者15が抱きかかえる態様で用いられることを想定している。
プレ期間用PA20は後述する第2のセンサ群42(図11参照)から種々の情報を取得し、少なくともその一部はネットワーク4を介してサーバ5に送信される。サーバ5は受信した第2のセンサ群42の出力に基づいて第三者15の体内に存するユーザ3の状況を推定する。
サーバ5は推定したユーザ3の状況に基づいて、ネットワーク4を介してプレ期間用PA20に対して制御指令を出力する。これを受信したプレ期間用PA20は、例えばユーザ3を穏やかにするような音を出力する。そしてこの音に対するユーザ3の反応や応答が第2のセンサ群42によって取得され、この情報もサーバ5に送信される。サーバ5は、例えばユーザ3の状況に応じて、どのように応答すればユーザ3がより穏やかになるかを学習し、次に同様の状況がユーザ3に生じた場合は、学習結果に基づいて適切に応答するようになる。ユーザ3が生誕して第1の期間T1を迎えた際に、プレ期間T0で得られた学習結果は第1のPA1とユーザ3とのインタラクションにおいて継承して利用される。
第2実施形態において、情報端末6は第三者15に所持されている。サーバ5はプレ期間用PA20から得た情報に基づいて推測したユーザ3の状況を情報端末6に送信し、第三者15は体内に存するユーザ3の状況を把握することができる。
また、図9においてバイタルセンサ7は、例えばリストバンド形状とされて第三者15の手首等に装着される。
図10(a),(b)は、本発明の第2実施形態におけるプレ期間T0、第1の期間T1、第2の期間T2、第3の期間T3、第4の期間T4の関係を示す説明図である。
図10(a),(b)に示すように、プレ期間T0は、第1の期間T1よりも過去の期間に相当する。プレ期間T0の始期は、通常は受胎後、第三者15が妊娠に気づいた以降の時点であり、終期は出生の時点である。図10(a)に示すようにプレ期間T0の終期後ただちに第1の期間T1が開始されてもよく、同(b)に示すようにプレ期間T0と第1の期間T1との間に間隔が空けられてもよい。なお、図2(a)〜(d)を用いて説明したように、第1の期間T1と第2の期間T2との関係については、様々な態様があり得る。
図11は、本発明の第2実施形態におけるプレ期間T0におけるパーソナルアシスタント制御システムS1の構成を示すブロック図である。パーソナルアシスタント制御システムS1は、少なくともプレ期間用PA20と、サーバ5とで構成され、プレ期間用PA20とサーバ5とはネットワーク4を介して接続されている。
以降、プレ期間用PA20について説明する。プレ期間用PA20は、第2のセンサ群42と、出力インタフェース53とを備える。なお、PAネットワークインタフェース1pと、PA演算部1s、PA記憶部1q、PA制御部1v等の構成については既に説明した第1のPA1と同等であることから説明を省略する。またプレ期間用PA20には第1のPA1に搭載されている環境センサ50(図3等を参照)は搭載されていないが、第三者15の感情はユーザ3にも影響を与えることから、第三者15の置かれた環境をモニタリングする目的で環境センサ50を含むよう構成してもよい。
マイクロフォン1fは、第2実施形態においては胎児としてのユーザ3の心拍音、第三者15の心拍音、及び第三者15が発した音声を取得する。圧力センサ1h、加速度センサ1i、角速度センサ1jは、ユーザ3の心拍及び胎動を検出する。取得された音声、心拍音、心拍、胎動に関する情報はサーバ5に送信され、データベース5kに蓄積される。
第2実施形態においてバイタルセンサ7は、ユーザ3ではなく第三者15の状況を計測するために用いられる(図9参照)。母親である第三者15が「幸せ」、「いい気持ち」と感じるときに分泌されるドーパミンやβ-エンドルフィンなどのホルモンは血流に乗って胎児であるユーザ3にも供給され、胎児もリラックスすることが知られており、第三者15の状況を把握することは、ユーザ3の状況を間接的に把握することに繋がる。
伝達部1lは、プレ期間用PA20の表面の一部に設けられた例えば柔軟性を備えるポリプロピレン(PP)等で構成される膜状部材で構成される。マイクロフォン1fで取得した音は増幅器(図示せず)で増幅され、スピーカ1mによって出力される音が、第三者15の体に密着させた伝達部1lを介して、第三者15の体内に伝達する。伝達部1lは、第三者15またはそのパートナ(ここでは、例えば父親)等が出生前のユーザ3に語りかけるシーン、第三者15の置かれた環境の音情報(例えば音楽)をユーザ3に伝達するシーン等において利用される。
次にサーバ5の機能について説明する。サーバ5の構成は既に第1実施形態で説明したものと同等であるので説明は省略する。第2実施形態においても、ユーザ状況推定部5gは、第2のセンサ群42で取得された情報を学習モデルに入力してユーザ3の状況(感性指標)を導出する。
学習モデルに対して入力されるのは、例えば、マイクロフォン1f、圧力センサ1h、加速度センサ1i、角速度センサ1jで取得された、心拍音、心拍、胎動に関する情報である。ユーザ3が落ち着いているとき心拍も緩やかになるから、心拍は感性指標に影響を与え、またほどよい胎動はユーザ3と第三者15とのコミュニケーションが良好である旨を示すとも言われていることから、感性指標に影響を与えると考えられる。
これらの情報には第三者15の心拍等の情報も重畳されているから、サーバ制御部5nは入力された情報の周波数を解析する等して、ユーザ3と第三者15との情報を区別する。ユーザ3と第三者15とは感情面で同期されると考えられるから、第三者15の感情によって影響を受ける第三者15の心拍に関する情報、またはバイタルセンサ7で取得した情報を入力に加えてもよい。ただし、第2実施形態では、ユーザ3が第三者15の体内に存することから、第1実施形態で示したようなユーザ3の表情に現れやすい状況を推定することはできず、「落ち着いている」、「興奮している」といった内面的な状況が推定される。
ユーザ状況推定部5gは導出した感性指標をサーバ制御部5nに送信する。感性指標を受信したサーバ制御部5nは、PA指令生成部5iに対して、例えばユーザ3が「興奮している」状況においては、過去にユーザ3が「落ち着いている」ときに聞いていた音楽や音声(例えば母親の言葉)を抽出するよう指示を行い、これを受けてPA指令生成部5iは、適切と推定されるコンテンツデータを選定し、コンテンツデータと音声による再生指示をプレ期間用PA20に対して出力する。第1実施形態と同様にこの応答内容はデータベース5kに蓄積され、感性指標と応答内容との関連が学習される。
ここで、ユーザ3が出生後に使用する第1のPA1の第1のセンサ群41(図3参照)が取得する情報の属性と、プレ期間用PA20の第2のセンサ群42が取得する情報の属性とを比較する。
第1の期間T1においては、図3に示す第1のPA1の第1のセンサ群41のうち、少なくともカメラ1e、マイクロフォン1f(第1属性検出センサ51)を用いることで、ユーザ3の表情や声のトーン、語彙情報といった「精神的属性」ともいえる属性(第1の属性)を取得する。他方、プレ期間T0においては、プレ期間用PA20の第2のセンサ群42を構成するマイクロフォン1f、圧力センサ1h、加速度センサ1i、角速度センサ1j(第2属性検出センサ52)を用いることで、ユーザ3の心拍、胎動といった「肉体的属性」ともいえる属性(第2の属性)を取得する。そしてユーザ状況推定部5gは、第1の属性に基づいて第1の期間T1におけるユーザ3の感性指標を導出し、第2の属性に基づいてプレ期間T0におけるユーザ3の感性指標を導出する。なお、第1のPA1にも圧力センサ1h等は含まれるが、ユーザ3が成長していくについて感性指標の導出にあたって圧力センサ1h等の寄与度は低下していき、精神面の状況を推定するのに適した「精神的属性」が感性指標を決定する主要因になっていく。
このように第2実施形態のパーソナルアシスタント制御システムS1は、ユーザ3によって第1の期間T1に利用され、複数のセンサを含む第1のセンサ群41から情報を取得する第1のPA1と、ユーザ3によって第1の期間T1よりも過去の期間であるプレ期間T0に利用され、複数のセンサを含む第2のセンサ群42から情報を取得するプレ期間用PA20と、第1のPA1及びプレ期間用PA20とネットワーク4を介して接続され、第1のセンサ群41または第2のセンサ群42から取得した情報に基づいてユーザ3の状況を推定するサーバ5と、を備え、サーバ5は、第1の期間T1において、第1のセンサ群41に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサ51から取得した情報に基づきユーザ3の状況を推定し、プレ期間T0において、第2のセンサ群42に含まれるセンサのうち、第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサ52から取得した情報に基づいてユーザ3の状況を推定する。
ここで重要なのは、第1の期間T1において情報を取得する第1属性検出センサ51とプレ期間T0において情報を取得する第2属性検出センサ52とは、それぞれ異なる属性を検出するものであるが、ユーザ状況推定部5gは、異なる属性が入力された場合であっても、ユーザ3の状況を共通の指標である感性指標として導出する点である。この共通する感性指標を用いることで、ユーザ3が胎児のときに学習された応答内容を、その後ユーザ3が乳児に成長したときにおいても活用できるようになる。
また、サーバ制御部5nは、第2のセンサ群42に含まれるマイクロフォン1fによって取得された音声を話者解析部5fで解析した結果に基づいて、例えば第三者15のユーザ3に対する語りかけ等の行為を抽出する。第三者15がユーザ3に語りかけたときの音声(応答内容)は音情報としてデータベース5kに蓄積されるとともに、音声認識部5eで語彙として抽出される。更にこのとき、第三者15が行為を成した際のユーザ3の感性指標が取得される。このインタラクションの状況もデータベース5kに蓄積され、第三者15の行為(ここでは語りかけ)と第2のセンサ群42で取得した情報に基づく前記ユーザ3の状況(感性指標)とが関連付けて学習される。
また、サーバ制御部5nは、第三者15による入力部1kの操作(音声認識部5eでの認識結果に基づくコマンドの生成、あるいは情報端末6の操作等も含む)に基づいて、例えばマイクロフォン1fで取得した第三者15の心拍音を収録することが可能とされている。更に、サーバ制御部5nは、第三者15による入力部1kの操作等に基づいて収録した心拍音を再生するようプレ期間用PA20に対して指示を行うことも可能とされている。もちろんこのときも第三者15が行為(ここでは、入力部1kの操作等)を成した際のユーザ3の感性指標が取得される。この状況もデータベース5kに蓄積され、第三者15の行為(ここでは、心拍音の再生)と第2のセンサ群42で取得した情報に基づく前記ユーザ3の状況(感性指標)とが関連付けて学習される。
この学習によって、例えば母親の「〇〇ちゃん、おりこうね」との語りかけや第三者15の心拍音の聴取により、ユーザ3の感性指標が「興奮している」から「落ち着いている」に変化した場合が多いほど、ユーザ3の感性指標が「興奮している」となった状況においては、データベース5kに蓄積された音情報のうち、母親の「〇〇ちゃん、おりこうね」の発声行為や心拍音が(第三者15の指示を待たずに)再生・再現される確率が高くなる。
そして、この発声行為や心拍音等の再現は、共通の感性指標を介して、プレ期間T0から第1の期間T1へと継承される。サーバ5は、プレ期間T0において、第2のセンサ群42(第2属性検出センサ52)から取得した情報に基づいて、ユーザ3に対する第三者15の行為を抽出し、第三者15の行為と第2属性検出センサ52で取得した情報に基づくユーザ3の状況とを関連付けて学習し、ユーザ3が出生後の第1の期間T1において、第1属性検出センサ51(図3参照)で取得した情報から推定されたユーザ3の状況に基づいて、プレ期間T0における第三者15の行為の少なくとも一部を再現するよう、第1のPA1に対して指示が行なわれる。即ち、ユーザ3の状況に基づき。例えばプレ期間T0に収録された心拍音等のコンテンツが第1の期間T1においても再生されるようになる。
図12は、本発明の第2実施形態の変形例における第1の期間T1及びプレ期間T0におけるパーソナルアシスタント制御システムS1の概要を示す説明図である。上述した第2実施形態では、第1の期間T1で利用される第1のPA1と、プレ期間T0で利用されるプレ期間用PA20とは、それぞれ異なるロボットであるとしたが、変形例においては、第1の期間T1及びプレ期間T0のいずれにおいても同一(単一)のPA(第1のPA1)が利用される。以降、第2実施形態の変形例について図3を用いて説明する。
図3に示すように第1のPA1は、第1のセンサ群41から情報を取得する。この第1のセンサ群41のうち、カメラ1e、マイクロフォン1fが上述した第1属性検出センサ51に該当し、マイクロフォン1f、圧力センサ1h、加速度センサ1i、角速度センサ1jが第2属性検出センサ52に該当する。即ち、同一のセンサであるマイクロフォン1fを兼用して、プレ期間T0における「肉体的属性」及び第1の期間T1における「精神的属性」を取得する。
変形例においても、第2実施形態で説明したように、パーソナルアシスタント制御システムS1は、ユーザ3によって第1の期間T1に利用され、複数のセンサを含む第1のセンサ群41から情報を取得する第1のPA1と、第1のPA1とネットワーク4を介して接続され、第1のセンサ群41から取得した情報に基づいてユーザ3の状況を推定するサーバ5とを備え、サーバ5は、第1の期間T1において、第1のセンサ群41に含まれるセンサのうち、少なくとも第1の属性を検出する第1属性検出センサ51から取得した情報に基づきユーザ3の状況を推定し、第1の期間T1よりも過去の期間であるプレ期間T0において、第1のセンサ群41に含まれるセンサのうち、第1の属性とは異なる少なくとも第2の属性を検出する第2属性検出センサ52から取得した情報に基づいてユーザ3の状況を推定する。変形例においても、第1属性検出センサ51で取得した情報及び第1属性検出センサ51とは異なる属性を検出する第2属性検出センサ52で取得した情報に基づいて、共通の指標である感性指標を導出する。
更に、サーバ5は、プレ期間T0において、第1のセンサ群41から取得した情報に基づいて、ユーザ3に対する第三者15の行為を抽出し、第三者15の行為と第2属性検出センサ52で取得した情報に基づくユーザ3の状況とを関連付けて学習し、第1の期間T1において、第1属性検出センサ51で取得した情報から推定されたユーザ3の状況に基づいて、プレ期間T0における第三者15の行為の少なくとも一部を再現するよう、第1のPA1に対して指示を行う。
そして、第1のPA1は、マイクロフォン1fと、マイクロフォン1fで取得した音を増幅する図示しない増幅器と、この増幅器で増幅された音声信号を再生するスピーカ1mと、スピーカ1mで再生された音を第三者15の体内に伝達する伝達部1lとを備える。
以上、本発明に係るパーソナルアシスタント制御システムS1ついて特定の実施形態に基づいて詳細に説明したが、これらはあくまでも例示であって、本発明はこれらの実施形態によって限定されるものではない。例えば、第1のセンサ群41や第2のセンサ群42に含まれるセンサについては、適宜選択することが可能であり、本実施形態で説明したセンサに限定されるものではない。また、第1実施形態においては、乳児、幼児、成人、高齢者に対して適用されるパーソナルアシスタントを説明したが、人が成長する過程をより細かい期間に分け、それぞれについて適切なパーソナルアシスタントを適用できることは明らかである。
本発明に係るパーソナルアシスタント制御システムS1は、人の成長とともにロボット等のパーソナルアシスタントが入れ替わったとしても、パーソナルアシスタントとしてのロボットが単なる道具ではなく、胎児の段階も含めて、人の成長に合わせてパートナーとしてユーザ3を適切にサポートすることが可能となることから、例えばパーソナルアシスタント用のプラットフォーム等として好適に応用することができる。
1 第1のPA(第1のパーソナルアシスタント)
1e カメラ
1f マイクロフォン
1u ディスプレイ
2 第2のPA(第2のパーソナルアシスタント)
3 ユーザ
4 ネットワーク
5 サーバ
6 情報端末
7 バイタルセンサ
15 第三者
20 プレ期間用PA(プレ期間用パーソナルアシスタント)
41 第1のセンサ群
42 第2のセンサ群
43 第3のセンサ群
44 第4のセンサ群
50 環境センサ
51 第1属性検出センサ
52 第2属性検出センサ
S1 パーソナルアシスタント制御システム

Claims (2)

  1. ユーザによって第1の期間に利用され、複数のセンサを含む第1のセンサ群から情報を取得する第1のパーソナルアシスタントと、
    前記ユーザによって第2の期間に利用され、複数のセンサを含む第2のセンサ群から情報を取得する第2のパーソナルアシスタントと、
    前記第1のパーソナルアシスタント及び前記第2のパーソナルアシスタントとネットワークを介して接続され、前記第1のセンサ群または前記第2のセンサ群から取得した情報に基づいて前記ユーザの状況を推定するサーバとを備え、
    前記サーバは、
    前記第1の期間において、
    前記第1のセンサ群から取得した情報に基づいて、前記ユーザに対する第三者の行為を抽出し、前記第三者の行為と前記第1のセンサ群で取得した情報に基づく前記ユーザの状況とを関連付けて学習し、
    前記第2の期間において、
    前記第2のセンサ群で取得した情報から推定された前記ユーザの状況に基づいて、前記第1の期間における前記第三者の行為の少なくとも一部を再現するよう、前記第2のパーソナルアシスタントに対して指示を行うことを特徴とするパーソナルアシスタント制御システム。
  2. 前記第1のセンサ群及び前記第2のセンサ群には、共通の属性を取得する共通センサと、前記共通センサ以外の非共通センサとが含まれ、
    前記第1の期間及び前記第2の期間において、
    前記サーバは、前記共通センサの出力と前記非共通センサの出力とを参照して、前記ユーザの状況を示す共通の指標を導出することを特徴とする請求項1に記載のパーソナルアシスタント制御システム。
JP2021068595A 2019-07-30 2021-04-14 パーソナルアシスタント制御システム Active JP7350356B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021068595A JP7350356B2 (ja) 2019-07-30 2021-04-14 パーソナルアシスタント制御システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019139331A JP6900058B2 (ja) 2019-07-30 2019-07-30 パーソナルアシスタント制御システム
JP2021068595A JP7350356B2 (ja) 2019-07-30 2021-04-14 パーソナルアシスタント制御システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019139331A Division JP6900058B2 (ja) 2019-07-30 2019-07-30 パーソナルアシスタント制御システム

Publications (2)

Publication Number Publication Date
JP2021121316A true JP2021121316A (ja) 2021-08-26
JP7350356B2 JP7350356B2 (ja) 2023-09-26

Family

ID=74229988

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019139331A Active JP6900058B2 (ja) 2019-07-30 2019-07-30 パーソナルアシスタント制御システム
JP2021068595A Active JP7350356B2 (ja) 2019-07-30 2021-04-14 パーソナルアシスタント制御システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019139331A Active JP6900058B2 (ja) 2019-07-30 2019-07-30 パーソナルアシスタント制御システム

Country Status (4)

Country Link
US (1) US20220266161A1 (ja)
JP (2) JP6900058B2 (ja)
TW (1) TWI795663B (ja)
WO (1) WO2021020490A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210014909A (ko) * 2019-07-31 2021-02-10 삼성전자주식회사 대상의 언어 수준을 식별하는 전자 장치 및 방법
WO2024071166A1 (ja) * 2022-09-29 2024-04-04 日東電工株式会社 ロボット
WO2024071165A1 (ja) * 2022-09-29 2024-04-04 日東電工株式会社 ロボット、学習装置、制御方法およびプログラム
WO2024071164A1 (ja) * 2022-09-29 2024-04-04 日東電工株式会社 ロボット、学習装置、制御方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005111603A (ja) * 2003-10-07 2005-04-28 Lazona Inc ロボットおよびロボット管理装置
JP2009131928A (ja) * 2007-11-30 2009-06-18 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2014176963A (ja) * 2013-03-14 2014-09-25 Toyota Motor Engineering & Manufacturing North America Inc ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
JP2019018265A (ja) * 2017-07-13 2019-02-07 田嶋 雅美 接客サービスシステム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222518A (ja) * 2000-02-09 2001-08-17 Sony Corp 情報処理装置及び方法並びにデータ保持装置
JP5688574B2 (ja) * 2009-11-04 2015-03-25 株式会社国際電気通信基礎技術研究所 触覚提示付ロボット
JP2017100221A (ja) * 2015-11-30 2017-06-08 パナソニックIpマネジメント株式会社 コミュニケーションロボット
CN109416867B (zh) * 2016-07-04 2022-05-03 索尼公司 机器人、机器人系统和记录介质
CN107731225A (zh) 2016-08-10 2018-02-23 松下知识产权经营株式会社 待客装置、待客方法以及待客系统
US10661438B2 (en) * 2017-01-16 2020-05-26 Ants Technology (Hk) Limited Robot apparatus, methods and computer products
EP3683730A4 (en) * 2017-09-12 2020-09-23 Cloudminds (Shenzhen) Robotics Systems Co., Ltd. DYNAMIC ROBOT, ROBOT AND CLOUD SERVER LEARNING PROCESS AND SYSTEM
CN108510049B (zh) 2018-03-23 2020-11-06 山东大学 基于情感-时空信息的机器人服务自主认知方法及机器人
US10762414B1 (en) * 2018-04-19 2020-09-01 Kinoo, Inc. Systems and methods for sharing an artificial intelligence personality
CN109676611B (zh) * 2019-01-25 2021-05-25 北京猎户星空科技有限公司 多机器人协同服务方法、装置、控制设备及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005111603A (ja) * 2003-10-07 2005-04-28 Lazona Inc ロボットおよびロボット管理装置
JP2009131928A (ja) * 2007-11-30 2009-06-18 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2014176963A (ja) * 2013-03-14 2014-09-25 Toyota Motor Engineering & Manufacturing North America Inc ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
JP2019018265A (ja) * 2017-07-13 2019-02-07 田嶋 雅美 接客サービスシステム

Also Published As

Publication number Publication date
WO2021020490A1 (ja) 2021-02-04
TWI795663B (zh) 2023-03-11
JP7350356B2 (ja) 2023-09-26
JP2021019966A (ja) 2021-02-18
TW202112506A (zh) 2021-04-01
JP6900058B2 (ja) 2021-07-07
US20220266161A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
JP6900058B2 (ja) パーソナルアシスタント制御システム
Do et al. RiSH: A robot-integrated smart home for elderly care
Kon et al. Evolution of smart homes for the elderly
JP6816925B2 (ja) 育児ロボットのデータ処理方法及び装置
WO2018153359A1 (zh) 预测情感状态的方法和机器人
JP4794846B2 (ja) 推定装置、及び推定方法
CN110326261A (zh) 确定音频输入中的说话者改变
JP2019162714A (ja) 音源の方向を認識するロボット
JP2021525421A (ja) 観察可能な健康状態の兆候のためのロボット対話
JP2018514815A (ja) 発達年齢に基づいて幼児用にカスタマイズした学習コンテンツの提示、親の好みに基づいてカスタマイズした学習コンテンツ、カスタマイズした教材のプレイリスト、及び幼児の実績を検出するための自動化システム
CN109318236A (zh) 老人伴护智能系统
JP2009131928A (ja) ロボット制御システム、ロボット、プログラム及び情報記憶媒体
EP4018422A1 (en) System and method of detecting falls of a subject using a wearable sensor
US9968296B2 (en) Wearable socio-biosensor device
WO2016164374A1 (en) Intelligent infant monitoring system and infant monitoring hub and infant learning receptivity detection system
Tsai et al. Design of an intelligent cognition assistant for people with cognitive impairment
WO2018176095A1 (en) Methods and systems for a companion robot
JP2019017499A (ja) 療養支援システム
JP6900089B2 (ja) パーソナルアシスタント制御システム
EP4181151A1 (en) A system and method for assisting the development of an adult-child attachment relationship
WO2021085175A1 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
JP7254345B2 (ja) 情報処理装置及びプログラム
Do Developing a home service robot platform for smart homes
Naeem et al. An AI based Voice Controlled Humanoid Robot
Scassellati et al. Social development [robots]

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7350356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150