JP6594235B2 - 作業支援装置およびプログラム - Google Patents

作業支援装置およびプログラム Download PDF

Info

Publication number
JP6594235B2
JP6594235B2 JP2016052919A JP2016052919A JP6594235B2 JP 6594235 B2 JP6594235 B2 JP 6594235B2 JP 2016052919 A JP2016052919 A JP 2016052919A JP 2016052919 A JP2016052919 A JP 2016052919A JP 6594235 B2 JP6594235 B2 JP 6594235B2
Authority
JP
Japan
Prior art keywords
user
work
robot
information
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016052919A
Other languages
English (en)
Other versions
JP2017164851A (ja
Inventor
伸也 高山
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016052919A priority Critical patent/JP6594235B2/ja
Publication of JP2017164851A publication Critical patent/JP2017164851A/ja
Application granted granted Critical
Publication of JP6594235B2 publication Critical patent/JP6594235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Description

本発明は、ユーザが行う作業を支援する作業支援装置およびプログラムに関する。
従来から、ユーザが行う作業手順を進行に合わせて提示する技術が知られている。特許文献1では、ユーザの返答から判定される経過情報に応じて適切な調理や仕事の手順を提示する技術が開示されている。
また、特許文献2では、移動型ロボットを合理的に制御し、作業完了品を効率的に配達するロボットシステムに関する技術が開示されている。
また、特許文献3では、ユーザの調理機器構成にあわせた調理方法を提示し、効率的な調理支援を行う調理支援システムに関する技術が開示されている。
また、特許文献4では、複数の作業工程を並列に処理する場合において、注意を喚起する工程を提示する提示情報決定システムに関する技術が開示されている。
また、特許文献5では、複数のステップで構成される生活タスクをユーザが実行する際、センサ情報から得たユーザの動作・状態からコンテキストを取得し、ステップに応じた情報やガイダンスを提示して支援するシステムに関する技術が開示されている。
特開平11−187824号公報 特開2011−245577号公報 特開2001−190235号公報 特開2008−159039号公報 特開2008−015585号公報
しかしながら、特許文献1では、ユーザが入力した音声に基づいて経過情報が判定されるが、言葉を発することができない、調理や作業の音が大きい等、音声が取得困難な環境に適応できない。
また、特許文献2では、物品を配達するという給仕には長けているものの、調理や仕事等の作業を協力的に実行する点に欠けている。
また、特許文献3および特許文献4では、ユーザが使用する機器の構成や状況に応じて効率的な作業手順が提示されるが、映像表示機器が情報を提示するので、身振り手振りを交えた人間的な支援はできない。
また、特許文献5では、取得されたユーザのコンテキストに応じて、予め定められたステップにおける情報やガイダンスを提示するが、時々刻々と変わるユーザの感情やストレスに応じた支援はできない。
本発明は、このような事情に鑑みてなされたものであり、ユーザの感情やストレス、利用環境に応じて、ユーザが行う作業を支援する作業支援装置およびプログラムを提供することを目的とする。
(1)上記目的を達成するために、本発明の作業支援装置は、以下のような手段を講じた。すなわち、ユーザが行う作業を支援する作業支援装置であって、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する感情判定部と、前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する動作生成部と、前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する情報提示部と、を備えることを特徴とする。
このように、作業支援装置は、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定し、判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成し、生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示するので、時々刻々と変わるユーザの感情やストレスに応じた作業支援をすることが可能となる。
(2)また、本発明の作業支援装置は、少なくとも前記映像または前記生体信号を取得する情報取得部を備えることを特徴とする。
このように、作業支援装置は、少なくとも映像または生体信号を取得するので、映像やセンサを用いることによって、音声等の取得が困難な環境であってもユーザの状態を把握することが可能となる。
(3)また、本発明の作業支援装置は、前記映像または前記生体信号の少なくとも一つ、および、前記判定した情動度またはストレス指標の少なくとも一つを用いて、作業進行状況を判定する状況判定部を備え、前記情報提示部は、前記判定した作業進行状況および前記生成したロボット動作に基づいて、前記作業進行状況に応じた作業手順に関する情報を提示することを特徴とする。
このように、作業支援装置は、映像または生体信号の少なくとも一つ、および、判定した情動度またはストレス指標の少なくとも一つを用いて、作業進行状況を判定し、情報提示部は、判定した作業進行状況および生成したロボット動作に基づいて、作業進行状況に応じた作業手順に関する情報を提示するので、ユーザの作業進行状況に応じた作業支援を行うことが可能となる。
(4)また、本発明の作業支援装置は、ユーザの入力、または環境情報を取得する電子機器を介して、ユーザの周囲の環境情報を取得する周囲状況取得部を備えることを特徴とする。
このように、作業支援装置は、ユーザの入力、または環境情報を取得する電子機器を介して、ユーザの周囲の環境情報を取得するので、ユーザを取り囲んでいる環境を把握することが可能となる。
(5)また、本発明の作業支援装置は、前記取得した環境情報に基づいて、前記作業手順に関する情報を変更する手順変更部を備えることを特徴とする。
このように、作業支援装置は、取得した環境情報に基づいて、作業手順に関する情報を変更するので、ユーザを取り囲んでいる環境も考慮した作業支援を行うことが可能となる。
(6)また、本発明の作業支援装置は、前記映像、前記生体信号、または前記環境情報の少なくとも一つに応じて、物理的な作業支援を行う物理的協力部を備えることを特徴とする。
このように、作業支援装置は、映像、生体信号、または環境情報の少なくとも一つに応じて、物理的な作業支援を行うので、ユーザの状態や利用環境に応じた作業支援を行うことが可能となる。その結果、ユーザの状態や利用環境に応じて、例えば、動作のスピード、声掛け等の音声の音量やスピードを調整することが可能となる。
(7)また、本発明の作業支援装置は、いずれかの部位が可動であるロボット本体と、前記部位を動かす駆動部と、を備え、前記ロボット動作に基づいて、前記駆動部を駆動させることによって、前記ロボットの部位を動かすことを特徴とする。
このように、本発明の作業支援装置は、いずれかの部位が可動であり、部位を動かし、ロボット動作に基づいて、駆動部を駆動させることによって、ロボットの部位を動かすので、ユーザの状態や利用環境に応じた作業支援を行うことが可能となる。その結果、ユーザの状態や利用環境に応じて、例えば、動作のスピード、声掛け等の音声の音量やスピードを調整することが可能となる。
(8)また、本発明のプログラムは、ユーザが行う作業を支援する作業支援装置のプログラムであって、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する処理と、前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する処理と、前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する処理と、を含む一連の処理をコンピュータに実行させることを特徴とする。
このように、プログラムは、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定し、判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成し、生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示するので、時々刻々と変わるユーザの感情やストレスに応じた作業支援をすることが可能となる。
本発明によれば、ユーザの映像や生体信号を用いることにより、時々刻々と変わるユーザの感情やストレス、ユーザの利用環境に応じた作業支援をすることが可能となる。また、映像やセンサを用いることによって、音声等の取得が困難な環境であってもユーザの状態を把握することが可能となる。
第1の実施形態に係る作業支援装置の概略構成を示す図である。 第1の実施形態に係る作業支援装置の機能を示すブロック図である。 第1の実施形態に係る作業支援装置の動作例を示すフローチャートである。 第1の実施形態に係る作業支援装置が動作する際の関係図である。 ロボット動作再生時の動作例を示す図である。 第2の実施形態に係る作業支援装置の概略構成を示す図である。 第2の実施形態に係る作業支援装置の機能を示すブロック図である。 第2の実施形態に係る作業支援装置の動作例を示すフローチャートである。 第2の実施形態に係る作業支援装置が動作する際の関係図である。
本発明者は、時々刻々と変わるユーザの感情やストレスに応じた作業支援ができない点に着目し、ユーザの映像、生体信号を取得することによって、ユーザの感情やストレスに応じた作業支援を行うことができることを見出し、本発明をするに至った。
すなわち、本発明の作業支援装置は、ユーザが行う作業を支援する作業支援装置であって、ユーザの映像または生体信号の少なくとも一つを用いて、ユーザの感情の変化量を示す情動度またはユーザのストレスの度合いを示すストレス指標を判定する感情判定部と、前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する動作生成部と、前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する情報提示部と、を備えることを特徴とする。
これにより、本発明者は、時々刻々と変わるユーザの感情やストレス、ユーザの利用環境に応じた作業支援をすることを可能とした。また、映像やセンサを用いることによって音声等の取得が困難な環境であってもユーザの状態を把握することを可能とした。
以下、本発明の実施形態について、図面を参照しながら具体的に説明する。なお、本実施形態では、調理における作業を支援する作業支援装置を例として説明するが、これに限らない。
[第1の実施形態]
図1は、第1の実施形態に係る作業支援装置の概略構成を示す図である。作業支援装置1は、ロボット10、カメラ20および脈拍センサ30を備える。カメラ20は、ユーザの映像を取得する。脈拍センサ30は、ユーザの脈拍信号を取得する。なお、本発明の取得センサは、カメラまたは脈拍センサに限定されることなく、ユーザの映像またはユーザの脈拍信号等の生体信号の少なくとも一つを取得できれば、いずれの物理センサであっても、本発明の技術的思想は変わらない。また、図1では、カメラ20または脈拍センサ30は、ロボット10の外部に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、ロボット10の内部に内蔵されていても良い。なお、ロボット10は、いずれかの部位が可動であるロボット本体と、可動部を動かす駆動部を備えていても良い。ここで各部位とは、ロボット本体の目、口、手、指、脚等に該当し、各アクチュエータを動作させることによって可動となる。
ロボット10は、カメラ20または脈拍センサ30から取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する。ここで、情動度とは、ユーザの感情の変化量を示す。また、ストレス指標とは、ユーザのストレスの度合いを示す。
ロボット10は、判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する。さらに、ロボット10は、生成されたロボット動作60に応じて、調理手順等の作業手順に関わる情報(以下、調理手順に関わる情報70ともいう)を提示する。作業手順に関わる情報は、予め保持していても良いし、外部から取得しても良い。
図2は、第1の実施形態に係る作業支援装置の機能を示すブロック図である。ロボット10は、情報取得部10−1、感情判定部10−2、動作生成部10−3および情報提示部10−4を備える。情報取得部10−1は、カメラまたは脈拍センサ等の物理センサを用いて、ユーザの映像またはユーザの脈拍信号の少なくとも一つを取得する。感情判定部10−2は、情報取得部10−1が取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する。動作生成部10−3は、感情判定部10−2で判定したユーザの情動度40またはユーザのストレス指標50を用いて、ロボット動作60を生成する。情報提示部10−4は、動作生成部10−3で生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する。また、図示しないが、ロボット10は、ディスプレイ等の情報提示装置を備えていても良い。情報提示装置を用いて、レクチャー等の映像情報を調理手順に関わる情報70として提示することもできる。
図3は、第1の実施形態に係る作業支援装置の動作例を示すフローチャートである。そして、図4は、第1の実施形態に係る作業支援装置が動作する際の関係図である。
初めに、ロボット10に接続されたカメラ20または脈拍センサ30が、ユーザの映像またはユーザの脈拍信号の少なくとも一つを取得する(ステップS1)。次に、ロボット10において、ステップS1で取得したユーザの映像またはユーザの脈拍信号を用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する(ステップS2)。
ここで、[1]ユーザの映像を用いてユーザの情動度40を判定する方法、および[2]ユーザの脈拍信号を用いてユーザのストレス指標50を判定する方法、について説明する。
[1]まず、ユーザの情動度を判定する方法について一例を述べる。なお、本実施形態では、ユーザの顔映像を用いる場合について述べるが、本発明の技術的思想は、これに限定されるわけではなく、ユーザの全身映像等、他の映像を用いても良い。
取得したユーザの顔映像の各フレームにおいて特徴点検出を行い、特徴点座標付近において、Haar−like特徴量に基づき、特徴抽出を行う。ここでは、予めユーザの平常時の顔画像における特徴抽出を行っておき、ステップS1で取得したユーザのtフレーム目の映像における事後確率を算出し、平常度H(t)の時間変化における不規則性を反映し、式(1)を用いて、ユーザの情動度U(t)として判定する。
[2]次に、ユーザのストレス指標を判定する方法について一例を述べる。なお、本実施形態では、ユーザの脈拍信号からストレス指標を判定する方法を用いる場合を述べるが、本発明の技術的思想は、これに限定されるわけではなく、他の生体信号を用いても良い。
取得したユーザの脈拍信号から脈拍間隔に基づき脈拍変動時系列データを算出する。算出された脈拍変動時系列データを周波数解析し、時刻tにおける呼吸変動に対応する高周波成分Fh(t)と、血圧変動に対応する低周波成分Fl(t)を抽出する。式(2)に示す高周波成分Fh(t)と低周波成分Fl(t)との比S(t)をユーザのストレス指標として判定する。
[3]ユーザの情動度U(t)およびユーザのストレス指標S(t)が同時に判定された場合は、式(3)を用いて、ユーザの情動度およびユーザのストレス指標の合計値P(t)として判定する。
ここで、重み係数wjは、ユーザの情動度U(t)に対する重み、wsはユーザのストレス指標S(t)に対する重みである。なお、ユーザの情動度U(t)のみが判定された場合は、S(t)=0、ユーザのストレス指標S(t)のみが判定された場合は、U(t)=0として、P(t)を算出しても良い。以上説明した方法を用いて、ユーザの情動度およびユーザのストレス指標を判定することができる。
次に、ステップS2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する(ステップS3)。以下に、一例として、主成分分析を用いてロボット動作を生成する方法について説明するが、本発明の技術的思想は、主成分分析を用いる方法に限定されるわけでなく、非線形状態空間写像や機械学習等、別の方法を用いてロボット動作を生成しても良い。
本実施形態では、まず、ロボット動作データベースを用意する。なお、ここで言うロボット動作データベースには、ロボットの全ての部位が任意の時刻において、いずれの空間位置座標に存在するかに関するデータが、予め記憶されている。
ここで、ロボット動作データベースに登録された平常時および任意の時刻におけるユーザの情動度またはユーザのストレス指標に対応するロボット動作を学習し、線形回帰手法により、平常時のロボット動作から、ユーザの情動度またはユーザのストレス指標に対応するロボット動作に変換するためのパラメータ(以下、変換パラメータともいう)を算出する。すなわち、予め用意されたロボット動作をm(m=1,2,・・・)とすると、平常時のロボット動作データの第j主成分座標の微分値kj(m)を用いて、式(4)により線形回帰演算を行い、変換パラメータaj i、bj iを算出しておく。
ただし、qj i(m)は、ロボット動作mにおける任意の時刻のユーザの情動度またはユーザのストレス指標の値iに対応するロボット動作の第j主成分座標の微分値を示している。ここでは、変換パラメータaj i、bj iを用いて、ステップS2で判定したユーザの情動度またはユーザのストレス指標の値P(t)に応じて、ロボット動作mを変換し、ロボット動作を生成する。すなわち、生成するロボット動作gの第j主成分座標の微分値rj(g)は、式(5)で求められる。
そして、ロボット動作の第j主成分座標は、その初期座標をCjとすると、式(6)で表わすことができる。
次に、ステップS3で生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する(ステップS4)。各ロボット動作60としてロボット動作データベースに記憶されている、任意の時刻においてロボット10の各部位がいずれの空間位置座標に存在するかの情報に基づいて、ロボット10に搭載されている目、口、手、指、脚等の各アクチュエータを制御して、ロボット動作60を再生する。
図5は、ロボット動作再生時の動作例を示す図である。例えば、ユーザの情動度40またはユーザのストレス指標50が大きくなる場合、式(6)の変位が小さくなるため、図5で示すように、徐々にスピードが遅くなるロボット動作60を再生して、調理手順に関わる情報70を丁寧に指示することが可能となる。また、情報提示装置を用いて、映像情報として調理手順に関わる情報70を提示しても良い。その場合、ステップS2で判定したユーザの情動度40またはユーザのストレス指標50の値P(t)おける静的特徴量E(t)を、式(7)を用いて算出し、ディスプレイ等の表示画面の背景色や音量を変更して、調理手順に関わる情報70を提示する。
このように、静的特徴量E(t)を用いることで、ある程度長い期間継続している特徴量を算出することができる。例えば、ユーザの情動度40またはユーザのストレス指標50の値P(t)が大きくなる場合、式(7)において算出されるE(t)の値も大きくなるため、図5で示すように、調理手順に関わる情報70を強調して指示する等の作業支援が可能となる。
このように、本実施形態によれば、ロボット10に接続されたカメラ20または脈拍センサ30がユーザの映像またはユーザの脈拍信号等の生体信号の少なくとも一つを取得し、取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定し、判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成し、生成したロボット動作60に応じて、調理手順に関わる情報70を提示するので、時々刻々と変わるユーザの感情やストレス指標に応じた支援が可能となる。また、物理的な実体のあるロボットが身振り手振りを交えて支援することで、人間的な支援を実現することも可能となる。
[第2の実施形態]
図6は、第2の実施形態に係る作業支援装置の概略構成を示す図である。作業支援装置2は、ロボット10、カメラ20または脈拍センサ30、および宅内機器(電子機器)90を備える。カメラ20は、ユーザの映像を取得する。脈拍センサ30は、ユーザの脈拍信号を取得する。なお、本実施形態においても、本発明の取得センサは、カメラまたは脈拍センサに限定されることなく、ユーザの映像またはユーザの脈拍信号等の生体信号を取得できれば、いずれの物理センサであっても、本発明の技術的思想は変わらない。
ロボット10は取得したユーザの映像またはユーザのストレス指標50の少なくとも一つを用いて、ユーザの作業進行状況(以下、調理状況100ともいう)を判定する。さらに、ロボット10は、判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する。そして、ロボット10は、判定したユーザの調理状況100および生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する。
宅内機器90は、天気等のユーザの周囲の状況110を取得する。ロボット10は、取得した周囲の状況110に応じて、調理手順に関わる情報70を変更する。さらに、ロボット10は、ユーザの調理作業を物理的に支援することができる。図6では、カメラ20または脈拍センサ30、および宅内機器90は、ロボット10の外部に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、ロボット10の内部に内蔵されていても良い。
図7は、第2の実施形態に係る作業支援装置の機能を示すブロック図である。ロボット10は、情報取得部10−1、感情判定部10−2、動作生成部10−3、情報提示部10−4、状況判定部10−5、手順変更部10−6、物理的協力部10−7、および宅内機器90を備える。情報取得部10−1は、カメラ20または脈拍センサ30等の物理センサを用いて、ユーザの映像またはユーザの脈拍信号等の生体信号の少なくとも一つを取得する。感情判定部10−2は、情報取得部10−1が取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する。
状況判定部10−5は、情報取得部10−1が取得したユーザの映像またはユーザの脈拍信号の少なくとも一つ、および、感情判定部10−2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ユーザの調理状況100を判定する。動作生成部10−3は、感情判定部10−2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ロボット動作60を生成する。情報提示部10−4は、状況判定部10−5で判定した調理状況100および動作生成部10−3で生成されたロボット動作60に応じて、調理手順に関わる情報70を提示する。
宅内機器90は、周囲状況取得部90−1を備える。周囲状況取得部90−1は、周囲の状況110を取得する。手順変更部10−6は、周囲状況取得部90−1で取得した周囲の状況110に応じて、調理手順に関わる情報70を変更する。物理的協力部10−7は、ユーザの調理作業を物理的に支援する。
図8は、第2の実施形態に係る作業支援装置の動作例を示すフローチャートである。そして、図9は、第2の実施形態に係る作業支援装置が動作する際の関係図である。
初めに、ロボット10に接続されたカメラ20または脈拍センサ30が、ユーザの映像またはユーザの脈拍信号の少なくとも一つを取得する(ステップT1)。次に、ロボット10において、ステップT1で取得したユーザの映像またはユーザの脈拍信号の少なくとも一つを用いて、ユーザの情動度40またはユーザのストレス指標50の少なくとも一つを判定する(ステップT2)。
次に、ステップT1で取得したユーザの映像またはユーザの脈拍信号の少なくとも一つ、および、ステップT2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、ユーザの調理状況100を判定する(ステップT3)。
調理状況の判定について具体例[1]〜[3]を示す。ここでは、カメラ20で取得した映像信号を、SVM等の画像パターン認識法を用いて、「腕が真上に上がる」「手が左右に振られる」「視線が天井に向く」「視線がロボットに向く」等の行動情報に変換する。
[1]
・ユーザの腕が真上に上がる映像を受信
→ 調理状況100:完了
・ユーザの手が左右に振られる映像を受信
→ 調理状況100:未完了
・ユーザの腕が真上に上がる映像も、ユーザの手が左右に振られる映像も受信しない
→ 調理状況100:繁忙
[2]
・ユーザの視線が天井に向く映像を受信
→ 調理状況100:完了
・ユーザの視線がロボットに向く映像を受信
→ 調理状況100:未完了
・ユーザの視線が天井に向く映像も、ユーザの視線がロボットに向く映像も受信しない
→ 調理状況100:繁忙
[3]
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθA未満
→ 調理状況100:完了
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθA以上かつθB未満
→ 調理状況100:未完了
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθB以上
→ 調理状況100:繁忙
次に、ロボット10において、ステップT3で判定したユーザの情動度40またはユーザのストレス指標50、および調理状況100を用いて、ロボット動作60を生成する(ステップT4)。
次に、ロボット10において、ステップT3で判定した調理状況100、およびステップT4で生成されたロボット動作60を用いて、調理手順に関わる情報70を提示する(ステップT5)。以下に、ステップT5の動作例を説明する。本実施形態では、例えば、料理品名、その各調理手順における画像、目安の調理時間から構成される調理データベースを使用する。なお、調理データベースは、出版社やISP等から提供されており、容易に取得可能である。もし手順化されていな場合には、文字認識技術やテキスト解析技術等を用いて、各調理手順、目安の調理時間を構成し、料理データベースを作成しても良い。
現在の調理手順が先頭からN番目であるとする。以下に、ステップT3において調理状況を「完了」、「未完了」、「繁忙」と判定した場合の動作例を示す
・調理状況100として、完了と判定
→ 料理データベースからN+1番目の調理手順における画像を抽出し、調理手順に関わる情報70として提示
・調理状況100として、未完了と判定
→ 料理データベースからN番目の作業手順における画像を抽出し、調理手順に関わる情報70として提示。
・調理状況100として、繁忙と判定
→ 一定時間経過後、ステップT1へ戻る
次に、ユーザの映像またはユーザの生体信号等とは別に、宅内機器90において、周囲の状況110を取得し、取得した情報をデータに変換する(ステップT6)。なお、本実施形態では、宅内機器90として、電話機、スマートフォン、PC、TV、インターフォン、降雪雨センサ・風速センサ・温度センサを使用し、周囲の状況110として、電話、電子メール、SNS、TV放送、訪問者、天候等の情報を取得するが、本発明の技術的思想は、これらに限定されるわけではなく、他の宅内機器または周囲の状況を用いても良い。以下に、各種宅内機器を用いた場合の動作例を示す。
・宅内機器90として、電話機を使用
→ 電話機で検出された入電、電子メールの受信を当該通信手段の受信有無情報に変換
・宅内機器90として、スマートフォンを使用
→ スマートフォンで検出された入電、電子メールの受信、SNSメッセージ等の受信を当該通信手段の受信有無情報に変換
・宅内機器90として、TVを使用
→ TVの視聴予約開始時刻を数値データに変換
・宅内機器90として、インターフォンを使用
→ インターフォンの押下をインターフォン押下有無情報に変換
・宅内機器90として、降雪雨センサ・風速センサ・温度センサを使用
→ 降雪雨センサ・風速センサ・温度センサで検出された降雪雨、風速、温度を数値データに変換
次に、周囲状況取得部でデータに変換された周囲の状況110は、ロボット10へ送信される。以下に、周囲の状況110の送信の動作例を示す。
・宅内機器90として、電話機を使用
→ 周囲の状況110として、電話機への入電をロボット10に送信
→ 周囲の状況110として、電話機への電子メールの受信をロボット10に送信
・宅内機器90として、スマートフォンを使用
→ 周囲の状況110として、スマートフォンへの入電をロボット10に送信
→ 周囲の状況110として、スマートフォンへの電子メールの受信をロボット10に送信
→ 周囲の状況110として、スマートフォンへのSNSメッセージの受信をロボット10に送信
・宅内機器90として、PCを使用
→ 周囲の状況110として、PCへの入電をロボット10に送信
→ 周囲の状況110として、PCへの電子メールの受信をロボット10に送信
→ 周囲の状況110として、PCへのSNSメッセージの受信をロボット10に送信
・宅内機器90として、TVを使用
→ 周囲の状況110として、視聴予約したTV放送の開始をロボット10に送信
・宅内機器90として、インターフォンを使用
→ 周囲の状況110として、訪問者からの呼出をロボット10に送信
・宅内機器90として、降雪雨センサ・風速センサ・温度センサを使用
→ 周囲の状況110として、降雪雨の発生をロボット10へ送信
→ 周囲の状況110として、強風の発生をロボット10へ送信
→ 周囲の状況110として、気温の変化をロボット10へ送信
次に、ロボット10において、ステップT6で取得した周囲の状況110に応じて、調理手順に関わる情報70を変更する(ステップT7)。また、ここでは、予めユーザ取得した各周囲の状況110への応答時間θi(i=入電、電子メール受信、SNSメッセージ受信、視聴予約したTV放送の開始、訪問者からの呼出、降雪雨の発生、強風の発生、気温の変化等)を指定しておくが、本発明の技術的思想は、これに限定されるわけではない。
(1)θi≧N番目の調理手順における目安の調理時間−N番目の手順における作業経過時間
→ 調理手順に関わる情報70:変更なし
(2)θi<N番目の調理手順における目安の調理時間−N番目の手順における作業経過時間
・料理データベースにおけるN+1番目以降の目安の調理時間に、θi以下の調理手順(M番目)が存在し、且つN番目の調理手順と入れ替え可能
→ 調理手順に関わる情報70:料理データベースからM番目の調理手順における画像を抽出し、調理手順に関わる情報70として提示
・料理データベースにおけるN+1番目以降の目安の調理時間に、θi以下の調理手順が存在しない、またはN番目の調理手順と入れ替え不可能
→ 調理手順に関わる情報70:中断
さらに、ロボット10において、ユーザの作業を物理的に支援する(ステップT8)。なお、本実施形態では、ロボット10に、物体の運搬や機器の操作を可能とする部位が装着されているが、本発明の技術的思想は、これに限定されるわけではなく、物体の運搬や機器の操作を指示するだけでも良い。
ここで、ロボット10は、例えば、N番目の調理手順に必要な調理器具を保管場所から取り出し、ユーザに渡す。また、ロボット10は、N番目の調理手順に必要な調理機器の操作を行う。なお、ここでは、調理機器や調理器具の位置は、予め登録しても良いし、ロボット10が認識して、各調理機器や調理器具の位置を把握しても良い。
・料理データベースにあるN番目の調理手順における調理器具と異なる調理器具を使用する映像を受信
→ 正しい調理器具を渡す
・料理データベースにあるN番目の調理手順における調理方法と異なる映像を受信
→ 正しい調理方法を提示する
・ユーザの視線がN番目の調理手順に使用する調理機器とは異なる方向に向く映像を受信
→ 警告を促す
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθ以上
→ 各調理機器の安全装置を作動させる
さらに、ステップT3で判定した調理状況100またはステップT2で判定したユーザの情動度40またはユーザのストレス指標50に応じて、ロボット10がユーザに声掛けを行う。
・作業進行状況:完了
→ ロボット10:「良くできました」等、賞賛の声掛け
・作業進行状況:未完了
→ ロボット10:「頑張って」等、激励の声掛け
・作業進行状況:繁忙
→ ロボット10:「どうしたの?」等、心配の声掛け
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθ以上
→ ロボット10:「落ち着いて」等、慎重な声掛け
加えて、ステップT1で取得したユーザの映像またはステップT2で判定したユーザの情動度40またはユーザのストレス指標50の少なくとも一つを用いて、作業の手順や出来栄えを評価する。
・料理データベースにあるN番目の調理手順における作業結果との類似度を受信
→ 類似度を5段階で評価し、ロボット評価として出力する
・ユーザの情動度40またはユーザのストレス指標50の値P(t)がθ以上
→ コーヒーメーカを起動し、ご褒美としてユーザにコーヒーを提供する
以上説明したように、本実施形態によれば、ユーザの映像や生体信号を用いることにより、時々刻々と変わるユーザの感情やストレス、ユーザの利用環境に応じた作業支援をすることが可能となる。また、映像やセンサを用いることによって音声等の取得が困難な環境であってもユーザの状態を把握することが可能となる。
1、2 作業支援装置
10 ロボット
10−1 情報取得部
10−2 感情判定部
10−3 動作生成部
10−4 情報提示部
10−5 状況判定部
10−6 手順変更部
10−7 物理的協力部
20 カメラ
30 脈拍センサ
40 ユーザの情動度
50 ユーザのストレス指標
60 ロボット動作
70 調理手順に関わる情報
90 宅内機器(電子機器)
90−1 周囲状況取得部
100 調理状況
110 周囲の状況

Claims (8)

  1. ユーザが行う作業を支援する作業支援装置であって、
    予め特徴抽出がされたユーザの平常時の映像に対する時間的変化の不規則性をユーザの感情の変化量として示す情動度またはユーザの生体信号の変動時系列データから算出されユーザのストレスの度合いを示すストレス指標を判定する感情判定部と、
    前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する動作生成部と、
    前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する情報提示部と、を備えることを特徴とする作業支援装置。
  2. 少なくとも前記映像または前記生体信号を取得する情報取得部を備えることを特徴とする請求項1記載の作業支援装置。
  3. 前記映像または前記生体信号の少なくとも一つ、および、前記判定した情動度またはストレス指標の少なくとも一つを用いて、作業進行状況を判定する状況判定部を備え、
    前記情報提示部は、前記判定した作業進行状況および前記生成したロボット動作に基づいて、前記作業進行状況に応じた作業手順に関する情報を提示することを特徴とする請求項1または請求項2記載の作業支援装置。
  4. ユーザの入力、または環境情報を取得する電子機器を介して、ユーザの周囲の環境情報を取得する周囲状況取得部を備えることを特徴とする請求項1から請求項3のいずれかに記載の作業支援装置。
  5. 前記取得した環境情報に基づいて、前記作業手順に関する情報を変更する手順変更部を備えることを特徴とする請求項4記載の作業支援装置。
  6. 前記映像、前記生体信号、または前記環境情報の少なくとも一つに応じて、物理的な作業支援を行う物理的協力部を備えることを特徴とする請求項4または請求項5記載の作業支援装置。
  7. いずれかの部位が可動であるロボット本体と、
    前記部位を動かす駆動部と、を備え、
    前記ロボット動作に基づいて、前記駆動部を駆動させることによって、前記ロボット本体の部位を動かすことを特徴とする請求項1から請求項6のいずれかに記載の作業支援装置。
  8. ユーザが行う作業を支援する作業支援装置のプログラムであって、
    予め特徴抽出がされたユーザの平常時の映像に対する時間的変化の不規則性をユーザの感情の変化量として示す情動度またはユーザの生体信号の変動時系列データから算出されユーザのストレスの度合いを示すストレス指標を判定する処理と、
    前記判定した情動度またはストレス指標の少なくとも一つを用いてロボット動作を生成する処理と、
    前記生成したロボット動作に応じて、予め保持している作業手順に関する情報を提示する処理と、を含む一連の処理をコンピュータに実行させることを特徴とするプログラム。
JP2016052919A 2016-03-16 2016-03-16 作業支援装置およびプログラム Active JP6594235B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016052919A JP6594235B2 (ja) 2016-03-16 2016-03-16 作業支援装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016052919A JP6594235B2 (ja) 2016-03-16 2016-03-16 作業支援装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2017164851A JP2017164851A (ja) 2017-09-21
JP6594235B2 true JP6594235B2 (ja) 2019-10-23

Family

ID=59909703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016052919A Active JP6594235B2 (ja) 2016-03-16 2016-03-16 作業支援装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6594235B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6943744B2 (ja) * 2017-12-13 2021-10-06 Kddi株式会社 支援決定装置、方法及びプログラム
CN109658928B (zh) * 2018-12-06 2020-06-23 山东大学 一种家庭服务机器人云端多模态对话方法、装置及系统
JP2023127043A (ja) * 2022-03-01 2023-09-13 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072894A (ja) * 2004-09-06 2006-03-16 Advanced Institute Of Information Technology Inc 調理支援装置およびプログラム
JP2008015585A (ja) * 2006-07-03 2008-01-24 National Institute Of Information & Communication Technology 生活タスク支援システム
JP6150429B2 (ja) * 2013-09-27 2017-06-21 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法

Also Published As

Publication number Publication date
JP2017164851A (ja) 2017-09-21

Similar Documents

Publication Publication Date Title
KR102239604B1 (ko) 응시 정보를 사용한 디바이스 제어
EP3062198B1 (en) Generating actions based on a user&#39;s mood
US10546582B2 (en) Information processing device, method of information processing, and program
JP2021007042A (ja) 情報処理装置およびプログラム
JP6594235B2 (ja) 作業支援装置およびプログラム
CN108874152A (zh) 具有本能警告的移动设备
US10181220B2 (en) System and method for contact center augmented reality
CN108475507A (zh) 信息处理设备、信息处理方法和程序
CN108683850B (zh) 一种拍摄提示方法及移动终端
CN110855893A (zh) 一种视频拍摄的方法及电子设备
CN105451090B (zh) 图像处理方法和图像处理装置
CN107358953A (zh) 语音控制方法、移动终端及存储介质
Mayer et al. Examples of multimodal user interfaces for socially assistive robots in Ambient Assisted Living environments
US10963063B2 (en) Information processing apparatus, information processing method, and program
JP2020173714A (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
CN108133708B (zh) 一种语音助手的控制方法、装置及移动终端
JP2019079204A (ja) 情報入出力制御システムおよび方法
JP7146373B2 (ja) 接客サービスシステム
JP6482037B2 (ja) 制御装置、制御方法及び制御プログラム
KR101567154B1 (ko) 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치
WO2017175447A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6969576B2 (ja) 情報処理装置、および情報処理方法
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP2014030865A (ja) 視線制御装置、視線制御方法及び視線制御プログラム並びに端末装置
WO2014084374A1 (ja) 通信システム、通信方法、通信装置、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190924

R150 Certificate of patent or registration of utility model

Ref document number: 6594235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150