JP2018173763A - 行動支援システム、行動支援方法 - Google Patents
行動支援システム、行動支援方法 Download PDFInfo
- Publication number
- JP2018173763A JP2018173763A JP2017070804A JP2017070804A JP2018173763A JP 2018173763 A JP2018173763 A JP 2018173763A JP 2017070804 A JP2017070804 A JP 2017070804A JP 2017070804 A JP2017070804 A JP 2017070804A JP 2018173763 A JP2018173763 A JP 2018173763A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- behavior
- positive
- action
- message
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 15
- 230000008451 emotion Effects 0.000 claims abstract description 116
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 230000009471 action Effects 0.000 claims description 92
- 230000006399 behavior Effects 0.000 description 62
- 238000012545 processing Methods 0.000 description 19
- 230000008921 facial expression Effects 0.000 description 17
- 238000011156 evaluation Methods 0.000 description 13
- 230000008092 positive effect Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 238000004140 cleaning Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 235000012054 meals Nutrition 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010411 cooking Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000013016 learning Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000036642 wellbeing Effects 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 241000283080 Proboscidea <mammal> Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000003467 cheek Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000002650 habitual effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000031868 operant conditioning Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Abstract
Description
また、本発明は、行動空間に設けられたセンサからの検出結果に基づいて対象者の行動を検出する行動検出部と、前記行動検出部で検出された結果に基づいて対象者の感情がポジティブであるかネガティブであるかを判定する感情判定部と、前記感情の判定結果に応じてポジティブな感情を肯定するためのメッセージを出力する出力部と、を有する。
図1は、この発明の一実施形態による行動支援システムの構成を示す概略ブロック図である。行動支援システム1は、宅内サブシステム10、行動支援装置20、報知端末30がネットワーク40を介して接続される。
カメラ100やマイク105は、有線LAN(ローカルエリアネットワーク)または無線LAN等を介して行動支援装置140に接続される。これらカメラ100、マイク105は、リビング、玄関、寝室、台所、浴室、トイレ、階段等の行動空間(ここで、居住空間)の各部位に配置される。1つのカメラ100の撮像可能領域が1つの評価対象領域全てを撮像できない場合には、複数のカメラ100によって1つの評価対象領域を撮像するようにしてもよい。
温度・湿度センサ120、照度センサ130は、カメラ100と一体となった1つの装置として構成するようにしてもよいし、より体感に近い場所、例えば、床面から1m程度の高さの壁面に取り付けるようにしてもよい。
また、報知端末150は、カメラ100の撮像対象となる評価対象領域に配置することで、その評価対象領域においてメッセージを出力して注意を喚起することもできる。例えば、良好な位置としては、天井面であれば階段灯の付近であり、壁面であれば、踊り場のある壁の天井近くの位置があげられる。報知端末150は、有線または無線によって接続される。報知端末150は、可搬型の端末装置(携帯電話等)であってもよく、タブレットやスマートフォンで、その機能を代用してもよい。また、報知端末150として携帯電話、タブレット、スマートフォン等のいずれかの機器を用いる場合、その機器に搭載されたカメラをカメラ100として用いるようにしてもよい。
必要に応じ、外部から宅内サブシステムにアクセスして画像を収集し、セキュリティを確保したうえで提供してもよい。
センサインタフェース143は、圧力センサ110、温度・湿度センサ120、照度センサ130から得られる検出結果を受信する。
高域通信モジュール144は、ネットワーク40を介して行動支援サーバ20と各種情報の送受信を行なう。宅内通信モジュール145は、報知端末150と通信を行なう。
画像処理部1451は、カメラ100によって撮像された結果に基づいて対象者の行動を検出する。例えば、画像処理部は、例えば、各カメラ100によって得られる画像に対象者が含まれているか否かを検出する。対象者が含まれているか否かについては、予め対象者の顔画像を登録しておき、この顔画像とカメラ100によって得られた画像とのマッチングを行ない、所定以上のマッチングの度合があった場合には、対象者であると判定する。また、画像処理部1451は、カメラ100によって得られた画像に対象者が含まれていると検出された場合には、カメラ100によって撮像された対象者の顔画像領域を抽出し、この顔画像領域に含まれる画像に基づいて、ポジティブ指数を算出する。
また、この行動の継続時間の検出は、マイク105の検出結果に基づいて、制御部1456が検出するようにしてもよい。
感情判定部1452は、撮像結果または音声に基づいて、感情の判定を行なうとともに、当該ポジティブまたはネガティブの度合を判定する。
また、この表情判定技術は、例えば、「唇の両端は後ろに引かれ、多少上がっている」、「頬は持ち上げられている」という特徴量を含む画像が、顔画像領域から検出されると「幸福」であると判定される。また、「笑いの表情」は、明らかに「幸福」として分類するとしても、幸福の表情の判定には、瞼や顔の下部に特徴のある表情が現れる一方で、眉と額は、幸福の表情に必ずしも関与しないとされている。しかしながら、これらの部位の変化も同時に検出される。その結果、驚きの特徴と幸福の特徴が同時に検出されるケースは多い。実際に幸福の表情の表出は、「幸福と驚きの混合」、「幸福と軽蔑の混合」、「幸福と怒りの混合」、「幸福と恐怖の混合」のパターンに分類することもできるとされている。
ここで、「ポジティブ指数」は、「ポジティブ」と「それ以外」を表す2値によって表すようにしてもよいが、多段階によって表すようにしてみよい。つまり、ポジティブな感情を表す特徴検出ができれば「ポジティブ」とし、ポジティブな感情を表す特徴検出ができなかった場合には「それ以外」とすることもできるし、スコアリングすることもできる。「ポジティブ指数」は、例えば、ポジティブな感情を表す特徴量に応じて点数を付与し、さらに、ポジティブな感情が継続した継続時間を測定し、この点数と時間とに基づいて決めることができる。例えば、このような決め方は、特許文献1に記載された方法を用いることができる。
なお、ここで関連づける音声パラメータは、会話の調子(トーンおよび/またはテンポ)を特徴パラメータとして用いるようにしてもよいし、音声スペクトラムの分析を行なって得られた分析結果を用いるようにしてもよい。例えば、このような技術は特許文献3に記載されている。
出力部1454は、感情の判定結果と行動の継続時間とに応じたメッセージを出力する。また、出力部1454は、感情の判定結果とポジティブの度合の判定結果に応じたメッセージを出力するようにしてもよい。
この出力部1454としては、表示パネルやスピーカの他に、メッセージを出力することができるものであれば、種々の装置を利用することができ、例えばロボットを適用することもできる。このロボットとしては、例えばタスク対応型ロボットを複数設け、これらの少なくとも1つからメッセージを出力させるようにしてもよい。また、出力部1454としては、例えば、家電機器、設備機器、AV機器のいずれかの機器に所定の動作させることで、メッセージを出力するようにしてもよい。
制御部1456は、情報処理モジュール145内の各部を制御する。
記憶部1457は、感情判定部1452による判定結果がポジティブである場合に、ポジティブと判定された表情や音声が検出された行動と各センサによって測定された測定結果とを記憶する。
行動情報データは、カメラ100や各種センサによって得られたセンサデータ、情報処理モジュール145において用いられた各種情報が含まれる時系列の情報である。
日時は、各種センサから検出結果が得られた日付と時刻を表す情報である。
場所は、センサが設置された場所を表す情報であり、行動の判定が行なわれた画像を撮像したカメラ100の撮像対象領域に対応している。すなわち、各センサがどの場所に設置されたかを特定可能な情報である。
対象者は、カメラ100によって得られた画像またはマイク105によって得られた音声データを基に特定された人物(利用者)を表す情報である。
行動は、カメラ100によって撮像され、画像処理部1451によって検出された、対象者の行動の種別を表す情報であり、撮像されたカメラ100と、そのカメラが設置された場所(評価対象領域識別情報)との組み合わせから決まる情報である。例えば、カメラ100が階段の天井に設置された場合には、行動として「移動」や、階段の昇降を表す行動として「上る」または「下る」がある。「上る」または「下る」のどちらの行動であるかについては、例えば、撮像された画像から、移動方向を特定し、予め決められた第1の方向(画像の変化領域が撮像領域の下側から上側に向かう場合)であれば、「階段を上る」行動であるとして特定され、予め決められた第2の方向(画像の変化領域が撮像領域の上側から下側に向かう場合)であれば、「階段を下る」行動であるとして特定される。この行動の特定は、画像処理部1451によって行なわれ、その検出結果が記憶される。
センサは、行動が検出された際において、その行動が行なわれた領域に設置されたセンサから得られたセンサデータであり、例えば、温度データや湿度データ、圧力データ等が用いられる。
図4は、宅内サブシステム10の動作を説明するフローチャートである。
まず、画像処理部1451は、各カメラ100から得られる画像から対象者の顔画像が含まれるか否かまたは、マイク105から得られる音声から対象者の音声が含まれるか否かに基づいて、対象者を検出したか否かを判定する(ステップS101−NO)。対象者を検出していな場合、画像処理部1451は、一定時間のウエイトの後、再度ステップS101の処理を実行する。一方、対象者の顔画像を検出した場合、または対象者の音声を検出した場合には(ステップS101−YES)、カメラ100から得られる画像から所定の動作が検出されたか否かを判定する(ステップS102)。ここで、マイク105によって得られる集音領域とカメラ100によって撮像可能な領域はなるべく同じとなるように設置条件等が調整されている。そのため、マイク105によって対象者の音声が検出されたが、カメラ100によって対象者の顔画像が検出されなかった場合には、カメラ100によって対象者は撮影されているが、対象者の向きがカメラ100に対して真横あるいは後ろ向きとなっている可能性があるため、音声のみを元に対象者がいることを検出するようにしてもよい。
例えば、出力タイミング決定部1453は、ポジティブな表情が検出された行動が終了した時点でメッセージを出力するようにしたタイミングとして決定してもよいし、ポジティブな表情が検出された行動が継続中であってもポジティブな表情が検出された段階でメッセージを出力するようにしたタイミングとして決定してもよいし、ポジティブな表情とポジティブな音声が検出された時点でメッセージを出力するようにすることもできる。例えば、ポジティブな表情、ポジティブな音声、メッセージを出力するタイミングを対応付けた出力タイミングルール情報を予め記憶しておくようにし、この出力タイミングルール情報に応じて出力タイミングを決定するようにしてもよい。
1.ポジティブな感情(主観的な快の感情とされている)
2.エンゲージメント(主観的に物事に熱中しているような状態ともいえる)
3.意味・意義(主観的に自分にとって意味があり、有意義であるという状態や感情とも表せる)
4.ポジティブな関係性(他者との関係の中で得られる、ポジティブな感情)
5.達成感(何かを達成したという思いや感覚とも表せる)
そして、これらの評価は、質問紙に対して回答する主観的評価によって行われるものではあるが、心理学の学問的には手法について厳密ではなくても、その主要な意味を理解して応用することは可能と考えられる。そこで、本実施形態では、上記の評価尺度のうち、「1.ポジティブな感情」の一部を「顔画像と音声」から判断し、「2.エンゲージメント」について、行動の継続時間と、その行動中の「顔画像と音声」から判断するという方法をとり、この2点について行動支援装置20を利用することで、一部自動評価適用可能な事項を評価している。
なお、「3.意味、意義」の確認を行う為には、ロボットとのコミュニケーションで、言語化して行うようにしてもよい。
《食事の準備》
台所に設置されたカメラ100によって撮像された画像から、画像処理部1451は、調理場周辺において対象者の顔画像が検出され、包丁、まな板、ボウル等の道具を利用した所定の動作が検出されたか否かを判定する。包丁、まな板、ボウル等の道具については予め画像を登録しておくことで、カメラ100によってこれらの道具が検出され、かつ、対象者が一定時間以上触れていると判定された場合に、所定の動作として「食事の準備」をしていると判定する。この際、対象者の顔画像から笑顔であることが判定された場合には、ポジティブな感情であると判定し、例えば「食事の準備、がんばっていますね」等のメッセージを台所に設置された表示パネルやスピーカから画像や音声によって出力する。メッセージの出力は、食事の準備をしている途中に行なうことで、ポジティブな感情を維持し引き続き食事の準備を行なうようにさせることもできる。継続時間としては、例えば、対象者が台所に設置されたカメラ100によって撮像され包丁、まな板、ボウル等の道具を利用し始めた時点から、それらの道具をいずれも利用しなくなった時点まで、あるいは、台所から別の場所に移動した時点まで(その後、所定時間経過しても台所に戻って来なかった場合に確定)を計測することができる。
リビング、和室、洋室等のいずれかの場所に設置されたカメラ100によって撮像された画像から、画像処理部1451は、対象者の顔画像が検出され、掃除機、ぞうきん等の道具を利用した所定の動作が検出されたか否かを判定する。掃除機、ぞうきん等の道具については予め画像を登録しておくことで、カメラ100によってこれらの道具が検出され、かつ、対象者が一定時間以上触れていると判定された場合に、所定の動作として「掃除」をしていると判定する。また、掃除機を稼動させている間に発生する掃除機からの音をマイク105によって検出するようにしてもよい。この際、対象者の顔画像から笑顔であることが判定された場合には、ポジティブな感情であると判定し、例えば「部屋がきれいになっていますよ」等のメッセージをその部屋に設置された表示パネルやスピーカから画像や音声によって出力する。
メッセージの出力は、掃除をしている途中に行なうことで、ポジティブな感情を維持し引き続き掃除を行なうようにさせることもできる。
なお、継続時間としては、掃除機、ぞうきんなどの道具の利用を開始してから利用を終了するまでの時間を計測するようにしてもよい。また、掃除機であれば、掃除機を稼動させている際に発生する掃除機からの音をマイク105によって集音されていた時間を測定することで継続時間としてもよい。
玄関に設置されたカメラ100によって撮像された画像から、画像処理部1451は、対象者の顔画像が検出され、靴を利用した所定の動作が検出されたか否かを判定する。靴については予め画像を登録しておくことで、カメラ100によって検出された場合であって、対象者が靴を履く動作をしたと判定された場合には所定の動作として「外出」、対象者が靴を脱ぐ動作をしたと判定された場合には所定の動作として「帰宅」であると判定する。この際、対象者の顔画像から笑顔であることが判定された場合には、ポジティブな感情であると判定する。そして、「外出」が検出されていた場合には、「いってらっしゃいませ、今日は天気がよく気持ちいいですよ。」等のメッセージ、「帰宅」が検出されていた場合には、外出した時点から帰宅までの時間を継続時間として測定しておき、「お帰りなさいませ。外でゆっくり過ごすことができましたね。」等と時間を考慮したメッセージを玄関に設けられた表示パネルやスピーカから画像や音声によって出力することもできる。このようなメッセージの出力は、玄関において靴を脱ぐ、あるいは履く動作をしている途中に行なうことで、外出するあるいは外出した動作に対するメッセージであることをより印象深く伝えることができ、ポジティブな感情を維持し今度も外出しようという気分にさせることができる。
例えば、「外出・帰宅」においては、玄関までのアプローチに対応する床、つまり廊下や階段の床に設置された圧力センサ110から、対象者の左足と右足に相当する検出領域の検出結果を得て、それぞれの検出結果を比較し、右足と左足の圧力のずれの量が所定の基準値よりも少ない場合は、歩行時の膝などの関節の痛みが少ないと推定することができる(関節の痛みがある場合には、いずれか一方の足の方が他方に比べてある程度高い圧力が検出される)。また、右足と左足に相当する検出領域の距離から、歩幅が所定の基準値よりも広い場合には、より軽快に行動ができているものと推定することができる。これらの観測結果(推定結果)も、ポジティブな感情が生じている要因の可能性として評価し、顔画像からの判断に加えて、各種センサからの出力も加味したメッセージを出力してもよい。
出力されるメッセージとしては、例えば、「今日は、体のバランスがいいですよ。お天気もいいですし、気持ちいいですね。」、また、「足取りが軽そうですね。気持ちよく外出ができそうですね」等のメッセージを出力することができる。これらのメッセージの作成のためには、天気予報サーバから得られる天気情報の参照も有効であり、降水確率が高い場合であって、まだ雨が降っていない場合には「傘を持っていったほうがいいです」とか「3時ごろから雨が降りそうです。帰りが遅くなるようでしたら、傘を持っていって下さいね」というメッセージも、ポジティブな感情が検出されたか否かとは関係なく出力することも有効である。このように、センサから行動の差異情報(右足と左足の圧力差異、歩幅の基準値からの差異の度合)を検出することを起点としてメッセージを流すこともできる。この場合、玄関先までコミュニケーションロボットが移動してからメッセージを出力することで対象者と会話をするようにしてもよい。
例えば、ロボットが「今日は、足取りがかるいですよ、ひざの具合がいいのですか?」とのメッセージを出力し、これに対応して対象者が「そうかもしれないね。」と発話すると、これをマイク105で検出したロボットが、「調子がいいですよ。気持ちよく外出ができそうですね」というメッセージを出力することで、会話を実現することができ、センサの差異情報対応づけてポジティブな要素があったこと(ポジティブな感情であると判定された結果)と対応付けて記憶していくこともできる。
例えば、感情判定部1452は、一定時間内にため息の回数が所定回数に到達したと判定した場合、「一休みしてみてはどうでしょうか」、「気分転換をしてみてはどうでしょうか」等のメッセージを出力するようにしてもよい。
例えば、家電機器としてDVD(digital versatile disk)プレーヤを用いる場合、感情連携モードを付加して、次のような動作を行ってもいい。例えば、ポジティブな感情を検出した際、出力されるメッセージをより印象的にする為に、DVDによって再生する音楽の種類に応じて、ジャズやロック、ポップスでは、音量を上げることでダイナミックな強調をすることもできる。また、音楽の種類がバラードや環境音楽である場合には、照明装置との連携を実施し、音楽の再生とともに音楽の種類に応じて照明の演色性を変えて照明装置による照明を行うようにしてもよい。
また、出力部1454として調理機器を用いる場合には、対象者の行動として調理を楽しんでいる状態を検出した場合、表示器の色が度合いに応じて変化するようにしてもよい。
10 宅内サブシステム
20 行動支援装置
30、150 報知端末
40 ネットワーク
100 カメラ
110 圧力センサ
120 温度・湿度センサ
130 照度センサ
140 行動支援装置
1451 画像処理部
1452 感情判定部
1453 出力タイミング決定部
Claims (8)
- 行動空間における対象者を撮像する撮像部と、
前記撮像された結果に基づいて対象者の行動を検出する行動検出部と、
前記検出された行動に基づく感情がポジティブであるかネガティブであるかを判定する感情判定部と、
前記感情の判定結果に応じてポジティブな感情を肯定するためのメッセージを出力する出力部と、
を有する行動支援システム。 - 行動検出部は、前記行動空間に設けられたセンサからの検出結果に基づいて対象者の行動を検出し、
前記感情判定部は、前記行動検出部で検出された結果に基づいて対象者の感情がポジティブであるかネガティブであるかを判定する
請求項1記載の行動支援システム。 - 行動空間に設けられたセンサからの検出結果に基づいて対象者の行動を検出する行動検出部と、
前記行動検出部で検出された結果に基づいて対象者の感情がポジティブであるかネガティブであるかを判定する感情判定部と、
前記感情の判定結果に応じてポジティブな感情を肯定するためのメッセージを出力する出力部と、
を有する行動支援システム。 - 前記行動空間における対象者の音声を検出する検出部を有し、
前記感情判定部は、前記撮像結果と前記音声とに基づいて前記感情の判定を行なう
請求項1から請求項3のうちいずれか1項に記載の行動支援システム。 - 前記出力部は、検出された行動が行なわれてから所定の時間内において前記メッセージを出力する
請求項1から請求項4のうちいずれか1項に記載の行動支援システム。 - 前記行動検出部は、前記行動の継続時間を検出し、
前記出力部は、前記感情の判定結果と前記行動の継続時間とに応じたメッセージを出力する
請求項1から請求項5のうちいずれか1項に記載の行動支援システム。 - 前記感情判定部の判定結果に基づいて、メッセージを出力するタイミングを決定する出力タイミング決定部を有し、
前記出力部は、前記決定されたタイミングでメッセージを出力する
請求項1から請求項6のうちいずれか1項に記載の行動支援システム。 - 撮像部が、行動空間における対象者を撮像し、
行動検出部が、前記撮像された結果に基づいて対象者の行動を検出し、
感情判定部が、前記検出された行動に基づく感情がポジティブであるかネガティブであるかを判定し、
出力部と、前記感情の判定結果に応じたメッセージを出力する
行動支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017070804A JP2018173763A (ja) | 2017-03-31 | 2017-03-31 | 行動支援システム、行動支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017070804A JP2018173763A (ja) | 2017-03-31 | 2017-03-31 | 行動支援システム、行動支援方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018173763A true JP2018173763A (ja) | 2018-11-08 |
Family
ID=64107453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017070804A Pending JP2018173763A (ja) | 2017-03-31 | 2017-03-31 | 行動支援システム、行動支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018173763A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019087851A1 (ja) * | 2017-11-01 | 2019-05-09 | パナソニックIpマネジメント株式会社 | 行動誘引システム、行動誘引方法及びプログラム |
WO2020246075A1 (ja) * | 2019-06-04 | 2020-12-10 | ソニー株式会社 | 行動制御装置と行動制御方法およびプログラム |
WO2023047681A1 (ja) * | 2021-09-22 | 2023-03-30 | 株式会社Jvcケンウッド | コミュニケーション制御プログラム及びコミュニケーション制御方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001083984A (ja) * | 1999-09-09 | 2001-03-30 | Alpine Electronics Inc | インタフェース装置 |
JP2009037410A (ja) * | 2007-08-01 | 2009-02-19 | Nippon Hoso Kyokai <Nhk> | 感情表現抽出処理装置及びプログラム |
JP2009170991A (ja) * | 2008-01-11 | 2009-07-30 | Nec Corp | 情報送信方法及び装置 |
JP2010287064A (ja) * | 2009-06-11 | 2010-12-24 | Pfu Ltd | キオスク端末装置 |
JP2016036500A (ja) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
JP2016147006A (ja) * | 2015-02-13 | 2016-08-18 | オムロン株式会社 | 健康管理補助装置及び健康管理補助方法 |
JP2016209233A (ja) * | 2015-05-07 | 2016-12-15 | セイコーエプソン株式会社 | 生体情報処理システム、サーバーシステム、生体情報処理装置及び生体情報処理方法 |
JPWO2015093330A1 (ja) * | 2013-12-17 | 2017-03-16 | シャープ株式会社 | 認識データ伝送装置、認識データ記録装置及び認識データ記録方法 |
JP2018094242A (ja) * | 2016-12-15 | 2018-06-21 | 積水化学工業株式会社 | 健康支援システム |
-
2017
- 2017-03-31 JP JP2017070804A patent/JP2018173763A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001083984A (ja) * | 1999-09-09 | 2001-03-30 | Alpine Electronics Inc | インタフェース装置 |
JP2009037410A (ja) * | 2007-08-01 | 2009-02-19 | Nippon Hoso Kyokai <Nhk> | 感情表現抽出処理装置及びプログラム |
JP2009170991A (ja) * | 2008-01-11 | 2009-07-30 | Nec Corp | 情報送信方法及び装置 |
JP2010287064A (ja) * | 2009-06-11 | 2010-12-24 | Pfu Ltd | キオスク端末装置 |
JPWO2015093330A1 (ja) * | 2013-12-17 | 2017-03-16 | シャープ株式会社 | 認識データ伝送装置、認識データ記録装置及び認識データ記録方法 |
JP2016036500A (ja) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
JP2016147006A (ja) * | 2015-02-13 | 2016-08-18 | オムロン株式会社 | 健康管理補助装置及び健康管理補助方法 |
JP2016209233A (ja) * | 2015-05-07 | 2016-12-15 | セイコーエプソン株式会社 | 生体情報処理システム、サーバーシステム、生体情報処理装置及び生体情報処理方法 |
JP2018094242A (ja) * | 2016-12-15 | 2018-06-21 | 積水化学工業株式会社 | 健康支援システム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019087851A1 (ja) * | 2017-11-01 | 2019-05-09 | パナソニックIpマネジメント株式会社 | 行動誘引システム、行動誘引方法及びプログラム |
JPWO2019087851A1 (ja) * | 2017-11-01 | 2020-11-19 | パナソニックIpマネジメント株式会社 | 行動誘引システム、行動誘引方法及びプログラム |
WO2020246075A1 (ja) * | 2019-06-04 | 2020-12-10 | ソニー株式会社 | 行動制御装置と行動制御方法およびプログラム |
WO2023047681A1 (ja) * | 2021-09-22 | 2023-03-30 | 株式会社Jvcケンウッド | コミュニケーション制御プログラム及びコミュニケーション制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106062869B (zh) | 交互型家电系统、家电设备及其交互的方法、服务器装置 | |
JP4682217B2 (ja) | 行動制御装置、方法、プログラム | |
JP5586436B2 (ja) | 生活スタイル収集装置、ユーザインターフェース装置及び生活スタイル収集方法 | |
JP2018094242A (ja) | 健康支援システム | |
KR102152717B1 (ko) | 휴먼 행동 인식 장치 및 방법 | |
JP2018173763A (ja) | 行動支援システム、行動支援方法 | |
JP6725411B2 (ja) | 行動評価装置、行動評価方法 | |
JP2009087074A (ja) | 機器制御システム | |
JP6559079B2 (ja) | 対話型家電システム、および発話者との対話に基づいてメッセージを出力するためにコンピュータが実行する方法 | |
JP2017144521A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR20230016233A (ko) | 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법 | |
CN110587621B (zh) | 机器人、基于机器人的病人看护方法和可读存储介质 | |
JP7367530B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6864831B2 (ja) | ロボット装置及びプログラム | |
WO2019215983A1 (ja) | 情報処理システム、情報処理方法、および記録媒体 | |
KR102241705B1 (ko) | 멀티모달 행위 검출 장치 및 방법 | |
JP2021033676A (ja) | 情報処理装置及びプログラム | |
JP2007150511A (ja) | インターホン装置 | |
US11942216B2 (en) | Method for controlling robot, robot, and non-transitory computer-readable recording medium storing program | |
JP7142403B1 (ja) | 会話処理プログラム、会話処理システムおよび会話型ロボット | |
JP2021197072A (ja) | 制御プログラム、演算装置、制御システム、および制御方法 | |
CN111602203A (zh) | 信息处理器、信息处理方法以及记录介质 | |
JP2021189761A (ja) | 算出装置、算出システム、プログラムおよび算出方法 | |
JP2019207286A (ja) | 行動誘引支援システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200825 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200911 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210309 |