JP7263957B2 - 情報装置、自動設定方法及び自動設定プログラム - Google Patents

情報装置、自動設定方法及び自動設定プログラム Download PDF

Info

Publication number
JP7263957B2
JP7263957B2 JP2019133242A JP2019133242A JP7263957B2 JP 7263957 B2 JP7263957 B2 JP 7263957B2 JP 2019133242 A JP2019133242 A JP 2019133242A JP 2019133242 A JP2019133242 A JP 2019133242A JP 7263957 B2 JP7263957 B2 JP 7263957B2
Authority
JP
Japan
Prior art keywords
information
emotion
unit
detected
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019133242A
Other languages
English (en)
Other versions
JP2021018551A (ja
Inventor
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019133242A priority Critical patent/JP7263957B2/ja
Publication of JP2021018551A publication Critical patent/JP2021018551A/ja
Application granted granted Critical
Publication of JP7263957B2 publication Critical patent/JP7263957B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報装置、自動設定方法及び自動設定プログラムに関する。
人間の多様な感情を検出し、この感情に応じて、コンピュータ側から情報を出力する対話装置や、人間の音声を分析してその人間の感情を表示する感情分析装置が開示されている(特許文献1、2参照)。また、近年は、人間の感情を認識して、会話の内容を変えるロボットなどが提案されている。
特開平08-339446号公報 特開2004-317822号公報
従来、コンピュータ等の情報装置の設定の変更は、ユーザ自身が行っていた。しかし、情報装置の設定の変更には、ある程度の知識が必要とされるため、情報装置の設定にあまり詳しくないユーザは、自身が望む設定にうまく調整できない。また、より好ましい設定があったとしても、ユーザがそれに気付かず又は変更操作を面倒だと考えて、最初にユーザ自身が行った設定のまま使用し続けることがある。また、情報装置の使用環境とその時のユーザの気分や感情等によっても、ユーザにとって最適な設定は異なる。しかし、情報装置の設定が、情報装置の個々の使用環境におけるユーザの感情ごとに自動的に変化することはなかった。そのため、情報装置の設定が、ユーザ自身の操作によらず、使用環境とユーザの感情に応じて、ユーザが望む設定に自動的に調整される技術が望まれている。
本発明は、上記に鑑みてなされたものであり、使用環境とユーザの感情に応じて設定を自動的に調整する情報装置、自動設定方法及び自動設定プログラムを提供することを目的とする。
本発明に係る情報装置は、動作調整値に基づいて動作を行う動作部と、周囲の環境情報を検出する環境認識部と、ユーザの感情情報を検出する感情認識部と、前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報とに基づいて、前記動作調整値を設定する設定調整部と、を備える。
本発明に係る自動設定方法は、動作調整値に基づいて動作部の動作を行うことと、周囲の環境情報を検出することと、ユーザの感情情報を検出することと、検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定することとを含む。
本発明に係る自動設定プログラムは、動作調整値に基づいて動作部の動作を行う処理と、周囲の環境情報を検出する処理と、ユーザの感情情報を検出する処理と、検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定する処理とをコンピュータに実行させる。
本発明によれば、使用環境とユーザの感情に応じて情報装置の設定を自動的に調整することができる。
図1は、本発明の第1実施形態に係る情報装置の一例を示す模式図である。 図2は、上記情報装置の制御部の一例を示す機能ブロック図である。 図3は、上記情報装置の感情認識部の一例を示す機能ブロック図である。 図4は、上記情報装置の表示部に顔画像が表示される場合の一例を示す図である。 図5は、上記情報装置の表示部に顔画像が表示される場合の他の例を示す図である。 図6は、上記情報装置の記憶部に記憶される感情情報のデータと設定に関するデータとが関連付けられたデータテーブルの一例を示す図である。 図7は、上記情報装置自体又は各種アプリの起動時の動作の一例を示すフローチャートである。 図8は、上記情報装置自体又は各種アプリの起動後の動作の一例を示すフローチャートである。 図9は、本発明の第2実施形態に係る情報装置の一例を示す機能ブロック図である。 図10は、上記第2実施形態に係る情報装置の感情認識部の一例を示す機能ブロック図である。
以下、本発明の実施形態を図面に基づいて説明する。なお、下記実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
[第1実施形態]
図1は、本発明の第1実施形態に係る情報装置の一例を示す模式図である。図1に示す情報装置100は、筐体10と、表示部20と、音声入力部30と、音声出力部40と、タッチパネル入力部50と、通信部60(通信部のうちの接続線)と、制御部70と、画像入力部90とを備える。情報装置100としては、例えばスマートフォン、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータ、ナビゲーション装置、電子書籍リーダ、腕時計型ウェアラブルデバイス、音響・映像機器、家庭用ゲーム機、携帯型ゲーム機、コミュニケーション用ロボット等、各種の通信可能な電子機器が挙げられる。
筐体10は、表示部20、音声入力部30、音声出力部40、タッチパネル入力部50、通信部60、制御部70及び画像入力部90の各部を保持する。表示部20は、画像、映像等の情報を表示可能であり、例えば液晶ディスプレイ、有機ELディスプレイ等の表示パネルにより構成される。音声入力部30は、例えばマイク等により構成される。音声出力部40は、例えばスピーカ等により構成される。タッチパネル入力部50は、表示部20上に配置され、ユーザが表示部20に表示された情報に対する入力や選択等の操作を行う場合に使用する。例えば、視聴可能な映画の候補が複数ある場合に、情報装置100が映画の候補を表示部20に表示し、ユーザが表示部20上のタッチパネル入力部50をタッチすることにより所望の映画を選択することも可能である。通信部60は、ネットワークNWとの間で情報の送信及び受信を行う。ネットワークNWとしては、インターネット、イントラネット等の各種のネットワーク等が挙げられる。画像入力部90は、例えばカメラ等により構成される。画像入力部90は、ビデオカメラとしても使用可能である。ここで、音声入力部30、音声出力部40及び画像入力部90は、上記の通り筐体10に保持されてもよいし、筐体10とは別個に設けられてもよい。例えば、音声入力部30、音声出力部40及び画像入力部90は、情報装置100と連携したワイヤレスのマイク、スピーカ又はヘッドホン、及びカメラ等でもよい。
図2は、情報装置100の制御部70の一例を示す機能ブロック図である。制御部70は、CPU、ROM、RAM等を用いて構成され、情報装置100の全体の制御を行う。
制御部70は、演算処理部71と、表示制御部72と、音声認識部73と、音声合成部74と、感情認識部75と、感情制御部76と、タイミング発生部78と、タイマ79と、モード切替制御部80と、顔画像発生部82と、記憶部83と、画像認識部91とを有する。
演算処理部71は、各種の演算を行う。演算処理部71は、後述するように、感情認識部75の検出結果に応じた情報装置100の動作調整値(設定値)を記憶部83から取得して設定する設定調整部としての機能を有する。表示制御部72は、表示部20の表示動作を制御する。音声認識部73は、音声入力部30から入力された音声データを認識し、所定の言葉を判別する。音声認識部73は、例えば音声認識ソフトウェア、音声認識用辞書データ等を有する。音声合成部74は、音声合成ソフトウェア、音声データ等を有する。音声合成部74は、例えば人間が話す声を合成可能である。
感情認識部75は、音声入力部30から入力された音声により、感情情報を検出する。図3は、感情認識部75の一例を示す機能ブロック図である。図3に示すように、感情認識部75は、韻律的特徴量検出部75aと、感情分析部75bとを有する。韻律的特徴量検出部75aは、音声入力部30に入力される音声信号から韻律的特徴量を検出する。感情分析部75bは、検出された韻律的特徴量に基づいて、喜怒哀楽、驚き等の度合いを数値で出力する。本実施形態において、感情分析部75bは、喜び、悲しみ、及び怒りの3種類を検出するものとする。つまり、感情認識部75において検出される感情情報は、例えば、感情の種類(喜び、悲しみ、怒り)と、感情の種類ごとの感情の度合いの値と、を含む。感情の具体的な検出方法については、公知の技術を適宜用いることができる。
感情制御部76は、感情認識部75の検出結果に基づいて、所定の感情状態を形成する。例えば、感情制御部76は、会話モード時に、音声合成部74が合成する音声の抑揚や内容、顔画像発生部82が表示部20に表示させる顔画像の表情等を設定する。
タイミング発生部78は、例えばタイマ79を用いて時間を計測する。タイミング発生部78は、情報装置100の各種アプリケーション(以下、アプリ)の処理や画面の切り替わりのタイミング及び/又は再生中のコンテンツの切れ目のタイミング等を検出する。
モード切替制御部80は、ユーザとの間で情報のやり取りを行うための情報を表示部20及び音声出力部40の少なくとも一方に出力する第1モードと、ネットワークからの情報を表示部20及び音声出力部40の少なくとも一方に出力する第2モードとを切り替えて行う。第1モードは、例えばユーザが情報装置100に対して話しかけを行い、情報装置100がユーザの話しかけに対して返答する会話モードを含む。第2モードは、ネットワークNWを介して取得される情報を表示する情報表示モードを含む。顔画像発生部82は、会話モード時に表示部20に顔画像を表示させる。
図4及び図5は、会話モード時に情報装置100の表示部20に顔画像が表示される場合の例を示す図である。図4に示すように、表示部20に目と口のみが表示されてもよい。この場合、目と口を強調することができる。また、図5に示すように、表示部20に顔の輪郭を含めた状態で表示されてもよい。この場合、会話モードが実際の会話の状態に近い感覚となり、感情移入しやすい。なお、顔画像の表示態様は、上記の2種類に限定されず、他の態様であってもよい。会話モードでは、このような顔画像の表示態様を切り替えることにより、使いやすく、楽しい情報装置100を実現できる。
記憶部83は、各種の情報を記憶する。図6は、記憶部83に記憶される感情情報のデータと設定に関するデータとが関連付けられたデータテーブル86の一例を示す図である。図6に示すように、本実施形態では、データテーブル86は、例えば映画、スポーツ、会話など、各種アプリや表示されるコンテンツの内容などにより、個別の配列(例えば、レコード及びフィールド)を持っている。感情情報のデータ及び設定に関するデータは、情報装置100の起動時に、制御部70のRAMに読み出され、動作中に変更され、プログラム終了時にストレージに書き戻される。それぞれのRAM上のデータの配置は任意であるが、配列として管理される。
本実施形態では、情報表示モード時において、映画を再生する時に使用されるデータを例に説明する。記憶部83は、映画を再生する時の調整項目として、表示部20の輝度、表示部20のコントラスト、音声出力部40の音声レベル、音声出力部40の音声トーン及び感情表現に関するデータを記憶する。
本実施形態では、周囲の環境状態を測定・検出し、その時のユーザの感情を認識する。その環境におけるユーザの感情が向上する(例えば、楽しい気持ちが高くなる)設定を検索しながらより良い設定に変更し、その設定値と設定履歴を記憶する。ユーザの感情の高揚を大きく喜怒哀楽に分類し、各種アプリや表示されるコンテンツの種類によって、高揚させる感情の種類を変えても良い。例えば、情報装置100は、表示部20に映画を表示する場合、楽しい映画であればユーザの楽しい気持ちが大きくなるような設定とし、悲しい映画であればユーザの悲しい気持ちが大きくなる設定とする。このように、視聴する映画の種類や内容等によってもユーザの感情は変化するため、記憶部83は、データテーブル86において、ユーザが視聴する映画ごとに感情情報のデータと設定に関するデータとを記憶する。
輝度の場合、周囲の明るさをレベル1~5の5段階に分けている。周囲の明るさは、画像入力部90の入力のレベルを読み取ることで得られる。また、映像信号のAGC(自動利得制御)が動作している場合には、その制御信号のレベルが周囲の明るさを示すことになる。そして、レベルごとに感情状態(検出感情)のパラメータを有する。図6では、レベル1~5の各々において、感情状態のパラメータとしてa~eの5つの値を示している。本実施形態では、感情状態のパラメータは、「楽しい」、「悲しい」又は「怒り」の度合いを示しており、ユーザの気分が良いか良くないかを示している。また、感情状態のパラメータごとに設定値が割り当てられている。図6では、感情状態のパラメータa~eに対して、設定値としてA~Eの5つの値が割り当てられている。また、過去に感情が向上した時の輝度の設定値が、設定履歴1として記憶されている。初期状態では設定履歴1として記憶されている値が設定値として選択される。設定履歴2については後段で説明する。
コントラストの場合、輝度の場合と同様、周囲の明るさをレベル1~5の5段階に分けている。他の構成については、輝度の場合と一緒である。音声レベル及び音声トーンの場合、周囲の騒音をレベル1~5の5段階に分けている。他の構成については、輝度の場合と一緒である。感情表現の場合、環境パラメータに依存せず、感情認識部75において検出された感情情報に対応する設定値を保存している。
画像認識部91は、画像入力部90から入力された画像データを認識し、画像や動画から特徴をつかみ、対象物を識別する。画像認識部91は、例えば画像認識ソフトウェア、画像認識用辞書データ等を有する。
次に、上記のように構成された情報装置100の動作について説明する。図7は、情報装置100自体又は各種アプリの起動時の動作の一例を示すフローチャートである。本実施形態では、映画の再生用のアプリの起動時の動作を例に説明する。図7に示すように、演算処理部71は、ユーザが表示部20に表示された映画の再生用のアプリを選択した時に当該アプリを起動する(ステップS101)。
次に、音声認識部73及び画像認識部91は、音声入力部30及び画像入力部90を用いて周囲の環境情報を検出する(ステップS102)。例えば、画像認識部91は、画像入力部90を用いて周囲の明るさを測定する。画像認識部91は、画像認識により画像の中央にユーザを認識した場合には、ユーザを除いた周囲の明るさを測定する。また、音声認識部73は、音声入力部30を用いて周囲の騒音を測定する。このとき、音声認識部73は、ユーザと音声対話中ではない状態でのマイク入力レベルを測定する。
次に、感情認識部75は、音声入力部30に入力される音声信号に基づいて感情認識を行い、感情情報を検出する(ステップS103)。本実施形態では、モード切替制御部80は、対話モードとして情報表示モード中に一時的に会話モードに切り替える。演算処理部71は、この対話モードにおいて簡易的にユーザとの対話を行う。感情認識部75は、この対話時のユーザの音声に基づいて感情認識を行う。感情認識を行った後、モード切替制御部80は、対話モードを終了し、情報表示モードに戻す。ここで、環境情報と感情情報の検出を完了する。
次に、演算処理部71は、環境情報と感情情報に基づいて各種設定の調整を行う(ステップS104)。具体的には、演算処理部71は、周囲の明るさとユーザの感情状態(検出感情)を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。例えば、演算処理部71は、表示部20の輝度について、周囲の明るさがレベル2であり、その時の感情状態(検出感情)のパラメータがcであったとすると、データテーブル86の中からパラメータcに対応する設定履歴1として記憶されている値c1を設定値とする。ここで、演算処理部71は、記憶部83に記憶されたデータテーブル86の中に、設定履歴1が存在しない場合には、表示部20の輝度の中央値を設定値とする。
演算処理部71は、表示部20のコントラストについても上記表示部20の輝度と同様に設定する。また、演算処理部71は、音声出力部40の音声レベル及び音声出力部40の音声トーンについては周囲の騒音レベルとユーザの感情状態を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。また、感情表現は、会話モードの時に、表示部20に表示する顔画像の感情表現をどのように設定するか決めるものである。感情表現については、ユーザの感情状態(検出感情)のみに基づいて設定する。演算処理部71は、ユーザの感情状態を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった感情表現の設定値を取得して感情制御部76に通知する。感情制御部76は、演算処理部71から通知された感情表現の設定値に基づいて、音声合成部74が合成する音声や、表示部20に表示する顔画像の感情表現を、ユーザが明るい気持ちの時には明るく対応し、悲しい気持ちの時には静かな対応をするように設定する。演算処理部71は、データテーブル86においてこれらの設定値を更新する(ステップS105)。
最後に、演算処理部71は、表示部20の輝度、表示部20のコントラスト、音声レベル、音声トーン及び感情表現の5項目全ての設定処理が完了したかを確認する(ステップS106)。演算処理部71は、5項目全ての設定処理が未完了である場合(ステップS106でNo)、未完了の残りの項目の設定処理を行う(ステップS104に戻る)。演算処理部71は、5項目全ての設定処理が完了した場合(ステップS106でYes)、一連の処理を終了する。
図8は、情報装置100自体又は各種アプリの起動後(稼働中)の動作の一例を示すフローチャートである。図7に示す情報装置100自体又は各種アプリの起動時には、演算処理部71は、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。その後、図8に示す情報装置100自体又は各種アプリの稼働中には、演算処理部71は、所定のタイミングで試験的に設定を微小量変化させてみて、微小量変化させた設定に対してユーザの感情がどのように変化したかを分析し、その分析結果に応じて設定の調整とその時の設定値の保存を行う。
本実施形態では、映画の再生用のアプリの稼働中の動作を例に説明する。図8に示すように、タイミング発生部78は、稼働中のアプリや表示されるコンテンツについて、タイミングの検出を行う(ステップS201)。タイミング発生部78は、例えばアプリの処理や画面の切り替わりのタイミング、映画の再生開始/終了のタイミング、映画の再生中にポーズ(中断)や早送り/早戻し等の操作が入ったタイミング等を検出する。これらの検出処理については、アプリのプログラムや情報装置100のOS(オペレーティングシステム)にタイミング検出用プログラムを組み込んでおくことで実施可能である。
次に、演算処理部71は、タイミング発生部78が検出したタイミングにおいて、設定を調整して現在の設定から微小量変化させる(ステップS202)。例えば、演算処理部71は、上記5項目の所定のパラメータを現在の設定値より1段階大きい値又は小さい値に設定する。次に、演算処理部71は、音声入力部30や画像入力部90を用いて周囲の環境情報を検出する(ステップS203)。次に、感情認識部75は、音声入力部30に入力される音声信号に基づいて感情認識を行い、感情情報を検出する(ステップS204)。次に、演算処理部71は、検出された感情情報に基づいて、感情レベルが向上したか否かを判定する(ステップS205)。
演算処理部71は、感情レベルが向上したと判定した場合(ステップS205でYes)には、その時の設定値(今回の設定値)をそのまま正式に採用して、データテーブル86において設定値を今回の設定値に更新する(ステップS206)。また、演算処理部71は、データテーブル86において「設定履歴1」を今回の設定値に更新する(ステップS207)。すなわち、演算処理部71は、上記5項目について、感情レベルが上がった場合にはその時の設定値をデータテーブル86の設定値と「設定履歴1」に書き込む。次にステップS201に戻り、感情レベルが向上しなくなるまで(ステップS205でNoとなるまで)、ステップS201からステップS207を繰り返す。この時、設定値の調整方向(設定値を大きい値にするか小さい値にするか)は同一方向とする。
一方、演算処理部71は、感情レベルが低下したと判定した場合(ステップS205でNo)、その時の設定値(今回の設定値)を記録に残すため、データテーブル86において「設定履歴2」を今回の設定値に更新し(ステップS208)、演算処理部71は、今回の設定値を、微小量変化させる前の元の値である前回の設定値に戻す(ステップS209)。
演算処理部71は、設定値の調整方向を変更済みか否かを判定する(ステップS210)。演算処理部71は、設定値の調整方向を変更済みでない場合(ステップS210でNo)、設定値の調整方向を変更する(ステップS211)。具体的には、前回の調整が設定値を大きくする方向であった場合には、設定値を小さくする方向に変更する。前回の調整が設定値を小さくする方向であった場合には、設定値を大きくする方向に変更する。次にステップS201に進む。ステップS202では変更された調整方向に設定値を変更し、ステップS203以降に進む。
演算処理部71は、設定値の調整方向を変更済みの場合(ステップS210でYes)、上記5項目全ての設定処理が完了したかを確認する(ステップS212)。演算処理部71は、5項目全ての設定処理が未完了である場合(ステップS212でNo)、未完了の残りの項目の設定処理を行う(ステップS201に戻る)。演算処理部71は、5項目全ての設定処理が完了した場合(ステップS212でYes)、一連の処理を終了する。
この結果、記憶部83に記憶されたデータテーブル86の設定値および「設定履歴1」には、現状で最も感情が向上した状態の設定値が残る。また、「設定履歴2」には「設定履歴1」の設定値に対し、感情レベルが低かった際の設定値が残ることになる。
「設定履歴1」、「設定履歴2」は、次に設定を変更するときの変化させる方向を決めるために参考となるデータとなる。つまり設定レベルを高くしたために感情が下がったか、低くしたために感情が下がったかにより次に設定すべき調整方向が決定される。
以上のように、本実施形態に係る情報装置100は、ネットワークNWに接続して情報を取得する情報装置100であって、周囲の環境情報を検出する音声認識部73及び画像認識部91と、ユーザの感情情報を検出する感情認識部75と、環境情報ごとに感情情報と設定値とを関連付けて記憶する記憶部83と、感情認識部75の検出結果に応じた設定値を記憶部83から選択して設定する演算処理部71とを備える。
この構成では、使用環境ごとに、感情認識部75においてユーザの感情を検出し、検出したユーザの感情に基づいた設定値を自動的に選択して設定することができる。これにより、使用環境とユーザの感情に応じた設定に自動的に調整することが可能な情報装置100を実現することができる。
[第2実施形態]
図9は、本発明の第2実施形態に係る情報装置100Aの一例を示す機能ブロック図である。図9に示すように、情報装置100Aは、上記実施形態の情報装置100の構成に加えて表情分析部84を有し、感情認識部75の代わりに感情認識部85を有している。表情分析部84は、画像入力部90に入力されるユーザの顔画像等の画像に基づいて、ユーザの表情を分析する。表情分析部84は、例えば画像処理を行い、画像処理の結果を用いて表情分析を行う公知のソフトウェア等を用いて形成される。また、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果(表情分析結果)に基づいて感情認識を行い、ユーザの感情を示す感情情報を検出する。
図10は、感情認識部85の一例を示す機能ブロック図である。感情認識部85は、韻律的特徴量検出部85aと、感情分析部85bと、総合分析部85cとを有する。韻律的特徴量検出部85a及び感情分析部85bは、第1実施形態で説明した韻律的特徴量検出部75a及び感情分析部75bと同様である。すなわち、韻律的特徴量検出部85aは、音声入力部30に入力される音声信号から韻律的特徴量を検出する。感情分析部85bは、検出された韻律的特徴量に基づいて、喜怒哀楽、驚き等の度合いを数値で出力する。総合分析部85cは、感情分析部85bの分析結果と、表情分析部84の分析結果とに基づいて、ユーザの感情を総合的に分析する。例えば、それぞれの分析結果が示す各感情に係数を設定して乗算し、これらを加算して音声及び表情を含めた総合的な算出値を求める。ここで、総合分析部85cは、音声入力しかない場合には感情分析部85bの分析結果のみを用いてユーザの感情を分析してもよいし、画像入力しかない場合には表情分析部84の分析結果のみを用いてユーザの感情を分析してもよい。すなわち、総合分析部85cは、ユーザの音声と表情とのうち少なくとも一方に基づいて当該ユーザの感情を分析するものであればよい。したがって、感情認識部85において検出される感情情報は、例えば、感情の種類(喜び、悲しみ、怒り)と、感情の種類ごとの感情の度合いの値と、を含む。演算処理部71は、感情認識部85において検出された感情情報と記憶部83に記憶されたデータテーブル86に基づいて、設定を自動的に調整する。
上記のように構成された情報装置100A自体又は各種アプリの起動時、図7に示すステップS103において、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果のうち少なくとも一方に基づいて感情認識を行い、感情情報を検出する(ステップS103)。本実施形態では、モード切替制御部80は、対話モードとして情報表示モード中に一時的に会話モードに切り替える。演算処理部71は、この対話モードにおいて簡易的に情報装置100Aとユーザの対話を行う。感情認識部85は、対話時のユーザの音声や表情に基づいて感情認識を行う。感情認識を行った後、モード切替制御部80は、対話モードを終了し、情報表示モードに戻す。すなわち、ユーザの音声と表情との少なくとも一方に基づいて感情認識を行う。その他の動作については、図7に示す通りである。
また、情報装置100A自体又は各種アプリの稼働中、図8に示すステップS203~S205において、演算処理部71は、音声入力部30及び画像入力部90を用いて周囲の環境情報を検出する(ステップS203)。次に、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果のうち少なくとも一方に基づいて感情認識を行い、感情情報を検出する(ステップS204)。次に、演算処理部71は、感情認識部85で検出された感情情報に基づいて、ユーザの感情の変化、例えば感情レベルの上下を確認する(ステップS205)。すなわち、ユーザの音声と表情との少なくとも一方に基づいてユーザの感情の変化を確認する。その他の動作については、図8に示す通りである。
このように、本実施形態に係る情報装置100Aは、ユーザの声を入力可能な音声入力部30とユーザの顔画像を入力可能な画像入力部90との両方を備え、感情認識部85が、音声入力部30に入力されるユーザの声と画像入力部90に入力される顔画像とのうち少なくとも一方に基づいて、感情情報を検出する構成であってもよい。これにより、ユーザの感情をより高精度に認識し、より適正に使用環境とユーザの感情に応じた設定に調整することができる。
[変形例]
上記の実施形態では、情報装置100又は100Aは音声入力部30や画像入力部90を用いてユーザの感情情報を検出しているが、さらにユーザが表示部20上のタッチパネル入力部50をタッチするタイミングや強さ等からユーザの感情情報を検出してもよい。また、情報装置100又は100Aは、自身と連携する他のセンサ群も用いてユーザの感情情報を検出してもよい。例えば、情報装置100又は100Aは、自身に搭載されたジャイロスコープや慣性計測装置(IMU)等を用いて、ユーザが情報装置100又は100Aを感情的に激しく揺さぶっていること等を検出することで、ユーザの感情情報を検出してもよい。
また、情報装置100及び100Aは、表示部20及びタッチパネル入力部50を備えていなくてよい。例えば、情報装置100及び100Aは、タッチパネル入力部50の代わりに、物理的なキーパッドやキーボード等の入力装置を使用してもよい。また、情報装置100及び100Aがコミュニケーション用ロボットである場合、表示部20に表示させる顔画像の代わりに、顔に相当する機能や身振りで感情を表現してもよい。
また、図7に示すステップS106及び図8に示すステップS212において、演算処理部71は、表示部20の輝度、表示部20のコントラスト、音声レベル、音声トーン及び感情表現の5項目全ての設定処理を行うようにしているが、実際には特定の項目のみの設定処理を行うようにしてもよい。例えば、演算処理部71は、周囲の明るさの低下とユーザの感情レベルの低下とを検出した時に表示部20の輝度及びコントラストの設定処理を行い、周囲の騒音の増大とユーザの感情レベルの低下とを検出した時に音声レベル及び音声トーンの設定処理を行うようにしてもよい。
以上説明したように、本発明に係る情報装置は、動作調整値に基づいて動作を行う動作部と、周囲の環境情報を検出する環境認識部と、ユーザの感情情報を検出する感情認識部と、環境認識部で検出した環境情報と、感情認識部で検出した感情情報とに基づいて、動作調整値を設定する設定調整部と、を備える。ここで、動作部は、上記の表示部20、音声出力部40及び制御部70に相当する。環境認識部は、上記の音声認識部73及び画像認識部91に相当する。感情認識部は、上記の感情認識部75又は感情認識部85に相当する。設定調整部は、上記の演算処理部71に相当する。動作調整値は、上記の表示部20の輝度、表示部20のコントラスト、音声出力部40の音声レベル、音声出力部40の音声トーンについての各設定値に相当する。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、動作調整値に基づいて動作を行う動作部として、表示部20及び音声出力部40を例に挙げて説明したが、これに限定されない。動作部は、情報装置100の他の部分であってもよい。
また、例えば、上記実施形態では、環境情報と、感情情報と、動作調整値とを関連付けて記憶する記憶部83を有する構成を例に挙げて説明したが、これに限定されない。例えば、環境情報、感情情報及び動作調整値が例えば外部の記憶部に記憶される構成であり、情報装置100、100Aが当該外部の記憶部に通信等によってアクセスする構成としてもよい。
NW…ネットワーク、10…筐体、20…表示部、30…音声入力部、40…音声出力部、50…タッチパネル入力部、60…通信部、70…制御部、71…演算処理部、72…表示制御部、73…音声認識部、74…音声合成部、75,85…感情認識部、75a, 85a…韻律的特徴量検出部、75b,85b…感情分析部、76…感情制御部、78…タイミング発生部、79…タイマ、80…モード切替制御部、82…顔画像発生部、83…記憶部、84…表情分析部、85c…総合分析部、86…データテーブル、90…画像入力部、91…画像認識部、100,100A…情報装置

Claims (6)

  1. 動作調整値に基づいて動作を行う動作部と、
    周囲の環境情報を検出する環境認識部と、
    ユーザの感情情報を検出する感情認識部と、
    前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報とに基づいて、前記動作調整値を設定する設定調整部と、
    を備え
    前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報と、前記設定調整部で設定した前記動作調整値とを関連付けて記憶する記憶部を更に備え、
    前記設定調整部は、起動時に、前記環境認識部で検出した前記環境情報と前記感情認識部で検出した前記感情情報とに基づいて、前記記憶部から前記動作調整値を取得して設定する
    情報装置。
  2. 前記設定調整部は、起動後に所定のタイミングで、設定された前記動作調整値を変化させ、前記感情認識部で検出した前記感情情報の変化を検出する、請求項に記載の情報装置。
  3. 前記感情情報は、ユーザの感情の度合いを含み、
    前記設定調整部は、前記環境認識部で検出した前記感情の度合いが前回の設定時に検出した前記感情の度合いに比べて向上した場合に、今回の設定で得られる前記動作調整値を設定値とし、前記設定値とした前記動作調整値を前記感情情報と関連付けて第1設定履歴として前記記憶部に記憶する、請求項に記載の情報装置。
  4. 前記感情情報は、ユーザの感情の度合いを含み、
    前記設定調整部は、前記環境認識部で検出した前記感情の度合いが前回の調整時に検出した前記感情の度合いに比べて低下した場合には、前記動作調整値を前記感情情報と関連付けて第2設定履歴として前記記憶部に記憶するとともに、前回の前記動作調整値を設定値とする、請求項またはに記載の情報装置。
  5. 動作調整値に基づいて動作部の動作を行うことと、
    周囲の環境情報を検出することと、
    ユーザの感情情報を検出することと、
    検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定することと
    を含み、
    検出された前記環境情報と、検出された前記感情情報と、設定された前記動作調整値とを関連付けて記憶部に記憶することを更に含み、
    前記動作調整値を設定する場合、起動時に、検出された前記環境情報と検出された前記感情情報とに基づいて、前記記憶部から前記動作調整値を取得して設定する
    自動設定方法。
  6. 動作調整値に基づいて動作部の動作を行う処理と、
    周囲の環境情報を検出する処理と、
    ユーザの感情情報を検出する処理と、
    検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定する処理と
    をコンピュータに実行させ
    検出された前記環境情報と、検出された前記感情情報と、設定された前記動作調整値とを関連付けて記憶部に記憶する処理を更にコンピュータに実行させ、
    前記動作調整値を設定する処理では、起動時に、検出された前記環境情報と検出された前記感情情報とに基づいて、前記記憶部から前記動作調整値を取得して設定する
    自動設定プログラム。
JP2019133242A 2019-07-19 2019-07-19 情報装置、自動設定方法及び自動設定プログラム Active JP7263957B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019133242A JP7263957B2 (ja) 2019-07-19 2019-07-19 情報装置、自動設定方法及び自動設定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133242A JP7263957B2 (ja) 2019-07-19 2019-07-19 情報装置、自動設定方法及び自動設定プログラム

Publications (2)

Publication Number Publication Date
JP2021018551A JP2021018551A (ja) 2021-02-15
JP7263957B2 true JP7263957B2 (ja) 2023-04-25

Family

ID=74564294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133242A Active JP7263957B2 (ja) 2019-07-19 2019-07-19 情報装置、自動設定方法及び自動設定プログラム

Country Status (1)

Country Link
JP (1) JP7263957B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7360756B1 (ja) 2022-04-15 2023-10-13 株式会社三鷹ホールディングス 磁性流体を用いた表示装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299013A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 体験情報再現装置
JP2008062852A (ja) 2006-09-08 2008-03-21 Fujitsu Ten Ltd 車両制御装置
JP2012146216A (ja) 2011-01-13 2012-08-02 Nikon Corp 電子機器および電子機器の制御プログラム
WO2018021040A1 (ja) 2016-07-27 2018-02-01 ソニー株式会社 情報処理システム、記録媒体、および情報処理方法
WO2018084904A1 (en) 2016-11-01 2018-05-11 Google Llc Dynamic text-to-speech provisioning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299013A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd 体験情報再現装置
JP2008062852A (ja) 2006-09-08 2008-03-21 Fujitsu Ten Ltd 車両制御装置
JP2012146216A (ja) 2011-01-13 2012-08-02 Nikon Corp 電子機器および電子機器の制御プログラム
WO2018021040A1 (ja) 2016-07-27 2018-02-01 ソニー株式会社 情報処理システム、記録媒体、および情報処理方法
WO2018084904A1 (en) 2016-11-01 2018-05-11 Google Llc Dynamic text-to-speech provisioning

Also Published As

Publication number Publication date
JP2021018551A (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
CN110275664B (zh) 用于提供视听反馈的设备、方法和图形用户界面
US9570091B2 (en) Music playing system and music playing method based on speech emotion recognition
US8965764B2 (en) Electronic apparatus and voice recognition method for the same
CN103529934A (zh) 用于处理多个输入的方法和装置
US9749582B2 (en) Display apparatus and method for performing videotelephony using the same
US10468004B2 (en) Information processing method, terminal device and computer storage medium
US11256463B2 (en) Content prioritization for a display array
CN103353826B (zh) 一种显示设备及其信息处理方法
KR102134882B1 (ko) 컨텐츠 재생을 제어하기 위한 방법 및 장치
CN105139848B (zh) 数据转换方法和装置
CN109246474B (zh) 一种视频文件编辑方法及移动终端
CN112037756A (zh) 语音处理方法、装置和介质
CN110109730B (zh) 用于提供视听反馈的设备、方法和图形用户界面
JP7263957B2 (ja) 情報装置、自動設定方法及び自動設定プログラム
KR102580521B1 (ko) 전자 장치 및 전자 장치의 음량 조절 방법
CN113407275A (zh) 音频编辑方法、装置、设备及可读存储介质
JP6814604B2 (ja) 会議情報表示システム、会議情報表示方法および会議情報表示プログラム
CN105119815A (zh) 在即时通信界面实现音乐播放的方法及装置
CN111091807B (zh) 语音合成方法、装置、计算机设备及存储介质
JP6115932B2 (ja) 音発生装置及び音発生用プログラム
US20170220317A1 (en) Electronic apparatus and control program of electronic apparatus
CN110460719B (zh) 一种语音通话方法及移动终端
CN111782865B (zh) 音频信息的处理方法、装置及存储介质
CN111596841B (zh) 图像显示方法及电子设备
JP7077024B2 (ja) 電子機器、情報処理方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150