JP2021018551A - Information apparatus, automatic setting method, and automatic setting program - Google Patents
Information apparatus, automatic setting method, and automatic setting program Download PDFInfo
- Publication number
- JP2021018551A JP2021018551A JP2019133242A JP2019133242A JP2021018551A JP 2021018551 A JP2021018551 A JP 2021018551A JP 2019133242 A JP2019133242 A JP 2019133242A JP 2019133242 A JP2019133242 A JP 2019133242A JP 2021018551 A JP2021018551 A JP 2021018551A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- emotion
- information
- setting
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 23
- 230000008451 emotion Effects 0.000 claims abstract description 112
- 230000008909 emotion recognition Effects 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims description 55
- 230000002996 emotional effect Effects 0.000 claims description 38
- 230000008569 process Effects 0.000 claims description 15
- 230000007613 environmental effect Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 25
- 230000008921 facial expression Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000010195 expression analysis Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報装置、自動設定方法及び自動設定プログラムに関する。 The present invention relates to an information device, an automatic setting method, and an automatic setting program.
人間の多様な感情を検出し、この感情に応じて、コンピュータ側から情報を出力する対話装置や、人間の音声を分析してその人間の感情を表示する感情分析装置が開示されている(特許文献1、2参照)。また、近年は、人間の感情を認識して、会話の内容を変えるロボットなどが提案されている。 A dialogue device that detects various human emotions and outputs information from the computer side in response to these emotions, and a sentiment analyzer that analyzes human voice and displays the human emotions are disclosed (patented). Refer to Documents 1 and 2). In recent years, robots that recognize human emotions and change the content of conversation have been proposed.
従来、コンピュータ等の情報装置の設定の変更は、ユーザ自身が行っていた。しかし、情報装置の設定の変更には、ある程度の知識が必要とされるため、情報装置の設定にあまり詳しくないユーザは、自身が望む設定にうまく調整できない。また、より好ましい設定があったとしても、ユーザがそれに気付かず又は変更操作を面倒だと考えて、最初にユーザ自身が行った設定のまま使用し続けることがある。また、情報装置の使用環境とその時のユーザの気分や感情等によっても、ユーザにとって最適な設定は異なる。しかし、情報装置の設定が、情報装置の個々の使用環境におけるユーザの感情ごとに自動的に変化することはなかった。そのため、情報装置の設定が、ユーザ自身の操作によらず、使用環境とユーザの感情に応じて、ユーザが望む設定に自動的に調整される技術が望まれている。 Conventionally, the user himself has changed the settings of information devices such as computers. However, since changing the settings of the information device requires some knowledge, a user who is not very familiar with the settings of the information device cannot adjust the settings to his / her desired settings. Further, even if there is a more preferable setting, the user may not notice it or consider the change operation to be troublesome, and may continue to use the setting that the user originally made. In addition, the optimum setting for the user differs depending on the usage environment of the information device and the mood and emotion of the user at that time. However, the settings of the information device did not automatically change according to the user's emotions in the individual usage environment of the information device. Therefore, there is a demand for a technique in which the settings of the information device are automatically adjusted to the settings desired by the user according to the usage environment and the emotions of the user, regardless of the user's own operation.
本発明は、上記に鑑みてなされたものであり、使用環境とユーザの感情に応じて設定を自動的に調整する情報装置、自動設定方法及び自動設定プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information device, an automatic setting method, and an automatic setting program that automatically adjust settings according to a usage environment and user's emotions.
本発明に係る情報装置は、動作調整値に基づいて動作を行う動作部と、周囲の環境情報を検出する環境認識部と、ユーザの感情情報を検出する感情認識部と、前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報とに基づいて、前記動作調整値を設定する設定調整部と、を備える。 The information device according to the present invention includes an operation unit that performs an operation based on an operation adjustment value, an environment recognition unit that detects surrounding environment information, an emotion recognition unit that detects user emotion information, and the environment recognition unit. It includes a setting adjustment unit that sets the operation adjustment value based on the detected environmental information and the emotion information detected by the emotion recognition unit.
本発明に係る自動設定方法は、動作調整値に基づいて動作部の動作を行うことと、周囲の環境情報を検出することと、ユーザの感情情報を検出することと、検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定することとを含む。 In the automatic setting method according to the present invention, the operation of the operation unit is performed based on the operation adjustment value, the surrounding environment information is detected, the user's emotion information is detected, and the detected environment information is used. It includes setting the motion adjustment value based on the emotion information.
本発明に係る自動設定プログラムは、動作調整値に基づいて動作部の動作を行う処理と、周囲の環境情報を検出する処理と、ユーザの感情情報を検出する処理と、検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定する処理とをコンピュータに実行させる。 The automatic setting program according to the present invention includes a process of performing an operation of an operation unit based on an operation adjustment value, a process of detecting surrounding environment information, a process of detecting user emotion information, and the detected environment information. The computer is made to execute the process of setting the operation adjustment value based on the emotion information.
本発明によれば、使用環境とユーザの感情に応じて情報装置の設定を自動的に調整することができる。 According to the present invention, the setting of the information device can be automatically adjusted according to the usage environment and the emotion of the user.
以下、本発明の実施形態を図面に基づいて説明する。なお、下記実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.
[第1実施形態]
図1は、本発明の第1実施形態に係る情報装置の一例を示す模式図である。図1に示す情報装置100は、筐体10と、表示部20と、音声入力部30と、音声出力部40と、タッチパネル入力部50と、通信部60(通信部のうちの接続線)と、制御部70と、画像入力部90とを備える。情報装置100としては、例えばスマートフォン、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータ、ナビゲーション装置、電子書籍リーダ、腕時計型ウェアラブルデバイス、音響・映像機器、家庭用ゲーム機、携帯型ゲーム機、コミュニケーション用ロボット等、各種の通信可能な電子機器が挙げられる。
[First Embodiment]
FIG. 1 is a schematic view showing an example of an information device according to the first embodiment of the present invention. The
筐体10は、表示部20、音声入力部30、音声出力部40、タッチパネル入力部50、通信部60、制御部70及び画像入力部90の各部を保持する。表示部20は、画像、映像等の情報を表示可能であり、例えば液晶ディスプレイ、有機ELディスプレイ等の表示パネルにより構成される。音声入力部30は、例えばマイク等により構成される。音声出力部40は、例えばスピーカ等により構成される。タッチパネル入力部50は、表示部20上に配置され、ユーザが表示部20に表示された情報に対する入力や選択等の操作を行う場合に使用する。例えば、視聴可能な映画の候補が複数ある場合に、情報装置100が映画の候補を表示部20に表示し、ユーザが表示部20上のタッチパネル入力部50をタッチすることにより所望の映画を選択することも可能である。通信部60は、ネットワークNWとの間で情報の送信及び受信を行う。ネットワークNWとしては、インターネット、イントラネット等の各種のネットワーク等が挙げられる。画像入力部90は、例えばカメラ等により構成される。画像入力部90は、ビデオカメラとしても使用可能である。ここで、音声入力部30、音声出力部40及び画像入力部90は、上記の通り筐体10に保持されてもよいし、筐体10とは別個に設けられてもよい。例えば、音声入力部30、音声出力部40及び画像入力部90は、情報装置100と連携したワイヤレスのマイク、スピーカ又はヘッドホン、及びカメラ等でもよい。
The
図2は、情報装置100の制御部70の一例を示す機能ブロック図である。制御部70は、CPU、ROM、RAM等を用いて構成され、情報装置100の全体の制御を行う。
FIG. 2 is a functional block diagram showing an example of the
制御部70は、演算処理部71と、表示制御部72と、音声認識部73と、音声合成部74と、感情認識部75と、感情制御部76と、タイミング発生部78と、タイマ79と、モード切替制御部80と、顔画像発生部82と、記憶部83と、画像認識部91とを有する。
The
演算処理部71は、各種の演算を行う。演算処理部71は、後述するように、感情認識部75の検出結果に応じた情報装置100の動作調整値(設定値)を記憶部83から取得して設定する設定調整部としての機能を有する。表示制御部72は、表示部20の表示動作を制御する。音声認識部73は、音声入力部30から入力された音声データを認識し、所定の言葉を判別する。音声認識部73は、例えば音声認識ソフトウェア、音声認識用辞書データ等を有する。音声合成部74は、音声合成ソフトウェア、音声データ等を有する。音声合成部74は、例えば人間が話す声を合成可能である。
The
感情認識部75は、音声入力部30から入力された音声により、感情情報を検出する。図3は、感情認識部75の一例を示す機能ブロック図である。図3に示すように、感情認識部75は、韻律的特徴量検出部75aと、感情分析部75bとを有する。韻律的特徴量検出部75aは、音声入力部30に入力される音声信号から韻律的特徴量を検出する。感情分析部75bは、検出された韻律的特徴量に基づいて、喜怒哀楽、驚き等の度合いを数値で出力する。本実施形態において、感情分析部75bは、喜び、悲しみ、及び怒りの3種類を検出するものとする。つまり、感情認識部75において検出される感情情報は、例えば、感情の種類(喜び、悲しみ、怒り)と、感情の種類ごとの感情の度合いの値と、を含む。感情の具体的な検出方法については、公知の技術を適宜用いることができる。
The
感情制御部76は、感情認識部75の検出結果に基づいて、所定の感情状態を形成する。例えば、感情制御部76は、会話モード時に、音声合成部74が合成する音声の抑揚や内容、顔画像発生部82が表示部20に表示させる顔画像の表情等を設定する。
The
タイミング発生部78は、例えばタイマ79を用いて時間を計測する。タイミング発生部78は、情報装置100の各種アプリケーション(以下、アプリ)の処理や画面の切り替わりのタイミング及び/又は再生中のコンテンツの切れ目のタイミング等を検出する。
The
モード切替制御部80は、ユーザとの間で情報のやり取りを行うための情報を表示部20及び音声出力部40の少なくとも一方に出力する第1モードと、ネットワークからの情報を表示部20及び音声出力部40の少なくとも一方に出力する第2モードとを切り替えて行う。第1モードは、例えばユーザが情報装置100に対して話しかけを行い、情報装置100がユーザの話しかけに対して返答する会話モードを含む。第2モードは、ネットワークNWを介して取得される情報を表示する情報表示モードを含む。顔画像発生部82は、会話モード時に表示部20に顔画像を表示させる。
The mode
図4及び図5は、会話モード時に情報装置100の表示部20に顔画像が表示される場合の例を示す図である。図4に示すように、表示部20に目と口のみが表示されてもよい。この場合、目と口を強調することができる。また、図5に示すように、表示部20に顔の輪郭を含めた状態で表示されてもよい。この場合、会話モードが実際の会話の状態に近い感覚となり、感情移入しやすい。なお、顔画像の表示態様は、上記の2種類に限定されず、他の態様であってもよい。会話モードでは、このような顔画像の表示態様を切り替えることにより、使いやすく、楽しい情報装置100を実現できる。
4 and 5 are diagrams showing an example in which a face image is displayed on the
記憶部83は、各種の情報を記憶する。図6は、記憶部83に記憶される感情情報のデータと設定に関するデータとが関連付けられたデータテーブル86の一例を示す図である。図6に示すように、本実施形態では、データテーブル86は、例えば映画、スポーツ、会話など、各種アプリや表示されるコンテンツの内容などにより、個別の配列(例えば、レコード及びフィールド)を持っている。感情情報のデータ及び設定に関するデータは、情報装置100の起動時に、制御部70のRAMに読み出され、動作中に変更され、プログラム終了時にストレージに書き戻される。それぞれのRAM上のデータの配置は任意であるが、配列として管理される。
The
本実施形態では、情報表示モード時において、映画を再生する時に使用されるデータを例に説明する。記憶部83は、映画を再生する時の調整項目として、表示部20の輝度、表示部20のコントラスト、音声出力部40の音声レベル、音声出力部40の音声トーン及び感情表現に関するデータを記憶する。
In the present embodiment, the data used when playing a movie in the information display mode will be described as an example. The
本実施形態では、周囲の環境状態を測定・検出し、その時のユーザの感情を認識する。その環境におけるユーザの感情が向上する(例えば、楽しい気持ちが高くなる)設定を検索しながらより良い設定に変更し、その設定値と設定履歴を記憶する。ユーザの感情の高揚を大きく喜怒哀楽に分類し、各種アプリや表示されるコンテンツの種類によって、高揚させる感情の種類を変えても良い。例えば、情報装置100は、表示部20に映画を表示する場合、楽しい映画であればユーザの楽しい気持ちが大きくなるような設定とし、悲しい映画であればユーザの悲しい気持ちが大きくなる設定とする。このように、視聴する映画の種類や内容等によってもユーザの感情は変化するため、記憶部83は、データテーブル86において、ユーザが視聴する映画ごとに感情情報のデータと設定に関するデータとを記憶する。
In the present embodiment, the surrounding environmental state is measured and detected, and the emotion of the user at that time is recognized. While searching for a setting that improves the user's emotions in the environment (for example, makes the user feel more enjoyable), change the setting to a better setting, and store the setting value and the setting history. The emotional uplifting of the user may be broadly classified into emotions and emotions, and the type of emotional uplifting may be changed depending on the types of various applications and displayed contents. For example, when displaying a movie on the
輝度の場合、周囲の明るさをレベル1〜5の5段階に分けている。周囲の明るさは、画像入力部90の入力のレベルを読み取ることで得られる。また、映像信号のAGC(自動利得制御)が動作している場合には、その制御信号のレベルが周囲の明るさを示すことになる。そして、レベルごとに感情状態(検出感情)のパラメータを有する。図6では、レベル1〜5の各々において、感情状態のパラメータとしてa〜eの5つの値を示している。本実施形態では、感情状態のパラメータは、「楽しい」、「悲しい」又は「怒り」の度合いを示しており、ユーザの気分が良いか良くないかを示している。また、感情状態のパラメータごとに設定値が割り当てられている。図6では、感情状態のパラメータa〜eに対して、設定値としてA〜Eの5つの値が割り当てられている。また、過去に感情が向上した時の輝度の設定値が、設定履歴1として記憶されている。初期状態では設定履歴1として記憶されている値が設定値として選択される。設定履歴2については後段で説明する。
In the case of brightness, the ambient brightness is divided into 5 levels 1 to 5. The ambient brightness is obtained by reading the input level of the
コントラストの場合、輝度の場合と同様、周囲の明るさをレベル1〜5の5段階に分けている。他の構成については、輝度の場合と一緒である。音声レベル及び音声トーンの場合、周囲の騒音をレベル1〜5の5段階に分けている。他の構成については、輝度の場合と一緒である。感情表現の場合、環境パラメータに依存せず、感情認識部75において検出された感情情報に対応する設定値を保存している。
In the case of contrast, as in the case of brightness, the ambient brightness is divided into five levels 1 to 5. The other configurations are the same as for the luminance case. In the case of voice level and voice tone, ambient noise is divided into 5 levels 1 to 5. The other configurations are the same as for the luminance case. In the case of emotional expression, the set value corresponding to the emotional information detected by the
画像認識部91は、画像入力部90から入力された画像データを認識し、画像や動画から特徴をつかみ、対象物を識別する。画像認識部91は、例えば画像認識ソフトウェア、画像認識用辞書データ等を有する。
The
次に、上記のように構成された情報装置100の動作について説明する。図7は、情報装置100自体又は各種アプリの起動時の動作の一例を示すフローチャートである。本実施形態では、映画の再生用のアプリの起動時の動作を例に説明する。図7に示すように、演算処理部71は、ユーザが表示部20に表示された映画の再生用のアプリを選択した時に当該アプリを起動する(ステップS101)。
Next, the operation of the
次に、音声認識部73及び画像認識部91は、音声入力部30及び画像入力部90を用いて周囲の環境情報を検出する(ステップS102)。例えば、画像認識部91は、画像入力部90を用いて周囲の明るさを測定する。画像認識部91は、画像認識により画像の中央にユーザを認識した場合には、ユーザを除いた周囲の明るさを測定する。また、音声認識部73は、音声入力部30を用いて周囲の騒音を測定する。このとき、音声認識部73は、ユーザと音声対話中ではない状態でのマイク入力レベルを測定する。
Next, the
次に、感情認識部75は、音声入力部30に入力される音声信号に基づいて感情認識を行い、感情情報を検出する(ステップS103)。本実施形態では、モード切替制御部80は、対話モードとして情報表示モード中に一時的に会話モードに切り替える。演算処理部71は、この対話モードにおいて簡易的にユーザとの対話を行う。感情認識部75は、この対話時のユーザの音声に基づいて感情認識を行う。感情認識を行った後、モード切替制御部80は、対話モードを終了し、情報表示モードに戻す。ここで、環境情報と感情情報の検出を完了する。
Next, the
次に、演算処理部71は、環境情報と感情情報に基づいて各種設定の調整を行う(ステップS104)。具体的には、演算処理部71は、周囲の明るさとユーザの感情状態(検出感情)を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。例えば、演算処理部71は、表示部20の輝度について、周囲の明るさがレベル2であり、その時の感情状態(検出感情)のパラメータがcであったとすると、データテーブル86の中からパラメータcに対応する設定履歴1として記憶されている値c1を設定値とする。ここで、演算処理部71は、記憶部83に記憶されたデータテーブル86の中に、設定履歴1が存在しない場合には、表示部20の輝度の中央値を設定値とする。
Next, the
演算処理部71は、表示部20のコントラストについても上記表示部20の輝度と同様に設定する。また、演算処理部71は、音声出力部40の音声レベル及び音声出力部40の音声トーンについては周囲の騒音レベルとユーザの感情状態を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。また、感情表現は、会話モードの時に、表示部20に表示する顔画像の感情表現をどのように設定するか決めるものである。感情表現については、ユーザの感情状態(検出感情)のみに基づいて設定する。演算処理部71は、ユーザの感情状態を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった感情表現の設定値を取得して感情制御部76に通知する。感情制御部76は、演算処理部71から通知された感情表現の設定値に基づいて、音声合成部74が合成する音声や、表示部20に表示する顔画像の感情表現を、ユーザが明るい気持ちの時には明るく対応し、悲しい気持ちの時には静かな対応をするように設定する。演算処理部71は、データテーブル86においてこれらの設定値を更新する(ステップS105)。
The
最後に、演算処理部71は、表示部20の輝度、表示部20のコントラスト、音声レベル、音声トーン及び感情表現の5項目全ての設定処理が完了したかを確認する(ステップS106)。演算処理部71は、5項目全ての設定処理が未完了である場合(ステップS106でNo)、未完了の残りの項目の設定処理を行う(ステップS104に戻る)。演算処理部71は、5項目全ての設定処理が完了した場合(ステップS106でYes)、一連の処理を終了する。
Finally, the
図8は、情報装置100自体又は各種アプリの起動後(稼働中)の動作の一例を示すフローチャートである。図7に示す情報装置100自体又は各種アプリの起動時には、演算処理部71は、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。その後、図8に示す情報装置100自体又は各種アプリの稼働中には、演算処理部71は、所定のタイミングで試験的に設定を微小量変化させてみて、微小量変化させた設定に対してユーザの感情がどのように変化したかを分析し、その分析結果に応じて設定の調整とその時の設定値の保存を行う。
FIG. 8 is a flowchart showing an example of the operation after the
本実施形態では、映画の再生用のアプリの稼働中の動作を例に説明する。図8に示すように、タイミング発生部78は、稼働中のアプリや表示されるコンテンツについて、タイミングの検出を行う(ステップS201)。タイミング発生部78は、例えばアプリの処理や画面の切り替わりのタイミング、映画の再生開始/終了のタイミング、映画の再生中にポーズ(中断)や早送り/早戻し等の操作が入ったタイミング等を検出する。これらの検出処理については、アプリのプログラムや情報装置100のOS(オペレーティングシステム)にタイミング検出用プログラムを組み込んでおくことで実施可能である。
In the present embodiment, the operation of the application for playing a movie during operation will be described as an example. As shown in FIG. 8, the
次に、演算処理部71は、タイミング発生部78が検出したタイミングにおいて、設定を調整して現在の設定から微小量変化させる(ステップS202)。例えば、演算処理部71は、上記5項目の所定のパラメータを現在の設定値より1段階大きい値又は小さい値に設定する。次に、演算処理部71は、音声入力部30や画像入力部90を用いて周囲の環境情報を検出する(ステップS203)。次に、感情認識部75は、音声入力部30に入力される音声信号に基づいて感情認識を行い、感情情報を検出する(ステップS204)。次に、演算処理部71は、検出された感情情報に基づいて、感情レベルが向上したか否かを判定する(ステップS205)。
Next, the
演算処理部71は、感情レベルが向上したと判定した場合(ステップS205でYes)には、その時の設定値(今回の設定値)をそのまま正式に採用して、データテーブル86において設定値を今回の設定値に更新する(ステップS206)。また、演算処理部71は、データテーブル86において「設定履歴1」を今回の設定値に更新する(ステップS207)。すなわち、演算処理部71は、上記5項目について、感情レベルが上がった場合にはその時の設定値をデータテーブル86の設定値と「設定履歴1」に書き込む。次にステップS201に戻り、感情レベルが向上しなくなるまで(ステップS205でNoとなるまで)、ステップS201からステップS207を繰り返す。この時、設定値の調整方向(設定値を大きい値にするか小さい値にするか)は同一方向とする。
When the
一方、演算処理部71は、感情レベルが低下したと判定した場合(ステップS205でNo)、その時の設定値(今回の設定値)を記録に残すため、データテーブル86において「設定履歴2」を今回の設定値に更新し(ステップS208)、演算処理部71は、今回の設定値を、微小量変化させる前の元の値である前回の設定値に戻す(ステップS209)。
On the other hand, when the
演算処理部71は、設定値の調整方向を変更済みか否かを判定する(ステップS210)。演算処理部71は、設定値の調整方向を変更済みでない場合(ステップS210でNo)、設定値の調整方向を変更する(ステップS211)。具体的には、前回の調整が設定値を大きくする方向であった場合には、設定値を小さくする方向に変更する。前回の調整が設定値を小さくする方向であった場合には、設定値を大きくする方向に変更する。次にステップS201に進む。ステップS202では変更された調整方向に設定値を変更し、ステップS203以降に進む。
The
演算処理部71は、設定値の調整方向を変更済みの場合(ステップS210でYes)、上記5項目全ての設定処理が完了したかを確認する(ステップS212)。演算処理部71は、5項目全ての設定処理が未完了である場合(ステップS212でNo)、未完了の残りの項目の設定処理を行う(ステップS201に戻る)。演算処理部71は、5項目全ての設定処理が完了した場合(ステップS212でYes)、一連の処理を終了する。
When the adjustment direction of the set value has been changed (Yes in step S210), the
この結果、記憶部83に記憶されたデータテーブル86の設定値および「設定履歴1」には、現状で最も感情が向上した状態の設定値が残る。また、「設定履歴2」には「設定履歴1」の設定値に対し、感情レベルが低かった際の設定値が残ることになる。
As a result, in the set value of the data table 86 and the "setting history 1" stored in the
「設定履歴1」、「設定履歴2」は、次に設定を変更するときの変化させる方向を決めるために参考となるデータとなる。つまり設定レベルを高くしたために感情が下がったか、低くしたために感情が下がったかにより次に設定すべき調整方向が決定される。
The "setting history 1" and "setting
以上のように、本実施形態に係る情報装置100は、ネットワークNWに接続して情報を取得する情報装置100であって、周囲の環境情報を検出する音声認識部73及び画像認識部91と、ユーザの感情情報を検出する感情認識部75と、環境情報ごとに感情情報と設定値とを関連付けて記憶する記憶部83と、感情認識部75の検出結果に応じた設定値を記憶部83から選択して設定する演算処理部71とを備える。
As described above, the
この構成では、使用環境ごとに、感情認識部75においてユーザの感情を検出し、検出したユーザの感情に基づいた設定値を自動的に選択して設定することができる。これにより、使用環境とユーザの感情に応じた設定に自動的に調整することが可能な情報装置100を実現することができる。
In this configuration, the
[第2実施形態]
図9は、本発明の第2実施形態に係る情報装置100Aの一例を示す機能ブロック図である。図9に示すように、情報装置100Aは、上記実施形態の情報装置100の構成に加えて表情分析部84を有し、感情認識部75の代わりに感情認識部85を有している。表情分析部84は、画像入力部90に入力されるユーザの顔画像等の画像に基づいて、ユーザの表情を分析する。表情分析部84は、例えば画像処理を行い、画像処理の結果を用いて表情分析を行う公知のソフトウェア等を用いて形成される。また、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果(表情分析結果)に基づいて感情認識を行い、ユーザの感情を示す感情情報を検出する。
[Second Embodiment]
FIG. 9 is a functional block diagram showing an example of the
図10は、感情認識部85の一例を示す機能ブロック図である。感情認識部85は、韻律的特徴量検出部85aと、感情分析部85bと、総合分析部85cとを有する。韻律的特徴量検出部85a及び感情分析部85bは、第1実施形態で説明した韻律的特徴量検出部75a及び感情分析部75bと同様である。すなわち、韻律的特徴量検出部85aは、音声入力部30に入力される音声信号から韻律的特徴量を検出する。感情分析部85bは、検出された韻律的特徴量に基づいて、喜怒哀楽、驚き等の度合いを数値で出力する。総合分析部85cは、感情分析部85bの分析結果と、表情分析部84の分析結果とに基づいて、ユーザの感情を総合的に分析する。例えば、それぞれの分析結果が示す各感情に係数を設定して乗算し、これらを加算して音声及び表情を含めた総合的な算出値を求める。ここで、総合分析部85cは、音声入力しかない場合には感情分析部85bの分析結果のみを用いてユーザの感情を分析してもよいし、画像入力しかない場合には表情分析部84の分析結果のみを用いてユーザの感情を分析してもよい。すなわち、総合分析部85cは、ユーザの音声と表情とのうち少なくとも一方に基づいて当該ユーザの感情を分析するものであればよい。したがって、感情認識部85において検出される感情情報は、例えば、感情の種類(喜び、悲しみ、怒り)と、感情の種類ごとの感情の度合いの値と、を含む。演算処理部71は、感情認識部85において検出された感情情報と記憶部83に記憶されたデータテーブル86に基づいて、設定を自動的に調整する。
FIG. 10 is a functional block diagram showing an example of the
上記のように構成された情報装置100A自体又は各種アプリの起動時、図7に示すステップS103において、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果のうち少なくとも一方に基づいて感情認識を行い、感情情報を検出する(ステップS103)。本実施形態では、モード切替制御部80は、対話モードとして情報表示モード中に一時的に会話モードに切り替える。演算処理部71は、この対話モードにおいて簡易的に情報装置100Aとユーザの対話を行う。感情認識部85は、対話時のユーザの音声や表情に基づいて感情認識を行う。感情認識を行った後、モード切替制御部80は、対話モードを終了し、情報表示モードに戻す。すなわち、ユーザの音声と表情との少なくとも一方に基づいて感情認識を行う。その他の動作については、図7に示す通りである。
When the
また、情報装置100A自体又は各種アプリの稼働中、図8に示すステップS203〜S205において、演算処理部71は、音声入力部30及び画像入力部90を用いて周囲の環境情報を検出する(ステップS203)。次に、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果のうち少なくとも一方に基づいて感情認識を行い、感情情報を検出する(ステップS204)。次に、演算処理部71は、感情認識部85で検出された感情情報に基づいて、ユーザの感情の変化、例えば感情レベルの上下を確認する(ステップS205)。すなわち、ユーザの音声と表情との少なくとも一方に基づいてユーザの感情の変化を確認する。その他の動作については、図8に示す通りである。
Further, while the
このように、本実施形態に係る情報装置100Aは、ユーザの声を入力可能な音声入力部30とユーザの顔画像を入力可能な画像入力部90との両方を備え、感情認識部85が、音声入力部30に入力されるユーザの声と画像入力部90に入力される顔画像とのうち少なくとも一方に基づいて、感情情報を検出する構成であってもよい。これにより、ユーザの感情をより高精度に認識し、より適正に使用環境とユーザの感情に応じた設定に調整することができる。
As described above, the
[変形例]
上記の実施形態では、情報装置100又は100Aは音声入力部30や画像入力部90を用いてユーザの感情情報を検出しているが、さらにユーザが表示部20上のタッチパネル入力部50をタッチするタイミングや強さ等からユーザの感情情報を検出してもよい。また、情報装置100又は100Aは、自身と連携する他のセンサ群も用いてユーザの感情情報を検出してもよい。例えば、情報装置100又は100Aは、自身に搭載されたジャイロスコープや慣性計測装置(IMU)等を用いて、ユーザが情報装置100又は100Aを感情的に激しく揺さぶっていること等を検出することで、ユーザの感情情報を検出してもよい。
[Modification example]
In the above embodiment, the
また、情報装置100及び100Aは、表示部20及びタッチパネル入力部50を備えていなくてよい。例えば、情報装置100及び100Aは、タッチパネル入力部50の代わりに、物理的なキーパッドやキーボード等の入力装置を使用してもよい。また、情報装置100及び100Aがコミュニケーション用ロボットである場合、表示部20に表示させる顔画像の代わりに、顔に相当する機能や身振りで感情を表現してもよい。
Further, the
また、図7に示すステップS106及び図8に示すステップS212において、演算処理部71は、表示部20の輝度、表示部20のコントラスト、音声レベル、音声トーン及び感情表現の5項目全ての設定処理を行うようにしているが、実際には特定の項目のみの設定処理を行うようにしてもよい。例えば、演算処理部71は、周囲の明るさの低下とユーザの感情レベルの低下とを検出した時に表示部20の輝度及びコントラストの設定処理を行い、周囲の騒音の増大とユーザの感情レベルの低下とを検出した時に音声レベル及び音声トーンの設定処理を行うようにしてもよい。
Further, in step S106 shown in FIG. 7 and step S212 shown in FIG. 8, the
以上説明したように、本発明に係る情報装置は、動作調整値に基づいて動作を行う動作部と、周囲の環境情報を検出する環境認識部と、ユーザの感情情報を検出する感情認識部と、環境認識部で検出した環境情報と、感情認識部で検出した感情情報とに基づいて、動作調整値を設定する設定調整部と、を備える。ここで、動作部は、上記の表示部20、音声出力部40及び制御部70に相当する。環境認識部は、上記の音声認識部73及び画像認識部91に相当する。感情認識部は、上記の感情認識部75又は感情認識部85に相当する。設定調整部は、上記の演算処理部71に相当する。動作調整値は、上記の表示部20の輝度、表示部20のコントラスト、音声出力部40の音声レベル、音声出力部40の音声トーンについての各設定値に相当する。
As described above, the information device according to the present invention includes an operation unit that performs an operation based on an operation adjustment value, an environment recognition unit that detects surrounding environment information, and an emotion recognition unit that detects user emotion information. , The setting adjustment unit for setting the operation adjustment value based on the environment information detected by the environment recognition unit and the emotion information detected by the emotion recognition unit is provided. Here, the operating unit corresponds to the
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、動作調整値に基づいて動作を行う動作部として、表示部20及び音声出力部40を例に挙げて説明したが、これに限定されない。動作部は、情報装置100の他の部分であってもよい。
The technical scope of the present invention is not limited to the above-described embodiment, and modifications can be made as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, the
また、例えば、上記実施形態では、環境情報と、感情情報と、動作調整値とを関連付けて記憶する記憶部83を有する構成を例に挙げて説明したが、これに限定されない。例えば、環境情報、感情情報及び動作調整値が例えば外部の記憶部に記憶される構成であり、情報装置100、100Aが当該外部の記憶部に通信等によってアクセスする構成としてもよい。
Further, for example, in the above embodiment, the configuration including the
NW…ネットワーク、10…筐体、20…表示部、30…音声入力部、40…音声出力部、50…タッチパネル入力部、60…通信部、70…制御部、71…演算処理部、72…表示制御部、73…音声認識部、74…音声合成部、75,85…感情認識部、75a, 85a…韻律的特徴量検出部、75b,85b…感情分析部、76…感情制御部、78…タイミング発生部、79…タイマ、80…モード切替制御部、82…顔画像発生部、83…記憶部、84…表情分析部、85c…総合分析部、86…データテーブル、90…画像入力部、91…画像認識部、100,100A…情報装置 NW ... network, 10 ... housing, 20 ... display unit, 30 ... voice input unit, 40 ... voice output unit, 50 ... touch panel input unit, 60 ... communication unit, 70 ... control unit, 71 ... arithmetic processing unit, 72 ... Display control unit, 73 ... voice recognition unit, 74 ... voice synthesis unit, 75, 85 ... emotion recognition unit, 75a, 85a ... rhyming feature amount detection unit, 75b, 85b ... emotion analysis unit, 76 ... emotion control unit, 78 ... Timing generation unit, 79 ... Timer, 80 ... Mode switching control unit, 82 ... Face image generation unit, 83 ... Storage unit, 84 ... Sentiment analysis unit, 85c ... Comprehensive analysis unit, 86 ... Data table, 90 ... Image input unit , 91 ... Image recognition unit, 100, 100A ... Information device
Claims (7)
周囲の環境情報を検出する環境認識部と、
ユーザの感情情報を検出する感情認識部と、
前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報とに基づいて、前記動作調整値を設定する設定調整部と、
を備える情報装置。 An operation unit that operates based on the operation adjustment value,
An environment recognition unit that detects surrounding environment information,
An emotion recognition unit that detects user's emotion information,
A setting adjustment unit that sets the operation adjustment value based on the environment information detected by the environment recognition unit and the emotion information detected by the emotion recognition unit.
An information device equipped with.
前記設定調整部は、起動時に、前記環境認識部で検出した前記環境情報と前記感情認識部で検出した前記感情情報とに基づいて、前記記憶部から前記動作調整値を取得して設定する、請求項1に記載の情報装置。 A storage unit that stores the environmental information detected by the environment recognition unit, the emotion information detected by the emotion recognition unit, and the operation adjustment value set by the setting adjustment unit in association with each other is further provided.
At startup, the setting adjustment unit acquires and sets the operation adjustment value from the storage unit based on the environmental information detected by the environment recognition unit and the emotion information detected by the emotion recognition unit. The information device according to claim 1.
前記設定調整部は、前記環境認識部で検出した前記感情の度合いが前回の設定時に検出した前記感情の度合いに比べて向上した場合に、今回の設定で得られる前記動作調整値を設定値とし、前記設定値とした前記動作調整値を前記感情情報と関連付けて第1設定履歴として前記記憶部に記憶する、請求項3に記載の情報装置。 The emotional information includes the degree of emotion of the user.
The setting adjustment unit sets the operation adjustment value obtained by the current setting when the degree of the emotion detected by the environment recognition unit is improved as compared with the degree of the emotion detected at the time of the previous setting. The information device according to claim 3, wherein the operation adjustment value set as the set value is associated with the emotion information and stored in the storage unit as a first setting history.
前記設定調整部は、前記環境認識部で検出した前記感情の度合いが前回の調整時に検出した前記感情の度合いに比べて低下した場合には、前記動作調整値を前記感情情報と関連付けて第2設定履歴として前記記憶部に記憶するとともに、前回の前記動作調整値を設定値とする、請求項3または4に記載の情報装置。 The emotional information includes the degree of emotion of the user.
When the degree of the emotion detected by the environment recognition unit is lower than the degree of the emotion detected at the time of the previous adjustment, the setting adjustment unit associates the motion adjustment value with the emotion information and second. The information device according to claim 3 or 4, which stores the setting history in the storage unit and sets the previous operation adjustment value as the set value.
周囲の環境情報を検出することと、
ユーザの感情情報を検出することと、
検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定することと
を含む自動設定方法。 Performing the operation of the operation part based on the operation adjustment value,
Detecting surrounding environment information and
Detecting user emotional information and
An automatic setting method including setting the operation adjustment value based on the detected environmental information and emotion information.
周囲の環境情報を検出する処理と、
ユーザの感情情報を検出する処理と、
検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定する処理と
をコンピュータに実行させる自動設定プログラム。 The process of performing the operation of the operation unit based on the operation adjustment value,
Processing to detect surrounding environment information and
Processing to detect user's emotional information and
An automatic setting program that causes a computer to execute a process of setting the operation adjustment value based on the detected environmental information and emotion information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133242A JP7263957B2 (en) | 2019-07-19 | 2019-07-19 | Information device, automatic setting method and automatic setting program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019133242A JP7263957B2 (en) | 2019-07-19 | 2019-07-19 | Information device, automatic setting method and automatic setting program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018551A true JP2021018551A (en) | 2021-02-15 |
JP7263957B2 JP7263957B2 (en) | 2023-04-25 |
Family
ID=74564294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133242A Active JP7263957B2 (en) | 2019-07-19 | 2019-07-19 | Information device, automatic setting method and automatic setting program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7263957B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7360756B1 (en) | 2022-04-15 | 2023-10-13 | 株式会社三鷹ホールディングス | Display device using magnetic fluid |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003299013A (en) * | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | Experience information reproduction apparatus |
JP2008062852A (en) * | 2006-09-08 | 2008-03-21 | Fujitsu Ten Ltd | Vehicle controller |
JP2012146216A (en) * | 2011-01-13 | 2012-08-02 | Nikon Corp | Electronic device and program for controlling the same |
WO2018021040A1 (en) * | 2016-07-27 | 2018-02-01 | ソニー株式会社 | Information processing system, recording medium, and information processing method |
WO2018084904A1 (en) * | 2016-11-01 | 2018-05-11 | Google Llc | Dynamic text-to-speech provisioning |
-
2019
- 2019-07-19 JP JP2019133242A patent/JP7263957B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003299013A (en) * | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | Experience information reproduction apparatus |
JP2008062852A (en) * | 2006-09-08 | 2008-03-21 | Fujitsu Ten Ltd | Vehicle controller |
JP2012146216A (en) * | 2011-01-13 | 2012-08-02 | Nikon Corp | Electronic device and program for controlling the same |
WO2018021040A1 (en) * | 2016-07-27 | 2018-02-01 | ソニー株式会社 | Information processing system, recording medium, and information processing method |
WO2018084904A1 (en) * | 2016-11-01 | 2018-05-11 | Google Llc | Dynamic text-to-speech provisioning |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7360756B1 (en) | 2022-04-15 | 2023-10-13 | 株式会社三鷹ホールディングス | Display device using magnetic fluid |
Also Published As
Publication number | Publication date |
---|---|
JP7263957B2 (en) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110275664B (en) | Apparatus, method and graphical user interface for providing audiovisual feedback | |
US8751971B2 (en) | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface | |
US10387570B2 (en) | Enhanced e-reader experience | |
US9570091B2 (en) | Music playing system and music playing method based on speech emotion recognition | |
CN103529934A (en) | Method and apparatus for processing multiple inputs | |
KR102193029B1 (en) | Display apparatus and method for performing videotelephony using the same | |
US11256463B2 (en) | Content prioritization for a display array | |
KR102134882B1 (en) | Method for controlling contents play and an electronic device thereof | |
CN105139848B (en) | Data transfer device and device | |
KR20220149570A (en) | Audio processing methods and electronic devices | |
CN112037756A (en) | Voice processing method, apparatus and medium | |
CN110989847A (en) | Information recommendation method and device, terminal equipment and storage medium | |
CN103353826B (en) | Display equipment and information processing method thereof | |
US20170287453A1 (en) | Musical score display control method, device and program | |
CN110109730B (en) | Apparatus, method and graphical user interface for providing audiovisual feedback | |
KR102580521B1 (en) | Electronic apparatus and method of adjusting sound volume thereof | |
JP7263957B2 (en) | Information device, automatic setting method and automatic setting program | |
KR20140111574A (en) | Apparatus and method for performing an action according to an audio command | |
CN111103983A (en) | AR musical instrument playing method and electronic equipment | |
KR20080089719A (en) | Mobile communication terminal and method of user interface setting the same | |
CN108600502B (en) | Electronic device, dialing method and related product | |
CN111338598A (en) | Message processing method and electronic equipment | |
US20170220317A1 (en) | Electronic apparatus and control program of electronic apparatus | |
US11991263B2 (en) | Notification delivery in a virtual space based on a user being in a flow state | |
KR102527892B1 (en) | Electronic device for providing predictive word and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220428 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7263957 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |