JP2021018551A - Information apparatus, automatic setting method, and automatic setting program - Google Patents

Information apparatus, automatic setting method, and automatic setting program Download PDF

Info

Publication number
JP2021018551A
JP2021018551A JP2019133242A JP2019133242A JP2021018551A JP 2021018551 A JP2021018551 A JP 2021018551A JP 2019133242 A JP2019133242 A JP 2019133242A JP 2019133242 A JP2019133242 A JP 2019133242A JP 2021018551 A JP2021018551 A JP 2021018551A
Authority
JP
Japan
Prior art keywords
unit
emotion
information
setting
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019133242A
Other languages
Japanese (ja)
Other versions
JP7263957B2 (en
Inventor
首藤 勝行
Katsuyuki Shudo
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019133242A priority Critical patent/JP7263957B2/en
Publication of JP2021018551A publication Critical patent/JP2021018551A/en
Application granted granted Critical
Publication of JP7263957B2 publication Critical patent/JP7263957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To automatically adjust settings of an information apparatus in accordance with an environment of use and emotion of a user.SOLUTION: Information apparatuses 100, 100A includes: operation units 20, 40, 70 which perform operation on the basis of operation adjustment values; environment recognition units 73, 91 which detect surrounding environment information; emotion recognition units 75, 85 which detect emotion information of a user; and a setting adjustment unit 71 which sets the operation adjustment values on the basis of the environment information detected by the environment recognition units 73, 91 and the emotion information detected by the emotion recognition units 75, 85. The apparatus also includes a storage unit 83 which stores the emotion information detected by the emotion recognition units 75, 85 and the operation adjustment values set by the setting adjustment unit 71 in association with each other for each environment information detected by the environment recognition units 73, 91. The setting adjustment unit 71 acquires, at start-up, the operation adjustment values from the storage units 83 for setting, on the basis of the environment information detected by the environment recognition units 73, 91 and the emotion information detected by the emotion recognition units 75, 85.SELECTED DRAWING: Figure 2

Description

本発明は、情報装置、自動設定方法及び自動設定プログラムに関する。 The present invention relates to an information device, an automatic setting method, and an automatic setting program.

人間の多様な感情を検出し、この感情に応じて、コンピュータ側から情報を出力する対話装置や、人間の音声を分析してその人間の感情を表示する感情分析装置が開示されている(特許文献1、2参照)。また、近年は、人間の感情を認識して、会話の内容を変えるロボットなどが提案されている。 A dialogue device that detects various human emotions and outputs information from the computer side in response to these emotions, and a sentiment analyzer that analyzes human voice and displays the human emotions are disclosed (patented). Refer to Documents 1 and 2). In recent years, robots that recognize human emotions and change the content of conversation have been proposed.

特開平08−339446号公報Japanese Unexamined Patent Publication No. 08-339446 特開2004−317822号公報Japanese Unexamined Patent Publication No. 2004-317822

従来、コンピュータ等の情報装置の設定の変更は、ユーザ自身が行っていた。しかし、情報装置の設定の変更には、ある程度の知識が必要とされるため、情報装置の設定にあまり詳しくないユーザは、自身が望む設定にうまく調整できない。また、より好ましい設定があったとしても、ユーザがそれに気付かず又は変更操作を面倒だと考えて、最初にユーザ自身が行った設定のまま使用し続けることがある。また、情報装置の使用環境とその時のユーザの気分や感情等によっても、ユーザにとって最適な設定は異なる。しかし、情報装置の設定が、情報装置の個々の使用環境におけるユーザの感情ごとに自動的に変化することはなかった。そのため、情報装置の設定が、ユーザ自身の操作によらず、使用環境とユーザの感情に応じて、ユーザが望む設定に自動的に調整される技術が望まれている。 Conventionally, the user himself has changed the settings of information devices such as computers. However, since changing the settings of the information device requires some knowledge, a user who is not very familiar with the settings of the information device cannot adjust the settings to his / her desired settings. Further, even if there is a more preferable setting, the user may not notice it or consider the change operation to be troublesome, and may continue to use the setting that the user originally made. In addition, the optimum setting for the user differs depending on the usage environment of the information device and the mood and emotion of the user at that time. However, the settings of the information device did not automatically change according to the user's emotions in the individual usage environment of the information device. Therefore, there is a demand for a technique in which the settings of the information device are automatically adjusted to the settings desired by the user according to the usage environment and the emotions of the user, regardless of the user's own operation.

本発明は、上記に鑑みてなされたものであり、使用環境とユーザの感情に応じて設定を自動的に調整する情報装置、自動設定方法及び自動設定プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an information device, an automatic setting method, and an automatic setting program that automatically adjust settings according to a usage environment and user's emotions.

本発明に係る情報装置は、動作調整値に基づいて動作を行う動作部と、周囲の環境情報を検出する環境認識部と、ユーザの感情情報を検出する感情認識部と、前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報とに基づいて、前記動作調整値を設定する設定調整部と、を備える。 The information device according to the present invention includes an operation unit that performs an operation based on an operation adjustment value, an environment recognition unit that detects surrounding environment information, an emotion recognition unit that detects user emotion information, and the environment recognition unit. It includes a setting adjustment unit that sets the operation adjustment value based on the detected environmental information and the emotion information detected by the emotion recognition unit.

本発明に係る自動設定方法は、動作調整値に基づいて動作部の動作を行うことと、周囲の環境情報を検出することと、ユーザの感情情報を検出することと、検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定することとを含む。 In the automatic setting method according to the present invention, the operation of the operation unit is performed based on the operation adjustment value, the surrounding environment information is detected, the user's emotion information is detected, and the detected environment information is used. It includes setting the motion adjustment value based on the emotion information.

本発明に係る自動設定プログラムは、動作調整値に基づいて動作部の動作を行う処理と、周囲の環境情報を検出する処理と、ユーザの感情情報を検出する処理と、検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定する処理とをコンピュータに実行させる。 The automatic setting program according to the present invention includes a process of performing an operation of an operation unit based on an operation adjustment value, a process of detecting surrounding environment information, a process of detecting user emotion information, and the detected environment information. The computer is made to execute the process of setting the operation adjustment value based on the emotion information.

本発明によれば、使用環境とユーザの感情に応じて情報装置の設定を自動的に調整することができる。 According to the present invention, the setting of the information device can be automatically adjusted according to the usage environment and the emotion of the user.

図1は、本発明の第1実施形態に係る情報装置の一例を示す模式図である。FIG. 1 is a schematic view showing an example of an information device according to the first embodiment of the present invention. 図2は、上記情報装置の制御部の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an example of the control unit of the information device. 図3は、上記情報装置の感情認識部の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the emotion recognition unit of the information device. 図4は、上記情報装置の表示部に顔画像が表示される場合の一例を示す図である。FIG. 4 is a diagram showing an example of a case where a face image is displayed on the display unit of the information device. 図5は、上記情報装置の表示部に顔画像が表示される場合の他の例を示す図である。FIG. 5 is a diagram showing another example in which a face image is displayed on the display unit of the information device. 図6は、上記情報装置の記憶部に記憶される感情情報のデータと設定に関するデータとが関連付けられたデータテーブルの一例を示す図である。FIG. 6 is a diagram showing an example of a data table in which emotion information data stored in the storage unit of the information device and data related to settings are associated with each other. 図7は、上記情報装置自体又は各種アプリの起動時の動作の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the operation at the time of starting the information device itself or various applications. 図8は、上記情報装置自体又は各種アプリの起動後の動作の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the operation after the activation of the information device itself or various applications. 図9は、本発明の第2実施形態に係る情報装置の一例を示す機能ブロック図である。FIG. 9 is a functional block diagram showing an example of the information device according to the second embodiment of the present invention. 図10は、上記第2実施形態に係る情報装置の感情認識部の一例を示す機能ブロック図である。FIG. 10 is a functional block diagram showing an example of the emotion recognition unit of the information device according to the second embodiment.

以下、本発明の実施形態を図面に基づいて説明する。なお、下記実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments. In addition, the components in the following embodiments include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

[第1実施形態]
図1は、本発明の第1実施形態に係る情報装置の一例を示す模式図である。図1に示す情報装置100は、筐体10と、表示部20と、音声入力部30と、音声出力部40と、タッチパネル入力部50と、通信部60(通信部のうちの接続線)と、制御部70と、画像入力部90とを備える。情報装置100としては、例えばスマートフォン、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータ、ナビゲーション装置、電子書籍リーダ、腕時計型ウェアラブルデバイス、音響・映像機器、家庭用ゲーム機、携帯型ゲーム機、コミュニケーション用ロボット等、各種の通信可能な電子機器が挙げられる。
[First Embodiment]
FIG. 1 is a schematic view showing an example of an information device according to the first embodiment of the present invention. The information device 100 shown in FIG. 1 includes a housing 10, a display unit 20, a voice input unit 30, a voice output unit 40, a touch panel input unit 50, and a communication unit 60 (a connection line in the communication unit). A control unit 70 and an image input unit 90 are provided. The information device 100 includes, for example, a smartphone, a tablet computer, a notebook computer, a desktop computer, a navigation device, an electronic book reader, a wristwatch-type wearable device, an audio / visual device, a home-use game machine, a portable game machine, and a communication device. Examples include various communicable electronic devices such as robots.

筐体10は、表示部20、音声入力部30、音声出力部40、タッチパネル入力部50、通信部60、制御部70及び画像入力部90の各部を保持する。表示部20は、画像、映像等の情報を表示可能であり、例えば液晶ディスプレイ、有機ELディスプレイ等の表示パネルにより構成される。音声入力部30は、例えばマイク等により構成される。音声出力部40は、例えばスピーカ等により構成される。タッチパネル入力部50は、表示部20上に配置され、ユーザが表示部20に表示された情報に対する入力や選択等の操作を行う場合に使用する。例えば、視聴可能な映画の候補が複数ある場合に、情報装置100が映画の候補を表示部20に表示し、ユーザが表示部20上のタッチパネル入力部50をタッチすることにより所望の映画を選択することも可能である。通信部60は、ネットワークNWとの間で情報の送信及び受信を行う。ネットワークNWとしては、インターネット、イントラネット等の各種のネットワーク等が挙げられる。画像入力部90は、例えばカメラ等により構成される。画像入力部90は、ビデオカメラとしても使用可能である。ここで、音声入力部30、音声出力部40及び画像入力部90は、上記の通り筐体10に保持されてもよいし、筐体10とは別個に設けられてもよい。例えば、音声入力部30、音声出力部40及び画像入力部90は、情報装置100と連携したワイヤレスのマイク、スピーカ又はヘッドホン、及びカメラ等でもよい。 The housing 10 holds each unit of the display unit 20, the voice input unit 30, the voice output unit 40, the touch panel input unit 50, the communication unit 60, the control unit 70, and the image input unit 90. The display unit 20 can display information such as an image and a video, and is composed of a display panel such as a liquid crystal display or an organic EL display. The voice input unit 30 is composed of, for example, a microphone or the like. The audio output unit 40 is composed of, for example, a speaker or the like. The touch panel input unit 50 is arranged on the display unit 20 and is used when the user performs an operation such as inputting or selecting information displayed on the display unit 20. For example, when there are a plurality of movie candidates that can be viewed, the information device 100 displays the movie candidates on the display unit 20, and the user selects a desired movie by touching the touch panel input unit 50 on the display unit 20. It is also possible to do. The communication unit 60 transmits and receives information to and from the network NW. Examples of the network NW include various networks such as the Internet and an intranet. The image input unit 90 is composed of, for example, a camera or the like. The image input unit 90 can also be used as a video camera. Here, the audio input unit 30, the audio output unit 40, and the image input unit 90 may be held in the housing 10 as described above, or may be provided separately from the housing 10. For example, the voice input unit 30, the voice output unit 40, and the image input unit 90 may be a wireless microphone, a speaker, headphones, a camera, or the like linked with the information device 100.

図2は、情報装置100の制御部70の一例を示す機能ブロック図である。制御部70は、CPU、ROM、RAM等を用いて構成され、情報装置100の全体の制御を行う。 FIG. 2 is a functional block diagram showing an example of the control unit 70 of the information device 100. The control unit 70 is configured by using a CPU, ROM, RAM, and the like, and controls the entire information device 100.

制御部70は、演算処理部71と、表示制御部72と、音声認識部73と、音声合成部74と、感情認識部75と、感情制御部76と、タイミング発生部78と、タイマ79と、モード切替制御部80と、顔画像発生部82と、記憶部83と、画像認識部91とを有する。 The control unit 70 includes an arithmetic processing unit 71, a display control unit 72, a voice recognition unit 73, a voice synthesis unit 74, an emotion recognition unit 75, an emotion control unit 76, a timing generation unit 78, and a timer 79. , A mode switching control unit 80, a face image generation unit 82, a storage unit 83, and an image recognition unit 91.

演算処理部71は、各種の演算を行う。演算処理部71は、後述するように、感情認識部75の検出結果に応じた情報装置100の動作調整値(設定値)を記憶部83から取得して設定する設定調整部としての機能を有する。表示制御部72は、表示部20の表示動作を制御する。音声認識部73は、音声入力部30から入力された音声データを認識し、所定の言葉を判別する。音声認識部73は、例えば音声認識ソフトウェア、音声認識用辞書データ等を有する。音声合成部74は、音声合成ソフトウェア、音声データ等を有する。音声合成部74は、例えば人間が話す声を合成可能である。 The arithmetic processing unit 71 performs various arithmetic operations. As will be described later, the arithmetic processing unit 71 has a function as a setting adjustment unit that acquires and sets an operation adjustment value (setting value) of the information device 100 according to the detection result of the emotion recognition unit 75 from the storage unit 83. .. The display control unit 72 controls the display operation of the display unit 20. The voice recognition unit 73 recognizes the voice data input from the voice input unit 30 and determines a predetermined word. The voice recognition unit 73 has, for example, voice recognition software, voice recognition dictionary data, and the like. The voice synthesis unit 74 has voice synthesis software, voice data, and the like. The voice synthesis unit 74 can synthesize, for example, a voice spoken by a human.

感情認識部75は、音声入力部30から入力された音声により、感情情報を検出する。図3は、感情認識部75の一例を示す機能ブロック図である。図3に示すように、感情認識部75は、韻律的特徴量検出部75aと、感情分析部75bとを有する。韻律的特徴量検出部75aは、音声入力部30に入力される音声信号から韻律的特徴量を検出する。感情分析部75bは、検出された韻律的特徴量に基づいて、喜怒哀楽、驚き等の度合いを数値で出力する。本実施形態において、感情分析部75bは、喜び、悲しみ、及び怒りの3種類を検出するものとする。つまり、感情認識部75において検出される感情情報は、例えば、感情の種類(喜び、悲しみ、怒り)と、感情の種類ごとの感情の度合いの値と、を含む。感情の具体的な検出方法については、公知の技術を適宜用いることができる。 The emotion recognition unit 75 detects emotion information from the voice input from the voice input unit 30. FIG. 3 is a functional block diagram showing an example of the emotion recognition unit 75. As shown in FIG. 3, the emotion recognition unit 75 includes a prosodic feature detection unit 75a and an emotion analysis unit 75b. The prosodic feature detection unit 75a detects the prosodic feature from the voice signal input to the voice input unit 30. The sentiment analysis unit 75b numerically outputs the degree of emotions, emotions, surprises, etc. based on the detected prosodic features. In the present embodiment, the sentiment analysis unit 75b shall detect three types of joy, sadness, and anger. That is, the emotional information detected by the emotion recognition unit 75 includes, for example, the type of emotion (joy, sadness, anger) and the value of the degree of emotion for each type of emotion. As a specific method for detecting emotions, known techniques can be appropriately used.

感情制御部76は、感情認識部75の検出結果に基づいて、所定の感情状態を形成する。例えば、感情制御部76は、会話モード時に、音声合成部74が合成する音声の抑揚や内容、顔画像発生部82が表示部20に表示させる顔画像の表情等を設定する。 The emotion control unit 76 forms a predetermined emotional state based on the detection result of the emotion recognition unit 75. For example, the emotion control unit 76 sets the intonation and content of the voice synthesized by the voice synthesis unit 74, the facial expression of the face image displayed on the display unit 20 by the face image generation unit 82, and the like in the conversation mode.

タイミング発生部78は、例えばタイマ79を用いて時間を計測する。タイミング発生部78は、情報装置100の各種アプリケーション(以下、アプリ)の処理や画面の切り替わりのタイミング及び/又は再生中のコンテンツの切れ目のタイミング等を検出する。 The timing generation unit 78 measures the time using, for example, a timer 79. The timing generation unit 78 detects the processing of various applications (hereinafter, applications) of the information device 100, the timing of screen switching, and / or the timing of breaks in the content being played.

モード切替制御部80は、ユーザとの間で情報のやり取りを行うための情報を表示部20及び音声出力部40の少なくとも一方に出力する第1モードと、ネットワークからの情報を表示部20及び音声出力部40の少なくとも一方に出力する第2モードとを切り替えて行う。第1モードは、例えばユーザが情報装置100に対して話しかけを行い、情報装置100がユーザの話しかけに対して返答する会話モードを含む。第2モードは、ネットワークNWを介して取得される情報を表示する情報表示モードを含む。顔画像発生部82は、会話モード時に表示部20に顔画像を表示させる。 The mode switching control unit 80 has a first mode that outputs information for exchanging information with the user to at least one of the display unit 20 and the voice output unit 40, and the mode switching control unit 80 outputs information from the network to the display unit 20 and the voice. This is performed by switching between the second mode of outputting to at least one of the output units 40. The first mode includes, for example, a conversation mode in which the user talks to the information device 100 and the information device 100 responds to the user's talk. The second mode includes an information display mode for displaying information acquired via the network NW. The face image generation unit 82 causes the display unit 20 to display the face image in the conversation mode.

図4及び図5は、会話モード時に情報装置100の表示部20に顔画像が表示される場合の例を示す図である。図4に示すように、表示部20に目と口のみが表示されてもよい。この場合、目と口を強調することができる。また、図5に示すように、表示部20に顔の輪郭を含めた状態で表示されてもよい。この場合、会話モードが実際の会話の状態に近い感覚となり、感情移入しやすい。なお、顔画像の表示態様は、上記の2種類に限定されず、他の態様であってもよい。会話モードでは、このような顔画像の表示態様を切り替えることにより、使いやすく、楽しい情報装置100を実現できる。 4 and 5 are diagrams showing an example in which a face image is displayed on the display unit 20 of the information device 100 in the conversation mode. As shown in FIG. 4, only the eyes and the mouth may be displayed on the display unit 20. In this case, the eyes and mouth can be emphasized. Further, as shown in FIG. 5, the display unit 20 may be displayed with the outline of the face included. In this case, the conversation mode feels close to the actual conversation state, and it is easy to embrace emotions. The display mode of the face image is not limited to the above two types, and may be another mode. In the conversation mode, the information device 100 that is easy to use and enjoyable can be realized by switching the display mode of such a face image.

記憶部83は、各種の情報を記憶する。図6は、記憶部83に記憶される感情情報のデータと設定に関するデータとが関連付けられたデータテーブル86の一例を示す図である。図6に示すように、本実施形態では、データテーブル86は、例えば映画、スポーツ、会話など、各種アプリや表示されるコンテンツの内容などにより、個別の配列(例えば、レコード及びフィールド)を持っている。感情情報のデータ及び設定に関するデータは、情報装置100の起動時に、制御部70のRAMに読み出され、動作中に変更され、プログラム終了時にストレージに書き戻される。それぞれのRAM上のデータの配置は任意であるが、配列として管理される。 The storage unit 83 stores various types of information. FIG. 6 is a diagram showing an example of a data table 86 in which the emotion information data stored in the storage unit 83 and the data related to the setting are associated with each other. As shown in FIG. 6, in the present embodiment, the data table 86 has individual arrays (for example, records and fields) depending on various applications such as movies, sports, conversations, and the contents of displayed contents. There is. The emotion information data and the data related to the setting are read into the RAM of the control unit 70 when the information device 100 is started, changed during the operation, and written back to the storage at the end of the program. The arrangement of data on each RAM is arbitrary, but it is managed as an array.

本実施形態では、情報表示モード時において、映画を再生する時に使用されるデータを例に説明する。記憶部83は、映画を再生する時の調整項目として、表示部20の輝度、表示部20のコントラスト、音声出力部40の音声レベル、音声出力部40の音声トーン及び感情表現に関するデータを記憶する。 In the present embodiment, the data used when playing a movie in the information display mode will be described as an example. The storage unit 83 stores data related to the brightness of the display unit 20, the contrast of the display unit 20, the audio level of the audio output unit 40, the audio tone of the audio output unit 40, and emotional expression as adjustment items when playing a movie. ..

本実施形態では、周囲の環境状態を測定・検出し、その時のユーザの感情を認識する。その環境におけるユーザの感情が向上する(例えば、楽しい気持ちが高くなる)設定を検索しながらより良い設定に変更し、その設定値と設定履歴を記憶する。ユーザの感情の高揚を大きく喜怒哀楽に分類し、各種アプリや表示されるコンテンツの種類によって、高揚させる感情の種類を変えても良い。例えば、情報装置100は、表示部20に映画を表示する場合、楽しい映画であればユーザの楽しい気持ちが大きくなるような設定とし、悲しい映画であればユーザの悲しい気持ちが大きくなる設定とする。このように、視聴する映画の種類や内容等によってもユーザの感情は変化するため、記憶部83は、データテーブル86において、ユーザが視聴する映画ごとに感情情報のデータと設定に関するデータとを記憶する。 In the present embodiment, the surrounding environmental state is measured and detected, and the emotion of the user at that time is recognized. While searching for a setting that improves the user's emotions in the environment (for example, makes the user feel more enjoyable), change the setting to a better setting, and store the setting value and the setting history. The emotional uplifting of the user may be broadly classified into emotions and emotions, and the type of emotional uplifting may be changed depending on the types of various applications and displayed contents. For example, when displaying a movie on the display unit 20, the information device 100 is set so that the user feels more happy if the movie is fun, and the user feels more sad if the movie is sad. As described above, since the user's emotion changes depending on the type and content of the movie to be watched, the storage unit 83 stores the emotion information data and the setting data for each movie to be watched by the user in the data table 86. To do.

輝度の場合、周囲の明るさをレベル1〜5の5段階に分けている。周囲の明るさは、画像入力部90の入力のレベルを読み取ることで得られる。また、映像信号のAGC(自動利得制御)が動作している場合には、その制御信号のレベルが周囲の明るさを示すことになる。そして、レベルごとに感情状態(検出感情)のパラメータを有する。図6では、レベル1〜5の各々において、感情状態のパラメータとしてa〜eの5つの値を示している。本実施形態では、感情状態のパラメータは、「楽しい」、「悲しい」又は「怒り」の度合いを示しており、ユーザの気分が良いか良くないかを示している。また、感情状態のパラメータごとに設定値が割り当てられている。図6では、感情状態のパラメータa〜eに対して、設定値としてA〜Eの5つの値が割り当てられている。また、過去に感情が向上した時の輝度の設定値が、設定履歴1として記憶されている。初期状態では設定履歴1として記憶されている値が設定値として選択される。設定履歴2については後段で説明する。 In the case of brightness, the ambient brightness is divided into 5 levels 1 to 5. The ambient brightness is obtained by reading the input level of the image input unit 90. Further, when the AGC (automatic gain control) of the video signal is operating, the level of the control signal indicates the brightness of the surroundings. Then, each level has a parameter of emotional state (detected emotion). In FIG. 6, five values a to e are shown as parameters of the emotional state at each of the levels 1 to 5. In the present embodiment, the emotional state parameter indicates the degree of "fun", "sad" or "anger", and indicates whether the user feels good or bad. In addition, set values are assigned to each emotional state parameter. In FIG. 6, five values A to E are assigned as set values to the emotional state parameters a to e. Further, the set value of the brightness when the emotion is improved in the past is stored as the setting history 1. In the initial state, the value stored as the setting history 1 is selected as the setting value. The setting history 2 will be described later.

コントラストの場合、輝度の場合と同様、周囲の明るさをレベル1〜5の5段階に分けている。他の構成については、輝度の場合と一緒である。音声レベル及び音声トーンの場合、周囲の騒音をレベル1〜5の5段階に分けている。他の構成については、輝度の場合と一緒である。感情表現の場合、環境パラメータに依存せず、感情認識部75において検出された感情情報に対応する設定値を保存している。 In the case of contrast, as in the case of brightness, the ambient brightness is divided into five levels 1 to 5. The other configurations are the same as for the luminance case. In the case of voice level and voice tone, ambient noise is divided into 5 levels 1 to 5. The other configurations are the same as for the luminance case. In the case of emotional expression, the set value corresponding to the emotional information detected by the emotional recognition unit 75 is stored without depending on the environmental parameters.

画像認識部91は、画像入力部90から入力された画像データを認識し、画像や動画から特徴をつかみ、対象物を識別する。画像認識部91は、例えば画像認識ソフトウェア、画像認識用辞書データ等を有する。 The image recognition unit 91 recognizes the image data input from the image input unit 90, grasps features from the image or moving image, and identifies the object. The image recognition unit 91 has, for example, image recognition software, image recognition dictionary data, and the like.

次に、上記のように構成された情報装置100の動作について説明する。図7は、情報装置100自体又は各種アプリの起動時の動作の一例を示すフローチャートである。本実施形態では、映画の再生用のアプリの起動時の動作を例に説明する。図7に示すように、演算処理部71は、ユーザが表示部20に表示された映画の再生用のアプリを選択した時に当該アプリを起動する(ステップS101)。 Next, the operation of the information device 100 configured as described above will be described. FIG. 7 is a flowchart showing an example of the operation at the time of starting the information device 100 itself or various applications. In the present embodiment, the operation at the time of starting the application for playing a movie will be described as an example. As shown in FIG. 7, the arithmetic processing unit 71 activates the application when the user selects an application for playing a movie displayed on the display unit 20 (step S101).

次に、音声認識部73及び画像認識部91は、音声入力部30及び画像入力部90を用いて周囲の環境情報を検出する(ステップS102)。例えば、画像認識部91は、画像入力部90を用いて周囲の明るさを測定する。画像認識部91は、画像認識により画像の中央にユーザを認識した場合には、ユーザを除いた周囲の明るさを測定する。また、音声認識部73は、音声入力部30を用いて周囲の騒音を測定する。このとき、音声認識部73は、ユーザと音声対話中ではない状態でのマイク入力レベルを測定する。 Next, the voice recognition unit 73 and the image recognition unit 91 detect the surrounding environment information by using the voice input unit 30 and the image input unit 90 (step S102). For example, the image recognition unit 91 measures the ambient brightness using the image input unit 90. When the image recognition unit 91 recognizes the user in the center of the image by image recognition, the image recognition unit 91 measures the brightness of the surroundings excluding the user. Further, the voice recognition unit 73 measures the ambient noise using the voice input unit 30. At this time, the voice recognition unit 73 measures the microphone input level when the user is not in a voice dialogue.

次に、感情認識部75は、音声入力部30に入力される音声信号に基づいて感情認識を行い、感情情報を検出する(ステップS103)。本実施形態では、モード切替制御部80は、対話モードとして情報表示モード中に一時的に会話モードに切り替える。演算処理部71は、この対話モードにおいて簡易的にユーザとの対話を行う。感情認識部75は、この対話時のユーザの音声に基づいて感情認識を行う。感情認識を行った後、モード切替制御部80は、対話モードを終了し、情報表示モードに戻す。ここで、環境情報と感情情報の検出を完了する。 Next, the emotion recognition unit 75 performs emotion recognition based on the voice signal input to the voice input unit 30 and detects emotion information (step S103). In the present embodiment, the mode switching control unit 80 temporarily switches to the conversation mode during the information display mode as the dialogue mode. The arithmetic processing unit 71 simply interacts with the user in this interactive mode. The emotion recognition unit 75 performs emotion recognition based on the user's voice at the time of this dialogue. After performing emotion recognition, the mode switching control unit 80 ends the interactive mode and returns to the information display mode. At this point, the detection of environmental information and emotional information is completed.

次に、演算処理部71は、環境情報と感情情報に基づいて各種設定の調整を行う(ステップS104)。具体的には、演算処理部71は、周囲の明るさとユーザの感情状態(検出感情)を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。例えば、演算処理部71は、表示部20の輝度について、周囲の明るさがレベル2であり、その時の感情状態(検出感情)のパラメータがcであったとすると、データテーブル86の中からパラメータcに対応する設定履歴1として記憶されている値c1を設定値とする。ここで、演算処理部71は、記憶部83に記憶されたデータテーブル86の中に、設定履歴1が存在しない場合には、表示部20の輝度の中央値を設定値とする。 Next, the arithmetic processing unit 71 adjusts various settings based on the environmental information and the emotion information (step S104). Specifically, the arithmetic processing unit 71 acquires the most appropriate set value from the data table 86 stored in the storage unit 83 based on the ambient brightness and the user's emotional state (detected emotion). And set. For example, if the ambient brightness of the display unit 20 is level 2 and the emotional state (detected emotion) parameter is c, the arithmetic processing unit 71 has a parameter c from the data table 86. The value c1 stored as the setting history 1 corresponding to is set as the setting value. Here, when the setting history 1 does not exist in the data table 86 stored in the storage unit 83, the arithmetic processing unit 71 sets the median value of the brightness of the display unit 20 as the set value.

演算処理部71は、表示部20のコントラストについても上記表示部20の輝度と同様に設定する。また、演算処理部71は、音声出力部40の音声レベル及び音声出力部40の音声トーンについては周囲の騒音レベルとユーザの感情状態を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。また、感情表現は、会話モードの時に、表示部20に表示する顔画像の感情表現をどのように設定するか決めるものである。感情表現については、ユーザの感情状態(検出感情)のみに基づいて設定する。演算処理部71は、ユーザの感情状態を基に、記憶部83に記憶されたデータテーブル86の中から、最も適当であった感情表現の設定値を取得して感情制御部76に通知する。感情制御部76は、演算処理部71から通知された感情表現の設定値に基づいて、音声合成部74が合成する音声や、表示部20に表示する顔画像の感情表現を、ユーザが明るい気持ちの時には明るく対応し、悲しい気持ちの時には静かな対応をするように設定する。演算処理部71は、データテーブル86においてこれらの設定値を更新する(ステップS105)。 The arithmetic processing unit 71 sets the contrast of the display unit 20 in the same manner as the brightness of the display unit 20. Further, the arithmetic processing unit 71 describes the voice level of the voice output unit 40 and the voice tone of the voice output unit 40 in the data table 86 stored in the storage unit 83 based on the ambient noise level and the emotional state of the user. From, obtain and set the most appropriate setting value. Further, the emotional expression determines how to set the emotional expression of the face image displayed on the display unit 20 in the conversation mode. The emotional expression is set based only on the user's emotional state (detected emotion). Based on the emotional state of the user, the arithmetic processing unit 71 acquires the most appropriate emotional expression setting value from the data table 86 stored in the storage unit 83 and notifies the emotion control unit 76. The emotion control unit 76 makes the user feel cheerful about the voice synthesized by the voice synthesis unit 74 and the emotional expression of the face image displayed on the display unit 20 based on the set value of the emotion expression notified from the arithmetic processing unit 71. Set to respond brightly when you feel sad, and respond quietly when you feel sad. The arithmetic processing unit 71 updates these set values in the data table 86 (step S105).

最後に、演算処理部71は、表示部20の輝度、表示部20のコントラスト、音声レベル、音声トーン及び感情表現の5項目全ての設定処理が完了したかを確認する(ステップS106)。演算処理部71は、5項目全ての設定処理が未完了である場合(ステップS106でNo)、未完了の残りの項目の設定処理を行う(ステップS104に戻る)。演算処理部71は、5項目全ての設定処理が完了した場合(ステップS106でYes)、一連の処理を終了する。 Finally, the arithmetic processing unit 71 confirms whether the setting processing of all five items of the brightness of the display unit 20, the contrast of the display unit 20, the voice level, the voice tone, and the emotional expression is completed (step S106). When the setting process of all five items is incomplete (No in step S106), the arithmetic processing unit 71 performs the setting process of the remaining unfinished items (returns to step S104). When the setting processing of all five items is completed (Yes in step S106), the arithmetic processing unit 71 ends a series of processing.

図8は、情報装置100自体又は各種アプリの起動後(稼働中)の動作の一例を示すフローチャートである。図7に示す情報装置100自体又は各種アプリの起動時には、演算処理部71は、記憶部83に記憶されたデータテーブル86の中から、最も適当であった設定値を取得して設定する。その後、図8に示す情報装置100自体又は各種アプリの稼働中には、演算処理部71は、所定のタイミングで試験的に設定を微小量変化させてみて、微小量変化させた設定に対してユーザの感情がどのように変化したかを分析し、その分析結果に応じて設定の調整とその時の設定値の保存を行う。 FIG. 8 is a flowchart showing an example of the operation after the information device 100 itself or various applications are started (during operation). When the information device 100 itself or various applications shown in FIG. 7 is started, the arithmetic processing unit 71 acquires and sets the most appropriate setting value from the data table 86 stored in the storage unit 83. After that, while the information device 100 itself or various applications shown in FIG. 8 is in operation, the arithmetic processing unit 71 tries to change the setting by a minute amount on a trial basis at a predetermined timing, and the setting is changed by a minute amount. It analyzes how the user's emotions have changed, adjusts the settings according to the analysis results, and saves the setting values at that time.

本実施形態では、映画の再生用のアプリの稼働中の動作を例に説明する。図8に示すように、タイミング発生部78は、稼働中のアプリや表示されるコンテンツについて、タイミングの検出を行う(ステップS201)。タイミング発生部78は、例えばアプリの処理や画面の切り替わりのタイミング、映画の再生開始/終了のタイミング、映画の再生中にポーズ(中断)や早送り/早戻し等の操作が入ったタイミング等を検出する。これらの検出処理については、アプリのプログラムや情報装置100のOS(オペレーティングシステム)にタイミング検出用プログラムを組み込んでおくことで実施可能である。 In the present embodiment, the operation of the application for playing a movie during operation will be described as an example. As shown in FIG. 8, the timing generation unit 78 detects the timing of the running application and the displayed content (step S201). The timing generation unit 78 detects, for example, the timing of application processing and screen switching, the timing of movie playback start / end, the timing of pause (interruption), fast forward / rewind, and other operations during movie playback. To do. These detection processes can be performed by incorporating a timing detection program into the program of the application or the OS (operating system) of the information device 100.

次に、演算処理部71は、タイミング発生部78が検出したタイミングにおいて、設定を調整して現在の設定から微小量変化させる(ステップS202)。例えば、演算処理部71は、上記5項目の所定のパラメータを現在の設定値より1段階大きい値又は小さい値に設定する。次に、演算処理部71は、音声入力部30や画像入力部90を用いて周囲の環境情報を検出する(ステップS203)。次に、感情認識部75は、音声入力部30に入力される音声信号に基づいて感情認識を行い、感情情報を検出する(ステップS204)。次に、演算処理部71は、検出された感情情報に基づいて、感情レベルが向上したか否かを判定する(ステップS205)。 Next, the arithmetic processing unit 71 adjusts the setting at the timing detected by the timing generation unit 78 to change the setting by a minute amount from the current setting (step S202). For example, the arithmetic processing unit 71 sets the predetermined parameters of the above five items to a value one step larger or smaller than the current set value. Next, the arithmetic processing unit 71 detects surrounding environmental information using the voice input unit 30 and the image input unit 90 (step S203). Next, the emotion recognition unit 75 performs emotion recognition based on the voice signal input to the voice input unit 30 and detects emotion information (step S204). Next, the arithmetic processing unit 71 determines whether or not the emotion level has improved based on the detected emotion information (step S205).

演算処理部71は、感情レベルが向上したと判定した場合(ステップS205でYes)には、その時の設定値(今回の設定値)をそのまま正式に採用して、データテーブル86において設定値を今回の設定値に更新する(ステップS206)。また、演算処理部71は、データテーブル86において「設定履歴1」を今回の設定値に更新する(ステップS207)。すなわち、演算処理部71は、上記5項目について、感情レベルが上がった場合にはその時の設定値をデータテーブル86の設定値と「設定履歴1」に書き込む。次にステップS201に戻り、感情レベルが向上しなくなるまで(ステップS205でNoとなるまで)、ステップS201からステップS207を繰り返す。この時、設定値の調整方向(設定値を大きい値にするか小さい値にするか)は同一方向とする。 When the arithmetic processing unit 71 determines that the emotional level has improved (Yes in step S205), the arithmetic processing unit 71 officially adopts the set value (this set value) at that time as it is, and sets the set value in the data table 86 this time. Update to the set value of (step S206). Further, the arithmetic processing unit 71 updates the “setting history 1” in the data table 86 to the current set value (step S207). That is, when the emotion level rises for the above five items, the arithmetic processing unit 71 writes the set value at that time in the set value of the data table 86 and the “setting history 1”. Next, the process returns to step S201, and steps S201 to S207 are repeated until the emotional level does not improve (until the result becomes No in step S205). At this time, the adjustment direction of the set value (whether the set value is set to a large value or a small value) is the same direction.

一方、演算処理部71は、感情レベルが低下したと判定した場合(ステップS205でNo)、その時の設定値(今回の設定値)を記録に残すため、データテーブル86において「設定履歴2」を今回の設定値に更新し(ステップS208)、演算処理部71は、今回の設定値を、微小量変化させる前の元の値である前回の設定値に戻す(ステップS209)。 On the other hand, when the arithmetic processing unit 71 determines that the emotional level has decreased (No in step S205), the arithmetic processing unit 71 records the set value (current set value) at that time in the data table 86 for "setting history 2". After updating to the current set value (step S208), the arithmetic processing unit 71 returns the current set value to the previous set value, which is the original value before the minute amount change (step S209).

演算処理部71は、設定値の調整方向を変更済みか否かを判定する(ステップS210)。演算処理部71は、設定値の調整方向を変更済みでない場合(ステップS210でNo)、設定値の調整方向を変更する(ステップS211)。具体的には、前回の調整が設定値を大きくする方向であった場合には、設定値を小さくする方向に変更する。前回の調整が設定値を小さくする方向であった場合には、設定値を大きくする方向に変更する。次にステップS201に進む。ステップS202では変更された調整方向に設定値を変更し、ステップS203以降に進む。 The arithmetic processing unit 71 determines whether or not the adjustment direction of the set value has been changed (step S210). If the adjustment direction of the set value has not been changed (No in step S210), the arithmetic processing unit 71 changes the adjustment direction of the set value (step S211). Specifically, if the previous adjustment was in the direction of increasing the set value, the setting value is changed in the direction of decreasing. If the previous adjustment was in the direction of decreasing the set value, change it in the direction of increasing the set value. Next, the process proceeds to step S201. In step S202, the set value is changed in the changed adjustment direction, and the process proceeds to step S203 and subsequent steps.

演算処理部71は、設定値の調整方向を変更済みの場合(ステップS210でYes)、上記5項目全ての設定処理が完了したかを確認する(ステップS212)。演算処理部71は、5項目全ての設定処理が未完了である場合(ステップS212でNo)、未完了の残りの項目の設定処理を行う(ステップS201に戻る)。演算処理部71は、5項目全ての設定処理が完了した場合(ステップS212でYes)、一連の処理を終了する。 When the adjustment direction of the set value has been changed (Yes in step S210), the arithmetic processing unit 71 confirms whether the setting process of all the above five items has been completed (step S212). When the setting process of all five items is incomplete (No in step S212), the arithmetic processing unit 71 performs the setting process of the remaining unfinished items (returns to step S201). When the setting processing of all five items is completed (Yes in step S212), the arithmetic processing unit 71 ends a series of processing.

この結果、記憶部83に記憶されたデータテーブル86の設定値および「設定履歴1」には、現状で最も感情が向上した状態の設定値が残る。また、「設定履歴2」には「設定履歴1」の設定値に対し、感情レベルが低かった際の設定値が残ることになる。 As a result, in the set value of the data table 86 and the "setting history 1" stored in the storage unit 83, the set value in the state where the emotion is most improved at present remains. Further, in the "setting history 2", the set value when the emotion level is low with respect to the set value of the "setting history 1" remains.

「設定履歴1」、「設定履歴2」は、次に設定を変更するときの変化させる方向を決めるために参考となるデータとなる。つまり設定レベルを高くしたために感情が下がったか、低くしたために感情が下がったかにより次に設定すべき調整方向が決定される。 The "setting history 1" and "setting history 2" serve as reference data for determining the direction to be changed when the setting is changed next time. In other words, the adjustment direction to be set next is determined depending on whether the emotion is lowered because the setting level is raised or the emotion is lowered because the setting level is lowered.

以上のように、本実施形態に係る情報装置100は、ネットワークNWに接続して情報を取得する情報装置100であって、周囲の環境情報を検出する音声認識部73及び画像認識部91と、ユーザの感情情報を検出する感情認識部75と、環境情報ごとに感情情報と設定値とを関連付けて記憶する記憶部83と、感情認識部75の検出結果に応じた設定値を記憶部83から選択して設定する演算処理部71とを備える。 As described above, the information device 100 according to the present embodiment is an information device 100 that connects to the network NW and acquires information, and includes a voice recognition unit 73 and an image recognition unit 91 that detect surrounding environment information. The emotion recognition unit 75 that detects the user's emotion information, the storage unit 83 that stores the emotion information and the set value for each environmental information in association with each other, and the storage unit 83 that stores the set value according to the detection result of the emotion recognition unit 75. It includes an arithmetic processing unit 71 that is selected and set.

この構成では、使用環境ごとに、感情認識部75においてユーザの感情を検出し、検出したユーザの感情に基づいた設定値を自動的に選択して設定することができる。これにより、使用環境とユーザの感情に応じた設定に自動的に調整することが可能な情報装置100を実現することができる。 In this configuration, the emotion recognition unit 75 can detect the user's emotions and automatically select and set the set value based on the detected user's emotions for each usage environment. This makes it possible to realize the information device 100 that can be automatically adjusted to the setting according to the usage environment and the emotion of the user.

[第2実施形態]
図9は、本発明の第2実施形態に係る情報装置100Aの一例を示す機能ブロック図である。図9に示すように、情報装置100Aは、上記実施形態の情報装置100の構成に加えて表情分析部84を有し、感情認識部75の代わりに感情認識部85を有している。表情分析部84は、画像入力部90に入力されるユーザの顔画像等の画像に基づいて、ユーザの表情を分析する。表情分析部84は、例えば画像処理を行い、画像処理の結果を用いて表情分析を行う公知のソフトウェア等を用いて形成される。また、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果(表情分析結果)に基づいて感情認識を行い、ユーザの感情を示す感情情報を検出する。
[Second Embodiment]
FIG. 9 is a functional block diagram showing an example of the information device 100A according to the second embodiment of the present invention. As shown in FIG. 9, the information device 100A has a facial expression analysis unit 84 in addition to the configuration of the information device 100 of the above embodiment, and has an emotion recognition unit 85 instead of the emotion recognition unit 75. The facial expression analysis unit 84 analyzes the user's facial expression based on an image such as a user's face image input to the image input unit 90. The facial expression analysis unit 84 is formed by using, for example, known software that performs image processing and performs facial expression analysis using the result of the image processing. Further, the emotion recognition unit 85 performs emotion recognition based on the voice signal input to the voice input unit 30 and the analysis result (facial expression analysis result) of the facial expression analysis unit 84, and detects emotion information indicating the user's emotion.

図10は、感情認識部85の一例を示す機能ブロック図である。感情認識部85は、韻律的特徴量検出部85aと、感情分析部85bと、総合分析部85cとを有する。韻律的特徴量検出部85a及び感情分析部85bは、第1実施形態で説明した韻律的特徴量検出部75a及び感情分析部75bと同様である。すなわち、韻律的特徴量検出部85aは、音声入力部30に入力される音声信号から韻律的特徴量を検出する。感情分析部85bは、検出された韻律的特徴量に基づいて、喜怒哀楽、驚き等の度合いを数値で出力する。総合分析部85cは、感情分析部85bの分析結果と、表情分析部84の分析結果とに基づいて、ユーザの感情を総合的に分析する。例えば、それぞれの分析結果が示す各感情に係数を設定して乗算し、これらを加算して音声及び表情を含めた総合的な算出値を求める。ここで、総合分析部85cは、音声入力しかない場合には感情分析部85bの分析結果のみを用いてユーザの感情を分析してもよいし、画像入力しかない場合には表情分析部84の分析結果のみを用いてユーザの感情を分析してもよい。すなわち、総合分析部85cは、ユーザの音声と表情とのうち少なくとも一方に基づいて当該ユーザの感情を分析するものであればよい。したがって、感情認識部85において検出される感情情報は、例えば、感情の種類(喜び、悲しみ、怒り)と、感情の種類ごとの感情の度合いの値と、を含む。演算処理部71は、感情認識部85において検出された感情情報と記憶部83に記憶されたデータテーブル86に基づいて、設定を自動的に調整する。 FIG. 10 is a functional block diagram showing an example of the emotion recognition unit 85. The emotion recognition unit 85 has a prosodic feature detection unit 85a, an emotion analysis unit 85b, and a comprehensive analysis unit 85c. The prosodic feature detection unit 85a and the sentiment analysis unit 85b are the same as the prosodic feature detection unit 75a and the sentiment analysis unit 75b described in the first embodiment. That is, the prosodic feature detection unit 85a detects the prosodic feature from the voice signal input to the voice input unit 30. The sentiment analysis unit 85b numerically outputs the degree of emotions, emotions, surprises, etc. based on the detected prosodic features. The comprehensive analysis unit 85c comprehensively analyzes the user's emotions based on the analysis result of the sentiment analysis unit 85b and the analysis result of the facial expression analysis unit 84. For example, a coefficient is set and multiplied for each emotion indicated by each analysis result, and these are added to obtain a comprehensive calculated value including voice and facial expression. Here, the comprehensive analysis unit 85c may analyze the user's emotion using only the analysis result of the sentiment analysis unit 85b when there is only voice input, or the facial expression analysis unit 84 when there is only image input. The user's emotions may be analyzed using only the analysis results. That is, the comprehensive analysis unit 85c may analyze the user's emotions based on at least one of the user's voice and facial expression. Therefore, the emotional information detected by the emotion recognition unit 85 includes, for example, the type of emotion (joy, sadness, anger) and the value of the degree of emotion for each type of emotion. The arithmetic processing unit 71 automatically adjusts the settings based on the emotion information detected by the emotion recognition unit 85 and the data table 86 stored in the storage unit 83.

上記のように構成された情報装置100A自体又は各種アプリの起動時、図7に示すステップS103において、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果のうち少なくとも一方に基づいて感情認識を行い、感情情報を検出する(ステップS103)。本実施形態では、モード切替制御部80は、対話モードとして情報表示モード中に一時的に会話モードに切り替える。演算処理部71は、この対話モードにおいて簡易的に情報装置100Aとユーザの対話を行う。感情認識部85は、対話時のユーザの音声や表情に基づいて感情認識を行う。感情認識を行った後、モード切替制御部80は、対話モードを終了し、情報表示モードに戻す。すなわち、ユーザの音声と表情との少なくとも一方に基づいて感情認識を行う。その他の動作については、図7に示す通りである。 When the information device 100A itself or various applications configured as described above are activated, in step S103 shown in FIG. 7, the emotion recognition unit 85 is the analysis result of the voice signal and facial expression analysis unit 84 input to the voice input unit 30. Emotion recognition is performed based on at least one of them, and emotion information is detected (step S103). In the present embodiment, the mode switching control unit 80 temporarily switches to the conversation mode during the information display mode as the dialogue mode. The arithmetic processing unit 71 simply has a user dialogue with the information device 100A in this dialogue mode. The emotion recognition unit 85 recognizes emotions based on the user's voice and facial expression during dialogue. After performing emotion recognition, the mode switching control unit 80 ends the interactive mode and returns to the information display mode. That is, emotion recognition is performed based on at least one of the user's voice and facial expression. Other operations are as shown in FIG.

また、情報装置100A自体又は各種アプリの稼働中、図8に示すステップS203〜S205において、演算処理部71は、音声入力部30及び画像入力部90を用いて周囲の環境情報を検出する(ステップS203)。次に、感情認識部85は、音声入力部30に入力される音声信号及び表情分析部84の分析結果のうち少なくとも一方に基づいて感情認識を行い、感情情報を検出する(ステップS204)。次に、演算処理部71は、感情認識部85で検出された感情情報に基づいて、ユーザの感情の変化、例えば感情レベルの上下を確認する(ステップS205)。すなわち、ユーザの音声と表情との少なくとも一方に基づいてユーザの感情の変化を確認する。その他の動作については、図8に示す通りである。 Further, while the information device 100A itself or various applications are in operation, in steps S203 to S205 shown in FIG. 8, the arithmetic processing unit 71 detects surrounding environment information using the voice input unit 30 and the image input unit 90 (step). S203). Next, the emotion recognition unit 85 performs emotion recognition based on at least one of the voice signal input to the voice input unit 30 and the analysis result of the facial expression analysis unit 84, and detects the emotion information (step S204). Next, the arithmetic processing unit 71 confirms a change in the user's emotion, for example, an increase or decrease in the emotion level, based on the emotion information detected by the emotion recognition unit 85 (step S205). That is, the change in the user's emotion is confirmed based on at least one of the user's voice and facial expression. Other operations are as shown in FIG.

このように、本実施形態に係る情報装置100Aは、ユーザの声を入力可能な音声入力部30とユーザの顔画像を入力可能な画像入力部90との両方を備え、感情認識部85が、音声入力部30に入力されるユーザの声と画像入力部90に入力される顔画像とのうち少なくとも一方に基づいて、感情情報を検出する構成であってもよい。これにより、ユーザの感情をより高精度に認識し、より適正に使用環境とユーザの感情に応じた設定に調整することができる。 As described above, the information device 100A according to the present embodiment includes both the voice input unit 30 capable of inputting the user's voice and the image input unit 90 capable of inputting the user's face image, and the emotion recognition unit 85 Emotional information may be detected based on at least one of a user's voice input to the voice input unit 30 and a face image input to the image input unit 90. As a result, the user's emotions can be recognized with higher accuracy, and the settings can be adjusted more appropriately according to the usage environment and the user's emotions.

[変形例]
上記の実施形態では、情報装置100又は100Aは音声入力部30や画像入力部90を用いてユーザの感情情報を検出しているが、さらにユーザが表示部20上のタッチパネル入力部50をタッチするタイミングや強さ等からユーザの感情情報を検出してもよい。また、情報装置100又は100Aは、自身と連携する他のセンサ群も用いてユーザの感情情報を検出してもよい。例えば、情報装置100又は100Aは、自身に搭載されたジャイロスコープや慣性計測装置(IMU)等を用いて、ユーザが情報装置100又は100Aを感情的に激しく揺さぶっていること等を検出することで、ユーザの感情情報を検出してもよい。
[Modification example]
In the above embodiment, the information device 100 or 100A uses the voice input unit 30 and the image input unit 90 to detect the user's emotional information, but the user further touches the touch panel input unit 50 on the display unit 20. The user's emotional information may be detected from the timing, strength, and the like. Further, the information device 100 or 100A may detect the emotion information of the user by using another sensor group linked with the information device 100 or 100A. For example, the information device 100 or 100A uses a gyroscope, an inertial measurement unit (IMU), or the like mounted on the information device 100 or 100A to detect that the user is emotionally shaking the information device 100 or 100A. , The user's emotional information may be detected.

また、情報装置100及び100Aは、表示部20及びタッチパネル入力部50を備えていなくてよい。例えば、情報装置100及び100Aは、タッチパネル入力部50の代わりに、物理的なキーパッドやキーボード等の入力装置を使用してもよい。また、情報装置100及び100Aがコミュニケーション用ロボットである場合、表示部20に表示させる顔画像の代わりに、顔に相当する機能や身振りで感情を表現してもよい。 Further, the information devices 100 and 100A do not have to include the display unit 20 and the touch panel input unit 50. For example, the information devices 100 and 100A may use an input device such as a physical keypad or a keyboard instead of the touch panel input unit 50. When the information devices 100 and 100A are communication robots, emotions may be expressed by a function or gesture corresponding to the face instead of the face image displayed on the display unit 20.

また、図7に示すステップS106及び図8に示すステップS212において、演算処理部71は、表示部20の輝度、表示部20のコントラスト、音声レベル、音声トーン及び感情表現の5項目全ての設定処理を行うようにしているが、実際には特定の項目のみの設定処理を行うようにしてもよい。例えば、演算処理部71は、周囲の明るさの低下とユーザの感情レベルの低下とを検出した時に表示部20の輝度及びコントラストの設定処理を行い、周囲の騒音の増大とユーザの感情レベルの低下とを検出した時に音声レベル及び音声トーンの設定処理を行うようにしてもよい。 Further, in step S106 shown in FIG. 7 and step S212 shown in FIG. 8, the arithmetic processing unit 71 sets all five items of the brightness of the display unit 20, the contrast of the display unit 20, the voice level, the voice tone, and the emotional expression. However, in reality, only specific items may be set. For example, the arithmetic processing unit 71 sets the brightness and contrast of the display unit 20 when it detects a decrease in the ambient brightness and a decrease in the user's emotion level, thereby increasing the ambient noise and the user's emotion level. When a decrease is detected, the sound level and the sound tone may be set.

以上説明したように、本発明に係る情報装置は、動作調整値に基づいて動作を行う動作部と、周囲の環境情報を検出する環境認識部と、ユーザの感情情報を検出する感情認識部と、環境認識部で検出した環境情報と、感情認識部で検出した感情情報とに基づいて、動作調整値を設定する設定調整部と、を備える。ここで、動作部は、上記の表示部20、音声出力部40及び制御部70に相当する。環境認識部は、上記の音声認識部73及び画像認識部91に相当する。感情認識部は、上記の感情認識部75又は感情認識部85に相当する。設定調整部は、上記の演算処理部71に相当する。動作調整値は、上記の表示部20の輝度、表示部20のコントラスト、音声出力部40の音声レベル、音声出力部40の音声トーンについての各設定値に相当する。 As described above, the information device according to the present invention includes an operation unit that performs an operation based on an operation adjustment value, an environment recognition unit that detects surrounding environment information, and an emotion recognition unit that detects user emotion information. , The setting adjustment unit for setting the operation adjustment value based on the environment information detected by the environment recognition unit and the emotion information detected by the emotion recognition unit is provided. Here, the operating unit corresponds to the display unit 20, the audio output unit 40, and the control unit 70 described above. The environment recognition unit corresponds to the voice recognition unit 73 and the image recognition unit 91 described above. The emotion recognition unit corresponds to the emotion recognition unit 75 or the emotion recognition unit 85 described above. The setting adjustment unit corresponds to the above-mentioned arithmetic processing unit 71. The operation adjustment values correspond to the respective set values for the brightness of the display unit 20, the contrast of the display unit 20, the audio level of the audio output unit 40, and the audio tone of the audio output unit 40.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、動作調整値に基づいて動作を行う動作部として、表示部20及び音声出力部40を例に挙げて説明したが、これに限定されない。動作部は、情報装置100の他の部分であってもよい。 The technical scope of the present invention is not limited to the above-described embodiment, and modifications can be made as appropriate without departing from the spirit of the present invention. For example, in the above embodiment, the display unit 20 and the voice output unit 40 have been described as examples of the operation unit that performs the operation based on the operation adjustment value, but the present invention is not limited thereto. The operating unit may be another part of the information device 100.

また、例えば、上記実施形態では、環境情報と、感情情報と、動作調整値とを関連付けて記憶する記憶部83を有する構成を例に挙げて説明したが、これに限定されない。例えば、環境情報、感情情報及び動作調整値が例えば外部の記憶部に記憶される構成であり、情報装置100、100Aが当該外部の記憶部に通信等によってアクセスする構成としてもよい。 Further, for example, in the above embodiment, the configuration including the storage unit 83 for storing the environmental information, the emotional information, and the motion adjustment value in association with each other has been described as an example, but the present invention is not limited to this. For example, the environment information, the emotion information, and the motion adjustment value may be stored in, for example, an external storage unit, and the information devices 100 and 100A may access the external storage unit by communication or the like.

NW…ネットワーク、10…筐体、20…表示部、30…音声入力部、40…音声出力部、50…タッチパネル入力部、60…通信部、70…制御部、71…演算処理部、72…表示制御部、73…音声認識部、74…音声合成部、75,85…感情認識部、75a, 85a…韻律的特徴量検出部、75b,85b…感情分析部、76…感情制御部、78…タイミング発生部、79…タイマ、80…モード切替制御部、82…顔画像発生部、83…記憶部、84…表情分析部、85c…総合分析部、86…データテーブル、90…画像入力部、91…画像認識部、100,100A…情報装置 NW ... network, 10 ... housing, 20 ... display unit, 30 ... voice input unit, 40 ... voice output unit, 50 ... touch panel input unit, 60 ... communication unit, 70 ... control unit, 71 ... arithmetic processing unit, 72 ... Display control unit, 73 ... voice recognition unit, 74 ... voice synthesis unit, 75, 85 ... emotion recognition unit, 75a, 85a ... rhyming feature amount detection unit, 75b, 85b ... emotion analysis unit, 76 ... emotion control unit, 78 ... Timing generation unit, 79 ... Timer, 80 ... Mode switching control unit, 82 ... Face image generation unit, 83 ... Storage unit, 84 ... Sentiment analysis unit, 85c ... Comprehensive analysis unit, 86 ... Data table, 90 ... Image input unit , 91 ... Image recognition unit, 100, 100A ... Information device

Claims (7)

動作調整値に基づいて動作を行う動作部と、
周囲の環境情報を検出する環境認識部と、
ユーザの感情情報を検出する感情認識部と、
前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報とに基づいて、前記動作調整値を設定する設定調整部と、
を備える情報装置。
An operation unit that operates based on the operation adjustment value,
An environment recognition unit that detects surrounding environment information,
An emotion recognition unit that detects user's emotion information,
A setting adjustment unit that sets the operation adjustment value based on the environment information detected by the environment recognition unit and the emotion information detected by the emotion recognition unit.
An information device equipped with.
前記環境認識部で検出した前記環境情報と、前記感情認識部で検出した前記感情情報と、前記設定調整部で設定した前記動作調整値とを関連付けて記憶する記憶部を更に備え、
前記設定調整部は、起動時に、前記環境認識部で検出した前記環境情報と前記感情認識部で検出した前記感情情報とに基づいて、前記記憶部から前記動作調整値を取得して設定する、請求項1に記載の情報装置。
A storage unit that stores the environmental information detected by the environment recognition unit, the emotion information detected by the emotion recognition unit, and the operation adjustment value set by the setting adjustment unit in association with each other is further provided.
At startup, the setting adjustment unit acquires and sets the operation adjustment value from the storage unit based on the environmental information detected by the environment recognition unit and the emotion information detected by the emotion recognition unit. The information device according to claim 1.
前記設定調整部は、起動後に所定のタイミングで、設定された前記動作調整値を変化させ、前記感情認識部で検出した前記感情情報の変化を検出する、請求項2に記載の情報装置。 The information device according to claim 2, wherein the setting adjustment unit changes the set operation adjustment value at a predetermined timing after activation, and detects a change in the emotion information detected by the emotion recognition unit. 前記感情情報は、ユーザの感情の度合いを含み、
前記設定調整部は、前記環境認識部で検出した前記感情の度合いが前回の設定時に検出した前記感情の度合いに比べて向上した場合に、今回の設定で得られる前記動作調整値を設定値とし、前記設定値とした前記動作調整値を前記感情情報と関連付けて第1設定履歴として前記記憶部に記憶する、請求項3に記載の情報装置。
The emotional information includes the degree of emotion of the user.
The setting adjustment unit sets the operation adjustment value obtained by the current setting when the degree of the emotion detected by the environment recognition unit is improved as compared with the degree of the emotion detected at the time of the previous setting. The information device according to claim 3, wherein the operation adjustment value set as the set value is associated with the emotion information and stored in the storage unit as a first setting history.
前記感情情報は、ユーザの感情の度合いを含み、
前記設定調整部は、前記環境認識部で検出した前記感情の度合いが前回の調整時に検出した前記感情の度合いに比べて低下した場合には、前記動作調整値を前記感情情報と関連付けて第2設定履歴として前記記憶部に記憶するとともに、前回の前記動作調整値を設定値とする、請求項3または4に記載の情報装置。
The emotional information includes the degree of emotion of the user.
When the degree of the emotion detected by the environment recognition unit is lower than the degree of the emotion detected at the time of the previous adjustment, the setting adjustment unit associates the motion adjustment value with the emotion information and second. The information device according to claim 3 or 4, which stores the setting history in the storage unit and sets the previous operation adjustment value as the set value.
動作調整値に基づいて動作部の動作を行うことと、
周囲の環境情報を検出することと、
ユーザの感情情報を検出することと、
検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定することと
を含む自動設定方法。
Performing the operation of the operation part based on the operation adjustment value,
Detecting surrounding environment information and
Detecting user emotional information and
An automatic setting method including setting the operation adjustment value based on the detected environmental information and emotion information.
動作調整値に基づいて動作部の動作を行う処理と、
周囲の環境情報を検出する処理と、
ユーザの感情情報を検出する処理と、
検出した前記環境情報と前記感情情報とに基づいて、前記動作調整値を設定する処理と
をコンピュータに実行させる自動設定プログラム。
The process of performing the operation of the operation unit based on the operation adjustment value,
Processing to detect surrounding environment information and
Processing to detect user's emotional information and
An automatic setting program that causes a computer to execute a process of setting the operation adjustment value based on the detected environmental information and emotion information.
JP2019133242A 2019-07-19 2019-07-19 Information device, automatic setting method and automatic setting program Active JP7263957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019133242A JP7263957B2 (en) 2019-07-19 2019-07-19 Information device, automatic setting method and automatic setting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019133242A JP7263957B2 (en) 2019-07-19 2019-07-19 Information device, automatic setting method and automatic setting program

Publications (2)

Publication Number Publication Date
JP2021018551A true JP2021018551A (en) 2021-02-15
JP7263957B2 JP7263957B2 (en) 2023-04-25

Family

ID=74564294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133242A Active JP7263957B2 (en) 2019-07-19 2019-07-19 Information device, automatic setting method and automatic setting program

Country Status (1)

Country Link
JP (1) JP7263957B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7360756B1 (en) 2022-04-15 2023-10-13 株式会社三鷹ホールディングス Display device using magnetic fluid

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299013A (en) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd Experience information reproduction apparatus
JP2008062852A (en) * 2006-09-08 2008-03-21 Fujitsu Ten Ltd Vehicle controller
JP2012146216A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and program for controlling the same
WO2018021040A1 (en) * 2016-07-27 2018-02-01 ソニー株式会社 Information processing system, recording medium, and information processing method
WO2018084904A1 (en) * 2016-11-01 2018-05-11 Google Llc Dynamic text-to-speech provisioning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299013A (en) * 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd Experience information reproduction apparatus
JP2008062852A (en) * 2006-09-08 2008-03-21 Fujitsu Ten Ltd Vehicle controller
JP2012146216A (en) * 2011-01-13 2012-08-02 Nikon Corp Electronic device and program for controlling the same
WO2018021040A1 (en) * 2016-07-27 2018-02-01 ソニー株式会社 Information processing system, recording medium, and information processing method
WO2018084904A1 (en) * 2016-11-01 2018-05-11 Google Llc Dynamic text-to-speech provisioning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7360756B1 (en) 2022-04-15 2023-10-13 株式会社三鷹ホールディングス Display device using magnetic fluid

Also Published As

Publication number Publication date
JP7263957B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
CN110275664B (en) Apparatus, method and graphical user interface for providing audiovisual feedback
US8751971B2 (en) Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US10387570B2 (en) Enhanced e-reader experience
US9570091B2 (en) Music playing system and music playing method based on speech emotion recognition
CN103529934A (en) Method and apparatus for processing multiple inputs
KR102193029B1 (en) Display apparatus and method for performing videotelephony using the same
US11256463B2 (en) Content prioritization for a display array
KR102134882B1 (en) Method for controlling contents play and an electronic device thereof
CN105139848B (en) Data transfer device and device
KR20220149570A (en) Audio processing methods and electronic devices
CN112037756A (en) Voice processing method, apparatus and medium
CN110989847A (en) Information recommendation method and device, terminal equipment and storage medium
CN103353826B (en) Display equipment and information processing method thereof
US20170287453A1 (en) Musical score display control method, device and program
CN110109730B (en) Apparatus, method and graphical user interface for providing audiovisual feedback
KR102580521B1 (en) Electronic apparatus and method of adjusting sound volume thereof
JP7263957B2 (en) Information device, automatic setting method and automatic setting program
KR20140111574A (en) Apparatus and method for performing an action according to an audio command
CN111103983A (en) AR musical instrument playing method and electronic equipment
KR20080089719A (en) Mobile communication terminal and method of user interface setting the same
CN108600502B (en) Electronic device, dialing method and related product
CN111338598A (en) Message processing method and electronic equipment
US20170220317A1 (en) Electronic apparatus and control program of electronic apparatus
US11991263B2 (en) Notification delivery in a virtual space based on a user being in a flow state
KR102527892B1 (en) Electronic device for providing predictive word and operating method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150