JP2012230535A - Electronic apparatus and control program for electronic apparatus - Google Patents

Electronic apparatus and control program for electronic apparatus Download PDF

Info

Publication number
JP2012230535A
JP2012230535A JP2011098198A JP2011098198A JP2012230535A JP 2012230535 A JP2012230535 A JP 2012230535A JP 2011098198 A JP2011098198 A JP 2011098198A JP 2011098198 A JP2011098198 A JP 2011098198A JP 2012230535 A JP2012230535 A JP 2012230535A
Authority
JP
Japan
Prior art keywords
task
information
user
electronic device
server cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011098198A
Other languages
Japanese (ja)
Inventor
Masaki Murata
正樹 村田
Masaki Otsuki
正樹 大槻
Kyoei Senda
享永 千田
Akiko Furuta
明子 古田
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011098198A priority Critical patent/JP2012230535A/en
Publication of JP2012230535A publication Critical patent/JP2012230535A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide means for acquiring biological information of plural users and performing various supports according to a result of determination of a situation.SOLUTION: An electronic apparatus such as a server comprises: input units of a CPU 210 and a biosensor 540 that input information on the living bodies of plural persons who perform a task; a comparison unit of a CPU 310 that compares the plural persons on the basis of the information on the living bodies; and output units of the CPU 310 and an external connection interface 213 that output information on a task different from the task on the basis of the comparison result by the comparison unit.

Description

本発明は、電子機器および電子機器の制御プログラムに関する。   The present invention relates to an electronic device and a control program for the electronic device.

近年、ユーザの生体情報を取得して、各種のサポートをすることが提案されており、例えば、ユーザが音楽に集中しているかどうかを検出して、音楽に集中していない場合には音量を低くする音響再生装置が提案されている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2005−34484号公報
In recent years, it has been proposed to obtain a user's biometric information and provide various support. For example, it is detected whether the user is concentrated on music. A sound reproducing device for lowering has been proposed.
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-2005-34484

しかしながら、従来の装置では、複数のユーザの生体情報に応じて各種のサポートをすることについて何ら着目されていなかった。   However, the conventional apparatus has not paid any attention to providing various types of support according to the biological information of a plurality of users.

本発明の第1の態様における電子機器は、タスクを行う複数の人の生体に関する情報を入力する入力部と、生体に関する情報に基づいて複数の人を比較する比較部と、比較部による比較結果に基づいて、タスクと異なるタスクに関する情報を出力する出力部とを備える。   The electronic device according to the first aspect of the present invention includes an input unit that inputs information related to living bodies of a plurality of persons performing a task, a comparing unit that compares a plurality of persons based on information related to the living bodies, and a comparison result by the comparing unit And an output unit that outputs information related to a task different from the task.

本発明の第2の態様における電子機器は、タスクを行う複数の人の生体に関する情報を入力する入力部と、生体に関する情報に基づいて複数の人を比較する比較部と、比較部による比較結果に基づいて、タスクのやり方の変更に関する情報を出力する出力部とを備える。   The electronic device according to the second aspect of the present invention includes an input unit that inputs information related to living bodies of a plurality of persons performing a task, a comparing unit that compares a plurality of persons based on information related to the living bodies, and a comparison result by the comparing unit And an output unit for outputting information related to the change of the task method.

本発明の第3の態様における電子機器の制御プログラムは、タスクを行う複数の人の生体に関する情報を入力する入力ステップと、生体に関する情報に基づいて複数の人を比較する比較ステップと、比較ステップによる比較結果に基づいて、タスクと異なるタスクに関する情報を出力する出力ステップとをコンピュータに実行させる。   An electronic device control program according to a third aspect of the present invention includes an input step of inputting information related to the living bodies of a plurality of persons performing a task, a comparing step of comparing a plurality of persons based on the information related to the living bodies, and a comparing step Based on the result of the comparison, the computer is caused to execute an output step for outputting information on a task different from the task.

本発明の第4の態様における電子機器の制御プログラムは、タスクを行う複数の人の生体に関する情報を入力する入力ステップと、生体に関する情報に基づいて複数の人を比較する比較ステップと、比較ステップによる比較結果に基づいて、タスクのやり方の変更に関する情報を出力する出力ステップとをコンピュータに実行させる。   An electronic device control program according to a fourth aspect of the present invention includes an input step of inputting information related to the living bodies of a plurality of persons performing a task, a comparing step of comparing a plurality of persons based on the information related to the living bodies, and a comparing step Based on the result of the comparison, the computer is caused to execute an output step for outputting information relating to the change of the task method.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る状況判別システムの概要を示す図である。It is a figure which shows the outline | summary of the condition determination system which concerns on this embodiment. 本実施形態に係る状況判別システムにおけるパソコン200の概要を示す図である。It is a figure which shows the outline | summary of the personal computer 200 in the condition determination system which concerns on this embodiment. 本実施形態に係る状況システムのブロック図である。It is a block diagram of the situation system concerning this embodiment. 本実施形態に係る状況判別システムの処理を示すフローチャートである。It is a flowchart which shows the process of the condition determination system which concerns on this embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る状況判別システム100の概要を示す図である。図1に示すように、状況判別システム100は、複数のパーソナルコンピュータ(パソコン)200と、ネットワーク400を介して複数のパソコン200と接続する電子機器であるサーバ300と、を有している。本実施形態において、複数のユーザは各自パソコン200を用いてタスクを実行する。   FIG. 1 is a diagram showing an overview of a situation determination system 100 according to the present embodiment. As shown in FIG. 1, the situation determination system 100 includes a plurality of personal computers (personal computers) 200 and a server 300 that is an electronic device connected to the plurality of personal computers 200 via a network 400. In the present embodiment, a plurality of users execute tasks using their personal computers 200.

図2は、本実施形態に係る状況判別システム100におけるパソコン200の概要を示す図である。図2に示すように、パソコン200は、ディスプレイ201、キーボード202、タッチパッド203といった、ユーザの入力操作部材を備える。また、パソコン200には、マウス500が接続されており、ユーザはマウス500を操作することによっても、パソコン200に指示を与えることができる。   FIG. 2 is a diagram showing an outline of the personal computer 200 in the situation determination system 100 according to the present embodiment. As illustrated in FIG. 2, the personal computer 200 includes user input operation members such as a display 201, a keyboard 202, and a touch pad 203. In addition, a mouse 500 is connected to the personal computer 200, and the user can give an instruction to the personal computer 200 by operating the mouse 500.

パソコン200は、内蔵カメラ204、超音波センサ205を更に備える。内蔵カメラ204は、撮影レンズおよび撮像素子を含む。撮像素子には、CCDセンサ、CMOSセンサ等のイメージセンサが用いられる。この撮像素子から出力される画像信号に不図示の画像処理部による種々の画像処理が施されて、画像データが作成され、この画像データはサーバ300に出力される。内蔵カメラ204は、ディスプレイ201の上部に配設されており、ユーザの顔、手、腕を含む上半身と共に、キーボード202、タッチパッド203等の操作部材を同時に撮影できる画角を有する。なお、内蔵カメラ204に代えて、例えばクリップによりディスプレイ201の近傍に装着できる、カメラモジュールを採用しても良い。超音波センサ205は、内蔵カメラ204の近傍に設けられており、ディスプレイ201からユーザまでの距離を計測するための超音波の送受信を実行する。   The personal computer 200 further includes a built-in camera 204 and an ultrasonic sensor 205. The built-in camera 204 includes a photographing lens and an image sensor. An image sensor such as a CCD sensor or a CMOS sensor is used as the image sensor. Various image processing by an image processing unit (not shown) is performed on the image signal output from the image sensor to generate image data, and the image data is output to the server 300. The built-in camera 204 is disposed on the upper part of the display 201 and has an angle of view capable of simultaneously photographing the operation members such as the keyboard 202 and the touch pad 203 together with the upper body including the user's face, hands, and arms. Instead of the built-in camera 204, for example, a camera module that can be mounted in the vicinity of the display 201 by a clip may be adopted. The ultrasonic sensor 205 is provided in the vicinity of the built-in camera 204, and executes transmission / reception of ultrasonic waves for measuring the distance from the display 201 to the user.

パソコン200は、スピーカ206、マイク207を更に備える。スピーカ206は、超音波トランスデューサを備え、特定の方向に対して指向性を有する指向性スピーカであり、ユーザに対して音を出力する。なお、スピーカ206の指向性の特性(方向、範囲等)は、主としてユーザが音を聞くことができるように設定されてもよい。マイク207は、特定の方向に対して指向性を有する指向性マイクであり、例えば、超指向性ダイナミック型マイクロホンや超指向性コンデンサ型マイクロホンなどを用いることができる。なお、マイク207の指向性の特性(方向、範囲等)は、ユーザが発生した音声を主として集音できるように設定されてもよい。   The personal computer 200 further includes a speaker 206 and a microphone 207. The speaker 206 includes an ultrasonic transducer and is a directional speaker having directivity in a specific direction, and outputs sound to the user. Note that the directivity characteristics (direction, range, etc.) of the speaker 206 may be set so that the user can mainly hear the sound. The microphone 207 is a directional microphone having directivity with respect to a specific direction. For example, a super-directional dynamic microphone or a super-directional condenser microphone can be used. Note that the directivity characteristics (direction, range, etc.) of the microphone 207 may be set so that the sound generated by the user can be collected mainly.

キーボード202の裏面には、個々のキーに対応して圧電センサ208が設けられている。圧電センサ208は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出する。これにより、圧電センサ208は、ユーザがキーを叩く強さ、繰り返し動作を検出することができる。   On the back surface of the keyboard 202, piezoelectric sensors 208 are provided corresponding to the individual keys. The piezoelectric sensor 208 includes a piezo element, and electrically detects vibration by converting an externally applied force into a voltage by a piezoelectric effect. Accordingly, the piezoelectric sensor 208 can detect the strength with which the user strikes the key and the repeated operation.

ユーザの足元には、床センサ510が設けられている。床センサ510は、圧電センサ208と同様にピエゾ素子等により構成され、ユーザの足踏み、貧乏ゆすり等の足の動作を検出する。床センサ510は、パソコン200と接続されており、検出した信号をパソコン200へ送信する。   A floor sensor 510 is provided at the user's foot. The floor sensor 510 is configured by a piezo element or the like, similar to the piezoelectric sensor 208, and detects the motion of the foot such as the user's stepping or poor sliding. The floor sensor 510 is connected to the personal computer 200 and transmits the detected signal to the personal computer 200.

ユーザの頭上付近である天井部分には、天井カメラ520、天井マイク530が設けられている。天井カメラ520は、撮影レンズおよび撮像素子を含み、ユーザの頭部を撮影できる画角に調整されている。なお、天井カメラ520は、複数のユーザの頭部を撮影できる画角に調整されていても良い。天井カメラ520の撮像素子から出力される画像信号に不図示の画像処理部による種々の画像処理が施されて、画像データが作成され、この画像データは例えば無線LANによりパソコン200へ送信される。一方、パソコン200は、天井カメラ520に対して撮影の開始、撮影画像データの要求などの制御信号を送信する。   A ceiling camera 520 and a ceiling microphone 530 are provided in the ceiling near the user's head. The ceiling camera 520 includes a photographic lens and an image sensor, and is adjusted to an angle of view capable of photographing the user's head. In addition, the ceiling camera 520 may be adjusted to an angle of view that can capture the heads of a plurality of users. Various image processing by an image processing unit (not shown) is performed on the image signal output from the image sensor of the ceiling camera 520 to create image data, and this image data is transmitted to the personal computer 200 by, for example, a wireless LAN. On the other hand, the personal computer 200 transmits control signals such as a start of photographing and a request for photographed image data to the ceiling camera 520.

天井マイク530は、無指向性マイクであり、少なくともユーザの周辺の音を検出する。なお、天井マイク530は、複数のユーザの周辺の音を検出するようにしても良い。天井マイク530は、検出した音の信号を、例えば無線LANによりパソコン200へ送信する。一方、パソコン200は、音検出の開始および終了の制御信号を天井マイク530へ送信する。   The ceiling microphone 530 is an omnidirectional microphone and detects at least sounds around the user. The ceiling microphone 530 may detect sounds around a plurality of users. The ceiling microphone 530 transmits the detected sound signal to the personal computer 200 by, for example, a wireless LAN. On the other hand, the personal computer 200 transmits a sound detection start and end control signal to the ceiling microphone 530.

生体センサ540は、ユーザの生体情報を検出するセンサであり、例えば、LEDにより生体に向けて照射光を照射し、この照射光に対して生体から反射した光を受光することにより、脈拍を検出する脈拍センサを含む。その構成は、例えば、特開2005−270543号(米国特許第7538890号)に開示されている。生体センサ540は、脈拍センサの他にも、複数の電極を配した発汗センサを設けることによりユーザの発汗量を検出することもできる。更に、生体センサ540は、体温を測る温度センサ、血圧を測る血圧センサを設けることもできる。生体センサ540は、ユーザの生体情報をセンシングして、その出力をパソコン200へ送信する。   The biometric sensor 540 is a sensor that detects biometric information of the user. For example, the biometric sensor 540 emits irradiation light toward the living body with an LED, and detects the pulse by receiving light reflected from the living body with respect to the irradiation light. Including a pulse sensor. The configuration is disclosed in, for example, Japanese Patent Laid-Open No. 2005-270543 (US Pat. No. 7,538,890). In addition to the pulse sensor, the biological sensor 540 can also detect a user's sweating amount by providing a sweating sensor provided with a plurality of electrodes. Furthermore, the biosensor 540 can be provided with a temperature sensor that measures body temperature and a blood pressure sensor that measures blood pressure. The biological sensor 540 senses the user's biological information and transmits the output to the personal computer 200.

生体センサ540は、例えばユーザの腕に巻きつけられて装着されている。また、生体センサ540は、ユーザの腕に巻きつけるような腕時計型に限らず、ユーザの手、指(指輪型生体センサ)など身体の一部と接触すれば様々な形態を採用し得る。なお、赤外線センサを用いて体温などを検出する場合や、内蔵カメラ204により撮像されたユーザの表情からユーザの感情を検出する場合や、天井カメラ520により撮像されたユーザの頭の動き量からユーザの集中度を検出する場合には、非接触でユーザの生体情報を検出することも可能である。   The biosensor 540 is mounted, for example, wrapped around the user's arm. In addition, the biological sensor 540 is not limited to a wristwatch type that is wound around the user's arm, and various forms can be adopted as long as the biological sensor 540 comes into contact with a part of the body such as a user's hand or a finger (ring type biological sensor). In addition, when detecting a body temperature etc. using an infrared sensor, when detecting a user's emotion from the facial expression of the user imaged by the built-in camera 204, or from the amount of movement of the user's head imaged by the ceiling camera 520 When detecting the degree of concentration of the user, it is also possible to detect the user's biological information in a non-contact manner.

図3は、本実施形態に係る状況判別システムのブロック図である。なお、図3において、複数のパソコン200のうちの1台のパソコン200を代表として図示する。図示するように、パソコン200は、全体の制御を司るパソコンCPU210を中心として、図2を用いて説明したディスプレイ201、キーボード202等の要素を備える。   FIG. 3 is a block diagram of the situation determination system according to the present embodiment. In FIG. 3, one of the plurality of personal computers 200 is shown as a representative. As shown in the figure, the personal computer 200 includes elements such as a display 201 and a keyboard 202 described with reference to FIG. 2 with a personal computer CPU 210 that performs overall control as a center.

タイマー211は、計時機能を有し、パソコンCPU210の開始の指示を受けて計時を開始し、終了の指示を受けてその計時結果をパソコンCPU210へ返す。   The timer 211 has a time measuring function, starts time measurement in response to a start instruction from the personal computer CPU 210, and returns a time measurement result to the personal computer CPU 210 in response to an end instruction.

ROM212は、例えばフラッシュメモリ等の不揮発性メモリであり、パソコン200を制御するプログラム、各種パラメータなどを記憶する役割を担う。   The ROM 212 is a non-volatile memory such as a flash memory, for example, and plays a role of storing a program for controlling the personal computer 200, various parameters, and the like.

外部接続インターフェイス213は、外部機器と接続するためのインターフェイスである。インターフェイスとしては、無線/有線LAN、USB、HDMI、Bluetooth(登録商標)等の様々な接続規格を採用することができる。また、外部接続インターフェイス213は、ネットワーク400を介してサーバ300等の電子機器との通信を可能にする。外部接続インターフェイス213は、インターネットプロトコル等の通信プロトコルに準拠している。   The external connection interface 213 is an interface for connecting to an external device. As the interface, various connection standards such as wireless / wired LAN, USB, HDMI, Bluetooth (registered trademark), and the like can be adopted. The external connection interface 213 enables communication with an electronic device such as the server 300 via the network 400. The external connection interface 213 complies with a communication protocol such as the Internet protocol.

サーバ300は、全体の制御を司るサーバCPU310を中心とし、ROM312、記録装置313、音声解析部314、画像解析部315、スケジュール作成部316および外部接続インターフェイス317を備える。   The server 300 is centered on a server CPU 310 that performs overall control, and includes a ROM 312, a recording device 313, an audio analysis unit 314, an image analysis unit 315, a schedule creation unit 316, and an external connection interface 317.

ROM312は、例えばフラッシュメモリ等の不揮発性メモリであり、サーバ300を制御するプログラム、各種パラメータなどを記憶する役割を担う。   The ROM 312 is a non-volatile memory such as a flash memory, and plays a role of storing a program for controlling the server 300, various parameters, and the like.

記録装置313は、例えばハードディスクドライブであり、複数のユーザに関する記録を行う。記録装置313は、例えば複数のユーザが行ったタスクの内容、タスクを行っているときの複数のユーザ毎の生体情報などを記録する。   The recording device 313 is, for example, a hard disk drive, and performs recording related to a plurality of users. The recording device 313 records, for example, the contents of tasks performed by a plurality of users, biometric information for each of the plurality of users when performing the tasks, and the like.

音声解析部314は、マイク207、天井マイク530から取り込まれる音声を複数のパソコン200から取得し、取得した音声を解析する。音声解析部314は、例えばそれぞれのマイク207で集音したユーザが発生した音声を解析する。また、音声解析部314は、例えば天井マイク530で集音したユーザ周辺の騒音を解析する。   The voice analysis unit 314 acquires voices taken from the microphone 207 and the ceiling microphone 530 from the plurality of personal computers 200 and analyzes the acquired voices. The voice analysis unit 314 analyzes the voice generated by the user collected by each microphone 207, for example. Also, the voice analysis unit 314 analyzes noise around the user collected by the ceiling microphone 530, for example.

さらに、音声解析部314は、周囲に居る同僚との会話に対して、ユーザの会話の速度(発話速度)、声の大きさ、会話時間などを検出する。発話速度は、例えば単位時間当たりの出力音素数、あるいは単位時間当たりのモーラ数として検出される。モーラとは一定の時間的長さをもった音の分節単位のことである。また、音声解析部314は、識別した音声をテキストデータに変換し、変換データをパソコン200に送信することができる。そして、パソコン200は、受信した変換データに基づいて、テキストをディスプレイ201に表示することができる。   Furthermore, the voice analysis unit 314 detects the conversation speed (speech speed), the loudness of the voice, the conversation time, and the like of the conversation with a colleague in the vicinity. The speech rate is detected as, for example, the number of output phonemes per unit time or the number of mora per unit time. A mora is a segmental unit of sound with a certain length of time. The voice analysis unit 314 can convert the identified voice into text data and transmit the converted data to the personal computer 200. The personal computer 200 can display text on the display 201 based on the received conversion data.

画像解析部315は、内蔵カメラ204により撮影された撮影画像データ、天井カメラ520により撮影された撮影画像データを複数のパソコン200から取得し、取得した撮影画像データを解析する。画像解析部315は、ユーザの顔認識、さらには表情認識を実行する。例えば、画像解析部315は、画像データにおけるユーザの顔領域から、眉間に皺がある表情、笑顔ではなく目を細めている表情を検出する。また、画像解析部315は、各タイマー211の計時情報を取得して、例えば眉間に皺がある表情がどれくらい継続したかを検出する。また、目を細めている表情を検出する場合には、画像解析部315は、内蔵カメラ204による画像上の平均的な目の大きさについての情報を記録装置313から読み出して、現に撮影された目の大きさと比較して検出する。眉間の皺の検出は、眉間に皺のある画像をリファレンス画像として記録装置313に記憶させてパターンマッチングにより検出しても良く、また、左目と右目との間の部分の陰影分布から検出しても良い。なお、眉間の皺の検出は例えば米国公開特許2008−292148号にも開示がある。   The image analysis unit 315 acquires captured image data captured by the built-in camera 204 and captured image data captured by the ceiling camera 520 from the plurality of personal computers 200, and analyzes the acquired captured image data. The image analysis unit 315 performs user face recognition and facial expression recognition. For example, the image analysis unit 315 detects a facial expression with a wrinkle between eyebrows and a facial expression with narrowed eyes instead of a smile from the face area of the user in the image data. In addition, the image analysis unit 315 acquires the timing information of each timer 211 and detects, for example, how long a facial expression with a eyelid between the eyebrows continues. In addition, when detecting a facial expression with a narrowed eye, the image analysis unit 315 reads information about the average eye size on the image by the built-in camera 204 from the recording device 313 and is actually photographed. Detect by comparing with eye size. The eyelid between eyebrows may be detected by storing an image with eyelids between the eyebrows in the recording device 313 as a reference image and detecting it by pattern matching, or by detecting from the shadow distribution of the portion between the left eye and the right eye. Also good. In addition, the detection of the eyelid between eyebrows is also disclosed in, for example, US Patent Publication No. 2008-292148.

内蔵カメラ204により撮影される像の大きさは、内蔵カメラ204とユーザとの距離に依存する。本実施形態においては、画像解析部315は、超音波センサ205の情報をそれぞれのパソコン200から取得し、超音波センサ205の情報により内蔵カメラ204とユーザとの距離を検出して、像の大きさを補正することにより距離依存を解消している。距離の計測は、超音波センサ205を設ける場合に限らず、例えば、レーザ距離センサ、赤外線センサ等を用いても良い。また、ユーザの特定部分の大きさ(例えば顔の大きさ)が分かっている場合に、画像解析部315は、既知の顔の大きさと撮影した顔の大きさとのマッチングにより内蔵カメラ204とユーザの距離を算出できる。   The size of the image captured by the built-in camera 204 depends on the distance between the built-in camera 204 and the user. In the present embodiment, the image analysis unit 315 acquires information of the ultrasonic sensors 205 from the respective personal computers 200, detects the distance between the built-in camera 204 and the user based on the information of the ultrasonic sensors 205, and determines the size of the image. The distance dependence is eliminated by correcting the height. The distance measurement is not limited to the case where the ultrasonic sensor 205 is provided. For example, a laser distance sensor, an infrared sensor, or the like may be used. In addition, when the size of the specific part of the user (for example, the size of the face) is known, the image analysis unit 315 matches the built-in camera 204 and the user's size by matching the size of the known face with the size of the captured face. The distance can be calculated.

また、画像解析部315は、天井カメラ520の画像データを取り込んで、ユーザの頭の位置、移動量等を検出する。例えば、ユーザの頭部が絶え間なく揺れ動くことを画像解析部315が検出すれば、サーバCPU310は、ユーザの集中力散漫、居眠り等を判断することができる。なお、超音波センサ205等により、ユーザの頭部の位置、移動量を検出できる場合は、天井カメラ520を省略しても良い。逆に、天井カメラ520により内蔵カメラ204とユーザの距離を検出できるのであれば、超音波センサ205を省略しても良い。   Further, the image analysis unit 315 captures the image data of the ceiling camera 520 and detects the position of the user's head, the amount of movement, and the like. For example, if the image analysis unit 315 detects that the user's head constantly shakes, the server CPU 310 can determine whether the user is distracting, falling asleep, or the like. Note that the ceiling camera 520 may be omitted if the position and movement amount of the user's head can be detected by the ultrasonic sensor 205 or the like. Conversely, if the distance between the built-in camera 204 and the user can be detected by the ceiling camera 520, the ultrasonic sensor 205 may be omitted.

さらに、画像解析部315は、撮影画像を用いてユーザのしぐさを検出する。例えば、画像解析部315は、撮影画像と額に手をあてているしぐさ、腕を組んでいるしぐさなどのリファレンス画像とのパターンマッチングを行い、ユーザのしぐさを検出する。   Further, the image analysis unit 315 detects the user's gesture using the captured image. For example, the image analysis unit 315 performs pattern matching between a captured image and a reference image such as a gesture in which a hand is placed on the forehead or a gesture in which arms are folded, and detects a user's gesture.

スケジュール作成部316は、複数のパソコン200からユーザ毎の入力を受け付けて、各ユーザが行うべきタスクのスケジュールを作成する。スケジュール作成部316は、例えばキーボード202、タッチパッド203、マウス500等で受け付けた各ユーザの入力を用いてユーザが行うべきタスクのスケジュールを作成する。また、スケジュール作成部316は、マイク207から入力されたユーザのスケジュールに関する音声を音声解析部314で解析した解析結果を用いて、スケジュールを作成しても良い。作成されたスケジュール情報は記録装置313に記憶される。   The schedule creation unit 316 accepts input for each user from the plurality of personal computers 200 and creates a schedule of tasks to be performed by each user. The schedule creation unit 316 creates a schedule of tasks to be performed by the user using each user's input received with the keyboard 202, the touch pad 203, the mouse 500, and the like. In addition, the schedule creation unit 316 may create a schedule using an analysis result obtained by analyzing the voice related to the user's schedule input from the microphone 207 by the voice analysis unit 314. The created schedule information is stored in the recording device 313.

外部接続インターフェイス317は、ネットワーク400を介してパソコン200の外部接続インターフェイス213に接続し、サーバ300とパソコン200との間の通信を可能にする。外部接続インターフェイス317は、インターネットプロトコル等の通信プロトコルに準拠している。外部接続インターフェイス317は、その他の外部機器と接続するためのインターフェイスであってもよい。   The external connection interface 317 is connected to the external connection interface 213 of the personal computer 200 via the network 400, and enables communication between the server 300 and the personal computer 200. The external connection interface 317 is compliant with a communication protocol such as the Internet protocol. The external connection interface 317 may be an interface for connecting to other external devices.

なお、本実施形態において、サーバ300が音声解析機能および画像解析機能を実行するが、複数のパソコン200のそれぞれが、音声解析機能の少なくとも一部の機能または画像解析機能の少なくとも一部の機能を実行し、解析結果をサーバ300に送信するようにしてもよい。   In the present embodiment, the server 300 executes the voice analysis function and the image analysis function, but each of the plurality of personal computers 200 has at least a part of the voice analysis function or at least a part of the image analysis function. The analysis result may be transmitted to the server 300.

図4は、本実施形態に係る状況判別システムの処理を示すフローチャートである。本フローチャートにおいては、サーバCPU310は、複数のユーザの状況判定処理と判定結果に応じた処理とを実行する。なお、本フローチャートにおいては、複数のユーザが複数のパソコン200をそれぞれ操作してタスクを実行している状況を想定する。サーバCPU310は、複数のパソコン200の少なくとも1台との接続が確立した場合、パソコン200との接続確立後にキーボード202、タッチパッド203、マウス500等で受け付けたユーザの入力を取得した場合などに本フローチャートの処理を開始する。   FIG. 4 is a flowchart showing processing of the situation determination system according to the present embodiment. In this flowchart, the server CPU 310 executes a situation determination process for a plurality of users and a process according to the determination result. In this flowchart, it is assumed that a plurality of users operate a plurality of personal computers 200 to execute tasks. The server CPU 310 is used when a connection with at least one of the plurality of personal computers 200 is established, or when a user input received by the keyboard 202, the touch pad 203, the mouse 500, or the like is obtained after the connection with the personal computer 200 is established. The process of the flowchart is started.

サーバCPU310は、各ユーザが行っているタスクの内容を判定する(ステップS101)。サーバCPU310は、例えば記録装置313に記録されているスケジュール情報を参照して、各ユーザが行っているタスクの内容を判定する。また、サーバCPU310は、キーボード202、タッチパッド203、マウス500等を用いて各ユーザが入力した情報をパソコン200から取得し、取得した情報を用いて各ユーザが行っているタスクの内容を判定してもよい。   The server CPU 310 determines the content of the task being performed by each user (step S101). For example, the server CPU 310 refers to schedule information recorded in the recording device 313 to determine the content of the task performed by each user. In addition, the server CPU 310 acquires information input by each user from the personal computer 200 using the keyboard 202, the touch pad 203, the mouse 500, and the like, and determines the content of the task performed by each user using the acquired information. May be.

次に、サーバCPU310は、各ユーザの生体に関する情報を入力する(ステップS102)。具体的には、サーバCPU310は、生体センサ540が検出した各ユーザの脈拍、体温、発汗といった生体情報、圧電センサ208が検出した各ユーザのキーボード202を叩く強さ、キーボード202を叩く速度、各ユーザの貧乏揺すり、各ユーザの発話速度、各ユーザの発話量、各ユーザの独り言、各ユーザのため息などの情報を生体に関する情報として入力する。なお、上記の通り、生体に関する情報は、生体センサ540から取得される情報に限らず、内蔵カメラ204、マイク207、圧電センサ208、天井カメラ520などからも取得することができ、これらは広義の生体センサともいえ、その検出結果がサーバCPU310に入力される。また、サーバCPU310は、これら全ての生体に関する情報を入力しなくても良く、各ユーザの状況を判定できるだけの生体に関する情報を入力すれば良い。なお、本実施形態において、サーバCPU310が複数のユーザの生体に関する情報を入力する入力部として機能する。   Next, the server CPU 310 inputs information related to the living body of each user (step S102). Specifically, the server CPU 310 detects biological information such as the pulse, body temperature, and sweating of each user detected by the biometric sensor 540, the strength of tapping each user's keyboard 202 detected by the piezoelectric sensor 208, the speed at which the keyboard 202 is tapped, Information such as a user's poor shaking, each user's utterance speed, each user's utterance amount, each user's monologue, each user's sigh is input as information about the living body. As described above, the information related to the living body is not limited to the information acquired from the biological sensor 540, but can be acquired from the built-in camera 204, the microphone 207, the piezoelectric sensor 208, the ceiling camera 520, and the like. Even if it is a biometric sensor, the detection result is input to the server CPU 310. Further, the server CPU 310 does not need to input information on all of these living bodies, and may input information on living bodies that can determine the status of each user. In the present embodiment, the server CPU 310 functions as an input unit that inputs information related to a plurality of users' living bodies.

そして、サーバCPU310は、各ユーザの状況を判定する(ステップS103)。サーバCPU310は、例えば各ユーザが独り言を言った回数やため息をついた回数を計測して、各ユーザの状況を判定する。サーバCPU310は、音声解析部314の解析結果を用いて独り言やため息を検出し、独り言の回数やため息の回数を計測する。また、サーバCPU310は、画像解析部315の解析結果を用いて各ユーザの表情、口の動き等を検出し、独り言の回数やため息の回数を計測するようにしても良い。   Then, the server CPU 310 determines the status of each user (step S103). For example, the server CPU 310 measures the number of times each user speaks to himself or sighs and determines the situation of each user. The server CPU 310 detects monologues and sighs using the analysis result of the voice analysis unit 314, and measures the number of monologues and the number of sighs. Further, the server CPU 310 may detect the facial expression of each user, the movement of the mouth, and the like using the analysis result of the image analysis unit 315, and measure the number of self-talks and the number of sighs.

サーバCPU310は、例えば各タイマー211を用いて各ユーザの独り言やため息の頻度(単位時間あたりの独り言・ため息の回数)を計測し、あるユーザの独り言やため息の頻度が閾値以上であればそのユーザのモチベーションが下がっていると判定する。また、サーバCPU310は、例えば、音声解析部314の解析結果を用いて、「あーあ」、「いやになっちゃう」等のネガティブな独り言か、「頑張ろう」、「良かった」等のポジティブな独り言かを識別する。そして、サーバCPU310は、あるユーザがネガティブな独り言を言っていると判断した場合にはそのユーザのモチベーションが下がっていると判定し、あるユーザがポジティブな独り言を言っていると判断した場合にはそのユーザのモチベーションが上がっていると判定する。さらに、サーバCPU310は、ネガティブな独り言の回数やため息の回数のログである独り言ログをユーザ毎に記録装置313に記録し、あるユーザの独り言ログに記録されたネガティブな独り言の回数やため息の回数が増加傾向である場合にはそのユーザのモチベーションが下がっていると判定することができる。ここで、モチベーションが上がっているときにはアドレナリン、セロトニン等のモノアミン神経伝達物質が分泌されて血圧や心拍数が上がる傾向にあることから、サーバCPU310は、生体センサ540の生体情報から得られたあるユーザの血圧や心拍数が上昇しておらず且つそのユーザのネガティブな独り言の回数やため息の回数が増加傾向である場合に、そのユーザのモチベーションが下がっていると判定しても良い。なお、サーバCPU310は、複数のユーザのモチベーションの度合いを比較可能にするために、モチベーションの度合いを数値またはレベルで管理する。   For example, the server CPU 310 uses each timer 211 to measure the frequency of each user's monologue and sigh (the number of monologues and sighs per unit time). It is determined that the motivation of is down. In addition, the server CPU 310 uses the analysis result of the voice analysis unit 314, for example, to say negative utterances such as “Ah” or “I do n’t like it”, or positive singing such as “Let's do my best” or “Good”. To identify. Then, when the server CPU 310 determines that a certain user is speaking negatively, the server CPU 310 determines that the user's motivation is decreasing, and when determining that a certain user is speaking positively speaking, It is determined that the user is motivated. Further, the server CPU 310 records a monologue log, which is a log of the number of negative monologues and the number of sighs, in the recording device 313 for each user, and the number of negative monologues and the number of sighs recorded in the monologue log of a certain user. Can be determined that the user's motivation is decreasing. Here, when motivation is increasing, monoamine neurotransmitters such as adrenaline and serotonin are secreted and blood pressure and heart rate tend to increase. If the blood pressure or heart rate of the user is not increasing and the number of negative self-speaks or sighs of the user is increasing, it may be determined that the user's motivation is decreasing. Note that the server CPU 310 manages the degree of motivation by numerical values or levels so that the degree of motivation of a plurality of users can be compared.

サーバCPU310は、ステップS102で取得した生体に関する情報を用いて、各ユーザの集中度を各ユーザの状況として判定する。一般的に、人間は、集中しているときに脈拍数、体温が上昇する。また、急ぎのタスクをしていているときは(すなわち、集中度が高くなるとき)、キーボード202を叩く強さが強くなったり、キーボード202を叩く速度が速くなったり、貧乏揺すりを行なったりする場合もある。また、集中しているときには頭部が動くことが少ないのに対し、集中していない場合には、よそ見をしたり、場合によっては居眠りをしたりして頭部の動きが大きくなる。そこで、サーバCPU310は、記録装置313に継続的に記録された各ユーザの生体情報のログである生体情報ログとステップS102で入力した各ユーザの生体に関する情報とを比較することにより、各ユーザの集中度を判定する。この場合、サーバCPU310は、過去に各ユーザが集中したときの生体に関する情報と、ステップS102で入力した各ユーザの生体に関する情報とを比較して各ユーザの集中度を検出しても良く、また、あるユーザの通常の状態よりも脈拍、キーボード202を叩く力量が10%以上増加した場合に、そのユーザが集中していると判断しても良い。なお、貧乏揺すりは、集中しているときにする場合と、集中していないときにする場合とが考えられる。このような場合、サーバCPU310は、ユーザ毎に他の生体に関する情報から集中しているときに貧乏揺すりをするタイプかどうかを判別して、その後の集中度の判定に用いれば良い。なお、サーバCPU310は、複数のユーザの集中度を比較可能にするために、集中度を数値またはレベルで管理する。   The server CPU 310 determines the degree of concentration of each user as the situation of each user using the information regarding the living body acquired in step S102. Generally, when a person is concentrated, the pulse rate and body temperature rise. Also, when doing a rush task (ie, when the concentration level is high), the strength of hitting the keyboard 202 is increased, the speed of hitting the keyboard 202 is increased, or poor shaking is performed. There is also. In addition, the head hardly moves when concentrating, whereas when it is not concentrating, the head moves more by looking away or depending on the situation. Therefore, the server CPU 310 compares the biometric information log, which is a log of the biometric information of each user continuously recorded in the recording device 313, with the information related to the biometric information of each user input in step S102. Determine the degree of concentration. In this case, the server CPU 310 may detect the degree of concentration of each user by comparing the information regarding the living body when each user has concentrated in the past with the information regarding the living body of each user input in step S102. If the pulse and the amount of force of hitting the keyboard 202 are increased by 10% or more than the normal state of a certain user, it may be determined that the user is concentrated. It should be noted that the poverty shaking may be performed when concentrated or when not concentrated. In such a case, the server CPU 310 may determine whether or not the user is a type that performs poor shaking when concentrating from information related to another living body for each user, and may be used for determining the degree of concentration thereafter. Note that the server CPU 310 manages the degree of concentration by a numerical value or a level in order to make it possible to compare the concentrations of a plurality of users.

サーバCPU310は、タスクの名前であるタスク名と、タスクの内容であるタスク内容と、前述の生体情報ログとを対応付けてタスクログを作成し、作成したタスクログを記録装置313に記録する(ステップS104)。また、サーバCPU310は、タスクログにタスクの難易度(高、中、低)を付加したり、タスク内容のカテゴリー(創造型業務、事務型業務など)や、複数人によりタスクを行なう場合には、複数人の対人関係であるユーザ関係を付加したりしてもよい。   The server CPU 310 creates a task log by associating the task name that is the name of the task, the task content that is the task content, and the above-described biometric information log, and records the created task log in the recording device 313 (step S104). ). In addition, the server CPU 310 adds a task difficulty level (high, medium, low) to the task log, a task content category (creative business, office work, etc.), or when a task is performed by a plurality of people. A user relationship that is an interpersonal relationship of a plurality of people may be added.

サーバCPU310は、複数のユーザの状況を比較する(ステップS105)。サーバCPU310は、例えば複数のユーザのモチベーションの度合いを比較したり、複数のユーザの集中度を比較したりする。なお、本実施形態において、サーバCPU310が生体に関する情報に基づいて複数のユーザを比較する比較部として機能する。   The server CPU 310 compares the situations of a plurality of users (step S105). For example, the server CPU 310 compares the degrees of motivation of a plurality of users or compares the degrees of concentration of a plurality of users. In the present embodiment, the server CPU 310 functions as a comparison unit that compares a plurality of users based on information related to a living body.

そして、サーバCPU310は、ステップS105の比較結果に基づいて、複数のユーザの中から対象ユーザを抽出する(ステップS106)。サーバCPU310は、例えば複数のユーザのうちモチベーションの度合いが一番低いユーザまたは集中度が一番低いユーザを抽出する。この場合において、モチベーションの度合いが一番低いユーザが複数存在する場合若しくは集中度が一番低いユーザが複数存在する場合には、サーバCPU310は、これら該当するユーザのタスクログを参照して、モチベーションが低い状況または集中度が低い状況が一番長く継続しているユーザを抽出しても良い。また、サーバCPU310は、複数のユーザのうちモチベーションの度合いが相対的に低いユーザまたは集中度が相対的に低いユーザを所定数抽出するようにしても良い。さらに、サーバCPU310は、抽出した対象ユーザのモチベーションの度合い若しくは集中度が閾値以上の場合には、対象ユーザなしと判断し、ステップS101へ戻るようにしても良い。なお、本実施形態において、サーバCPU310が比較結果に基づき相対的に集中度が低い人を抽出する抽出部として機能する。   Then, the server CPU 310 extracts a target user from a plurality of users based on the comparison result in step S105 (step S106). For example, the server CPU 310 extracts a user having the lowest motivation or the user having the lowest concentration among a plurality of users. In this case, when there are a plurality of users having the lowest degree of motivation, or when there are a plurality of users having the lowest concentration, the server CPU 310 refers to the task logs of the corresponding users and performs the motivation. You may extract the user whom the low situation or the situation where concentration is low lasts the longest. Further, the server CPU 310 may extract a predetermined number of users having a relatively low degree of motivation or a relatively low degree of concentration among a plurality of users. Further, the server CPU 310 may determine that there is no target user when the degree of motivation or concentration of the extracted target user is equal to or greater than a threshold value, and may return to step S101. In the present embodiment, the server CPU 310 functions as an extraction unit that extracts people with a relatively low degree of concentration based on the comparison result.

サーバCPU310は、ステップS106において対象ユーザを抽出した場合に、対象ユーザに対する未読の事務連絡メールをディスプレイ201にポップアップ表示させる制御信号を対象ユーザのパソコン200に送信するようにしても良い。また、サーバCPU310は、ステップS106において対象ユーザを抽出した場合に、対象ユーザが事務連絡、雑用等を受付可能な状態である旨の通知を対象ユーザの管理者のパソコン200に送信するようにしても良い。   When the target user is extracted in step S <b> 106, the server CPU 310 may transmit a control signal for popping up an unread office contact mail for the target user on the display 201 to the target user's personal computer 200. In addition, when the target user is extracted in step S106, the server CPU 310 transmits a notification that the target user is in a state where it can accept office communication, chores, etc., to the personal computer 200 of the target user's administrator. Also good.

サーバCPU310は、対象ユーザの環境を変更するか否かを判断する(ステップS107)。具体的には、サーバCPU310は、マイク207や天井マイク530が集音した音の大きさが通常に比べて5dB以上大きければ環境変更必要とし、5dB未満であれば環境変更不必要と判断する。なお、サーバCPU310は、日中であれば55dB、夜間であれば50dBというように時間帯により閾値を設けて、この閾値を超えたときに環境変更が必要と判断してもよく、また、この閾値をユーザ毎に設定してもよい。   The server CPU 310 determines whether or not to change the environment of the target user (step S107). Specifically, the server CPU 310 determines that the environment change is necessary if the volume of the sound collected by the microphone 207 or the ceiling microphone 530 is 5 dB or more than usual, and the environment change is unnecessary if it is less than 5 dB. The server CPU 310 may set a threshold according to the time zone such as 55 dB during the day and 50 dB during the night, and may determine that the environment needs to be changed when this threshold is exceeded. A threshold value may be set for each user.

サーバCPU310は、ステップS107において対象ユーザの環境を変更すると判断した場合に、環境制御処理を実行する(ステップS108)。サーバCPU310は、天井マイク530から入力した音に対し反転アンプにより位相を反転させ、反転した音を対象ユーザのパソコン200のスピーカ206から対象ユーザに向けて出力する。この場合、天井マイク530が設けられている位置と対象ユーザの耳の位置とが異なるので、完全に騒音・ノイズを除去することはできないが、騒音・ノイズを低減することは可能である。この場合には、天井マイク530およびスピーカ206が対象ユーザ周辺の音(騒音・ノイズ)を検出して低減する低減装置として機能し、サーバCPU310がユーザの環境を制御する環境制御部として機能する。また、サーバCPU310は、コピー機やプリンタ等の近傍に予め設置されているスピーカからコピー機やプリンタ等の騒音の位相を反転した音を出力させる制御信号を無線LANで当該スピーカに送信してもよい。この場合には、コピー機やプリンタ等の近傍に予め設置されているスピーカおよび天井マイク530がユーザ周辺の音(騒音・ノイズ)を検出して低減する低減装置として機能し、サーバCPU310がユーザの環境を制御する環境制御部として機能する。さらに、サーバCPU310は、他のユーザの声が対象ユーザに対するノイズとなっていると判断した場合に、「お静かに」等の注意文をディスプレイ201に表示させる制御信号を他のユーザのパソコン200に送信するようにしても良い。なお、天井マイク530に代えてマイク207が入力した音に対して騒音・ノイズを低減するようにしてもよい。   When the server CPU 310 determines in step S107 that the environment of the target user is to be changed, the server CPU 310 executes environment control processing (step S108). The server CPU 310 reverses the phase of the sound input from the ceiling microphone 530 using an inverting amplifier, and outputs the inverted sound from the speaker 206 of the target user's personal computer 200 to the target user. In this case, since the position where the ceiling microphone 530 is provided is different from the position of the target user's ear, noise / noise cannot be completely removed, but noise / noise can be reduced. In this case, the ceiling microphone 530 and the speaker 206 function as a reduction device that detects and reduces sound (noise / noise) around the target user, and the server CPU 310 functions as an environment control unit that controls the user's environment. Further, the server CPU 310 may transmit a control signal for outputting a sound obtained by inverting the phase of noise of a copier or printer from a speaker installed in the vicinity of the copier or printer to the speaker via a wireless LAN. Good. In this case, a speaker and a ceiling microphone 530 installed in the vicinity of a copier, a printer, or the like function as a reduction device that detects and reduces sounds around the user (noise / noise). It functions as an environment control unit that controls the environment. Furthermore, when the server CPU 310 determines that the voice of another user is a noise for the target user, the server CPU 310 generates a control signal for causing the display 201 to display a caution sentence such as “be quiet”. You may make it transmit to. Note that noise or noise may be reduced with respect to the sound input from the microphone 207 instead of the ceiling microphone 530.

そして、サーバCPU310は、対象ユーザの気分を転換させるための処理を実施する。具体的には、まず、対象ユーザのパソコン200のパソコンCPU210は、外部接続インターフェイス213を介して外部機器等から取得された対象ユーザが好きな音楽、マイク207等から取得された対象ユーザの家族や恋人の声などのユーザによって選定された音に関する情報をROM212に登録する。そして、サーバCPU310は、対象ユーザのパソコン200のROM212に登録されている音をスピーカ206から出力する制御信号を対象ユーザのパソコン200に送信する。ユーザによって選定された音に関する情報は、ユーザが好きな音楽、ユーザの家族や恋人の声などの音の情報だけでなく、出力音量、出力音圧、出力時間等の出力条件の情報も含んでもよい。なお、本実施形態において、サーバCPU310がユーザの環境を制御する環境制御部として機能する。   Then, the server CPU 310 performs a process for changing the mood of the target user. Specifically, first, the personal computer CPU 210 of the target user's personal computer 200 receives the target user's family acquired from the target user's favorite music acquired from the external device or the like via the external connection interface 213, the microphone 207, or the like. Information related to the sound selected by the user, such as a lover's voice, is registered in the ROM 212. Then, the server CPU 310 transmits a control signal for outputting the sound registered in the ROM 212 of the target user's personal computer 200 from the speaker 206 to the target user's personal computer 200. The information related to the sound selected by the user may include not only the information of the user's favorite music, the voice of the user's family or lover, but also the output condition information such as the output volume, output sound pressure, and output time. Good. In the present embodiment, the server CPU 310 functions as an environment control unit that controls the user's environment.

サーバCPU310は、対象ユーザのパソコン200のスピーカ206の指向性に関連する状況を確認し、確認した状況に応じてスピーカ206の出力音圧と出力音量の少なくとも一方を制御する制御信号を対象ユーザのパソコン200に送信する。例えば、サーバCPU310は、画像解析部315の解析結果を用いてスピーカ206の指向性の方向に対象ユーザ以外の者を検知した場合に、スピーカ206の出力音圧と出力音量の少なくとも一方の設定を変更する制御信号を対象ユーザのパソコン200に送信する。この場合に、サーバCPU310は、スピーカ206の出力音圧と出力音量の少なくとも一方の値を、ユーザ以外の者が検知されない場合における設定値より低く設定する制御信号を対象ユーザのパソコン200送信するようにしても良い。これに代えて、サーバCPU310は、画像解析部315の解析結果により対象ユーザ以外の者の位置を検出して、複数(本実施の形態では2つ)のスピーカ206のうち対象ユーザ以外の者には音の届かない指向性を有したスピーカ206を選択するようにしてもよい。また、サーバCPU310は、音楽を流す時間を例えば5分に制限したり、音楽を流す時間帯を制限したりする制御信号を対象ユーザのパソコン200に送信しても良い。さらに、サーバCPU310は、ディスプレイ201に長期目標、ユーザが好きな言葉などをポップアップ表示する制御信号を対象ユーザのパソコン200に送信するようにしても良い。サーバCPU310は、環境変更処理が完了したら、ステップS101へ戻る。   The server CPU 310 confirms a situation related to the directivity of the speaker 206 of the target user's personal computer 200, and sends a control signal for controlling at least one of the output sound pressure and the output volume of the speaker 206 according to the confirmed situation. Send to PC 200. For example, when the server CPU 310 detects a person other than the target user in the direction of directivity of the speaker 206 using the analysis result of the image analysis unit 315, the server CPU 310 sets at least one of the output sound pressure and the output volume of the speaker 206. A control signal to be changed is transmitted to the personal computer 200 of the target user. In this case, the server CPU 310 transmits a control signal for setting at least one of the output sound pressure and the output volume of the speaker 206 to be lower than the set value when a person other than the user is not detected. Anyway. Instead, the server CPU 310 detects the position of a person other than the target user based on the analysis result of the image analysis unit 315, and determines the position other than the target user from among a plurality (two in the present embodiment) of the speakers 206. May select the speaker 206 having directivity that does not reach the sound. Further, the server CPU 310 may transmit a control signal for limiting the time for playing music to, for example, 5 minutes, or for limiting the time zone for playing music to the personal computer 200 of the target user. Further, the server CPU 310 may transmit a control signal for pop-up displaying a long-term target, a user's favorite word, and the like on the display 201 to the personal computer 200 of the target user. When the environment change process is completed, the server CPU 310 returns to step S101.

一方、サーバCPU310は、ステップS107において対象ユーザの環境を変更しないと判断した場合や、上述の騒音・ノイズの低減を行なったにも関わらず集中度またはモチベーションの改善がない場合には、スケジュール作成部316を用いて、対象ユーザの新たなスケジュールを作成する(ステップS109)。具体的には、サーバCPU310は、対象ユーザの生体に関する情報、対象ユーザの状況、対象ユーザのタスクログを用いて、対象ユーザが行っているタスクと異なるタスクを決定し、タスクの順番を変更した新たなスケジュールを作成する。   On the other hand, if the server CPU 310 determines that the environment of the target user is not changed in step S107, or if there is no improvement in the degree of concentration or motivation despite the above-described noise / noise reduction, the schedule is created. A new schedule for the target user is created using the unit 316 (step S109). Specifically, the server CPU 310 determines a task that is different from the task performed by the target user using the information related to the target user's living body, the status of the target user, and the task log of the target user, and changes the task order. A simple schedule.

まず、サーバCPU310は、対象ユーザのスケジュール情報から現在行っている第1のタスクを確認し、過去に行ったタスクの中から第1のタスクと同じ種類のタスクを抽出する。次に、サーバCPU310は、抽出したタスクを行ったときの対象ユーザの生体に関する情報または対象ユーザの状況を比較する。そして、サーバCPU310は、スケジュール情報に含まれる今後行うべきタスクのうち、過去にモチベーションが上がっている状況で行われたタスク、集中度が閾値以上の状況で行われたタスク、またはルーチンタスクのように数多く行われたタスクと同じ種類のタスクがあるかどうかを検出する。さらに、サーバCPU310は、対象ユーザのタスクログから対象ユーザの集中度が高い時間帯および集中度が低い時間帯を確認する。なお、同じ種類のタスクは、完全同一のタスクだけでなく、タスクを複数のカテゴリーに分類した場合に同じカテゴリーに属するタスクも含む。   First, the server CPU 310 confirms the first task currently performed from the schedule information of the target user, and extracts the same type of task as the first task from the tasks performed in the past. Next, the server CPU 310 compares information regarding the target user's living body or the status of the target user when the extracted task is performed. Then, the server CPU 310 is a task to be performed in the future included in the schedule information, such as a task performed in a situation where motivation has been raised in the past, a task performed in a situation where the degree of concentration is a threshold value or more, or a routine task Detect if there is a task of the same type as a task that has been done a lot. Further, the server CPU 310 confirms a time zone in which the concentration level of the target user is high and a time zone in which the concentration level is low from the task log of the target user. The same type of tasks includes not only completely identical tasks but also tasks belonging to the same category when the tasks are classified into a plurality of categories.

サーバCPU310は、対象ユーザのタスクログを用いて、対象ユーザの状況が現在行っている第1のタスクを行うのに好ましくないかどうかを確認し、過去におけるタスクの順番変更を確認する。そして、サーバCPU310は、対象ユーザのタスクログおよびスケジュール情報を用いて、今後行うべきタスクのうちから対象ユーザが第1のタスクよりも得意としたり、第1のタスクよりも難易度の低い第2のタスクを先に行うスケジュールを作成する。また、サーバCPU310は、今後行うべきタスクのうちからルーチンタスクのように数多く行われた第2のタスクを先に行うスケジュールを作成しても良い。なお、サーバCPU310は、対象ユーザがルーチンタスクに飽きているようであれば、創造型の業務を行なうようなスケジュールを作成してもよい。さらに、サーバCPU310は、対象ユーザの集中度が高くなる時間帯に第1のタスクを行うスケジュールを作成する。   The server CPU 310 uses the task log of the target user to check whether the status of the target user is not preferable for performing the first task that is currently being performed, and confirms a change in the order of tasks in the past. Then, the server CPU 310 uses the target user's task log and schedule information, and the target user is better than the first task among the tasks to be performed in the future, or the second less difficult than the first task. Create a schedule to do the task first. Further, the server CPU 310 may create a schedule for performing the second task, which has been performed many times like a routine task, among tasks to be performed in the future. Note that the server CPU 310 may create a schedule for performing creative work if the target user seems bored with the routine task. Further, the server CPU 310 creates a schedule for performing the first task during a time period when the concentration degree of the target user is high.

また、サーバCPU310は、例えば対象ユーザが過去に行ったタスクのうち集中度が閾値以上であったタスクを抽出し、対象ユーザのスケジュール情報に含まれる今後行うべきタスクの中から抽出したタスクと同じ種類の第2のタスクを決定する。なお、同じ種類のタスクは、完全同一のタスクだけでなく、タスクを複数のカテゴリーに分類した場合に同じカテゴリーに属するタスクも含む。今後行うべきタスクの中に抽出したタスクと同じ種類のタスクが複数ある場合には、サーバCPU310は、これら複数のタスクのうち、優先度の高いタスク、例えば一番早い時間帯に設定されていたタスクを第2のタスクとして決定する。   In addition, the server CPU 310 extracts, for example, a task whose degree of concentration is equal to or higher than a threshold among tasks performed by the target user in the past, and is the same as the task extracted from tasks to be performed in the future included in the target user's schedule information Determine a second task of the type. The same type of tasks includes not only completely identical tasks but also tasks belonging to the same category when the tasks are classified into a plurality of categories. When there are a plurality of tasks of the same type as the extracted tasks among tasks to be performed in the future, the server CPU 310 is set to a task with a high priority among these tasks, for example, the earliest time zone The task is determined as the second task.

サーバCPU310は、同種類に属する過去の複数のタスクに対する対象ユーザ状況の変移に応じて、第2のタスクを決定する。具体的には、まず、サーバCPU310は、対象ユーザのタスクログに記録されている各種類に属する複数のタスクの履歴をそれぞれ確認する。そして、サーバCPU310は、前々回のタスク時の集中度よりも前回のタスク時の集中度が高くなっている種類がある場合には、対象ユーザは同種類のタスクを前回より高い集中度で行うことができると推定し、今後行うべきタスクのうちから当該種類に属するタスクを第2のタスクとして決定する。ただし、前回のタスク時の集中度が閾値未満である場合には、サーバCPU310は当該種類を候補から除外する。   The server CPU 310 determines the second task according to the change of the target user situation with respect to a plurality of past tasks belonging to the same type. Specifically, first, the server CPU 310 confirms the history of a plurality of tasks belonging to each type recorded in the task log of the target user. When there is a type in which the concentration level at the previous task is higher than the concentration level at the previous task, the server CPU 310 performs the same type of task at a higher concentration level than the previous time. From among tasks to be performed in the future, a task belonging to the type is determined as the second task. However, if the concentration at the previous task is less than the threshold, the server CPU 310 excludes the type from the candidates.

サーバCPU310は、対象ユーザのタスクログからタスクの集中度が高い時間帯および集中度が低い時間帯を確認し、第1のタスクをタスクの集中度が高い時間帯に変更する。そして、サーバCPU310は、タスクの順番を変更した新たなスケジュールを作成する。   The server CPU 310 confirms the time zone with high task concentration and the time zone with low concentration from the task log of the target user, and changes the first task to a time zone with high task concentration. Then, the server CPU 310 creates a new schedule with the task order changed.

サーバCPU310は、ステップS109で作成したスケジュール情報を、外部接続インターフェイス317を介して対象ユーザのパソコン200に送信する(ステップS110)。なお、本実施形態において、サーバCPU310および外部接続インターフェイス317が異なるタスクに関する情報を出力する出力部として機能する。また、本実施形態において、サーバCPU310および外部接続インターフェイス317がタスクのやり方の変更に関する情報の一つであるタスクを行う時間変更に関する情報を出力する出力部として機能する。   The server CPU 310 transmits the schedule information created in step S109 to the target user's personal computer 200 via the external connection interface 317 (step S110). In the present embodiment, the server CPU 310 and the external connection interface 317 function as an output unit that outputs information regarding different tasks. In the present embodiment, the server CPU 310 and the external connection interface 317 function as an output unit that outputs information related to time change for performing a task, which is one of information related to change in task method.

サーバ300からスケジュール情報を取得した対象ユーザのパソコン200のパソコンCPU210は、取得したスケジュールを対象ユーザに提示し、タスクの順番を変更するかどうかを対象ユーザに問い合わせる。パソコンCPU210は、スピーカ206から音声を出力して対象ユーザの注意を喚起し、現在行っている第1のタスクに代えて行う第2のタスクの情報をディスプレイ201に表示するとともに、第1のタスクを行う日時を表示する。   The personal computer CPU 210 of the personal computer 200 of the target user who acquired the schedule information from the server 300 presents the acquired schedule to the target user and inquires of the target user whether or not to change the task order. The personal computer CPU 210 outputs a sound from the speaker 206 to alert the target user, displays information on the second task to be performed instead of the first task currently being performed on the display 201, and also displays the first task. Displays the date and time when

そして、対象ユーザのパソコン200のパソコンCPU210は、タスクの順番変更に同意する旨の対象ユーザの入力をキーボード202、タッチパッド203、マウス500等で受け付けた場合に、タスクの順番変更に同意する旨の情報を、外部接続インターフェイス213を介してサーバ300に送信する。また、対象ユーザのパソコン200のパソコンCPU210は、対象ユーザが発した「はい」、「OK」等の同意する旨の音声をマイク207で受け付けた場合に、タスクの順番変更に同意する旨の情報を、外部接続インターフェイス213を介してサーバ300に送信する。   Then, the personal computer CPU 210 of the target user's personal computer 200 agrees to change the task order when the target user's input to agree to change the task order is received by the keyboard 202, the touch pad 203, the mouse 500, or the like. Is transmitted to the server 300 via the external connection interface 213. In addition, the personal computer CPU 210 of the target user's personal computer 200 receives information indicating that the target user agrees to change the order of the tasks when the microphone 207 accepts a voice that agrees with “Yes”, “OK”, or the like. Is transmitted to the server 300 via the external connection interface 213.

サーバCPU310は、タスクの順番変更に同意する旨の情報を取得したか否かを判断する(ステップS111)。サーバCPU310は、タスクの順番変更に同意する旨の情報を取得した場合に、記録装置313に記憶されている対象ユーザのスケジュール情報を変更し(ステップS112)、本フローチャートを終了する。一方、サーバCPU310は、タスクの順番変更に同意する旨の情報を取得しなかった場合には、本フローチャートを終了する。なお、上述の説明では1人の対象ユーザが行うべき複数のタスクを行なう順番変更を行なったが、ステップS106で抽出された対象ユーザが複数の場合には、サーバCPU310は複数の対象ユーザ内で行うべきタスクの入れ換えを行なう(例えば対象ユーザAに対象ユーザBの第1のタスクを行わせ、対象ユーザBに対象ユーザAの第1のタスクを行わせる)ようにしてもよい。更に、サーバCPU310は、モチベーションの上がっているユーザにステップS106で抽出された対象ユーザの業務の一部を割り当てるようにステップS109でスケジュールを作成してもよい。サーバCPU310は、複数人の間でタスクの入れ換えを行なう場合は、相対的に負荷が増えるユーザにスケジュール変更を容認するかどうかを問い合わせ、容認された場合には相対的に負荷が減るユーザにスケジュール変更を連絡すればよい。   The server CPU 310 determines whether or not information indicating consent to the task order change has been acquired (step S111). When the server CPU 310 obtains the information indicating that the task order change is agreed, the server CPU 310 changes the schedule information of the target user stored in the recording device 313 (step S112), and ends this flowchart. On the other hand, if the server CPU 310 has not acquired information indicating that the order of tasks is to be agreed, the process of the flowchart ends. In the above description, the order of performing a plurality of tasks to be performed by one target user has been changed. However, when there are a plurality of target users extracted in step S106, the server CPU 310 determines that a plurality of target users. The task to be performed may be replaced (for example, the target user A performs the first task of the target user B and the target user B performs the first task of the target user A). Further, the server CPU 310 may create a schedule in step S109 so that a part of the business of the target user extracted in step S106 is allocated to the motivated user. When exchanging tasks among a plurality of persons, the server CPU 310 inquires of a user whose load is relatively increased whether to accept the schedule change, and if accepted, the server CPU 310 schedules the user whose load is relatively decreased. Just contact the change.

上述の処理フローにおいては、サーバCPU310は、対象ユーザのパソコン200に対してタスクの順番を変更したスケジュール情報を送信したが、対象ユーザの管理者のパソコン200に対して対象ユーザのタスクの順番を変更したスケジュール情報を送信してもよい。なお、サーバCPU310は、対象ユーザの管理者のパソコン200からタスクの順番変更に同意する旨の情報を取得した場合には、タスクの順番を変更したスケジュール情報を対象ユーザのパソコン200に送信する。なお、管理パソコン200に音声解析部314、画像解析部315、スケジュール作成部316を設けることにより、サーバ300を省略した状況判別システム100を構成することができる。   In the processing flow described above, the server CPU 310 transmits schedule information in which the task order is changed to the target user's personal computer 200, but the target user's task order is transmitted to the target user's administrator's personal computer 200. The changed schedule information may be transmitted. When the server CPU 310 acquires information indicating that the order of tasks is agreed to from the personal computer 200 of the target user's administrator, the server CPU 310 transmits schedule information whose task order has been changed to the personal computer 200 of the target user. In addition, by providing the management personal computer 200 with the voice analysis unit 314, the image analysis unit 315, and the schedule creation unit 316, the situation determination system 100 in which the server 300 is omitted can be configured.

また、上述の処理フローにおいては、オフィス内のビジネスの場面を想定して説明したが、状況判別システム100の適用範囲はこれに限らない。例えば、状況判別システム100を在宅勤務に適用したり、複数の学生・受験生の学習科目のスケジュール変更に適用したりすることもできる。   Moreover, although the above-described processing flow has been described assuming a business scene in the office, the scope of application of the situation determination system 100 is not limited to this. For example, the situation determination system 100 can be applied to work from home, or can be applied to change the schedule of learning subjects of a plurality of students / examination students.

さらに、状況判別システム100を工場のラインで作業する複数の作業者のタスク変更に適用することもできる。具体的には、まず、サーバCPU310は、生体センサ540を装着した各作業者の生体に関する情報を取得する。次に、サーバCPU310は、モチベーションの度合いが一番低い作業者若しくは集中度が一番低い作業者を抽出し、この作業者が現在行っている第1タスクと異なるタスク、例えばラインでおこなうタスクとは関係のない業務をまず行い、その後に第1タスクを行うスケジュールを作成する。そして、サーバCPU310は、この作業者に対して第1タスクと異なるタスクをまず行うように作業場のディスプレイ、スピーカ等で報知するとともに、交代要員の作業者に対して第1タスクを行うように作業場のディスプレイ、スピーカ等で報知する。この場合に、サーバCPU310は、この作業者が第1タスクを再度行う時間に関する情報をあわせて作業場のディスプレイ、スピーカ等で報知する。なお、サーバCPU310は、作業者の交代に代えて集中度の下がっている作業者に対して事故防止のため指向性のスピーカを用いて注意を喚起するようにしてもよい。   Further, the situation determination system 100 can be applied to a task change of a plurality of workers who work on a factory line. Specifically, first, the server CPU 310 acquires information about the living body of each worker wearing the biological sensor 540. Next, the server CPU 310 extracts the worker with the lowest motivation level or the worker with the lowest concentration level, and a task that is different from the first task currently performed by the worker, for example, a task performed in a line, Creates a schedule for performing unrelated work first and then performing the first task. Then, the server CPU 310 notifies the worker of a task different from the first task through a display, a speaker, etc. of the workplace, and performs the first task for the worker of the substitute worker. The display, speaker, etc. In this case, the server CPU 310 notifies the operator of information regarding the time for which the worker performs the first task again with a display, a speaker or the like of the workplace. Note that the server CPU 310 may alert a worker whose concentration degree is lowered instead of the worker change by using a directional speaker to prevent an accident.

また、サーバCPU310は、モチベーションの度合いが一番低い作業者若しくは集中度が一番低い作業者を抽出した場合に、この作業者がモチベーションの高い状況で行った過去のラインでのタスク若しくは集中度の高い状況で行った過去のラインでのタスクであってこの作業者が現在行っている第1タスクと異なるタスクを第2タスクとして決定するようにしても良い。そして、サーバCPU310は、この作業者に対して第2タスクを行うように作業場のディスプレイ、スピーカ等で報知するとともに、第2タスクを現在行っている作業者に対して第1タスクを行うように作業場のディスプレイ、スピーカ等で報知する。この場合に、サーバCPU310は、第2タスクを現在行っている作業者が第1タスクをモチベーションの高い状況で行ったことがある若しくは集中度の高い状況で行ったことがある場合に、タスクの交代を報知する。   Further, when the server CPU 310 extracts the worker with the lowest motivation level or the worker with the lowest concentration level, the server CPU 310 performs the task or the concentration level in the past line that the worker has performed in a highly motivated situation. It is also possible to determine a task in a past line performed in a high situation and different from the first task currently performed by the worker as the second task. Then, the server CPU 310 notifies the worker of the second task with the display, the speaker, or the like so as to perform the second task, and performs the first task for the worker who is currently performing the second task. Notifications are given on the workplace display and speakers. In this case, if the worker who is currently performing the second task has performed the first task in a highly motivated situation or has performed in a highly concentrated situation, the server CPU 310 Announce the change.

なお、前述の図4のフローチャートのステップS112の後に職場のレイアウトの変更を行なうかどうかの判断を加えてもよい。具体的には、サーバCPU310は、前述したように、複数人によりタスクを行なう場合の対人関係であるユーザ関係や、職場全体の集中度やモチベーションの推移をタスクログから確認して、レイアウト変更の要否を判断する。   It may be determined whether or not to change the workplace layout after step S112 of the flowchart of FIG. Specifically, as described above, the server CPU 310 confirms the user relationship that is an interpersonal relationship when a task is performed by a plurality of people, the concentration level of the entire workplace, and the transition of motivation from the task log, and needs to change the layout. Determine no.

そして、サーバCPU310は、職場全体の集中度やモチベーションが低下傾向にある場合や、業務のアウトプットが低下傾向である場合にレイアウト変更要と判断し、現在のレイアウト情報を記録装置313から取得する。なお、サーバCPU310は、複数のユーザまたは複数のユーザの管理者のパソコン200から現在のレイアウト情報を予め受信し、記録装置313に記録しておく。また、サーバCPU310は、天井カメラ520の撮影画像の解析結果等を用いて、現在のレイアウト情報を予め作成し、記録装置313に記録しておいても良い。   Then, the server CPU 310 determines that the layout needs to be changed when the concentration and motivation of the entire workplace are declining, or when the business output is declining, and acquires the current layout information from the recording device 313. . The server CPU 310 receives the current layout information from the personal computers 200 of a plurality of users or a plurality of users' managers in advance and records it in the recording device 313. Further, the server CPU 310 may create current layout information in advance using an analysis result of a captured image of the ceiling camera 520 and record the information in the recording device 313.

そして、サーバCPU310は、現在のレイアウト情報、タスクログを参照し、複数のユーザの配置場所を決定する。サーバCPU310は、例えば、周囲の騒音のレベルが高くても集中度が高いユーザを、コピー機やプリンタ等の近傍、オフィスの出入り口などの騒音が発生しやすい場所の近くに配置する。一方、サーバCPU310は、周囲の騒音のレベルが低い場合には集中度が高いが騒音のレベルが高い場合には集中度が低いユーザを、騒音が発生しやすい場所から遠くに配置する。また、サーバCPU310は、ある特定のユーザと共同でタスクを実行する回数が多いユーザをその特定のユーザの近くに配置する。さらに、サーバCPU310は、ある特定のユーザにタスクについての相談をする回数が多いユーザをその特定のユーザの近くに配置する。サーバCPU310は、複数のユーザの配置場所を決定した後、現在のレイアウトを変更して新たなレイアウトを作成する。なお、このレイアウト変更にコピー機やプリンタ等の配置変更が含まれることは言うまでもない。   Then, the server CPU 310 refers to the current layout information and task log, and determines the placement locations of a plurality of users. For example, the server CPU 310 arranges a user who is highly concentrated even if the ambient noise level is high, in the vicinity of a copier, a printer, or the like, or a place where noise is likely to occur, such as an entrance / exit of an office. On the other hand, the server CPU 310 places a user having a high degree of concentration when the ambient noise level is low but a low concentration level when the noise level is high, away from a place where noise is likely to occur. Further, the server CPU 310 arranges a user who frequently performs a task in cooperation with a specific user near the specific user. Further, the server CPU 310 arranges a user who frequently consults a specific user about a task near the specific user. The server CPU 310 changes the current layout and creates a new layout after determining the arrangement locations of a plurality of users. Needless to say, this layout change includes an arrangement change of a copier, a printer, or the like.

上述の処理においては、オフィス内のビジネスの場面を想定して説明したが、状況判別システム100の適用範囲はこれに限らない。例えば、状況判別システム100を複数の学生・受験生が教室で学習する場合におけるレイアウト変更、複数の作業者が工場のラインで作業する場合におけるレイアウト変更に適用することができる。   Although the above-described processing has been described assuming a business scene in the office, the scope of application of the situation determination system 100 is not limited to this. For example, the situation determination system 100 can be applied to a layout change when a plurality of students / examinees learn in a classroom and a layout change when a plurality of workers work on a factory line.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

100 状況判別システム、200 パソコン、201 ディスプレイ、202 キーボード、203 タッチパッド、204 内蔵カメラ、205 超音波センサ、206 スピーカ、207 マイク、208 圧電センサ、210 パソコンCPU、211 タイマー、212 ROM、213 外部接続インターフェイス、300 サーバ、310 サーバCPU、312 ROM、313 記録装置、314 音声解析部、315 画像解析部、316 スケジュール作成部、317 外部接続インターフェイス、400 ネットワーク、500 マウス、510 床センサ、520 天井カメラ、530 天井マイク、540 生体センサ 100 situation determination system, 200 personal computer, 201 display, 202 keyboard, 203 touchpad, 204 built-in camera, 205 ultrasonic sensor, 206 speaker, 207 microphone, 208 piezoelectric sensor, 210 personal computer CPU, 211 timer, 212 ROM, 213 external connection Interface, 300 server, 310 server CPU, 312 ROM, 313 recording device, 314 audio analysis unit, 315 image analysis unit, 316 schedule creation unit, 317 external connection interface, 400 network, 500 mouse, 510 floor sensor, 520 ceiling camera, 530 Ceiling microphone, 540 Biosensor

Claims (14)

タスクを行う複数の人の生体に関する情報を入力する入力部と、
前記生体に関する情報に基づいて前記複数の人を比較する比較部と、
前記比較部による比較結果に基づいて、前記タスクと異なるタスクに関する情報を出力する出力部と
を備える電子機器。
An input unit for inputting information on living bodies of a plurality of persons performing a task;
A comparison unit for comparing the plurality of persons based on information on the living body;
An electronic apparatus comprising: an output unit that outputs information on a task different from the task based on a comparison result by the comparison unit.
前記複数の人のスケジュール情報を作成するスケジュール作成部を備え、
前記出力部は、前記スケジュール作成部で作成された前記スケジュール情報に基づいて、前記異なるタスクに関する情報を出力する請求項1に記載の電子機器。
A schedule creation unit for creating schedule information of the plurality of people;
The electronic device according to claim 1, wherein the output unit outputs information on the different tasks based on the schedule information created by the schedule creation unit.
前記出力部は、前記タスクと前記異なるタスクとを行うスケジュール情報を出力する請求項1または2に記載の電子機器。   The electronic device according to claim 1, wherein the output unit outputs schedule information for performing the task and the different task. 前記出力部は、前記複数の人のうちの少なくとも1人に前記異なるタスクに関する情報を出力する請求項1から3のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the output unit outputs information on the different task to at least one of the plurality of people. 前記出力部は、前記複数の人と異なる人に前記異なるタスクに関する情報を出力する請求項1から4のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the output unit outputs information regarding the different tasks to a person different from the plurality of persons. タスクを行う複数の人の生体に関する情報を入力する入力部と、
前記生体に関する情報に基づいて前記複数の人を比較する比較部と、
前記比較部による比較結果に基づいて、前記タスクのやり方の変更に関する情報を出力する出力部と
を備える電子機器。
An input unit for inputting information on living bodies of a plurality of persons performing a task;
A comparison unit for comparing the plurality of persons based on information on the living body;
An electronic device comprising: an output unit that outputs information related to a change in the task method based on a comparison result by the comparison unit.
前記出力部は、前記複数の人がいる空間のレイアウトの変更に関する情報を出力する請求項6に記載の電子機器。   The electronic device according to claim 6, wherein the output unit outputs information related to a change in layout of the space where the plurality of persons are present. 前記出力部は、前記タスクを行う時間変更に関する情報を出力する請求項6または7に記載の電子機器。   The electronic device according to claim 6, wherein the output unit outputs information regarding a time change for performing the task. 前記出力部は、前記複数の人とは異なる人に前記変更に関する情報を出力する請求項6から8のいずれか1項に記載の電子機器。   The electronic device according to claim 6, wherein the output unit outputs information regarding the change to a person different from the plurality of persons. 前記複数の人のうちの少なくとも1人の環境を制御する環境制御部を備える請求項1から9のいずれか1項に記載の電子機器。   The electronic device according to claim 1, further comprising an environment control unit that controls an environment of at least one of the plurality of persons. 前記比較部は、前記生体に関する情報に基づいて、前記複数の人の集中度を比較する請求項1から10のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the comparison unit compares the degree of concentration of the plurality of people based on information on the living body. 前記比較部の比較結果に基づき相対的に集中度が低い人を抽出する抽出部を備える請求項11に記載の電子機器。   The electronic device according to claim 11, further comprising an extraction unit that extracts a person with a relatively low concentration level based on a comparison result of the comparison unit. タスクを行う複数の人の生体に関する情報を入力する入力ステップと、
前記生体に関する情報に基づいて前記複数の人を比較する比較ステップと、
前記比較ステップによる比較結果に基づいて、前記タスクと異なるタスクに関する情報を出力する出力ステップと
をコンピュータに実行させる電子機器の制御プログラム。
An input step for inputting information on living bodies of a plurality of persons performing a task;
A comparison step of comparing the plurality of persons based on information on the living body;
An electronic device control program that causes a computer to execute an output step of outputting information related to a task different from the task based on a comparison result of the comparison step.
タスクを行う複数の人の生体に関する情報を入力する入力ステップと、
前記生体に関する情報に基づいて前記複数の人を比較する比較ステップと、
前記比較ステップによる比較結果に基づいて、前記タスクのやり方の変更に関する情報を出力する出力ステップと
をコンピュータに実行させる電子機器の制御プログラム。
An input step for inputting information on living bodies of a plurality of persons performing a task;
A comparison step of comparing the plurality of persons based on information on the living body;
An electronic device control program that causes a computer to execute an output step of outputting information relating to a change in the task manner based on a comparison result of the comparison step.
JP2011098198A 2011-04-26 2011-04-26 Electronic apparatus and control program for electronic apparatus Withdrawn JP2012230535A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011098198A JP2012230535A (en) 2011-04-26 2011-04-26 Electronic apparatus and control program for electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011098198A JP2012230535A (en) 2011-04-26 2011-04-26 Electronic apparatus and control program for electronic apparatus

Publications (1)

Publication Number Publication Date
JP2012230535A true JP2012230535A (en) 2012-11-22

Family

ID=47432034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011098198A Withdrawn JP2012230535A (en) 2011-04-26 2011-04-26 Electronic apparatus and control program for electronic apparatus

Country Status (1)

Country Link
JP (1) JP2012230535A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016137871A (en) * 2015-01-29 2016-08-04 マツダ株式会社 Vehicular occupant feeling correspondence control device
WO2017209225A1 (en) * 2016-06-02 2017-12-07 オムロン株式会社 State estimation apparatus, state estimation method, and state estimation program
JP2017217472A (en) * 2016-06-02 2017-12-14 オムロン株式会社 State estimation device, state estimation method, and state estimation program
JP2018107576A (en) * 2016-12-26 2018-07-05 ヤマハ株式会社 Reproduction control method and system
JP2019121105A (en) * 2017-12-28 2019-07-22 富士ゼロックス株式会社 Control device and control program
JP2020201755A (en) * 2019-06-11 2020-12-17 パナソニックIpマネジメント株式会社 Concentration degree measurement device, concentration degree measurement method, and program
WO2021193670A1 (en) * 2020-03-26 2021-09-30 パナソニックIpマネジメント株式会社 Concentration-level estimation device, concentration-level estimation method, and program
JPWO2022054834A1 (en) * 2020-09-08 2022-03-17

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016137871A (en) * 2015-01-29 2016-08-04 マツダ株式会社 Vehicular occupant feeling correspondence control device
WO2017209225A1 (en) * 2016-06-02 2017-12-07 オムロン株式会社 State estimation apparatus, state estimation method, and state estimation program
JP2017217472A (en) * 2016-06-02 2017-12-14 オムロン株式会社 State estimation device, state estimation method, and state estimation program
CN109155106A (en) * 2016-06-02 2019-01-04 欧姆龙株式会社 Condition estimating device, condition estimation method and condition estimating program
JP2018107576A (en) * 2016-12-26 2018-07-05 ヤマハ株式会社 Reproduction control method and system
JP2019121105A (en) * 2017-12-28 2019-07-22 富士ゼロックス株式会社 Control device and control program
JP2020201755A (en) * 2019-06-11 2020-12-17 パナソニックIpマネジメント株式会社 Concentration degree measurement device, concentration degree measurement method, and program
JP7369946B2 (en) 2019-06-11 2023-10-27 パナソニックIpマネジメント株式会社 Concentration measurement device, concentration measurement method, and program
WO2021193670A1 (en) * 2020-03-26 2021-09-30 パナソニックIpマネジメント株式会社 Concentration-level estimation device, concentration-level estimation method, and program
JPWO2022054834A1 (en) * 2020-09-08 2022-03-17
WO2022054834A1 (en) * 2020-09-08 2022-03-17 ダイキン工業株式会社 Mobile object control method and device

Similar Documents

Publication Publication Date Title
JP2012230535A (en) Electronic apparatus and control program for electronic apparatus
JP6992870B2 (en) Information processing systems, control methods, and programs
US20160327922A1 (en) A control device and control method for performing an operation based on the current state of a human as detected from a biometric sample
WO2021008538A1 (en) Voice interaction method and related device
TW201606760A (en) Real-time emotion recognition from audio signals
US20230045237A1 (en) Wearable apparatus for active substitution
JP2012059107A (en) Emotion estimation device, emotion estimation method and program
US11670301B2 (en) Lip-reading session triggering events
CN111475206B (en) Method and apparatus for waking up wearable device
JP6585733B2 (en) Information processing device
JP7323098B2 (en) Dialogue support device, dialogue support system, and dialogue support program
KR20200025226A (en) Electronic apparatus and thereof control method
KR20210006419A (en) Generating and storing health-related information
WO2019026617A1 (en) Information processing device and information processing method
JP2009178783A (en) Communication robot and its control method
WO2021134250A1 (en) Emotion management method and device, and computer-readable storage medium
JP2012230534A (en) Electronic apparatus and control program for electronic apparatus
WO2016206646A1 (en) Method and system for urging machine device to generate action
CN112262432A (en) Voice processing device, voice processing method, and recording medium
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
WO2019235190A1 (en) Information processing device, information processing method, program, and conversation system
JP2021117371A (en) Information processor, information processing method and information processing program
JP7021488B2 (en) Information processing equipment and programs
JP2021114004A (en) Information processing device and information processing method
JP6516805B2 (en) DECISION DEVICE, DECISION METHOD, AND DECISION PROGRAM

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701