JP2012146209A - Electronic device and control program for electronic device - Google Patents

Electronic device and control program for electronic device Download PDF

Info

Publication number
JP2012146209A
JP2012146209A JP2011005236A JP2011005236A JP2012146209A JP 2012146209 A JP2012146209 A JP 2012146209A JP 2011005236 A JP2011005236 A JP 2011005236A JP 2011005236 A JP2011005236 A JP 2011005236A JP 2012146209 A JP2012146209 A JP 2012146209A
Authority
JP
Japan
Prior art keywords
personal computer
user
computer cpu
electronic device
concentration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011005236A
Other languages
Japanese (ja)
Other versions
JP5771998B2 (en
Inventor
Hiromi Tomii
宏美 冨井
Kazue Minagawa
一惠 皆川
Motoyuki Kuboi
基之 久保井
Toshiaki Maeda
敏彰 前田
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011005236A priority Critical patent/JP5771998B2/en
Priority to CN2011800571214A priority patent/CN103238311A/en
Priority to US13/988,900 priority patent/US20130234826A1/en
Priority to PCT/JP2011/006392 priority patent/WO2012095917A1/en
Publication of JP2012146209A publication Critical patent/JP2012146209A/en
Application granted granted Critical
Publication of JP5771998B2 publication Critical patent/JP5771998B2/en
Priority to US15/189,355 priority patent/US20160327922A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which it is difficult to more reliably cause a device to recognize the mental condition of a user before a change in the user is expressed as biometric information or even when it has been expressed.SOLUTION: In order to solve the problem, an electronic device comprises: an utterance speed detection unit for detecting the utterance speed of a target person; and a control unit for controlling a device to be controlled based on a detection result of the utterance speed detection unit. Then, a control program for the electronic device causes a computer to execute: an utterance speed detection step for detecting the utterance speed of the target person; and a control step for controlling the device to be controlled based on a detection result of the utterance speed detection step.

Description

本発明は、電子機器および電子機器の制御プログラムに関する。   The present invention relates to an electronic device and a control program for the electronic device.

近年、ユーザの生体情報を取得して、各種のサポートをすることが提案されており、ユーザが音楽に集中しているかどうかを検出して、音楽に集中していない場合には音量を低くする音響再生装置が提案されている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2005−34484号公報
In recent years, it has been proposed to obtain user's biometric information and provide various kinds of support, detect whether the user is concentrated on music, and lower the volume when not concentrated on music. Sound reproduction devices have been proposed.
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-2005-34484

しかしながら、生体情報としてユーザの変化が表出する以前に、あるいは、表出した場合であってもより確実にユーザの精神状態を機器に認識させることは困難であった。   However, it is difficult to make the device recognize the mental state of the user more reliably before the change of the user appears as the biometric information or even when it appears.

上記課題を解決するために、本発明の第1の態様における電子機器は、対象者の発話速度を検出する発話速度検出部と、発話速度検出部の検出結果に基づいて、被制御機器を制御する制御部とを備える。   In order to solve the above-described problem, the electronic device according to the first aspect of the present invention controls the controlled device based on the speech rate detector that detects the speech rate of the target person and the detection result of the speech rate detector. A control unit.

上記課題を解決するために、本発明の第2の態様における電子機器の制御プログラムは、対象者の発話速度を検出する発話速度検出ステップと、発話速度検出ステップの検出結果に基づいて、被制御機器を制御する制御ステップとをコンピュータに実行させる。   In order to solve the above-described problem, an electronic device control program according to a second aspect of the present invention includes an utterance speed detection step for detecting an utterance speed of a target person, and a control target based on a detection result of the utterance speed detection step And causing the computer to execute control steps for controlling the device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

第1実施形態に係る集中度検出システムの概要を示す図である。It is a figure which shows the outline | summary of the concentration level detection system which concerns on 1st Embodiment. 第1実施形態に係る集中度検出システムのブロック図である。1 is a block diagram of a concentration level detection system according to a first embodiment. 第1実施形態に係る集中度検出システムの処理を示すフロー図である。It is a flowchart which shows the process of the concentration level detection system which concerns on 1st Embodiment. 第1実施形態の応用例としての、ユーザの手部の検出に関する処理を示すフロー図である。It is a flowchart which shows the process regarding the detection of a user's hand as an application example of 1st Embodiment. 第1実施形態の応用例としての、ユーザの発話速度の検出に関する処理を示すフロー図である。It is a flowchart which shows the process regarding the detection of a user's speech speed as an application example of 1st Embodiment. 第1実施形態の変形例を表すスマートフォンの概要を示す図である。It is a figure which shows the outline | summary of the smart phone showing the modification of 1st Embodiment. 第1実施形態の変形例に係る集中度検出システムのブロック図である。It is a block diagram of the concentration level detection system which concerns on the modification of 1st Embodiment. 第2実施形態に係る集中度検出システムの概要を示す図である。It is a figure which shows the outline | summary of the concentration level detection system which concerns on 2nd Embodiment. 第2実施形態に係る集中度検出システムのブロック図である。It is a block diagram of the concentration level detection system which concerns on 2nd Embodiment. 第2実施形態に係る集中度検出システムの処理を示すフロー図である。It is a flowchart which shows the process of the concentration level detection system which concerns on 2nd Embodiment. 発表者が視認するディスプレイの表示例である。It is a display example of a display visually recognized by the presenter. 発表者が視認するディスプレイの表示例である。It is a display example of a display visually recognized by the presenter.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、第1実施形態に係る集中度検出システム110の概要を示す図である。図1に示すように、集中度検出システム110は、パーソナルコンピュータ(パソコン)200とユーザに装着される生体センサ330を有している。パソコン200は、ディスプレイ201、キーボード202、タッチパッド203といった、ユーザの入力操作部材を備える。また、パソコン200には、マウス300が接続されており、ユーザはマウス300を操作することによっても、パソコン200に指示を与えることができる。   FIG. 1 is a diagram showing an overview of a concentration level detection system 110 according to the first embodiment. As shown in FIG. 1, the concentration level detection system 110 includes a personal computer (personal computer) 200 and a biosensor 330 worn by the user. The personal computer 200 includes user input operation members such as a display 201, a keyboard 202, and a touch pad 203. In addition, a mouse 300 is connected to the personal computer 200, and the user can give an instruction to the personal computer 200 by operating the mouse 300.

パソコン200は、内蔵カメラ204、超音波センサ205、スピーカ206、マイク207を更に備える。内蔵カメラ204は、撮影レンズおよび撮像素子を含む。撮像素子には、CCDセンサ、CMOSセンサなどのイメージセンサが用いられる。内蔵カメラ204は、ディスプレイ201の上部に配設されており、ユーザの顔、手、腕を含む上半身と共に、キーボード202、タッチパッド203などの操作部材を同時に撮影できる画角を有する。なお、内蔵カメラ204に代えて、例えばクリップによりディスプレイ201の近傍に装着できる、カメラモジュールを採用しても良い。超音波センサ205は、内蔵カメラ204の近傍に設けられており、ディスプレイ201からユーザまでの距離を計測するための超音波の送受信を実行する。   The personal computer 200 further includes a built-in camera 204, an ultrasonic sensor 205, a speaker 206, and a microphone 207. The built-in camera 204 includes a photographing lens and an image sensor. An image sensor such as a CCD sensor or a CMOS sensor is used as the image sensor. The built-in camera 204 is disposed on the upper part of the display 201 and has an angle of view capable of simultaneously photographing the operation members such as the keyboard 202 and the touch pad 203 together with the upper body including the user's face, hands, and arms. Instead of the built-in camera 204, for example, a camera module that can be mounted in the vicinity of the display 201 by a clip may be adopted. The ultrasonic sensor 205 is provided in the vicinity of the built-in camera 204, and executes transmission / reception of ultrasonic waves for measuring the distance from the display 201 to the user.

キーボード202近傍の左右のパームレスト位置に対応して、温調部208がパソコン200内に設けられている。温調部208は、例えばニクロム線、鉄クロム線などの電熱線を有し、電流が加えられることにより温度上昇を生じる。ユーザは、掌周りを通じて温度変化を感じることができる。   Corresponding to the left and right palm rest positions in the vicinity of the keyboard 202, a temperature control unit 208 is provided in the personal computer 200. The temperature control unit 208 has a heating wire such as a nichrome wire or an iron chrome wire, for example, and generates a temperature rise when an electric current is applied. The user can feel a temperature change through the palm.

キーボード202の裏面には、個々のキーに対応して圧電センサ209が設けられている。圧電センサ209は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出する。これにより、圧電センサ209は、ユーザがキーを叩く強さ、繰り返し動作を検出することができる。   Piezoelectric sensors 209 are provided on the back surface of the keyboard 202 corresponding to the individual keys. The piezoelectric sensor 209 includes a piezo element, and electrically detects vibration by converting an externally applied force into a voltage by a piezoelectric effect. Accordingly, the piezoelectric sensor 209 can detect the strength with which the user strikes the key and the repeated operation.

ユーザの足元には、床センサ310が設けられている。床センサ310は、圧電センサ209と同様にピエゾ素子等により構成され、ユーザの足踏み、貧乏ゆすりなど、足の動作を検出する。床センサ310は、パソコン200と接続されており、検出した信号をパソコン200へ送信する。   A floor sensor 310 is provided at the user's foot. The floor sensor 310 is configured by a piezo element or the like in the same manner as the piezoelectric sensor 209, and detects the motion of the foot such as the user's stepping or poor sliding. The floor sensor 310 is connected to the personal computer 200 and transmits the detected signal to the personal computer 200.

ユーザの頭上付近である天井部分には、天井カメラ320が設けられている。天井カメラ320は、撮影レンズおよび撮像素子を含み、ユーザの頭部を撮影できる画角に調整されている。天井カメラ320は、撮影した撮影画像信号を、例えば無線LANによりパソコン200へ送信される。一方、パソコン200は、天井カメラ320に対して撮影の開始、撮影画像信号の要求などの制御信号を送信する。   A ceiling camera 320 is provided in a ceiling portion near the user's head. The ceiling camera 320 includes a photographic lens and an image sensor, and is adjusted to an angle of view capable of photographing the user's head. The ceiling camera 320 transmits the captured image signal to the personal computer 200 via a wireless LAN, for example. On the other hand, the personal computer 200 transmits control signals such as a start of photographing and a request for a photographed image signal to the ceiling camera 320.

生体センサ330は、例えばユーザの腕に巻きつけられて装着されている。生体センサ330は、ユーザの生体情報をセンシングして、その出力をパソコン200へ送信する。具体的な構成については後述する。   The biosensor 330 is mounted, for example, wrapped around the user's arm. The biological sensor 330 senses the user's biological information and transmits the output to the personal computer 200. A specific configuration will be described later.

パソコン200には、双方向通信機器としての電話400が接続されている。電話400は、パソコンからの制御信号を受信して、その機能を制限および解除する。また、パソコン200には、指標灯410が接続されている。指標灯410は、例えば発光色を変更できる高輝度LEDを備える。指標灯410は、パソコン200が判断したユーザの集中状態を、例えば赤色で発光することにより周囲の人に認識させる。   The personal computer 200 is connected to a telephone 400 as a bidirectional communication device. The telephone 400 receives a control signal from the personal computer, and restricts or cancels its function. In addition, the indicator light 410 is connected to the personal computer 200. The indicator lamp 410 includes, for example, a high-intensity LED that can change the emission color. The indicator light 410 makes the surrounding people recognize the user's concentration state determined by the personal computer 200 by emitting light in red, for example.

図2は、第1実施形態に係る集中度検出システムのブロック図である。図示するように、パソコン200は、全体の制御を司るパソコンCPU210を中心として、図1を用いて説明したディスプレイ201、キーボード202等の要素を備える。   FIG. 2 is a block diagram of the concentration level detection system according to the first embodiment. As shown in the figure, a personal computer 200 includes elements such as a display 201 and a keyboard 202 described with reference to FIG. 1 with a personal computer CPU 210 that performs overall control as a center.

タイマー211は、パソコンCPU210の開始の指示を受けて計時を開始し、終了の指示を受けてその時刻をパソコンCPU210へ返す。ROM212は、例えばフラッシュメモリなどの不揮発性メモリであり、パソコン200を制御するプログラム、各種パラメータなどを記憶する役割を担う。また、各種データ、ユーザのスケジュール、パソコン200の使用状況、生体情報のデータ、床センサ310の出力等も記憶できる。   The timer 211 starts timing in response to a start instruction from the personal computer CPU 210 and returns the time to the personal computer CPU 210 in response to an end instruction. The ROM 212 is a non-volatile memory such as a flash memory, for example, and plays a role of storing a program for controlling the personal computer 200, various parameters, and the like. Also, various data, user schedules, usage status of the personal computer 200, biometric information data, output of the floor sensor 310, and the like can be stored.

感情解析部213は、生体センサ330からの生体情報を受け取り、ユーザの感情を解析する。生体センサ330は、ユーザの生体情報を検出するセンサであり、例えば、LEDにより生体に向けて照射光を照射し、この照射光に対して生体から反射した光を受光することにより、脈拍を検出する脈拍センサを含む。その構成は、例えば、特開2005−270543号(米国特許第7538890号)に開示されている。生体センサ330は、脈拍センサの他にも、複数の電極を配した発汗センサを設けることによりユーザの発汗量を検出することもできる。更には、体温を測る温度センサ、血圧を測る血圧センサを設けることもできる。   The emotion analysis unit 213 receives the biological information from the biological sensor 330 and analyzes the user's emotion. The biological sensor 330 is a sensor that detects the biological information of the user. For example, the biological sensor 330 detects the pulse by irradiating the living body with the LED toward the living body and receiving the light reflected from the living body with respect to the irradiation light. Including a pulse sensor. The configuration is disclosed in, for example, Japanese Patent Laid-Open No. 2005-270543 (US Pat. No. 7,538,890). In addition to the pulse sensor, the biological sensor 330 can also detect a user's sweating amount by providing a sweating sensor provided with a plurality of electrodes. Furthermore, a temperature sensor that measures body temperature and a blood pressure sensor that measures blood pressure can be provided.

感情解析部213は、このような生体センサ330から生体情報を受け取って、ユーザの感情を判定する。例えば、高い心拍数および精神性発汗が検出されるときには、ユーザは「焦り」を感じていると判定できる。生体センサ330の出力と感情の対応関係は検証的に求められており、対応関係を示すテーブルをROM212に記憶させておくことができる。そこで、感情解析部213は、取得された生体情報が、テーブルに記述された特定の感情パターンと一致するかにより感情を判定する。なお、生体センサ330はユーザの腕に巻きつけるような腕時計型に限らず、ユーザの手、指(指輪型生体センサ)など身体の一部と接触すれば様々な形態を採用し得る。なお、感情解析部213は、生体センサ330からの生体情報に加えて、圧電センサ209や床センサ310の検出結果を加味して感情を解析しても良く、後述する音声解析部214や画像解析部215の解析結果を加味して感情を解析しても良い。   The emotion analysis unit 213 receives the biological information from the biological sensor 330 and determines the user's emotion. For example, when a high heart rate and mental sweating are detected, it can be determined that the user is feeling “impressed”. The correspondence between the output of the biosensor 330 and the emotion is obtained in a verification manner, and a table indicating the correspondence can be stored in the ROM 212. Therefore, the emotion analysis unit 213 determines an emotion depending on whether the acquired biological information matches a specific emotion pattern described in the table. The biosensor 330 is not limited to a wristwatch type that is wrapped around the user's arm, and various forms can be adopted as long as the biosensor 330 comes into contact with a part of the body such as the user's hand or finger (ring-type biosensor). The emotion analysis unit 213 may analyze emotions in consideration of the detection results of the piezoelectric sensor 209 and the floor sensor 310 in addition to the biological information from the biological sensor 330. The emotion analysis unit 214 and image analysis described later may be used. The emotion may be analyzed in consideration of the analysis result of the unit 215.

音声解析部214は、マイク207から取り込まれる音声を解析する。音声解析部214は、音声認識辞書を有し、識別した音声をテキストデータに変換してディスプレイ201に表示することができる。また、最近のパソコンの一部には音声認識ソフトがインストールされているものもあり、このようなインストール済みのソフトを用いても良く、更には別途市販のソフトをインストールして用いても良い。   The voice analysis unit 214 analyzes the voice captured from the microphone 207. The voice analysis unit 214 has a voice recognition dictionary, and can convert the identified voice into text data and display it on the display 201. Some recent personal computers have voice recognition software installed. Such installed software may be used, or commercially available software may be installed separately.

また、音声解析部214は、パソコンCPU210と協働して、電話400での会話、周囲に居る同僚との会話等に対して、ユーザの会話の速度(発話速度)、声の大きさ、会話時間などを検出する。発話速度は、例えば単位時間当たりの出力音素数、あるいは単位時間当たりのモーラ数として検出される。モーラとは一定の時間的長さをもった音の分節単位のことである。   In addition, the voice analysis unit 214 cooperates with the personal computer CPU 210 to perform a conversation on the phone 400, a conversation with a colleague in the surroundings, a conversation speed of the user (speech speed), a loudness, a conversation Detect time etc. The speech rate is detected as, for example, the number of output phonemes per unit time or the number of mora per unit time. A mora is a segmental unit of sound with a certain length of time.

画像解析部215は、内蔵カメラ204により撮影された撮影画像信号、天井カメラ320により撮影された撮影画像信号を解析する。画像解析部215は、ユーザの顔認識、さらには表情認識を実行する。例えば、画像解析部215は、画像信号におけるユーザの顔領域から、眉間に皺がある表情、笑顔ではなく目を細めている表情を検出する。また、画像解析部215は、タイマー211の計時情報を取得して、例えば眉間に皺がある表情がどれくらい継続したかを検出する。また、目を細めている表情を検出する場合には、画像解析部215は、内蔵カメラ204による画像上の平均的な目の大きさについての情報をROM212から読み出して、現に撮影された目の大きさと比較して検出する。眉間の皺の検出は、眉間に皺のある画像をリファレンス画像としてROM212に記憶させてパターンマッチングにより検出しても良く、また、左目と右目との間の部分の陰影分布から検出しても良い。なお、眉間の皺の検出は例えば米国公開特許2008−292148号にも開示がある。   The image analysis unit 215 analyzes the captured image signal captured by the built-in camera 204 and the captured image signal captured by the ceiling camera 320. The image analysis unit 215 performs user face recognition and facial expression recognition. For example, the image analysis unit 215 detects a facial expression with a wrinkle between eyebrows and a facial expression with narrowed eyes rather than a smile from the user's face area in the image signal. In addition, the image analysis unit 215 acquires the timing information of the timer 211 and detects, for example, how long a facial expression with a eyelid between the eyebrows has continued. In addition, when detecting a facial expression with a narrowed eye, the image analysis unit 215 reads out information about the average eye size on the image from the built-in camera 204 from the ROM 212, and the eye that was actually photographed. Detect by comparing with size. The detection of eyebrows between eyebrows may be detected by pattern matching by storing an image with eyebrows between eyebrows in the ROM 212 as a reference image, or may be detected from the shadow distribution of the portion between the left eye and the right eye. . In addition, the detection of the eyelid between eyebrows is also disclosed in, for example, US Patent Publication No. 2008-292148.

内蔵カメラ204により撮影される像の大きさは、内蔵カメラ204とユーザとの距離に依存する。本実施形態においては、超音波センサ205により内蔵カメラ204とユーザとの距離を検出して、像の大きさを補正することにより距離依存を解消している。距離の計測は、超音波センサ205を設ける場合に限らず、例えば、レーザ距離センサ、赤外線センサ等を用いても良い。また、ユーザの特定部分の大きさ(例えば顔の大きさ)が分かっていれば、既知の顔の大きさと撮影した顔の大きさとのマッチングにより内蔵カメラ204とユーザの距離を算出できる。   The size of the image captured by the built-in camera 204 depends on the distance between the built-in camera 204 and the user. In the present embodiment, the distance dependence is eliminated by detecting the distance between the built-in camera 204 and the user by the ultrasonic sensor 205 and correcting the size of the image. The distance measurement is not limited to the case where the ultrasonic sensor 205 is provided. For example, a laser distance sensor, an infrared sensor, or the like may be used. Further, if the size of the specific part of the user (for example, the size of the face) is known, the distance between the built-in camera 204 and the user can be calculated by matching the size of the known face with the size of the photographed face.

また、画像解析部215は、天井カメラ320の画像信号を取り込んで、ユーザの頭の位置、移動量等を検出する。例えば、ユーザの頭部が絶え間なく揺れ動くことを画像解析部215が検出すれば、パソコンCPU210は、ユーザの集中力散漫、居眠り等を判断することができる。なお、超音波センサ205等により、ユーザの頭部の位置、移動量を検出できる場合は、天井カメラ320を省略しても良い。逆に、天井カメラ320により内蔵カメラ204とユーザの距離を検出できるのであれば、超音波センサ205を省略しても良い。   Further, the image analysis unit 215 captures the image signal of the ceiling camera 320 and detects the position of the user's head, the amount of movement, and the like. For example, if the image analysis unit 215 detects that the user's head constantly shakes, the personal computer CPU 210 can determine whether the user is distracting or falling asleep. If the position and movement amount of the user's head can be detected by the ultrasonic sensor 205 or the like, the ceiling camera 320 may be omitted. Conversely, if the ceiling camera 320 can detect the distance between the built-in camera 204 and the user, the ultrasonic sensor 205 may be omitted.

外部接続インターフェイス216は、外部機器と接続するためのインターフェイスである。インターフェイスとしては、無線/有線LAN、USB、HDMI、Bluetooth(登録商標)などの様々な接続規格を採用することができる。例えば、電話400は、外部接続インターフェイス216を介してパソコン200と接続されており、パソコンCPU210は、後述するように、ユーザの集中度が予め定められた閾値を超えたときに、通話拒否の制御信号を電話400へ送信する。このとき、パソコンCPU210は並行して、集中状態を示す発光を行わせる制御信号を指標灯410へ送信する。また、一定時間の集中状態が継続したときは、パソコンCPU210は、例えばマウス300に内蔵された温調部に温度上昇指令を与える。   The external connection interface 216 is an interface for connecting to an external device. As the interface, various connection standards such as wireless / wired LAN, USB, HDMI, Bluetooth (registered trademark) can be adopted. For example, the telephone 400 is connected to the personal computer 200 via the external connection interface 216, and the personal computer CPU 210 controls the call rejection when the user's concentration exceeds a predetermined threshold, as will be described later. A signal is transmitted to the phone 400. At this time, the personal computer CPU 210 transmits in parallel to the indicator lamp 410 a control signal for performing light emission indicating a concentrated state. When the concentration state continues for a certain period of time, the personal computer CPU 210 gives a temperature increase command to, for example, a temperature control unit built in the mouse 300.

図3は、第1実施形態に係る集中度検出システムの処理を示すフロー図である。本フローにおいては、パソコンCPU210の制御によるユーザの集中度、表情などの検出と、検出結果に応じた処理を実行する。なお、本フローにおいては、ユーザがパソコン200を操作している状況を想定する。   FIG. 3 is a flowchart showing processing of the concentration level detection system according to the first embodiment. In this flow, detection of the user's concentration level, facial expression, etc. under the control of the personal computer CPU 210 and processing according to the detection result are executed. In this flow, it is assumed that the user is operating the personal computer 200.

パソコンCPU210は、ユーザの生体に関する情報を入力する(ステップS101)。具体的には、パソコンCPU210は、生体センサ330が検出したユーザの脈拍、体温、発汗といった生体情報、圧電センサ209が検出したユーザのキーボード202を叩く強さや速度、ユーザの貧乏揺すり、ユーザの発話速度や発話量などが挙げられる。なお、上記の通りここで言う生体に関する情報は、生体センサ330から取得される情報に限らない。また、パソコンCPU210は、これら全ての生体情報を入力しなくても良く、集中度を検出できるだけの生体情報を入力すれば良い。   Personal computer CPU210 inputs the information regarding a user's living body (Step S101). Specifically, the personal computer CPU 210 detects biological information such as the user's pulse, body temperature, and sweat detected by the biological sensor 330, the strength and speed of the user's keyboard 202 detected by the piezoelectric sensor 209, the user's poor shaking, and the user's speech speed. And the amount of speech. As described above, the information related to the living body here is not limited to the information acquired from the living body sensor 330. Further, the personal computer CPU 210 does not need to input all the biological information, and only needs to input biological information that can detect the degree of concentration.

パソコンCPU210は、入力したユーザの生体情報をROM212に記憶させ、ユーザの生体情報のログを記録する。パソコンCPU210は、ROM212に記憶させた生体情報により、後述するようにユーザの集中度を検出する。なお、パソコン200を複数のユーザで共有して使用する場合が考えられる。このような場合、パソコンCPU210は、内蔵カメラ204によりユーザの顔認識を行い、ユーザ毎に生体情報のログを記録する。   The personal computer CPU 210 stores the input biometric information of the user in the ROM 212 and records a log of the biometric information of the user. The personal computer CPU 210 detects the concentration level of the user based on the biological information stored in the ROM 212 as described later. In addition, the case where the personal computer 200 is shared and used by a plurality of users can be considered. In such a case, the personal computer CPU 210 recognizes the face of the user with the built-in camera 204 and records a log of biometric information for each user.

次に、パソコンCPU210は、内蔵カメラ204および天井カメラ320による撮影、および画像解析部215による表情検出を行う(ステップS102)。   Next, the personal computer CPU 210 performs photographing by the built-in camera 204 and the ceiling camera 320, and facial expression detection by the image analysis unit 215 (step S102).

パソコンCPU210は、ユーザの眉間に皺がよっているか、目を細めているかどうかなどの分析を行う。このような表情である場合、ディスプレイ201の表示が見づらいと推定する。パソコンCPU210は、ユーザが目を細めている場合には、超音波センサ205を用いてディスプレイ201からユーザまでの距離を検出する。なお、パソコンCPU210は、目を細めている場合には集中度が高くなく、目を細めている以外の表情での変化が少ないときには集中度が高いと判断する。この分析を行なう場合には、表情の分析に加えて、ステップS101で取得した生体情報からユーザの感情(焦っている、イライラしている等)を加味することにより、分析精度を向上することができる。   The personal computer CPU 210 analyzes whether the eyebrows are between the eyebrows of the user or whether the eyes are narrowed. If it is such a facial expression, it is estimated that the display on the display 201 is difficult to see. The personal computer CPU 210 detects the distance from the display 201 to the user using the ultrasonic sensor 205 when the user is narrowing his eyes. The personal computer CPU 210 determines that the degree of concentration is not high when the eyes are narrowed, and that the degree of concentration is high when there is little change in facial expressions other than the narrowed eyes. In the case of performing this analysis, in addition to the analysis of facial expressions, analysis accuracy can be improved by taking into account the user's emotions (impressed, frustrated, etc.) from the biological information acquired in step S101. it can.

また、画像解析部215は、天井カメラ320の画像信号から、ユーザの頭部の動き量を検出する。ユーザが集中している場合には頭の動き量が少ないのに対し、ユーザが集中していない場合には頭部の動き量が多くなる。なお、ステップS101とステップS102との順番は入れ替えても構わない。   Further, the image analysis unit 215 detects the amount of movement of the user's head from the image signal of the ceiling camera 320. When the user is concentrated, the amount of movement of the head is small, whereas when the user is not concentrated, the amount of movement of the head is increased. Note that the order of step S101 and step S102 may be interchanged.

パソコンCPU210は、ステップS103へ進み、ステップS101およびステップS102の結果を用いてユーザの集中度を検出する。一般的に人間は、集中しているときに脈拍数や体温が上昇する。また、急ぎの業務をしていているときは(すなわち、集中度が高くなるとき)、キーボード202を叩く強さや速度が速くなったり、貧乏揺すりを行なったりする場合もある。また、電話400などで会話をしている場合には、早口になったり、声が大きくなったりする場合がある。更に、集中しているときには頭部が動くことが少ないのに対し、集中していない場合には、よそ見をしたり、場合によっては居眠りをしたりして頭部の動きが大きくなる。そこで本実施形態の集中度検出システム110では、パソコンCPU210がROM212に記憶させたユーザの生体情報と、ステップS101で入力した生体情報とを比較することによりユーザの集中度を検出する。この場合、パソコンCPU210は、過去にユーザが集中したときの生体情報と、ステップS101で入力した生体情報とを比較してユーザの集中度を検出しても良く、また、ユーザの通常の状態よりも脈拍、キーボード202を叩く力量が10%以上増加した場合に、ユーザが集中していると判断しても良い。   The personal computer CPU 210 proceeds to step S103, and detects the degree of user concentration using the results of steps S101 and S102. In general, when a person is concentrated, the pulse rate and body temperature rise. In addition, when working in a hurry (that is, when the degree of concentration is high), the strength and speed at which the keyboard 202 is struck may be increased, or poor shaking may be performed. In addition, when talking on the phone 400 or the like, there is a case where the voice becomes loud or the voice becomes loud. Furthermore, while the head is concentrated, the head hardly moves. When the head is not concentrated, the head moves more by looking away or depending on the situation. Therefore, in the concentration level detection system 110 of this embodiment, the personal computer CPU 210 detects the user concentration level by comparing the biometric information of the user stored in the ROM 212 with the biometric information input in step S101. In this case, the personal computer CPU 210 may detect the degree of concentration of the user by comparing the biometric information when the user has concentrated in the past with the biometric information input in step S101. Alternatively, it may be determined that the user is concentrated when the pulse and the strength of hitting the keyboard 202 increase by 10% or more.

なお、貧乏揺すりは、集中しているときにする場合と、集中していないときにする場合とが考えられる。このような場合、パソコンCPU210は、ユーザ毎に他の生体情報から集中しているときに貧乏揺すりをするタイプかどうかを判別して、その後の集中度の判断に用いれば良い。   It should be noted that the poverty shaking may be performed when concentrated or when not concentrated. In such a case, the personal computer CPU 210 may determine whether the user is a type that shakes poorly when concentrating from other biological information for each user, and may use it for the determination of the subsequent degree of concentration.

パソコンCPU210は、ステップS104へ進み、ステップS103で取得したユーザの集中度が予め定められた閾値を超えているか否かを判断する。本実施形態においては、閾値はユーザ毎に設定するものとし、ROM212に記憶されたユーザの集中度データから設定する。例えば、パソコンCPU210は、上述のように過去の平常時における平均的な集中度を表す生体情報に対してプラス10%を閾値とする。別の例としては、パソコンCPU210は、過去に集中していたときに電話が鳴ったり、話しかけられたりして、イライラの感情を示す生体情報が検出された状況における集中度を閾値とすることもできる。なお、パソコンCPU210は、感情解析部213を用いて、上述のように、イライラの感情を、心拍数、血圧等の値が、テーブルに記述されたイライラを示す感情パターンと一致するかにより判断する。   The personal computer CPU 210 proceeds to step S104, and determines whether or not the user concentration acquired in step S103 exceeds a predetermined threshold value. In the present embodiment, the threshold value is set for each user, and is set from the user concentration data stored in the ROM 212. For example, the personal computer CPU 210 sets 10% as a threshold value for the biological information representing the average degree of concentration in the past normal time as described above. As another example, the personal computer CPU 210 may set the concentration level in a situation in which biometric information indicating an irritated emotion is detected as a threshold when a telephone is ringed or spoken when the user has concentrated in the past. it can. Note that the personal computer CPU 210 uses the emotion analysis unit 213 to determine the feeling of frustration based on whether the values such as heart rate and blood pressure match the frustrating emotion pattern described in the table as described above. .

パソコンCPU210は、ユーザの集中度が平均的であると判断した場合はステップS114へ進み、ユーザの集中度が高いと判断した場合は、ステップS105へ進む。まず、集中度が閾値を超えていない場合について説明する。   The personal computer CPU 210 proceeds to step S114 when determining that the user's concentration degree is average, and proceeds to step S105 when determining that the user's concentration degree is high. First, a case where the concentration level does not exceed the threshold will be described.

パソコンCPU210は、ステップS114へ進み、ステップS101、S102の結果を用いてユーザがイライラしているか否かを判断する。なお、パソコンCPU210は、感情解析部213を用いて、イライラの感情を、心拍数、血圧等の値が、テーブルに記述されたイライラを示す感情パターンと一致するかにより判断する。また、パソコンCPU210は、より正確に判断すべく、画像解析部215が解析したユーザの表情、床センサ310が検出したユーザの貧乏ゆすり、音声解析部214が検出した発話音量等を判断に利用することもできる。特に、ユーザの表情について、眉間に皺を寄せる、笑顔ではなく目を細めているなどの不機嫌な表情であると判断されたり、発話音量が大きかったりする場合に、ユーザはイライラ状態であると判断する。   The personal computer CPU 210 proceeds to step S114 and determines whether or not the user is frustrated using the results of steps S101 and S102. Note that the personal computer CPU 210 uses the emotion analysis unit 213 to determine the feeling of frustration based on whether the values such as heart rate and blood pressure match the frustrating emotion pattern described in the table. Further, the personal computer CPU 210 uses the user's facial expression analyzed by the image analysis unit 215, the user's poverty detection detected by the floor sensor 310, the utterance volume detected by the voice analysis unit 214, etc., for determination more accurately. You can also In particular, the user's facial expression is determined to be frustrating when it is determined that the user's facial expression is displeased, such as putting a eyelid between the eyebrows or narrowing his eyes instead of a smile, or if the utterance volume is high To do.

パソコンCPU210は、ユーザがイライラしていると判断した場合にステップS115へ進み、イライラしていないと判断した場合にステップS101へ戻る。ステップS115では、パソコンCPU210は、各種調節を実行する。   The personal computer CPU 210 proceeds to step S115 when it is determined that the user is frustrated, and returns to step S101 when it is determined that the user is not frustrated. In step S115, the personal computer CPU 210 executes various adjustments.

具体的には、パソコンCPU210は、キーボード202への入力に対する反応速度の設定を変更する。ここでは、イライラ感がキーボード202の反応速度の遅さに起因するものと推定して、反応速度が速くなるように設定を変更する。また、パソコンCPU210は、ユーザが目を細めていることを検出したら、それが表示の小ささに起因するものと推定して、ディスプレイ201で表示している文字、図、アイコン等の大きさ設定を、より大きく表示される設定に変更する。   Specifically, the personal computer CPU 210 changes the setting of the reaction speed for the input to the keyboard 202. Here, it is estimated that the feeling of frustration is caused by the slow reaction speed of the keyboard 202, and the setting is changed so that the reaction speed becomes faster. Further, when the personal computer CPU 210 detects that the user is narrowing his eyes, the personal computer CPU 210 estimates that it is caused by the small display, and sets the size of characters, figures, icons, etc. displayed on the display 201. Change to a setting that displays larger.

ここで、パソコンCPU210は、キーボード202の反応速度を上げる場合に、ユーザがキーボード202による操作を実行しているときは、タッチパッド203の反応速度(感度)を落とすようにソフトウェアを用いて設定しても良い。このような設定により、ユーザの手部およびその近傍が偶発的にタッチパッド203に近づいた場合の誤動作を防止することができる。   Here, when increasing the reaction speed of the keyboard 202, the personal computer CPU 210 sets the response speed (sensitivity) of the touch pad 203 using software when the user is performing an operation using the keyboard 202. May be. Such a setting can prevent a malfunction when the user's hand and its vicinity accidentally approach the touch pad 203.

また、パソコンCPU210は、ディスプレイ201の表示を大きくする場合には、超音波センサ205の検出結果に応じて大きさの設定を変更しても良い。なお、キーボード202の操作をしていないときでもユーザがイライラしている場合があり、このときにディスプレイ201の表示が意図せず省エネモードや、スクリーンセーバに変わると余計にイライラしてしまう。したがって、パソコンCPU210は、ユーザがイライラしている場合には、省エネモードや、スクリーンセーバへ移行する時間を長めにしたり、移行を禁止したりする設定に変更する。なお、ステップS115の調節は上記の全てを行う必要はなく、適宜選択して実行すれば良い。なお、ユーザがイライラしていたり、熟考していたりする場合の判定は、感情解析部213と画像解析部215など複数の解析部を用いることにより、その判定精度を向上することができる。   The personal computer CPU 210 may change the size setting according to the detection result of the ultrasonic sensor 205 when the display 201 is enlarged. The user may be frustrated even when the keyboard 202 is not operated. At this time, when the display 201 is not intended to be changed to the energy saving mode or the screen saver, the user is more frustrated. Therefore, when the user is frustrated, the personal computer CPU 210 changes the setting to make the energy saving mode, the time to shift to the screen saver longer, or prohibit the shift. It should be noted that the adjustment in step S115 need not be performed all of the above, but may be selected and executed as appropriate. Note that the determination accuracy when the user is frustrated or pondering can be improved by using a plurality of analysis units such as the emotion analysis unit 213 and the image analysis unit 215.

続いて、パソコンCPU210は、ステップS116へ進み、キーボード202による操作状況として、特定の繰り返し操作、連続操作があるか否かを判断する。パソコンCPU210は、"Back Space"キー、"Delete"キー等の同一のキーが繰り返し操作されている場合、あるいはキーに規則性が無くても連続して操作されている場合に、キーボード202による入力操作がうまくいっていないと判断する。パソコンCPU210は、入力操作がうまくいっていないと判断した場合は、ステップS117へ進み、そうでない場合にステップS101へ戻る。   Subsequently, the personal computer CPU 210 proceeds to step S116, and determines whether there is a specific repetitive operation or a continuous operation as an operation state with the keyboard 202. When the same key such as “Back Space” key and “Delete” key is repeatedly operated, or when the key is operated continuously even if the key is not regular, the personal computer CPU 210 performs input from the keyboard 202 Judge that the operation is not good. If the personal computer CPU 210 determines that the input operation is not successful, the process proceeds to step S117. If not, the process returns to step S101.

パソコンCPU210は、ステップS117へ進むと、ユーザからの入力操作を、キーボード202から、マイク207を用いた音声入力に操作設定を変更する。そして、パソコンCPU210は、操作設定を変更した旨をディスプレイ201に表示する。もちろん、パソコンCPU210は、操作設定を変更する前に、ユーザに対して変更する旨の了解を得ても良い。   When proceeding to step S117, the personal computer CPU 210 changes the operation setting from the keyboard 202 to the voice input using the microphone 207 from the user 202. Then, the personal computer CPU 210 displays on the display 201 that the operation setting has been changed. Of course, before changing the operation setting, the personal computer CPU 210 may obtain an understanding to the user that the operation setting is to be changed.

あるいは、繰り返し操作、連続操作が、例えば漢字変換における文字変換候補の順序にあると判断される場合には、順序を規定する定義ファイルの記述を書き換えて、ディスプレイ201に表示される順序を変更する。また、パソコンCPU210は、変換入力をローマ字入力からひらがな入力に変更しても良いし、英数文字の初期設定を大文字から小文字に変更しても良い。更には、パソコンCPU210は、繰り返し操作、連続操作がなされた期間の学習効果を無効とすることもできる。   Alternatively, when it is determined that the repetitive operation and the continuous operation are in the order of the character conversion candidates in the kanji conversion, for example, the description of the definition file that defines the order is rewritten and the order displayed on the display 201 is changed. . Further, the personal computer CPU 210 may change the conversion input from the Roman character input to the hiragana input, or may change the initial setting of the alphanumeric characters from the upper case to the lower case. Furthermore, the personal computer CPU 210 can invalidate the learning effect during the period of repeated operation and continuous operation.

パソコンCPU210は、感情解析部213を用いて、ステップS118へ進み、ユーザのイライラ感が継続しているか否かを判断する。パソコンCPU210は、イライラ感が継続していると判断した場合にはステップS119へ進み、イライラ感が解消したと判断した場合にはステップS101へ戻る。   Using the emotion analysis unit 213, the personal computer CPU 210 proceeds to step S118, and determines whether or not the user's frustration continues. If the personal computer CPU 210 determines that the feeling of irritation continues, the process proceeds to step S119, and if it is determined that the feeling of irritation has been resolved, the process returns to step S101.

パソコンCPU210は、ステップS119へ進むと、ユーザが電子メールなどの文章を作成しているか否かを判断し、文章を作成していると判断した場合にはステップS120へ進み、作成していないと判断した場合にはステップS101へ戻る。   When the personal computer CPU 210 proceeds to step S119, it determines whether or not the user has created a sentence such as an e-mail. If the personal computer CPU 210 determines that a sentence has been created, the process proceeds to step S120. If it is determined, the process returns to step S101.

ユーザがイライラしている状態で電子メールなどの文章を作成している場合には、表現がきつくなったり、人を傷つけるような危険語句を使用してしまったりして、後悔する場合がある。そこで、本実施形態においては、ROM212に不適当な表現とともに、不適当な表現を修正した表現を記憶しておき、イライラした状態で不適当な表現が使われた場合にパソコンCPU210が修正した表現に変更する。   When a user is creating a sentence such as an e-mail when the user is frustrated, the user may regret because the expression is too tight or a dangerous phrase that hurts a person is used. Therefore, in this embodiment, the ROM 212 stores an inappropriate expression as well as an expression obtained by correcting the inappropriate expression, and the expression corrected by the personal computer CPU 210 when the inappropriate expression is used in an irritated state. Change to

また、緊急性のない電子メールの場合には、すぐに電子メールを送信せずにユーザのイライラ状態が収まった時点で、ユーザに表現の適否を検討してもらうように調節している。これにより、人間関係が悪化するのを未然に防ぐことができる。   In the case of e-mail without urgency, adjustment is made so that the user can examine the appropriateness of the expression when the user's frustration is settled without immediately sending the e-mail. Thereby, it is possible to prevent the human relationship from deteriorating.

また、パソコンCPU210が不適当な表現を検出した場合には、その旨をディスプレイ201に表示する。ユーザがパソコン200のテレビ電話機能により、映像を送受信しつつ会話を行っている場合には、パソコンCPU210は、映像の送信を中断したり、発話の周波数を変更して早口を是正したりすることもできる。映像を中断するのではなく、例えば送信画素数を下げるなどの画像処理を施しても良い。ステップS120で、各種調節の実行が終了したら、パソコンCPU210は再びステップS101へ戻る。   If the personal computer CPU 210 detects an inappropriate expression, it displays that fact on the display 201. When the user is having a conversation while transmitting and receiving video using the videophone function of the personal computer 200, the personal computer CPU 210 interrupts the transmission of the video, or corrects the prompt by changing the frequency of the speech. You can also. Instead of interrupting the video, image processing such as reducing the number of transmission pixels may be performed. When the execution of various adjustments is completed in step S120, the personal computer CPU 210 returns to step S101 again.

次に、ステップS104の判断で集中度が閾値を超えている場合について説明する。   Next, a case where the degree of concentration exceeds the threshold value as determined in step S104 will be described.

パソコンCPU210は、ステップS105へ進むと、タイマー211に対して計時を開始させる。ステップS105で開始される計時により、パソコンCPU210は、ユーザの集中度が高い状態で継続する時間を取得する。この計時により、このユーザが高い集中力をどの程度保てるかというデータを抽出できる。また、本実施形態においては、例えば90分間といった予め定められた時間を通して集中度が高い状態であった場合に、後述するように、ユーザに対して集中度の高い状態が長時間続いている旨の警告を行う。   When proceeding to step S105, the personal computer CPU 210 causes the timer 211 to start measuring time. The personal computer CPU 210 obtains the time to continue in a state where the user's concentration is high by the time measurement started in step S105. By this time measurement, it is possible to extract data on how much the user can maintain high concentration. Further, in the present embodiment, for example, when the degree of concentration is high throughout a predetermined time such as 90 minutes, as described later, a high degree of concentration continues for the user for a long time. Warning.

続いて、パソコンCPU210は、ステップS106で、ユーザへのコンタクト制限を行う。特に、第三者がユーザに対してコンタクトを要求する双方向通信機器に対して、コンタクト要求を制限する制限信号を送信する。ここでは、双方向通信機器の例として電話400を例に説明する。   Subsequently, in step S106, the personal computer CPU 210 restricts contact with the user. In particular, a restriction signal for restricting a contact request is transmitted to a two-way communication device in which a third party requests a contact to the user. Here, the telephone 400 will be described as an example of the bidirectional communication device.

パソコンCPU210は、電話400が鳴るのを停止させ留守モードに設定する制御信号を電話400へ送信する。電話400は、当該制御信号を受信して、呼出音の音量を0にすると共に留守モードに設定する。電話400は、留守モードにおいて第三者からコンタクトを受けた場合には、ユーザの状況と共に、メールによるコンタクト要求、あるいは、後ほど折り返しかけ直す旨等のメッセージを流す。また、相手に緊急度を尋ね、緊急の場合には例えば数字の1を押してもらい、その場合にのみ、ユーザに取り次ぐように設定することもできる。   The personal computer CPU 210 transmits a control signal for stopping the ringing of the telephone 400 and setting the absence mode to the telephone 400. The telephone 400 receives the control signal, sets the ringer volume to 0, and sets the absence mode. When the telephone 400 receives a contact from a third party in the absence mode, the telephone 400 sends a contact request by e-mail or a message indicating that the call will be returned later along with the user's situation. It is also possible to ask the other party about the degree of urgency, and in the case of an emergency, for example, the number 1 is pressed, and only in that case, the user can be set to follow.

双方向通信機器は、外部機器に限らない。パソコン200が例えばテレビ電話機能を備える場合には、テレビ電話機能に対してコンタクト要求を制限する。また、パソコン200がソフトウェアとして備えるメール機能に対しても、コンタクト要求を制限しても良い。例えば、通常時において、メールの受信と共にポップアップウィンドウを開いて受信を告知する設定になっている場合、ユーザの集中状態においては、ポップアップウィンドウが開くことを制限する。または、集中状態においてはメールの受信を行わないように設定することもできる。双方向通信機器のコンタクト要求を制限しているときには、ユーザが認識できるように、ディスプレイ201でその旨を報知しても良い。   The bidirectional communication device is not limited to an external device. When the personal computer 200 has a videophone function, for example, the contact request is restricted for the videophone function. Further, the contact request may be limited for the mail function provided as software in the personal computer 200. For example, in a normal state, when it is set to notify the reception by opening a pop-up window together with the reception of the mail, the pop-up window is restricted from being opened in the user's concentrated state. Alternatively, it can be set not to receive mail in a concentrated state. When the contact request of the two-way communication device is restricted, the display 201 may notify the user so that the user can recognize it.

また、双方向通信機器に限らず、様々な制御機器に対しても、ユーザへの接触を制限する制御信号を送信することができる。本実施形態においては、指標灯410に対する制御を説明する。   Moreover, the control signal which restrict | limits the contact to a user can be transmitted not only to a bidirectional | two-way communication apparatus but to various control apparatuses. In the present embodiment, control for the indicator light 410 will be described.

指標灯410は、上述のように、発光する色がユーザへのコンタクト許否を表現している。例えば、赤色発光はユーザへの接触禁止を意味し、青色発光は接触許可を意味することを周知させておく。そして、パソコンCPU210は、ステップS106において、指標灯410に対して赤色発光を実行する旨の制御信号を送信する。指標灯410は当該制御信号を受けて、赤色発光を実行する。これにより、周囲の人は、ユーザが集中状態であることを認識でき、接触禁止であることを理解する。   As described above, in the indicator lamp 410, the light emission color represents whether or not contact with the user is permitted. For example, it is well known that red light emission means contact prohibition to the user, and blue light emission means contact permission. In step S106, the personal computer CPU 210 transmits a control signal indicating that red light emission is to be performed to the indicator lamp 410. In response to the control signal, the indicator lamp 410 emits red light. Thereby, the surrounding person can recognize that the user is in a concentrated state and understands that the contact is prohibited.

指標灯410以外にも、例えば、ユーザを取り囲む液晶制御可能なパーテションに対して制御信号を送信することができる。パソコンCPU210は、このようなパーテションに対して、ユーザの集中状態において非透過目隠し状態とし、通常時において透過状態に制御することができる。また、パソコンCPU210は、周辺環境からの雑音に対して逆位相の音波を発生させることにより雑音を除去する雑音除去装置に対して、雑音除去を開始させる制御信号を送ることもできる。更には、パソコンCPU210は、ユーザの居室の鍵をロック状態とする制御信号を、鍵制御装置に送ることもできる。   In addition to the indicator lamp 410, for example, a control signal can be transmitted to a partition capable of controlling the liquid crystal surrounding the user. The personal computer CPU 210 can control such a partition to be in a non-transparent blindfold state when the user is concentrated, and to be in a transparent state during normal times. Further, the personal computer CPU 210 can also send a control signal for starting noise removal to a noise removing device that removes noise by generating sound waves having an opposite phase to noise from the surrounding environment. Furthermore, the personal computer CPU 210 can also send a control signal for locking the key of the user's room to the key control device.

パソコンCPU210は、ステップS107へ進み、ユーザのスケジュールの確認を行ない、直近に会議等のデスクワーク以外の業務があるか否を確認する。そして、パソコンCPU210は、スケジュールがある場合に、このスケジュールが変更可能かどうかの判断を行う(ステップS108)。例えば会議の場合、パソコンCPU210は、会議の参加メンバーに上役がいるか否か、ユーザ自身が必須出席者であるか否か、緊急性の高い会議であるか否か等を考慮して判断する。パソコンCPU210は、必須出席者ではない場合、必須出席者であっても緊急性がなく、上役が参加しない場合等には、変更可能と判断する。一方、パソコンCPU210は、緊急性があったり、必須出席者で上役も出席したりする場合には変更不可と判断する。判断基準は、予め設定され、ルックアップテーブルとしてROM212に記録されている。   The personal computer CPU 210 proceeds to step S107, confirms the user's schedule, and confirms whether there is a work other than desk work such as a meeting. Then, when there is a schedule, the personal computer CPU 210 determines whether or not this schedule can be changed (step S108). For example, in the case of a conference, the personal computer CPU 210 determines whether or not the participating members of the conference are superior, whether or not the user is an essential attendee, whether or not the conference is highly urgent, and the like. . The personal computer CPU 210 determines that the change can be made if the attendee is not an essential attendee, or is not urgent even if the attendee is an essential attendee, and the superior does not participate. On the other hand, the personal computer CPU 210 determines that the change is not possible when there is an urgent need, or when the senior attendee is an essential attendee. The determination criteria are set in advance and recorded in the ROM 212 as a lookup table.

パソコンCPU210は、ステップS108の判断がYESの場合にステップS109へ進み、NOの場合にステップS110へ進む。ステップS109へ進むと、パソコンCPU210は、会議の開催者や参加者に対して電子メールを配信して、会議に参加できないことを自動的に通知する。また、パソコンCPU210は、ディスプレイ201に会議をキャンセルした旨の表示を行いユーザに認識させる。   The personal computer CPU 210 proceeds to step S109 if the determination in step S108 is YES, and proceeds to step S110 if NO. In step S109, the personal computer CPU 210 delivers an e-mail to the conference organizer and participants to automatically notify that the conference cannot be attended. Further, the personal computer CPU 210 displays on the display 201 that the conference has been canceled and allows the user to recognize it.

続いて、パソコンCPU210は、ステップS105で計時を開始してから90分が経過したか否かの判断を行う(ステップS111)。パソコンCPU210は、90分に満たなければステップS101へ戻り、90分に達していればステップS112へ進んで、ディスプレイ201に、長時間に亘って集中度が高い状態が続いている旨の警告表示を行う。   Subsequently, the personal computer CPU 210 determines whether 90 minutes have elapsed since the start of time measurement in step S105 (step S111). If it is less than 90 minutes, the personal computer CPU 210 returns to step S101, and if it has reached 90 minutes, proceeds to step S112, and displays a warning on the display 201 that the state of high concentration continues for a long time. I do.

ステップS112で行う警告表示は、ステップS109で会議をキャンセルした場合の表示に比べて目立たせる必要がある。したがって、パソコンCPU210は、ステップS109で会議をキャンセルした場合の表示に比べて大きく表示したり、時間的に長く表示したり、点滅表示を実行したりする。   The warning display performed in step S112 needs to be more conspicuous than the display when the conference is canceled in step S109. Therefore, the personal computer CPU 210 displays larger than the display when the conference is canceled in step S109, displays it longer in time, or executes blinking display.

さらに、パソコンCPU210は、ステップS113へ進み、温調部208に電流を加えてユーザの掌周りを温め、ユーザに対して体感的に警告を認識させる。マウス300を利用していることが検出されている場合は、マウス300に内蔵された温調部に対して電流を加えても良い。また、パソコンCPU210は、空調装置に対して冷房指示の制御信号を送信して、周辺温度を下げるようにしても良い。   Further, the personal computer CPU 210 proceeds to step S113, applies a current to the temperature control unit 208 to warm the user's palm, and makes the user recognize the warning sensibly. When it is detected that the mouse 300 is used, a current may be applied to the temperature control unit built in the mouse 300. Further, the personal computer CPU 210 may transmit a cooling instruction control signal to the air conditioner to lower the ambient temperature.

一方、パソコンCPU210は、ステップS108の判断がNOの場合にステップS110へ進み、例えば会議開始の5分前に当該会議開催の旨の表示をディスプレイ201に行い、ユーザの注意を喚起する。この場合の表示は、ステップS109で会議をキャンセルした場合の表示に比べて大きく表示したり、時間的に長く表示したり、点滅表示を実行したりする。さらにパソコンCPU210は、上述のステップS113へ進み、温調部208等を用いて、ユーザに対して体感的にスケジュール開催を認識させる。   On the other hand, if the determination in step S108 is NO, the personal computer CPU 210 proceeds to step S110, for example, displays on the display 201 that the conference is held five minutes before the start of the conference, and alerts the user. The display in this case is displayed larger than the display when the conference is canceled in step S109, displayed longer in time, or displayed in a blinking manner. Further, the personal computer CPU 210 proceeds to the above-described step S113, and uses the temperature control unit 208 or the like to make the user recognize the schedule opening sensibly.

以上の一連の処理を経て、ユーザが集中度の高い状態から抜け出したら、コンタクト制限を解除する等の処理を実行して、フローを終了する。なお、上記フローにおいては、コンタクト制限を実行する時間は、集中度が高い状態で維持されて警告を発すべき時間、あるいは、スケジュール開催までの時間が設定されているが、これに限らない。例えば、ユーザが予め集中したい時間を設定しても良い。このように構成すれば、ユーザは自らの意思により、外部との接触を遮断することができる。または、パソコンCPU210は、ユーザごとに継続し得る平均的な集中時間を過去のログから抽出して、これを設定することもできる。このような構成を採用すると、ユーザごとの特性に合せた制御を行うことができる。   When the user exits from a highly concentrated state through the above-described series of processing, processing such as releasing the contact restriction is executed, and the flow ends. In the above flow, the time for executing the contact restriction is set as a time to be alerted or a time until a schedule is held while maintaining a high degree of concentration, but is not limited thereto. For example, you may set the time which a user wants to concentrate beforehand. If comprised in this way, the user can interrupt | block contact with the exterior by own intention. Or personal computer CPU210 can extract the average concentration time which can be continued for every user from a past log, and can also set this. By adopting such a configuration, it is possible to perform control according to the characteristics of each user.

上述の実施例においては、内蔵カメラ204によりユーザの顔を撮像して表情検出を行った。これに代えて、あるいは併用して、ユーザの手部の動きを判断材料とすることもできる。例えば、様々な動きに対応する手部のリファレンス画像を予め用意しておき、画像解析部215が内蔵カメラ204により撮像した画像とのパターンマッチング処理を行うことにより、手部の動きを認識する。   In the above-described embodiment, facial expressions are detected by imaging the user's face with the built-in camera 204. Instead of this or in combination, the movement of the user's hand can be used as a judgment material. For example, hand reference images corresponding to various movements are prepared in advance, and the image analysis unit 215 performs pattern matching processing with an image captured by the built-in camera 204 to recognize hand movements.

図4は、第1実施形態の応用例としての、ユーザの手部の検出に関する処理を示すフロー図である。具体的には、パソコンCPU210の制御によるユーザの手部の検出、および検出した手部の状況に応じた処理を示すフローチャートである。なお、ここで言う手部は、手そのもののみならず、手首、手首近傍の腕までを含む部位である。   FIG. 4 is a flowchart showing processing relating to detection of a user's hand as an application example of the first embodiment. Specifically, it is a flowchart showing detection of a user's hand by control of the personal computer CPU 210 and processing according to the detected state of the hand. In addition, the hand part said here is not only the hand itself but also a part including the wrist and the arm near the wrist.

ステップS201は、生体情報の入力処理であり、実質的には上記ステップS101の処理と同一である。ステップS202は、撮像結果の分析であり、実質的には上記ステップ102の処理と同一である。したがって、これらの処理の説明は省略する。   Step S201 is a process for inputting biometric information, and is substantially the same as the process in step S101. Step S202 is an analysis of the imaging result, which is substantially the same as the processing in step 102. Therefore, description of these processes is omitted.

パソコンCPU210は、ステップS203で、画像解析部215の解析結果から、内蔵カメラ204が撮影した画像信号に、キーボード202とユーザの手部が含まれているか否かを判断する。具体的には、まず画像解析部215が、キーボード202の少なくとも一部とユーザの手部の少なくとも一部が重なっているか否かを解析する。さらに、画像解析部215は、重なっている手部が右手か左手か、マウス300にも手部が重なっているか等を解析しても良い。画像解析部215は、解析結果として、キーボード202とユーザの手部の相対的な位置関係を含む位置情報を、パソコンCPU210へ引き渡す。パソコンCPU210は、画像解析部215から引き渡される位置情報により、ユーザがキーボード202等を実際に操作する前であっても、ユーザの操作を予測することができる。パソコンCPU210は、引き渡された位置情報から、キーボード202とユーザの手部が重なっていると判断すればステップS204へ進み、重なっていないと判断すればステップS204をスキップしてステップS205へ進む。   In step S <b> 203, the personal computer CPU 210 determines from the analysis result of the image analysis unit 215 whether the image signal captured by the built-in camera 204 includes the keyboard 202 and the user's hand. Specifically, the image analysis unit 215 first analyzes whether or not at least a part of the keyboard 202 overlaps at least a part of the user's hand. Further, the image analysis unit 215 may analyze whether the overlapping hand portion is the right hand or the left hand, whether the hand portion overlaps the mouse 300, or the like. As an analysis result, the image analysis unit 215 delivers position information including the relative positional relationship between the keyboard 202 and the user's hand to the personal computer CPU 210. The personal computer CPU 210 can predict the user's operation based on the position information delivered from the image analysis unit 215 even before the user actually operates the keyboard 202 or the like. If the personal computer CPU 210 determines from the delivered position information that the keyboard 202 and the user's hand are overlapping, the process proceeds to step S204. If the personal computer CPU 210 determines that there is no overlap, the process skips step S204 and proceeds to step S205.

パソコンCPU210は、ステップS204で、操作部設定の調節を行う。具体的には、パソコンCPU210は、キーボード202とタッチパッド203の反応速度を変更する。なお、ここでの反応速度は、わずかに触れただけでも反応するのか、または、しっかり触れなければ反応しないのかといった、キータッチに対する感度の概念を含む。ここでは、キーボード202とユーザの手部が重なっており、ユーザの意思としてキーボード202を操作することが推測されるので、パソコンCPU210は、隣接する操作部であるタッチパッド203 の反応速度(感度)を遅くする。すなわち、しっかり触れなければ反応しない設定にする。あるいは、パソコンCPU210は、タッチパッド203 への入力操作を受け付けないように設定を変更しても良い。これにより、ユーザの手部およびその近傍が偶発的にタッチパッド203に近づいた場合の誤動作を防止することができる。いずれの設定に変更するかについて、パソコンCPU210は、右手左手の両手部がキーボード202と重なっているか否か等の条件を採用することができる。   In step S204, the personal computer CPU 210 adjusts the operation unit settings. Specifically, the personal computer CPU 210 changes the reaction speed of the keyboard 202 and the touch pad 203. Note that the reaction speed here includes the concept of sensitivity to key touch, such as whether it reacts even with a slight touch or does not respond unless it is touched firmly. Here, since the keyboard 202 and the user's hand overlap each other and it is presumed that the keyboard 202 is operated as the user's intention, the personal computer CPU 210 determines the reaction speed (sensitivity) of the touch pad 203 as an adjacent operation unit. To slow down. In other words, it is set so that it does not react unless it is touched firmly. Alternatively, the personal computer CPU 210 may change the setting so that an input operation to the touch pad 203 is not accepted. As a result, it is possible to prevent malfunction when the user's hand and its vicinity accidentally approach the touch pad 203. As to which setting is to be changed, the personal computer CPU 210 can adopt conditions such as whether or not both hands of the right hand and the left hand overlap the keyboard 202.

さらに、設定変更の条件として、ステップS201で取得した生体情報を加味しても良い。例えば、感情解析部213によりユーザのイライラ状態が検出されたら、パソコンCPU210は、キーボード202への入力に対する反応速度が速くなるように設定を変更する。また、イライラ感の程度に応じて反応速度を変更しても良い。この場合、速さの段階として例えば2〜4段階の設定を予め用意しておく。パソコンCPU210は、操作部設定の調節が完了したらステップS205へ進む。   Furthermore, the biometric information acquired in step S201 may be taken into account as a setting change condition. For example, when the emotion analysis unit 213 detects the user's frustrating state, the personal computer CPU 210 changes the setting so that the reaction speed with respect to the input to the keyboard 202 becomes faster. Further, the reaction rate may be changed according to the degree of irritation. In this case, for example, settings of 2 to 4 steps are prepared in advance as speed steps. When the adjustment of the operation unit setting is completed, the personal computer CPU 210 proceeds to step S205.

続いてステップS205では、パソコンCPU210は、画像解析部215の解析結果から、内蔵カメラ204が撮影した画像信号に、タッチパッド203とユーザの手部が含まれているか否かを判断する。パソコンCPU210は、画像解析部215から引き渡される位置情報により、ユーザがタッチパッド203等を実際に操作する前であっても、ユーザの操作を予測することができる。パソコンCPU210は、引き渡された位置情報から、タッチパッド203とユーザの手部が重なっていると判断すればステップS206へ進み、重なっていないと判断すればステップS206をスキップしてステップS207へ進む。   In step S205, the personal computer CPU 210 determines from the analysis result of the image analysis unit 215 whether the image signal captured by the built-in camera 204 includes the touch pad 203 and the user's hand. The personal computer CPU 210 can predict the user's operation based on the position information delivered from the image analysis unit 215 even before the user actually operates the touch pad 203 or the like. If the personal computer CPU 210 determines from the delivered position information that the touch pad 203 and the user's hand overlap, the personal computer CPU 210 proceeds to step S206. If it determines that the touch pad 203 does not overlap, the personal computer CPU 210 skips step S206 and proceeds to step S207.

パソコンCPU210は、ステップS206で、操作部設定の調節を行う。具体的には、パソコンCPU210は、キーボード202とタッチパッド203の反応速度を変更する。具体的には、パソコンCPU210は、ステップS204の調節によりタッチパッド203の反応速度が遅くされていたり、受け付けない設定にされている場合には、元の設定に戻す。特に、キーボード202とユーザの手部が重なっていないと判断した場合に、パソコンCPU210は、元の設定に戻しても良い。さらには、タッチパッド203が連続的に操作された場合に、パソコンCPU210は、タッチパッド203の反応速度を上げても良い。また、設定変更の条件として、ステップS201で取得した生体情報を加味しても良い。例えば、生体情報を加味してキーボード202の反応速度を上げた場合は、キーボード202の設定を維持したまま、タッチパッド203 の設定のみを変更することもできる。パソコンCPU210は、操作部設定の調節が完了したらステップS207へ進む。   In step S206, the personal computer CPU 210 adjusts the operation unit setting. Specifically, the personal computer CPU 210 changes the reaction speed of the keyboard 202 and the touch pad 203. Specifically, the personal computer CPU 210 returns to the original setting when the response speed of the touch pad 203 is slowed down or not accepted by the adjustment in step S204. In particular, when it is determined that the keyboard 202 and the user's hand do not overlap, the personal computer CPU 210 may restore the original setting. Furthermore, the personal computer CPU 210 may increase the reaction speed of the touch pad 203 when the touch pad 203 is continuously operated. Moreover, you may consider the biometric information acquired by step S201 as conditions for a setting change. For example, when the response speed of the keyboard 202 is increased in consideration of biological information, only the setting of the touch pad 203 can be changed while the setting of the keyboard 202 is maintained. When the adjustment of the operation unit setting is completed, the personal computer CPU 210 proceeds to step S207.

パソコンCPU210は、ステップS207において、ユーザによる入力操作が終了したか否かを判断する。具体的には、キーボード202およびタッチパッド203への入力が予め定められた時間認められなかった場合に、入力操作が終了したと判断する。パソコンCPU210は、入力操作が継続していると判断した場合にはステップS201へ戻り、終了したと判断した場合には、一連の処理フローを終了する。   In step S207, the personal computer CPU 210 determines whether or not the input operation by the user has been completed. Specifically, when the input to the keyboard 202 and the touch pad 203 is not allowed for a predetermined time, it is determined that the input operation has been completed. The personal computer CPU 210 returns to step S201 when determining that the input operation is continued, and ends the series of processing flows when determining that the input operation has been completed.

以上のフローにおいては、内蔵カメラ204によりユーザの手部、キーボード202およびタッチパッド203を撮影したが、天井カメラ320により撮影しても構わない。また、以上のフローにおいては、ユーザはタッチパッド203を操作することを前提に説明したが、代わりにマウス300を操作している場合には、上記のタッチパッド203に対する設定をマウス300の設定に置き換えて適用することができる。この場合、パソコンCPU210は、タッチパッド203の設定として、反応速度を遅くする、または、入力を受け付けない設定にすれば良い。   In the above flow, the user's hand, the keyboard 202, and the touch pad 203 are photographed by the built-in camera 204, but may be photographed by the ceiling camera 320. In the above flow, the description has been made on the assumption that the user operates the touch pad 203. However, when the mouse 300 is operated instead, the setting for the touch pad 203 is changed to the setting of the mouse 300. It can be replaced and applied. In this case, the personal computer CPU 210 may set the touch pad 203 so as to slow down the reaction speed or not accept input.

また、以上のフローにおいては、内蔵カメラ204によりユーザの手部、キーボード202およびタッチパッド203を撮影して位置情報を取得したが、画像信号を用いることなく、実際の入力操作を受け付けてから操作部設定を変更しても良い。実際の入力操作を検出してから操作部の設定を変更するので、若干のタイムラグは生じるが、画像解析部215の処理負荷を軽減することができる。特に、タッチパッド203の操作感度を変更する程度においては有効である。   In the above flow, the user's hand, the keyboard 202, and the touch pad 203 are photographed by the built-in camera 204 to acquire position information. However, the operation is performed after receiving an actual input operation without using an image signal. The part setting may be changed. Since the setting of the operation unit is changed after the actual input operation is detected, a slight time lag occurs, but the processing load on the image analysis unit 215 can be reduced. In particular, it is effective to the extent that the operation sensitivity of the touch pad 203 is changed.

次に、音声解析部214を用いた応用例について説明する。図5は、第1実施形態の応用例としての、ユーザの発話速度の検出に関する処理を示すフロー図である。ここでは、ユーザは、パソコン200の機能としてのテレビ電話を利用している場合を想定する。   Next, an application example using the voice analysis unit 214 will be described. FIG. 5 is a flowchart showing processing relating to detection of the user's speech rate as an application example of the first embodiment. Here, it is assumed that the user uses a videophone as a function of the personal computer 200.

ステップS301は、生体情報の入力処理であり、実質的には上記ステップS101の処理と同一であるので、その説明を省略する。パソコンCPU210は、ステップS302で、内蔵カメラ204からの画像信号を画像解析部215で解析して、ユーザの表情を検出する。さらに、パソコンCPU210は、ユーザの表情からユーザの機嫌を判断する。   Step S301 is a process for inputting biometric information, which is substantially the same as the process in step S101, and a description thereof will be omitted. In step S302, the personal computer CPU 210 analyzes the image signal from the built-in camera 204 by the image analysis unit 215 to detect the facial expression of the user. Furthermore, the personal computer CPU 210 determines the user's mood from the user's facial expression.

ステップS303へ進み、パソコンCPU210は、マイク207からの音声信号を音声解析部214で解析して、ユーザの発話速度を検出する。具体的には、音声解析部214は、単位時間当たりの出力音素数をカウントすることにより発話速度を算出する。   In step S303, the personal computer CPU 210 analyzes the voice signal from the microphone 207 by the voice analysis unit 214 and detects the speech rate of the user. Specifically, the voice analysis unit 214 calculates the speech rate by counting the number of output phonemes per unit time.

続いて、パソコンCPU210は、ステップS304で、発話速度が、予め定められた閾値を超えて増加しているか否かを判断する。すなわち、パソコンCPU210は、興奮の初期段階において発話速度が急激に増す生理的現象を利用して、ユーザの興奮開始を捕捉する。パソコンCPU210は、例えば、平常時における発話速度を継続的に監視してROM212へ記録しておき、この記録された平常時における発話速度のプラス20%を閾値として設定できる。なお、顔認識技術等により各ユーザを識別して、ユーザごとの閾値を設定することもできる。   Subsequently, in step S304, the personal computer CPU 210 determines whether or not the speaking rate has increased beyond a predetermined threshold. That is, the personal computer CPU 210 captures the user's excitement using a physiological phenomenon in which the utterance speed increases rapidly in the initial stage of excitement. For example, the personal computer CPU 210 can continuously monitor the utterance speed at normal times and record it in the ROM 212, and can set the recorded utterance speed at normal time plus 20% as a threshold value. It should be noted that each user can be identified by face recognition technology or the like, and a threshold for each user can be set.

また、パソコンCPU210は、判定の条件として、ステップS301およびステップS302の少なくとも一方の情報を加味することができる。例えば、パソコンCPU210は、閾値を超えて発話速度が上昇した場合であっても、表情検出により機嫌が良いと判断されている場合には、発話速度が上昇したと判断しない。または、パソコンCPU210は、発話速度が上昇したと判断する条件として、生体情報により「興奮」「イライラ」「焦り」等のネガティブな感情が検出されていることを追加することができる。これらの情報の組み合わせは、それぞれの検出結果に重み付けを行って、総合的に判断することもできる。   In addition, the personal computer CPU 210 can take into account at least one of the information in step S301 and step S302 as the determination condition. For example, the personal computer CPU 210 does not determine that the utterance speed has increased even if the utterance speed has increased beyond the threshold, if it is determined that the mood is good by facial expression detection. Or personal computer CPU210 can add that negative emotions, such as "excitement", "irritability", and "impression", are detected by biometric information as conditions which judge that speech speed rose. The combination of these information can also be comprehensively determined by weighting each detection result.

パソコンCPU210は、発話速度の増加量が閾値未満であると判断した場合にはステップS301へ戻り、閾値を超えていると判断した場合には、ステップS305へ進む。   The personal computer CPU 210 returns to step S301 when determining that the increase amount of the speech rate is less than the threshold value, and proceeds to step S305 when determining that it exceeds the threshold value.

パソコンCPU210は、ステップS305へ進むと、各種調整を実行する。まず、パソコンCPU210は、早口になっている事実、ひいては興奮状態に陥っている事実をユーザに認識させる。具体的には、パソコンCPU210は、ディスプレイ201の表示輝度を落として暗くする。あるいは直接的に、ディスプレイ201にその旨のメッセージをテキスト、図等により表示する。   When proceeding to step S305, the personal computer CPU 210 executes various adjustments. First, the personal computer CPU 210 allows the user to recognize the fact that it is quickly spoken and eventually the fact that it is in an excited state. Specifically, the personal computer CPU 210 reduces the display brightness of the display 201 to darken it. Alternatively, a message to that effect is directly displayed on the display 201 as text or a figure.

また、外部機器に対して制御信号を送信して、外部機器によりユーザに認識させることもできる。具体的には、パソコンCPU210は、指標灯410に対して制御信号を送信して、LEDを点滅させる。また、ユーザの居室に設置された照明機器に制御信号を送信して、その輝度を変更させ、居室の明るさを変える。さらには、ユーザの周囲にあるテレビ、ミュージックプレーヤー等の出力音声を小さくすることもできる。   In addition, a control signal can be transmitted to the external device so that the user can recognize the external device. Specifically, the personal computer CPU 210 transmits a control signal to the indicator lamp 410 to blink the LED. In addition, a control signal is transmitted to the lighting device installed in the user's room to change its brightness and change the brightness of the room. Furthermore, the output sound of a television, music player, etc. around the user can be reduced.

また、ユーザの興奮状態においては、パソコンCPU210がテレビ電話の通信状態を積極的に制限することにより、ユーザの人間関係悪化を未然に防ぐことも期待できる。具体的には、パソコンCPU210は、テレビ電話における相手方の映像を変更したり中断したりできる。また、送信するユーザの音声を加工することもできる。例えば、周波数を変更して穏やかに聞こえるように加工できる。あるいは、パソコンCPU210は、テレビ電話の通信状態を悪化させて、やがて通信を遮断しても良い。   In addition, in the user's excitement state, it can be expected that the personal computer CPU 210 positively restricts the communication state of the videophone, thereby preventing the deterioration of the human relationship of the user. Specifically, the personal computer CPU 210 can change or interrupt the video of the other party in the videophone. In addition, the user's voice to be transmitted can be processed. For example, the frequency can be changed so that it can be heard gently. Alternatively, the personal computer CPU 210 may deteriorate the communication state of the videophone and eventually cut off the communication.

パソコンCPU210は、ステップS306へ進み、内蔵カメラ204からの画像信号およびマイク207からの音声信号の少なくとも一方の記録を開始する。天井カメラ320からの画像信号を記録しても良い。このように、ユーザの興奮状態において、ユーザを含むユーザの周辺環境を記録することにより、ユーザの記憶を補って交信の記録を確実に残すことができる。また、ユーザは、平常状態に戻ったときに、客観的に自身の行動を振り返って認識することができる。   The personal computer CPU 210 proceeds to step S306 and starts recording at least one of the image signal from the built-in camera 204 and the audio signal from the microphone 207. An image signal from the ceiling camera 320 may be recorded. Thus, by recording the user's surrounding environment including the user in the user's excitement state, the user's memory can be supplemented and the communication record can be reliably left. Further, the user can objectively look back and recognize his / her behavior when returning to the normal state.

上述の第1実施形態においては、パソコン200の操作を例に集中度検出システム110を説明したが、これに変えて、スマートフォンの操作に集中度検出システム110を適用しても良い。   In the first embodiment described above, the concentration level detection system 110 has been described by taking the operation of the personal computer 200 as an example, but instead, the concentration level detection system 110 may be applied to the operation of the smartphone.

図6は、第1実施形態の変形例であるスマートフォン250の概要を示す図である。図6に示すように、スマートフォン250は、縦長の矩形状をしており、ディスプレイ251と、このディスプレイ251に表面に設けられたタッチパネル252と、内蔵カメラ254と、マイク257と、生体センサ260とが設けられている。   FIG. 6 is a diagram illustrating an overview of a smartphone 250 that is a modified example of the first embodiment. As shown in FIG. 6, the smartphone 250 has a vertically long rectangular shape, and includes a display 251, a touch panel 252 provided on the surface of the display 251, a built-in camera 254, a microphone 257, and a biosensor 260. Is provided.

タッチパネル252は、ディスプレイ251の表面をユーザがタッチすることにより、種々の指示を受け付けることができる。内蔵カメラ254は、タッチパネル252と同一面側に設けられており、撮影レンズと撮像素子とを含む。なお、この内蔵カメラ254に加えて、タッチパネル252と反対面側に内蔵カメラを設けても良い。   The touch panel 252 can accept various instructions when the user touches the surface of the display 251. The built-in camera 254 is provided on the same side as the touch panel 252 and includes a photographing lens and an image sensor. In addition to the built-in camera 254, a built-in camera may be provided on the side opposite to the touch panel 252.

マイク257は、ユーザがスマートフォン250を保持したときにユーザの口と対向しやすいように下方に設けられている。生体センサ260は、ユーザがスマートフォン250を保持するときに、ユーザの手に触れるように長辺側の側面に設けられている。なお、生体センサ260は、スマートフォン250本体に設けてもよく、上述の第1実施形態のように腕時計型の生体センサ330を用いても良い。   The microphone 257 is provided below so that the user can easily face the user's mouth when holding the smartphone 250. The biometric sensor 260 is provided on the side surface on the long side so as to touch the user's hand when the user holds the smartphone 250. The biosensor 260 may be provided in the main body of the smartphone 250, or a wristwatch-type biosensor 330 may be used as in the first embodiment described above.

図7は、第1実施形態の変形例に係る集中度検出システムのブロック図である。図6で説明した構成以外の構成は、図2のブロック図の構成をほぼ適用することができるので、図2と同じ符号を付してその説明を省略する。なお、スマートフォンCPU270は、スマートフォン250全体を制御する制御装置である。   FIG. 7 is a block diagram of a concentration level detection system according to a modification of the first embodiment. The configuration other than the configuration described with reference to FIG. 6 can be substantially applied to the configuration of the block diagram of FIG. 2, and thus the same reference numerals as those in FIG. The smartphone CPU 270 is a control device that controls the entire smartphone 250.

本変形例においても、スマートフォンCPU270は、ユーザの生体情報に基づいてユーザが集中している場合には、ユーザへのコンタクトを制限する。この場合、スマートフォン250にかかってくる電話に加えて、ユーザが会社の座席にいる場合には、その座席の電話400の機能を制限しても良い。また、ユーザが座席にいたり、動いているのは天井カメラ320を用いてもよく、内蔵カメラ254を広角レンズとしてユーザの表情に加えて、顔の動きを検出して、ユーザの感情や集中度を検出するようにしても良い。同様にユーザの手の動きは天井カメラ320により撮像しても、広角レンズを有した内蔵カメラ254により撮像しても良い。   Also in this modification, the smartphone CPU 270 restricts contact with the user when the user is concentrated based on the user's biological information. In this case, in addition to the telephone call to the smartphone 250, when the user is in a company seat, the function of the telephone 400 in the seat may be restricted. In addition, the user may be using the ceiling camera 320 in the seat or moving. The built-in camera 254 is used as a wide-angle lens to detect a facial movement in addition to the user's facial expression, and the user's emotion and concentration level. May be detected. Similarly, the movement of the user's hand may be captured by the ceiling camera 320 or by the built-in camera 254 having a wide-angle lens.

また、スマートフォンCPU270は、タッチパネル252を操作する操作量が多い場合、圧電センサ209が検出したタッチパネル252を操作する力が大きい場合等においてタッチパネル252の感度を上げるようにソフトウェアを用いて設定を変更しても良い。上述した第1実施形態と、第1実施形態の変形例とは、適宜組み合わせたり、変形して利用することも可能である。   In addition, the smartphone CPU 270 changes the setting using software to increase the sensitivity of the touch panel 252 when the operation amount of the touch panel 252 is large, or when the force to operate the touch panel 252 detected by the piezoelectric sensor 209 is large. May be. The first embodiment described above and the modified example of the first embodiment can be combined or modified as appropriate.

図8は、第2実施形態に係る集中度検出システム120の概要を示す図である。本実施形態における集中度検出システム120は、第1実施形態における集中度検出システム110に用いた各要素を適宜用いて構成されている。また、第2実施形態の集中度検出システム120は、以下に説明するとおり、第1実施形態の集中度検出システム110に対していくつかの要素が追加されている。特に、パソコン200は、本実施形態においてもほぼ同様の構成を備え、第1実施形態に対して新たに追加される外部機器に対して送受信する機能が追加される。第1実施形態と共通の要素については同じ符番を付し、特に新たな機能を付与しない限り、その説明を省略する。   FIG. 8 is a diagram showing an overview of the concentration level detection system 120 according to the second embodiment. The concentration level detection system 120 in the present embodiment is configured by appropriately using each element used in the concentration level detection system 110 in the first embodiment. In addition, the concentration detection system 120 of the second embodiment has some elements added to the concentration detection system 110 of the first embodiment as described below. In particular, the personal computer 200 has substantially the same configuration in this embodiment, and a function of transmitting / receiving to / from an external device newly added to the first embodiment is added. Elements common to the first embodiment are denoted by the same reference numerals, and description thereof is omitted unless a new function is given.

第2実施形態における集中度検出システム120は、プレゼンテーション、会議、講習会等における参加者の集中度を検出して参加者にフィードバックを行うシステムである。第1実施形態と異なり、複数人の参加者を対象者とし、対象者の集中度を同時あるいはシーケンシャルに検出する。特に、ここでは、発表者と複数の受講者が参加者として存在する講義の場合を例として説明する。   The concentration level detection system 120 according to the second embodiment is a system that detects the concentration level of participants in presentations, meetings, workshops, and the like and provides feedback to the participants. Unlike the first embodiment, a plurality of participants are targeted, and the degree of concentration of the subject is detected simultaneously or sequentially. In particular, here, a case of a lecture in which a presenter and a plurality of students are present as participants will be described as an example.

集中度検出システム120は、パソコン200を中心として、天井カメラ320、発表者、複数人の受講者のそれぞれに装着された生体センサ330、壁面に設置された時計500、発表者が発表に用いるスクリーンボード600を有している。部屋の天井に設置されている天井カメラ320は、集中度検出システム110における天井カメラ320と同様の構成であるが、ここでは講義に参加する複数の受講者の頭部を撮影できるように、例えば広角レンズが用いられて、撮影画角が調整されている。   Concentration detection system 120 is centered on personal computer 200, a ceiling camera 320, a presenter, a biosensor 330 attached to each of a plurality of students, a clock 500 installed on a wall, and a screen used by the presenter for presentations. A board 600 is provided. The ceiling camera 320 installed on the ceiling of the room has the same configuration as that of the ceiling camera 320 in the concentration detection system 110. Here, for example, the heads of a plurality of students participating in the lecture can be photographed. A wide-angle lens is used to adjust the shooting angle of view.

天井カメラ320の撮像素子から出力される画像信号において、画素の座標と講義場の位置は予め対応付けられており、撮影された参加者が、講義場のどの座席に位置しているのか把握できるように構成されている。すなわち、天井カメラ320は、参加者の位置を検出する位置センサの役割を担う。なお、講義場が広い場合には、天井カメラ320を複数設置しても良い。なお、講義場においては、受講者が椅子に座っていることを想定すると、頭部の高さは床から1200mmから1400mm程度である。したがって、天井カメラ320は、この高さに対して焦点調節されていれば良い。   In the image signal output from the image sensor of the ceiling camera 320, the coordinates of the pixel and the position of the lecture hall are associated in advance, and it is possible to grasp which seat of the lecture hall the photographed participant is located in. It is configured as follows. That is, the ceiling camera 320 serves as a position sensor that detects the position of the participant. If the lecture hall is large, a plurality of ceiling cameras 320 may be installed. In the lecture hall, assuming that the student is sitting on a chair, the height of the head is about 1200 mm to 1400 mm from the floor. Therefore, the ceiling camera 320 only needs to be focused with respect to this height.

また、天井カメラ320は、受講者の手部を撮影することもできる。天井カメラ320からの撮影画像を取得するパソコン200は、受講者が、講義中にテーブルに手部を載せてメモを取ったりノートパソコンを操作する様子を把握することができる。頭部と手部の天井からの距離差が天井カメラ320の被写界深度に収まらない場合は、天井カメラ320にフォーカスレンズを駆動する構成を採用しても良い。   Moreover, the ceiling camera 320 can also photograph a student's hand. The personal computer 200 that obtains a photographed image from the ceiling camera 320 can grasp how a student puts his / her hand on a table during a lecture and takes notes or operates a laptop computer. In the case where the difference in the distance between the head and the hand from the ceiling does not fall within the depth of field of the ceiling camera 320, a configuration in which a focus lens is driven in the ceiling camera 320 may be employed.

講義場の壁面には時計500とスクリーンボード600が設置されている。スクリーンボード600は、講義場の参加者テーブルに対して正面に設置されており、発表資料等の表示の利用に供される。時計500は、参加者テーブルの正面ではなく、スクリーンボード600の設置面とは異なる側壁面に設置されている。   A clock 500 and a screen board 600 are installed on the wall of the lecture hall. The screen board 600 is installed in front of the participant table in the lecture hall, and is used for displaying presentation materials and the like. The watch 500 is installed not on the front of the participant table but on the side wall surface different from the installation surface of the screen board 600.

時計500は、時刻を表す時刻表示部510と少なくとも受講者を撮影する時計カメラ520を備える。時刻表示部510は、現在時刻を参加者に知らしめる時計であり、アナログ表示であってもデジタル表示であっても構わない。時計カメラ520は、時刻表示部510の近傍に設置され、講義に参加する受講者の全員を撮影できるように、撮影画角および設置高さが調整されている。また、時計カメラ520は、天井カメラ320と同様に、撮像素子から出力される画像信号において、画素の座標と講義場の位置は予め対応付けられており、撮影された参加者が、講義場のどの座席に位置しているのか把握できるように構成されている。   The clock 500 includes a time display unit 510 that represents time and a clock camera 520 that captures at least students. The time display unit 510 is a clock that informs the participant of the current time, and may be an analog display or a digital display. The clock camera 520 is installed in the vicinity of the time display unit 510, and the shooting angle of view and the installation height are adjusted so that all the students participating in the lecture can be shot. Similarly to the ceiling camera 320, the clock camera 520 associates the pixel coordinates with the lecture hall position in the image signal output from the image sensor, so that the photographed participants can use the lecture hall. It is structured so that it can be grasped which seat it is located on.

スクリーンボード600は、スクリーン表示部610とスクリーンカメラ620を備える。スクリーン表示部610は、発表資料等を表示する表示部である。スクリーン表示部610は、液晶等の表示素子パネルで構成されていても良いし、プロジェクターと投影スクリーンの組み合わせにより構成されていても良い。また、電気的な表示装置でなくても、例えばホワイトボードなどの表示媒体であっても良い。ホワイトボードなどの非電気機器を利用する場合は、発表資料を表示するのではなく、発表者がマーカー等により板書する。   The screen board 600 includes a screen display unit 610 and a screen camera 620. The screen display unit 610 is a display unit that displays presentation materials and the like. The screen display unit 610 may be composed of a display element panel such as a liquid crystal or a combination of a projector and a projection screen. In addition, a display medium such as a white board may be used instead of an electrical display device. When using a non-electrical device such as a whiteboard, the presenter does not display the presentation material, but the presenter writes on the board with a marker or the like.

スクリーンカメラ620は、スクリーン表示部610の近傍に設置され、講義に参加する受講者の全員を撮影できるように、撮影画角および設置高さが調整されている。また、スクリーンカメラ620は、天井カメラ320と同様に、撮像素子から出力される画像信号において、画素の座標と講義場の位置は予め対応付けられており、撮影された参加者が、講義場のどの座席に位置しているのか把握できるように構成されている。   The screen camera 620 is installed in the vicinity of the screen display unit 610, and the shooting angle of view and the installation height are adjusted so that all the students participating in the lecture can be shot. Similarly to the ceiling camera 320, the screen camera 620 associates pixel coordinates and lecture hall positions in advance in the image signal output from the image sensor. It is structured so that it can be grasped which seat it is located on.

図9は、第2実施形態に係る集中度検出システムのブロック図である。パソコン200には、例えば、HDD、SSDから構成される大容量のデータを記録できる記録部217が追加されている。記録部217は、各カメラから送られてくる画像信号を記録し、解析された参加者のデータを記録する。   FIG. 9 is a block diagram of a concentration level detection system according to the second embodiment. For example, a recording unit 217 capable of recording a large amount of data composed of an HDD and an SSD is added to the personal computer 200. The recording unit 217 records an image signal sent from each camera, and records the analyzed participant data.

また、パソコンCPU210は、外部接続インターフェイス216を介して、参加者分の生体センサ330からの生体情報を、ID等で識別しつつ取得する。床センサ310からの情報も同様に取得する。   Further, the personal computer CPU 210 acquires the biometric information from the biometric sensor 330 for the participant through the external connection interface 216 while identifying the biometric information with an ID or the like. Information from the floor sensor 310 is acquired in the same manner.

時計500は、時計CPU530を中心として、時刻表示部510、時計カメラ520、頻度検出部540、記録部550および外部接続インターフェイス560を備える。   The clock 500 includes a time display unit 510, a clock camera 520, a frequency detection unit 540, a recording unit 550, and an external connection interface 560 with the clock CPU 530 as a center.

時計CPU530は、時計500全体の制御を司る。頻度検出部540は、受講者が時計500を見た頻度を検出する。具体的には、時計カメラ520が撮影した画像信号を受け取り、これを解析して、予め定められた単位時間内に時計500を何回見たかを、受講者ごとに検出する。特に、時計500は側壁面に設置されているので、受講者がスクリーン表示部610に視線を向けている場合には、時計カメラ520は、受講者の顔を正面から撮影することができない。そこで、頻度検出部540は、顔認識技術により、受講者の顔が時刻表示部510へ向けられたことを検出する。頻度検出部540は、受講者の顔が時刻表示部510へ正対したか否かを正確に認識すべく、例えば、受講者の両目が検出された場合に、時刻表示部510を見たと判断しても良い。   The clock CPU 530 controls the clock 500 as a whole. The frequency detection unit 540 detects the frequency at which the student views the clock 500. Specifically, an image signal captured by the clock camera 520 is received and analyzed to detect how many times the clock 500 has been viewed within a predetermined unit time for each student. In particular, since the watch 500 is installed on the side wall, the watch camera 520 cannot photograph the face of the student from the front when the student is looking at the screen display unit 610. Therefore, the frequency detection unit 540 detects that the student's face is directed to the time display unit 510 by using a face recognition technique. The frequency detection unit 540 determines that the time display unit 510 has been viewed when, for example, both eyes of the student are detected in order to accurately recognize whether or not the student's face is facing the time display unit 510. You may do it.

これにより、受講者の集中度を判断することができる。つまり、パソコンCPU210は、頻度検出部540で検出された頻度情報を時計CPU530から受け取ることにより、受講者の集中度を判断することができる。頻度情報は、さまざまなバリエーションを取り得る。頻度検出部540は、受講者のそれぞれを区別して、受講者別に頻度情報を構築することもできるし、受講者のいずれかが時刻表示部510に顔を向けた場合に頻度検出の対象としてカウントすることにより、受講者を区別せずに頻度情報を構築することもできる。前者の頻度情報によれば、後述するように、座席位置と対応させることにより、集中度の低い受講者の分布を観察することができる。後者の頻度情報によれば、受講者全体の集中度を観察しやすい。   Thereby, a student's concentration degree can be judged. That is, the personal computer CPU 210 can determine the degree of concentration of the student by receiving the frequency information detected by the frequency detection unit 540 from the clock CPU 530. The frequency information can take various variations. The frequency detection unit 540 can also construct the frequency information for each student by distinguishing each student, and counts as a frequency detection target when any of the students turns their face to the time display unit 510 By doing so, it is also possible to construct frequency information without distinguishing students. According to the former frequency information, it is possible to observe the distribution of students having a low degree of concentration by corresponding to the seat position, as will be described later. According to the latter frequency information, it is easy to observe the degree of concentration of the entire student.

また、特定の受講者に対して、頻度検出のカウントを変更することもできる。例えば、受講者中に重要人物等の区別されるべき対象者が存在する場合、当該特定受講者の着席位置と対応させて、カウント値に重み付けを与える。例えば、1回のカウントを1.5回とカウントする。あるいは、他の受講者のカウントを取り止めて、特定受講者のみをカウントの対象としても良い。このような頻度情報を構築することにより、パソコンCPU210は、重要な人物の関心具合を把握することができる。なお、特定人物の着席位置は、予め定められている他、任意の座席に着席した場合であっても、スクリーンカメラ620によって撮影される撮影画像を用いた顔認識により特定することができる。   In addition, the frequency detection count can be changed for a specific student. For example, when there is a target person to be distinguished such as an important person among the students, the count value is weighted in correspondence with the seating position of the specific student. For example, one count is counted as 1.5. Alternatively, the counting of other students may be canceled and only specific students may be counted. By constructing such frequency information, the personal computer CPU 210 can grasp the interest level of an important person. Note that the seating position of the specific person is determined in advance, and even when seated in an arbitrary seat, the seating position of the specific person can be specified by face recognition using a captured image captured by the screen camera 620.

また、頻度情報には、受講者の顔が時刻表示部510に向けられたときの継続時間を加味することができる。頻度検出部540は、時刻表示部510に向けられた継続時間を検出し、長い時間に亘って時刻表示部510を見ていた場合には、カウント値に重み付けを与えて積算する。これにより、集中度をより正確に表すことができる。   Further, the frequency information can take into account the duration when the student's face is directed to the time display unit 510. The frequency detection unit 540 detects the duration directed to the time display unit 510, and when the time display unit 510 is viewed for a long time, the frequency detection unit 540 adds and counts the count values. Thereby, the concentration degree can be expressed more accurately.

なお、受講者の集中度の判断は、パソコンCPU210が行うのではなく、時計CPU530が行っても良い。この場合、時計CPU530が、受講者の集中度に応じて、外部機器を制御する制御信号を、外部接続インターフェイス560を介して外部機器に送信する。このとき、受講者の生体情報をパソコンCPU210から予め受け取って集中度判断の条件に利用するなど、制御信号の送信判断に活用しても良い。具体的な外部機器の制御については後述する。   Note that the concentration of the students may be determined not by the personal computer CPU 210 but by the clock CPU 530. In this case, the clock CPU 530 transmits a control signal for controlling the external device to the external device via the external connection interface 560 according to the concentration level of the students. At this time, the student's biometric information may be received from the personal computer CPU 210 in advance and used as a condition for determining the degree of concentration. Specific control of the external device will be described later.

スクリーンボード600は、スクリーンCPU630を中心として、スクリーン表示部610、スクリーンカメラ620および外部接続インターフェイス640を備える。   The screen board 600 includes a screen display unit 610, a screen camera 620, and an external connection interface 640 with a screen CPU 630 as a center.

スクリーンCPU630は、スクリーンボード600全体の制御を司る。スクリーンカメラ620は、上述のように、講義に参加する受講者の全員を撮影できる。特に、スクリーン表示部610の近傍に設置されているので、受講者の顔がスクリーン表示部610に向けられているか否かを顔認識技術により検出することができる。ここでは、スクリーンCPU630が、スクリーンカメラ620により撮影された画像信号を、外部接続インターフェイス640を介して時計500の頻度検出部540へ送信する。   The screen CPU 630 controls the entire screen board 600. As described above, the screen camera 620 can photograph all the students who participate in the lecture. In particular, since it is installed in the vicinity of the screen display unit 610, it is possible to detect whether or not the student's face is directed toward the screen display unit 610 using face recognition technology. Here, the screen CPU 630 transmits the image signal captured by the screen camera 620 to the frequency detection unit 540 of the watch 500 via the external connection interface 640.

頻度検出部540は、時計カメラ520からの画像信号に対する解析と同様に、予め定められた単位時間内にスクリーン表示部610を何回見たかを、受講者ごとに検出する。ここでは、何回見たかの頻度に代えて、特に継続時間を計測し、単位時間あたりの注視時間を検出しても良い。これにより、時計カメラ520が受講者を捉えた場合とは逆に、各受講者がどれだけ集中して講義を受けているかをリアルタイムで把握することができる。つまり、パソコンCPU210は、頻度検出部540で検出された頻度または注視時間を含む注視情報を時計CPU530から受け取ることにより、受講者の集中度を判断することができる。   Similar to the analysis of the image signal from the clock camera 520, the frequency detection unit 540 detects, for each student, how many times the screen display unit 610 has been viewed within a predetermined unit time. Here, instead of the frequency of how many times it has been seen, the duration time may be measured and the gaze time per unit time may be detected. Thereby, contrary to the case where the clock camera 520 catches the student, it is possible to grasp in real time how concentrated each student is taking the lecture. That is, the personal computer CPU 210 can determine the degree of concentration of the student by receiving gaze information including the frequency or gaze time detected by the frequency detection unit 540 from the clock CPU 530.

頻度検出部540における、スクリーンカメラ620から受信する画像信号に対するカウント処理は、時計カメラ520から取得する画像信号に対するカウント処理と同様である。例えば、受講者の両目が検出された場合に受講者がスクリーン表示部610に対して正対したと判断できるし、特定受講者の着席位置と対応させて、カウント値に重み付けを与えることもできる。なお、受講者ごとに人物を識別して認識する場合は、予め記録部217に記録されている人物画像のリファレンス画像と撮影された画像とのパターンマッチングにより人物認識が行われる。   The counting process for the image signal received from the screen camera 620 in the frequency detection unit 540 is the same as the counting process for the image signal acquired from the clock camera 520. For example, when both eyes of the student are detected, it can be determined that the student has faced the screen display unit 610, and the count value can be weighted in correspondence with the seating position of the specific student. . When identifying and recognizing a person for each student, person recognition is performed by pattern matching between a reference image of a person image recorded in advance in the recording unit 217 and a captured image.

また、時計カメラ520およびスクリーンカメラ620で撮影された画像信号は画像解析部215へ送信され、画像解析部は、当該画像信号を解析して、写っている受講者の表情を検出することができる。パソコンCPU210、時計CPU530は、受講者の表情を参照して、各種判断の材料とすることができる。なお、パソコン200に限らず、時計500およびスクリーンボード600がそれぞれ画像解析部を備えるように構成しても良い。   In addition, the image signals photographed by the clock camera 520 and the screen camera 620 are transmitted to the image analysis unit 215, and the image analysis unit can analyze the image signals and detect the facial expressions of the students in the image. . The personal computer CPU 210 and the clock CPU 530 can be used as materials for various judgments with reference to the facial expressions of the students. Note that not only the personal computer 200 but also the clock 500 and the screen board 600 may each include an image analysis unit.

本実施形態においては、発表者および受講者の参加者がそれぞれ生体センサ330を装着する場合を想定しているが、例えば顧客など、相手によっては生体センサ330の装着依頼がためらわれる場合もある。そこで、装着タイプの生体センサ330に代えて、非接触タイプの生体センサを利用することもできる。例えば、サーモグラフィを利用することにより、参加者の体温変化を取得することができる。また、マイク207により収集した受講者の声からの生体情報を検出しても良い。この場合、マイク207はパソコン200ではなく、参加者ごとに識別可能な指向性の高いマイクを講義場内に適宜設けても良い。また、床に埋め込んだ床センサ310を利用しても良い。   In the present embodiment, it is assumed that the presenter and the participant of the student each wear the biosensor 330, but depending on the other party such as a customer, for example, a request for wearing the biosensor 330 may be hesitant. Therefore, a non-contact type biosensor can be used instead of the wearing type biosensor 330. For example, the body temperature change of the participant can be acquired by using thermography. In addition, biometric information from the voice of the student collected by the microphone 207 may be detected. In this case, instead of the personal computer 200, the microphone 207 may be appropriately provided with a highly directional microphone that can be identified for each participant in the lecture hall. Further, a floor sensor 310 embedded in the floor may be used.

また、集中度検出システム120には、講義場に設置されている様々な制御機器と接続されている。例えば、明るさを調整する照明機器、雑音を除去する雑音除去装置、講義場の温度を調整する空調機器などが挙げられる。パソコンCPU210はこれらの機器に対して制御信号を送信することにより、制御することができる。以下にその制御処理について説明する。   The concentration level detection system 120 is connected to various control devices installed in the lecture hall. For example, a lighting device that adjusts the brightness, a noise removal device that removes noise, and an air conditioning device that adjusts the temperature of the lecture hall. The personal computer CPU 210 can be controlled by transmitting a control signal to these devices. The control process will be described below.

図10は、第2実施形態に係る集中度検出システム120の処理を示すフロー図である。フローは、例えば、発表者が発表を開始した時点から開始される。   FIG. 10 is a flowchart showing processing of the concentration level detection system 120 according to the second embodiment. The flow is started, for example, from the time when the presenter starts the presentation.

パソコンCPU210は、ステップS401で、発表者に対する内蔵カメラ204、天井カメラ320の画像入力、マイク207からの音声入力、生体センサ330からの生体情報入力などを行ない、発表者の状態を確認する。具体的には、入力した情報を感情解析部213、音声解析部214、画像解析部215が解析し、パソコンCPU210は、発表者が緊張状態かリラックスした状態かを判断する。   In step S401, the personal computer CPU 210 performs image input from the built-in camera 204 and ceiling camera 320 to the presenter, voice input from the microphone 207, biometric information input from the biosensor 330, and the like, and confirms the presenter's state. Specifically, the input information is analyzed by the emotion analysis unit 213, the voice analysis unit 214, and the image analysis unit 215, and the personal computer CPU 210 determines whether the presenter is in a tense state or a relaxed state.

また、パソコンCPU210は、ステップS402へ進み、受講者の状態を確認する。特にここでパソコンCPU210は、入力する各種情報から、受講者の集中度を確認する。天井カメラ320からの画像信号を受けて、受講者のうち頭部の動き量が大きい受講者がいるか否か、いる場合にはその座席位置はどこかを検出する。また、上述のように、時計カメラ520の取得画像から時刻表示部510を見る頻度情報、スクリーンカメラ620の取得画像からスクリーン表示部610を見る頻度情報を受講者ごとに取得する。   Further, the personal computer CPU 210 proceeds to step S402 and confirms the state of the student. In particular, the personal computer CPU 210 confirms the degree of concentration of the student from various pieces of input information. In response to the image signal from the ceiling camera 320, it is detected whether or not there is a student having a large head movement amount among the students, and if so, where the seat position is. Further, as described above, frequency information for viewing the time display unit 510 from the acquired image of the clock camera 520 and frequency information for viewing the screen display unit 610 from the acquired image of the screen camera 620 are acquired for each student.

スクリーン表示部610に表示される発表者の発表資料映像は、パソコンCPU210から送信された画像信号に拠る。したがって、パソコンCPU210は、発表者がパソコン200を操作することにより発表資料のページ送りを実行するタイミングに同期して、受講者が手元の紙資料をめくったか否かを天井カメラ320の受信画像信号から判断することができる。受講者が紙資料をタイミングよくめくった場合には、講義に集中していると判断することができる。逆に、テーブル上に受講者の手部が確認できず、または紙めくりが確認できない場合には、受講者は集中していない可能性が高い。パソコンCPU210は、発表者によるページ送りの時点から、例えば5秒以内に受講者が紙めくりを実行した場合に、集中していると判断する。また、パソコンCPU210は、発表者のページ送りに同期させるだけでなく、例えば、受講者の手部がテーブル上で動きがある場合にメモを取っていると判断する等により、受講者の集中度を定期的にチェックすることもできる。   The presentation material video of the presenter displayed on the screen display unit 610 is based on the image signal transmitted from the personal computer CPU 210. Accordingly, the personal computer CPU 210 determines whether or not the student has turned the paper material at hand in response to the timing at which the presenter performs page feed of the presentation material by operating the personal computer 200. It can be judged from. If the student turns the paper material in a timely manner, it can be determined that the student is concentrating on the lecture. On the other hand, if the student's hand cannot be confirmed on the table, or the paper turning cannot be confirmed, it is highly possible that the students are not concentrated. The personal computer CPU 210 determines that the user is concentrated, for example, when the student performs the paper turning within 5 seconds from the page turning time by the presenter. Further, the personal computer CPU 210 not only synchronizes with the page feed of the presenter, but also determines, for example, that the student's hand is taking a note when there is movement on the table. You can also check regularly.

受講者の集中度は、以上のように様々な情報が集約されて、総合的に判断される。例えば、パソコンCPU210は、収集した各種情報を、ROM212に記憶されたルックアップテーブルに当てはめ、各情報に対する集中度評価値を取得し、これらの積算値が予め定められた閾値を超えた場合に集中していると判断することができる。また、閾値を下回る場合であっても、その積算値の多寡により集中していない度合いを把握することができる。   The degree of concentration of the students is comprehensively determined by collecting various information as described above. For example, the personal computer CPU 210 applies various collected information to a lookup table stored in the ROM 212, acquires a concentration evaluation value for each information, and concentrates when these integrated values exceed a predetermined threshold value. It can be determined that Moreover, even if it is a case where it is less than a threshold value, the degree which is not concentrated can be grasped | ascertained by the number of the integrated value.

受講者の状態を確認したら、パソコンCPU210は、ステップS403へ進み、集中度の低い受講者がいるか否かを判断する。なお、ここでの閾値とする集中度は、上述のように、集中していない場合の度合いを設定することができる。例えば講義の終盤に差し掛かった時点においては、必然的に集中度が低下することを考慮して、閾値とする集中度合いを講義開始時に対して若干下げても良い。   After confirming the state of the student, the personal computer CPU 210 proceeds to step S403 and determines whether or not there is a student having a low concentration level. Note that the degree of concentration as the threshold value here can be set as the degree of concentration when not concentrated as described above. For example, at the time when the end of the lecture is reached, the degree of concentration as a threshold may be slightly reduced from the start of the lecture in consideration of the inevitably lower concentration.

集中度の低い受講者がいる場合には、パソコンCPU210は、ステップS406へ進む。ステップS406では、パソコンCPU210は、すでに、内蔵カメラ204等からの画像信号およびマイク207からの音声信号の少なくとも一方の記録を開始しているか否かを確認する。つまり、発表者の映像、音声が録音中であるか否かを確認する。このように講義状況を記録するのは、集中していなかった受講者が後に講義を再度確認できるようにフォローするためである。パソコンCPU210は、記録中でなければステップS407へ進んで、記録を開始してステップS408へ進む。記録中であればステップS407をスキップしてステップS408へ進む。   If there is a student with a low degree of concentration, the personal computer CPU 210 proceeds to step S406. In step S406, the personal computer CPU 210 confirms whether or not recording of at least one of the image signal from the built-in camera 204 and the sound signal from the microphone 207 has already been started. That is, it is confirmed whether the presenter's video and audio are being recorded. The reason for recording the lecture status in this way is to follow up so that students who are not concentrated can confirm the lecture again later. If recording is not in progress, the personal computer CPU 210 proceeds to step S407, starts recording, and proceeds to step S408. If recording is in progress, the process skips step S407 and proceeds to step S408.

パソコンCPU210は、ステップS403で、集中度の低い受講者がいない場合には、ステップS404へ進む。ステップS404ではステップS406と同様に、パソコンCPU210は、記録中であるか否かを確認する。この場合、受講者は集中していると判断されおり、フォローのための講義の記録は必要ない。したがって、パソコンCPU210は、記録中であれば、ステップS405へ進み、記録を停止してからす411へ進む。記録中で無ければ、そのままステップS411へ進む。   If there is no student with low concentration in step S403, the personal computer CPU 210 proceeds to step S404. In step S404, as in step S406, the personal computer CPU 210 checks whether recording is in progress. In this case, it is judged that the students are concentrated, and it is not necessary to record a lecture for follow-up. Accordingly, if recording is in progress, the personal computer CPU 210 proceeds to step S405, stops recording, and then proceeds to step 411. If not, the process proceeds to step S411.

ステップS408では、パソコンCPU210は、受講者の集中度が低いまま継続しているか否かを判断する。すなわち、前回の判断から一定の時間の経過後であっても、受講者の中に集中度の低い人物が存在するか否かを判断する。   In step S <b> 408, the personal computer CPU 210 determines whether or not the student's concentration level is kept low. That is, it is determined whether or not there is a person with a low degree of concentration among the students even after a certain time has elapsed since the previous determination.

パソコンCPU210は、初めて集中度が低いと判断された場合、または、一旦集中度が回復した後に再び集中度が低いと判断された場合は、NOとしてステップS409へ進む。   If it is determined for the first time that the concentration level is low, or if it is determined that the concentration level is low again after the concentration level is recovered, the personal computer CPU 210 proceeds to step S409.

ステップS409でパソコンCPU210は、集中度の低い受講者と、その座席位置の相関を検出する。相関関係は、図11で示すように、例えばディスプレイ201に表示される管理ウィンドウ上において、集中度分布として受講者の着座位置とそのうちの集中度の低い受講者がグラフィカルに表示される。図において、白丸は集中度の高い受講者のグループを表し、黒丸は集中度の低い受講者のグループを表す。そして、画面上には、全体の受講者数に対する集中度の低い受講者数が、数字として示されている。図11に示す状態は、集中度の低い受講者の着座位置に傾向は見られず、パソコンCPU210は、集中度の低い受講者間に相関関係は無いと判断する。   In step S409, the personal computer CPU 210 detects the correlation between the less concentrated student and the seat position. As shown in FIG. 11, the correlation is graphically displayed on the management window displayed on the display 201, for example, as the concentration distribution, the seating position of the student and the less concentrated student. In the figure, white circles represent a group of students having a high degree of concentration, and black circles represent a group of students having a low degree of concentration. On the screen, the number of students having a low concentration with respect to the total number of students is shown as a number. In the state shown in FIG. 11, no tendency is seen in the seating positions of the students with low concentration, and the personal computer CPU 210 determines that there is no correlation between the students with low concentration.

パソコンCPU210は、ステップS410へ進み、各種調節を実行する。例えば、着座位置に対する相関関係は無いと判断されても、講義場全体で集中度の低い受講者が閾値以上に多い場合は、パソコンCPU210は、空調機器に対して温度を下げる、または上げる制御信号を送信して、温度調整を実行する。例えば、講義場に対して廊下側の受講者の集中度が低いようであれば、パソコンCPU210は、廊下からの雑音を打ち消す雑音除去装置に対して、雑音の逆位相音波を出力させる制御信号を送信して、雑音を除去する。例えば、頭部の揺れが大きく、受講者の居眠りが疑われる場合には、パソコンCPU210は、照明機器に対して明るくする制御信号を送信して、講義場を明るくする。   The personal computer CPU 210 proceeds to step S410 and executes various adjustments. For example, even if it is determined that there is no correlation with the seating position, if there are more than a threshold number of less concentrated students in the entire lecture hall, the personal computer CPU 210 controls the air conditioner to lower or raise the temperature. To perform temperature adjustment. For example, if the concentration of students on the corridor side is low with respect to the lecture hall, the personal computer CPU 210 sends a control signal for outputting an anti-phase sound wave of noise to the noise removing device that cancels noise from the corridor. Send to remove noise. For example, when the shaking of the head is large and the student is suspected of falling asleep, the personal computer CPU 210 transmits a control signal for brightening the lighting device to brighten the lecture hall.

パソコンCPU210は、ステップS411へ進み、講義が終了したか否かを判断する。終了していないと判断した場合はステップS401へ戻り、終了したと判断した場合は一連の処理を終了する。   The personal computer CPU 210 proceeds to step S411 and determines whether or not the lecture has ended. If it is determined that the processing has not ended, the process returns to step S401. If it is determined that the processing has ended, the series of processing ends.

ステップS408で、パソコンCPU210は、受講者の集中度が継続的に低いと判断した場合は、YESとしてステップS412へ進む。ここで、継続的に集中度が低いとは、例えば、予め定められた複数人の特定の受講者が連続して集中度が低いと判断された場合を言う。または、特定の受講者が連続していなくても、重要度の高い受講者のいずれかが続けて集中度が低いと判断された場合でも良い。   If the personal computer CPU 210 determines in step S408 that the student's concentration level is continuously low, it proceeds to step S412 as YES. Here, the continuously low degree of concentration refers to, for example, a case where a plurality of predetermined specific students are determined to have a low degree of concentration continuously. Or even if a specific student does not continue, it may be a case where it is judged that one of the students with high importance continues and the concentration is low.

ステップS412では、パソコンCPU210は、ステップS410のように、講義場の環境を変更する調整可能な機器があるか否かを判断する。まだあればステップS409へ進み、無ければステップS413へ進む。   In step S412, the personal computer CPU 210 determines whether there is an adjustable device that changes the environment of the lecture hall as in step S410. If there is not, the process proceeds to step S409, and if not, the process proceeds to step S413.

ステップS413へ進んだ場合、受講者の集中度低下は、環境に起因するのではなく、発表者の発表動作に起因するものとして、発表者に対するリクエストを行う。まず、ステップS413では、ステップS409と同様に、パソコンCPU210は、集中度の低い受講者と、その座席位置の相関を検出する。なお、本実施の形態ではステップS408の判断後にステップS409およびステップS413の相関検出を行なったが、ステップS408の判断の前に相関検出を行なっても良い。   When the process proceeds to step S413, a request for the presenter is made on the assumption that the decrease in the concentration of the student is not caused by the environment but is caused by the presenter's presenting operation. First, in step S413, as in step S409, the personal computer CPU 210 detects the correlation between the less concentrated student and the seat position. In this embodiment, the correlation detection in step S409 and step S413 is performed after the determination in step S408. However, the correlation detection may be performed before the determination in step S408.

相関検出を行ったら、ステップS414へ進み、パソコンCPU210は、発表者に対して指示を行う。例えば、図12に示すように、集中度の低い受講者が講義場の後方座席に集中するという相関関係が得られている場合には、パソコンCPU210は、ディスプレイ201に表示される管理ウィンドウ上において、「声を大きくして下さい」などのメッセージを表示する。または、パソコンCPU210は、スクリーン表示部610で表示する発表資料の大きさを拡大する制御信号を、スクリーンボード600へ送信する。   If correlation detection is performed, it will progress to step S414 and personal computer CPU210 will give an instruction | indication with respect to a presenter. For example, as shown in FIG. 12, when a correlation is obtained that a less concentrated student concentrates on the back seat of the lecture hall, the personal computer CPU 210 displays the management window displayed on the display 201 on the management window. , Display a message such as “Please make your voice louder”. Alternatively, the personal computer CPU 210 transmits a control signal for enlarging the size of the presentation material displayed on the screen display unit 610 to the screen board 600.

また、このとき、ステップS401で確認した発表者の状態を活用することもできる。例えば、発表者が「緊張」を感じていると判断された場合、パソコンCPU210は、その事実を客観的に認識させるべく、その旨をディスプレイ201に表示する。もちろん、検出された表情に関する情報を表示しても良い。また、緊張を解くべく、発表資料の順序を変更して、雑談用の資料をスクリーン表示部610へ送信しても良い。また、アニメーション処理を変更したり、詳細資料を表示することもできる。   At this time, the state of the presenter confirmed in step S401 can also be used. For example, when it is determined that the presenter feels “tension”, the personal computer CPU 210 displays the fact on the display 201 so as to objectively recognize the fact. Of course, information regarding the detected facial expression may be displayed. Further, in order to relieve tension, the order of the presentation materials may be changed, and the chat materials may be transmitted to the screen display unit 610. You can also change the animation process and display detailed materials.

さらには、発話速度を検出して、閾値以上に早口になっていると判断された場合には、パソコンCPU210は、発表者に対して「もう少しゆっくり話してください」などのメッセージをディスプレイ201に表示させることができる。   Furthermore, when the speech rate is detected and it is determined that the speech rate is faster than the threshold, the personal computer CPU 210 displays a message such as “Please speak a little more slowly” on the display 201 to the presenter. Can be made.

パソコンCPU210は、ステップS414で発表者への指示が終了したら、ステップS411へ進み、講義終了を確認する。講義が終了したと判断したら一連の処理を終了する。なお、上述のステップS414は、ステップS410の各種調節の実行の後にも行なうようにしても良い。   When the instruction to the presenter is completed in step S414, the personal computer CPU 210 proceeds to step S411 and confirms the end of the lecture. When it is determined that the lecture has ended, the series of processing ends. Note that step S414 described above may be performed after the execution of various adjustments in step S410.

以上の処理フローにおいては、その時の集中度の低い受講者を検出したが、集中度が低くなった受講者の増減を判断基準とすることもできる。すなわち、時間をおいて実行された2度の集中度検出において、集中度の低い受講者が急に増えたのか、さらには、その着座位置との相関はどうであるかを、判断基準とすることができる。   In the above processing flow, students with a low degree of concentration at that time are detected, but the increase or decrease in the number of students with a low degree of concentration can also be used as a judgment criterion. In other words, in the detection of the degree of concentration performed twice with time, whether or not the number of students with low concentration has suddenly increased, and how the correlation with the seating position is used as a criterion. be able to.

以上の処理フローにおいては、集中度の高い、低いによりグループを分別したが、生体情報から検出される受講者の感情状態によってグループを分別することもできる。例えば、「イライラ状態」の受講者の分布にしたがって、パソコンCPU210は、各種処理を実行しても良い。また、集中度と感情状態の両者を利用して各種処理を実行することもできる。   In the processing flow described above, the groups are separated according to the degree of concentration being high and low, but the groups can also be separated according to the emotional state of the student detected from the biological information. For example, the personal computer CPU 210 may execute various processes according to the distribution of the students who are in an “irritated state”. Various processes can also be executed using both the degree of concentration and the emotional state.

以上の処理フローにおいては、講義を想定して説明したが、集中度検出システム120の適用範囲はこれに限らない。例えば、職場に適用することにより、上司が部下の生体情報からストレス度を認識して業務の振分けを行ったり、声掛けを行ったりすることで職場の士気の低下を防ぐことができる。また、学校の授業に適用した場合は、生徒が理解できない部分を把握することができ、学習効率を向上させることができる。   The above processing flow has been described assuming a lecture, but the scope of application of the concentration level detection system 120 is not limited to this. For example, when applied to the workplace, the supervisor can recognize the degree of stress from the subordinate's biometric information and perform job assignment or voice call to prevent a decrease in workplace morale. Moreover, when it applies to a school lesson, the part which a student cannot understand can be grasped | ascertained and learning efficiency can be improved.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

110 集中度検出システム、120 集中度検出システム、200 パソコン、201 ディスプレイ、202 キーボード、203 タッチパッド、204 内蔵カメラ、205 超音波センサ、206 スピーカ、207 マイク、208 温調部、209 圧電センサ、210 パソコンCPU、211 タイマー、212 ROM、213 感情解析部、214 音声解析部、215 画像解析部、216 外部接続インターフェイス、217 記録部、250 スマートフォン、251 ディスプレイ、252 タッチパネル、254 内蔵カメラ、257 マイク、260 生体センサ、270 スマートフォンCPU、300 マウス、310 床センサ、320 天井カメラ、330 生体センサ、400 電話、410 指標灯、500 時計、510 時刻表示部、520 時計カメラ、530 時計CPU、540 頻度検出部、550 記録部、560 外部接続インターフェイス、600 スクリーンボード、610 スクリーン表示部、620 スクリーンカメラ、630 スクリーンCPU、640 外部接続インターフェイス 110 Concentration Detection System, 120 Concentration Detection System, 200 PC, 201 Display, 202 Keyboard, 203 Touchpad, 204 Built-in Camera, 205 Ultrasonic Sensor, 206 Speaker, 207 Microphone, 208 Temperature Control Unit, 209 Piezoelectric Sensor, 210 PC CPU, 211 timer, 212 ROM, 213 emotion analysis unit, 214 audio analysis unit, 215 image analysis unit, 216 external connection interface, 217 recording unit, 250 smartphone, 251 display, 252 touch panel, 254 built-in camera, 257 microphone, 260 Biometric sensor, 270 Smartphone CPU, 300 Mouse, 310 Floor sensor, 320 Ceiling camera, 330 Biological sensor, 400 Telephone, 410 Indicator light, 500 Clock 510 time display unit, 520 clock camera, 530 clock CPU, 540 frequency detection unit, 550 recording unit, 560 external connection interface 600 screen board, 610 a screen display unit, 620 screen camera, 630 screen CPU, 640 external connection interface

Claims (11)

対象者の発話速度を検出する発話速度検出部と、
前記発話速度検出部の検出結果に基づいて、被制御機器を制御する制御部と
を備える電子機器。
An utterance speed detector that detects the utterance speed of the target person;
An electronic device comprising: a control unit that controls a controlled device based on a detection result of the utterance speed detection unit.
前記制御部は、表示装置である前記被制御機器に対して、輝度の調整を制御する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the control unit controls adjustment of luminance with respect to the controlled device that is a display device. 前記制御部は、表示装置である前記被制御機器に対して、表示映像を変更するか、表示を中止する制御を行なう請求項1または2に記載の電子機器。   The electronic device according to claim 1, wherein the control unit controls the controlled device that is a display device to change a display image or stop display. 前記表示装置に表示された映像は、前記発話速度検出部が検出する発話に係るテレビ電話の映像である請求項3に記載の電子機器。   The electronic device according to claim 3, wherein the video displayed on the display device is a videophone video related to speech detected by the speech speed detection unit. 前記制御部は、照明装置である前記被制御機器に対して、輝度を調整する制御を行なう請求項1から4のいずれか1項に記載の電子機器。   The electronic device according to any one of claims 1 to 4, wherein the control unit performs control to adjust luminance with respect to the controlled device that is a lighting device. 前記制御部は、音声出力装置である前記被制御機器に対して、音声出力を制御する請求項1から5のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the control unit controls sound output with respect to the controlled device that is a sound output device. 前記制御部は、前記音声出力の周波数を変更する制御を行なう請求項6に記載の電子機器。   The electronic device according to claim 6, wherein the control unit performs control to change a frequency of the audio output. 前記対象者の表情を検出する表情検出部を備え、
前記制御部は、前記表情検出部の検出結果を加味して前記制御を行なう請求項1から7のいずれか1項に記載の電子機器。
A facial expression detection unit for detecting the facial expression of the subject,
The electronic device according to claim 1, wherein the control unit performs the control in consideration of a detection result of the facial expression detection unit.
前記対象者の生体に関する情報である生体情報を入力する生体情報入力部を備え、
前記制御部は、前記生体情報を加味して前記制御を行なう請求項1から8のいずれか1項に記載の電子機器。
A biometric information input unit for inputting biometric information that is information about the subject's living body,
The electronic device according to claim 1, wherein the control unit performs the control in consideration of the biological information.
前記対象者の周辺環境を録画および録音の少なくとも一方により記録する記録部と、
前記発話速度が予め定められた速度を超えたときに前記記録部の記録を実行する制御部と
を備える請求項1から9のいずれか1項に記載の電子機器。
A recording unit for recording the surrounding environment of the subject by at least one of recording and recording;
10. The electronic device according to claim 1, further comprising a control unit that executes recording of the recording unit when the speech rate exceeds a predetermined rate.
対象者の発話速度を検出する発話速度検出ステップと、
前記発話速度検出ステップの検出結果に基づいて、被制御機器を制御する制御ステップと
をコンピュータに実行させる電子機器の制御プログラム。
An utterance speed detection step for detecting the utterance speed of the target person;
An electronic device control program that causes a computer to execute a control step of controlling a controlled device based on a detection result of the utterance speed detection step.
JP2011005236A 2011-01-13 2011-01-13 Electronic device and electronic device control program Active JP5771998B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011005236A JP5771998B2 (en) 2011-01-13 2011-01-13 Electronic device and electronic device control program
CN2011800571214A CN103238311A (en) 2011-01-13 2011-11-16 Electronic device and electronic device control program
US13/988,900 US20130234826A1 (en) 2011-01-13 2011-11-16 Electronic device and electronic device control program
PCT/JP2011/006392 WO2012095917A1 (en) 2011-01-13 2011-11-16 Electronic device and electronic device control program
US15/189,355 US20160327922A1 (en) 2011-01-13 2016-06-22 A control device and control method for performing an operation based on the current state of a human as detected from a biometric sample

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011005236A JP5771998B2 (en) 2011-01-13 2011-01-13 Electronic device and electronic device control program

Publications (2)

Publication Number Publication Date
JP2012146209A true JP2012146209A (en) 2012-08-02
JP5771998B2 JP5771998B2 (en) 2015-09-02

Family

ID=46789698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011005236A Active JP5771998B2 (en) 2011-01-13 2011-01-13 Electronic device and electronic device control program

Country Status (1)

Country Link
JP (1) JP5771998B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125880A (en) * 2020-01-31 2021-08-30 ハイパーコネクト インコーポレイテッド Terminal and operation method thereof
US11323659B2 (en) 2017-04-17 2022-05-03 Hyperconnect Inc. Video communication device, video communication method, and video communication mediating method
US11496709B2 (en) 2020-01-31 2022-11-08 Hyperconnect Inc. Terminal, operating method thereof, and computer-readable recording medium
US11716424B2 (en) 2019-05-10 2023-08-01 Hyperconnect Inc. Video call mediation method
JP7359008B2 (en) 2020-01-31 2023-10-11 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program
WO2024003993A1 (en) * 2022-06-27 2024-01-04 日本電信電話株式会社 Introspection prediction device, introspection prediction method, and introspection prediction program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10157607B2 (en) 2016-10-20 2018-12-18 International Business Machines Corporation Real time speech output speed adjustment

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334075A (en) * 1994-06-03 1995-12-22 Hitachi Ltd Presentation supporting device
JP2000341659A (en) * 1999-05-31 2000-12-08 Toshiba Corp Remote presentation system, processor and recording medium
JP2005064745A (en) * 2003-08-08 2005-03-10 Yamaha Corp Hearing aid device
JP2005208163A (en) * 2004-01-20 2005-08-04 Canon Inc Device and method for supporting presentation, and control program therefor
JP2006154531A (en) * 2004-11-30 2006-06-15 Matsushita Electric Ind Co Ltd Device, method, and program for speech speed conversion
JP2006317768A (en) * 2005-05-13 2006-11-24 Toshiba Corp Speaking speed conversion apparatus and speaking speed conversion program for controlling the speaking speed conversion apparatus
JP2008139762A (en) * 2006-12-05 2008-06-19 Univ Of Tokyo Presentation support device, method, and program
JP2008267964A (en) * 2007-04-19 2008-11-06 Matsushita Electric Ind Co Ltd Alarm clock

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334075A (en) * 1994-06-03 1995-12-22 Hitachi Ltd Presentation supporting device
JP2000341659A (en) * 1999-05-31 2000-12-08 Toshiba Corp Remote presentation system, processor and recording medium
JP2005064745A (en) * 2003-08-08 2005-03-10 Yamaha Corp Hearing aid device
JP2005208163A (en) * 2004-01-20 2005-08-04 Canon Inc Device and method for supporting presentation, and control program therefor
JP2006154531A (en) * 2004-11-30 2006-06-15 Matsushita Electric Ind Co Ltd Device, method, and program for speech speed conversion
JP2006317768A (en) * 2005-05-13 2006-11-24 Toshiba Corp Speaking speed conversion apparatus and speaking speed conversion program for controlling the speaking speed conversion apparatus
JP2008139762A (en) * 2006-12-05 2008-06-19 Univ Of Tokyo Presentation support device, method, and program
JP2008267964A (en) * 2007-04-19 2008-11-06 Matsushita Electric Ind Co Ltd Alarm clock

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11323659B2 (en) 2017-04-17 2022-05-03 Hyperconnect Inc. Video communication device, video communication method, and video communication mediating method
US11722638B2 (en) 2017-04-17 2023-08-08 Hyperconnect Inc. Video communication device, video communication method, and video communication mediating method
US11716424B2 (en) 2019-05-10 2023-08-01 Hyperconnect Inc. Video call mediation method
JP2021125880A (en) * 2020-01-31 2021-08-30 ハイパーコネクト インコーポレイテッド Terminal and operation method thereof
US11394922B2 (en) 2020-01-31 2022-07-19 Hyperconnect Inc. Terminal and operating method thereof
JP7145995B2 (en) 2020-01-31 2022-10-03 ハイパーコネクト インコーポレイテッド Terminal and method of operation
US11496709B2 (en) 2020-01-31 2022-11-08 Hyperconnect Inc. Terminal, operating method thereof, and computer-readable recording medium
JP7359008B2 (en) 2020-01-31 2023-10-11 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program
US11825236B2 (en) 2020-01-31 2023-11-21 Hyperconnect Inc. Terminal and operating method thereof
WO2024003993A1 (en) * 2022-06-27 2024-01-04 日本電信電話株式会社 Introspection prediction device, introspection prediction method, and introspection prediction program

Also Published As

Publication number Publication date
JP5771998B2 (en) 2015-09-02

Similar Documents

Publication Publication Date Title
WO2012095917A1 (en) Electronic device and electronic device control program
JP2012160173A (en) Electronic device and electronic device control program
CN110874129B (en) Display system
JP5771998B2 (en) Electronic device and electronic device control program
JP7203135B2 (en) A semantic framework for variable haptic output
JP6798484B2 (en) Information processing systems, control methods, and programs
TWI631535B (en) Electronic device and method for priming an alert of an electronic device
US20170354795A1 (en) Breathing sequence user interface
CN113811848A (en) Apparatus, method and user interface for adaptively providing audio output
US20190095164A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
JP2016021259A (en) Electronic apparatus and control program for electronic apparatus
JP2017208638A (en) Iris authentication device, iris authentication method, and program
JP2015210797A (en) Display divice
JP2012146216A (en) Electronic device and program for controlling the same
JP5811537B2 (en) Electronics
JP5771999B2 (en) Electronic device and electronic device control program
JP2019023872A (en) Electric apparatus
JP2012146219A (en) Electronic apparatus and control program therefor
JP2012146208A (en) Electronic device and program for controlling the same
JP2017142867A (en) Electronic instrument
JP6950708B2 (en) Information processing equipment, information processing methods, and information processing systems
JP2015210508A (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R150 Certificate of patent or registration of utility model

Ref document number: 5771998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250