JP2012230534A - Electronic apparatus and control program for electronic apparatus - Google Patents
Electronic apparatus and control program for electronic apparatus Download PDFInfo
- Publication number
- JP2012230534A JP2012230534A JP2011098197A JP2011098197A JP2012230534A JP 2012230534 A JP2012230534 A JP 2012230534A JP 2011098197 A JP2011098197 A JP 2011098197A JP 2011098197 A JP2011098197 A JP 2011098197A JP 2012230534 A JP2012230534 A JP 2012230534A
- Authority
- JP
- Japan
- Prior art keywords
- user
- work
- personal computer
- unit
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、電子機器および電子機器の制御プログラムに関する。 The present invention relates to an electronic device and a control program for the electronic device.
近年、ユーザの生体情報を取得して、各種のサポートをすることが提案されており、ユーザが音楽に集中しているかどうかを検出して、音楽に集中していない場合には音量を低くする音響再生装置が提案されている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2005−34484号公報
In recent years, it has been proposed to obtain user's biometric information and provide various kinds of support, detect whether the user is concentrated on music, and lower the volume when not concentrated on music. Sound reproduction devices have been proposed.
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP-A-2005-34484
しかしながら、従来の装置では、ユーザへのサポートが限られており、十分なものではなかった。 However, conventional devices have limited support for users and are not sufficient.
本発明の第1の態様における電子機器は、使用者に関する記録を行う記録部と、使用者が第1の作業を行っているときの使用者の生体に関する情報を入力する入力部と、生体に関する情報と記録部の記録とに基づいて、第1の作業と異なる第2の作業に関する情報を出力する出力部とを備える。 An electronic apparatus according to a first aspect of the present invention relates to a recording unit that performs recording related to a user, an input unit that inputs information related to the living body of the user when the user is performing the first work, and the biological device An output unit configured to output information on the second work different from the first work based on the information and the recording of the recording unit;
本発明の第2の態様における電子機器は、特定の方向に対して指向性を有し、使用者の音を集音する指向性マイクと、特定の方向に対して指向性を有し、使用者に対して音を出力可能な指向性スピーカと、使用者が作業を行っているときに指向性マイクで集音した使用者の音に基づいて、指向性スピーカを制御する制御部とを備える。 The electronic device according to the second aspect of the present invention has directivity with respect to a specific direction, a directional microphone that collects a user's sound, and directivity with respect to a specific direction. A directional speaker capable of outputting sound to the user, and a control unit for controlling the directional speaker based on the sound of the user collected by the directional microphone when the user is working .
本発明の第3の態様における電子機器の制御プログラムは、使用者に関する記録を記録部に行う記録ステップと、使用者が第1の作業を行っているときの使用者の生体に関する情報を入力する入力ステップと、生体に関する情報と記録部の記録とに基づいて、第1の作業と異なる第2の作業に関する情報を出力する出力ステップとをコンピュータに実行させる。 A control program for an electronic device according to a third aspect of the present invention inputs a recording step for performing recording relating to a user in a recording unit, and information relating to the living body of the user when the user is performing the first work. Based on the input step and the information on the living body and the recording of the recording unit, the computer is caused to execute an output step of outputting information on the second work different from the first work.
本発明の第4の態様における電子機器の制御プログラムは、特定の方向に対して指向性を有し、使用者の音を集音する指向性マイク、および特定の方向に対して指向性を有し、使用者に対して音を出力可能な指向性スピーカを備える電子機器の制御プログラムであって、使用者が作業を行っているときに指向性マイクで集音した使用者の音に基づいて、指向性スピーカを制御する制御ステップをコンピュータに実行させる。 The control program for an electronic device according to the fourth aspect of the present invention has directivity in a specific direction, and has a directivity in a specific direction and a directivity microphone that collects a user's sound. And a control program for an electronic device including a directional speaker capable of outputting sound to the user, based on the sound of the user collected by the directional microphone while the user is working. The computer executes control steps for controlling the directional speaker.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、第1実施形態に係る状況判別システム110の概要を示す図である。図1に示すように、状況判別システム110は、電子機器であるパーソナルコンピュータ(パソコン)200を有し、ユーザに装着される生体センサ340が検出したユーザの生体情報を入力している。パソコン200は、ディスプレイ201、キーボード202、タッチパッド203といった、ユーザの入力操作部材を備える。また、パソコン200には、マウス300が接続されており、ユーザはマウス300を操作することによっても、パソコン200に指示を与えることができる。
FIG. 1 is a diagram illustrating an overview of a
パソコン200は、内蔵カメラ204、超音波センサ205を更に備える。内蔵カメラ204は、撮影レンズおよび撮像素子を含む。撮像素子には、CCDセンサ、CMOSセンサ等のイメージセンサが用いられる。この撮像素子から出力される画像信号に不図示の画像処理部による種々の画像処理が施されて、画像データが生成される。内蔵カメラ204は、ディスプレイ201の上部に配設されており、ユーザの顔、手、腕を含む上半身と共に、キーボード202、タッチパッド203等の操作部材を同時に撮影できる画角を有する。なお、内蔵カメラ204に代えて、例えばクリップによりディスプレイ201の近傍に装着できる、カメラモジュールを採用しても良い。超音波センサ205は、内蔵カメラ204の近傍に設けられており、ディスプレイ201からユーザまでの距離を計測するための超音波の送受信を実行する。
The
パソコン200は、スピーカ206、マイク207を更に備える。スピーカ206は、超音波トランスデューサを備え、特定の方向に対して指向性を有する指向性スピーカであり、ユーザに対して音を出力する。なお、スピーカ206の指向性の特性(方向、範囲等)は、主としてユーザが音を聞くことができるように設定されてもよい。マイク207は、特定の方向に対して指向性を有する指向性マイクであり、超指向性ダイナミック型マイクロホンや超指向性コンデンサ型マイクロホンなどを用いることができる。なお、マイク207の指向性の特性(方向、範囲等)は、ユーザが発生した音声を主として集音できるように設定されてもよい。
The
キーボード202の裏面には、個々のキーに対応して圧電センサ208が設けられている。圧電センサ208は、ピエゾ素子を有し、外部から与えられた力を圧電効果により電圧に変換することで、振動を電気的に検出する。これにより、圧電センサ208は、ユーザがキーを叩く強さ、繰り返し動作を検出することができる。
On the back surface of the
ユーザの足元には、床センサ310が設けられている。床センサ310は、圧電センサ208と同様にピエゾ素子等により構成され、ユーザの足踏み、貧乏ゆすり等の足の動作を検出する。床センサ310は、パソコン200と接続されており、検出した信号をパソコン200へ送信する。
A
ユーザの頭上付近である天井部分には、天井カメラ320、天井マイク330が設けられている。天井カメラ320は、撮影レンズおよび撮像素子を含み、ユーザの頭部を撮影できる画角に調整されている。天井カメラ320の撮像素子から出力される画像信号に不図示の画像処理部による種々の画像処理が施されて、画像データが生成され、この画像データは例えば無線LANによりパソコン200へ送信される。一方、パソコン200は、天井カメラ320に対して撮影の開始、撮影画像データの要求などの制御信号を送信する。天井マイク330は、無指向性マイクであり、少なくともユーザの周辺の音を検出する。天井マイク330は、検出した音の信号を、例えば無線LANによりパソコン200へ送信する。一方、パソコン200は、音検出の開始および終了の制御信号を天井マイク330へ送信する。
A
生体センサ340は、ユーザの生体情報を検出するセンサであり、例えば、LEDにより生体に向けて照射光を照射し、この照射光に対して生体から反射した光を受光することにより、脈拍を検出する脈拍センサを含む。その構成は、例えば、特開2005−270543号(米国特許第7538890号)に開示されている。生体センサ340は、脈拍センサの他にも、複数の電極を配した発汗センサを設けることによりユーザの発汗量を検出することもできる。更に、生体センサ340は、体温を測る温度センサ、血圧を測る血圧センサを設けることもできる。生体センサ340は、ユーザの生体情報をセンシングして、その出力をパソコン200へ送信する。
The
生体センサ340は、例えばユーザの腕に巻きつけられて装着されている。また、生体センサ340は、ユーザの腕に巻きつけるような腕時計型に限らず、ユーザの手、指(指輪型生体センサ)など身体の一部と接触すれば様々な形態を採用し得る。なお、赤外線センサを用いて体温などを検出する場合や、内蔵カメラ204により撮像されたユーザの表情からユーザの感情を検出する場合や、天井カメラ320により撮像されたユーザの頭の動き量からユーザの集中度を検出する場合には、非接触でユーザの生体情報を検出することも可能である。
The
図2は、第1実施形態に係る状況判別システムのブロック図である。図示するように、パソコン200は、全体の制御を司るパソコンCPU210を中心として、図1を用いて説明したディスプレイ201、キーボード202等の要素を備える。
FIG. 2 is a block diagram of the situation determination system according to the first embodiment. As shown in the figure, a
タイマー211は、計時機能を有し、パソコンCPU210の開始の指示を受けて計時を開始し、終了の指示を受けてその計時結果をパソコンCPU210へ返す。
The
ROM212は、例えばフラッシュメモリ等の不揮発性メモリであり、パソコン200を制御するプログラム、各種パラメータなどを記憶する役割を担う。また、ROM212は、ユーザに関する記録を行う記録部として機能する。ROM212は、例えばユーザが行った作業の内容、作業を行っているときのユーザの生体情報を記録する。
The
音声解析部213は、マイク207、天井マイク330から取り込まれる音声を解析する。音声解析部213は、例えばマイク207で集音したユーザが発生した音声を解析する。また、音声解析部213は、例えば天井マイク330で集音したユーザ周辺の騒音を解析する。なお、最近のパソコンの一部には音声認識ソフトがインストールされているものもあり、このようなインストール済みのソフトを用いても良く、更には別途市販のソフトをインストールして用いても良い。
The
さらに、音声解析部213は、パソコンCPU210と協働して、周囲に居る同僚との会話に対して、ユーザの会話の速度(発話速度)、声の大きさ、会話時間などを検出する。発話速度は、例えば単位時間当たりの出力音素数、あるいは単位時間当たりのモーラ数として検出される。モーラとは一定の時間的長さをもった音の分節単位のことである。また、音声解析部213は、識別した音声をテキストデータに変換してディスプレイ201に表示することができる。
Further, the
画像解析部214は、内蔵カメラ204により撮影された撮影画像データ、天井カメラ320により撮影された撮影画像データを解析する。画像解析部214は、ユーザの顔認識、さらには表情認識を実行する。例えば、画像解析部214は、画像データにおけるユーザの顔領域から、眉間に皺がある表情、笑顔ではなく目を細めている表情を検出する。また、画像解析部214は、タイマー211の計時情報を取得して、例えば眉間に皺がある表情がどれくらい継続したかを検出する。また、目を細めている表情を検出する場合には、画像解析部214は、内蔵カメラ204による画像上の平均的な目の大きさについての情報をROM212から読み出して、現に撮影された目の大きさと比較して検出する。眉間の皺の検出は、眉間に皺のある画像をリファレンス画像としてROM212に記憶させてパターンマッチングにより検出しても良く、また、左目と右目との間の部分の陰影分布から検出しても良い。なお、眉間の皺の検出は例えば米国公開特許2008−292148号にも開示がある。
The
内蔵カメラ204により撮影される像の大きさは、内蔵カメラ204とユーザとの距離に依存する。本実施形態においては、画像解析部214は、超音波センサ205により内蔵カメラ204とユーザとの距離を検出して、像の大きさを補正することにより距離依存を解消している。距離の計測は、超音波センサ205を設ける場合に限らず、例えば、レーザ距離センサ、赤外線センサ等を用いても良い。また、ユーザの特定部分の大きさ(例えば顔の大きさ)が分かっている場合に、画像解析部214は、既知の顔の大きさと撮影した顔の大きさとのマッチングにより内蔵カメラ204とユーザの距離を算出できる。
The size of the image captured by the built-in
また、画像解析部214は、天井カメラ320の画像データを取り込んで、ユーザの頭の位置、移動量等を検出する。例えば、ユーザの頭部が絶え間なく揺れ動くことを画像解析部214が検出すれば、パソコンCPU210は、ユーザの集中力散漫、居眠り等を判断することができる。なお、超音波センサ205等により、ユーザの頭部の位置、移動量を検出できる場合は、天井カメラ320を省略しても良い。逆に、天井カメラ320により内蔵カメラ204とユーザの距離を検出できるのであれば、超音波センサ205を省略しても良い。
Further, the
さらに、画像解析部214は、撮影画像を用いてユーザのしぐさを検出する。例えば、画像解析部214は、撮影画像と額に手をあてているしぐさ、腕を組んでいるしぐさなどのリファレンス画像とのパターンマッチングを行い、ユーザのしぐさを検出する。
Furthermore, the
スケジュール作成部215は、ユーザが行うべき作業のスケジュールを作成する。スケジュール作成部215は、例えばキーボード202、タッチパッド203、マウス300等で受け付けたユーザの入力を用いてユーザが行うべき作業のスケジュールを作成する。また、スケジュール作成部215は、マイク207から入力されたユーザのスケジュールに関する音声を音声解析部213で解析した解析結果を用いて、スケジュールを作成しても良い。作成されたスケジュールの情報はROM212に記憶される。
The
外部接続インターフェイス216は、外部機器と接続するためのインターフェイスである。インターフェイスとしては、無線/有線LAN、USB、HDMI、Bluetooth(登録商標)等の様々な接続規格を採用することができる。また、外部接続インターフェイス216は、ネットワークを介してサーバ等の電子機器との通信を可能にする。外部接続インターフェイス216は、インターネットプロトコル等の通信プロトコルに準拠している。
The
図3は、第1実施形態に係る状況判別システムの処理を示すフローチャートである。本フローチャートにおいては、パソコンCPU210は、ユーザの状況判定と判定結果に応じた処理とを実行する。なお、本フローチャートにおいては、ユーザがパソコン200を操作している状況を想定する。パソコンCPU210は、パソコン200の電源がオンになった場合、キーボード202、タッチパッド203、マウス300等からユーザの入力を受け付けた場合などに本フローチャートの処理を開始する。また、パソコンCPU210は、パソコン200の電源がオンになった後、タイマー211を用いて予め定められた期間ごとに本フローチャートの処理を開始するようにしても良い。
FIG. 3 is a flowchart showing processing of the situation determination system according to the first embodiment. In this flowchart, the
パソコンCPU210は、ユーザの生体に関する情報を入力する(ステップS101)。具体的には、パソコンCPU210は、生体センサ340が検出したユーザの脈拍、体温、発汗といった生体情報、圧電センサ208が検出したユーザのキーボード202を叩く強さ、キーボード202を叩く速度、ユーザの貧乏揺すり、ユーザの発話速度、ユーザの発話量、ユーザの独り言、ユーザのため息などを生体に関する情報として入力する。なお、上記の通り、生体に関する情報は、生体センサ340から取得される情報に限らず、内蔵カメラ204、マイク207、圧電センサ208、天井カメラ320などからも取得することができ、これらは広義の生体センサともいえ、その検出結果がパソコンCPU210に入力される。また、パソコンCPU210は、これら全ての生体に関する情報を入力しなくても良く、ユーザの状況を判定できるだけの生体に関する情報を入力すれば良い。
Personal computer CPU210 inputs the information regarding a user's living body (Step S101). Specifically, the
パソコンCPU210は、入力したユーザの生体に関する情報をROM212に記憶させ、ユーザの生体に関する情報のログである生体情報ログを記録する。パソコンCPU210は、ROM212に記憶させた生体情報ログにより、後述するようにユーザの状況を判定する。なお、パソコン200を複数のユーザで共有して使用する場合には、パソコンCPU210は、内蔵カメラ204の撮像画像によるユーザ顔認識、ユーザが入力したID・パスワードなどによりユーザ認識を行い、ユーザ毎に生体情報ログを記録する。
Personal computer CPU210 memorize | stores the information regarding a user's biological body input in ROM212, and records the biometric information log which is a log of the information regarding a user's biological body. The
次に、パソコンCPU210は、ユーザの状況を判定する(ステップS102)。パソコンCPU210は、例えばROM212に記録されているスケジュールの情報を参照して、ユーザが行っている作業の内容をユーザの状況として判定する。また、パソコンCPU210は、キーボード202、タッチパッド203、マウス300等を用いてユーザが入力した情報を用いて、ユーザが行っている作業の内容を判定することができる。なお、本実施形態において、パソコンCPU210がユーザの状況を判定する判定部として機能する。
Next, the
パソコンCPU210は、ユーザが行っている作業の内容の情報をROM212に記憶させ、作業内容の情報のログである作業内容ログを記録する。また、パソコンCPU210は、作業内容ログと生体情報ログとを対応付けて作業ログを作成し、作成した作業ログをROM212に記録する。なお、パソコン200を複数のユーザで共有して使用する場合には、パソコンCPU210は、内蔵カメラ204の撮像画像によるユーザ顔認識、ユーザが入力したID・パスワードなどによりユーザ認識を行い、ユーザ毎に作業内容ログおよび作業ログを記録する。
The
パソコンCPU210は、ユーザが独り言を言った回数やため息をついた回数を計測して、ユーザの状況を判定する。パソコンCPU210は、音声解析部213の解析結果を用いて独り言やため息を検出し、独り言の回数やため息の回数を計測する。また、パソコンCPU210は、画像解析部214の解析結果を用いてユーザの表情、口の動き等を検出し、独り言の回数やため息の回数を計測するようにしても良い。
The
パソコンCPU210は、例えばタイマー211を用いて独り言やため息の頻度(単位時間あたりの独り言・ため息の回数)を計測し、独り言やため息の頻度が閾値以上であればユーザのモチベーションが下がっていると判定する。また、パソコンCPU210は、例えば、音声解析部213の解析結果を用いて、「あーあ」、「いやになっちゃう」等のネガティブな独り言か、「頑張ろう」、「良かった」等のポジティブな独り言かを識別する。そして、パソコンCPU210は、ユーザがネガティブな独り言を言っていると判断した場合にはユーザのモチベーションが下がっていると判定し、ユーザがポジティブな独り言を言っていると判断した場合にはユーザのモチベーションが上がっていると判定する。さらに、パソコンCPU210は、ネガティブな独り言の回数やため息の回数のログである独り言ログをROM212に記録し、独り言ログに記録されたネガティブな独り言の回数やため息の回数が増加傾向である場合にはユーザのモチベーションが下がっていると判定することができる。ここで、モチベーションが上がっているときにはアドレナリン、セロトニン等のモノアミン神経伝達物質が分泌されて血圧や心拍数が上がる傾向にあることから、パソコンCPU210は、生体センサ340の生体情報から得られた血圧や心拍数が上昇しておらず且つネガティブな独り言の回数やため息の回数が増加傾向である場合に、ユーザのモチベーションが下がっていると判定しても良い。なお、パソコンCPU210は、モチベーションの度合いを数値で管理する。
The
パソコンCPU210は、画像解析部214の解析結果を用いてユーザの状況を判定する。パソコンCPU210は、ユーザの眉間に皺がよっているか、目を細めているかどうかなどの分析を行う。このような表情である場合、ディスプレイ201の表示が見づらいと推定する。パソコンCPU210は、ユーザが目を細めている場合には、超音波センサ205を用いてディスプレイ201からユーザまでの距離を検出する。なお、パソコンCPU210は、目を細めている場合には集中度が高くなく、目を細めている以外の表情での変化が少ないときには集中度が高いと判定する。この分析を行なう場合には、表情の分析に加えて、ステップS101で入力した生体に関する情報からユーザの感情(焦っている、イライラしている等)を検出して加味することにより、分析精度を向上することができる。また、パソコンCPU210は、画像解析部214による天井カメラ320の画像データの解析結果を用いて、ユーザの頭部の動き量を検出する。ユーザが集中している場合には頭の動き量が少ないのに対し、ユーザが集中していない場合には頭部の動き量が多くなる。なお、パソコンCPU210は、集中度を数値化して管理してもよい。
The
パソコンCPU210は、ステップS101で取得した生体に関する情報を用いて、ユーザの集中度をユーザの状況として判定する。一般的に、人間は、集中しているときに脈拍数、体温が上昇する。また、急ぎの業務をしていているときは(すなわち、集中度が高くなるとき)、キーボード202を叩く強さが強くなったり、キーボード202を叩く速度が速くなったり、貧乏揺すりを行なったりする場合もある。また、集中しているときには頭部が動くことが少ないのに対し、集中していない場合には、よそ見をしたり、場合によっては居眠りをしたりして頭部の動きが大きくなる。そこで、パソコンCPU210は、ROM212に記録された作業ログとステップS101で入力した生体に関する情報とを比較することにより、ユーザがパソコン200を操作している際の集中度を判定する。この場合、パソコンCPU210は、過去にユーザが集中したときの生体情報ログと、ステップS101で入力した生体に関する情報とを比較してユーザの集中度を検出しても良く、また、ユーザの通常の状態よりも脈拍、キーボード202を叩く力量が10%以上増加した場合に、ユーザが集中していると判断しても良い。なお、貧乏揺すりは、集中しているときにする場合と、集中していないときにする場合とが考えられる。このような場合、パソコンCPU210は、ユーザ毎の生体情報ログから集中しているときに貧乏揺すりをするタイプかどうかを判別して、その後の集中度の判定に用いれば良い。
Personal computer CPU210 determines a user's concentration degree as a user's condition using information about a living body acquired at Step S101. Generally, when a person is concentrated, the pulse rate and body temperature rise. Also, when you are working in a hurry (that is, when the degree of concentration is high), the strength of hitting the
パソコンCPU210は、ステップS101で取得した生体に関する情報に基づいて生体情報ログと作業ログとを更新する。
The
そして、パソコンCPU210は、ユーザが行っている作業のペースが落ちているかを判断する(ステップS103)。パソコンCPU210は、例えばステップS102においてユーザのモチベーションの度合いが閾値未満であると判定された場合、ユーザの集中度が閾値未満であると判定された場合などに、ユーザが行っている作業のペースが落ちていると判断する。この閾値は作業ログから設定することができ、例えば、パソコンCPU210は、過去のモチベーションの度合いまたは集中度の平均値を閾値として設定する。この際に、パソコンCPU210は、午前中の閾値、午後(午後1時から5時ごろ)の閾値、夜間の閾値というように時間帯に応じた閾値を設定してもよく、また、直近(例えば数日間)のユーザのモチベーションの度合いまたは集中度に応じて、過去のモチベーションの度合いまたは集中度の平均値に対してプラス10%もしくはマイナス10%した値を閾値として設定するようにしても良い。
Then, the
また、パソコンCPU210は、キーボード202、タッチパッド203、マウス300等の操作量が所定量未満である場合に、ユーザが行っている作業のペースが落ちていると判断することができる。なお、キーボード202、タッチパッド203、マウス300等の操作量が所定量未満であってもステップS102においてユーザのモチベーションの度合い若しくは集中度が閾値以上であると判定された場合には、ユーザが行っている作業のペースは落ちていないと判断するようにしても良い。作業ペースが落ちるケースとしては、(i)作業時間がある一定時間続いて疲労してきた場合、(ii)これまで行なっていた作業に比べて難度の高い作業に取り掛かった場合、(iii)誰かに(例えば上司や部下)仕事を頼まれたり、相談されて自分の仕事を中断してしまう場合、(iv)ユーザが業務を行っている近くでノイズが発生する場合などがある。このため、パソコンCPU210は、タイマー211の出力、スケジュール作成部215が作成したスケジュール、内蔵カメラ204が撮像したユーザ以外の人や、マイク207や天井マイク340が集音したユーザ以外の声や音などから集中度やモチベーションが落ちた理由を識別するようにしてもよい。
Further, the
ここで、パソコンCPU210は、ステップS103においてユーザが行っている作業のペースが落ちていないと判断した場合には、ステップS101へ戻る。一方、パソコンCPU210は、ステップS103においてユーザが行っている作業のペースが落ちていると判断した場合に、ユーザの周辺情報を入力する(ステップS104)。パソコンCPU210は、音声解析部213による天井マイク330の出力の解析結果を用いて、ユーザの周辺に騒音・ノイズがあるかどうかを検出し、検出結果をユーザの周辺情報として入力する。騒音・ノイズとしては、ユーザ以外の人の話声、コピー機やプリンタ等の操作音などが挙げられる。なお、天井マイク330は、コピー機やプリンタ等の近傍、オフィスの出入り口などの騒音が発生しやすい場所に設置されるようにしても良い。
Here, when the
パソコンCPU210は、ステップS103およびステップS104でユーザの作業ペースの落ちた理由が上述した(iv)の周辺のノイズである場合に、騒音・ノイズの低減処理を実施する(ステップS105)。パソコンCPU210は、天井マイク330から入力した音に対し反転アンプにより位相を反転させ、反転した音をスピーカ206からユーザに向けて出力する。この場合、天井マイク330が設けられている位置とユーザの耳の位置とが異なるので、完全に騒音・ノイズを除去することはできないが、騒音・ノイズを低減することができる。この場合には、天井マイク330およびスピーカ206がユーザ周辺の音(騒音・ノイズ)を検出して低減する低減装置として機能し、パソコンCPU210がユーザの環境を制御する環境制御部として機能する。また、パソコンCPU210は、コピー機やプリンタ等の近傍に予め設置されているスピーカからコピー機やプリンタ等の騒音の位相を反転した音を出力させる制御信号を無線LANで当該スピーカに送信してもよい。この場合には、コピー機やプリンタ等の近傍に予め設置されているスピーカおよび天井マイク330がユーザ周辺の音(騒音・ノイズ)を検出して低減する低減装置として機能し、パソコンCPU210がユーザの環境を制御する環境制御部として機能する。
The
パソコンCPU210は、ユーザの気分を転換させるための処理を実施する(ステップS106)。具体的には、パソコンCPU210は、外部接続インターフェイス216を介して外部機器から取得されたユーザが好きな音楽、マイク207から取得されたユーザの家族や恋人の声などのユーザによって選定された音に関する情報をROM212に登録し、登録した音をスピーカ206から出力する。ユーザによって選定された音に関する情報は、ユーザが好きな音楽、ユーザの家族や恋人の声などの音の情報だけでなく、出力音量、出力音圧、出力時間等の出力条件の情報も含んでもよい。これはユーザの作業ペースの落ちた理由が上述の(i)の疲労や(iii)の仕事の中断の場合に有効である。なお、本実施形態において、パソコンCPU210およびROM212がユーザによって選定された音に関する情報を登録する登録部として機能し、パソコンCPU210がスピーカ206を制御する制御部として機能する。
Personal computer CPU210 performs the process for changing a user's mood (step S106). Specifically, the
パソコンCPU210は、スピーカ206の指向性に関連する状況を検知し、検知した状況に応じてスピーカ206の出力音圧と出力音量の少なくとも一方を制御する。例えば、パソコンCPU210は、画像解析部214の解析結果を用いてスピーカ206の指向性の方向にユーザ以外の者を検知した場合に、スピーカ206の出力音圧と出力音量の少なくとも一方の設定を変更する。この場合に、パソコンCPU210は、スピーカ206の出力音圧と出力音量の少なくとも一方の値を、ユーザ以外の者が検知されない場合における設定値より低く設定するようにしても良い。これに代えて、パソコンCPU210は、画像解析部214の解析結果により対象ユーザ以外の者の位置を検出して、複数(本実施の形態では2つ)のスピーカ206のうち対象ユーザ以外の者には音の届かない指向性を有したスピーカ206を選択するようにしてもよい。また、パソコンCPU210は、音楽を流す時間を例えば5分に制限したり、音楽を流す時間帯を制限したりしても良い。さらに、パソコンCPU210は、ディスプレイ201に長期目標、ユーザが好きな言葉などをポップアップ表示するようにしても良い。これはユーザの作業ペースが落ちた理由が上述の(ii)の難易度の高い作業や(iii)の仕事の中断の場合に有効である。なお、本実施形態において、パソコンCPU210がスピーカ206の指向性に関連する状況を検知する検知部として機能する。
The
パソコンCPU210は、ROM212に記録されている作業ログを参照する(ステップS107)。具体的には、まず、パソコンCPU210は、スケジュール情報から現在行っている第1の作業を確認し、過去に行った作業の中から第1の作業と同じ種類の作業を抽出する。次に、パソコンCPU210は、抽出した作業を行ったときのユーザの生体に関する情報またはユーザの状況を比較する。そして、パソコンCPU210は、スケジュール情報に含まれる今後行うべき作業のうち、過去にモチベーションの度合いまたは集中度が閾値以上の状況で行われた作業、若しくはルーチン作業のように数多く行われた作業と同じ種類の作業があるかどうかを検出する。さらに、パソコンCPU210は、ROM212に記録されている作業ログから、モチベーションの度合いまたは集中度が閾値以上である状況が一定時間以上継続している時間帯、すなわちユーザのモチベーションの度合いまたは集中度が高い時間帯を確認する。また、パソコンCPU210は、モチベーションの度合いまたは集中度が閾値未満である状況が一定時間以上継続している時間帯、すなわちユーザのモチベーションの度合いまたは集中度が低い時間帯を確認する。なお、同じ種類の作業は、完全同一の作業だけでなく、作業を複数のカテゴリー(例えば、創造業務、事務業務または新規業務、ルーチン業務)に分類した場合に同じカテゴリーに属する作業も含む。
The
パソコンCPU210は、スケジュール作成部215を用いて、新たなスケジュールを作成する(ステップS108)。具体的には、まず、パソコンCPU210は、ステップS107で参照した作業ログを用いて、ユーザの状況が現在行っている第1の業務(例えば、創造業務)を行うのに好ましくないかどうかを確認し、過去における作業の順番変更を確認する。そして、パソコンCPU210は、ステップS107で参照した作業ログおよびROM212に記録されているスケジュールの情報を用いて、今後行うべき作業のうちからユーザが第1の作業よりも得意とする第2の作業(例えば、事務業務)を先に行うスケジュールを作成する。また、パソコンCPU210は、今後行うべき作業のうちからルーチン作業のように数多く行われた第2の作業を先に行うスケジュールを作成しても良い。さらに、パソコンCPU210は、ユーザの集中度が高くなる時間帯に第1の作業を行うスケジュールを作成する。
The
パソコンCPU210は、ステップS108で作成した新たなスケジュールの情報をユーザに提示し、作業の順番を変更するかどうかをユーザに問い合わせる(ステップS109)。パソコンCPU210は、スピーカ206から音声を出力してユーザの注意を喚起し、現在行っている第1の業務に代えて行う第2の業務に関する情報をディスプレイ201に表示するとともに、第1の業務を行う日時を表示する。なお、本実施形態において、パソコンCPU210およびディスプレイ201が第2の作業に関する情報を出力する出力部として機能する。
The
そして、パソコンCPU210は、作業の順番変更に同意する旨のユーザの入力をキーボード202、タッチパッド203、マウス300等で受け付けた場合、またはユーザが発した「はい」、「OK」等の同意する旨の音声をマイク207で受け付けた場合には、ROM212に記憶されているスケジュール情報を変更し(ステップS110)、本フローチャートを終了する。一方、パソコンCPU210は、作業順場の変更に同意する旨の入力を受け付けなかった場合には、本フローチャートを終了する。なお、フローチャートの終了に代えて、ステップS101へ戻るようにしても良い。
Then, the
上述の処理フローにおいては、ユーザ自身に対して作業の順番変更を問い合わせたが、ユーザの上司に対してユーザの作業の順番変更を問い合わせるようにしてもよい。 In the above-described processing flow, the user himself / herself is inquired about a change in the order of work.
また、上述の処理フローにおいては、オフィス内のビジネスの場面を想定して説明したが、状況判別システム110の適用範囲はこれに限らない。例えば、状況判別システム110を在宅勤務に適用したり、学生・受験生の学習科目のスケジュール変更に適用したりすることもできる。
Moreover, although the above-described processing flow has been described assuming a business scene in the office, the scope of application of the
図4は、第2実施形態に係る状況判別システムのブロック図である。図4に示すように、状況判別システム120は、第1実施形態に係る状況判別システム110に対し、パソコン200とネットワーク500を介して接続する電子機器であるサーバ400を追加した構成である。第2実施形態における状況判別システム120は、第1実施形態における状況判別システム110のパソコン200で実施していた状況判別の機能をサーバで実行するように構成されている。サーバ400は、ネットワーク500を介してパソコン200から各種情報を取得するとともに、ネットワーク500を介してパソコン200に各種情報を送信する。パソコン200は、本実施形態においても第1実施形態と同様の構成を備える。また、パソコン200は、第1実施形態の構成のうちサーバ400で実行される機能に対応する構成である音声解析部213、画像解析部214、スケジュール作成部215などを省略してもよい。なお、第1実施形態と共通の要素については同じ符番を付し、特に新たな機能を付与しない限り、その説明を省略する。
FIG. 4 is a block diagram of a situation determination system according to the second embodiment. As shown in FIG. 4, the
サーバ400は、全体の制御を司るサーバCPU410を中心とし、タイマー411、ROM412、記録装置413、音声解析部414、画像解析部415、スケジュール作成部416および外部接続I/F417を備える。
The
タイマー411は、計時機能を有し、サーバCPU410の開始の指示を受けて計時を開始し、終了の指示を受けてその計時結果をサーバCPU410へ返す。ROM412は、例えばフラッシュメモリ等の不揮発性メモリであり、サーバ400を制御するプログラム、各種パラメータなどを記憶する役割を担う。
The
記録装置413は、例えばハードディスクドライブであり、ROM212のバックアップとして機能し、前述の作業内容ログ、生体情報ログ、作業ログなどを記録する。
The
音声解析部414は、マイク207、天井マイク330から取り込まれる音声をパソコン200から取得し、取得した音声を解析する。音声解析部414は、第1実施形態に係る状況判別システム110における音声解析部213と同様の機能を実行する。
The
画像解析部415は、内蔵カメラ204により撮影された撮影画像データ、天井カメラ320により撮影された撮影画像データをパソコン200から取得し、取得した撮影画像データを解析する。画像解析部415は、第1実施形態に係る状況判別システム110における画像解析部214と同様の機能を実行する。
The
スケジュール作成部416は、パソコン200からユーザの入力を受け付けて、ユーザが行うべき作業のスケジュールを作成する。スケジュール作成部416は、第1実施形態に係る状況判別システム110におけるスケジュール作成部215と同様の機能を実行する。作成されたスケジュールの情報は記録装置413に記憶される。
The
外部接続インターフェイス417は、ネットワーク500を介してパソコン200の外部接続インターフェイス216に接続し、サーバ400とパソコン200との間の通信を可能にする。外部接続インターフェイス417は、インターネットプロトコル等の通信プロトコルに準拠している。外部接続インターフェイス417は、その他の外部機器と接続するためのインターフェイスであってもよい。
The
なお、本実施形態において、パソコン200は音声解析部213、画像解析部214、スケジュール作成部215を備え、サーバ400は音声解析部414、画像解析部415、スケジュール作成部416を備える。これにより、本実施形態に係る状況判別システム120は、音声解析等の処理をサーバ400側で実行するかそれともパソコン200側で実行するかを、システムの状況に応じて設定することができる。
In this embodiment, the
例えば、パソコン200とサーバ400とのデータ転送速度が閾値以上である場合に、パソコン200が音声解析等に必要な情報をサーバ400に送信してサーバ400が音声解析等を実行し、パソコン200とサーバ400とのデータ転送速度が閾値未満である場合に、パソコン200が音声解析等を実行してデータサイズの小さい処理結果のみをサーバ400に送信する。この場合における閾値として、例えば、サーバ400がリアルタイムに音声解析等の処理を実行できるデータ転送速度の下限値が設定される。また、サーバ400が複数の処理を並行して処理していない場合に、パソコン200が音声解析等に必要な情報をサーバ400に送信してサーバ400が音声解析等を実行し、サーバ400が複数の処理を並行して処理している場合に、パソコン200が音声解析等を実行して処理結果のみをサーバ400に送信するようにしてもよい。
For example, when the data transfer rate between the
図5は、第2実施形態に係る状況判別システムの処理を示すフローチャートである。本フローチャートにおいては、サーバCPU410は、ユーザの状況判定処理と判定結果に応じた処理とを実行する。なお、本フローチャートにおいては、ユーザがパソコン200を操作している状況を想定する。サーバCPU410は、パソコン200との接続が確立した場合、パソコン200との接続確立後にキーボード202、タッチパッド203、マウス300等で受け付けたユーザの入力を取得した場合などに本フローチャートの処理を開始する。また、サーバCPU410は、パソコン200との接続確立後、タイマー411を用いて予め定められた期間ごとに本フローチャートの処理を開始するようにしても良い。
FIG. 5 is a flowchart showing processing of the situation determination system according to the second embodiment. In this flowchart, the
サーバCPU410は、ユーザが行っている作業の内容を判定する(ステップS201)。サーバCPU410は、例えば記録装置413に記録されているスケジュールの情報を参照して、ユーザが行っている作業の内容を判定する。また、サーバCPU410は、キーボード202、タッチパッド203、マウス300等を用いてユーザが入力した情報をパソコン200から取得し、取得した情報を用いてユーザが行っている作業の内容を判定してもよい。
The
次に、サーバCPU410は、ユーザの生体に関する情報を入力する(ステップS202)。具体的には、サーバCPU410は、生体センサ340、内蔵カメラ204、圧電センサ208、天井カメラ320などの情報をパソコン200から取得し、第1実施形態のステップS101と同様の処理を実行する。なお、本実施形態において、サーバCPU410が生体に関する情報を入力する入力部として機能する。
Next, the
そして、サーバCPU410は、ユーザの状況を判定する(ステップS203)。具体的には、サーバCPU410は、第1実施形態のステップS102におけるユーザの独り言を言った回数やため息をついた回数を用いたユーザの状況の判定、画像解析部214の解析結果を用いたユーザの状況の判定、生体に関する情報を用いたユーザの集中度の判定と同様の処理を実行する。なお、本実施形態において、サーバCPU410がユーザの状況を判定する判定部として機能する。
Then, the
サーバCPU410は、作業ログを作成し、作成した作業ログを記録装置413に記録する(ステップS204)。サーバCPU410は、例えばステップS201で取得した作業の内容の情報とステップS202で取得した生体に関する情報とを対応付けて作業ログを作成し、作成した作業ログを記録装置413に記録する。また、サーバCPU410は、ステップS201で取得した作業の内容の情報とステップS203で取得したユーザの状況の情報とを対応付けて作業ログを作成し、作成した作業ログを記録装置413に記録しても良い。さらに、サーバCPU410は、ステップS201で取得した作業の内容の情報、ステップS202で取得した生体に関する情報およびステップS203で取得したユーザの状況の情報を対応付けて作業ログを作成し、作成した作業ログを記録装置413に記録しても良い。なお、サーバ400が複数のパソコン200と接続する場合または一つのパソコン200を複数のユーザで共有して使用する場合には、サーバCPU410は、内蔵カメラ204の撮像画像によるユーザ顔認識、ユーザが入力したID・パスワードなどによりユーザ認識を行い、ユーザ毎に作業ログを記録する。
The
また、サーバCPU410は、ステップS201およびステップS202において、作業内容の情報のログである作業内容ログおよび生体に関する情報のログである生体情報ログをそれぞれ記録装置413に記録するようにしても良い。具体的には、まず、サーバCPU410は、ステップS201において取得したユーザが行っている作業の内容の情報を記録装置413に記憶させて作業内容ログを記録する。そして、サーバCPU410は、ステップS202において入力したユーザの生体に関する情報を記録装置413に記憶させて生体情報ログを記録する。その後、サーバCPU410は、ステップS204において、作業内容ログと生体情報ログとを対応付けて作業ログを作成し、作成した作業ログを記録装置413に記録する。
In step S201 and step S202, the
サーバCPU410は、ユーザが行っている作業のペースが落ちているかを判断する(ステップS205)。具体的には、サーバCPU410は、第1実施形態のステップS103と同様の処理を実行する。
The
サーバCPU410は、ステップS205においてユーザが行っている作業のペースが落ちていないと判断した場合には、ステップS201へ戻る。一方、サーバCPU410は、ステップS205においてユーザが行っている作業のペースが落ちていると判断した場合に、周辺情報入力処理を実行する(ステップS206)。具体的には、サーバCPU410は、第1実施形態のステップS104と同様の処理を実行する。そして、サーバCPU410は環境制御処理を実行する(ステップS207)。具体的には、サーバCPU410は、第1実施形態のステップS105の騒音・ノイズの低減処理およびステップS106のユーザの気分を転換させるための処理を実行させる制御信号をパソコン200に送信する。なお、本実施形態において、サーバCPU410がユーザの環境を制御する環境制御部として機能する。
If the
サーバCPU410は、環境制御処理(ステップS207)を行った後におけるユーザの生体に関する情報を入力し(ステップS208)、ユーザの状況を判定する(ステップS209)。ステップS208およびS209の処理は、ステップS202およびS203とそれぞれ同じである。そして、サーバCPU410は、ユーザが行っている作業のペースが改善したかを判断する(ステップS210)。サーバCPU410は、例えばユーザのモチベーションの度合いまたは集中度がステップS205のときよりも一定値以上上がっていると判断された場合に、ユーザが行っている作業のペースが改善したと判断する。また、サーバCPU410は、例えばステップS205のときに閾値未満であったユーザのモチベーションの度合いまたは集中度が閾値以上に高まった場合に、ユーザが行っている作業のペースが改善したと判断する。さらに、サーバCPU410は、例えばステップS205のときに所定量未満であったキーボード202、タッチパッド203、マウス300等の操作量が所定量以上に増加した場合に、ユーザが行っている作業のペースが改善したと判断する。サーバCPU410は、ユーザが行っている作業のペースが改善したと判断した場合には、ステップS201へ戻る。
The
一方、サーバCPU410は、ユーザが行っている作業のペースが改善していないと判断した場合には、ステップS208で取得した生体に関する情報、ステップS209で取得したユーザの状況、作業ログを用いて、ユーザが行っている第1の作業と異なる第2の作業を決定し、作業順番を変更したスケジュールを作成する(ステップS211)。サーバCPU410は、第1実施形態のステップS108と同様の処理を実行する。
On the other hand, if the
また、サーバCPU410は、例えば過去に行った作業のうちモチベーションの度合いまたは集中度が閾値以上であった作業を抽出し、記録装置413に記録されているスケジュールの情報に含まれる今後行うべき作業の中から抽出した作業と同じ種類の第2の作業を決定するようにしてもよい。なお、同じ種類の作業は、完全同一の作業だけでなく、作業を複数のカテゴリーに分類した場合に同じカテゴリーに属する作業も含む。今後行うべき作業の中に抽出した作業と同じ種類の作業が複数ある場合には、サーバCPU410は、これら複数の作業のうち、優先度の最も高い作業を第2の作業として決定する。優先度の最も高い作業は、一番早い時間帯に設定されていた作業、予め定められた優先順位が一番高い作業などである。
Further, the
サーバCPU410は、同種類に属する過去の複数の作業に対するユーザ状況の変移に応じて、第2の作業を決定するようにしてもよい。具体的には、まず、サーバCPU410は、作業ログに記録されている各種類に属する複数の作業の履歴をそれぞれ確認する。そして、サーバCPU410は、前々回の作業時の集中度よりも前回の作業時のモチベーションの度合いまたは集中度が高くなっている種類がある場合には、ユーザは同種類の作業を前回より高いモチベーションまたは集中度で行うことができると推定し、今後行うべき作業のうちから当該種類に属する作業を第2の作業として決定する。ただし、前回の作業時の集中度が閾値未満である場合には、サーバCPU410は当該種類を候補から除外する。なお、この場合の閾値として、過去のモチベーションの度合いまたは集中度の平均値より低い値(例えば、平均値に対してマイナス30%した値)が設定される。
The
サーバCPU410は、上述の第1実施形態と同様に、記録装置413に記録されている作業ログから作業のモチベーションまたは集中度が高い時間帯とモチベーションまたは集中度が低い時間帯とを確認し、第1の作業を作業の集中度が高い時間帯に変更する。そして、サーバCPU410は、作業の順番を変更した新たなスケジュールを作成する。
As in the first embodiment described above, the
サーバCPU410は、ステップS210で作成したスケジュールの情報を、外部接続インターフェイス417を介してパソコン200に送信する(ステップS212)。なお、本実施形態において、サーバCPU410および外部接続インターフェイス417が第2の作業に関する情報を出力する出力部として機能する。
The
サーバ400からスケジュールの情報を取得したパソコンCPU210は、取得したスケジュールをユーザに提示し、作業の順番を変更するかどうかをユーザに問い合わせる。パソコンCPU210は、スピーカ206から音声を出力してユーザの注意を喚起し、現在行っている第1の業務に代えて行う第2の業務の情報をディスプレイ201に表示するとともに、第1の業務を行う日時を表示する。
The
そして、パソコンCPU210は、作業の順番変更に同意する旨のユーザの入力をキーボード202、タッチパッド203、マウス300等で受け付けた場合、またはユーザが発した「はい」、「OK」等の同意する旨の音声をマイク207で受け付けた場合には、パソコンCPU210は、作業の順番変更に同意する旨の情報を、外部接続インターフェイス216を介してサーバ400に送信する。
Then, the
サーバCPU410は、作業の順番変更に同意する旨の情報を取得したか否かを判断する(ステップS213)。サーバCPU410は、作業の順番変更に同意する旨の情報を取得した場合に、記録装置413に記憶されているスケジュール情報を変更し(ステップS214)、本フローチャートを終了する。一方、サーバCPU410は、作業の順番変更に同意する旨の情報を取得しなかった場合には、本フローチャートを終了する。なお、フローチャートの終了に代えて、ステップS201へ戻るようにしても良い。
The
上述の処理フローにおいては、サーバCPU410は、ユーザのパソコン200に対して作業の順番を変更したスケジュールの情報を送信したが、ユーザの上司のパソコンに対してユーザの作業の順番を変更したスケジュールの情報を送信してもよい。なお、サーバCPU410は、ユーザの上司のパソコンから作業の順番変更に同意する旨の情報を取得した場合には、作業の順番を変更したスケジュールの情報をユーザのパソコン200に送信する。
In the processing flow described above, the
また、上述の処理フローにおいては、オフィス内のビジネスの場面を想定して説明したが、状況判別システム120の適用範囲はこれに限らない。例えば、状況判別システム120を在宅勤務に適用したり、学生・受験生の学習科目のスケジュール変更に適用したりすることもできる。
Moreover, although the above-described processing flow has been described assuming a business scene in the office, the scope of application of the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
110 状況判別システム、120 状況判別システム、200 パソコン、201 ディスプレイ、202 キーボード、203 タッチパッド、204 内蔵カメラ、205 超音波センサ、206 スピーカ、207 マイク、208 圧電センサ、210 パソコンCPU、211 タイマー、212 ROM、213 音声解析部、214 画像解析部、215 スケジュール作成部、216 外部接続インターフェイス、300 マウス、310 床センサ、320 天井カメラ、330 天井マイク、340 生体センサ、400 サーバ、410 サーバCPU、411 タイマー、412 ROM、413 記録装置、414 音声解析部、415 画像解析部、416 スケジュール作成部、417 外部接続インターフェイス、500 ネットワーク
110 Situation Discrimination System, 120 Situation Discrimination System, 200 Personal Computer, 201 Display, 202 Keyboard, 203 Touchpad, 204 Built-in Camera, 205 Ultrasonic Sensor, 206 Speaker, 207 Microphone, 208 Piezoelectric Sensor, 210 Personal Computer CPU, 211 Timer, 212 ROM, 213 Audio analysis unit, 214 Image analysis unit, 215 Schedule creation unit, 216 External connection interface, 300 mouse, 310 floor sensor, 320 ceiling camera, 330 ceiling microphone, 340 biometric sensor, 400 server, 410 server CPU, 411
Claims (17)
前記使用者が第1の作業を行っているときの前記使用者の生体に関する情報を入力する入力部と、
前記生体に関する情報と前記記録部の記録とに基づいて、前記第1の作業と異なる第2の作業に関する情報を出力する出力部と
を備える電子機器。 A recording unit for recording about the user;
An input unit for inputting information on the user's living body when the user is performing the first work;
An electronic apparatus comprising: an output unit that outputs information related to a second work different from the first work based on the information related to the living body and the recording of the recording unit.
前記周辺の音を検出する無指向性マイクと、
前記使用者の方向に対して指向性を有し、前記検出音を低減する指向性スピーカと
を有する請求項5に記載の電子機器。 The reducing device is
An omnidirectional microphone for detecting the surrounding sound;
The electronic apparatus according to claim 5, further comprising a directional speaker that has directivity with respect to the direction of the user and reduces the detection sound.
前記出力部は、前記判定部の判定結果に基づいて前記第2の作業を出力する請求項1から7のいずれか1項に記載の電子機器。 A determination unit for determining the situation of the user;
The electronic device according to claim 1, wherein the output unit outputs the second work based on a determination result of the determination unit.
特定の方向に対して指向性を有し、前記使用者に対して音を出力可能な指向性スピーカと、
前記使用者が作業を行っているときに前記指向性マイクで集音した前記使用者の音に基づいて、前記指向性スピーカを制御する制御部と
を備える電子機器。 A directional microphone that has directivity in a specific direction and collects the user's sound;
A directional speaker having directivity in a specific direction and capable of outputting sound to the user;
An electronic apparatus comprising: a control unit that controls the directional speaker based on the sound of the user collected by the directional microphone when the user is working.
前記制御部は、前記判定部の判定結果に基づいて前記指向性スピーカを制御する請求項11に記載の電子機器。 Based on the sound of the user, a determination unit that determines the status of the user,
The electronic device according to claim 11, wherein the control unit controls the directional speaker based on a determination result of the determination unit.
前記制御部は、前記登録部に登録された情報に基づいて前記指向性スピーカを制御する請求項11または12に記載の電子機器。 The user comprises a registration unit for registering information about sound,
The electronic device according to claim 11, wherein the control unit controls the directional speaker based on information registered in the registration unit.
前記制御部は、前記検知部の検知結果に基づいて、前記指向性スピーカの出力音圧および出力音量の少なくとも一方を制御する請求項11から13のいずれか1項に記載の電子機器。 A detector that detects a situation related to the directivity of the directional speaker;
The electronic device according to claim 11, wherein the control unit controls at least one of an output sound pressure and an output volume of the directional speaker based on a detection result of the detection unit.
前記使用者が第1の作業を行っているときの前記使用者の生体に関する情報を入力する入力ステップと、
前記生体に関する情報と前記記録部の記録とに基づいて、前記第1の作業と異なる第2の作業に関する情報を出力する出力ステップと
をコンピュータに実行させる電子機器の制御プログラム。 A recording step for recording the user in the recording unit;
An input step for inputting information on the living body of the user when the user is performing a first operation;
An electronic device control program that causes a computer to execute an output step of outputting information related to a second work different from the first work based on the information related to the living body and the recording of the recording unit.
前記使用者が作業を行っているときに前記指向性マイクで集音した前記使用者の音に基づいて、前記指向性スピーカを制御する制御ステップ
をコンピュータに実行させる電子機器の制御プログラム。 Directional microphone that has directivity in a specific direction and collects user's sound, and directivity that has directivity in a specific direction and can output sound to the user A control program for an electronic device including a speaker,
An electronic device control program that causes a computer to execute a control step of controlling the directional speaker based on the sound of the user collected by the directional microphone while the user is working.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011098197A JP2012230534A (en) | 2011-04-26 | 2011-04-26 | Electronic apparatus and control program for electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011098197A JP2012230534A (en) | 2011-04-26 | 2011-04-26 | Electronic apparatus and control program for electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012230534A true JP2012230534A (en) | 2012-11-22 |
Family
ID=47432033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011098197A Withdrawn JP2012230534A (en) | 2011-04-26 | 2011-04-26 | Electronic apparatus and control program for electronic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012230534A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014097611A1 (en) * | 2012-12-21 | 2014-06-26 | パナソニック株式会社 | Vibration control device, touch panel input device, and vibration control method |
JP2020013308A (en) * | 2018-07-18 | 2020-01-23 | 日本電気株式会社 | Apparatus, system, method and program for managing employees |
JP2020086592A (en) * | 2018-11-16 | 2020-06-04 | 国立大学法人秋田大学 | Method of estimating task contents and concentration state of worker who uses information device to perform task |
WO2022269709A1 (en) * | 2021-06-21 | 2022-12-29 | 日本電信電話株式会社 | Data processing device, data processing method, and data processing program |
-
2011
- 2011-04-26 JP JP2011098197A patent/JP2012230534A/en not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014097611A1 (en) * | 2012-12-21 | 2014-06-26 | パナソニック株式会社 | Vibration control device, touch panel input device, and vibration control method |
CN104885040A (en) * | 2012-12-21 | 2015-09-02 | 松下电器(美国)知识产权公司 | Vibration control device, touch panel input device, and vibration control method |
JP2020013308A (en) * | 2018-07-18 | 2020-01-23 | 日本電気株式会社 | Apparatus, system, method and program for managing employees |
JP2020086592A (en) * | 2018-11-16 | 2020-06-04 | 国立大学法人秋田大学 | Method of estimating task contents and concentration state of worker who uses information device to perform task |
JP7226707B2 (en) | 2018-11-16 | 2023-02-21 | 国立大学法人秋田大学 | Method for estimating work content and concentration state of workers who work using information equipment |
WO2022269709A1 (en) * | 2021-06-21 | 2022-12-29 | 日本電信電話株式会社 | Data processing device, data processing method, and data processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10448139B2 (en) | Selective sound field environment processing system and method | |
JP6484317B2 (en) | Speech recognition system, speech recognition device, and speech recognition method | |
KR102516577B1 (en) | Voice trigger for a digital assistant | |
JP2012230535A (en) | Electronic apparatus and control program for electronic apparatus | |
EP3418008A1 (en) | Communication device, communication robot and computer-readable storage medium | |
US20150168996A1 (en) | In-ear wearable computer | |
JP2022529783A (en) | Input identification for speech recognition engine | |
CN111475206B (en) | Method and apparatus for waking up wearable device | |
TWI711942B (en) | Adjustment method of hearing auxiliary device | |
JP2012230534A (en) | Electronic apparatus and control program for electronic apparatus | |
US11895474B2 (en) | Activity detection on devices with multi-modal sensing | |
Khanna et al. | JawSense: recognizing unvoiced sound using a low-cost ear-worn system | |
JP2019068153A (en) | Information processing method, information processing unit and information processing program | |
WO2016206647A1 (en) | System for controlling machine apparatus to generate action | |
WO2019235190A1 (en) | Information processing device, information processing method, program, and conversation system | |
JP2018075657A (en) | Generating program, generation device, control program, control method, robot device and telephone call system | |
JP7056020B2 (en) | Information processing equipment and programs | |
JP7435641B2 (en) | Control device, robot, control method and program | |
WO2021051403A1 (en) | Voice control method and apparatus, chip, earphones, and system | |
JP2018001387A (en) | Robot, program, robot system, and server | |
JP7324224B2 (en) | Conference support system | |
US20210392427A1 (en) | Systems and Methods for Live Conversation Using Hearing Devices | |
KR101757426B1 (en) | Hairwear having voice recording function and user emotion recognition system using the same | |
CN111401912A (en) | Mobile payment method, electronic device and storage medium | |
AU2022224773A1 (en) | Voice trigger for a digital assistant |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |