JP2015150150A - Information providing device and program - Google Patents

Information providing device and program Download PDF

Info

Publication number
JP2015150150A
JP2015150150A JP2014025622A JP2014025622A JP2015150150A JP 2015150150 A JP2015150150 A JP 2015150150A JP 2014025622 A JP2014025622 A JP 2014025622A JP 2014025622 A JP2014025622 A JP 2014025622A JP 2015150150 A JP2015150150 A JP 2015150150A
Authority
JP
Japan
Prior art keywords
person
fatigue
degree
information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014025622A
Other languages
Japanese (ja)
Inventor
孝雄 内藤
Takao Naito
孝雄 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2014025622A priority Critical patent/JP2015150150A/en
Publication of JP2015150150A publication Critical patent/JP2015150150A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information providing device and program which can provide notification that a person is in a fatigue state by appropriately determining the fatigue state of the person.SOLUTION: A terminal device 4 includes a detection part 52 for detecting a state of a person, a determination part 54 for determining the fatigue degree of the person on the basis of a series of states of the person detected by the detection part 52 within a predetermined period, and an information providing part 56 for providing the person with perceivable information in the case that the fatigue degree of the person determined by the determination part 54 satisfies the predetermined reference of a fatigue degree.

Description

本発明は、情報提供装置及びプログラムに関する。   The present invention relates to an information providing apparatus and a program.

特許文献1は、操作者の顔を撮影し、該顔の画像データを出力する入力手段と、前記画像データから人の顔のモデルを作成する画像処理手段と、前記モデルを解析して操作者の疲労度を判定する疲労度判定手段と、前記疲労度に対応する応答情報を出力する出力手段と、を備えたことを特徴とする疲労緩和システムについて開示している。   Patent Document 1 discloses an input unit that captures an operator's face and outputs image data of the face, an image processing unit that creates a human face model from the image data, and an operator who analyzes the model and analyzes the model. There is disclosed a fatigue alleviation system comprising: a fatigue degree judging means for judging the fatigue degree of the above; and an output means for outputting response information corresponding to the fatigue degree.

特許文献2は、被測定者の上肢に装着される本体部と、前記本体部の加速度を検出するための加速度センサと、検出される加速度を処理する制御部と、を備え、前記制御部は、前記本体部を装着する被測定者の歩行または走行による移動期間において前記加速度センサから時系列の加速度を取得する加速度取得部と、取得される時系列の加速度から前記本体部の位置の変位を取得する変位取得部と、取得された前記変位と、疲労判定基準とに従って被測定者の疲労度を判定する判定部と、を含む、疲労判定装置について開示している。   Patent Document 2 includes a main body unit to be worn on the upper limb of the measurement subject, an acceleration sensor for detecting the acceleration of the main body unit, and a control unit for processing the detected acceleration. An acceleration acquisition unit that acquires time-series acceleration from the acceleration sensor during a movement period of walking or running of the measurement subject wearing the main body, and a displacement of the position of the main body from the acquired time-series acceleration. A fatigue determination apparatus including a displacement acquisition unit to be acquired, and a determination unit that determines the degree of fatigue of the measurement subject according to the acquired displacement and the fatigue determination criterion is disclosed.

特許文献3は、コスト増を抑制して運転者が疲労したか否かをより正確に判定し、また、運転者の疲労をより正確に検出することができる運転者疲労度推定装置として、連続運転時間が許容運転時間を超えると、運転者の疲労軽減措置を行う運転者疲労度推定装置において、地域ごとに高疲労地域を登録した疲労マップを記憶する疲労マップ記憶手段と、前記疲労マップを参照して決定した、高疲労地域を運転した高疲労運転時間に応じて疲労度を算出する疲労度算出手段と、前記疲労度算出手段が算出した疲労度に応じて、前記許容運転時間を変更する基準変更手段と、連続運転時間が前記許容運転時間を超えると運転者の前記疲労軽減措置を行うタイミングであると判定する判定手段と、を有することを特徴とする運転者疲労度推定装置について開示している。   Patent Document 3 continuously determines whether or not the driver is tired by suppressing an increase in cost, and as a driver fatigue level estimation device that can more accurately detect driver fatigue. When the driving time exceeds the allowable driving time, in the driver fatigue level estimation device that performs a driver fatigue reduction measure, a fatigue map storage unit that stores a fatigue map in which a high fatigue area is registered for each area, and the fatigue map Fatigue degree calculation means for calculating the fatigue degree according to the high fatigue operation time of driving in the high fatigue area determined with reference, and the allowable operation time is changed according to the fatigue degree calculated by the fatigue degree calculation means And a determination means for determining that it is time to perform the fatigue alleviation measure of the driver when the continuous operation time exceeds the allowable operation time. About to disclose.

特開2002−042115号公報JP 2002-042115 A 特開2013−017614号公報JP 2013-017614 A 特開2009−293996号公報JP 2009-293996 A

本発明の目的は、人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる情報提供装置及びプログラムを提供することである。   An object of the present invention is to provide an information providing apparatus and a program capable of appropriately determining a person's fatigue state and notifying that the person is in a fatigue state.

請求項1に係る本発明は、人物の状態を検知する検知手段と、前記検知手段により検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定手段と、前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供手段とを有する情報提供装置である。   The present invention according to claim 1 determines the degree of fatigue of the person based on a detection means for detecting the state of the person and a series of states of the person within a predetermined period detected by the detection means. An information providing apparatus comprising: a determination unit configured to perform determination; and an information providing unit configured to provide information perceived by the person when the fatigue level of the person determined by the determination unit satisfies a predetermined fatigue level standard. It is.

請求項2に係る本発明は、前記判定手段が、予め定められた期間内において前記検知手段により検知された状態が予め定められた条件を満たす時間に基づいて、前記人物の疲労度合いを判定する請求項1記載の情報提供装置である。   According to a second aspect of the present invention, the determination means determines the degree of fatigue of the person based on a time during which a state detected by the detection means within a predetermined period satisfies a predetermined condition. An information providing apparatus according to claim 1.

請求項3に係る本発明は、前記人物に対し情報を提供する時期を決定する時期決定手段をさらに有し、前記情報提供手段が、前記時期決定手段により決定された時期に情報を提供する請求項1又は2記載の情報提供装置である。   The present invention according to claim 3 further comprises a timing determining means for determining a timing for providing information to the person, wherein the information providing means provides the information at a timing determined by the timing determining means. Item 3. The information providing device according to Item 1 or 2.

請求項4に係る本発明は、作業への前記人物の集中度合いを推定する推定手段をさらに有し、前記時期決定手段が、前記推定手段により推定された集中度合いに応じて時期を決定する請求項3記載の情報提供装置である。   The present invention according to claim 4 further comprises estimation means for estimating the degree of concentration of the person in the work, and the time determination means determines the time according to the degree of concentration estimated by the estimation means. Item 4. The information providing device according to Item 3.

請求項5に係る本発明は、前記検知手段が、入力受付機器に対する前記人物による入力操作から前記人物の状態を検知し、前記時期決定手段は、前記推定手段により推定された集中度合いが予め定められた集中度合い以上である場合、前記入力操作による入力量が予め定められた閾値を下回っている時期を、情報の提供時期として決定する請求項4記載の情報提供装置である。   According to a fifth aspect of the present invention, the detecting means detects the state of the person from an input operation by the person on the input receiving device, and the timing determining means determines in advance the degree of concentration estimated by the estimating means. The information providing apparatus according to claim 4, wherein, when the degree of concentration is equal to or greater than a predetermined concentration level, a time when an input amount by the input operation is below a predetermined threshold is determined as an information providing time.

請求項6に係る本発明は、前記検知手段が、入力受付機器に対する前記人物による入力操作から前記人物の状態を検知し、前記判定手段が、予め定められた期間内の入力操作による入力量又は入力の訂正量に基づいて前記人物の疲労度合いを判定する請求項1乃至4いずれか記載の情報提供装置である。   According to a sixth aspect of the present invention, the detection means detects the state of the person from an input operation by the person on the input receiving device, and the determination means has an input amount by an input operation within a predetermined period or The information providing apparatus according to claim 1, wherein the person's fatigue level is determined based on an input correction amount.

請求項7に係る本発明は、前記検知手段が、前記人物の姿勢を検知し、前記判定手段が、前記人物の姿勢の予め登録された姿勢からのずれ量に基づいて前記人物の疲労度合いを判定する請求項1乃至6いずれか記載の情報提供装置である。   In the present invention according to claim 7, the detecting means detects the posture of the person, and the determining means determines the degree of fatigue of the person based on a deviation amount of the posture of the person from a pre-registered posture. The information providing device according to any one of claims 1 to 6.

請求項8に係る本発明は、前記検知手段が、前記人物を撮影した撮影画像に基づいて姿勢を検知する請求項7記載の情報提供装置である。   The present invention according to claim 8 is the information providing apparatus according to claim 7, wherein the detection unit detects the posture based on a photographed image obtained by photographing the person.

請求項9に係る本発明は、前記検知手段が、着座状態の前記人物が着座する座面にかかる圧力に基づいて姿勢を検知する請求項7又は8記載の情報提供装置である。   The present invention according to claim 9 is the information providing apparatus according to claim 7 or 8, wherein the detection means detects the posture based on a pressure applied to a seating surface on which the seated person is seated.

請求項10に係る本発明は、前記検知手段が、前記人物の表情を検知し、前記判定手段が、前記人物の表情に基づいて前記人物の疲労度合いを判定する請求項1乃至9記載の情報提供装置である。   The present invention according to claim 10 is the information according to any one of claims 1 to 9, wherein the detection means detects the facial expression of the person, and the determination means determines the degree of fatigue of the person based on the facial expression of the person. It is a providing device.

請求項11に係る本発明は、前記情報提供手段により提供される情報を人物ごとに記憶する情報記憶手段をさらに有し、前記情報提供手段が、前記人物に応じた情報を提供する請求項1乃至10いずれか記載の情報提供装置である。   The present invention according to claim 11 further comprises information storage means for storing information provided by the information providing means for each person, and the information providing means provides information according to the person. The information providing apparatus according to any one of 10 to 10.

請求項12に係る本発明は、人物の状態を検知する検知手段と、前記検知手段により検知された状態に基づいて、前記人物の疲労度合いを判定する判定手段と、前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定手段と、前記時期決定手段により決定された時期に、前記人物に知覚される情報を提供する情報提供手段とを有する情報提供装置である。   According to a twelfth aspect of the present invention, the detection means for detecting the state of the person, the determination means for determining the degree of fatigue of the person based on the state detected by the detection means, and the determination means Time determination means for determining a provision time of information to be provided to the person when the degree of fatigue of the person satisfies a predetermined fatigue degree criterion; and the time determined by the time determination means; And an information providing device that provides information perceived by the user.

請求項13に係る本発明は、人物の状態を検知する検知ステップと、前記検知ステップで検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供ステップとをコンピュータに実行させるプログラムである。   According to a thirteenth aspect of the present invention, the degree of fatigue of the person is determined based on a detection step for detecting the state of the person and a series of states of the person within a predetermined period detected in the detection step. And a step of providing an information providing step for providing information perceived by the person when the degree of fatigue of the person determined in the determination step satisfies a predetermined fatigue degree criterion. It is a program.

請求項14に係る本発明は、人物の状態を検知する検知ステップと、前記検知ステップにより検知された状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定ステップと、前記時期決定ステップで決定された時期に、前記人物に知覚される情報を提供する情報提供ステップとをコンピュータに実行させるプログラムである。   The present invention according to claim 14 is determined by the detection step of detecting the state of the person, the determination step of determining the degree of fatigue of the person based on the state detected by the detection step, and the determination step. A timing determining step for determining a provision timing of information to be provided to the person when the fatigue level of the person satisfies a predetermined fatigue criterion, and the timing determined in the timing determination step; An information providing step for providing information perceived by the computer is executed by a computer.

請求項1に係る本発明によれば、本構成を有しない場合に比較して人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる。   According to the first aspect of the present invention, it is possible to appropriately determine the person's fatigue state as compared with the case where the present configuration is not provided, and to notify that the person is in the fatigue state.

請求項2に係る本発明によれば、本構成を有しない場合に比較して人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる。   According to the second aspect of the present invention, it is possible to appropriately determine the person's fatigue state compared to the case where the present configuration is not provided, and to notify that the person is in the fatigue state.

請求項3に係る本発明によれば、所望の時期に通知することができる。   According to the present invention of claim 3, notification can be made at a desired time.

請求項4に係る本発明によれば、人物の集中具合に応じた適切な時期に通知をすることができる。   According to the fourth aspect of the present invention, notification can be made at an appropriate time according to the concentration of the person.

請求項5に係る本発明によれば、本構成を有しない場合に比較して、通知が作業の妨げとなることを抑制することができる。   According to the fifth aspect of the present invention, it is possible to suppress the notification from interfering with the work as compared with the case where the present configuration is not provided.

請求項6に係る本発明によれば、入力操作に現れる疲労を人物の疲労度合いの判定に反映させることができる。   According to the sixth aspect of the present invention, the fatigue that appears in the input operation can be reflected in the determination of the person's fatigue level.

請求項7に係る本発明によれば、人物の姿勢に現れる疲労を人物の疲労度合いの判定に反映させることができる。   According to the seventh aspect of the present invention, the fatigue that appears in the posture of the person can be reflected in the determination of the degree of fatigue of the person.

請求項8に係る本発明によれば、人物の姿勢に現れる疲労を人物の疲労度合いの判定に反映させることができる。   According to the eighth aspect of the present invention, the fatigue that appears in the posture of the person can be reflected in the determination of the degree of fatigue of the person.

請求項9に係る本発明によれば、人物の姿勢のずれが外観からは把握することが難しい場合であっても、人物の姿勢に現れる疲労を人物の疲労度合いの判定に反映させることができる。   According to the ninth aspect of the present invention, even when it is difficult to grasp the deviation of the posture of the person from the appearance, the fatigue that appears in the posture of the person can be reflected in the determination of the degree of fatigue of the person. .

請求項10に係る本発明によれば、人物の顔に現れる疲労を人物の疲労度合いの判定に反映させることができる。   According to the tenth aspect of the present invention, fatigue appearing on a person's face can be reflected in the determination of the person's degree of fatigue.

請求項11に係る本発明によれば、人物ごとに、所望の内容を提供することができる。   According to the present invention of claim 11, desired contents can be provided for each person.

請求項12に係る本発明によれば、人物が疲労状態にあることを所望の時期に通知することができる。   According to the present invention of claim 12, it is possible to notify at a desired time that a person is in a fatigued state.

請求項13に係る本発明によれば、本構成を有しない場合に比較して人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる。   According to the thirteenth aspect of the present invention, it is possible to appropriately determine the person's fatigue state as compared with the case where the present configuration is not provided, and to notify that the person is in a fatigue state.

請求項14に係る本発明によれば、人物が疲労状態にあることを所望の時期に通知することができる。   According to the present invention of claim 14, it is possible to notify at a desired time that a person is in a fatigued state.

本発明の実施形態に係る情報提供システム2の構成の一例を示す模式図である。It is a schematic diagram which shows an example of a structure of the information provision system 2 which concerns on embodiment of this invention. 本発明の実施形態に係る端末装置4のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the terminal device 4 which concerns on embodiment of this invention. プログラムが実行されることにより実現される端末装置4の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the terminal device 4 implement | achieved by running a program. 提供情報記憶部58が記憶する情報の一例を示す模式図である。It is a schematic diagram which shows an example of the information which the provision information storage part 58 memorize | stores. 疲労度の大きさごとの継続時間について説明する模式図であり、(a)は疲労度:3とされた状態の継続時間について説明する図であり、(b)は疲労度:2とされた状態の継続時間について説明する図である。It is a schematic diagram explaining the duration for every magnitude | size of a fatigue degree, (a) is a figure explaining the duration of the state made into the fatigue degree: 3, (b) was made into the fatigue degree: 2. It is a figure explaining the continuation time of a state. 人物14の姿勢と、人物14の頭部Pから第1の撮影装置6までの距離d1及び人物14の胸部Qから第1の撮影装置6までの距離d2との関係を示す模式図であり、(a)は、人物14が前のめりの姿勢の場合を示し、(b)は、人物14が背もたれた状態の姿勢を示している。It is a schematic diagram showing the relationship between the posture of the person 14 and the distance d1 from the head P of the person 14 to the first imaging device 6 and the distance d2 from the chest Q of the person 14 to the first imaging device 6. (A) shows a case where the person 14 is in a forward posture, and (b) shows a posture where the person 14 is seated. 距離d1、距離d2の差と、疲労度合いの関係とを示す表である。It is a table | surface which shows the difference of the distance d1 and the distance d2, and the relationship of the fatigue degree. 人物14の着座面にかかる圧力分布及び当該圧力分布から得られる統計量の一例を示す模式図であり、(a)は、基準姿勢の際の圧力分布及び統計量を示し、(b)は、前のめりの姿勢の際の圧力分布及び統計量を示し、(c)は、背もたれた姿勢の際の圧力分布及び統計量を示している。It is a schematic diagram which shows an example of the pressure distribution concerning the seating surface of the person 14, and the statistic obtained from the said pressure distribution, (a) shows the pressure distribution and statistic in the case of a reference posture, (b) The pressure distribution and statistic in the case of the front turning posture are shown, and (c) shows the pressure distribution and statistic in the case of the backrest posture. 判定部54が算出するずれ量について説明する表である。It is a table | surface explaining the deviation | shift amount which the determination part 54 calculates. 算出された背もたれ度合いを用いて、第2の姿勢検知部522の検知結果に基づく疲労度の判断する場合の一例を示す表である。It is a table | surface which shows an example in the case of judging the fatigue degree based on the detection result of the 2nd attitude | position detection part 522 using the calculated backrest degree. 入力操作状況検知部524の検知結果に基づく疲労度の判断の一例について説明する模式図であり、(a)は、入力量の一例を示すグラフであり、(b)は、入力量(打鍵数)に応じて入力操作状況検知部524の検知結果に基づく疲労度を判断する場合の一例を示す表である。It is a schematic diagram explaining an example of the judgment of the fatigue degree based on the detection result of the input operation state detection part 524, (a) is a graph which shows an example of input amount, (b) is input amount (number of keystrokes) Is a table showing an example of determining the degree of fatigue based on the detection result of the input operation status detection unit 524 according to (). 特定の動作の回数に応じて表情検知部526の検知結果に基づく疲労度を判断する場合の一例を示す表である。It is a table | surface which shows an example in the case of judging the fatigue degree based on the detection result of the facial expression detection part 526 according to the frequency | count of specific operation | movement. 情報提供システム2の動作について例示するフローチャートである。5 is a flowchart illustrating an operation of the information providing system 2. 情報提供システム2における事前設定処理(S10)の一例を示すフローチャートである。It is a flowchart which shows an example of the prior setting process (S10) in the information provision system 2. FIG. 情報提供システム2における情報提供処理(S20)の一例を示すフローチャートである。It is a flowchart which shows an example of the information provision process (S20) in the information provision system 2. FIG. 図15のステップ202における疲労度合いの判定動作の一例を示すフローチャートである。It is a flowchart which shows an example of the determination operation | movement of the fatigue degree in step 202 of FIG. 図15のステップ206における情報提供時期の決定動作の一例を示すフローチャートである。It is a flowchart which shows an example of the determination operation | movement of the information provision time in step 206 of FIG. 疲労度合い決定テーブルの一例を示す表である。It is a table | surface which shows an example of the fatigue degree determination table. 情報提供部56が提供する情報のメニューが予め設定された疲労度合い決定テーブルの一例を示す表である。It is a table | surface which shows an example of the fatigue degree determination table by which the menu of the information which the information provision part 56 provides is preset.

以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は、本発明の実施形態に係る情報提供システム2の構成の一例を示す模式図である。本発明の情報提供システム2は、情報提供装置として機能する端末装置4と、第1の撮影装置6と、第2の撮影装置8と、圧力測定装置10とから構成されており、第1の撮影装置6、第2の撮影装置8及び圧力測定装置10は、有線又は無線により通信可能に端末装置4に接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram illustrating an example of a configuration of an information providing system 2 according to an embodiment of the present invention. The information providing system 2 of the present invention includes a terminal device 4 that functions as an information providing device, a first imaging device 6, a second imaging device 8, and a pressure measuring device 10, and includes a first The photographing device 6, the second photographing device 8, and the pressure measuring device 10 are connected to the terminal device 4 so as to be communicable by wire or wirelessly.

端末装置4は、コンピュータとしての機能を備えた装置であり、例えば、パーソナルコンピュータであり、タブレットPC(personal computer)、PDA(Personal Digital Assistant)、スマートフォンなどであってもよい。   The terminal device 4 is a device having a function as a computer. For example, the terminal device 4 is a personal computer, and may be a tablet PC (personal computer), a PDA (Personal Digital Assistant), a smartphone, or the like.

第1の撮影装置6は、人物の姿勢を判定するために着座状態の人物を撮影するカメラである。本実施形態では、第1の撮影装置6は、距離画像センサを搭載したカメラであり、距離画像を撮影するよう構成されており、椅子12に着座した人物14を人物14の正面から撮影する。これにより、第1の撮影装置6からは撮影データとして3次元のデータが得られる。なお、本実施形態では、第1の撮影装置6は、距離画像が撮影できればよく、距離画像の撮影方式については問わない。例えば、距離画像の撮影方式としてTOF(Time Of Flight)方式であってもパターン照射方式であってもよい。   The first photographing device 6 is a camera that photographs a seated person in order to determine the posture of the person. In the present embodiment, the first photographing device 6 is a camera equipped with a distance image sensor, and is configured to photograph a distance image, and photographs the person 14 seated on the chair 12 from the front of the person 14. Thereby, three-dimensional data is obtained from the first photographing device 6 as photographing data. In the present embodiment, the first image capturing device 6 only needs to be able to capture a distance image, and the distance image capturing method does not matter. For example, the distance image capturing method may be a TOF (Time Of Flight) method or a pattern irradiation method.

第1の撮影装置6は、本実施形態では、着座状態の人物14の例えば臀部を含む上半身を撮影するよう設けられているが、撮影範囲はこれに限られない。例えば、腰部から上の身体を撮影するよう設けられていてもよいし、臀部よりも下部を含む範囲を撮影するよう設けられていてもよい。   In the present embodiment, the first photographing device 6 is provided to photograph the upper body of the seated person 14 including, for example, the buttocks, but the photographing range is not limited thereto. For example, it may be provided to photograph the body above the waist, or may be provided to photograph a range including the lower part than the buttocks.

第2の撮影装置8は、人物14の表情を判定するために人物14の顔を撮影するカメラである。本実施形態では、姿勢判定用のカメラ及び表情判定用のカメラとして、第1の撮影装置6及び第2の撮影装置8の2台のカメラを設けているが、1台のカメラにより兼用してもよい。   The second photographing device 8 is a camera that photographs the face of the person 14 in order to determine the facial expression of the person 14. In the present embodiment, two cameras, the first photographing device 6 and the second photographing device 8, are provided as the posture determination camera and the facial expression determination camera. Also good.

圧力測定装置10は、人物が着座する座面にかかる圧力を測定する測定装置である。圧力測定装置10は、例えば、シート状に構成されており、座面に敷かれ、着座により座面にかかる圧力を検知する。本実施形態では、圧力測定装置10は、椅子12の座面に設けられており、座面領域の各地点(例えば、16×16の256地点)の圧力を検知する。   The pressure measuring device 10 is a measuring device that measures pressure applied to a seating surface on which a person is seated. The pressure measuring device 10 is configured, for example, in a sheet shape, and is laid on the seat surface, and detects the pressure applied to the seat surface by sitting. In the present embodiment, the pressure measurement device 10 is provided on the seat surface of the chair 12 and detects the pressure at each point (for example, 16 × 16 256 points) in the seat surface region.

図2は、端末装置4のハードウェア構成の一例を示す図である。
端末装置4は、図2に示されるように、CPU20、メモリ22、ハードディスクドライブ(HDD)等の記憶部24、第1の撮影装置6、第2の撮影装置8及び圧力測定装置10との間でデータの送受信を無線又は有線で行う通信インタフェース(IF)26、操作者によってなされる入力を受付けるキーボード、ポインティングデバイスなどの入力受付機器と表示対象の情報を表示する表示機器とを含むユーザインタフェース(UI)部28を有し、これらの構成要素は、制御バス30を介して互いに接続されている。なお、通信IF26は、図示しないネットワークを介して、他の装置との間ともデータの送受信を行ってもよい。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the terminal device 4.
As shown in FIG. 2, the terminal device 4 includes a CPU 20, a memory 22, a storage unit 24 such as a hard disk drive (HDD), the first photographing device 6, the second photographing device 8, and the pressure measuring device 10. A user interface including a communication interface (IF) 26 for transmitting and receiving data wirelessly or by wire, an input receiving device such as a keyboard for accepting an input made by an operator, a pointing device, and a display device for displaying information to be displayed ( UI) unit 28, and these components are connected to each other via a control bus 30. Note that the communication IF 26 may transmit / receive data to / from other devices via a network (not shown).

CPU20は、メモリ22または記憶部24に格納されたプログラムに基づいて処理を実行して、端末装置4の動作を制御する。なお、本実施形態では、CPU20は、メモリ22または記憶部24内に格納されたプログラムを読み出して実行するものとして説明したが、当該プログラムをCD−ROM等の記憶媒体に格納してCPU20に提供することも可能であるし、通信IF26を介してCPU20に提供することも可能である。   The CPU 20 controls the operation of the terminal device 4 by executing processing based on a program stored in the memory 22 or the storage unit 24. In the present embodiment, the CPU 20 has been described as reading and executing a program stored in the memory 22 or the storage unit 24. However, the program is stored in a storage medium such as a CD-ROM and provided to the CPU 20. It is also possible to provide it to the CPU 20 via the communication IF 26.

図3は、プログラムが実行されることにより実現される端末装置4の機能構成を示すブロック図である。   FIG. 3 is a block diagram illustrating a functional configuration of the terminal device 4 realized by executing the program.

図3に示すように、端末装置4は、使用者認識部50と、検知部52と、判定部54と、情報提供部56と、提供情報記憶部58と、時期決定部60と、集中推定部62とを有する。   As illustrated in FIG. 3, the terminal device 4 includes a user recognition unit 50, a detection unit 52, a determination unit 54, an information provision unit 56, a provision information storage unit 58, a time determination unit 60, and a concentration estimation. Part 62.

使用者認識部50は、使用者である人物14を認識する。例えば、使用者認識部50は、人物14がUI部28を介して入力した識別情報により人物14を認識してもよいし、第1の撮影装置6又は第2の撮影装置8により撮影された撮影画像を、予め登録された画像と比較することにより人物14を認識してもよい。   The user recognition unit 50 recognizes the person 14 who is a user. For example, the user recognition unit 50 may recognize the person 14 based on the identification information input by the person 14 via the UI unit 28, or may be captured by the first imaging device 6 or the second imaging device 8. The person 14 may be recognized by comparing the captured image with a previously registered image.

検知部52は、人物14についての観測データに基づいて人物14の状態を検知する。本実施形態では、検知部52は、第1の撮影装置6による撮影データに基づいて人物14の姿勢を検知する第1の姿勢検知部520と、圧力測定装置10による測定データに基づいて人物14の姿勢を検知する第2の姿勢検知部522と、UI部28の入力受付機器を介して入力された入力データに基づいて人物14の入力操作状況を検知する入力操作状況検知部524と、第2の撮影装置8による撮影データに基づいて人物14の表情を検知する表情検知部526とを備えている。   The detection unit 52 detects the state of the person 14 based on the observation data about the person 14. In the present embodiment, the detection unit 52 includes a first posture detection unit 520 that detects the posture of the person 14 based on the shooting data obtained by the first shooting device 6, and the person 14 based on the measurement data obtained by the pressure measurement device 10. A second posture detection unit 522 that detects the posture of the person 14, an input operation status detection unit 524 that detects the input operation status of the person 14 based on input data input via the input reception device of the UI unit 28, And a facial expression detection unit 526 that detects the facial expression of the person 14 based on data captured by the second imaging device 8.

なお、以下の説明において、第1の姿勢検知部520について検知部520、第2の姿勢検知部522について検知部522、入力操作状況検知部524について検知部524、表情検知部526について検知部526と略記することがある。   In the following description, the detection unit 520 for the first posture detection unit 520, the detection unit 522 for the second posture detection unit 522, the detection unit 524 for the input operation status detection unit 524, and the detection unit 526 for the facial expression detection unit 526. May be abbreviated.

第1の姿勢検知部520は、まず、第1の撮影装置6による撮影で得られた撮影データから着座状態の人物14の身体の予め定められた部位の位置を推定する。第1の姿勢検知部520は、例えば、機械学習などにより予め人体の骨格などをモデル化しておき、第1の撮影装置6からの撮影画像にモデルをあてはめることにより、着座状態の人物14の身体の部位の位置を推定する。また、第1の姿勢検知部520は、例えば、予め定められた部位の位置情報として、人物14の頭部及び胸部の位置を推定する。   The first posture detection unit 520 first estimates the position of a predetermined part of the body of the person 14 in the seated state from shooting data obtained by shooting with the first shooting device 6. The first posture detection unit 520 models the skeleton of a human body in advance by machine learning or the like, and applies the model to a photographed image from the first photographing device 6, for example, so that the body of the person 14 in the sitting state The position of the part is estimated. Moreover, the 1st attitude | position detection part 520 estimates the position of the head and the chest of the person 14 as positional information on a predetermined part, for example.

次に、第1の姿勢検知部520は、推定された人物14の部位の位置から姿勢を判定する。例えば、第1の姿勢検知部520は、頭部及び胸部の人物14の前後方向の位置(第1の撮影装置6から人物14の頭部及び胸部までの距離)の差から、人物14の前後方向の姿勢の傾きを検知する。   Next, the first posture detection unit 520 determines the posture from the estimated position of the part of the person 14. For example, the first posture detection unit 520 determines the front and back of the person 14 based on the difference in the position of the head and chest of the person 14 in the front-rear direction (the distance from the first imaging device 6 to the head and chest of the person 14). Detect the inclination of the orientation of the direction.

第2の姿勢検知部522は、人物14が着座する座面にかかる圧力の測定データを圧力測定装置10から取得し、座面にかかる圧力に表れる人物14の姿勢状態を検知する。例えば、第2の姿勢検知部522は、座面領域上に等間隔で配列される縦16×横16の計256地点の圧力値からなる圧力分布を取得する。   The second posture detection unit 522 acquires measurement data of pressure applied to the seating surface on which the person 14 is seated from the pressure measuring device 10 and detects the posture state of the person 14 appearing in the pressure applied to the seating surface. For example, the second posture detection unit 522 acquires a pressure distribution composed of pressure values at a total of 256 points of 16 × 16 arranged in the seating area at regular intervals.

例えば、第2の姿勢検知部522は、測定データから、予め定められた統計量を算出し、算出された統計量により表される姿勢状態を検知する。具体的には、第2の姿勢検知部522は、例えば、測定データとして得た圧力分布から、平均値μ、分散σ2、ピーク値(極大値)Vp、尖度Vkを算出する。なお、これらの統計量に限らず他の統計量を用いてもよい。 For example, the second posture detection unit 522 calculates a predetermined statistic from the measurement data, and detects the posture state represented by the calculated statistic. Specifically, the second posture detection unit 522 calculates, for example, the average value μ, the variance σ 2 , the peak value (maximum value) Vp, and the kurtosis Vk from the pressure distribution obtained as measurement data. In addition, you may use not only these statistics but another statistics.

入力操作状況検知部524は、入力量に基づいて人物14の入力操作状況を検知する。入力量は、例えば、キーボードの打鍵数から判定される。なお、入力操作状況検知部524は、入力量に代えて又は入力量とともに、入力の訂正量に基づいて人物14の入力操作状況を検知してもよい。入力の訂正量は、例えば、Back spaceキーなどの削除キーの入力を検出することにより判定される。   The input operation status detection unit 524 detects the input operation status of the person 14 based on the input amount. For example, the input amount is determined from the number of keystrokes on the keyboard. Note that the input operation status detection unit 524 may detect the input operation status of the person 14 based on the input correction amount instead of or together with the input amount. The input correction amount is determined, for example, by detecting the input of a deletion key such as the Back space key.

表情検知部526は、人物14の顔の撮影画像から、人物14の顔に現れる特定の動作を検知する。具体的には、表情検知部526は、人物14のあくびを検知する。なお、特定の動作としては、あくびに限らず、まばたきや、目をこする動作などであってもよい。   The expression detection unit 526 detects a specific action appearing on the face of the person 14 from the photographed image of the face of the person 14. Specifically, the facial expression detection unit 526 detects the yawn of the person 14. The specific operation is not limited to yawning, and may be an operation of blinking or rubbing eyes.

判定部54は、検知部52により検知された状態に基づいて、人物14の疲労度合いを判定する。なお、判定部54の詳細については後述する。   The determination unit 54 determines the degree of fatigue of the person 14 based on the state detected by the detection unit 52. Details of the determination unit 54 will be described later.

情報提供部56は、判定部54により判定された疲労度合いが予め定められた疲労度合いの基準を満たす場合に、人物14に知覚される情報を提供する。情報提供部56は、例えば、音声、音楽、アラーム音、表示などにより人物14に情報を提供する。情報提供部56により提供される情報は、提供情報記憶部58に記憶されている。ここで、情報提供部56は、後述する時期決定部60により決定された時期に情報を提供する。   The information providing unit 56 provides information perceived by the person 14 when the fatigue level determined by the determination unit 54 satisfies a predetermined fatigue level standard. The information providing unit 56 provides information to the person 14 by, for example, voice, music, alarm sound, display, or the like. Information provided by the information providing unit 56 is stored in the provided information storage unit 58. Here, the information providing unit 56 provides information at a time determined by a time determining unit 60 described later.

提供情報記憶部58は、予め定められた疲労度合いに達していると判定された人物14の疲労状態を緩和するための情報内容を記憶する。提供情報記憶部58は、使用者認識部50により認識される人物ごとに、提供する情報の内容を記憶している。   The provided information storage unit 58 stores information content for alleviating the fatigue state of the person 14 determined to have reached a predetermined degree of fatigue. The provided information storage unit 58 stores the content of information to be provided for each person recognized by the user recognition unit 50.

図4は、提供情報記憶部58が記憶する情報の一例を示す模式図である。図4に示されるように、提供情報記憶部58は、例えば、複数種類のメニュー(情報種別)を記憶しており、メニューごとに、既定(デフォルト)の内容と、人物ごとに当該人物の嗜好に合わせた内容とを記憶している。これにより、例えば、Aさんについて判定部54が疲労していると判定した場合、情報提供部56は、Aさんに対応する提供内容を提供情報記憶部58から読み出して出力する。また、例えば、Xさんについて判定部54が疲労していると判定した場合において、提供情報記憶部58にXさん用の提供内容が記憶されていない場合には、既定の内容が出力される。情報提供部56は、1種類のメニューを提供してもよいし、複数種類のメニューを組み合わせて提供してもよい。   FIG. 4 is a schematic diagram illustrating an example of information stored in the provision information storage unit 58. As shown in FIG. 4, the provision information storage unit 58 stores, for example, a plurality of types of menus (information types), and for each menu, default (default) content and preference for the person for each person. It is memorized with the contents matched to. Thereby, for example, when the determination unit 54 determines that Mr. A is tired, the information providing unit 56 reads out the provision content corresponding to Mr. A from the provision information storage unit 58 and outputs it. Further, for example, when the determination unit 54 determines that Mr. X is tired, if the provision information for Mr. X is not stored in the provision information storage unit 58, the default content is output. The information providing unit 56 may provide one type of menu or a combination of a plurality of types of menus.

時期決定部60は、人物に対し情報を提供する時期を決定する。時期決定部60は、作業への人物14の集中度合いを推定する集中推定部62により推定された集中度合いに応じた時期を情報提供時期として決定する。   The time determination unit 60 determines a time for providing information to a person. The time determination unit 60 determines the time according to the concentration degree estimated by the concentration estimation unit 62 that estimates the concentration degree of the person 14 to the work as the information provision time.

具体的には、時期決定部60は、例えば、人物14が集中した状態ではないと推定される場合には、判定部54により疲労度合いが予め定められた疲労度合いの基準を満たすと判定後、即時に情報の提供を行うよう決定し、人物14が集中した状態にあると推定される場合には、予め定められた条件を満たすまで情報提供を待機するよう決定する。例えば、時期決定部60は、人物14が集中状態にあると推定される場合には、UI部28を介する入力操作が落ち着いた時期(単位時間あたりの入力量が予め定められた量以下に下がった時期)などのように、集中を妨げないと想定される時期が到来した時に情報を提供するよう決定する。   Specifically, for example, when it is estimated that the person 14 is not in a concentrated state, the time determination unit 60 determines that the fatigue level satisfies a predetermined fatigue level criterion by the determination unit 54, If it is decided to provide information immediately and it is estimated that the person 14 is concentrated, it is decided to wait for information provision until a predetermined condition is satisfied. For example, when it is estimated that the person 14 is in a concentrated state, the time determination unit 60 sets the time when the input operation via the UI unit 28 is settled (the input amount per unit time falls below a predetermined amount). When the time when it is assumed that the concentration will not be hindered is determined, as in

集中推定部62は、例えば、予め定められた時間以上同じ姿勢が継続している場合又は/及び予め定められた単位時間あたりの入力量が予め定められた時間以上継続している場合に、人物14は集中状態にあると推定し、それ以外の場合について集中状態ではないと推定する。ここで、同じ姿勢とは、姿勢の変動が予め定められた変動量以下である状態をいう。   For example, when the same posture continues for a predetermined time or / and when a predetermined input amount per unit time continues for a predetermined time or more, the concentration estimation unit 62 14 is estimated to be in a concentrated state, and is assumed not to be in a concentrated state in other cases. Here, the same posture means a state in which the posture variation is equal to or less than a predetermined variation amount.

なお、本実施形態の集中推定部62は、検知部52により検知された人物14の状態から人物14の集中度合いを推定するが、集中度合いを検知部52による検知以外の情報に基づいて推定してもよい。   The concentration estimation unit 62 of the present embodiment estimates the concentration level of the person 14 from the state of the person 14 detected by the detection unit 52, but estimates the concentration level based on information other than detection by the detection unit 52. May be.

判定部54による疲労度合いの判定について説明する。本実施形態の判定部54は、検知部52により検知された予め定められた期間(以後、判定対象期間という。)内における人物14の一連の状態に基づいて、人物14の疲労度合いを判定する。すなわち、人物14のある瞬間の状態だけで、当該人物14の疲労度合いが予め定められた基準の疲労度合いに達しているか否かを判定するのではなく、人物14の判定対象期間の一連の状態を検知部52により検知することにより当該人物14の疲労度合いが予め定められた基準の疲労度合いに達しているか否かを判定する。   The determination of the degree of fatigue by the determination unit 54 will be described. The determination unit 54 of the present embodiment determines the degree of fatigue of the person 14 based on a series of states of the person 14 within a predetermined period (hereinafter referred to as a determination target period) detected by the detection unit 52. . That is, it is not determined whether the person's 14 fatigue level has reached a predetermined standard fatigue level based on the state of the person 14 at a certain moment, but a series of states in the determination target period of the person 14. Is detected by the detection unit 52, and it is determined whether or not the fatigue level of the person 14 has reached a predetermined standard fatigue level.

具体的には、判定部54は、一例として、判定対象期間内において検知部52により検知された状態が予め定められた条件を満たす時間に基づいて、人物の疲労度合いを判定する。以下、その詳細について説明する。   Specifically, as an example, the determination unit 54 determines the degree of fatigue of a person based on a time during which a state detected by the detection unit 52 within a determination target period satisfies a predetermined condition. The details will be described below.

判定部54は、まず、第1の姿勢検知部520の検知結果から判断される疲労度と、第2の姿勢検知部522の検知結果から判断される疲労度と、入力操作状況検知部524の検知結果から判断される疲労度と、表情検知部526の検知結果から判断される疲労度とを算出する。   The determination unit 54 first determines the fatigue level determined from the detection result of the first posture detection unit 520, the fatigue level determined from the detection result of the second posture detection unit 522, and the input operation status detection unit 524. The degree of fatigue determined from the detection result and the degree of fatigue determined from the detection result of the facial expression detection unit 526 are calculated.

各疲労度は、予め定められた数の段階の疲労度のいずれかとして算出される。例えば、疲労度合いは、4段階、すなわち、疲労度:0(疲労なし)、疲労度:1(小)、疲労度:2(中)、疲労度:3(大)のいずれかとして算出される。この場合、第1の姿勢検知部520の検出結果から判断される疲労度を例に説明すると、第1の姿勢検知部520により検知された状態が、予め定められた第1の条件を満たす場合、疲労度:1と算出され、第1の姿勢検知部520により検知された状態が、予め定められた第2の条件を満たす場合、疲労度:2と算出され、第1の姿勢検知部520により検知された状態が、予め定められた第3の条件を満たす場合、疲労度:3と算出され、いずれの条件も満たさない場合、疲労度:0と算出される。なお、検知部520〜526ごとの疲労度の算出方法についての詳細は後述する。   Each fatigue degree is calculated as one of a predetermined number of stages of fatigue. For example, the degree of fatigue is calculated in one of four levels, that is, fatigue level: 0 (no fatigue), fatigue level: 1 (small), fatigue level: 2 (medium), or fatigue level: 3 (large). . In this case, when the fatigue level determined from the detection result of the first posture detection unit 520 is described as an example, the state detected by the first posture detection unit 520 satisfies a predetermined first condition. If the state detected by the first posture detection unit 520 satisfies the second predetermined condition, the fatigue level is calculated as 2, and the first posture detection unit 520 is calculated. When the condition detected by the above condition satisfies the predetermined third condition, the degree of fatigue is calculated as 3, and when neither condition is satisfied, the degree of fatigue is calculated as 0. In addition, the detail about the calculation method of the fatigue degree for every detection part 520-526 is mentioned later.

次に、判定部54は、いずれの検知部520〜526の検知結果で当該疲労度の大きさとされたかは問わず疲労度の大きさごとに、判定対象期間内における当該疲労度の大きさの状態である継続時間を求め(図5参照)、求められた継続時間に基づいて算出された値が予め定められた閾値を越えるか否かを判定する。判定部54は、予め定められた閾値を越える場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たすと判定し、予め定められた閾値以下である場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たさないと判定する。   Next, regardless of whether the detection unit 520 to 526 determines the degree of fatigue, the determination unit 54 determines the degree of fatigue within the determination target period for each degree of fatigue. The duration which is a state is calculated | required (refer FIG. 5), and it is determined whether the value calculated based on the calculated | required duration exceeds a predetermined threshold value. The determination unit 54 determines that the degree of fatigue of the person 14 satisfies a predetermined criterion for the degree of fatigue when the predetermined threshold is exceeded, and determines that the person 14 is less than or equal to the predetermined threshold. It is determined that the degree of fatigue does not satisfy a predetermined fatigue degree standard.

具体例により説明する。図5は、疲労度の大きさごとの継続時間について説明する模式図であり、図5(a)は疲労度:3とされた状態の継続時間について説明する図であり、図5(b)は疲労度:2とされた状態の継続時間について説明する図である。   A specific example will be described. FIG. 5 is a schematic diagram for explaining the duration of each fatigue level, and FIG. 5 (a) is a diagram for explaining the duration of the state where the fatigue level is 3, FIG. 5 (b). These are the figures explaining the continuation time of the state made into fatigue degree: 2.

ここでは、第1の姿勢検知部520による検知結果において判定対象期間中、疲労度:3とされた状態の時間(時間範囲)をtf1bとし、第1の姿勢検知部520による検知結果において判定対象期間中、疲労度:2とされた状態の時間(時間範囲)をtf1mとし、第1の姿勢検知部520による検知結果において判定対象期間中、疲労度:1とされた状態の時間(時間範囲)をtf1sとする。   Here, in the detection result by the first posture detection unit 520, during the determination target period, the time (time range) in which the degree of fatigue is set to 3 is tf1b, and the detection target by the first posture detection unit 520 is the determination target. During the period, the time (time range) in which the fatigue level is 2 is tf1m, and the time (time range) in which the fatigue level is 1 during the determination target period in the detection result by the first posture detection unit 520. ) Is tf1s.

同様に、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526による検知結果において判定対象期間中、疲労度:3とされた状態の時間をtf2b/tf3b/tf4bとし、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526による検知結果において判定対象期間中、疲労度:2とされた状態の時間をtf2m/tf3m/tf4mとし、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526による検知結果において判定対象期間中、疲労度:1とされた状態の時間をtf2s/tf3s/tf4sとする。   Similarly, in the detection results by the second posture detection unit 522 / input operation status detection unit 524 / expression detection unit 526, the time when the fatigue level is 3 during the determination target period is tf2b / tf3b / tf4b, In the detection result of the posture detection unit 522 / input operation state detection unit 524 / expression detection unit 526, the time when the fatigue level is set to 2 during the determination target period is tf2m / tf3m / tf4m, and the second posture detection In the detection result by the unit 522 / input operation state detection unit 524 / expression detection unit 526, the time when the fatigue level is 1 during the determination target period is defined as tf2s / tf3s / tf4s.

判定部54は、現在時刻までの予め定められた期間である判定対象期間(図5の例では、10秒)における各検知部520〜526の検知結果に基づいて、人物14の疲労状態が予め定められた基準を満たすか否かを判定する。ここでは、図5(a)に示されるように、第1の姿勢検知部520の検知結果で疲労度:3とされた状態の判定対象期間内の時間tf1bは、5秒である。なお、第1の姿勢検知部520の検知結果で疲労度:3とされた状態は、判定対象期間以前から継続しているが、判定対象期間内の時間は5秒であるのでtf1b=5秒となる。同様に、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526の検知結果で疲労度:3とされた状態の判定対象期間内の時間tf2b/tf3b/tf4bは、2秒/2秒/2秒である。なお、図5(a)の矢印で示されているように、各検知部520〜526で、疲労度:3とされた状態である時間範囲の長さ及び位置は、同じとは限らない。   Based on the detection results of the detection units 520 to 526 in the determination target period (in the example of FIG. 5, 10 seconds) that is a predetermined period until the current time, the determination unit 54 determines whether the fatigue state of the person 14 is in advance. It is determined whether or not a predetermined standard is satisfied. Here, as shown in FIG. 5A, the time tf1b within the determination target period in which the fatigue level is set to 3 in the detection result of the first posture detection unit 520 is 5 seconds. Note that the state in which the fatigue level is 3 in the detection result of the first posture detection unit 520 continues from before the determination target period, but since the time in the determination target period is 5 seconds, tf1b = 5 seconds. It becomes. Similarly, the time tf2b / tf3b / tf4b within the determination target period in the state where the fatigue level is 3 based on the detection results of the second posture detection unit 522 / input operation state detection unit 524 / expression detection unit 526 is 2 seconds. / 2 seconds / 2 seconds. Note that, as indicated by the arrows in FIG. 5A, the length and position of the time range in which each of the detection units 520 to 526 is set to the fatigue level: 3 are not necessarily the same.

判定部54は、いずれの検知部520〜526の検知結果で疲労度:3とされたかは問わず、判定対象期間内における疲労度:3の状態である継続時間を求める。具体的には、以下の式(1)のように、疲労度:3である時間範囲について論理輪を計算することにより疲労度:3の継続時間Tfatig_bを求める。   The determination part 54 calculates | requires the continuation time which is the state of the fatigue degree in the determination object period: 3 irrespective of whether the detection part 520-526 was set to fatigue degree: 3. Specifically, as shown in the following formula (1), the duration Tfatig_b of the fatigue level: 3 is obtained by calculating a logical wheel for the time range where the fatigue level is 3.

Tfatig_b = tf1b ∨ tf2b ∨tf3b ∨ tf4b ・・・(1)   Tfatig_b = tf1b ∨ tf2b ∨tf3b ∨ tf4b (1)

図5(a)に示した例では、tf2bの時間範囲はtg1bの時間範囲に含まれ、tf3b及びtf4bの時間範囲は重複しているため、式(1)によりTfatig_b=7秒が得られる。   In the example shown in FIG. 5A, the time range of tf2b is included in the time range of tg1b, and the time ranges of tf3b and tf4b are overlapped, so that Tfatig_b = 7 seconds is obtained from equation (1).

同様に、判定部54は、いずれの検知部520〜526の検知結果で疲労度:2とされたかは問わず、判定対象期間内における疲労度:2の状態である継続時間を求める。具体的には、上記式(1)と同様に、以下の式(2)のように、疲労度:2である時間範囲について論理輪を計算することにより疲労度:2の継続時間Tfatig_mを求める。   Similarly, the determination part 54 calculates | requires the continuation time which is the state of the fatigue degree: 2 in the determination object period irrespective of whether the detection part 520-526 made the fatigue degree: 2. Specifically, as in the above formula (1), the duration Tfatig_m of the fatigue level: 2 is obtained by calculating a logical ring for the time range where the fatigue level is 2, as in the following formula (2). .

Tfatig_m = tf1m ∨ tf2m ∨tf3m ∨ tf4m ・・・(2)   Tfatig_m = tf1m ∨ tf2m ∨tf3m ∨ tf4m (2)

図5(b)に示した例では、式(2)によりTfatig_m=5秒が得られる。   In the example shown in FIG. 5B, Tfatig_m = 5 seconds is obtained from the equation (2).

さらに、図5において図示は省略しているが、同様に、判定部54は、いずれの検知部520〜526の検知結果で疲労度:1とされたかは問わず、判定対象期間内における疲労度:1の状態である継続時間を求める。具体的には、上記式(1)と同様に、以下の式(3)のように、疲労度:1である時間範囲について論理輪を計算することにより疲労度:1の継続時間Tfatig_sを求める。   Furthermore, although illustration is omitted in FIG. 5, similarly, the determination unit 54 determines the fatigue level within the determination target period regardless of which detection unit 520 to 526 has set the fatigue level to 1. : 1: Determine the duration of the 1 state. Specifically, as in the above formula (1), the duration Tfatig_s of the fatigue level: 1 is obtained by calculating a logical ring for the time range where the fatigue level is 1, as in the following formula (3). .

Tfatig_s = tf1s ∨ tf2s ∨tf3s ∨ tf4s ・・・(3)   Tfatig_s = tf1s ∨ tf2s ∨tf3s ∨ tf4s (3)

以上のように、Tfatig_b, Tfatig_m, Tfatig_sについて求めた後、これらについて重み付け和Jtを計算する。具体的には、以下の式(4)のようにJtを計算する。ここで、重み付け係数kb,km,ksは、各段階の疲労度をそれぞれどの程度、加味するかを調整するための係数であり、例えば、Jtの算出の際に、疲労度の段階が高いものがより寄与するよう、kb > km > ks となるよう重み付け係数は設定される。   As described above, after obtaining Tfatig_b, Tfatig_m, and Tfatig_s, the weighted sum Jt is calculated for these. Specifically, Jt is calculated as in the following formula (4). Here, the weighting coefficients kb, km, and ks are coefficients for adjusting how much the degree of fatigue is taken into account in each stage. For example, when calculating Jt, the degree of fatigue is high. The weighting coefficient is set so that kb> km> ks, so that is more contributed.

Jt = kb × Tfatig_b + km × Tfatig_m + ks × Tfatig_s ・・・(4)   Jt = kb × Tfatig_b + km × Tfatig_m + ks × Tfatig_s (4)

最後に、判定部54は、算出された重み付け和Jtが、予め定められた閾値Th_Jtを越えるか否かを判定し、越える場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たすと判定し、閾値Th_Jt以下である場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たさないと判定する。   Finally, the determination unit 54 determines whether or not the calculated weighted sum Jt exceeds a predetermined threshold Th_Jt, and if so, the fatigue level of the person 14 is a predetermined fatigue level reference. If the threshold value Th_Jt is equal to or less than the threshold value Th_Jt, it is determined that the fatigue level of the person 14 does not satisfy a predetermined fatigue level standard.

ここで、検出部520〜526の各検出結果から判定される検出部520〜526ごとの疲労度の判断手法の一例について、説明する。   Here, an example of a method for determining the degree of fatigue for each of the detection units 520 to 526 determined from the detection results of the detection units 520 to 526 will be described.

まず、第1の姿勢検知部520の検知結果に基づく疲労度の判断手法の一例について説明する。図6及び図7は、第1の姿勢検知部520の検知結果に基づく疲労度の判断手法の一例を示す模式図である。図6は、人物14の姿勢と、人物14の頭部Pから第1の撮影装置6までの距離d1及び人物14の胸部Qから第1の撮影装置6までの距離d2との関係を示す模式図である。また、図7は、距離d1、距離d2の差と、疲労度合いの関係とを示す表である。図6及び図7に示される例では、判定部54は、第1の姿勢検知部520により検知された距離d1と距離d2の差の大きさにより、第1の姿勢検知部520の検知結果に基づく疲労度の判断を行う。   First, an example of a fatigue level determination method based on the detection result of the first posture detection unit 520 will be described. 6 and 7 are schematic diagrams illustrating an example of a fatigue degree determination method based on the detection result of the first posture detection unit 520. FIG. FIG. 6 is a schematic diagram showing the relationship between the posture of the person 14 and the distance d1 from the head P of the person 14 to the first imaging device 6 and the distance d2 from the chest Q of the person 14 to the first imaging device 6. FIG. FIG. 7 is a table showing the difference between the distance d1 and the distance d2 and the relationship between the fatigue levels. In the example illustrated in FIGS. 6 and 7, the determination unit 54 determines the detection result of the first posture detection unit 520 based on the difference between the distance d1 and the distance d2 detected by the first posture detection unit 520. Based on the fatigue level judgment.

判定部54は、距離d1と距離d2との差が予め定められた閾値よりも大きい場合、人物14の姿勢が基準姿勢(この例では、d1≒d2である姿勢を基準姿勢としている)に比べて前のめりの姿勢又は背もたれた姿勢であると判定する。そして、判定部54は、この前のめり度合い又は背もたれ度合いに応じて、疲労度を判断する。すなわち、前のめり度合い又は背もたれ度合いが大きいほど、疲労度が大きいものとして判断する。   When the difference between the distance d1 and the distance d2 is larger than a predetermined threshold, the determination unit 54 compares the posture of the person 14 with a reference posture (in this example, a posture where d1≈d2 is set as a reference posture). It is determined that the posture is leaning forward or backrest. Then, the determination unit 54 determines the degree of fatigue according to the previous degree of leaning or backrest. That is, it is determined that the greater the degree of leaning or the backrest, the greater the degree of fatigue.

図7に示される例では、距離d1と距離d2との差が閾値Tha1, Tha2, Tha3(ただし、Tha1 < Tha2 < Tha3)を超えるか否かによって、前のめり度合いが判断され、疲労度が判断される。また、距離d1と距離d2との差が閾値Thb1, Thb2, Thb3(ただし、Thb1 < Thb2 < Thb3)を超えるか否かによって、背もたれ度合いが判断され、疲労度が判断される。   In the example shown in FIG. 7, the degree of leaning is determined and the degree of fatigue is determined depending on whether the difference between the distance d1 and the distance d2 exceeds the thresholds Tha1, Tha2, Tha3 (where Tha1 <Tha2 <Tha3). The Further, the degree of backrest and the degree of fatigue are determined depending on whether or not the difference between the distance d1 and the distance d2 exceeds the threshold values Thb1, Thb2, Thb3 (where Thb1 <Thb2 <Thb3).

このように、基準姿勢とのずれ度合いにより、疲労度を判断している。上記例では、基準姿勢はd1≒d2である姿勢としているが、基準姿勢はこれに限定されず、d1(d2)が、d2(d1)に対して、予め定められた長さだけ長い状態を基準姿勢としてもよい。また、上記例では、頭部と胸部の位置に基づいて姿勢を判断しているが、他の部位の位置に基づいて姿勢を判断してもよいし、人物14の部位の前後方向の位置に限らず横方向の位置に基づいて、人物14の基準姿勢からのずれを判定し、疲労度の判断をしてもよい。   Thus, the degree of fatigue is determined based on the degree of deviation from the reference posture. In the above example, the reference posture is d1≈d2, but the reference posture is not limited to this, and d1 (d2) is longer than d2 (d1) by a predetermined length. It is good also as a standard posture. In the above example, the posture is determined based on the positions of the head and the chest. However, the posture may be determined based on the position of another part, or the position of the person 14 may be determined in the front-rear direction. The fatigue level may be determined by determining the deviation of the person 14 from the reference posture based on the position in the horizontal direction.

次に、第2の姿勢検知部522の検知結果に基づく疲労度の判断手法の一例について説明する。判定部54は、例えば、第2の姿勢検知部522の検知結果として得られた人物14の着座面にかかる圧力分布の統計量と基準姿勢時の座面にかかる圧力分布の統計量とのずれ量に応じて、第2の姿勢検知部522の検知結果に基づく疲労度の判断を行う。   Next, an example of a method for determining the degree of fatigue based on the detection result of the second posture detection unit 522 will be described. The determination unit 54, for example, a deviation between a statistical value of the pressure distribution on the seating surface of the person 14 obtained as a detection result of the second posture detection unit 522 and a statistical value of the pressure distribution on the seating surface in the reference posture. The fatigue level is determined based on the detection result of the second posture detection unit 522 according to the amount.

図8は、人物14の着座面にかかる圧力分布及び当該圧力分布から得られる統計量の一例を示す模式図であり、図8(a)は、基準姿勢の際の圧力分布及び統計量を示し、図8(b)は、前のめりの姿勢の際の圧力分布及び統計量を示し、図8(c)は、背もたれた姿勢の際の圧力分布及び統計量を示している。なお、基準姿勢の際の圧力分布又は統計量は、予め登録されており、例えば記憶部24に記憶されている。   FIG. 8 is a schematic diagram showing an example of the pressure distribution on the seating surface of the person 14 and the statistics obtained from the pressure distribution, and FIG. 8A shows the pressure distribution and statistics in the reference posture. FIG. 8 (b) shows the pressure distribution and statistics in the forward leaning posture, and FIG. 8 (c) shows the pressure distribution and statistics in the backrest posture. Note that the pressure distribution or statistic in the reference posture is registered in advance, and stored in the storage unit 24, for example.

図8に示される統計量において、有効ポイント数は、圧力値が計測される全ての地点(例えば、全256地点)のうち圧力値が0ではない地点数を示している。また、平均は、有効ポイント数にカウントされた各地点の圧力値の平均値を示している。さらに、有効ポイント数にカウントされた各地点の圧力値から、分散、ピーク値、尖度が計算される。尖度は、正規化分布の場合、値は0をとり、正規化分布よりも尖っている場合にはプラスの値をとり、正規化分布よりも尖っていない場合にはマイナスの値をとる。なお、ここでは、全地点のうち圧力値が0ではない地点を対象に平均値、分散、ピーク値、尖度を算出されるが、全地点を対象にこれらが算出されてもよい。   In the statistic shown in FIG. 8, the number of effective points indicates the number of points where the pressure value is not 0 among all the points where the pressure value is measured (for example, all 256 points). Moreover, the average has shown the average value of the pressure value of each point counted by the number of effective points. Further, the variance, peak value, and kurtosis are calculated from the pressure value at each point counted as the number of effective points. The kurtosis takes a value of 0 in the case of a normalized distribution, takes a positive value if it is sharper than the normalized distribution, and takes a negative value if it is not sharper than the normalized distribution. Here, the average value, the variance, the peak value, and the kurtosis are calculated for points where the pressure value is not 0 among all points, but these may be calculated for all points.

判定部54は、これらの統計量について、第2の姿勢検知部522の検知結果として得られた人物14の着座面にかかる圧力分布の統計量と基準姿勢時の座面にかかる圧力分布の統計量とのずれ量(差分)を算出する。具体的には、例えば、図9に示されるようにずれ量(差分)を算出する。ここで、図9では、例えば、平均μのずれ量Δavgが、基準姿勢の際の平均値と判定の際の姿勢の平均値の差分の絶対値で求まることが示されている。また、他のずれ量についても、差分の絶対値により算出されることが同様に示されている。   For these statistics, the determination unit 54 calculates the statistics of the pressure distribution on the seating surface of the person 14 obtained as the detection result of the second posture detection unit 522 and the statistics of the pressure distribution on the seating surface in the reference posture. The amount of deviation (difference) from the amount is calculated. Specifically, for example, the shift amount (difference) is calculated as shown in FIG. Here, FIG. 9 shows that, for example, the deviation amount Δavg of the average μ can be obtained by the absolute value of the difference between the average value in the reference posture and the average value of the posture in the determination. It is also shown that other deviation amounts are calculated from the absolute value of the difference.

次に、判定部54は、統計量のずれ量に基づいて、基準姿勢からの前のめり度合い及び背もたれ度合いを算出する。例えば、基準の姿勢に対して、机にもたれ、又は椅子の背もたれにもたれると、圧力値の平均値は低下することが実験的に把握されている。また、前のめりの姿勢では、尖度が低下し、背もたれた姿勢では、後ろに重心が移動し、両もも付近の圧力値が低下することが実験的に把握されている。また、疲労した状態になると、ピーク値が低下することが実験的に把握されている。このような実験的に把握された結果が反映されるよう統計量のずれ量から姿勢を判断することが期待される。   Next, the determination unit 54 calculates the degree of forward leaning and the degree of backrest from the reference posture based on the statistic deviation amount. For example, it has been experimentally known that the average value of the pressure value decreases when the user leans on a desk or a chair back against a standard posture. Further, it has been experimentally known that the kurtosis decreases in the forward posture, the center of gravity moves backward in the posture of the backrest, and the pressure value in the vicinity of both of them decreases. Further, it has been experimentally understood that the peak value decreases when the tired state is reached. It is expected that the posture will be judged from the deviation amount of the statistics so that the experimentally grasped result is reflected.

ここでは、平均μのずれ量Δavg、有効ポイント数Nのずれ量ΔN、分散σ2のずれ量Δσ2、ピーク値Vpのずれ量Δpeak、尖度Vkのずれ量Δkurtを用いて、例えば、以下の式(5)により、基準姿勢からの前のめり度合いを表す評価値Kfrontを算出する。また、例えば、以下の式(6)により、基準姿勢からの背もたれ度合いを表す評価値Kbackを算出する。 Here, the average μ deviation amount Δ avg , the effective point number N deviation amount Δ N , the variance σ 2 deviation amount Δσ 2 , the peak value Vp deviation amount Δ peak , and the kurtosis Vk deviation amount Δ kurt are used. For example, an evaluation value K front that represents the degree of front turning from the reference posture is calculated by the following equation (5). Further, for example, the evaluation value K back representing the degree of backrest from the reference posture is calculated by the following equation (6).

front = kf1×Δσ2+kf2×Δpeak+kf3×Δkurt ・・・(5) K front = k f1 × Δσ 2 + k f2 × Δ peak + k f3 × Δ kurt (5)

back = kb1×Δavg+kb2×ΔN+kb3×Δσ2+kb4×Δpeak+kb5×Δkurt ・・・(6) K back = k b1 × Δ avg + k b2 × Δ N + k b3 × Δσ 2 + k b4 × Δ peak + k b5 × Δ kurt (6)

なお、kf1、kf2、kf3、kb1、kb2、kb3、kb4、kb5は、各ずれ量の評価値に対する寄与度合いを示す係数であり、例えば上記実験的に把握された事項を反映するよう設定される係数である。これの係数を調整することにより、より的確に前のめり度合い及び背もたれ度合いを評価することが期待される。 Note that k f1 , k f2 , k f3 , k b1 , k b2 , k b3 , k b4 , k b5 are coefficients indicating the degree of contribution of each deviation amount to the evaluation value, for example, obtained from the above experiment It is a coefficient set to reflect the matter. By adjusting the coefficient, it is expected to evaluate the degree of leaning and the backrest more accurately.

次に、判定部54は、背もたれ度合い又は/及び前のめり度合いに基づいて、第2の姿勢検知部522の検知結果に基づく疲労度の判断を行う。図10は、上記算出された背もたれ度合いを用いて、第2の姿勢検知部522の検知結果に基づく疲労度を判断する場合の一例を示す表である。図10に示す表において、Tbkは、人物14の姿勢が背もたれ状態である時間を示し、例えば、上記Kbackが予め定められた閾値を超えている時間として求められる。また、上述の距離d1が距離d2よりも予め定められた閾値以上に長い状態である時間として求めてもよい。なお、ThK1、ThK2は、Kbackについての閾値を示し、ThT1、ThT2は、Tbkについての閾値を示している。 Next, the determination unit 54 determines the degree of fatigue based on the detection result of the second posture detection unit 522 based on the backrest degree and / or the forward leaning degree. FIG. 10 is a table illustrating an example of determining the fatigue level based on the detection result of the second posture detection unit 522 using the calculated backrest degree. In the table shown in FIG. 10, T bk indicates a time during which the posture of the person 14 is in a backrest state, and is obtained as, for example, a time during which the K back exceeds a predetermined threshold. Moreover, you may obtain | require as time when the above-mentioned distance d1 is longer than the threshold value d2 more than a predetermined threshold value. Th K1 and Th K2 indicate threshold values for K back , and Th T1 and Th T2 indicate threshold values for T bk .

すなわち、図10に示した例では、背もたれ度合いKbackの値が閾値ThK1〜ThK2の間にあり、かつ、背もたれ状態の時間が閾値ThT1〜ThT2の間にある場合には、判定部54は、第2の姿勢検知部522の検知結果に基づく疲労度が、疲労度:1であると判断する。また、背もたれ度合いKbackの値が閾値ThK1〜ThK2の間にあり、かつ、背もたれ状態の時間が閾値ThT2以上である場合には、判定部54は、第2の姿勢検知部522の検知結果に基づく疲労度が、疲労度:2であると判断する。また、背もたれ度合いKbackの値が閾値ThK2以上であり、かつ、背もたれ状態の時間が閾値ThT1よりも大きい場合には、判定部54は、第2の姿勢検知部522の検知結果に基づく疲労度が、疲労度:3であると判断する。 That is, in the example shown in FIG. 10, when the value of the backrest degree K back is between the threshold values Th K1 to Th K2 and the time of the backrest state is between the threshold values Th T1 to Th T2 , the determination is made. The unit 54 determines that the fatigue level based on the detection result of the second posture detection unit 522 is the fatigue level: 1. When the value of the backrest degree K back is between the threshold values Th K1 to Th K2 and the time of the backrest state is equal to or greater than the threshold value Th T2 , the determination unit 54 determines whether the second posture detection unit 522 It is determined that the fatigue level based on the detection result is fatigue level: 2. When the value of the backrest degree K back is equal to or greater than the threshold value Th K2 and the time of the backrest state is greater than the threshold value Th T1 , the determination unit 54 is based on the detection result of the second posture detection unit 522. The degree of fatigue is determined to be fatigue level: 3.

なお、第2の姿勢検知部522の検知結果に基づく疲労度は、例えば、第1の撮影装置6の撮影範囲が限られており、人物14の例えば上半身全体の姿勢状態を第1の姿勢検知部520が検知できない場合に、それを補間する役目がある。   Note that the fatigue level based on the detection result of the second posture detection unit 522 is limited to, for example, the shooting range of the first shooting device 6, and the posture state of the entire upper body of the person 14, for example, is detected by the first posture detection. When the part 520 cannot be detected, it plays a role of interpolating it.

次に、入力操作状況検知部524の検知結果に基づく疲労度の判断の一例について説明する。判定部54は、入力操作状況検知部524の検知結果として得られた入力操作状況に応じて、入力操作状況検知部524の検知結果に基づく疲労度の判断を行う。図11は、入力操作状況検知部524の検知結果に基づく疲労度の判断の一例について説明する模式図であり、図11(a)は、入力量の一例を示すグラフであり、図11(b)は、入力量(打鍵数)に応じて入力操作状況検知部524の検知結果に基づく疲労度を判断する場合の一例を示す表である。   Next, an example of determination of the degree of fatigue based on the detection result of the input operation state detection unit 524 will be described. The determination unit 54 determines the degree of fatigue based on the detection result of the input operation status detection unit 524 according to the input operation status obtained as the detection result of the input operation status detection unit 524. FIG. 11 is a schematic diagram for explaining an example of determination of the degree of fatigue based on the detection result of the input operation state detection unit 524, FIG. 11A is a graph showing an example of the input amount, and FIG. ) Is a table showing an example of determining the fatigue level based on the detection result of the input operation status detection unit 524 according to the input amount (number of keystrokes).

図11では、単位時間あたりの打鍵数が少ないほど、疲労度合いが大きいと判断する場合の例を示しており、単位時間あたりの打鍵数Naが0以上ThNa1未満である場合には、疲労度:3と判断し、打鍵数NaがThNa1以上ThNa2未満である場合には、疲労度:2と判断し、打鍵数NaがThNa2以上である場合には、疲労度:1と判断している。なお、単位時間とは、判定対象期間以下の予め定められた時間をいい、ThNa1、ThNa2は、打鍵数Naについての閾値である。 In Figure 11, the fewer keystrokes per unit time, shows an example of a case where it is determined that a large degree of fatigue, when keying the number N a per unit time is less than 0 or more Th Na1 fatigue degree: 3 and determines, when the key entry number N a is less than Th Na1 than Th Na2 fatigue index: 2 and judges, when keying the number N a is Th Na2 above, fatigue: 1 Judging. The time and the unit refers to the following predetermined time determination period, Th Na1, Th Na2 is a threshold for keying the number N a.

なお、入力操作状況検知部524の検知結果に基づく疲労度の判断は、入力の訂正量に基づいて行われてもよい。例えば、単位時間あたりの訂正量が多いほど、疲労度合いが大きいと判断するよう構成してもよい。   The determination of the fatigue level based on the detection result of the input operation state detection unit 524 may be performed based on the input correction amount. For example, the greater the amount of correction per unit time, the greater the degree of fatigue may be determined.

次に、表情検知部526の検知結果に基づく疲労度の判断の一例について説明する。判定部54は、表情検知部526により検知された人物14の特定の動作の回数に応じて、表情検知部526の検知結果に基づく疲労度の判断を行う。図12は、特定の動作の回数に応じて表情検知部526の検知結果に基づく疲労度を判断する場合の一例を示す表である。   Next, an example of determination of the degree of fatigue based on the detection result of the facial expression detection unit 526 will be described. The determination unit 54 determines the degree of fatigue based on the detection result of the facial expression detection unit 526 according to the number of specific movements of the person 14 detected by the facial expression detection unit 526. FIG. 12 is a table showing an example of determining the degree of fatigue based on the detection result of the facial expression detection unit 526 according to the number of specific actions.

図12では、単位時間あたりに行われる特定の動作の回数が多いほど、疲労度合いが大きいと判断する場合の例を示しており、単位時間あたりの特定動作の回数Nbが0以上ThNb1未満である場合には、疲労度:1と判断し、NbがThNb1以上ThNb2未満である場合には、疲労度:2と判断し、NbがThNb2以上である場合には、疲労度:3と判断している。なお、単位時間とは、判定対象期間以下の予め定められた時間をいい、ThNb1、ThNb2は、Nbについての閾値である。 In Figure 12, as the number of times a specific action to be performed per unit time, shows an example of a case where it is determined that a large degree of fatigue, the number N b of a particular operation per unit time is less than 0 or more Th Nb1 If it is, fatigue: 1 and determines, if N b is less than Th Nb1 than Th Nb2 fatigue index: 2 and judges, when N b is Th Nb2 or more, fatigue Degree: 3 is judged. The unit time refers to a predetermined time that is equal to or less than the determination target period, and Th Nb 1 and Th Nb 2 are threshold values for N b .

次に、情報提供システム2の動作について図13乃至図17により説明する。
図13は、情報提供システム2の動作について例示するフローチャートである。図13に示されるように、情報提供システム2は、まず、人物14への情報提供に先立って、人物14の認識、人物14における基準姿勢の登録、及び情報提供内容の登録を行う事前設定処理(S10)を行い、その後、人物14の状態を検知し、検知された状態に基づく疲労度合いの判定を行う情報提供処理(S20)を行う。
Next, the operation of the information providing system 2 will be described with reference to FIGS.
FIG. 13 is a flowchart illustrating the operation of the information providing system 2. As shown in FIG. 13, the information providing system 2 first performs prior setting processing for recognizing the person 14, registering the reference posture of the person 14, and registering the information providing content prior to providing information to the person 14. (S10) is performed, and then the state of the person 14 is detected, and an information providing process (S20) for determining the degree of fatigue based on the detected state is performed.

ここで、事前設定処理の動作の詳細について説明する。図14は、情報提供システム2における事前設定処理(S10)の一例を示すフローチャートである。   Here, the details of the operation of the pre-setting process will be described. FIG. 14 is a flowchart illustrating an example of the pre-setting process (S10) in the information providing system 2.

ステップ100(S100)において、使用者認識部50が、人物14を認識する。   In step 100 (S100), the user recognition unit 50 recognizes the person 14.

ステップ102(S102)において、基準となる姿勢で着座している人物14を第1の撮影装置6が撮影する。   In step 102 (S102), the first photographing device 6 photographs the person 14 seated in the reference posture.

ステップ104(S104)において、第1の姿勢検知部520が、ステップ102で得られた撮影データから着座状態の人物14の身体の予め定められた部位の位置として、人物14の頭部及び胸部の位置を推定する。   In step 104 (S104), the first posture detection unit 520 uses the photographing data obtained in step 102 as the position of the predetermined part of the body of the person 14 in the seated state, Estimate the position.

ステップ106(S106)において、第1の姿勢検知部520が、ステップ104で推定された位置から、人物14の姿勢の傾きを検知する。   In step 106 (S106), the first posture detection unit 520 detects the inclination of the posture of the person 14 from the position estimated in step 104.

ステップ108(S108)において、ステップ106で検知された基準となる姿勢時の姿勢の傾きデータが記憶部24に記憶される。   In step 108 (S108), posture inclination data at the time of the reference posture detected in step 106 is stored in the storage unit 24.

ステップ108(S110)において、圧力測定装置10が、基準となる姿勢での着座における座面の圧力を測定する。   In step 108 (S110), the pressure measuring device 10 measures the pressure of the seating surface in the seating in the reference posture.

ステップ112(S112)において、第2の姿勢検知部522が、ステップ110で得られた測定データから、予め定められた統計量を算出する。   In step 112 (S112), the second posture detection unit 522 calculates a predetermined statistic from the measurement data obtained in step 110.

ステップ114(S114)において、ステップ112で算出された、基準となる姿勢時の圧力分布の統計量のデータが記憶部24に記憶される。   In step 114 (S114), the statistical data of the pressure distribution in the reference posture calculated in step 112 is stored in the storage unit 24.

ステップ116(S116)において、提供情報記憶部58は、人物14に対応する提供情報の内容を記憶する。なお、人物14に対応する提供情報の内容は、例えば、人物14がUI部28を介して自らの嗜好に応じた提供内容を入力することにより設定される。   In step 116 (S116), the provision information storage unit 58 stores the contents of the provision information corresponding to the person 14. Note that the content of the provision information corresponding to the person 14 is set, for example, when the person 14 inputs the provision content according to his / her preference via the UI unit 28.

以上、事前設定処理として、撮影処理及び撮影データに基づく処理の後に、圧力の測定及び測定データに基づく処理を行い、その後に提供内容を登録する処理を行う例について示したが、これら動作の順序が逆であってもよいし、これら動作が並列に行われてもよい。   As described above, the example of performing the process of measuring the pressure and the process based on the measurement data after the imaging process and the process based on the captured data as the presetting process and then performing the process of registering the provided content has been described. May be reversed, or these operations may be performed in parallel.

なお、事前設定処理における基準姿勢のデータの登録については、ステップ20における情報提供処理における疲労度の判定対象者と同一人物に基準となる姿勢で着座面に着座してもらい、基準姿勢時のデータを取得することが好ましいが、基準姿勢時のデータは必ずしも同一人物による着座のデータでなくてもよい。また、ステップ10において人物が着座する着座面は、ステップ20において人物が着座する着座面と同じであることが好ましい。これにより、基準姿勢のデータ取得時と疲労判定時とで圧力測定装置10による測定条件を揃えることができるため、着座面の弾力性による測定への影響が抑制される。   Regarding registration of the reference posture data in the presetting process, the same person as the subject of fatigue level determination in the information providing process in step 20 is seated on the seating surface in the reference posture, and data at the reference posture is obtained. However, the data at the reference posture does not necessarily have to be data on sitting by the same person. The seating surface on which the person sits in step 10 is preferably the same as the seating surface on which the person sits in step 20. Thereby, since the measurement conditions by the pressure measuring device 10 can be made uniform at the time of data acquisition of the reference posture and at the time of fatigue determination, the influence on the measurement due to the elasticity of the seating surface is suppressed.

次に、情報提供処理の動作の詳細について説明する。図15は、情報提供システム2における情報提供処理(S20)の一例を示すフローチャートである。   Next, details of the operation of the information providing process will be described. FIG. 15 is a flowchart illustrating an example of the information providing process (S20) in the information providing system 2.

ステップ200(S200)において、検知部52が、人物14についての観測データに基づいて人物14の状態を検知する。   In step 200 (S200), the detection unit 52 detects the state of the person 14 based on the observation data about the person 14.

ステップ202(S202)において、判定部54が、ステップ200で検知された状態に基づいて、人物14の疲労度合いを判定する。なお、ステップ202における疲労度合いの判定動作については、図16により詳述する。   In step 202 (S202), the determination unit 54 determines the degree of fatigue of the person 14 based on the state detected in step 200. The fatigue level determination operation in step 202 will be described in detail with reference to FIG.

ステップ204(S204)において、判定部54は、疲労度合いが予め定められた疲労度合いの基準を満たすか否か判定し、予め定められた疲労度合いの基準を満たす場合にはステップ204へ移行し、予め定められた疲労度合いの基準を満たさない場合にはステップ214へ移行する。   In step 204 (S204), the determination unit 54 determines whether or not the degree of fatigue satisfies a predetermined fatigue degree standard. If the predetermined degree of fatigue is satisfied, the determination unit 54 proceeds to step 204. If the predetermined fatigue level criterion is not satisfied, the routine proceeds to step 214.

ステップ206(S206)において、時期決定部60が、人物14に対し情報を提供する時期を決定する。なお、時期の決定動作については、図17により詳述する。   In step 206 (S206), the time determination unit 60 determines the time for providing information to the person 14. The timing determination operation will be described in detail with reference to FIG.

ステップ208(S208)において、情報提供部56は、ステップ206で決定された時期が到来したか否かを判定し、ステップ206で決定された時期が到来するとステップ210へ移行する。   In step 208 (S208), the information providing unit 56 determines whether or not the time determined in step 206 has arrived. When the time determined in step 206 has arrived, the information providing unit 56 proceeds to step 210.

ステップ210(S210)において、情報提供部56は、人物14に提供する内容を提供情報記憶部58より読み出す。情報提供部56は、提供情報記憶部58に記憶されている提供内容のうち、人物14に対応する提供内容を読み出す。なお、情報記憶部24が複数種類のメニューからなる情報を記憶している場合には、情報提供部56は、複数メニューのうち予め設定されたもの情報を読み出す。また、判定部54により判定された疲労度合いの大きさに応じて、提供対象のメニューが選択されるよう構成されていてもよい。   In step 210 (S210), the information providing unit 56 reads the content to be provided to the person 14 from the provided information storage unit 58. The information providing unit 56 reads out the provided content corresponding to the person 14 from the provided content stored in the provided information storage unit 58. When the information storage unit 24 stores information including a plurality of types of menus, the information providing unit 56 reads information set in advance among the plurality of menus. Further, the menu to be provided may be selected according to the degree of fatigue determined by the determination unit 54.

ステップ212(S212)において、情報提供部56は、ステップ210で読み出された提供内容の情報を人物14に提供する。例えば、読み出された情報が、表示情報である場合、UI部28に表示する。また、読み出された情報が、音楽等の音情報である場合には、図示しないスピーカにより音を出力する。   In step 212 (S212), the information providing unit 56 provides the person 14 with the information on the provided content read in step 210. For example, when the read information is display information, it is displayed on the UI unit 28. Further, when the read information is sound information such as music, a sound is output from a speaker (not shown).

ステップ214(S214)において、情報提供処理を継続するか否かが判定され、継続する場合には、ステップ200へ戻り、継続しない場合には、処理を終了する。なお、情報提供処理の継続の有無は、例えば、人物14からの指示に従い決定されてもよいし、継続条件が予め設定されていてもよい。   In step 214 (S214), it is determined whether or not the information providing process is to be continued. If so, the process returns to step 200. If not, the process is terminated. Whether or not the information providing process is continued may be determined according to an instruction from the person 14, for example, or a continuation condition may be set in advance.

ここで、上記ステップ202における疲労度合いの判定動作について、フローチャートを用いてさらに説明する。図16は、ステップ202における疲労度合いの判定動作の一例を示すフローチャートである。   Here, the determination operation of the degree of fatigue in step 202 will be further described using a flowchart. FIG. 16 is a flowchart illustrating an example of the fatigue level determination operation in step 202.

ステップ2000(S2000)において、判定部54は、検知部520〜526ごとに、判定対象期間内の疲労度合いを算出する(図6〜12参照)。   In step 2000 (S2000), the determination unit 54 calculates the degree of fatigue within the determination target period for each of the detection units 520 to 526 (see FIGS. 6 to 12).

ステップ2002(S2002)において、判定部54は、疲労度合いの段階ごとに、判定対象期間内における当該段階の状態である継続時間を算出する(図5参照)。   In step 2002 (S2002), for each stage of the degree of fatigue, the determination unit 54 calculates the duration that is the state of the stage within the determination target period (see FIG. 5).

ステップ2004(S2004)において、判定部54は、ステップ2002で算出された継続時間に基づいて、人物14の疲労度合いが予め定められた疲労度合いの基準を満たすか否かを判定する。具体的には、上記式(4)を用いて、判定する。   In step 2004 (S2004), the determination unit 54 determines whether the fatigue level of the person 14 satisfies a predetermined fatigue level criterion based on the duration calculated in step 2002. Specifically, the determination is made using the above equation (4).

次に、上記ステップ206における情報提供時期の決定動作について、フローチャートを用いてさらに説明する。図17は、ステップ206における情報提供時期の決定動作の一例を示すフローチャートである。   Next, the information provision time determination operation in step 206 will be further described with reference to a flowchart. FIG. 17 is a flowchart illustrating an example of the information provision time determination operation in step 206.

ステップ2100(S2100)において、集中推定部62が、人物14が集中した状態にあるか否かを判定する。例えば、予め定められた時間以上同じ姿勢が継続し、かつ、単位時間あたりの入力量が予め定められた時間以上継続している場合に、集中推定部62は、人物14が集中状態にあると推定する。   In step 2100 (S2100), the concentration estimation unit 62 determines whether or not the person 14 is in a concentrated state. For example, when the same posture continues for a predetermined time and the input amount per unit time continues for a predetermined time or more, the concentration estimation unit 62 determines that the person 14 is in a concentrated state. presume.

ステップ2102(S2102)において、時期決定部60は、ステップ2100において、集中推定部62により人物14が集中状態にあると推定されたか否かを判定し、集中状態にあると推定されていない場合にはステップ2104へ移行し、集中状態にあると推定された場合にはステップ2106へ移行する。   In step 2102 (S2102), the time determination unit 60 determines whether or not the person 14 is estimated to be in a concentrated state in step 2100, and if it is not estimated that the person 14 is in a concentrated state. Shifts to step 2104, and shifts to step 2106 if it is estimated that the user is in a concentrated state.

ステップ2104(S2104)において、時期決定部60は、即時に情報提供を行うよう情報提供時期を決定する。   In step 2104 (S2104), the time determination unit 60 determines the information provision time so that information is immediately provided.

一方、ステップ2106(S2106)では、時期決定部60は、予め定められた条件を満たすまで情報提供を待機するよう情報提供時期を決定する。例えば、予め定められた条件として、単位時間あたりの打鍵数が予め定められた打鍵数を下回っている状態が予め定められた時間以上継続した時期を情報提供時期とする。このように時期決定部60は、人物14が集中状態にあると推定される場合には、集中を妨げないと想定される時期に情報提供を行うよう情報提供時期を決定する。   On the other hand, in step 2106 (S2106), the time determination unit 60 determines the information provision time so as to wait for information provision until a predetermined condition is satisfied. For example, as a predetermined condition, a time when the number of keystrokes per unit time is less than a predetermined number of keystrokes continues for a predetermined time or longer is set as the information provision time. As described above, when it is estimated that the person 14 is in a concentrated state, the time determination unit 60 determines the information provision time so as to provide information at a time when it is assumed that the concentration is not hindered.

なお、例えば、集中推定部62により人物14が集中状態にあると推定される状態が長期間(予め定められた期間)に亘って継続している場合又は同じ姿勢状態が長期間(予め定められた期間)に亘って継続している場合には、当該予め定められた期間を超えたタイミングを情報提供時期としてもよい。   For example, when the state in which the person 14 is estimated to be concentrated by the concentration estimating unit 62 continues for a long period (predetermined period), or the same posture state is determined for a long period (predetermined). In the case where the information provision period continues, the timing when the predetermined period is exceeded may be set as the information provision time.

以上、本発明の実施形態として、検知部52において、第1の姿勢検知部520と、第2の姿勢検知部522と、入力操作状況検知部524と、表情検知部526とが機能する例を示したが、これら検知部520〜526のうち、任意に組み合わされたもの又はいずれかのみが機能するよう構成してもよい。また、検知部52、人物14についての観測データに基づいて人物14の状態を検知すればよく、検知内容は、上記に限定されない。   As described above, as an embodiment of the present invention, in the detection unit 52, the first posture detection unit 520, the second posture detection unit 522, the input operation state detection unit 524, and the facial expression detection unit 526 function. Although shown, you may comprise so that what was combined arbitrarily or only either among these detection parts 520-526 may function. Moreover, what is necessary is just to detect the state of the person 14 based on the observation data about the detection part 52 and the person 14, and the detection content is not limited to the above.

次に、本発明の他の実施形態にかかる情報提供システム2について説明する。上記実施形態では、検知部52により検知された判定対象期間内における人物14の一連の状態に基づいて、人物14の疲労度合いを判定したが、本実施形態では、判定部54は、検知部520〜526ごとの検知結果から判断される各疲労度合いの組み合わせによって、人物14の疲労度合いを判定する。   Next, an information providing system 2 according to another embodiment of the present invention will be described. In the above embodiment, the fatigue level of the person 14 is determined based on a series of states of the person 14 within the determination target period detected by the detection unit 52. However, in the present embodiment, the determination unit 54 includes the detection unit 520. The degree of fatigue of the person 14 is determined by a combination of the levels of fatigue determined from the detection results for each of ˜526.

本実施形態にかかる判定部54では、具体的には、例えば図18に示される疲労度合い決定テーブルを備え、上述のようにして判断された各検知部に基づく疲労度合いの組み合わせに応じて人物14の疲労度合いを決定する。なお、図18に示される例では、検知部52のうち、第1の姿勢検知部520、第2の姿勢検知部522、及び入力操作状況検知部524を判定部54における判定に利用する例を示している。なお、入力操作状況検知部524に代えて、表情検知部526を用いてもよい。また、これら検知部520〜526のうち、任意に組み合わされたもの又はいずれかのみを判定部54の判定に用いてもよい。   Specifically, the determination unit 54 according to the present embodiment includes, for example, the fatigue degree determination table shown in FIG. 18, and the person 14 is selected according to the combination of the fatigue levels based on the respective detection units determined as described above. Determine the degree of fatigue. In the example illustrated in FIG. 18, the first posture detection unit 520, the second posture detection unit 522, and the input operation status detection unit 524 in the detection unit 52 are used for determination in the determination unit 54. Show. Instead of the input operation status detection unit 524, a facial expression detection unit 526 may be used. Further, among these detection units 520 to 526, any combination or only one of them may be used for determination by the determination unit 54.

図18に示した例に沿って本実施形態にかかる判定部54について説明すると、判定部54は、まず、第1の姿勢検知部520の検知結果に基づいて1〜4のいずれかの疲労度を判断し、第2の姿勢検知部522の検知結果に基づいて1〜4のいずれかの疲労度を判断し、入力操作状況検知部524の検知結果に基づいて1〜3のいずれかの疲労度を判断する。続いて、判定部54は、疲労度合い決定テーブルに従って、各検知部からの判断された疲労度の組み合わせに応じて、人物14の疲労度を一意に決定する。   The determination unit 54 according to the present embodiment will be described along the example illustrated in FIG. 18. First, the determination unit 54 is based on the detection result of the first posture detection unit 520, and the degree of fatigue is any one of 1 to 4. The fatigue level of any one of 1 to 4 is determined based on the detection result of the second posture detection unit 522, and any one of the fatigue levels of 1 to 3 based on the detection result of the input operation state detection unit 524 Judge the degree. Subsequently, the determination unit 54 uniquely determines the fatigue level of the person 14 according to the combination of the determined fatigue levels from each detection unit, according to the fatigue level determination table.

図18に示した例では、人物14の疲労度は、最終的に3段階のいずれかで判断される。すなわち、疲労度:小(図18中の「−」に対応)、疲労度:中(図18中の「○」に対応)、疲労度:大(図18中の「◎」に対応)のいずれかで判断される。   In the example shown in FIG. 18, the fatigue level of the person 14 is finally determined in one of three stages. That is, the degree of fatigue: small (corresponding to “-” in FIG. 18), the degree of fatigue: medium (corresponding to “◯” in FIG. 18), and the degree of fatigue: large (corresponding to “◎” in FIG. 18). It is judged by either.

なお、時期決定部60は、上述のように、情報提供の時期を決定してもよいが、判定部54により判定された人物14の疲労度に応じた時期を情報提供の時期としてもよい。例えば、判定部54において、疲労度:中と判定された場合には、当該疲労度が例えば2時間継続した時期を情報提供の時期とし、疲労度:大と判定された場合には、当該疲労度が例えば1時間継続した時期を情報提供の時期としてもよい。   As described above, the time determination unit 60 may determine the information provision time, but the time according to the fatigue level of the person 14 determined by the determination unit 54 may be used as the information provision time. For example, when the determination unit 54 determines that the degree of fatigue is medium, the period when the degree of fatigue has continued, for example, for 2 hours is set as the information provision time. For example, the time when the degree is continued for one hour may be set as the information provision time.

情報提供部56は、判定部54により、疲労度合いが予め定められた基準を超えると判定された場合に、情報を提供する。図18を例に説明すると、例えば、情報提供部56は、疲労度が、中又は大と判定された場合に、情報を提供する。   The information providing unit 56 provides information when the determination unit 54 determines that the degree of fatigue exceeds a predetermined standard. 18 will be described as an example. For example, the information providing unit 56 provides information when the degree of fatigue is determined to be medium or large.

なお、情報提供部56が提供する情報のメニューが、図19に示されるように、疲労度合い決定テーブルに予め設定されていてもよい。   The menu of information provided by the information providing unit 56 may be set in advance in the fatigue degree determination table as shown in FIG.

以上、本発明の実施形態について説明したが、本発明は既に述べた実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変更が可能である。例えば、第1の撮影装置6は、人物14の正面に限らず背面から撮影してもよい。また、第1の撮影装置6は、人物14の側面から撮影してもよい。また、第1の撮影装置6を、2次元画像を撮影するカメラとして構成し、姿勢を検知してもよい。   Although the embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above, and various modifications can be made without departing from the scope of the present invention. For example, the first imaging device 6 may shoot not only from the front of the person 14 but also from the back. Further, the first imaging device 6 may shoot from the side of the person 14. Alternatively, the first imaging device 6 may be configured as a camera that captures a two-dimensional image and the posture may be detected.

2 情報提供システム
4 端末装置
6 第1の撮影装置
8 第2の撮影装置
10 圧力測定装置
28 UI部
50 使用者認識部
52 検知部
54 判定部
56 情報提供部
58 提供情報記憶部
60 時期決定部
62 集中推定部
520 第1の姿勢検知部
522 第2の姿勢検知部
524 入力操作状況検知部
526 表情検知部
2 Information providing system 4 Terminal device 6 First imaging device 8 Second imaging device 10 Pressure measuring device 28 UI unit 50 User recognition unit 52 Detection unit 54 Determination unit 56 Information provision unit 58 Provision information storage unit 60 Timing determination unit 62 Concentration estimation unit 520 First posture detection unit 522 Second posture detection unit 524 Input operation status detection unit 526 Expression detection unit

Claims (14)

人物の状態を検知する検知手段と、
前記検知手段により検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定手段と、
前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供手段と
を有する情報提供装置。
Detection means for detecting the state of the person;
Determination means for determining a degree of fatigue of the person based on a series of states of the person within a predetermined period detected by the detection means;
An information providing apparatus comprising: information providing means for providing information perceived by the person when the degree of fatigue of the person determined by the determination means satisfies a predetermined fatigue degree criterion.
前記判定手段は、予め定められた期間内において前記検知手段により検知された状態が予め定められた条件を満たす時間に基づいて、前記人物の疲労度合いを判定する
請求項1記載の情報提供装置。
The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on a time in which a state detected by the detection unit within a predetermined period satisfies a predetermined condition.
前記人物に対し情報を提供する時期を決定する時期決定手段
をさらに有し、
前記情報提供手段は、前記時期決定手段により決定された時期に情報を提供する
請求項1又は2記載の情報提供装置。
Further comprising a time determining means for determining when to provide information to the person,
The information providing apparatus according to claim 1, wherein the information providing unit provides information at a time determined by the time determining unit.
作業への前記人物の集中度合いを推定する推定手段
をさらに有し、
前記時期決定手段は、前記推定手段により推定された集中度合いに応じて時期を決定する
請求項3記載の情報提供装置。
An estimation means for estimating the degree of concentration of the person in the work;
The information providing apparatus according to claim 3, wherein the time determination unit determines a time according to a concentration degree estimated by the estimation unit.
前記検知手段は、入力受付機器に対する前記人物による入力操作から前記人物の状態を検知し、
前記時期決定手段は、前記推定手段により推定された集中度合いが予め定められた集中度合い以上である場合、前記入力操作による入力量が予め定められた閾値を下回っている時期を、情報の提供時期として決定する
請求項4記載の情報提供装置。
The detection means detects the state of the person from an input operation by the person on the input receiving device,
The time determination means indicates a time when the input amount by the input operation is less than a predetermined threshold when the concentration degree estimated by the estimation means is equal to or greater than a predetermined concentration degree. The information providing apparatus according to claim 4, which is determined as
前記検知手段は、入力受付機器に対する前記人物による入力操作から前記人物の状態を検知し、
前記判定手段は、予め定められた期間内の入力操作による入力量又は入力の訂正量に基づいて前記人物の疲労度合いを判定する
請求項1乃至4いずれか記載の情報提供装置。
The detection means detects the state of the person from an input operation by the person on the input receiving device,
5. The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on an input amount or an input correction amount by an input operation within a predetermined period.
前記検知手段は、前記人物の姿勢を検知し、
前記判定手段は、前記人物の姿勢の予め登録された姿勢からのずれ量に基づいて前記人物の疲労度合いを判定する
請求項1乃至6いずれか記載の情報提供装置。
The detection means detects the posture of the person,
The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on an amount of deviation of the person's posture from a pre-registered posture.
前記検知手段は、前記人物を撮影した撮影画像に基づいて姿勢を検知する
請求項7記載の情報提供装置。
The information providing apparatus according to claim 7, wherein the detection unit detects a posture based on a photographed image obtained by photographing the person.
前記検知手段は、着座状態の前記人物が着座する座面にかかる圧力に基づいて姿勢を検知する
請求項7又は8記載の情報提供装置。
The information providing apparatus according to claim 7, wherein the detection unit detects a posture based on pressure applied to a seating surface on which the person in the sitting state is seated.
前記検知手段は、前記人物の表情を検知し、
前記判定手段は、前記人物の表情に基づいて前記人物の疲労度合いを判定する
請求項1乃至9記載の情報提供装置。
The detection means detects the facial expression of the person,
The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on the facial expression of the person.
前記情報提供手段により提供される情報を人物ごとに記憶する情報記憶手段
をさらに有し、
前記情報提供手段は、前記人物に応じた情報を提供する
請求項1乃至10いずれか記載の情報提供装置。
Information storage means for storing information provided by the information providing means for each person;
The information providing apparatus according to claim 1, wherein the information providing unit provides information according to the person.
人物の状態を検知する検知手段と、
前記検知手段により検知された状態に基づいて、前記人物の疲労度合いを判定する判定手段と、
前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定手段と、
前記時期決定手段により決定された時期に、前記人物に知覚される情報を提供する情報提供手段と
を有する情報提供装置。
Detection means for detecting the state of the person;
Determination means for determining the degree of fatigue of the person based on the state detected by the detection means;
Time determination means for determining a provision time of information to be provided to the person when the fatigue degree of the person determined by the determination means satisfies a predetermined fatigue degree criterion;
An information providing apparatus comprising: information providing means for providing information perceived by the person at a time determined by the time determining means.
人物の状態を検知する検知ステップと、
前記検知ステップで検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、
前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供ステップと
をコンピュータに実行させるプログラム。
A detection step for detecting the state of the person;
A determination step for determining a degree of fatigue of the person based on a series of states of the person within a predetermined period detected in the detection step;
A program for causing a computer to execute an information providing step of providing information perceived by the person when the degree of fatigue of the person determined in the determination step satisfies a predetermined fatigue level criterion.
人物の状態を検知する検知ステップと、
前記検知ステップにより検知された状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、
前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定ステップと、
前記時期決定ステップで決定された時期に、前記人物に知覚される情報を提供する情報提供ステップと
をコンピュータに実行させるプログラム。
A detection step for detecting the state of the person;
A determination step of determining the degree of fatigue of the person based on the state detected by the detection step;
A time determination step for determining a provision time of information to be provided to the person when the fatigue degree of the person determined in the determination step satisfies a predetermined fatigue degree criterion;
A program for causing a computer to execute an information providing step of providing information perceived by the person at a time determined in the time determining step.
JP2014025622A 2014-02-13 2014-02-13 Information providing device and program Pending JP2015150150A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014025622A JP2015150150A (en) 2014-02-13 2014-02-13 Information providing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014025622A JP2015150150A (en) 2014-02-13 2014-02-13 Information providing device and program

Publications (1)

Publication Number Publication Date
JP2015150150A true JP2015150150A (en) 2015-08-24

Family

ID=53893046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014025622A Pending JP2015150150A (en) 2014-02-13 2014-02-13 Information providing device and program

Country Status (1)

Country Link
JP (1) JP2015150150A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018089091A (en) * 2016-12-02 2018-06-14 東京電力ホールディングス株式会社 Psychological state determination device, psychological state determination method, and psychological state determination program
WO2021112096A1 (en) * 2019-12-06 2021-06-10 パナソニックIpマネジメント株式会社 Fatigue estimation system, estimation device, and fatigue estimation method
WO2021241348A1 (en) * 2020-05-28 2021-12-02 パナソニックIpマネジメント株式会社 Fatigue estimation system, fatigue estimation method, and program
JPWO2021241347A1 (en) * 2020-05-27 2021-12-02
JP2022097292A (en) * 2020-12-18 2022-06-30 ヤフー株式会社 Information processing device, information processing method, and information processing program
WO2023238574A1 (en) * 2022-06-09 2023-12-14 株式会社村田製作所 Fatigue stress analysis device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62119903U (en) * 1986-01-21 1987-07-30
JP2000099441A (en) * 1998-09-25 2000-04-07 Fujitsu Ltd Device and method for controlling and presenting information
JP2003070768A (en) * 2001-08-31 2003-03-11 Itoki Crebio Corp System for detecting posture of vdt worker
JP2004504684A (en) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド Face image processing system
JP2007143913A (en) * 2005-11-29 2007-06-14 Seiko Epson Corp Degree-of-fatigue monitoring system, degree-of-fatigue monitoring program, recording medium, and degree-of-fatigue monitoring method
WO2007138930A1 (en) * 2006-05-29 2007-12-06 Sharp Kabushiki Kaisha Fatigue estimation device and electronic apparatus having the fatigue estimation device mounted thereon
JP2009166783A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Symptom inference device
WO2013172173A1 (en) * 2012-05-18 2013-11-21 日産自動車株式会社 Driving assistance device and road map information building method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62119903U (en) * 1986-01-21 1987-07-30
JP2000099441A (en) * 1998-09-25 2000-04-07 Fujitsu Ltd Device and method for controlling and presenting information
JP2004504684A (en) * 2000-07-24 2004-02-12 シーイング・マシーンズ・プロプライエタリー・リミテッド Face image processing system
JP2003070768A (en) * 2001-08-31 2003-03-11 Itoki Crebio Corp System for detecting posture of vdt worker
JP2007143913A (en) * 2005-11-29 2007-06-14 Seiko Epson Corp Degree-of-fatigue monitoring system, degree-of-fatigue monitoring program, recording medium, and degree-of-fatigue monitoring method
WO2007138930A1 (en) * 2006-05-29 2007-12-06 Sharp Kabushiki Kaisha Fatigue estimation device and electronic apparatus having the fatigue estimation device mounted thereon
JP2009166783A (en) * 2008-01-18 2009-07-30 Toyota Motor Corp Symptom inference device
WO2013172173A1 (en) * 2012-05-18 2013-11-21 日産自動車株式会社 Driving assistance device and road map information building method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018089091A (en) * 2016-12-02 2018-06-14 東京電力ホールディングス株式会社 Psychological state determination device, psychological state determination method, and psychological state determination program
WO2021112096A1 (en) * 2019-12-06 2021-06-10 パナソニックIpマネジメント株式会社 Fatigue estimation system, estimation device, and fatigue estimation method
JPWO2021112096A1 (en) * 2019-12-06 2021-06-10
JP7133779B2 (en) 2019-12-06 2022-09-09 パナソニックIpマネジメント株式会社 Fatigue estimation system, estimation device, and fatigue estimation method
JPWO2021241347A1 (en) * 2020-05-27 2021-12-02
WO2021241347A1 (en) * 2020-05-27 2021-12-02 パナソニックIpマネジメント株式会社 Fatigue inference system, fatigue inference method, and program
JP7398646B2 (en) 2020-05-27 2023-12-15 パナソニックIpマネジメント株式会社 Fatigue estimation system, fatigue estimation method, and program
WO2021241348A1 (en) * 2020-05-28 2021-12-02 パナソニックIpマネジメント株式会社 Fatigue estimation system, fatigue estimation method, and program
JP2022097292A (en) * 2020-12-18 2022-06-30 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP7110314B2 (en) 2020-12-18 2022-08-01 ヤフー株式会社 Information processing device, information processing method, and information processing program
WO2023238574A1 (en) * 2022-06-09 2023-12-14 株式会社村田製作所 Fatigue stress analysis device

Similar Documents

Publication Publication Date Title
JP2015150150A (en) Information providing device and program
US9607439B2 (en) Information processing apparatus and information processing method
CN105283129B (en) Information processor, information processing method
KR101868597B1 (en) Apparatus and method for assisting in positioning user`s posture
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
JP6343916B2 (en) Posture determination device, posture determination system, and program
WO2016143641A1 (en) Posture detection device and posture detection method
JP6717235B2 (en) Monitoring support system and control method thereof
JP2016104074A (en) Posture determination device, posture determination system, and program
CA2794659A1 (en) Apparatus and method for iris recognition using multiple iris templates
US20160278683A1 (en) Standing position evaluation apparatus, standing position evaluation method, and non-transitory computer readable medium
JP7094814B2 (en) Detection system and detection method
CN111160088A (en) VR (virtual reality) somatosensory data detection method and device, computer equipment and storage medium
JP2013228930A5 (en)
US20140240222A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
EP3164055A1 (en) Eye condition determination system
JP2008146583A (en) Attitude detector and behavior detector
JP2015109915A (en) Posture estimation device, method, and program
JPWO2011086803A1 (en) Image collation system, image collation method, computer program
JP6276456B1 (en) Method and system for evaluating user posture
JP6971582B2 (en) Status detector, status detection method, and program
JP2010157850A5 (en)
TWM537281U (en) Fall detection system
Lee et al. A new posture monitoring system for preventing physical illness of smartphone users
JP2008225801A (en) Suspicious person detection system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170908