JP2015150150A - Information providing device and program - Google Patents
Information providing device and program Download PDFInfo
- Publication number
- JP2015150150A JP2015150150A JP2014025622A JP2014025622A JP2015150150A JP 2015150150 A JP2015150150 A JP 2015150150A JP 2014025622 A JP2014025622 A JP 2014025622A JP 2014025622 A JP2014025622 A JP 2014025622A JP 2015150150 A JP2015150150 A JP 2015150150A
- Authority
- JP
- Japan
- Prior art keywords
- person
- fatigue
- degree
- information
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 206
- 230000008921 facial expression Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 16
- 238000005259 measurement Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 101100369016 Dictyostelium discoideum tcea1 gene Proteins 0.000 description 2
- 206010048232 Yawning Diseases 0.000 description 2
- 238000009530 blood pressure measurement Methods 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001282135 Poromitra oscitans Species 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、情報提供装置及びプログラムに関する。 The present invention relates to an information providing apparatus and a program.
特許文献1は、操作者の顔を撮影し、該顔の画像データを出力する入力手段と、前記画像データから人の顔のモデルを作成する画像処理手段と、前記モデルを解析して操作者の疲労度を判定する疲労度判定手段と、前記疲労度に対応する応答情報を出力する出力手段と、を備えたことを特徴とする疲労緩和システムについて開示している。
特許文献2は、被測定者の上肢に装着される本体部と、前記本体部の加速度を検出するための加速度センサと、検出される加速度を処理する制御部と、を備え、前記制御部は、前記本体部を装着する被測定者の歩行または走行による移動期間において前記加速度センサから時系列の加速度を取得する加速度取得部と、取得される時系列の加速度から前記本体部の位置の変位を取得する変位取得部と、取得された前記変位と、疲労判定基準とに従って被測定者の疲労度を判定する判定部と、を含む、疲労判定装置について開示している。
特許文献3は、コスト増を抑制して運転者が疲労したか否かをより正確に判定し、また、運転者の疲労をより正確に検出することができる運転者疲労度推定装置として、連続運転時間が許容運転時間を超えると、運転者の疲労軽減措置を行う運転者疲労度推定装置において、地域ごとに高疲労地域を登録した疲労マップを記憶する疲労マップ記憶手段と、前記疲労マップを参照して決定した、高疲労地域を運転した高疲労運転時間に応じて疲労度を算出する疲労度算出手段と、前記疲労度算出手段が算出した疲労度に応じて、前記許容運転時間を変更する基準変更手段と、連続運転時間が前記許容運転時間を超えると運転者の前記疲労軽減措置を行うタイミングであると判定する判定手段と、を有することを特徴とする運転者疲労度推定装置について開示している。
本発明の目的は、人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる情報提供装置及びプログラムを提供することである。 An object of the present invention is to provide an information providing apparatus and a program capable of appropriately determining a person's fatigue state and notifying that the person is in a fatigue state.
請求項1に係る本発明は、人物の状態を検知する検知手段と、前記検知手段により検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定手段と、前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供手段とを有する情報提供装置である。
The present invention according to
請求項2に係る本発明は、前記判定手段が、予め定められた期間内において前記検知手段により検知された状態が予め定められた条件を満たす時間に基づいて、前記人物の疲労度合いを判定する請求項1記載の情報提供装置である。
According to a second aspect of the present invention, the determination means determines the degree of fatigue of the person based on a time during which a state detected by the detection means within a predetermined period satisfies a predetermined condition. An information providing apparatus according to
請求項3に係る本発明は、前記人物に対し情報を提供する時期を決定する時期決定手段をさらに有し、前記情報提供手段が、前記時期決定手段により決定された時期に情報を提供する請求項1又は2記載の情報提供装置である。
The present invention according to
請求項4に係る本発明は、作業への前記人物の集中度合いを推定する推定手段をさらに有し、前記時期決定手段が、前記推定手段により推定された集中度合いに応じて時期を決定する請求項3記載の情報提供装置である。
The present invention according to
請求項5に係る本発明は、前記検知手段が、入力受付機器に対する前記人物による入力操作から前記人物の状態を検知し、前記時期決定手段は、前記推定手段により推定された集中度合いが予め定められた集中度合い以上である場合、前記入力操作による入力量が予め定められた閾値を下回っている時期を、情報の提供時期として決定する請求項4記載の情報提供装置である。
According to a fifth aspect of the present invention, the detecting means detects the state of the person from an input operation by the person on the input receiving device, and the timing determining means determines in advance the degree of concentration estimated by the estimating means. The information providing apparatus according to
請求項6に係る本発明は、前記検知手段が、入力受付機器に対する前記人物による入力操作から前記人物の状態を検知し、前記判定手段が、予め定められた期間内の入力操作による入力量又は入力の訂正量に基づいて前記人物の疲労度合いを判定する請求項1乃至4いずれか記載の情報提供装置である。
According to a sixth aspect of the present invention, the detection means detects the state of the person from an input operation by the person on the input receiving device, and the determination means has an input amount by an input operation within a predetermined period or The information providing apparatus according to
請求項7に係る本発明は、前記検知手段が、前記人物の姿勢を検知し、前記判定手段が、前記人物の姿勢の予め登録された姿勢からのずれ量に基づいて前記人物の疲労度合いを判定する請求項1乃至6いずれか記載の情報提供装置である。
In the present invention according to
請求項8に係る本発明は、前記検知手段が、前記人物を撮影した撮影画像に基づいて姿勢を検知する請求項7記載の情報提供装置である。
The present invention according to
請求項9に係る本発明は、前記検知手段が、着座状態の前記人物が着座する座面にかかる圧力に基づいて姿勢を検知する請求項7又は8記載の情報提供装置である。
The present invention according to claim 9 is the information providing apparatus according to
請求項10に係る本発明は、前記検知手段が、前記人物の表情を検知し、前記判定手段が、前記人物の表情に基づいて前記人物の疲労度合いを判定する請求項1乃至9記載の情報提供装置である。
The present invention according to
請求項11に係る本発明は、前記情報提供手段により提供される情報を人物ごとに記憶する情報記憶手段をさらに有し、前記情報提供手段が、前記人物に応じた情報を提供する請求項1乃至10いずれか記載の情報提供装置である。 The present invention according to claim 11 further comprises information storage means for storing information provided by the information providing means for each person, and the information providing means provides information according to the person. The information providing apparatus according to any one of 10 to 10.
請求項12に係る本発明は、人物の状態を検知する検知手段と、前記検知手段により検知された状態に基づいて、前記人物の疲労度合いを判定する判定手段と、前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定手段と、前記時期決定手段により決定された時期に、前記人物に知覚される情報を提供する情報提供手段とを有する情報提供装置である。 According to a twelfth aspect of the present invention, the detection means for detecting the state of the person, the determination means for determining the degree of fatigue of the person based on the state detected by the detection means, and the determination means Time determination means for determining a provision time of information to be provided to the person when the degree of fatigue of the person satisfies a predetermined fatigue degree criterion; and the time determined by the time determination means; And an information providing device that provides information perceived by the user.
請求項13に係る本発明は、人物の状態を検知する検知ステップと、前記検知ステップで検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供ステップとをコンピュータに実行させるプログラムである。 According to a thirteenth aspect of the present invention, the degree of fatigue of the person is determined based on a detection step for detecting the state of the person and a series of states of the person within a predetermined period detected in the detection step. And a step of providing an information providing step for providing information perceived by the person when the degree of fatigue of the person determined in the determination step satisfies a predetermined fatigue degree criterion. It is a program.
請求項14に係る本発明は、人物の状態を検知する検知ステップと、前記検知ステップにより検知された状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定ステップと、前記時期決定ステップで決定された時期に、前記人物に知覚される情報を提供する情報提供ステップとをコンピュータに実行させるプログラムである。
The present invention according to
請求項1に係る本発明によれば、本構成を有しない場合に比較して人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる。 According to the first aspect of the present invention, it is possible to appropriately determine the person's fatigue state as compared with the case where the present configuration is not provided, and to notify that the person is in the fatigue state.
請求項2に係る本発明によれば、本構成を有しない場合に比較して人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる。 According to the second aspect of the present invention, it is possible to appropriately determine the person's fatigue state compared to the case where the present configuration is not provided, and to notify that the person is in the fatigue state.
請求項3に係る本発明によれば、所望の時期に通知することができる。
According to the present invention of
請求項4に係る本発明によれば、人物の集中具合に応じた適切な時期に通知をすることができる。 According to the fourth aspect of the present invention, notification can be made at an appropriate time according to the concentration of the person.
請求項5に係る本発明によれば、本構成を有しない場合に比較して、通知が作業の妨げとなることを抑制することができる。 According to the fifth aspect of the present invention, it is possible to suppress the notification from interfering with the work as compared with the case where the present configuration is not provided.
請求項6に係る本発明によれば、入力操作に現れる疲労を人物の疲労度合いの判定に反映させることができる。 According to the sixth aspect of the present invention, the fatigue that appears in the input operation can be reflected in the determination of the person's fatigue level.
請求項7に係る本発明によれば、人物の姿勢に現れる疲労を人物の疲労度合いの判定に反映させることができる。 According to the seventh aspect of the present invention, the fatigue that appears in the posture of the person can be reflected in the determination of the degree of fatigue of the person.
請求項8に係る本発明によれば、人物の姿勢に現れる疲労を人物の疲労度合いの判定に反映させることができる。 According to the eighth aspect of the present invention, the fatigue that appears in the posture of the person can be reflected in the determination of the degree of fatigue of the person.
請求項9に係る本発明によれば、人物の姿勢のずれが外観からは把握することが難しい場合であっても、人物の姿勢に現れる疲労を人物の疲労度合いの判定に反映させることができる。 According to the ninth aspect of the present invention, even when it is difficult to grasp the deviation of the posture of the person from the appearance, the fatigue that appears in the posture of the person can be reflected in the determination of the degree of fatigue of the person. .
請求項10に係る本発明によれば、人物の顔に現れる疲労を人物の疲労度合いの判定に反映させることができる。 According to the tenth aspect of the present invention, fatigue appearing on a person's face can be reflected in the determination of the person's degree of fatigue.
請求項11に係る本発明によれば、人物ごとに、所望の内容を提供することができる。 According to the present invention of claim 11, desired contents can be provided for each person.
請求項12に係る本発明によれば、人物が疲労状態にあることを所望の時期に通知することができる。
According to the present invention of
請求項13に係る本発明によれば、本構成を有しない場合に比較して人物の疲労状態を適切に判断し、人物が疲労状態にあることを通知することができる。 According to the thirteenth aspect of the present invention, it is possible to appropriately determine the person's fatigue state as compared with the case where the present configuration is not provided, and to notify that the person is in a fatigue state.
請求項14に係る本発明によれば、人物が疲労状態にあることを所望の時期に通知することができる。
According to the present invention of
以下、本発明の実施形態について図面を参照して詳細に説明する。
図1は、本発明の実施形態に係る情報提供システム2の構成の一例を示す模式図である。本発明の情報提供システム2は、情報提供装置として機能する端末装置4と、第1の撮影装置6と、第2の撮影装置8と、圧力測定装置10とから構成されており、第1の撮影装置6、第2の撮影装置8及び圧力測定装置10は、有線又は無線により通信可能に端末装置4に接続されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram illustrating an example of a configuration of an
端末装置4は、コンピュータとしての機能を備えた装置であり、例えば、パーソナルコンピュータであり、タブレットPC(personal computer)、PDA(Personal Digital Assistant)、スマートフォンなどであってもよい。
The
第1の撮影装置6は、人物の姿勢を判定するために着座状態の人物を撮影するカメラである。本実施形態では、第1の撮影装置6は、距離画像センサを搭載したカメラであり、距離画像を撮影するよう構成されており、椅子12に着座した人物14を人物14の正面から撮影する。これにより、第1の撮影装置6からは撮影データとして3次元のデータが得られる。なお、本実施形態では、第1の撮影装置6は、距離画像が撮影できればよく、距離画像の撮影方式については問わない。例えば、距離画像の撮影方式としてTOF(Time Of Flight)方式であってもパターン照射方式であってもよい。
The first photographing
第1の撮影装置6は、本実施形態では、着座状態の人物14の例えば臀部を含む上半身を撮影するよう設けられているが、撮影範囲はこれに限られない。例えば、腰部から上の身体を撮影するよう設けられていてもよいし、臀部よりも下部を含む範囲を撮影するよう設けられていてもよい。
In the present embodiment, the first photographing
第2の撮影装置8は、人物14の表情を判定するために人物14の顔を撮影するカメラである。本実施形態では、姿勢判定用のカメラ及び表情判定用のカメラとして、第1の撮影装置6及び第2の撮影装置8の2台のカメラを設けているが、1台のカメラにより兼用してもよい。
The second photographing
圧力測定装置10は、人物が着座する座面にかかる圧力を測定する測定装置である。圧力測定装置10は、例えば、シート状に構成されており、座面に敷かれ、着座により座面にかかる圧力を検知する。本実施形態では、圧力測定装置10は、椅子12の座面に設けられており、座面領域の各地点(例えば、16×16の256地点)の圧力を検知する。
The
図2は、端末装置4のハードウェア構成の一例を示す図である。
端末装置4は、図2に示されるように、CPU20、メモリ22、ハードディスクドライブ(HDD)等の記憶部24、第1の撮影装置6、第2の撮影装置8及び圧力測定装置10との間でデータの送受信を無線又は有線で行う通信インタフェース(IF)26、操作者によってなされる入力を受付けるキーボード、ポインティングデバイスなどの入力受付機器と表示対象の情報を表示する表示機器とを含むユーザインタフェース(UI)部28を有し、これらの構成要素は、制御バス30を介して互いに接続されている。なお、通信IF26は、図示しないネットワークを介して、他の装置との間ともデータの送受信を行ってもよい。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the
As shown in FIG. 2, the
CPU20は、メモリ22または記憶部24に格納されたプログラムに基づいて処理を実行して、端末装置4の動作を制御する。なお、本実施形態では、CPU20は、メモリ22または記憶部24内に格納されたプログラムを読み出して実行するものとして説明したが、当該プログラムをCD−ROM等の記憶媒体に格納してCPU20に提供することも可能であるし、通信IF26を介してCPU20に提供することも可能である。
The
図3は、プログラムが実行されることにより実現される端末装置4の機能構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a functional configuration of the
図3に示すように、端末装置4は、使用者認識部50と、検知部52と、判定部54と、情報提供部56と、提供情報記憶部58と、時期決定部60と、集中推定部62とを有する。
As illustrated in FIG. 3, the
使用者認識部50は、使用者である人物14を認識する。例えば、使用者認識部50は、人物14がUI部28を介して入力した識別情報により人物14を認識してもよいし、第1の撮影装置6又は第2の撮影装置8により撮影された撮影画像を、予め登録された画像と比較することにより人物14を認識してもよい。
The
検知部52は、人物14についての観測データに基づいて人物14の状態を検知する。本実施形態では、検知部52は、第1の撮影装置6による撮影データに基づいて人物14の姿勢を検知する第1の姿勢検知部520と、圧力測定装置10による測定データに基づいて人物14の姿勢を検知する第2の姿勢検知部522と、UI部28の入力受付機器を介して入力された入力データに基づいて人物14の入力操作状況を検知する入力操作状況検知部524と、第2の撮影装置8による撮影データに基づいて人物14の表情を検知する表情検知部526とを備えている。
The
なお、以下の説明において、第1の姿勢検知部520について検知部520、第2の姿勢検知部522について検知部522、入力操作状況検知部524について検知部524、表情検知部526について検知部526と略記することがある。
In the following description, the
第1の姿勢検知部520は、まず、第1の撮影装置6による撮影で得られた撮影データから着座状態の人物14の身体の予め定められた部位の位置を推定する。第1の姿勢検知部520は、例えば、機械学習などにより予め人体の骨格などをモデル化しておき、第1の撮影装置6からの撮影画像にモデルをあてはめることにより、着座状態の人物14の身体の部位の位置を推定する。また、第1の姿勢検知部520は、例えば、予め定められた部位の位置情報として、人物14の頭部及び胸部の位置を推定する。
The first
次に、第1の姿勢検知部520は、推定された人物14の部位の位置から姿勢を判定する。例えば、第1の姿勢検知部520は、頭部及び胸部の人物14の前後方向の位置(第1の撮影装置6から人物14の頭部及び胸部までの距離)の差から、人物14の前後方向の姿勢の傾きを検知する。
Next, the first
第2の姿勢検知部522は、人物14が着座する座面にかかる圧力の測定データを圧力測定装置10から取得し、座面にかかる圧力に表れる人物14の姿勢状態を検知する。例えば、第2の姿勢検知部522は、座面領域上に等間隔で配列される縦16×横16の計256地点の圧力値からなる圧力分布を取得する。
The second
例えば、第2の姿勢検知部522は、測定データから、予め定められた統計量を算出し、算出された統計量により表される姿勢状態を検知する。具体的には、第2の姿勢検知部522は、例えば、測定データとして得た圧力分布から、平均値μ、分散σ2、ピーク値(極大値)Vp、尖度Vkを算出する。なお、これらの統計量に限らず他の統計量を用いてもよい。
For example, the second
入力操作状況検知部524は、入力量に基づいて人物14の入力操作状況を検知する。入力量は、例えば、キーボードの打鍵数から判定される。なお、入力操作状況検知部524は、入力量に代えて又は入力量とともに、入力の訂正量に基づいて人物14の入力操作状況を検知してもよい。入力の訂正量は、例えば、Back spaceキーなどの削除キーの入力を検出することにより判定される。
The input operation status detection unit 524 detects the input operation status of the
表情検知部526は、人物14の顔の撮影画像から、人物14の顔に現れる特定の動作を検知する。具体的には、表情検知部526は、人物14のあくびを検知する。なお、特定の動作としては、あくびに限らず、まばたきや、目をこする動作などであってもよい。
The
判定部54は、検知部52により検知された状態に基づいて、人物14の疲労度合いを判定する。なお、判定部54の詳細については後述する。
The
情報提供部56は、判定部54により判定された疲労度合いが予め定められた疲労度合いの基準を満たす場合に、人物14に知覚される情報を提供する。情報提供部56は、例えば、音声、音楽、アラーム音、表示などにより人物14に情報を提供する。情報提供部56により提供される情報は、提供情報記憶部58に記憶されている。ここで、情報提供部56は、後述する時期決定部60により決定された時期に情報を提供する。
The
提供情報記憶部58は、予め定められた疲労度合いに達していると判定された人物14の疲労状態を緩和するための情報内容を記憶する。提供情報記憶部58は、使用者認識部50により認識される人物ごとに、提供する情報の内容を記憶している。
The provided
図4は、提供情報記憶部58が記憶する情報の一例を示す模式図である。図4に示されるように、提供情報記憶部58は、例えば、複数種類のメニュー(情報種別)を記憶しており、メニューごとに、既定(デフォルト)の内容と、人物ごとに当該人物の嗜好に合わせた内容とを記憶している。これにより、例えば、Aさんについて判定部54が疲労していると判定した場合、情報提供部56は、Aさんに対応する提供内容を提供情報記憶部58から読み出して出力する。また、例えば、Xさんについて判定部54が疲労していると判定した場合において、提供情報記憶部58にXさん用の提供内容が記憶されていない場合には、既定の内容が出力される。情報提供部56は、1種類のメニューを提供してもよいし、複数種類のメニューを組み合わせて提供してもよい。
FIG. 4 is a schematic diagram illustrating an example of information stored in the provision
時期決定部60は、人物に対し情報を提供する時期を決定する。時期決定部60は、作業への人物14の集中度合いを推定する集中推定部62により推定された集中度合いに応じた時期を情報提供時期として決定する。
The
具体的には、時期決定部60は、例えば、人物14が集中した状態ではないと推定される場合には、判定部54により疲労度合いが予め定められた疲労度合いの基準を満たすと判定後、即時に情報の提供を行うよう決定し、人物14が集中した状態にあると推定される場合には、予め定められた条件を満たすまで情報提供を待機するよう決定する。例えば、時期決定部60は、人物14が集中状態にあると推定される場合には、UI部28を介する入力操作が落ち着いた時期(単位時間あたりの入力量が予め定められた量以下に下がった時期)などのように、集中を妨げないと想定される時期が到来した時に情報を提供するよう決定する。
Specifically, for example, when it is estimated that the
集中推定部62は、例えば、予め定められた時間以上同じ姿勢が継続している場合又は/及び予め定められた単位時間あたりの入力量が予め定められた時間以上継続している場合に、人物14は集中状態にあると推定し、それ以外の場合について集中状態ではないと推定する。ここで、同じ姿勢とは、姿勢の変動が予め定められた変動量以下である状態をいう。
For example, when the same posture continues for a predetermined time or / and when a predetermined input amount per unit time continues for a predetermined time or more, the
なお、本実施形態の集中推定部62は、検知部52により検知された人物14の状態から人物14の集中度合いを推定するが、集中度合いを検知部52による検知以外の情報に基づいて推定してもよい。
The
判定部54による疲労度合いの判定について説明する。本実施形態の判定部54は、検知部52により検知された予め定められた期間(以後、判定対象期間という。)内における人物14の一連の状態に基づいて、人物14の疲労度合いを判定する。すなわち、人物14のある瞬間の状態だけで、当該人物14の疲労度合いが予め定められた基準の疲労度合いに達しているか否かを判定するのではなく、人物14の判定対象期間の一連の状態を検知部52により検知することにより当該人物14の疲労度合いが予め定められた基準の疲労度合いに達しているか否かを判定する。
The determination of the degree of fatigue by the
具体的には、判定部54は、一例として、判定対象期間内において検知部52により検知された状態が予め定められた条件を満たす時間に基づいて、人物の疲労度合いを判定する。以下、その詳細について説明する。
Specifically, as an example, the
判定部54は、まず、第1の姿勢検知部520の検知結果から判断される疲労度と、第2の姿勢検知部522の検知結果から判断される疲労度と、入力操作状況検知部524の検知結果から判断される疲労度と、表情検知部526の検知結果から判断される疲労度とを算出する。
The
各疲労度は、予め定められた数の段階の疲労度のいずれかとして算出される。例えば、疲労度合いは、4段階、すなわち、疲労度:0(疲労なし)、疲労度:1(小)、疲労度:2(中)、疲労度:3(大)のいずれかとして算出される。この場合、第1の姿勢検知部520の検出結果から判断される疲労度を例に説明すると、第1の姿勢検知部520により検知された状態が、予め定められた第1の条件を満たす場合、疲労度:1と算出され、第1の姿勢検知部520により検知された状態が、予め定められた第2の条件を満たす場合、疲労度:2と算出され、第1の姿勢検知部520により検知された状態が、予め定められた第3の条件を満たす場合、疲労度:3と算出され、いずれの条件も満たさない場合、疲労度:0と算出される。なお、検知部520〜526ごとの疲労度の算出方法についての詳細は後述する。
Each fatigue degree is calculated as one of a predetermined number of stages of fatigue. For example, the degree of fatigue is calculated in one of four levels, that is, fatigue level: 0 (no fatigue), fatigue level: 1 (small), fatigue level: 2 (medium), or fatigue level: 3 (large). . In this case, when the fatigue level determined from the detection result of the first
次に、判定部54は、いずれの検知部520〜526の検知結果で当該疲労度の大きさとされたかは問わず疲労度の大きさごとに、判定対象期間内における当該疲労度の大きさの状態である継続時間を求め(図5参照)、求められた継続時間に基づいて算出された値が予め定められた閾値を越えるか否かを判定する。判定部54は、予め定められた閾値を越える場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たすと判定し、予め定められた閾値以下である場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たさないと判定する。
Next, regardless of whether the
具体例により説明する。図5は、疲労度の大きさごとの継続時間について説明する模式図であり、図5(a)は疲労度:3とされた状態の継続時間について説明する図であり、図5(b)は疲労度:2とされた状態の継続時間について説明する図である。 A specific example will be described. FIG. 5 is a schematic diagram for explaining the duration of each fatigue level, and FIG. 5 (a) is a diagram for explaining the duration of the state where the fatigue level is 3, FIG. 5 (b). These are the figures explaining the continuation time of the state made into fatigue degree: 2.
ここでは、第1の姿勢検知部520による検知結果において判定対象期間中、疲労度:3とされた状態の時間(時間範囲)をtf1bとし、第1の姿勢検知部520による検知結果において判定対象期間中、疲労度:2とされた状態の時間(時間範囲)をtf1mとし、第1の姿勢検知部520による検知結果において判定対象期間中、疲労度:1とされた状態の時間(時間範囲)をtf1sとする。
Here, in the detection result by the first
同様に、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526による検知結果において判定対象期間中、疲労度:3とされた状態の時間をtf2b/tf3b/tf4bとし、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526による検知結果において判定対象期間中、疲労度:2とされた状態の時間をtf2m/tf3m/tf4mとし、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526による検知結果において判定対象期間中、疲労度:1とされた状態の時間をtf2s/tf3s/tf4sとする。
Similarly, in the detection results by the second
判定部54は、現在時刻までの予め定められた期間である判定対象期間(図5の例では、10秒)における各検知部520〜526の検知結果に基づいて、人物14の疲労状態が予め定められた基準を満たすか否かを判定する。ここでは、図5(a)に示されるように、第1の姿勢検知部520の検知結果で疲労度:3とされた状態の判定対象期間内の時間tf1bは、5秒である。なお、第1の姿勢検知部520の検知結果で疲労度:3とされた状態は、判定対象期間以前から継続しているが、判定対象期間内の時間は5秒であるのでtf1b=5秒となる。同様に、第2の姿勢検知部522/入力操作状況検知部524/表情検知部526の検知結果で疲労度:3とされた状態の判定対象期間内の時間tf2b/tf3b/tf4bは、2秒/2秒/2秒である。なお、図5(a)の矢印で示されているように、各検知部520〜526で、疲労度:3とされた状態である時間範囲の長さ及び位置は、同じとは限らない。
Based on the detection results of the
判定部54は、いずれの検知部520〜526の検知結果で疲労度:3とされたかは問わず、判定対象期間内における疲労度:3の状態である継続時間を求める。具体的には、以下の式(1)のように、疲労度:3である時間範囲について論理輪を計算することにより疲労度:3の継続時間Tfatig_bを求める。
The
Tfatig_b = tf1b ∨ tf2b ∨tf3b ∨ tf4b ・・・(1) Tfatig_b = tf1b ∨ tf2b ∨tf3b ∨ tf4b (1)
図5(a)に示した例では、tf2bの時間範囲はtg1bの時間範囲に含まれ、tf3b及びtf4bの時間範囲は重複しているため、式(1)によりTfatig_b=7秒が得られる。 In the example shown in FIG. 5A, the time range of tf2b is included in the time range of tg1b, and the time ranges of tf3b and tf4b are overlapped, so that Tfatig_b = 7 seconds is obtained from equation (1).
同様に、判定部54は、いずれの検知部520〜526の検知結果で疲労度:2とされたかは問わず、判定対象期間内における疲労度:2の状態である継続時間を求める。具体的には、上記式(1)と同様に、以下の式(2)のように、疲労度:2である時間範囲について論理輪を計算することにより疲労度:2の継続時間Tfatig_mを求める。
Similarly, the
Tfatig_m = tf1m ∨ tf2m ∨tf3m ∨ tf4m ・・・(2) Tfatig_m = tf1m ∨ tf2m ∨tf3m ∨ tf4m (2)
図5(b)に示した例では、式(2)によりTfatig_m=5秒が得られる。 In the example shown in FIG. 5B, Tfatig_m = 5 seconds is obtained from the equation (2).
さらに、図5において図示は省略しているが、同様に、判定部54は、いずれの検知部520〜526の検知結果で疲労度:1とされたかは問わず、判定対象期間内における疲労度:1の状態である継続時間を求める。具体的には、上記式(1)と同様に、以下の式(3)のように、疲労度:1である時間範囲について論理輪を計算することにより疲労度:1の継続時間Tfatig_sを求める。
Furthermore, although illustration is omitted in FIG. 5, similarly, the
Tfatig_s = tf1s ∨ tf2s ∨tf3s ∨ tf4s ・・・(3) Tfatig_s = tf1s ∨ tf2s ∨tf3s ∨ tf4s (3)
以上のように、Tfatig_b, Tfatig_m, Tfatig_sについて求めた後、これらについて重み付け和Jtを計算する。具体的には、以下の式(4)のようにJtを計算する。ここで、重み付け係数kb,km,ksは、各段階の疲労度をそれぞれどの程度、加味するかを調整するための係数であり、例えば、Jtの算出の際に、疲労度の段階が高いものがより寄与するよう、kb > km > ks となるよう重み付け係数は設定される。 As described above, after obtaining Tfatig_b, Tfatig_m, and Tfatig_s, the weighted sum Jt is calculated for these. Specifically, Jt is calculated as in the following formula (4). Here, the weighting coefficients kb, km, and ks are coefficients for adjusting how much the degree of fatigue is taken into account in each stage. For example, when calculating Jt, the degree of fatigue is high. The weighting coefficient is set so that kb> km> ks, so that is more contributed.
Jt = kb × Tfatig_b + km × Tfatig_m + ks × Tfatig_s ・・・(4) Jt = kb × Tfatig_b + km × Tfatig_m + ks × Tfatig_s (4)
最後に、判定部54は、算出された重み付け和Jtが、予め定められた閾値Th_Jtを越えるか否かを判定し、越える場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たすと判定し、閾値Th_Jt以下である場合には、人物14の疲労度合いが予め定められた疲労度合いの基準を満たさないと判定する。
Finally, the
ここで、検出部520〜526の各検出結果から判定される検出部520〜526ごとの疲労度の判断手法の一例について、説明する。
Here, an example of a method for determining the degree of fatigue for each of the
まず、第1の姿勢検知部520の検知結果に基づく疲労度の判断手法の一例について説明する。図6及び図7は、第1の姿勢検知部520の検知結果に基づく疲労度の判断手法の一例を示す模式図である。図6は、人物14の姿勢と、人物14の頭部Pから第1の撮影装置6までの距離d1及び人物14の胸部Qから第1の撮影装置6までの距離d2との関係を示す模式図である。また、図7は、距離d1、距離d2の差と、疲労度合いの関係とを示す表である。図6及び図7に示される例では、判定部54は、第1の姿勢検知部520により検知された距離d1と距離d2の差の大きさにより、第1の姿勢検知部520の検知結果に基づく疲労度の判断を行う。
First, an example of a fatigue level determination method based on the detection result of the first
判定部54は、距離d1と距離d2との差が予め定められた閾値よりも大きい場合、人物14の姿勢が基準姿勢(この例では、d1≒d2である姿勢を基準姿勢としている)に比べて前のめりの姿勢又は背もたれた姿勢であると判定する。そして、判定部54は、この前のめり度合い又は背もたれ度合いに応じて、疲労度を判断する。すなわち、前のめり度合い又は背もたれ度合いが大きいほど、疲労度が大きいものとして判断する。
When the difference between the distance d1 and the distance d2 is larger than a predetermined threshold, the
図7に示される例では、距離d1と距離d2との差が閾値Tha1, Tha2, Tha3(ただし、Tha1 < Tha2 < Tha3)を超えるか否かによって、前のめり度合いが判断され、疲労度が判断される。また、距離d1と距離d2との差が閾値Thb1, Thb2, Thb3(ただし、Thb1 < Thb2 < Thb3)を超えるか否かによって、背もたれ度合いが判断され、疲労度が判断される。 In the example shown in FIG. 7, the degree of leaning is determined and the degree of fatigue is determined depending on whether the difference between the distance d1 and the distance d2 exceeds the thresholds Tha1, Tha2, Tha3 (where Tha1 <Tha2 <Tha3). The Further, the degree of backrest and the degree of fatigue are determined depending on whether or not the difference between the distance d1 and the distance d2 exceeds the threshold values Thb1, Thb2, Thb3 (where Thb1 <Thb2 <Thb3).
このように、基準姿勢とのずれ度合いにより、疲労度を判断している。上記例では、基準姿勢はd1≒d2である姿勢としているが、基準姿勢はこれに限定されず、d1(d2)が、d2(d1)に対して、予め定められた長さだけ長い状態を基準姿勢としてもよい。また、上記例では、頭部と胸部の位置に基づいて姿勢を判断しているが、他の部位の位置に基づいて姿勢を判断してもよいし、人物14の部位の前後方向の位置に限らず横方向の位置に基づいて、人物14の基準姿勢からのずれを判定し、疲労度の判断をしてもよい。
Thus, the degree of fatigue is determined based on the degree of deviation from the reference posture. In the above example, the reference posture is d1≈d2, but the reference posture is not limited to this, and d1 (d2) is longer than d2 (d1) by a predetermined length. It is good also as a standard posture. In the above example, the posture is determined based on the positions of the head and the chest. However, the posture may be determined based on the position of another part, or the position of the
次に、第2の姿勢検知部522の検知結果に基づく疲労度の判断手法の一例について説明する。判定部54は、例えば、第2の姿勢検知部522の検知結果として得られた人物14の着座面にかかる圧力分布の統計量と基準姿勢時の座面にかかる圧力分布の統計量とのずれ量に応じて、第2の姿勢検知部522の検知結果に基づく疲労度の判断を行う。
Next, an example of a method for determining the degree of fatigue based on the detection result of the second
図8は、人物14の着座面にかかる圧力分布及び当該圧力分布から得られる統計量の一例を示す模式図であり、図8(a)は、基準姿勢の際の圧力分布及び統計量を示し、図8(b)は、前のめりの姿勢の際の圧力分布及び統計量を示し、図8(c)は、背もたれた姿勢の際の圧力分布及び統計量を示している。なお、基準姿勢の際の圧力分布又は統計量は、予め登録されており、例えば記憶部24に記憶されている。
FIG. 8 is a schematic diagram showing an example of the pressure distribution on the seating surface of the
図8に示される統計量において、有効ポイント数は、圧力値が計測される全ての地点(例えば、全256地点)のうち圧力値が0ではない地点数を示している。また、平均は、有効ポイント数にカウントされた各地点の圧力値の平均値を示している。さらに、有効ポイント数にカウントされた各地点の圧力値から、分散、ピーク値、尖度が計算される。尖度は、正規化分布の場合、値は0をとり、正規化分布よりも尖っている場合にはプラスの値をとり、正規化分布よりも尖っていない場合にはマイナスの値をとる。なお、ここでは、全地点のうち圧力値が0ではない地点を対象に平均値、分散、ピーク値、尖度を算出されるが、全地点を対象にこれらが算出されてもよい。 In the statistic shown in FIG. 8, the number of effective points indicates the number of points where the pressure value is not 0 among all the points where the pressure value is measured (for example, all 256 points). Moreover, the average has shown the average value of the pressure value of each point counted by the number of effective points. Further, the variance, peak value, and kurtosis are calculated from the pressure value at each point counted as the number of effective points. The kurtosis takes a value of 0 in the case of a normalized distribution, takes a positive value if it is sharper than the normalized distribution, and takes a negative value if it is not sharper than the normalized distribution. Here, the average value, the variance, the peak value, and the kurtosis are calculated for points where the pressure value is not 0 among all points, but these may be calculated for all points.
判定部54は、これらの統計量について、第2の姿勢検知部522の検知結果として得られた人物14の着座面にかかる圧力分布の統計量と基準姿勢時の座面にかかる圧力分布の統計量とのずれ量(差分)を算出する。具体的には、例えば、図9に示されるようにずれ量(差分)を算出する。ここで、図9では、例えば、平均μのずれ量Δavgが、基準姿勢の際の平均値と判定の際の姿勢の平均値の差分の絶対値で求まることが示されている。また、他のずれ量についても、差分の絶対値により算出されることが同様に示されている。
For these statistics, the
次に、判定部54は、統計量のずれ量に基づいて、基準姿勢からの前のめり度合い及び背もたれ度合いを算出する。例えば、基準の姿勢に対して、机にもたれ、又は椅子の背もたれにもたれると、圧力値の平均値は低下することが実験的に把握されている。また、前のめりの姿勢では、尖度が低下し、背もたれた姿勢では、後ろに重心が移動し、両もも付近の圧力値が低下することが実験的に把握されている。また、疲労した状態になると、ピーク値が低下することが実験的に把握されている。このような実験的に把握された結果が反映されるよう統計量のずれ量から姿勢を判断することが期待される。
Next, the
ここでは、平均μのずれ量Δavg、有効ポイント数Nのずれ量ΔN、分散σ2のずれ量Δσ2、ピーク値Vpのずれ量Δpeak、尖度Vkのずれ量Δkurtを用いて、例えば、以下の式(5)により、基準姿勢からの前のめり度合いを表す評価値Kfrontを算出する。また、例えば、以下の式(6)により、基準姿勢からの背もたれ度合いを表す評価値Kbackを算出する。 Here, the average μ deviation amount Δ avg , the effective point number N deviation amount Δ N , the variance σ 2 deviation amount Δσ 2 , the peak value Vp deviation amount Δ peak , and the kurtosis Vk deviation amount Δ kurt are used. For example, an evaluation value K front that represents the degree of front turning from the reference posture is calculated by the following equation (5). Further, for example, the evaluation value K back representing the degree of backrest from the reference posture is calculated by the following equation (6).
Kfront = kf1×Δσ2+kf2×Δpeak+kf3×Δkurt ・・・(5) K front = k f1 × Δσ 2 + k f2 × Δ peak + k f3 × Δ kurt (5)
Kback = kb1×Δavg+kb2×ΔN+kb3×Δσ2+kb4×Δpeak+kb5×Δkurt ・・・(6) K back = k b1 × Δ avg + k b2 × Δ N + k b3 × Δσ 2 + k b4 × Δ peak + k b5 × Δ kurt (6)
なお、kf1、kf2、kf3、kb1、kb2、kb3、kb4、kb5は、各ずれ量の評価値に対する寄与度合いを示す係数であり、例えば上記実験的に把握された事項を反映するよう設定される係数である。これの係数を調整することにより、より的確に前のめり度合い及び背もたれ度合いを評価することが期待される。 Note that k f1 , k f2 , k f3 , k b1 , k b2 , k b3 , k b4 , k b5 are coefficients indicating the degree of contribution of each deviation amount to the evaluation value, for example, obtained from the above experiment It is a coefficient set to reflect the matter. By adjusting the coefficient, it is expected to evaluate the degree of leaning and the backrest more accurately.
次に、判定部54は、背もたれ度合い又は/及び前のめり度合いに基づいて、第2の姿勢検知部522の検知結果に基づく疲労度の判断を行う。図10は、上記算出された背もたれ度合いを用いて、第2の姿勢検知部522の検知結果に基づく疲労度を判断する場合の一例を示す表である。図10に示す表において、Tbkは、人物14の姿勢が背もたれ状態である時間を示し、例えば、上記Kbackが予め定められた閾値を超えている時間として求められる。また、上述の距離d1が距離d2よりも予め定められた閾値以上に長い状態である時間として求めてもよい。なお、ThK1、ThK2は、Kbackについての閾値を示し、ThT1、ThT2は、Tbkについての閾値を示している。
Next, the
すなわち、図10に示した例では、背もたれ度合いKbackの値が閾値ThK1〜ThK2の間にあり、かつ、背もたれ状態の時間が閾値ThT1〜ThT2の間にある場合には、判定部54は、第2の姿勢検知部522の検知結果に基づく疲労度が、疲労度:1であると判断する。また、背もたれ度合いKbackの値が閾値ThK1〜ThK2の間にあり、かつ、背もたれ状態の時間が閾値ThT2以上である場合には、判定部54は、第2の姿勢検知部522の検知結果に基づく疲労度が、疲労度:2であると判断する。また、背もたれ度合いKbackの値が閾値ThK2以上であり、かつ、背もたれ状態の時間が閾値ThT1よりも大きい場合には、判定部54は、第2の姿勢検知部522の検知結果に基づく疲労度が、疲労度:3であると判断する。
That is, in the example shown in FIG. 10, when the value of the backrest degree K back is between the threshold values Th K1 to Th K2 and the time of the backrest state is between the threshold values Th T1 to Th T2 , the determination is made. The
なお、第2の姿勢検知部522の検知結果に基づく疲労度は、例えば、第1の撮影装置6の撮影範囲が限られており、人物14の例えば上半身全体の姿勢状態を第1の姿勢検知部520が検知できない場合に、それを補間する役目がある。
Note that the fatigue level based on the detection result of the second
次に、入力操作状況検知部524の検知結果に基づく疲労度の判断の一例について説明する。判定部54は、入力操作状況検知部524の検知結果として得られた入力操作状況に応じて、入力操作状況検知部524の検知結果に基づく疲労度の判断を行う。図11は、入力操作状況検知部524の検知結果に基づく疲労度の判断の一例について説明する模式図であり、図11(a)は、入力量の一例を示すグラフであり、図11(b)は、入力量(打鍵数)に応じて入力操作状況検知部524の検知結果に基づく疲労度を判断する場合の一例を示す表である。
Next, an example of determination of the degree of fatigue based on the detection result of the input operation state detection unit 524 will be described. The
図11では、単位時間あたりの打鍵数が少ないほど、疲労度合いが大きいと判断する場合の例を示しており、単位時間あたりの打鍵数Naが0以上ThNa1未満である場合には、疲労度:3と判断し、打鍵数NaがThNa1以上ThNa2未満である場合には、疲労度:2と判断し、打鍵数NaがThNa2以上である場合には、疲労度:1と判断している。なお、単位時間とは、判定対象期間以下の予め定められた時間をいい、ThNa1、ThNa2は、打鍵数Naについての閾値である。 In Figure 11, the fewer keystrokes per unit time, shows an example of a case where it is determined that a large degree of fatigue, when keying the number N a per unit time is less than 0 or more Th Na1 fatigue degree: 3 and determines, when the key entry number N a is less than Th Na1 than Th Na2 fatigue index: 2 and judges, when keying the number N a is Th Na2 above, fatigue: 1 Judging. The time and the unit refers to the following predetermined time determination period, Th Na1, Th Na2 is a threshold for keying the number N a.
なお、入力操作状況検知部524の検知結果に基づく疲労度の判断は、入力の訂正量に基づいて行われてもよい。例えば、単位時間あたりの訂正量が多いほど、疲労度合いが大きいと判断するよう構成してもよい。 The determination of the fatigue level based on the detection result of the input operation state detection unit 524 may be performed based on the input correction amount. For example, the greater the amount of correction per unit time, the greater the degree of fatigue may be determined.
次に、表情検知部526の検知結果に基づく疲労度の判断の一例について説明する。判定部54は、表情検知部526により検知された人物14の特定の動作の回数に応じて、表情検知部526の検知結果に基づく疲労度の判断を行う。図12は、特定の動作の回数に応じて表情検知部526の検知結果に基づく疲労度を判断する場合の一例を示す表である。
Next, an example of determination of the degree of fatigue based on the detection result of the facial
図12では、単位時間あたりに行われる特定の動作の回数が多いほど、疲労度合いが大きいと判断する場合の例を示しており、単位時間あたりの特定動作の回数Nbが0以上ThNb1未満である場合には、疲労度:1と判断し、NbがThNb1以上ThNb2未満である場合には、疲労度:2と判断し、NbがThNb2以上である場合には、疲労度:3と判断している。なお、単位時間とは、判定対象期間以下の予め定められた時間をいい、ThNb1、ThNb2は、Nbについての閾値である。
In Figure 12, as the number of times a specific action to be performed per unit time, shows an example of a case where it is determined that a large degree of fatigue, the number N b of a particular operation per unit time is less than 0 or more Th Nb1 If it is, fatigue: 1 and determines, if N b is less than Th Nb1 than Th Nb2 fatigue index: 2 and judges, when N b is Th Nb2 or more, fatigue Degree: 3 is judged. The unit time refers to a predetermined time that is equal to or less than the determination target period, and
次に、情報提供システム2の動作について図13乃至図17により説明する。
図13は、情報提供システム2の動作について例示するフローチャートである。図13に示されるように、情報提供システム2は、まず、人物14への情報提供に先立って、人物14の認識、人物14における基準姿勢の登録、及び情報提供内容の登録を行う事前設定処理(S10)を行い、その後、人物14の状態を検知し、検知された状態に基づく疲労度合いの判定を行う情報提供処理(S20)を行う。
Next, the operation of the
FIG. 13 is a flowchart illustrating the operation of the
ここで、事前設定処理の動作の詳細について説明する。図14は、情報提供システム2における事前設定処理(S10)の一例を示すフローチャートである。
Here, the details of the operation of the pre-setting process will be described. FIG. 14 is a flowchart illustrating an example of the pre-setting process (S10) in the
ステップ100(S100)において、使用者認識部50が、人物14を認識する。
In step 100 (S100), the
ステップ102(S102)において、基準となる姿勢で着座している人物14を第1の撮影装置6が撮影する。
In step 102 (S102), the first photographing
ステップ104(S104)において、第1の姿勢検知部520が、ステップ102で得られた撮影データから着座状態の人物14の身体の予め定められた部位の位置として、人物14の頭部及び胸部の位置を推定する。
In step 104 (S104), the first
ステップ106(S106)において、第1の姿勢検知部520が、ステップ104で推定された位置から、人物14の姿勢の傾きを検知する。
In step 106 (S106), the first
ステップ108(S108)において、ステップ106で検知された基準となる姿勢時の姿勢の傾きデータが記憶部24に記憶される。
In step 108 (S108), posture inclination data at the time of the reference posture detected in
ステップ108(S110)において、圧力測定装置10が、基準となる姿勢での着座における座面の圧力を測定する。
In step 108 (S110), the
ステップ112(S112)において、第2の姿勢検知部522が、ステップ110で得られた測定データから、予め定められた統計量を算出する。
In step 112 (S112), the second
ステップ114(S114)において、ステップ112で算出された、基準となる姿勢時の圧力分布の統計量のデータが記憶部24に記憶される。
In step 114 (S114), the statistical data of the pressure distribution in the reference posture calculated in step 112 is stored in the
ステップ116(S116)において、提供情報記憶部58は、人物14に対応する提供情報の内容を記憶する。なお、人物14に対応する提供情報の内容は、例えば、人物14がUI部28を介して自らの嗜好に応じた提供内容を入力することにより設定される。
In step 116 (S116), the provision
以上、事前設定処理として、撮影処理及び撮影データに基づく処理の後に、圧力の測定及び測定データに基づく処理を行い、その後に提供内容を登録する処理を行う例について示したが、これら動作の順序が逆であってもよいし、これら動作が並列に行われてもよい。 As described above, the example of performing the process of measuring the pressure and the process based on the measurement data after the imaging process and the process based on the captured data as the presetting process and then performing the process of registering the provided content has been described. May be reversed, or these operations may be performed in parallel.
なお、事前設定処理における基準姿勢のデータの登録については、ステップ20における情報提供処理における疲労度の判定対象者と同一人物に基準となる姿勢で着座面に着座してもらい、基準姿勢時のデータを取得することが好ましいが、基準姿勢時のデータは必ずしも同一人物による着座のデータでなくてもよい。また、ステップ10において人物が着座する着座面は、ステップ20において人物が着座する着座面と同じであることが好ましい。これにより、基準姿勢のデータ取得時と疲労判定時とで圧力測定装置10による測定条件を揃えることができるため、着座面の弾力性による測定への影響が抑制される。
Regarding registration of the reference posture data in the presetting process, the same person as the subject of fatigue level determination in the information providing process in
次に、情報提供処理の動作の詳細について説明する。図15は、情報提供システム2における情報提供処理(S20)の一例を示すフローチャートである。
Next, details of the operation of the information providing process will be described. FIG. 15 is a flowchart illustrating an example of the information providing process (S20) in the
ステップ200(S200)において、検知部52が、人物14についての観測データに基づいて人物14の状態を検知する。
In step 200 (S200), the
ステップ202(S202)において、判定部54が、ステップ200で検知された状態に基づいて、人物14の疲労度合いを判定する。なお、ステップ202における疲労度合いの判定動作については、図16により詳述する。
In step 202 (S202), the
ステップ204(S204)において、判定部54は、疲労度合いが予め定められた疲労度合いの基準を満たすか否か判定し、予め定められた疲労度合いの基準を満たす場合にはステップ204へ移行し、予め定められた疲労度合いの基準を満たさない場合にはステップ214へ移行する。
In step 204 (S204), the
ステップ206(S206)において、時期決定部60が、人物14に対し情報を提供する時期を決定する。なお、時期の決定動作については、図17により詳述する。
In step 206 (S206), the
ステップ208(S208)において、情報提供部56は、ステップ206で決定された時期が到来したか否かを判定し、ステップ206で決定された時期が到来するとステップ210へ移行する。
In step 208 (S208), the
ステップ210(S210)において、情報提供部56は、人物14に提供する内容を提供情報記憶部58より読み出す。情報提供部56は、提供情報記憶部58に記憶されている提供内容のうち、人物14に対応する提供内容を読み出す。なお、情報記憶部24が複数種類のメニューからなる情報を記憶している場合には、情報提供部56は、複数メニューのうち予め設定されたもの情報を読み出す。また、判定部54により判定された疲労度合いの大きさに応じて、提供対象のメニューが選択されるよう構成されていてもよい。
In step 210 (S210), the
ステップ212(S212)において、情報提供部56は、ステップ210で読み出された提供内容の情報を人物14に提供する。例えば、読み出された情報が、表示情報である場合、UI部28に表示する。また、読み出された情報が、音楽等の音情報である場合には、図示しないスピーカにより音を出力する。
In step 212 (S212), the
ステップ214(S214)において、情報提供処理を継続するか否かが判定され、継続する場合には、ステップ200へ戻り、継続しない場合には、処理を終了する。なお、情報提供処理の継続の有無は、例えば、人物14からの指示に従い決定されてもよいし、継続条件が予め設定されていてもよい。
In step 214 (S214), it is determined whether or not the information providing process is to be continued. If so, the process returns to step 200. If not, the process is terminated. Whether or not the information providing process is continued may be determined according to an instruction from the
ここで、上記ステップ202における疲労度合いの判定動作について、フローチャートを用いてさらに説明する。図16は、ステップ202における疲労度合いの判定動作の一例を示すフローチャートである。 Here, the determination operation of the degree of fatigue in step 202 will be further described using a flowchart. FIG. 16 is a flowchart illustrating an example of the fatigue level determination operation in step 202.
ステップ2000(S2000)において、判定部54は、検知部520〜526ごとに、判定対象期間内の疲労度合いを算出する(図6〜12参照)。
In step 2000 (S2000), the
ステップ2002(S2002)において、判定部54は、疲労度合いの段階ごとに、判定対象期間内における当該段階の状態である継続時間を算出する(図5参照)。
In step 2002 (S2002), for each stage of the degree of fatigue, the
ステップ2004(S2004)において、判定部54は、ステップ2002で算出された継続時間に基づいて、人物14の疲労度合いが予め定められた疲労度合いの基準を満たすか否かを判定する。具体的には、上記式(4)を用いて、判定する。
In step 2004 (S2004), the
次に、上記ステップ206における情報提供時期の決定動作について、フローチャートを用いてさらに説明する。図17は、ステップ206における情報提供時期の決定動作の一例を示すフローチャートである。 Next, the information provision time determination operation in step 206 will be further described with reference to a flowchart. FIG. 17 is a flowchart illustrating an example of the information provision time determination operation in step 206.
ステップ2100(S2100)において、集中推定部62が、人物14が集中した状態にあるか否かを判定する。例えば、予め定められた時間以上同じ姿勢が継続し、かつ、単位時間あたりの入力量が予め定められた時間以上継続している場合に、集中推定部62は、人物14が集中状態にあると推定する。
In step 2100 (S2100), the
ステップ2102(S2102)において、時期決定部60は、ステップ2100において、集中推定部62により人物14が集中状態にあると推定されたか否かを判定し、集中状態にあると推定されていない場合にはステップ2104へ移行し、集中状態にあると推定された場合にはステップ2106へ移行する。
In step 2102 (S2102), the
ステップ2104(S2104)において、時期決定部60は、即時に情報提供を行うよう情報提供時期を決定する。
In step 2104 (S2104), the
一方、ステップ2106(S2106)では、時期決定部60は、予め定められた条件を満たすまで情報提供を待機するよう情報提供時期を決定する。例えば、予め定められた条件として、単位時間あたりの打鍵数が予め定められた打鍵数を下回っている状態が予め定められた時間以上継続した時期を情報提供時期とする。このように時期決定部60は、人物14が集中状態にあると推定される場合には、集中を妨げないと想定される時期に情報提供を行うよう情報提供時期を決定する。
On the other hand, in step 2106 (S2106), the
なお、例えば、集中推定部62により人物14が集中状態にあると推定される状態が長期間(予め定められた期間)に亘って継続している場合又は同じ姿勢状態が長期間(予め定められた期間)に亘って継続している場合には、当該予め定められた期間を超えたタイミングを情報提供時期としてもよい。
For example, when the state in which the
以上、本発明の実施形態として、検知部52において、第1の姿勢検知部520と、第2の姿勢検知部522と、入力操作状況検知部524と、表情検知部526とが機能する例を示したが、これら検知部520〜526のうち、任意に組み合わされたもの又はいずれかのみが機能するよう構成してもよい。また、検知部52、人物14についての観測データに基づいて人物14の状態を検知すればよく、検知内容は、上記に限定されない。
As described above, as an embodiment of the present invention, in the
次に、本発明の他の実施形態にかかる情報提供システム2について説明する。上記実施形態では、検知部52により検知された判定対象期間内における人物14の一連の状態に基づいて、人物14の疲労度合いを判定したが、本実施形態では、判定部54は、検知部520〜526ごとの検知結果から判断される各疲労度合いの組み合わせによって、人物14の疲労度合いを判定する。
Next, an
本実施形態にかかる判定部54では、具体的には、例えば図18に示される疲労度合い決定テーブルを備え、上述のようにして判断された各検知部に基づく疲労度合いの組み合わせに応じて人物14の疲労度合いを決定する。なお、図18に示される例では、検知部52のうち、第1の姿勢検知部520、第2の姿勢検知部522、及び入力操作状況検知部524を判定部54における判定に利用する例を示している。なお、入力操作状況検知部524に代えて、表情検知部526を用いてもよい。また、これら検知部520〜526のうち、任意に組み合わされたもの又はいずれかのみを判定部54の判定に用いてもよい。
Specifically, the
図18に示した例に沿って本実施形態にかかる判定部54について説明すると、判定部54は、まず、第1の姿勢検知部520の検知結果に基づいて1〜4のいずれかの疲労度を判断し、第2の姿勢検知部522の検知結果に基づいて1〜4のいずれかの疲労度を判断し、入力操作状況検知部524の検知結果に基づいて1〜3のいずれかの疲労度を判断する。続いて、判定部54は、疲労度合い決定テーブルに従って、各検知部からの判断された疲労度の組み合わせに応じて、人物14の疲労度を一意に決定する。
The
図18に示した例では、人物14の疲労度は、最終的に3段階のいずれかで判断される。すなわち、疲労度:小(図18中の「−」に対応)、疲労度:中(図18中の「○」に対応)、疲労度:大(図18中の「◎」に対応)のいずれかで判断される。
In the example shown in FIG. 18, the fatigue level of the
なお、時期決定部60は、上述のように、情報提供の時期を決定してもよいが、判定部54により判定された人物14の疲労度に応じた時期を情報提供の時期としてもよい。例えば、判定部54において、疲労度:中と判定された場合には、当該疲労度が例えば2時間継続した時期を情報提供の時期とし、疲労度:大と判定された場合には、当該疲労度が例えば1時間継続した時期を情報提供の時期としてもよい。
As described above, the
情報提供部56は、判定部54により、疲労度合いが予め定められた基準を超えると判定された場合に、情報を提供する。図18を例に説明すると、例えば、情報提供部56は、疲労度が、中又は大と判定された場合に、情報を提供する。
The
なお、情報提供部56が提供する情報のメニューが、図19に示されるように、疲労度合い決定テーブルに予め設定されていてもよい。
The menu of information provided by the
以上、本発明の実施形態について説明したが、本発明は既に述べた実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の変更が可能である。例えば、第1の撮影装置6は、人物14の正面に限らず背面から撮影してもよい。また、第1の撮影装置6は、人物14の側面から撮影してもよい。また、第1の撮影装置6を、2次元画像を撮影するカメラとして構成し、姿勢を検知してもよい。
Although the embodiments of the present invention have been described above, the present invention is not limited to the embodiments described above, and various modifications can be made without departing from the scope of the present invention. For example, the
2 情報提供システム
4 端末装置
6 第1の撮影装置
8 第2の撮影装置
10 圧力測定装置
28 UI部
50 使用者認識部
52 検知部
54 判定部
56 情報提供部
58 提供情報記憶部
60 時期決定部
62 集中推定部
520 第1の姿勢検知部
522 第2の姿勢検知部
524 入力操作状況検知部
526 表情検知部
2
Claims (14)
前記検知手段により検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定手段と、
前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供手段と
を有する情報提供装置。 Detection means for detecting the state of the person;
Determination means for determining a degree of fatigue of the person based on a series of states of the person within a predetermined period detected by the detection means;
An information providing apparatus comprising: information providing means for providing information perceived by the person when the degree of fatigue of the person determined by the determination means satisfies a predetermined fatigue degree criterion.
請求項1記載の情報提供装置。 The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on a time in which a state detected by the detection unit within a predetermined period satisfies a predetermined condition.
をさらに有し、
前記情報提供手段は、前記時期決定手段により決定された時期に情報を提供する
請求項1又は2記載の情報提供装置。 Further comprising a time determining means for determining when to provide information to the person,
The information providing apparatus according to claim 1, wherein the information providing unit provides information at a time determined by the time determining unit.
をさらに有し、
前記時期決定手段は、前記推定手段により推定された集中度合いに応じて時期を決定する
請求項3記載の情報提供装置。 An estimation means for estimating the degree of concentration of the person in the work;
The information providing apparatus according to claim 3, wherein the time determination unit determines a time according to a concentration degree estimated by the estimation unit.
前記時期決定手段は、前記推定手段により推定された集中度合いが予め定められた集中度合い以上である場合、前記入力操作による入力量が予め定められた閾値を下回っている時期を、情報の提供時期として決定する
請求項4記載の情報提供装置。 The detection means detects the state of the person from an input operation by the person on the input receiving device,
The time determination means indicates a time when the input amount by the input operation is less than a predetermined threshold when the concentration degree estimated by the estimation means is equal to or greater than a predetermined concentration degree. The information providing apparatus according to claim 4, which is determined as
前記判定手段は、予め定められた期間内の入力操作による入力量又は入力の訂正量に基づいて前記人物の疲労度合いを判定する
請求項1乃至4いずれか記載の情報提供装置。 The detection means detects the state of the person from an input operation by the person on the input receiving device,
5. The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on an input amount or an input correction amount by an input operation within a predetermined period.
前記判定手段は、前記人物の姿勢の予め登録された姿勢からのずれ量に基づいて前記人物の疲労度合いを判定する
請求項1乃至6いずれか記載の情報提供装置。 The detection means detects the posture of the person,
The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on an amount of deviation of the person's posture from a pre-registered posture.
請求項7記載の情報提供装置。 The information providing apparatus according to claim 7, wherein the detection unit detects a posture based on a photographed image obtained by photographing the person.
請求項7又は8記載の情報提供装置。 The information providing apparatus according to claim 7, wherein the detection unit detects a posture based on pressure applied to a seating surface on which the person in the sitting state is seated.
前記判定手段は、前記人物の表情に基づいて前記人物の疲労度合いを判定する
請求項1乃至9記載の情報提供装置。 The detection means detects the facial expression of the person,
The information providing apparatus according to claim 1, wherein the determination unit determines the degree of fatigue of the person based on the facial expression of the person.
をさらに有し、
前記情報提供手段は、前記人物に応じた情報を提供する
請求項1乃至10いずれか記載の情報提供装置。 Information storage means for storing information provided by the information providing means for each person;
The information providing apparatus according to claim 1, wherein the information providing unit provides information according to the person.
前記検知手段により検知された状態に基づいて、前記人物の疲労度合いを判定する判定手段と、
前記判定手段により判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定手段と、
前記時期決定手段により決定された時期に、前記人物に知覚される情報を提供する情報提供手段と
を有する情報提供装置。 Detection means for detecting the state of the person;
Determination means for determining the degree of fatigue of the person based on the state detected by the detection means;
Time determination means for determining a provision time of information to be provided to the person when the fatigue degree of the person determined by the determination means satisfies a predetermined fatigue degree criterion;
An information providing apparatus comprising: information providing means for providing information perceived by the person at a time determined by the time determining means.
前記検知ステップで検知された予め定められた期間内における前記人物の一連の状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、
前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に、前記人物に知覚される情報を提供する情報提供ステップと
をコンピュータに実行させるプログラム。 A detection step for detecting the state of the person;
A determination step for determining a degree of fatigue of the person based on a series of states of the person within a predetermined period detected in the detection step;
A program for causing a computer to execute an information providing step of providing information perceived by the person when the degree of fatigue of the person determined in the determination step satisfies a predetermined fatigue level criterion.
前記検知ステップにより検知された状態に基づいて、前記人物の疲労度合いを判定する判定ステップと、
前記判定ステップで判定された前記人物の疲労度合いが予め定められた疲労度合いの基準を満たす場合に前記人物に対して提供する情報の提供時期を決定する時期決定ステップと、
前記時期決定ステップで決定された時期に、前記人物に知覚される情報を提供する情報提供ステップと
をコンピュータに実行させるプログラム。 A detection step for detecting the state of the person;
A determination step of determining the degree of fatigue of the person based on the state detected by the detection step;
A time determination step for determining a provision time of information to be provided to the person when the fatigue degree of the person determined in the determination step satisfies a predetermined fatigue degree criterion;
A program for causing a computer to execute an information providing step of providing information perceived by the person at a time determined in the time determining step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014025622A JP2015150150A (en) | 2014-02-13 | 2014-02-13 | Information providing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014025622A JP2015150150A (en) | 2014-02-13 | 2014-02-13 | Information providing device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015150150A true JP2015150150A (en) | 2015-08-24 |
Family
ID=53893046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014025622A Pending JP2015150150A (en) | 2014-02-13 | 2014-02-13 | Information providing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015150150A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018089091A (en) * | 2016-12-02 | 2018-06-14 | 東京電力ホールディングス株式会社 | Psychological state determination device, psychological state determination method, and psychological state determination program |
WO2021112096A1 (en) * | 2019-12-06 | 2021-06-10 | パナソニックIpマネジメント株式会社 | Fatigue estimation system, estimation device, and fatigue estimation method |
WO2021241348A1 (en) * | 2020-05-28 | 2021-12-02 | パナソニックIpマネジメント株式会社 | Fatigue estimation system, fatigue estimation method, and program |
JPWO2021241347A1 (en) * | 2020-05-27 | 2021-12-02 | ||
JP2022097292A (en) * | 2020-12-18 | 2022-06-30 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
WO2023238574A1 (en) * | 2022-06-09 | 2023-12-14 | 株式会社村田製作所 | Fatigue stress analysis device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62119903U (en) * | 1986-01-21 | 1987-07-30 | ||
JP2000099441A (en) * | 1998-09-25 | 2000-04-07 | Fujitsu Ltd | Device and method for controlling and presenting information |
JP2003070768A (en) * | 2001-08-31 | 2003-03-11 | Itoki Crebio Corp | System for detecting posture of vdt worker |
JP2004504684A (en) * | 2000-07-24 | 2004-02-12 | シーイング・マシーンズ・プロプライエタリー・リミテッド | Face image processing system |
JP2007143913A (en) * | 2005-11-29 | 2007-06-14 | Seiko Epson Corp | Degree-of-fatigue monitoring system, degree-of-fatigue monitoring program, recording medium, and degree-of-fatigue monitoring method |
WO2007138930A1 (en) * | 2006-05-29 | 2007-12-06 | Sharp Kabushiki Kaisha | Fatigue estimation device and electronic apparatus having the fatigue estimation device mounted thereon |
JP2009166783A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Symptom inference device |
WO2013172173A1 (en) * | 2012-05-18 | 2013-11-21 | 日産自動車株式会社 | Driving assistance device and road map information building method |
-
2014
- 2014-02-13 JP JP2014025622A patent/JP2015150150A/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62119903U (en) * | 1986-01-21 | 1987-07-30 | ||
JP2000099441A (en) * | 1998-09-25 | 2000-04-07 | Fujitsu Ltd | Device and method for controlling and presenting information |
JP2004504684A (en) * | 2000-07-24 | 2004-02-12 | シーイング・マシーンズ・プロプライエタリー・リミテッド | Face image processing system |
JP2003070768A (en) * | 2001-08-31 | 2003-03-11 | Itoki Crebio Corp | System for detecting posture of vdt worker |
JP2007143913A (en) * | 2005-11-29 | 2007-06-14 | Seiko Epson Corp | Degree-of-fatigue monitoring system, degree-of-fatigue monitoring program, recording medium, and degree-of-fatigue monitoring method |
WO2007138930A1 (en) * | 2006-05-29 | 2007-12-06 | Sharp Kabushiki Kaisha | Fatigue estimation device and electronic apparatus having the fatigue estimation device mounted thereon |
JP2009166783A (en) * | 2008-01-18 | 2009-07-30 | Toyota Motor Corp | Symptom inference device |
WO2013172173A1 (en) * | 2012-05-18 | 2013-11-21 | 日産自動車株式会社 | Driving assistance device and road map information building method |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018089091A (en) * | 2016-12-02 | 2018-06-14 | 東京電力ホールディングス株式会社 | Psychological state determination device, psychological state determination method, and psychological state determination program |
WO2021112096A1 (en) * | 2019-12-06 | 2021-06-10 | パナソニックIpマネジメント株式会社 | Fatigue estimation system, estimation device, and fatigue estimation method |
JPWO2021112096A1 (en) * | 2019-12-06 | 2021-06-10 | ||
JP7133779B2 (en) | 2019-12-06 | 2022-09-09 | パナソニックIpマネジメント株式会社 | Fatigue estimation system, estimation device, and fatigue estimation method |
JPWO2021241347A1 (en) * | 2020-05-27 | 2021-12-02 | ||
WO2021241347A1 (en) * | 2020-05-27 | 2021-12-02 | パナソニックIpマネジメント株式会社 | Fatigue inference system, fatigue inference method, and program |
JP7398646B2 (en) | 2020-05-27 | 2023-12-15 | パナソニックIpマネジメント株式会社 | Fatigue estimation system, fatigue estimation method, and program |
WO2021241348A1 (en) * | 2020-05-28 | 2021-12-02 | パナソニックIpマネジメント株式会社 | Fatigue estimation system, fatigue estimation method, and program |
JP2022097292A (en) * | 2020-12-18 | 2022-06-30 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
JP7110314B2 (en) | 2020-12-18 | 2022-08-01 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
WO2023238574A1 (en) * | 2022-06-09 | 2023-12-14 | 株式会社村田製作所 | Fatigue stress analysis device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015150150A (en) | Information providing device and program | |
US9607439B2 (en) | Information processing apparatus and information processing method | |
CN105283129B (en) | Information processor, information processing method | |
KR101868597B1 (en) | Apparatus and method for assisting in positioning user`s posture | |
US20200334477A1 (en) | State estimation apparatus, state estimation method, and state estimation program | |
JP6343916B2 (en) | Posture determination device, posture determination system, and program | |
WO2016143641A1 (en) | Posture detection device and posture detection method | |
JP6717235B2 (en) | Monitoring support system and control method thereof | |
JP2016104074A (en) | Posture determination device, posture determination system, and program | |
CA2794659A1 (en) | Apparatus and method for iris recognition using multiple iris templates | |
US20160278683A1 (en) | Standing position evaluation apparatus, standing position evaluation method, and non-transitory computer readable medium | |
JP7094814B2 (en) | Detection system and detection method | |
CN111160088A (en) | VR (virtual reality) somatosensory data detection method and device, computer equipment and storage medium | |
JP2013228930A5 (en) | ||
US20140240222A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
EP3164055A1 (en) | Eye condition determination system | |
JP2008146583A (en) | Attitude detector and behavior detector | |
JP2015109915A (en) | Posture estimation device, method, and program | |
JPWO2011086803A1 (en) | Image collation system, image collation method, computer program | |
JP6276456B1 (en) | Method and system for evaluating user posture | |
JP6971582B2 (en) | Status detector, status detection method, and program | |
JP2010157850A5 (en) | ||
TWM537281U (en) | Fall detection system | |
Lee et al. | A new posture monitoring system for preventing physical illness of smartphone users | |
JP2008225801A (en) | Suspicious person detection system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170414 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170908 |