JP2015039472A - Posture detection method, portable terminal device and program - Google Patents
Posture detection method, portable terminal device and program Download PDFInfo
- Publication number
- JP2015039472A JP2015039472A JP2013171110A JP2013171110A JP2015039472A JP 2015039472 A JP2015039472 A JP 2015039472A JP 2013171110 A JP2013171110 A JP 2013171110A JP 2013171110 A JP2013171110 A JP 2013171110A JP 2015039472 A JP2015039472 A JP 2015039472A
- Authority
- JP
- Japan
- Prior art keywords
- user
- posture
- mobile terminal
- inclination
- portable terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 57
- 230000001133 acceleration Effects 0.000 claims abstract description 51
- 238000005259 measurement Methods 0.000 claims description 14
- 238000000034 method Methods 0.000 abstract description 18
- 208000003464 asthenopia Diseases 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 7
- 230000005484 gravity Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 206010052904 Musculoskeletal stiffness Diseases 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 231100000862 numbness Toxicity 0.000 description 1
Images
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、ユーザが携帯端末上のコンテンツを閲覧する際の姿勢を検出するための姿勢検出方法及び携帯端末装置及びプログラムに関する。 The present invention relates to a posture detection method, a portable terminal device, and a program for detecting a posture when a user browses content on a portable terminal.
携帯電話やスマートフォン、タブレットデバイス等の携帯端末が普及している。これら携帯端末を用いてWebサイトや電子書籍といったコンテンツを閲覧する際、利用者の姿勢が悪化した状態での使用はストレートネックといった首や肩等への被害をもたらすと言われている(例えば、非特許文献1を参照。)。また、画面との距離が近いことは眼の疲労を増加させると言われている(例えば、非特許文献2を参照。)。
Mobile terminals such as mobile phones, smartphones, and tablet devices are widespread. When browsing content such as websites and e-books using these portable terminals, it is said that use in a state where the user's attitude has deteriorated causes damage to the neck and shoulders such as a straight neck (for example, (See Non-Patent
このような問題を解決するための方法として、従来は設置型のカメラによる技術が用いられていた(例えば、特許文献1を参照。)。 As a method for solving such a problem, conventionally, a technique using a stationary camera has been used (see, for example, Patent Document 1).
しかし、先行技術では座席等のあらかじめ決められた位置でのみ計測が可能で、場所によらない使用が難しい。また先行技術では画面と眼との距離は検出可能であるが、姿勢については検出が行えない。
本発明の目的は、このような背景を踏まえ、携帯端末から利用者の姿勢、あるいは利用者の画面と眼との距離を検出するための技術を実現し得る姿勢検出方法及び携帯端末装置及びプログラムを提供することにある。
However, in the prior art, it is possible to measure only at a predetermined position such as a seat, and it is difficult to use it regardless of location. In the prior art, the distance between the screen and the eyes can be detected, but the posture cannot be detected.
An object of the present invention is based on such a background, and a posture detection method, a portable terminal device, and a program capable of realizing a technique for detecting a posture of a user from a portable terminal or a distance between a user's screen and eyes. Is to provide.
上記目的を達成するために本発明に係る姿勢検出方法は、ユーザが所持する携帯端末で使用される姿勢検出方法において、前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルをメモリに記憶し、前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出し、前記算出結果と前記メモリに記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定し、前記ユーザの姿勢の判定結果を、前記ユーザに提示するようにしたものである。 In order to achieve the above object, a posture detection method according to the present invention is a posture detection method used in a portable terminal possessed by a user, wherein a table associating the inclination of the portable terminal with the posture information of the user is provided. Storing in a memory, calculating an inclination of the mobile terminal when the user operates the mobile terminal, comparing the calculation result with the table stored in the memory, and based on the comparison result, The user's posture is determined, and the determination result of the user's posture is presented to the user.
また、本発明に係る姿勢検出方法の一観点は以下のような態様を備える。
第1の態様は、前記携帯端末の傾きを算出することにおいて、加速度センサにより計測される加速度に基づいて、前記携帯端末の傾きを算出する。
第2の態様は、前記携帯端末の傾きを算出することにおいて、測距センサまたはカメラによる計測結果に基づいて、前記携帯端末の画面と前記ユーザの目との距離を算出することにより、前記携帯端末の傾きを算出する。
One aspect of the posture detection method according to the present invention includes the following aspects.
In the first aspect, in calculating the tilt of the mobile terminal, the tilt of the mobile terminal is calculated based on the acceleration measured by the acceleration sensor.
In the second aspect, in calculating the inclination of the mobile terminal, the mobile terminal is calculated by calculating a distance between the screen of the mobile terminal and the eyes of the user based on a measurement result by a distance measuring sensor or a camera. Calculate the tilt of the terminal.
第3の態様は、前記携帯端末の傾きを算出することにおいて、加速度センサと測距センサとによる計測結果、または加速度センサとカメラとによる計測結果に基づいて、前記携帯端末の傾きを算出する。 In a third aspect, in calculating the tilt of the mobile terminal, the tilt of the mobile terminal is calculated based on a measurement result by the acceleration sensor and the distance measurement sensor or a measurement result by the acceleration sensor and the camera.
本発明によれば、予め携帯端末の傾きと、ユーザの姿勢情報とを対応付けたテーブルをメモリに記憶して管理しておき、ユーザによる携帯端末の操作時の携帯端末の傾きを算出し、算出結果とメモリに記憶されているテーブルとを比較し、この比較結果に基づいて、ユーザの姿勢を判定することが可能となる。
従って、ユーザの悪い姿勢の発生や継続を検出し提示することで、コンテンツ閲覧中の姿勢を良好に保ち、結果生活の質の向上が期待できる。
According to the present invention, the table in which the inclination of the portable terminal and the user's posture information are associated with each other is stored in the memory and managed, and the inclination of the portable terminal when the user operates the portable terminal is calculated. It is possible to compare the calculation result with a table stored in the memory and determine the user's posture based on the comparison result.
Therefore, by detecting and presenting the occurrence or continuation of a bad posture of the user, it is possible to maintain a good posture during content browsing and to improve the quality of life as a result.
第1の態様によれば、携帯端末に備えられる加速度センサを利用して、場所に限定されることなくユーザの悪い姿勢の発生や継続を検出し提示することができる。また、加速度センサを利用することで、ユーザの首の姿勢を判定できる。 According to the first aspect, it is possible to detect and present the occurrence or continuation of a bad posture of the user without being limited to a place by using the acceleration sensor provided in the mobile terminal. In addition, the user's neck posture can be determined by using the acceleration sensor.
第2の態様によれば、携帯端末に備えられる測距センサを利用して、場所に限定されることなく、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。また、携帯端末に備えられるカメラを利用する場合も、既存の計測系を使用して、場所に限定されることなく、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。 According to the second aspect, by using the distance measuring sensor provided in the mobile terminal, the viewing state is not limited to a place, and the viewing state increases eye fatigue because the distance between the eye and the screen is short. Can be determined. In addition, when using a camera equipped with a mobile terminal, the existing measurement system is used, and the viewing is not limited to a place, and the viewing distance increases the eye fatigue due to the close distance between the eyes and the screen. The state can be determined.
第3の態様によれば、ユーザの首の姿勢、及び眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。 According to the third aspect, since the user's neck posture and the distance between the eyes and the screen are close, it is possible to determine a viewing state that increases eye fatigue.
[第1の実施形態]
図1は本発明の第1の実施形態に係わる姿勢検出装置の構成を示す。姿勢検出装置は、加速度センサ1と、端末角度算出手段2と、姿勢判定手段3と、姿勢情報DB4と、情報提示手段5から構成される。また、姿勢検出装置は、例えば携帯端末に備えられるものである。端末角度算出手段2、姿勢判定手段3及び姿勢情報DB(データベース)4は、例えば、CPU、メモリ、ハードディスクを備える制御部に備えられる。情報提示手段5は、例えば携帯端末の入出力部に備えられる。入出力部は、携帯端末に対し種々の動作指示を入力するために使用するもので、ユーザによるキーワードの入力を受け付け、またweb(図示せず)から送られるデータを入力し、またコンテンツを閲覧するためのものである。
[First Embodiment]
FIG. 1 shows the configuration of an attitude detection apparatus according to the first embodiment of the present invention. The posture detection device includes an
加速度センサ1は、加速度情報に基づき、利用者の携帯端末に働く加速度情報を検出する。加速度センサ1による加速度の検出方法としては、例えば、一定の周期Tiで、携帯端末の図1中x軸、y軸、z軸への移動方向と移動加速度を算出する。
端末角度算出手段2は、加速度センサ1が取得した加速度に基づき、携帯端末の角度を算出する。ここで、加速度から角度を算出するための方法としては例えば以下の計算式が挙げられる。
θ=arccos(Az/g) …(1)
The
The terminal angle calculation unit 2 calculates the angle of the mobile terminal based on the acceleration acquired by the
θ = arccos (Az / g) (1)
ここで、θは角度、Azは端末の加速度センサ1のz軸方向にかかる加速度、gは重力加速度である。
姿勢情報DB4には、予め携帯端末のZ軸と重力とのなす角度と、携帯端末の利用者の姿勢を示す情報とを対応付けたテーブルが格納されている。ここで、携帯端末のZ軸と重力とのなす角度が60degから90degの間である場合、携帯端末の利用者の眼は携帯端末の画面に正対している状態である。一方、携帯端末のZ軸と重力とのなす角度が0degから60degの間である場合、携帯端末の利用者は、首を曲げ上から下を見下げる姿勢で携帯端末の画面上のコンテンツを閲覧している状態である。
Here, θ is an angle, Az is an acceleration applied in the z-axis direction of the
The
姿勢判定手段3は、端末角度算出手段2が算出した端末角度と姿勢情報DB4が保持する角度情報のテーブルとを比較し、現在の利用者の姿勢を判定する。
情報提示手段5は、姿勢判定手段4が判定した結果を利用者に対して提示する。ここで、提示の方法としては、携帯端末の画面の一部に姿勢が悪化している旨を表すアイコン等を提示することが挙げられる。
The
The
以上詳述したように第1の実施形態では、加速度センサ1から取得した加速度に基づき端末角度算出手段2が算出した端末の傾きを用いて、姿勢判定手段3が姿勢情報DB4の保持する傾き情報と前記端末の傾きとを比較することで利用者の姿勢の良さを判定したのち、その結果を元に情報提示手段5が利用者に対して姿勢の良さを提示する様に構成されている。そのため、利用者が携帯端末を利用してコンテンツを閲覧している状況において利用者の姿勢を判定して提示でき、利用者の姿勢悪化を防ぐことができる。
As described in detail above, in the first embodiment, the tilt information held by the
また、上記第1の実施形態によれば、携帯端末に備えられる加速度センサ1を利用して、場所に限定されることなくユーザの悪い姿勢の発生や継続を検出し提示することができる。また、加速度センサ1を利用することで、ユーザの首の姿勢を判定できる。
Moreover, according to the said 1st Embodiment, generation | occurrence | production and continuation of a bad posture of a user can be detected and shown using the
[第2の実施形態]
(実施例1)
図2は、本発明の第2の実施形態に係わる姿勢検出装置の実施例1の構成を示すものである。姿勢検出装置は、測距センサ6と、姿勢判定手段3と、姿勢情報DB4と、情報提示手段5から構成される。また、姿勢検出装置は、例えば携帯端末に備えられるものである。姿勢判定手段3及び姿勢情報DB4は、例えば、CPU、メモリ、ハードディスクを備える制御部に備えられる。情報提示手段5は、例えば携帯端末の入出力部に備えられる。入出力部は、携帯端末に対し種々の動作指示を入力するために使用するもので、ユーザによるキーワードの入力を受け付け、またweb(図示せず)から送られるデータを入力し、またコンテンツを閲覧するためのものである。
[Second Embodiment]
Example 1
FIG. 2 shows the configuration of Example 1 of the posture detection apparatus according to the second embodiment of the present invention. The posture detection device includes a
測距センサ6は、携帯端末の画面と利用者の眼との距離を公知の技術を用いて計測する。この際の方法としては、赤外線を用いたものが考えられるが、これに限定されない。また、測距センサ6を起動させるタイミングは、例えば利用者がWebサイトやメール、動画、電子書籍等のコンテンツを閲覧中の1分に1回といった頻度が考えられるが、これに限定されない。
The
姿勢判定手段3は、測距センサ6が計測した前記画面と利用者の眼との距離と、姿勢情報DB4が保持する情報とを照らし合わせ、現在の閲覧状態を判定する。なお、画面と利用者の眼との距離が「0〜a」の場合、利用者の姿勢は「悪く」、画面と利用者の眼との距離が「a〜d(d>a)」の場合、利用者の姿勢は「良い」となる。
このようにすることで、第1の実施形態では加速度センサ1を利用して端末の角度に基づき閲覧状態を判定していたのに対し、第2の実施形態では測距センサ6を利用して端末と眼との距離を用いることで、首の角度が適切である場合であっても、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することが可能になる。
The posture determination means 3 compares the distance between the screen measured by the
In this way, in the first embodiment, the browsing state is determined based on the angle of the terminal using the
(実施例2)
図3は、本発明の第2の実施形態に係わる姿勢検出装置の実施例2の構成を示す図である。この姿勢検出装置は、カメラ7と、画面−眼距離検出手段8と、テンプレートDB9と、姿勢判定手段3と、姿勢情報DB4と、情報提示手段5から構成される。また、姿勢検出装置は、例えば携帯端末に備えられるものである。画面−眼距離検出手段8、テンプレートDB9、姿勢判定手段3及び姿勢情報DB4は、例えば、CPU、メモリ、ハードディスクを備える制御部に備えられる。情報提示手段5は、例えば携帯端末の入出力部に備えられる。入出力部は、携帯端末に対し種々の動作指示を入力するために使用するもので、ユーザによるキーワードの入力を受け付け、またweb(図示せず)から送られるデータを入力し、またコンテンツを閲覧するためのものである。
(Example 2)
FIG. 3 is a diagram showing a configuration of Example 2 of the posture detection apparatus according to the second embodiment of the present invention. This posture detection apparatus includes a
カメラ7は、利用者の頭部画像を撮影する。撮影のタイミングは、例えば利用者がWebサイトやメール、動画、電子書籍等のコンテンツを閲覧中の1分に1回といった頻度が考えられるが、これに限定されない。
画面−眼距離検出手段8は、カメラ7が撮影した画像に基づき利用者の眼と端末画面との距離を算出する。
The
The screen-eye distance detection means 8 calculates the distance between the user's eyes and the terminal screen based on the image taken by the
姿勢判定手段3は、画面−眼距離検出手段8が算出した画面と眼との距離と、姿勢情報DB4が保持する情報とを照らし合わせ、現在の閲覧状態を判定する。なお、画面と利用者の眼との距離が「0〜a」の場合、利用者の姿勢は「悪く」、画面と利用者の眼との距離が「a〜d(d>a)」の場合、利用者の姿勢は「良い」となる。
次に画面−眼距離検出手段8が、カメラ7が撮影した頭部画像から利用者の眼と端末画面との距離を算出する際の処理について述べる。
The
Next, processing when the screen-eye
図4は、画面−眼距離検出手段8がカメラ7の撮影した頭部画像から利用者の眼と端末画面との距離を算出する際の処理を表すフローチャートである。以下ではこのフローチャートが行う処理について具体的に述べる。
画面−眼距離検出手段8は、カメラ7により利用者の頭部画像を撮影すると(ステップST1)、変数c、d、cmaxをそれぞれ初期化する(ステップST2)。ここでcは画像の拡大係数、dは誤差変数で、cmaxはcの取りうる上限値を表し、それぞれ予め定められた十分大きな値を格納しておく。
FIG. 4 is a flowchart showing processing when the screen-eye
When the screen-eye distance detection means 8 captures the user's head image with the camera 7 (step ST1), it initializes variables c, d, and cmax, respectively (step ST2). Here, c is an image enlargement coefficient, d is an error variable, cmax represents an upper limit value that can be taken by c, and a predetermined sufficiently large value is stored.
画面−眼距離検出手段8は、テンプレートDB9に予め保持しておいたテンプレートのサイズをc倍する(ステップST3)。
画面−眼距離検出手段8は、撮像画像の上の座標(x,y)の上にテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する(ステップST4)。ここで、重ね合わせ誤差については、テンプレートと撮影画像との共通領域におけるピクセル値の差分の絶対値を足しあわせ、それらを共通領域に存在するピクセル数で割ることで正規化したものが考えられるが、これに限定されない。
The screen-eye
The screen-eye distance detection means 8 arranges a template on coordinates (x, y) on the captured image, calculates an overlay error for all possible values of x and y, and can take the smallest possible value Is held as dmin (step ST4). Here, the overlay error may be normalized by adding the absolute values of the pixel value differences in the common area between the template and the captured image and dividing them by the number of pixels present in the common area. However, the present invention is not limited to this.
そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える(ステップST5及びステップST6)。
続いて、画面−眼距離検出手段8は、cとcmaxとの値を比較し(ステップST7)、cがcmaxよりも小さい場合にはステップST8に進む。
Then, the screen-eye distance detection means 8 compares the values of dmin and d, and if dmin takes a value smaller than d, d is replaced with dmin (step ST5 and step ST6).
Subsequently, the screen-eye
画面−眼距離検出手段8は、ステップST8において、cに定数eを加算し、ステップST3へ進む。ここでeはテンプレートの大きさを少しずつ変化させるため、0.1といった小さな値を入れておくことが考えられるが、これに限定されない。
画面−眼距離検出手段8は、ステップST9において、変数dに格納された値と姿勢情報DB4を比較することで、距離を算出して終了する。
In step ST8, the screen-eye distance detection means 8 adds a constant e to c, and proceeds to step ST3. Here, since e changes the size of the template little by little, it is conceivable to put a small value such as 0.1, but is not limited to this.
In step ST9, the screen-eye
図5は、上記ステップST4の詳細な処理内容を示す図である。
画面−眼距離検出手段8は、カメラ7により利用者の頭部画像が撮像されると(ステップST41)、テンプレートDB9に予め保持しておいたテンプレートのサイズをc倍にし、撮像画像の上の座標(x,y)の上にテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する。そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える(ステップST42)。
FIG. 5 is a diagram showing the detailed processing contents of step ST4.
When the user's head image is captured by the camera 7 (step ST41), the screen-eye distance detection means 8 increases the size of the template stored in advance in the
続いて、画面−眼距離検出手段8は、cとcmaxとの値を比較し、cがcmaxよりも小さい場合には、cに定数eを加算し、ステップST43の処理に移行する。ステップST43の処理において、撮像画像の上の座標(x,y)の上に拡大したテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する。そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える。
Subsequently, the screen-eye
続いて、画面−眼距離検出手段8は、c+eとcmaxとの値を比較し、c+eがcmaxよりも小さい場合には、さらに定数eを加算し、ステップST44の処理に移行する。ステップST44の処理において、撮像画像の上の座標(x,y)の上にさらに拡大したテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する。そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える。
Subsequently, the screen-eye distance detection means 8 compares the values of c + e and cmax, and if c + e is smaller than cmax, the constant e is further added, and the process proceeds to step ST44. In the process of step ST44, a further enlarged template is arranged on the coordinates (x, y) on the captured image, and an overlay error is calculated for all possible values of x and y. Is held as dmin. Then, the screen-eye
続いて、画面−眼距離検出手段8は、c+e+eとcmaxとの値を比較し、cmax以上と判断した場合に、処理を終了する。
このようにすることで、実施例2では、実施例1で必要となる測距センサ6が携帯端末に備わっていない場合であっても、カメラ7を用いて眼と画面との距離が算出可能になる。特に、携帯端末に備えられるカメラ7といった既存の計測系を使用して、場所に限定されることなく、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。
Subsequently, the screen-eye
In this way, in the second embodiment, the distance between the eyes and the screen can be calculated using the
以上述べたとおり、第1の実施形態では端末の角度に基づき閲覧状態を判定していたのに対し、第2の実施形態では端末と眼との距離を用いることで、首の角度が適切である場合であっても、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することが可能になる。 As described above, in the first embodiment, the browsing state is determined based on the angle of the terminal, whereas in the second embodiment, the angle of the neck is appropriate by using the distance between the terminal and the eye. Even in some cases, since the distance between the eyes and the screen is short, it is possible to determine a browsing state that increases eye fatigue.
[第3の実施形態]
図6は、本発明の第3の実施形態に係わる姿勢検出装置の構成を示す図である。この姿勢検出装置は、一次情報取得手段21と、姿勢検出手段22と、情報提示手段5とから構成される。一次情報取得手段21は、測距センサ211と、加速度センサ212とを備えている。姿勢検出手段22は、端末角度検出手段221と、マッチング手段222と、姿勢情報DB223とを備えている。
[Third Embodiment]
FIG. 6 is a diagram showing a configuration of an attitude detection apparatus according to the third embodiment of the present invention. This posture detection apparatus includes a primary information acquisition unit 21, a posture detection unit 22, and an
測距センサ211は、携帯端末の画面と利用者の眼との距離を公知の技術を用いて計測する。加速度センサ212は、加速度情報に基づき、利用者の携帯端末に働く加速度情報を検出する。
端末角度算出手段221は、加速度センサ212が取得した加速度に基づき、携帯端末の角度を算出する。
The
The terminal
マッチング手段222は、端末角度算出手段221が算出した端末角度と測距センサ211による計測結果とが一致する場合に、姿勢情報DB223が保持する角度情報のテーブルとを比較し、現在の利用者の姿勢を判定する。
情報提示手段5は、マッチング手段222が判定した結果を利用者に対して提示する。また、マッチング手段222は、端末角度算出手段221が算出した端末角度と測距センサ211による計測結果とが一致しない場合に、例えば、測距センサ211もしくは加速度センサ212の故障を表すメッセージを利用者に対して提示する。
When the terminal angle calculated by the terminal
The information presenting means 5 presents the result determined by the matching means 222 to the user. In addition, the
以上のように上記第3の実施形態によれば、測距センサ211及び加速度センサ212の両方を利用することにより、ユーザの首の姿勢、及び眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。
As described above, according to the third embodiment, since both the
[第4の実施形態]
図7は、本発明の第4の実施形態に係わる姿勢検出装置の構成を示す図である。この姿勢検出装置は、一次情報取得手段31と、姿勢検出手段32と、情報提示手段5とから構成される。一次情報取得手段31は、カメラ311と、加速度センサ312とを備えている。姿勢検出手段32は、距離算出手段321と、端末角度検出手段322と、テンプレートDB323と、マッチング手段324と、姿勢情報DB325とを備えている。
[Fourth Embodiment]
FIG. 7 is a diagram showing a configuration of an attitude detection apparatus according to the fourth embodiment of the present invention. This posture detection device includes primary information acquisition means 31, posture detection means 32, and information presentation means 5. The primary information acquisition unit 31 includes a
カメラ311は、利用者の頭部画像を撮影する。加速度センサ312は、加速度情報に基づき、利用者の携帯端末に働く加速度情報を検出する。
距離算出手段321は、テンプレートDB323に保持されているテンプレートを用いてカメラ311が撮影した画像に基づき利用者の眼と端末画面との距離を算出する。
The
The
端末角度算出手段322は、加速度センサ312が取得した加速度に基づき、携帯端末の角度を算出する。
マッチング手段324は、距離算出手段321による算出結果と端末角度算出手段322による算出結果とが一致する場合に、姿勢情報DB325が保持する角度情報のテーブルとを比較し、現在の利用者の姿勢を判定する。
The terminal
When the calculation result by the
情報提示手段5は、マッチング手段324が判定した結果を利用者に対して提示する。また、マッチング手段324は、距離算出手段321による算出結果と端末角度算出手段322による算出結果とが一致しない場合に、例えば、カメラ311もしくは加速度センサ312の故障を表すメッセージを利用者に対して提示する。
The information presenting means 5 presents the result determined by the matching means 324 to the user. Further, the
以上のように上記第4の実施形態であっても、カメラ311及び加速度センサ312の両方を利用することにより、ユーザの首の姿勢、及び眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。
As described above, even in the fourth embodiment, by using both the
[その他の実施形態]
本発明の装置は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。
[Other Embodiments]
The apparatus of the present invention can be realized by a computer and a program, and can be recorded on a recording medium or provided through a network.
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.
1,212,312…加速度センサ、2…端末角度算出手段、3…姿勢判定手段、4…姿勢情報DB、5…情報提示手段、6,211…測距センサ、7,311…カメラ、8…画面−眼距離検出手段、9,323…テンプレートDB、21…一次情報取得手段、22…姿勢検出手段、222,324…マッチング手段。 1, 212, 312 ... Acceleration sensor, 2 ... Terminal angle calculation means, 3 ... Posture determination means, 4 ... Posture information DB, 5 ... Information presentation means, 6, 211 ... Distance sensor, 7, 311 ... Camera, 8 ... Screen-eye distance detection means, 9,323 ... template DB, 21 ... primary information acquisition means, 22 ... posture detection means, 222, 324 ... matching means.
Claims (9)
前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルをメモリに記憶し、
前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出し、
前記算出結果と前記メモリに記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定し、
前記ユーザの姿勢の判定結果を、前記ユーザに提示することを特徴とする姿勢検出方法。 In the attitude detection method used by the mobile terminal possessed by the user,
Storing a table in which the inclination of the mobile terminal and the posture information of the user are associated with each other in a memory;
Calculating the inclination of the mobile terminal when the user operates the mobile terminal;
Compare the calculation result with the table stored in the memory, and based on the comparison result, determine the posture of the user,
A posture detection method comprising presenting a determination result of the user posture to the user.
前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルを記憶する記憶手段と、
前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出する算出手段と、
前記算出手段による算出結果と前記記憶手段に記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定する判定手段と、
前記ユーザの姿勢の判定結果を、前記ユーザに提示する提示手段とを具備することを特徴とする携帯端末装置。 In the mobile terminal device possessed by the user,
Storage means for storing a table in which the inclination of the mobile terminal is associated with the posture information of the user;
Calculating means for calculating an inclination of the mobile terminal when the user operates the mobile terminal;
A determination unit that compares the calculation result of the calculation unit with the table stored in the storage unit, and determines the posture of the user based on the comparison result;
A portable terminal device comprising: presentation means for presenting the determination result of the user's posture to the user.
前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルを記憶する記憶手段と、
前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出する算出手段と、
前記算出手段による算出結果と前記記憶手段に記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定する判定手段と、
前記ユーザの姿勢の判定結果を、前記ユーザに提示する提示手段と
して動作させるプログラム。 A storage unit that stores a table in which the mobile terminal device is associated with the inclination of the mobile terminal and the posture information of the user, the program being executed by the mobile terminal device;
Calculating means for calculating an inclination of the mobile terminal when the user operates the mobile terminal;
A determination unit that compares the calculation result of the calculation unit with the table stored in the storage unit, and determines the posture of the user based on the comparison result;
A program for operating the determination result of the user's posture as a presenting means for presenting to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171110A JP2015039472A (en) | 2013-08-21 | 2013-08-21 | Posture detection method, portable terminal device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013171110A JP2015039472A (en) | 2013-08-21 | 2013-08-21 | Posture detection method, portable terminal device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015039472A true JP2015039472A (en) | 2015-03-02 |
Family
ID=52693984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013171110A Pending JP2015039472A (en) | 2013-08-21 | 2013-08-21 | Posture detection method, portable terminal device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015039472A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135340A (en) * | 2019-02-19 | 2020-08-31 | Kddi株式会社 | Portable device, program, and method for estimating bending state of user's neck |
CN112732497A (en) * | 2020-12-29 | 2021-04-30 | 深圳微步信息股份有限公司 | Terminal device and detection method based on terminal device |
WO2022176176A1 (en) | 2021-02-19 | 2022-08-25 | 国立大学法人東北大学 | Spinal alignment estimating device, spinal alignment estimating system, spinal alignment estimating method, spinal alignment estimating program, and computer-readable recording medium for recording spinal alignment estimating program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013069286A (en) * | 2011-09-20 | 2013-04-18 | Samsung Electronics Co Ltd | Device and method for guiding correct posture for equipment use |
-
2013
- 2013-08-21 JP JP2013171110A patent/JP2015039472A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013069286A (en) * | 2011-09-20 | 2013-04-18 | Samsung Electronics Co Ltd | Device and method for guiding correct posture for equipment use |
Non-Patent Citations (1)
Title |
---|
HOSUB LEE ET. AL.: ""A New Posture Monitoring System for Preventing Physical Illness of Smartphone Users"", 2013 IEEE 10TH CONSUMER COMMUNICATIONS AND NETWORKING CONFERENCE (CCNC), JPN6016032121, 14 January 2013 (2013-01-14), pages 713 - 716, XP032350011, ISSN: 0003384198, DOI: 10.1109/CCNC.2013.6488532 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135340A (en) * | 2019-02-19 | 2020-08-31 | Kddi株式会社 | Portable device, program, and method for estimating bending state of user's neck |
JP7055111B2 (en) | 2019-02-19 | 2022-04-15 | Kddi株式会社 | Mobile devices, programs and methods that can estimate the user's neck bending state |
CN112732497A (en) * | 2020-12-29 | 2021-04-30 | 深圳微步信息股份有限公司 | Terminal device and detection method based on terminal device |
WO2022176176A1 (en) | 2021-02-19 | 2022-08-25 | 国立大学法人東北大学 | Spinal alignment estimating device, spinal alignment estimating system, spinal alignment estimating method, spinal alignment estimating program, and computer-readable recording medium for recording spinal alignment estimating program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI571807B (en) | Adaptive text font and image adjustments in smart handheld devices for improved usability | |
US9578248B2 (en) | Method for generating thumbnail image and electronic device thereof | |
EP2998848B1 (en) | Method, device, and apparatus for controlling screen rotation | |
US8463075B2 (en) | Dynamically resizing text area on a display device | |
US20180115714A1 (en) | Video stabilization for mobile devices | |
CN113438511B (en) | Method, medium and system for automatic adjustment of video direction | |
US9424469B2 (en) | Differing region detection system and differing region detection method | |
US20180290020A1 (en) | Apparatus, method, and program product for tracking physical activity | |
JP2017162103A (en) | Inspection work support system, inspection work support method, and inspection work support program | |
JP6015743B2 (en) | Information processing apparatus, information processing method, and program | |
US9280452B1 (en) | Systems and methods for generating test cases | |
US20120105589A1 (en) | Real time three-dimensional menu/icon shading | |
US20150234461A1 (en) | Display control device, display control method and recording medium | |
CN104536661A (en) | Terminal screen shot method | |
US20230153897A1 (en) | Integrating a product model into a user supplied image | |
US20150010206A1 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
CN107657595A (en) | A kind of distortion correction method and mobile terminal and related media production | |
JP2015039472A (en) | Posture detection method, portable terminal device and program | |
US10664066B2 (en) | Method and apparatus for adjusting orientation, and electronic device | |
CN113553261B (en) | Software automated testing method, device and computer readable storage medium | |
CN106325492B (en) | Orientation adjusting method and device and electronic equipment | |
JPWO2016174942A1 (en) | Information processing apparatus, information processing method, and program | |
CN103823610B (en) | A kind of electronic equipment and its information processing method | |
US20210027434A1 (en) | Systems and Methods for Leveling Images | |
US20150029351A1 (en) | Display method, image capturing method and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150928 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170321 |