JP2015039472A - Posture detection method, portable terminal device and program - Google Patents

Posture detection method, portable terminal device and program Download PDF

Info

Publication number
JP2015039472A
JP2015039472A JP2013171110A JP2013171110A JP2015039472A JP 2015039472 A JP2015039472 A JP 2015039472A JP 2013171110 A JP2013171110 A JP 2013171110A JP 2013171110 A JP2013171110 A JP 2013171110A JP 2015039472 A JP2015039472 A JP 2015039472A
Authority
JP
Japan
Prior art keywords
user
posture
mobile terminal
inclination
portable terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013171110A
Other languages
Japanese (ja)
Inventor
裕 千明
Yutaka Chiaki
裕 千明
哲也 浦
Tetsuya Ura
哲也 浦
智博 田中
Tomohiro Tanaka
智博 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013171110A priority Critical patent/JP2015039472A/en
Publication of JP2015039472A publication Critical patent/JP2015039472A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a posture detection method which can achieve a technique for detecting the posture of a user and a distance between a screen and eyes of the user from a portable terminal, a portable terminal device, and a program.SOLUTION: By using inclination of a terminal calculated by terminal angle calculation means 2 on the basis of acceleration acquired from an acceleration sensor 1, posture determination means 3 determines goodness of the posture of a user by comparing inclination information stored in a posture information DB 4 and the inclination of the terminal. Then, information presentation means 5 presents the goodness of the posture to the user on the basis of the determination result.

Description

本発明は、ユーザが携帯端末上のコンテンツを閲覧する際の姿勢を検出するための姿勢検出方法及び携帯端末装置及びプログラムに関する。   The present invention relates to a posture detection method, a portable terminal device, and a program for detecting a posture when a user browses content on a portable terminal.

携帯電話やスマートフォン、タブレットデバイス等の携帯端末が普及している。これら携帯端末を用いてWebサイトや電子書籍といったコンテンツを閲覧する際、利用者の姿勢が悪化した状態での使用はストレートネックといった首や肩等への被害をもたらすと言われている(例えば、非特許文献1を参照。)。また、画面との距離が近いことは眼の疲労を増加させると言われている(例えば、非特許文献2を参照。)。   Mobile terminals such as mobile phones, smartphones, and tablet devices are widespread. When browsing content such as websites and e-books using these portable terminals, it is said that use in a state where the user's attitude has deteriorated causes damage to the neck and shoulders such as a straight neck (for example, (See Non-Patent Document 1.) In addition, it is said that a short distance from the screen increases eye fatigue (see, for example, Non-Patent Document 2).

このような問題を解決するための方法として、従来は設置型のカメラによる技術が用いられていた(例えば、特許文献1を参照。)。   As a method for solving such a problem, conventionally, a technique using a stationary camera has been used (see, for example, Patent Document 1).

特開平11-313799号公報Japanese Patent Laid-Open No. 11-313799

腕のしびれは危険信号 危ない「首こり」対策、日経ヘルス&プルミエ、2011年4月Numbness of arm is a danger signal Dangerous “neck stiffness” measures, Nikkei Health & Premiere, April 2011 パソコン・携帯で疲れた目をいやす方法、日経ヘルス&プルミエ、2011年4月Nikkei Health & Premiere, April 2011

しかし、先行技術では座席等のあらかじめ決められた位置でのみ計測が可能で、場所によらない使用が難しい。また先行技術では画面と眼との距離は検出可能であるが、姿勢については検出が行えない。
本発明の目的は、このような背景を踏まえ、携帯端末から利用者の姿勢、あるいは利用者の画面と眼との距離を検出するための技術を実現し得る姿勢検出方法及び携帯端末装置及びプログラムを提供することにある。
However, in the prior art, it is possible to measure only at a predetermined position such as a seat, and it is difficult to use it regardless of location. In the prior art, the distance between the screen and the eyes can be detected, but the posture cannot be detected.
An object of the present invention is based on such a background, and a posture detection method, a portable terminal device, and a program capable of realizing a technique for detecting a posture of a user from a portable terminal or a distance between a user's screen and eyes. Is to provide.

上記目的を達成するために本発明に係る姿勢検出方法は、ユーザが所持する携帯端末で使用される姿勢検出方法において、前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルをメモリに記憶し、前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出し、前記算出結果と前記メモリに記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定し、前記ユーザの姿勢の判定結果を、前記ユーザに提示するようにしたものである。   In order to achieve the above object, a posture detection method according to the present invention is a posture detection method used in a portable terminal possessed by a user, wherein a table associating the inclination of the portable terminal with the posture information of the user is provided. Storing in a memory, calculating an inclination of the mobile terminal when the user operates the mobile terminal, comparing the calculation result with the table stored in the memory, and based on the comparison result, The user's posture is determined, and the determination result of the user's posture is presented to the user.

また、本発明に係る姿勢検出方法の一観点は以下のような態様を備える。
第1の態様は、前記携帯端末の傾きを算出することにおいて、加速度センサにより計測される加速度に基づいて、前記携帯端末の傾きを算出する。
第2の態様は、前記携帯端末の傾きを算出することにおいて、測距センサまたはカメラによる計測結果に基づいて、前記携帯端末の画面と前記ユーザの目との距離を算出することにより、前記携帯端末の傾きを算出する。
One aspect of the posture detection method according to the present invention includes the following aspects.
In the first aspect, in calculating the tilt of the mobile terminal, the tilt of the mobile terminal is calculated based on the acceleration measured by the acceleration sensor.
In the second aspect, in calculating the inclination of the mobile terminal, the mobile terminal is calculated by calculating a distance between the screen of the mobile terminal and the eyes of the user based on a measurement result by a distance measuring sensor or a camera. Calculate the tilt of the terminal.

第3の態様は、前記携帯端末の傾きを算出することにおいて、加速度センサと測距センサとによる計測結果、または加速度センサとカメラとによる計測結果に基づいて、前記携帯端末の傾きを算出する。   In a third aspect, in calculating the tilt of the mobile terminal, the tilt of the mobile terminal is calculated based on a measurement result by the acceleration sensor and the distance measurement sensor or a measurement result by the acceleration sensor and the camera.

本発明によれば、予め携帯端末の傾きと、ユーザの姿勢情報とを対応付けたテーブルをメモリに記憶して管理しておき、ユーザによる携帯端末の操作時の携帯端末の傾きを算出し、算出結果とメモリに記憶されているテーブルとを比較し、この比較結果に基づいて、ユーザの姿勢を判定することが可能となる。
従って、ユーザの悪い姿勢の発生や継続を検出し提示することで、コンテンツ閲覧中の姿勢を良好に保ち、結果生活の質の向上が期待できる。
According to the present invention, the table in which the inclination of the portable terminal and the user's posture information are associated with each other is stored in the memory and managed, and the inclination of the portable terminal when the user operates the portable terminal is calculated. It is possible to compare the calculation result with a table stored in the memory and determine the user's posture based on the comparison result.
Therefore, by detecting and presenting the occurrence or continuation of a bad posture of the user, it is possible to maintain a good posture during content browsing and to improve the quality of life as a result.

第1の態様によれば、携帯端末に備えられる加速度センサを利用して、場所に限定されることなくユーザの悪い姿勢の発生や継続を検出し提示することができる。また、加速度センサを利用することで、ユーザの首の姿勢を判定できる。   According to the first aspect, it is possible to detect and present the occurrence or continuation of a bad posture of the user without being limited to a place by using the acceleration sensor provided in the mobile terminal. In addition, the user's neck posture can be determined by using the acceleration sensor.

第2の態様によれば、携帯端末に備えられる測距センサを利用して、場所に限定されることなく、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。また、携帯端末に備えられるカメラを利用する場合も、既存の計測系を使用して、場所に限定されることなく、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。   According to the second aspect, by using the distance measuring sensor provided in the mobile terminal, the viewing state is not limited to a place, and the viewing state increases eye fatigue because the distance between the eye and the screen is short. Can be determined. In addition, when using a camera equipped with a mobile terminal, the existing measurement system is used, and the viewing is not limited to a place, and the viewing distance increases the eye fatigue due to the close distance between the eyes and the screen. The state can be determined.

第3の態様によれば、ユーザの首の姿勢、及び眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。   According to the third aspect, since the user's neck posture and the distance between the eyes and the screen are close, it is possible to determine a viewing state that increases eye fatigue.

本発明の第1の実施形態に係わる姿勢検出装置の構成を示すブロック図。1 is a block diagram showing a configuration of an attitude detection apparatus according to a first embodiment of the present invention. 本発明の第2の実施形態に係わる姿勢検出装置の実施例1の構成を示すブロック図。The block diagram which shows the structure of Example 1 of the attitude | position detection apparatus concerning the 2nd Embodiment of this invention. 本発明の第2の実施形態に係わる姿勢検出装置の実施例2の構成を示すブロック図。The block diagram which shows the structure of Example 2 of the attitude | position detection apparatus concerning the 2nd Embodiment of this invention. 実施例2における画面−眼距離検出手段がカメラの撮影した頭部画像から利用者の眼と端末画面との距離を算出する際の処理を表すフローチャート。9 is a flowchart illustrating processing when the screen-eye distance detection unit according to the second embodiment calculates a distance between a user's eye and a terminal screen from a head image captured by a camera. 上記図4に示すステップST4の詳細な処理内容を示す図。The figure which shows the detailed processing content of step ST4 shown in the said FIG. 本発明の第3の実施形態に係わる姿勢検出装置の構成を示すブロック図。The block diagram which shows the structure of the attitude | position detection apparatus concerning the 3rd Embodiment of this invention. 本発明の第4の実施形態に係わる姿勢検出装置の構成を示すブロック図。The block diagram which shows the structure of the attitude | position detection apparatus concerning the 4th Embodiment of this invention.

[第1の実施形態]
図1は本発明の第1の実施形態に係わる姿勢検出装置の構成を示す。姿勢検出装置は、加速度センサ1と、端末角度算出手段2と、姿勢判定手段3と、姿勢情報DB4と、情報提示手段5から構成される。また、姿勢検出装置は、例えば携帯端末に備えられるものである。端末角度算出手段2、姿勢判定手段3及び姿勢情報DB(データベース)4は、例えば、CPU、メモリ、ハードディスクを備える制御部に備えられる。情報提示手段5は、例えば携帯端末の入出力部に備えられる。入出力部は、携帯端末に対し種々の動作指示を入力するために使用するもので、ユーザによるキーワードの入力を受け付け、またweb(図示せず)から送られるデータを入力し、またコンテンツを閲覧するためのものである。
[First Embodiment]
FIG. 1 shows the configuration of an attitude detection apparatus according to the first embodiment of the present invention. The posture detection device includes an acceleration sensor 1, a terminal angle calculation unit 2, a posture determination unit 3, a posture information DB 4, and an information presentation unit 5. Further, the posture detection device is provided in, for example, a mobile terminal. The terminal angle calculation unit 2, the posture determination unit 3, and the posture information DB (database) 4 are provided in a control unit including, for example, a CPU, a memory, and a hard disk. The information presentation unit 5 is provided in, for example, an input / output unit of a mobile terminal. The input / output unit is used to input various operation instructions to the mobile terminal, accepts keyword input by the user, inputs data sent from a web (not shown), and browses content Is to do.

加速度センサ1は、加速度情報に基づき、利用者の携帯端末に働く加速度情報を検出する。加速度センサ1による加速度の検出方法としては、例えば、一定の周期Tiで、携帯端末の図1中x軸、y軸、z軸への移動方向と移動加速度を算出する。
端末角度算出手段2は、加速度センサ1が取得した加速度に基づき、携帯端末の角度を算出する。ここで、加速度から角度を算出するための方法としては例えば以下の計算式が挙げられる。
θ=arccos(Az/g) …(1)
The acceleration sensor 1 detects acceleration information acting on the user's mobile terminal based on the acceleration information. As a method of detecting acceleration by the acceleration sensor 1, for example, the movement direction and movement acceleration of the portable terminal in the x-axis, y-axis, and z-axis in FIG.
The terminal angle calculation unit 2 calculates the angle of the mobile terminal based on the acceleration acquired by the acceleration sensor 1. Here, as a method for calculating the angle from the acceleration, for example, the following calculation formula can be given.
θ = arccos (Az / g) (1)

ここで、θは角度、Azは端末の加速度センサ1のz軸方向にかかる加速度、gは重力加速度である。
姿勢情報DB4には、予め携帯端末のZ軸と重力とのなす角度と、携帯端末の利用者の姿勢を示す情報とを対応付けたテーブルが格納されている。ここで、携帯端末のZ軸と重力とのなす角度が60degから90degの間である場合、携帯端末の利用者の眼は携帯端末の画面に正対している状態である。一方、携帯端末のZ軸と重力とのなす角度が0degから60degの間である場合、携帯端末の利用者は、首を曲げ上から下を見下げる姿勢で携帯端末の画面上のコンテンツを閲覧している状態である。
Here, θ is an angle, Az is an acceleration applied in the z-axis direction of the acceleration sensor 1 of the terminal, and g is a gravitational acceleration.
The attitude information DB 4 stores a table in which an angle formed by the Z axis of the mobile terminal and gravity and information indicating the user's attitude of the mobile terminal are associated with each other in advance. Here, when the angle between the Z axis of the mobile terminal and gravity is between 60 deg and 90 deg, the user's eyes of the mobile terminal are in a state of facing the screen of the mobile terminal. On the other hand, when the angle between the Z axis of the mobile terminal and gravity is between 0 deg and 60 deg, the user of the mobile terminal browses the content on the screen of the mobile terminal in a posture of bending the neck and looking down from above. It is in a state of being.

姿勢判定手段3は、端末角度算出手段2が算出した端末角度と姿勢情報DB4が保持する角度情報のテーブルとを比較し、現在の利用者の姿勢を判定する。
情報提示手段5は、姿勢判定手段4が判定した結果を利用者に対して提示する。ここで、提示の方法としては、携帯端末の画面の一部に姿勢が悪化している旨を表すアイコン等を提示することが挙げられる。
The posture determination unit 3 compares the terminal angle calculated by the terminal angle calculation unit 2 with the angle information table held by the posture information DB 4 to determine the current user posture.
The information presentation unit 5 presents the result determined by the posture determination unit 4 to the user. Here, as a presentation method, an icon or the like indicating that the posture is deteriorated may be presented on a part of the screen of the mobile terminal.

以上詳述したように第1の実施形態では、加速度センサ1から取得した加速度に基づき端末角度算出手段2が算出した端末の傾きを用いて、姿勢判定手段3が姿勢情報DB4の保持する傾き情報と前記端末の傾きとを比較することで利用者の姿勢の良さを判定したのち、その結果を元に情報提示手段5が利用者に対して姿勢の良さを提示する様に構成されている。そのため、利用者が携帯端末を利用してコンテンツを閲覧している状況において利用者の姿勢を判定して提示でき、利用者の姿勢悪化を防ぐことができる。   As described in detail above, in the first embodiment, the tilt information held by the posture determination unit 3 in the posture information DB 4 using the tilt of the terminal calculated by the terminal angle calculation unit 2 based on the acceleration acquired from the acceleration sensor 1. And the inclination of the terminal to determine the good posture of the user, and based on the result, the information presentation means 5 presents the good posture to the user. Therefore, the user's posture can be determined and presented in a situation where the user is browsing the content using the mobile terminal, and deterioration of the user's posture can be prevented.

また、上記第1の実施形態によれば、携帯端末に備えられる加速度センサ1を利用して、場所に限定されることなくユーザの悪い姿勢の発生や継続を検出し提示することができる。また、加速度センサ1を利用することで、ユーザの首の姿勢を判定できる。   Moreover, according to the said 1st Embodiment, generation | occurrence | production and continuation of a bad posture of a user can be detected and shown using the acceleration sensor 1 with which a portable terminal is equipped, without being limited to a place. Further, by using the acceleration sensor 1, the user's neck posture can be determined.

[第2の実施形態]
(実施例1)
図2は、本発明の第2の実施形態に係わる姿勢検出装置の実施例1の構成を示すものである。姿勢検出装置は、測距センサ6と、姿勢判定手段3と、姿勢情報DB4と、情報提示手段5から構成される。また、姿勢検出装置は、例えば携帯端末に備えられるものである。姿勢判定手段3及び姿勢情報DB4は、例えば、CPU、メモリ、ハードディスクを備える制御部に備えられる。情報提示手段5は、例えば携帯端末の入出力部に備えられる。入出力部は、携帯端末に対し種々の動作指示を入力するために使用するもので、ユーザによるキーワードの入力を受け付け、またweb(図示せず)から送られるデータを入力し、またコンテンツを閲覧するためのものである。
[Second Embodiment]
Example 1
FIG. 2 shows the configuration of Example 1 of the posture detection apparatus according to the second embodiment of the present invention. The posture detection device includes a distance measuring sensor 6, posture determination means 3, posture information DB 4, and information presentation means 5. Further, the posture detection device is provided in, for example, a mobile terminal. The posture determination unit 3 and the posture information DB 4 are provided in a control unit including a CPU, a memory, and a hard disk, for example. The information presentation unit 5 is provided in, for example, an input / output unit of a mobile terminal. The input / output unit is used to input various operation instructions to the mobile terminal, accepts keyword input by the user, inputs data sent from a web (not shown), and browses content Is to do.

測距センサ6は、携帯端末の画面と利用者の眼との距離を公知の技術を用いて計測する。この際の方法としては、赤外線を用いたものが考えられるが、これに限定されない。また、測距センサ6を起動させるタイミングは、例えば利用者がWebサイトやメール、動画、電子書籍等のコンテンツを閲覧中の1分に1回といった頻度が考えられるが、これに限定されない。   The distance measuring sensor 6 measures the distance between the screen of the portable terminal and the user's eyes using a known technique. As a method in this case, a method using infrared rays can be considered, but the method is not limited to this. The timing at which the distance measuring sensor 6 is activated may be, for example, once per minute while the user is browsing content such as a website, email, video, or electronic book, but is not limited thereto.

姿勢判定手段3は、測距センサ6が計測した前記画面と利用者の眼との距離と、姿勢情報DB4が保持する情報とを照らし合わせ、現在の閲覧状態を判定する。なお、画面と利用者の眼との距離が「0〜a」の場合、利用者の姿勢は「悪く」、画面と利用者の眼との距離が「a〜d(d>a)」の場合、利用者の姿勢は「良い」となる。
このようにすることで、第1の実施形態では加速度センサ1を利用して端末の角度に基づき閲覧状態を判定していたのに対し、第2の実施形態では測距センサ6を利用して端末と眼との距離を用いることで、首の角度が適切である場合であっても、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することが可能になる。
The posture determination means 3 compares the distance between the screen measured by the distance measuring sensor 6 and the user's eyes and the information held in the posture information DB 4 to determine the current browsing state. When the distance between the screen and the user's eyes is “0 to a”, the posture of the user is “bad”, and the distance between the screen and the user's eyes is “a to d (d> a)”. In this case, the user's attitude is “good”.
In this way, in the first embodiment, the browsing state is determined based on the angle of the terminal using the acceleration sensor 1, whereas in the second embodiment, the distance measuring sensor 6 is used. By using the distance between the terminal and the eye, even when the neck angle is appropriate, it is possible to determine the viewing state that increases eye fatigue due to the close distance between the eye and the screen become.

(実施例2)
図3は、本発明の第2の実施形態に係わる姿勢検出装置の実施例2の構成を示す図である。この姿勢検出装置は、カメラ7と、画面−眼距離検出手段8と、テンプレートDB9と、姿勢判定手段3と、姿勢情報DB4と、情報提示手段5から構成される。また、姿勢検出装置は、例えば携帯端末に備えられるものである。画面−眼距離検出手段8、テンプレートDB9、姿勢判定手段3及び姿勢情報DB4は、例えば、CPU、メモリ、ハードディスクを備える制御部に備えられる。情報提示手段5は、例えば携帯端末の入出力部に備えられる。入出力部は、携帯端末に対し種々の動作指示を入力するために使用するもので、ユーザによるキーワードの入力を受け付け、またweb(図示せず)から送られるデータを入力し、またコンテンツを閲覧するためのものである。
(Example 2)
FIG. 3 is a diagram showing a configuration of Example 2 of the posture detection apparatus according to the second embodiment of the present invention. This posture detection apparatus includes a camera 7, a screen-eye distance detection unit 8, a template DB 9, a posture determination unit 3, a posture information DB 4, and an information presentation unit 5. Further, the posture detection device is provided in, for example, a mobile terminal. The screen-eye distance detection unit 8, the template DB 9, the posture determination unit 3, and the posture information DB 4 are provided in a control unit including, for example, a CPU, a memory, and a hard disk. The information presentation unit 5 is provided in, for example, an input / output unit of a mobile terminal. The input / output unit is used to input various operation instructions to the mobile terminal, accepts keyword input by the user, inputs data sent from a web (not shown), and browses content Is to do.

カメラ7は、利用者の頭部画像を撮影する。撮影のタイミングは、例えば利用者がWebサイトやメール、動画、電子書籍等のコンテンツを閲覧中の1分に1回といった頻度が考えられるが、これに限定されない。
画面−眼距離検出手段8は、カメラ7が撮影した画像に基づき利用者の眼と端末画面との距離を算出する。
The camera 7 captures a user's head image. The timing of shooting may be, for example, a frequency of once per minute while a user is browsing content such as a website, email, video, or electronic book, but is not limited thereto.
The screen-eye distance detection means 8 calculates the distance between the user's eyes and the terminal screen based on the image taken by the camera 7.

姿勢判定手段3は、画面−眼距離検出手段8が算出した画面と眼との距離と、姿勢情報DB4が保持する情報とを照らし合わせ、現在の閲覧状態を判定する。なお、画面と利用者の眼との距離が「0〜a」の場合、利用者の姿勢は「悪く」、画面と利用者の眼との距離が「a〜d(d>a)」の場合、利用者の姿勢は「良い」となる。
次に画面−眼距離検出手段8が、カメラ7が撮影した頭部画像から利用者の眼と端末画面との距離を算出する際の処理について述べる。
The posture determination unit 3 determines the current browsing state by comparing the distance between the screen and the eye calculated by the screen-eye distance detection unit 8 and the information held in the posture information DB 4. When the distance between the screen and the user's eyes is “0 to a”, the posture of the user is “bad”, and the distance between the screen and the user's eyes is “a to d (d> a)”. In this case, the user's attitude is “good”.
Next, processing when the screen-eye distance detection unit 8 calculates the distance between the user's eyes and the terminal screen from the head image captured by the camera 7 will be described.

図4は、画面−眼距離検出手段8がカメラ7の撮影した頭部画像から利用者の眼と端末画面との距離を算出する際の処理を表すフローチャートである。以下ではこのフローチャートが行う処理について具体的に述べる。
画面−眼距離検出手段8は、カメラ7により利用者の頭部画像を撮影すると(ステップST1)、変数c、d、cmaxをそれぞれ初期化する(ステップST2)。ここでcは画像の拡大係数、dは誤差変数で、cmaxはcの取りうる上限値を表し、それぞれ予め定められた十分大きな値を格納しておく。
FIG. 4 is a flowchart showing processing when the screen-eye distance detection unit 8 calculates the distance between the user's eyes and the terminal screen from the head image captured by the camera 7. Hereinafter, the processing performed by this flowchart will be described in detail.
When the screen-eye distance detection means 8 captures the user's head image with the camera 7 (step ST1), it initializes variables c, d, and cmax, respectively (step ST2). Here, c is an image enlargement coefficient, d is an error variable, cmax represents an upper limit value that can be taken by c, and a predetermined sufficiently large value is stored.

画面−眼距離検出手段8は、テンプレートDB9に予め保持しておいたテンプレートのサイズをc倍する(ステップST3)。
画面−眼距離検出手段8は、撮像画像の上の座標(x,y)の上にテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する(ステップST4)。ここで、重ね合わせ誤差については、テンプレートと撮影画像との共通領域におけるピクセル値の差分の絶対値を足しあわせ、それらを共通領域に存在するピクセル数で割ることで正規化したものが考えられるが、これに限定されない。
The screen-eye distance detecting means 8 multiplies the size of the template previously stored in the template DB 9 by c (step ST3).
The screen-eye distance detection means 8 arranges a template on coordinates (x, y) on the captured image, calculates an overlay error for all possible values of x and y, and can take the smallest possible value Is held as dmin (step ST4). Here, the overlay error may be normalized by adding the absolute values of the pixel value differences in the common area between the template and the captured image and dividing them by the number of pixels present in the common area. However, the present invention is not limited to this.

そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える(ステップST5及びステップST6)。
続いて、画面−眼距離検出手段8は、cとcmaxとの値を比較し(ステップST7)、cがcmaxよりも小さい場合にはステップST8に進む。
Then, the screen-eye distance detection means 8 compares the values of dmin and d, and if dmin takes a value smaller than d, d is replaced with dmin (step ST5 and step ST6).
Subsequently, the screen-eye distance detection unit 8 compares the values of c and cmax (step ST7), and if c is smaller than cmax, the process proceeds to step ST8.

画面−眼距離検出手段8は、ステップST8において、cに定数eを加算し、ステップST3へ進む。ここでeはテンプレートの大きさを少しずつ変化させるため、0.1といった小さな値を入れておくことが考えられるが、これに限定されない。
画面−眼距離検出手段8は、ステップST9において、変数dに格納された値と姿勢情報DB4を比較することで、距離を算出して終了する。
In step ST8, the screen-eye distance detection means 8 adds a constant e to c, and proceeds to step ST3. Here, since e changes the size of the template little by little, it is conceivable to put a small value such as 0.1, but is not limited to this.
In step ST9, the screen-eye distance detecting unit 8 compares the value stored in the variable d with the posture information DB 4 and ends the calculation.

図5は、上記ステップST4の詳細な処理内容を示す図である。
画面−眼距離検出手段8は、カメラ7により利用者の頭部画像が撮像されると(ステップST41)、テンプレートDB9に予め保持しておいたテンプレートのサイズをc倍にし、撮像画像の上の座標(x,y)の上にテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する。そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える(ステップST42)。
FIG. 5 is a diagram showing the detailed processing contents of step ST4.
When the user's head image is captured by the camera 7 (step ST41), the screen-eye distance detection means 8 increases the size of the template stored in advance in the template DB 9 by c times, and places the image above the captured image. A template is placed on the coordinates (x, y), an overlay error is calculated for all possible values of x and y, and the smallest possible value is held as dmin. Then, the screen-eye distance detection means 8 compares the values of dmin and d, and if dmin takes a value smaller than d, d is replaced with dmin (step ST42).

続いて、画面−眼距離検出手段8は、cとcmaxとの値を比較し、cがcmaxよりも小さい場合には、cに定数eを加算し、ステップST43の処理に移行する。ステップST43の処理において、撮像画像の上の座標(x,y)の上に拡大したテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する。そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える。   Subsequently, the screen-eye distance detection unit 8 compares the values of c and cmax. If c is smaller than cmax, the constant e is added to c, and the process proceeds to step ST43. In the process of step ST43, an enlarged template is arranged on the coordinates (x, y) on the captured image, and an overlay error is calculated for all possible values of x and y. Hold the value as dmin. Then, the screen-eye distance detection unit 8 compares the values of dmin and d, and when dmin takes a value smaller than d, replaces d with dmin.

続いて、画面−眼距離検出手段8は、c+eとcmaxとの値を比較し、c+eがcmaxよりも小さい場合には、さらに定数eを加算し、ステップST44の処理に移行する。ステップST44の処理において、撮像画像の上の座標(x,y)の上にさらに拡大したテンプレートを配置し、xとyの取りうる値全てにおいて重ね合わせ誤差を計算し、その中でとりうる最小の値をdminとして保持する。そして、画面−眼距離検出手段8は、dminとdとの値を比較し、dminがdよりも小さい値をとる場合はdをdminに置き換える。   Subsequently, the screen-eye distance detection means 8 compares the values of c + e and cmax, and if c + e is smaller than cmax, the constant e is further added, and the process proceeds to step ST44. In the process of step ST44, a further enlarged template is arranged on the coordinates (x, y) on the captured image, and an overlay error is calculated for all possible values of x and y. Is held as dmin. Then, the screen-eye distance detection unit 8 compares the values of dmin and d, and when dmin takes a value smaller than d, replaces d with dmin.

続いて、画面−眼距離検出手段8は、c+e+eとcmaxとの値を比較し、cmax以上と判断した場合に、処理を終了する。
このようにすることで、実施例2では、実施例1で必要となる測距センサ6が携帯端末に備わっていない場合であっても、カメラ7を用いて眼と画面との距離が算出可能になる。特に、携帯端末に備えられるカメラ7といった既存の計測系を使用して、場所に限定されることなく、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。
Subsequently, the screen-eye distance detection unit 8 compares the values of c + e + e and cmax, and ends the process when it is determined that cmax or more.
In this way, in the second embodiment, the distance between the eyes and the screen can be calculated using the camera 7 even when the distance measuring sensor 6 required in the first embodiment is not provided in the portable terminal. become. In particular, by using an existing measurement system such as the camera 7 provided in the mobile terminal, it is not limited to a place, and a viewing state that increases eye fatigue due to the short distance between the eye and the screen is determined. be able to.

以上述べたとおり、第1の実施形態では端末の角度に基づき閲覧状態を判定していたのに対し、第2の実施形態では端末と眼との距離を用いることで、首の角度が適切である場合であっても、眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することが可能になる。   As described above, in the first embodiment, the browsing state is determined based on the angle of the terminal, whereas in the second embodiment, the angle of the neck is appropriate by using the distance between the terminal and the eye. Even in some cases, since the distance between the eyes and the screen is short, it is possible to determine a browsing state that increases eye fatigue.

[第3の実施形態]
図6は、本発明の第3の実施形態に係わる姿勢検出装置の構成を示す図である。この姿勢検出装置は、一次情報取得手段21と、姿勢検出手段22と、情報提示手段5とから構成される。一次情報取得手段21は、測距センサ211と、加速度センサ212とを備えている。姿勢検出手段22は、端末角度検出手段221と、マッチング手段222と、姿勢情報DB223とを備えている。
[Third Embodiment]
FIG. 6 is a diagram showing a configuration of an attitude detection apparatus according to the third embodiment of the present invention. This posture detection apparatus includes a primary information acquisition unit 21, a posture detection unit 22, and an information presentation unit 5. The primary information acquisition unit 21 includes a distance measuring sensor 211 and an acceleration sensor 212. The posture detection unit 22 includes a terminal angle detection unit 221, a matching unit 222, and a posture information DB 223.

測距センサ211は、携帯端末の画面と利用者の眼との距離を公知の技術を用いて計測する。加速度センサ212は、加速度情報に基づき、利用者の携帯端末に働く加速度情報を検出する。
端末角度算出手段221は、加速度センサ212が取得した加速度に基づき、携帯端末の角度を算出する。
The distance measuring sensor 211 measures the distance between the screen of the portable terminal and the user's eyes using a known technique. The acceleration sensor 212 detects acceleration information acting on the user's mobile terminal based on the acceleration information.
The terminal angle calculation unit 221 calculates the angle of the mobile terminal based on the acceleration acquired by the acceleration sensor 212.

マッチング手段222は、端末角度算出手段221が算出した端末角度と測距センサ211による計測結果とが一致する場合に、姿勢情報DB223が保持する角度情報のテーブルとを比較し、現在の利用者の姿勢を判定する。
情報提示手段5は、マッチング手段222が判定した結果を利用者に対して提示する。また、マッチング手段222は、端末角度算出手段221が算出した端末角度と測距センサ211による計測結果とが一致しない場合に、例えば、測距センサ211もしくは加速度センサ212の故障を表すメッセージを利用者に対して提示する。
When the terminal angle calculated by the terminal angle calculation unit 221 and the measurement result by the distance measuring sensor 211 match, the matching unit 222 compares the angle information table held in the posture information DB 223 and compares the current user's Determine posture.
The information presenting means 5 presents the result determined by the matching means 222 to the user. In addition, the matching unit 222 displays, for example, a message indicating a failure of the distance measuring sensor 211 or the acceleration sensor 212 when the terminal angle calculated by the terminal angle calculating unit 221 and the measurement result by the distance measuring sensor 211 do not match. To present.

以上のように上記第3の実施形態によれば、測距センサ211及び加速度センサ212の両方を利用することにより、ユーザの首の姿勢、及び眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。   As described above, according to the third embodiment, since both the distance measuring sensor 211 and the acceleration sensor 212 are used, the posture of the user's neck and the distance between the eyes and the screen are close, and thus eye fatigue occurs. It is possible to determine the browsing state that increases

[第4の実施形態]
図7は、本発明の第4の実施形態に係わる姿勢検出装置の構成を示す図である。この姿勢検出装置は、一次情報取得手段31と、姿勢検出手段32と、情報提示手段5とから構成される。一次情報取得手段31は、カメラ311と、加速度センサ312とを備えている。姿勢検出手段32は、距離算出手段321と、端末角度検出手段322と、テンプレートDB323と、マッチング手段324と、姿勢情報DB325とを備えている。
[Fourth Embodiment]
FIG. 7 is a diagram showing a configuration of an attitude detection apparatus according to the fourth embodiment of the present invention. This posture detection device includes primary information acquisition means 31, posture detection means 32, and information presentation means 5. The primary information acquisition unit 31 includes a camera 311 and an acceleration sensor 312. The posture detection unit 32 includes a distance calculation unit 321, a terminal angle detection unit 322, a template DB 323, a matching unit 324, and a posture information DB 325.

カメラ311は、利用者の頭部画像を撮影する。加速度センサ312は、加速度情報に基づき、利用者の携帯端末に働く加速度情報を検出する。
距離算出手段321は、テンプレートDB323に保持されているテンプレートを用いてカメラ311が撮影した画像に基づき利用者の眼と端末画面との距離を算出する。
The camera 311 captures a user's head image. The acceleration sensor 312 detects acceleration information acting on the user's mobile terminal based on the acceleration information.
The distance calculation unit 321 calculates the distance between the user's eyes and the terminal screen based on the image captured by the camera 311 using the template stored in the template DB 323.

端末角度算出手段322は、加速度センサ312が取得した加速度に基づき、携帯端末の角度を算出する。
マッチング手段324は、距離算出手段321による算出結果と端末角度算出手段322による算出結果とが一致する場合に、姿勢情報DB325が保持する角度情報のテーブルとを比較し、現在の利用者の姿勢を判定する。
The terminal angle calculation unit 322 calculates the angle of the mobile terminal based on the acceleration acquired by the acceleration sensor 312.
When the calculation result by the distance calculation unit 321 and the calculation result by the terminal angle calculation unit 322 match, the matching unit 324 compares the angle information table held in the posture information DB 325 to determine the current user posture. judge.

情報提示手段5は、マッチング手段324が判定した結果を利用者に対して提示する。また、マッチング手段324は、距離算出手段321による算出結果と端末角度算出手段322による算出結果とが一致しない場合に、例えば、カメラ311もしくは加速度センサ312の故障を表すメッセージを利用者に対して提示する。   The information presenting means 5 presents the result determined by the matching means 324 to the user. Further, the matching unit 324 presents, for example, a message indicating a failure of the camera 311 or the acceleration sensor 312 to the user when the calculation result by the distance calculation unit 321 and the calculation result by the terminal angle calculation unit 322 do not match. To do.

以上のように上記第4の実施形態であっても、カメラ311及び加速度センサ312の両方を利用することにより、ユーザの首の姿勢、及び眼と画面との距離が近いために眼の疲れを増大させるような閲覧状態を判定することができる。   As described above, even in the fourth embodiment, by using both the camera 311 and the acceleration sensor 312, the posture of the user's neck and the distance between the eyes and the screen are close, and thus eye fatigue is caused. The browsing state that increases can be determined.

[その他の実施形態]
本発明の装置は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。
[Other Embodiments]
The apparatus of the present invention can be realized by a computer and a program, and can be recorded on a recording medium or provided through a network.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1,212,312…加速度センサ、2…端末角度算出手段、3…姿勢判定手段、4…姿勢情報DB、5…情報提示手段、6,211…測距センサ、7,311…カメラ、8…画面−眼距離検出手段、9,323…テンプレートDB、21…一次情報取得手段、22…姿勢検出手段、222,324…マッチング手段。   1, 212, 312 ... Acceleration sensor, 2 ... Terminal angle calculation means, 3 ... Posture determination means, 4 ... Posture information DB, 5 ... Information presentation means, 6, 211 ... Distance sensor, 7, 311 ... Camera, 8 ... Screen-eye distance detection means, 9,323 ... template DB, 21 ... primary information acquisition means, 22 ... posture detection means, 222, 324 ... matching means.

Claims (9)

ユーザが所持する携帯端末で使用される姿勢検出方法において、
前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルをメモリに記憶し、
前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出し、
前記算出結果と前記メモリに記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定し、
前記ユーザの姿勢の判定結果を、前記ユーザに提示することを特徴とする姿勢検出方法。
In the attitude detection method used by the mobile terminal possessed by the user,
Storing a table in which the inclination of the mobile terminal and the posture information of the user are associated with each other in a memory;
Calculating the inclination of the mobile terminal when the user operates the mobile terminal;
Compare the calculation result with the table stored in the memory, and based on the comparison result, determine the posture of the user,
A posture detection method comprising presenting a determination result of the user posture to the user.
前記携帯端末の傾きを算出することは、加速度センサにより計測される加速度に基づいて、前記携帯端末の傾きを算出することを特徴とする請求項1記載の姿勢検出方法。   The attitude detection method according to claim 1, wherein calculating the inclination of the portable terminal calculates the inclination of the portable terminal based on an acceleration measured by an acceleration sensor. 前記携帯端末の傾きを算出することは、測距センサまたはカメラによる計測結果に基づいて、前記携帯端末の画面と前記ユーザの目との距離を算出することにより、前記携帯端末の傾きを算出することを特徴とする請求項1記載の姿勢検出方法。   Calculating the inclination of the portable terminal calculates the inclination of the portable terminal by calculating the distance between the screen of the portable terminal and the user's eyes based on the measurement result by the distance measuring sensor or the camera. The posture detection method according to claim 1. 前記携帯端末の傾きを算出することは、加速度センサと測距センサとによる計測結果、または加速度センサとカメラとによる計測結果に基づいて、前記携帯端末の傾きを算出することを特徴とする請求項1記載の姿勢検出方法。   The calculating of the inclination of the portable terminal is based on a measurement result obtained by an acceleration sensor and a distance measuring sensor or a measurement result obtained by an acceleration sensor and a camera. The posture detection method according to 1. ユーザが所持する携帯端末装置において、
前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルを記憶する記憶手段と、
前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出する算出手段と、
前記算出手段による算出結果と前記記憶手段に記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定する判定手段と、
前記ユーザの姿勢の判定結果を、前記ユーザに提示する提示手段とを具備することを特徴とする携帯端末装置。
In the mobile terminal device possessed by the user,
Storage means for storing a table in which the inclination of the mobile terminal is associated with the posture information of the user;
Calculating means for calculating an inclination of the mobile terminal when the user operates the mobile terminal;
A determination unit that compares the calculation result of the calculation unit with the table stored in the storage unit, and determines the posture of the user based on the comparison result;
A portable terminal device comprising: presentation means for presenting the determination result of the user's posture to the user.
前記算出手段は、加速度センサにより計測される加速度に基づいて、前記携帯端末の傾きを算出することを特徴とする請求項5記載の携帯端末装置。   The mobile terminal device according to claim 5, wherein the calculating unit calculates an inclination of the mobile terminal based on an acceleration measured by an acceleration sensor. 前記算出手段は、測距センサまたはカメラによる計測結果に基づいて、前記携帯端末の画面と前記ユーザの目との距離を算出することにより、前記携帯端末の傾きを算出することを特徴とする請求項5記載の携帯端末装置。   The said calculating means calculates the inclination of the said portable terminal by calculating the distance of the screen of the said portable terminal, and the said user's eyes based on the measurement result by a ranging sensor or a camera. Item 6. The mobile terminal device according to Item 5. 前記算出手段は、加速度センサと測距センサとによる計測結果、または加速度センサとカメラとによる計測結果に基づいて、前記携帯端末の傾きを算出することを特徴とする請求項5記載の携帯端末装置。   6. The portable terminal device according to claim 5, wherein the calculating means calculates the inclination of the portable terminal based on a measurement result obtained by an acceleration sensor and a distance measuring sensor or a measurement result obtained by an acceleration sensor and a camera. . 携帯端末装置により実行されるプログラムであって、前記携帯端末装置を
前記携帯端末の傾きと、前記ユーザの姿勢情報とを対応付けたテーブルを記憶する記憶手段と、
前記ユーザによる前記携帯端末の操作時の前記携帯端末の傾きを算出する算出手段と、
前記算出手段による算出結果と前記記憶手段に記憶されている前記テーブルとを比較し、この比較結果に基づいて、前記ユーザの姿勢を判定する判定手段と、
前記ユーザの姿勢の判定結果を、前記ユーザに提示する提示手段と
して動作させるプログラム。
A storage unit that stores a table in which the mobile terminal device is associated with the inclination of the mobile terminal and the posture information of the user, the program being executed by the mobile terminal device;
Calculating means for calculating an inclination of the mobile terminal when the user operates the mobile terminal;
A determination unit that compares the calculation result of the calculation unit with the table stored in the storage unit, and determines the posture of the user based on the comparison result;
A program for operating the determination result of the user's posture as a presenting means for presenting to the user.
JP2013171110A 2013-08-21 2013-08-21 Posture detection method, portable terminal device and program Pending JP2015039472A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013171110A JP2015039472A (en) 2013-08-21 2013-08-21 Posture detection method, portable terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171110A JP2015039472A (en) 2013-08-21 2013-08-21 Posture detection method, portable terminal device and program

Publications (1)

Publication Number Publication Date
JP2015039472A true JP2015039472A (en) 2015-03-02

Family

ID=52693984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171110A Pending JP2015039472A (en) 2013-08-21 2013-08-21 Posture detection method, portable terminal device and program

Country Status (1)

Country Link
JP (1) JP2015039472A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135340A (en) * 2019-02-19 2020-08-31 Kddi株式会社 Portable device, program, and method for estimating bending state of user's neck
CN112732497A (en) * 2020-12-29 2021-04-30 深圳微步信息股份有限公司 Terminal device and detection method based on terminal device
WO2022176176A1 (en) 2021-02-19 2022-08-25 国立大学法人東北大学 Spinal alignment estimating device, spinal alignment estimating system, spinal alignment estimating method, spinal alignment estimating program, and computer-readable recording medium for recording spinal alignment estimating program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069286A (en) * 2011-09-20 2013-04-18 Samsung Electronics Co Ltd Device and method for guiding correct posture for equipment use

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013069286A (en) * 2011-09-20 2013-04-18 Samsung Electronics Co Ltd Device and method for guiding correct posture for equipment use

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HOSUB LEE ET. AL.: ""A New Posture Monitoring System for Preventing Physical Illness of Smartphone Users"", 2013 IEEE 10TH CONSUMER COMMUNICATIONS AND NETWORKING CONFERENCE (CCNC), JPN6016032121, 14 January 2013 (2013-01-14), pages 713 - 716, XP032350011, ISSN: 0003384198, DOI: 10.1109/CCNC.2013.6488532 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135340A (en) * 2019-02-19 2020-08-31 Kddi株式会社 Portable device, program, and method for estimating bending state of user's neck
JP7055111B2 (en) 2019-02-19 2022-04-15 Kddi株式会社 Mobile devices, programs and methods that can estimate the user's neck bending state
CN112732497A (en) * 2020-12-29 2021-04-30 深圳微步信息股份有限公司 Terminal device and detection method based on terminal device
WO2022176176A1 (en) 2021-02-19 2022-08-25 国立大学法人東北大学 Spinal alignment estimating device, spinal alignment estimating system, spinal alignment estimating method, spinal alignment estimating program, and computer-readable recording medium for recording spinal alignment estimating program

Similar Documents

Publication Publication Date Title
TWI571807B (en) Adaptive text font and image adjustments in smart handheld devices for improved usability
US9578248B2 (en) Method for generating thumbnail image and electronic device thereof
EP2998848B1 (en) Method, device, and apparatus for controlling screen rotation
US8463075B2 (en) Dynamically resizing text area on a display device
US20180115714A1 (en) Video stabilization for mobile devices
CN113438511B (en) Method, medium and system for automatic adjustment of video direction
US9424469B2 (en) Differing region detection system and differing region detection method
US20180290020A1 (en) Apparatus, method, and program product for tracking physical activity
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
JP6015743B2 (en) Information processing apparatus, information processing method, and program
US9280452B1 (en) Systems and methods for generating test cases
US20120105589A1 (en) Real time three-dimensional menu/icon shading
US20150234461A1 (en) Display control device, display control method and recording medium
CN104536661A (en) Terminal screen shot method
US20230153897A1 (en) Integrating a product model into a user supplied image
US20150010206A1 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
CN107657595A (en) A kind of distortion correction method and mobile terminal and related media production
JP2015039472A (en) Posture detection method, portable terminal device and program
US10664066B2 (en) Method and apparatus for adjusting orientation, and electronic device
CN113553261B (en) Software automated testing method, device and computer readable storage medium
CN106325492B (en) Orientation adjusting method and device and electronic equipment
JPWO2016174942A1 (en) Information processing apparatus, information processing method, and program
CN103823610B (en) A kind of electronic equipment and its information processing method
US20210027434A1 (en) Systems and Methods for Leveling Images
US20150029351A1 (en) Display method, image capturing method and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170321