JP6823391B2 - Programs, computer-readable media, terminals, estimators and estimation methods - Google Patents

Programs, computer-readable media, terminals, estimators and estimation methods Download PDF

Info

Publication number
JP6823391B2
JP6823391B2 JP2016133051A JP2016133051A JP6823391B2 JP 6823391 B2 JP6823391 B2 JP 6823391B2 JP 2016133051 A JP2016133051 A JP 2016133051A JP 2016133051 A JP2016133051 A JP 2016133051A JP 6823391 B2 JP6823391 B2 JP 6823391B2
Authority
JP
Japan
Prior art keywords
estimation
terminal device
display surface
movement
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016133051A
Other languages
Japanese (ja)
Other versions
JP2018004503A (en
Inventor
藍 加藤
藍 加藤
京弥 中三川
京弥 中三川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Kasei EMD Corp
Original Assignee
Asahi Kasei EMD Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kasei EMD Corp filed Critical Asahi Kasei EMD Corp
Priority to JP2016133051A priority Critical patent/JP6823391B2/en
Publication of JP2018004503A publication Critical patent/JP2018004503A/en
Application granted granted Critical
Publication of JP6823391B2 publication Critical patent/JP6823391B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)

Description

本発明は、プログラム、コンピュータ可読媒体、端末装置、推定装置および推定方法に関する。 The present invention relates to programs, computer-readable media, terminal devices, estimation devices and estimation methods.

従来、パソコンなどの装置では、操作が行われたときの赤外線センサからの出力を用いて、人体等の検知対象がセンサの視野内の空間に存在するか否かを推定している(例えば、特許文献1参照)。
[特許文献1]特開2012−078959号公報
Conventionally, in a device such as a personal computer, whether or not a detection target such as a human body exists in the space within the field of view of the sensor is estimated by using the output from the infrared sensor when the operation is performed (for example,). See Patent Document 1).
[Patent Document 1] Japanese Unexamined Patent Publication No. 2012-078959

しかしながら、従来の検出手法では、検知対象が視野内の空間に存在していないにも関わらず存在すると推定する可能性があり、推定精度の向上が望まれる。 However, in the conventional detection method, there is a possibility that the detection target is estimated to exist even though it does not exist in the space in the visual field, and improvement in estimation accuracy is desired.

本発明の第1の態様においては、コンピュータを、端末装置に設けられた赤外線センサである第1センサから受け取った第1出力値を用いて、空間状態を推定する推定部と、端末装置に設けられた第2センサから受け取った第2出力値を用いて、端末装置の動きおよび姿勢の少なくとも一方を検出する検出部と、検出部により検出された端末装置の動きおよび姿勢の少なくとも一方に応じて、推定部による空間状態の推定を制御する制御部として機能させるプログラム、当該プログラムを備えるコンピュータ可読媒体、および推定装置を提供する。 In the first aspect of the present invention, the computer is provided in the terminal device and an estimation unit that estimates the spatial state using the first output value received from the first sensor, which is an infrared sensor provided in the terminal device. The second output value received from the second sensor is used to detect at least one of the movement and the posture of the terminal device, and according to at least one of the movement and the posture of the terminal device detected by the detection unit. Provided are a program that functions as a control unit that controls estimation of a spatial state by an estimation unit, a computer-readable medium provided with the program, and an estimation device.

本発明の第2の態様においては、端末装置に設けられた赤外線センサである第1センサから受け取った第1出力値を用いて、空間状態を推定する推定部と、端末装置に設けられた第2センサから受け取った第2出力値を用いて、端末装置の動きおよび姿勢の少なくとも一方を検出する検出部と、検出部により検出された端末装置の動きおよび姿勢の少なくとも一方に応じて、推定部による空間状態の推定を制御する制御部と、を備える推定装置、および当該推定装置を備える端末装置を提供する。 In the second aspect of the present invention, an estimation unit that estimates a spatial state using a first output value received from a first sensor, which is an infrared sensor provided in the terminal device, and a second unit provided in the terminal device. 2 A detection unit that detects at least one of the movement and orientation of the terminal device using the second output value received from the sensor, and an estimation unit according to at least one of the movement and orientation of the terminal device detected by the detection unit. Provided is an estimation device including a control unit that controls estimation of a spatial state by the above, and a terminal device including the estimation device.

本発明の第3の態様においては、端末装置に設けられた赤外線センサである第1センサから受け取った第1出力値を用いて、空間状態を推定する推定段階と、端末装置に設けられた第2センサから受け取った第2出力値を用いて、端末装置の動きおよび姿勢の少なくとも一方を検出する検出段階と、検出部により検出された端末装置の動きおよび姿勢の少なくとも一方に応じて、推定部による空間状態の推定を制御する制御段階と、を備える推定方法を提供する。 In the third aspect of the present invention, an estimation step for estimating a spatial state using a first output value received from a first sensor, which is an infrared sensor provided in the terminal device, and a third aspect provided in the terminal device. 2 The estimation unit according to the detection step of detecting at least one of the movement and the posture of the terminal device using the second output value received from the sensor and at least one of the movement and the posture of the terminal device detected by the detection unit. Provided is an estimation method including a control step for controlling the estimation of the spatial state by.

上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。 The above outline of the invention does not list all the features of the present invention. Sub-combinations of these feature groups can also be inventions.

本実施形態に係る端末装置を示す外観図である。It is an external view which shows the terminal apparatus which concerns on this embodiment. 本実施形態に係る端末装置を示す外観図である。It is an external view which shows the terminal apparatus which concerns on this embodiment. 本実施形態に係る端末装置を示す外観図である。It is an external view which shows the terminal apparatus which concerns on this embodiment. 本実施形態に係る端末装置を示す外観図である。It is an external view which shows the terminal apparatus which concerns on this embodiment. 本実施形態に係る端末装置を示すブロック図である。It is a block diagram which shows the terminal apparatus which concerns on this embodiment. 本実施形態に係る端末装置で検出可能な動きを説明するための図である。It is a figure for demonstrating the movement which can be detected by the terminal apparatus which concerns on this embodiment. 本実施形態に係る端末装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the terminal apparatus which concerns on this embodiment. 初期姿勢対応制御の動作を示すフローチャートである。It is a flowchart which shows the operation of the initial posture correspondence control. 姿勢対応制御の動作を示すフローチャートである。It is a flowchart which shows the operation of the posture correspondence control. 第1推定アルゴリズムによる推定処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the estimation process by the 1st estimation algorithm. 第3推定アルゴリズムによる推定処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the estimation process by the 3rd estimation algorithm. 第2推定アルゴリズムによる推定処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the estimation process by the 2nd estimation algorithm. 自動ログイン処理の動作を示すフローチャートである。It is a flowchart which shows the operation of the automatic login process. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 各推定アルゴリズムに対応する表示面の向きを説明するための図である。It is a figure for demonstrating the orientation of the display surface corresponding to each estimation algorithm. 表示面の向きによる閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the orientation of a display surface. 表示面の向きによる閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the orientation of a display surface. 第1筐体および第2筐体の角度に応じた閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value according to the angle of the 1st housing and the 2nd housing. 第1筐体および第2筐体の角度に応じた閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value according to the angle of the 1st housing and the 2nd housing. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 載置された端末装置の姿勢による閾値の設定を説明するための図である。It is a figure for demonstrating the setting of the threshold value by the posture of the mounted terminal apparatus. 端末装置の動作例を示す図である。It is a figure which shows the operation example of a terminal device. 本実施形態に係るコンピュータを示すブロック図である。It is a block diagram which shows the computer which concerns on this embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the inventions claimed in the claims. Also, not all combinations of features described in the embodiments are essential to the means of solving the invention.

[1.端末装置の外観]
図1A〜図1Dは、本実施形態に係る端末装置1を示す外観図である。端末装置1は、表示面111を有する第1筐体11を備えている。端末装置1は、キーボード120を有する第2筐体12をさらに備えてもよい。例えば、端末装置1は、ノートパソコンであってよい。
[1. Appearance of terminal device]
1A to 1D are external views showing a terminal device 1 according to the present embodiment. The terminal device 1 includes a first housing 11 having a display surface 111. The terminal device 1 may further include a second housing 12 having a keyboard 120. For example, the terminal device 1 may be a notebook computer.

表示面111は、ディスプレイ110(一例として液晶ディスプレイ)における表示画面である。表示面111は、操作者の指などの接触を検出するタッチセンサ112と積層されて、いわゆるタッチパネルとして機能してよい。 The display surface 111 is a display screen on the display 110 (for example, a liquid crystal display). The display surface 111 may function as a so-called touch panel by being laminated with the touch sensor 112 that detects the contact of the operator's finger or the like.

第1筐体11および第2筐体12は、それぞれ矩形板状であってよい。第1筐体11および第2筐体12は、同じサイズであってよい。 The first housing 11 and the second housing 12 may each have a rectangular plate shape. The first housing 11 and the second housing 12 may have the same size.

第2筐体12は、第1筐体11に対する角度が可変に設けられている。これにより、第2筐体12は、第1筐体11と協働して、表示面111およびキーボード120を内側にして開閉可能であってよい。これに加えて/代えて、第2筐体12は、第1筐体11と協働して、表示面111およびキーボード120を外側にして開閉可能であってよい。 The second housing 12 is provided with a variable angle with respect to the first housing 11. As a result, the second housing 12 may be opened and closed with the display surface 111 and the keyboard 120 inside in cooperation with the first housing 11. In addition to / instead of this, the second housing 12 may be opened and closed with the display surface 111 and the keyboard 120 on the outside in cooperation with the first housing 11.

第2筐体12は、第1筐体11に対して着脱可能であってよい。第2筐体12は、第1筐体11から脱着された場合に、脱着前とは異なる向きで、および/または、脱着前とは異なる位置で、第1筐体11に装着可能であってもよい。これにより、第2筐体12は、第1筐体11と協働して、表示面111およびキーボード120の少なくとも一方を外側にして開閉可能となっていてよい。 The second housing 12 may be detachable from the first housing 11. When the second housing 12 is detached from the first housing 11, it can be attached to the first housing 11 in a direction different from that before attachment / detachment and / or at a position different from that before attachment / detachment. May be good. As a result, the second housing 12 may be opened and closed with at least one of the display surface 111 and the keyboard 120 on the outside in cooperation with the first housing 11.

例えば、端末装置1は、図1Aで示されるラップトップ型、図1Bで示されるテント型、図1Cで示されるタブレット型、図1Dで示されるスタンド型の何れの形態で使用されてもよい。なお、図1B〜図1Dで示される端末装置1では、第2筐体12のキーボード120が第1筐体11の側に向いていてもよいし、反対の側に向いていてもよい。また、図1Cのタブレット型の端末装置1では、第1筐体11の背面側に第2筐体12が装着されているが、脱着されていてもよい。 For example, the terminal device 1 may be used in any of the laptop type shown in FIG. 1A, the tent type shown in FIG. 1B, the tablet type shown in FIG. 1C, and the stand type shown in FIG. 1D. In the terminal device 1 shown in FIGS. 1B to 1D, the keyboard 120 of the second housing 12 may face the side of the first housing 11 or may face the opposite side. Further, in the tablet-type terminal device 1 of FIG. 1C, the second housing 12 is mounted on the back side of the first housing 11, but it may be detached.

[2.端末装置の機能構成]
図2は、本実施形態に係る端末装置を示すブロック図である。
[2. Functional configuration of terminal device]
FIG. 2 is a block diagram showing a terminal device according to the present embodiment.

端末装置1は、近傍に操作者が存在するか否かにより状態を遷移する動作を行うものである。例えば、端末装置1は、自動的にログイン状態とログオフ状態とを切り替えてよい。これに加え/代えて、端末装置1は、近傍に操作者が存在するか否かにより自動的に通常電力状態と省電力状態とを切り替えてもよい。端末装置1は、赤外線センサ21と、1または複数の加速度センサ22と、推定装置10とを備えている。端末装置1は、1または複数の地磁気センサ23と、位置関係センサ24と、ユーザインターフェース30と、撮像部40と、撮像制御部50と、認証部60とをさらに備えてもよい。 The terminal device 1 performs an operation of transitioning a state depending on whether or not an operator is present in the vicinity. For example, the terminal device 1 may automatically switch between a login state and a log-off state. In addition to / instead of this, the terminal device 1 may automatically switch between the normal power state and the power saving state depending on whether or not an operator is present in the vicinity. The terminal device 1 includes an infrared sensor 21, one or more acceleration sensors 22, and an estimation device 10. The terminal device 1 may further include one or more geomagnetic sensors 23, a positional relationship sensor 24, a user interface 30, an imaging unit 40, an imaging control unit 50, and an authentication unit 60.

[2−1.赤外線センサ]
赤外線センサ21は、第1センサの一例である。赤外線センサ21は、視野内から受光した赤外線に基づいて信号を出力するセンサである。例えば、赤外線センサ21は、赤外線エネルギーを吸収することによって発生する温度変化を利用する熱型赤外線センサであってもよいし、入射した光エネルギーで励起された電子によって生じる導電率の変化または起電力を利用する量子型赤外線センサであってもよい。
[2-1. Infrared sensor]
The infrared sensor 21 is an example of the first sensor. The infrared sensor 21 is a sensor that outputs a signal based on the infrared rays received from the field of view. For example, the infrared sensor 21 may be a thermal infrared sensor that utilizes a temperature change generated by absorbing infrared energy, or a change in conductivity or electromotive force generated by electrons excited by incident light energy. It may be a quantum type infrared sensor that utilizes.

熱型赤外線センサとしては、焦電効果を用いた焦電素子、熱電効果を用いた熱電対およびサーモパイル、温度による電気抵抗の変化効果を用いたボロメータ等が挙げられる。量子型赤外線センサとしては、外部光電効果を用いた光電管、内部光電効果を用いた光伝導型センサおよび光起電力型センサが挙げられる。光伝導型センサおよび光起電力型センサとしては、テルル化カドミウム水銀を含む材料(HgCdTe等)、インジウムおよびアンチモン、砒素を含む材料(InSb、InAsSb、InAs等)等を素子素材としたフォトダイオードおよびフォトトランジスタが挙げられる。 Examples of the thermal infrared sensor include a pyroelectric element using the pyroelectric effect, a thermocouple and a thermopile using the thermoelectric effect, and a bolometer using the effect of changing the electric resistance with temperature. Examples of the quantum infrared sensor include a phototube using the external photoelectric effect, a photoconducting sensor using the internal photoelectric effect, and a photovoltaic sensor. Examples of the photoconducting type sensor and the photovoltaic type sensor include a photodiode using a material containing mercury cadmium telluride (HgCdTe, etc.), a material containing indium and antimony, and an arsenide (InSb, InAsSb, InAs, etc.) as an element material. Phototransistors can be mentioned.

熱型赤外線センサと量子型赤外線センサとの間では、量子型赤外線センサが好ましい。量子型赤外線センサは、応答速度が優れているためである。また、赤外線センサ21は、非冷却で動作可能であることが好ましく、さまざまな薄型機器に搭載されるために小型・薄型であることが好ましい。一例として、赤外線センサ21は、旭化成エレクトロニクス社製の赤外線センサ「IR1011」(商品名)であってもよいし、さらにセンサに信号処理用のICを付加した「AK9720」、「AK9750」、「AK9752」(商品名)などであってもよい。 A quantum infrared sensor is preferable between the thermal infrared sensor and the quantum infrared sensor. This is because the quantum infrared sensor has an excellent response speed. Further, the infrared sensor 21 is preferably operable without cooling, and is preferably small and thin so that it can be mounted on various thin devices. As an example, the infrared sensor 21 may be an infrared sensor "IR1011" (trade name) manufactured by Asahi Kasei Electronics Co., Ltd., or "AK9720", "AK9750", "AK9752" in which an IC for signal processing is added to the sensor. "(Product name) may be used.

赤外線センサ21は、第1筐体11に設けられてよい。例えば、赤外線センサ21は、端末装置1を操作者が操作しているとき、或いは操作者が表示面111を見ているときに当該操作者が視野(例えば観察可能な範囲)内に含まれるように設置されてよい。例えば、赤外線センサ21は、操作者の体表面からの赤外線を受光すべく、体表面の露出部分(一例として顔部分)が視野内に含まれるように設置されてよい。一例として、赤外線センサ21は、第1筐体11の上端部(一例として端末装置1がラップトップ型で使用されるときの第2筐体12から最も遠い側の端部)に設けられてよく、好ましくは上端部におけるディスプレイ110のベゼル部分に設けられてよい。また、赤外線センサ21は、端末装置1がラップトップ型で使用されるときにキーボード120の近傍の空間が視野内に入るように向けられてよい。 The infrared sensor 21 may be provided in the first housing 11. For example, the infrared sensor 21 is included in the field of view (for example, an observable range) when the operator is operating the terminal device 1 or when the operator is looking at the display surface 111. May be installed in. For example, the infrared sensor 21 may be installed so that an exposed portion (for example, a face portion) of the body surface is included in the visual field in order to receive infrared rays from the body surface of the operator. As an example, the infrared sensor 21 may be provided at the upper end of the first housing 11 (as an example, the farthest end from the second housing 12 when the terminal device 1 is used in a laptop type). It may be provided on the bezel portion of the display 110 at the upper end portion, preferably. Further, the infrared sensor 21 may be directed so that the space in the vicinity of the keyboard 120 is in the field of view when the terminal device 1 is used in the laptop type.

赤外線センサ21は、受光した赤外線に基づく赤外線出力値を推定装置10に供給してよい。赤外線出力値は、第1出力値の一例である。例えば、赤外線センサ21は、推定装置10における後述の推定部302に赤外線出力値を出力してよい。赤外線センサ21は、センサ部分で生成される信号値そのものを赤外線出力値として出力してもよいし、当該信号値にA/D変換、増幅およびバッファ等の信号処理が施された値を赤外線出力値として出力してもよい。 The infrared sensor 21 may supply an infrared output value based on the received infrared rays to the estimation device 10. The infrared output value is an example of the first output value. For example, the infrared sensor 21 may output an infrared output value to the estimation unit 302 described later in the estimation device 10. The infrared sensor 21 may output the signal value itself generated by the sensor portion as an infrared output value, or the infrared output is a value obtained by subjecting the signal value to signal processing such as A / D conversion, amplification, and buffer. It may be output as a value.

[2−2.加速度センサ]
1または複数の加速度センサ22は、第2センサの一例であり、端末装置1の動きおよび姿勢の少なくとも一方を検出するための物理量として、加速度を測定する。
[2-2. Acceleration sensor]
The one or more acceleration sensors 22 is an example of the second sensor, and measures the acceleration as a physical quantity for detecting at least one of the movement and the posture of the terminal device 1.

ここで、端末装置1の動きとは、例えば人、または、輸送手段(一例として自動車および電車など)による端末装置1の移動であってもよいし、姿勢の変化であってもよい。端末装置1の姿勢とは、端末装置1の向きおよび外形の少なくとも1つであってよく、例えば第1筐体11および第2筐体12の向きと、第1筐体11および第2筐体12の相対的な位置関係とであってよい。本実施形態で検出される端末装置1の姿勢については、図3を用いて詳細を後述する。 Here, the movement of the terminal device 1 may be, for example, the movement of the terminal device 1 by a person or a means of transportation (for example, a car or a train), or may be a change in posture. The posture of the terminal device 1 may be at least one of the orientation and the outer shape of the terminal device 1, for example, the orientation of the first housing 11 and the second housing 12, and the orientation of the first housing 11 and the second housing. It may be a relative positional relationship of twelve. The posture of the terminal device 1 detected in the present embodiment will be described in detail later with reference to FIG.

例えば、加速度センサ22は、少なくとも1方向への加速度を検出する加速度センサであってよく、好ましくは3方向への加速度を検出する3次元加速度センサであってよい。加速度センサ22は、第1筐体11に設けられてよい。加速度センサ22は、測定した加速度に基づく加速度出力値を検出部301に供給してよい。加速度出力値は、第2出力値の一例である。 For example, the acceleration sensor 22 may be an acceleration sensor that detects acceleration in at least one direction, and may preferably be a three-dimensional acceleration sensor that detects acceleration in three directions. The acceleration sensor 22 may be provided in the first housing 11. The acceleration sensor 22 may supply an acceleration output value based on the measured acceleration to the detection unit 301. The acceleration output value is an example of the second output value.

[2−3.地磁気センサ]
1または複数の地磁気センサ23は、地磁気を測定するセンサであり、いわゆる電子コンパスである。地磁気センサ23は、第1筐体11に設けられてもよいし、第2筐体12に設けられてもよい。地磁気センサ23は、測定した地磁気に基づく地磁気出力値を検出部301に供給してよい。
[2-3. Geomagnetic sensor]
The one or more geomagnetic sensors 23 are sensors that measure the geomagnetism, and are so-called electronic compasses. The geomagnetic sensor 23 may be provided in the first housing 11 or in the second housing 12. The geomagnetic sensor 23 may supply the measured geomagnetic output value based on the geomagnetism to the detection unit 301.

[2−4.位置関係センサ]
位置関係センサ24は、第1筐体11および第2筐体12の位置関係を検出するための物理量を測定する。例えば、位置関係センサ24は、第1筐体11および第2筐体12のなす角度を検出する角度センサであってよい。また、位置関係センサ24は、第2筐体12に設けられた加速度センサであってもよい。第2筐体12の加速度センサを第1筐体11の加速度センサ22と併用することで、第1筐体と第2筐体12とのなす角度を検出することができる。位置関係センサ24は、検出した物理量に基づく信号値を検出部301に供給してよい。
[2-4. Positional sensor]
The positional relationship sensor 24 measures a physical quantity for detecting the positional relationship between the first housing 11 and the second housing 12. For example, the positional relationship sensor 24 may be an angle sensor that detects the angle formed by the first housing 11 and the second housing 12. Further, the positional relationship sensor 24 may be an acceleration sensor provided in the second housing 12. By using the acceleration sensor of the second housing 12 together with the acceleration sensor 22 of the first housing 11, the angle formed by the first housing and the second housing 12 can be detected. The positional relationship sensor 24 may supply a signal value based on the detected physical quantity to the detection unit 301.

[2−5.推定装置]
推定装置10は、空間状態の推定を行うものである。推定装置10は、検出部301と、推定部302と、制御部303とを備える。これらの構成はアナログ回路、デジタル回路、および、プログラムにより動作するプロセッサまたはマイクロコントローラのいずれかまたはその組み合わせを用いて構成されてよい。
[2-5. Estimator]
The estimation device 10 estimates the spatial state. The estimation device 10 includes a detection unit 301, an estimation unit 302, and a control unit 303. These configurations may be configured using analog circuits, digital circuits, and / or combinations of processors or microcontrollers that operate programmatically.

[2−5−1.検出部]
検出部301は、加速度センサ22から受け取った加速度出力値を用いて、端末装置1の動きおよび姿勢の少なくとも一方を検出する。検出部301は、地磁気センサ23および/または位置関係センサ24から受け取った出力値を更に用いて、端末装置1の動きおよび姿勢の少なくとも一方を検出してもよい。
[2-5-1. Detection unit]
The detection unit 301 detects at least one of the movement and the posture of the terminal device 1 by using the acceleration output value received from the acceleration sensor 22. The detection unit 301 may further use the output value received from the geomagnetic sensor 23 and / or the positional relationship sensor 24 to detect at least one of the movement and the posture of the terminal device 1.

[2−5−2.推定部]
推定部302は、赤外線センサ21から受け取った赤外線出力値を用いて、空間状態を推定する。例えば、推定部302は、赤外線センサ21の視野内の空間に人などの検知対象が存在するか否かを、空間状態として推定してよい。推定部302は、推定装置10の外部のユーザインターフェース30等に推定結果を出力してよい。推定部302の動作については、詳細を後述する。
[2-5-2. Estimator]
The estimation unit 302 estimates the spatial state using the infrared output value received from the infrared sensor 21. For example, the estimation unit 302 may estimate as a spatial state whether or not a detection target such as a person exists in the space within the field of view of the infrared sensor 21. The estimation unit 302 may output the estimation result to the user interface 30 or the like outside the estimation device 10. The operation of the estimation unit 302 will be described in detail later.

[2−5−3.制御部]
制御部303は、検出部301により検出された端末装置1の動きおよび姿勢の少なくとも一方に応じて、推定部302による空間状態の推定を制御する。例えば、制御部303は、端末装置1が動いていることを検出部301が検出したことに応じて、推定部302による空間状態の推定、または、推定結果の出力をディセーブルしてよい。これに加え/代えて、制御部303は、検出部301により検出された表示面111の向きに応じて、推定部302による推定アルゴリズムおよび推定パラメータの少なくとも一方を変更してよい。推定パラメータは、赤外線出力値との比較に用いられる閾値であってよいが、閾値との比較に先立って赤外線出力値に乗算される係数であってもよい。制御部303の動作については、詳細を後述する。
[2-5-3. Control unit]
The control unit 303 controls the estimation of the spatial state by the estimation unit 302 according to at least one of the movement and the posture of the terminal device 1 detected by the detection unit 301. For example, the control unit 303 may disable the estimation of the spatial state by the estimation unit 302 or the output of the estimation result in response to the detection unit 301 detecting that the terminal device 1 is moving. In addition to / instead, the control unit 303 may change at least one of the estimation algorithm and the estimation parameter by the estimation unit 302 according to the orientation of the display surface 111 detected by the detection unit 301. The estimated parameter may be a threshold used for comparison with the infrared output value, but may be a coefficient multiplied by the infrared output value prior to comparison with the threshold. The operation of the control unit 303 will be described in detail later.

[2−6.ユーザインターフェース]
ユーザインターフェース30は、端末装置1と操作者との間で情報をやり取りする。例えば、ユーザインターフェース30は、ディスプレイ110、タッチセンサ112およびキーボード120等を有し、端末装置1のオペレーティングシステムと操作者との間で情報をやり取りしてよい。また、ユーザインターフェース30は、ユーザの操作に応じて端末装置1のログイン処理(および/またはログイン画面の表示処理)およびログアウト処理を行ってよい。また、ユーザインターフェース30は、推定装置10による推定結果に応じて自動でログイン処理およびログアウト処理を行ってもよい。
[2-6. User interface]
The user interface 30 exchanges information between the terminal device 1 and the operator. For example, the user interface 30 has a display 110, a touch sensor 112, a keyboard 120, and the like, and information may be exchanged between the operating system of the terminal device 1 and the operator. Further, the user interface 30 may perform a login process (and / or a login screen display process) and a logout process of the terminal device 1 according to the user's operation. Further, the user interface 30 may automatically perform login processing and logout processing according to the estimation result by the estimation device 10.

[2−7.撮像部]
撮像部40は、赤外線センサ21の視野内の空間を撮像する。例えば、撮像部40は、端末装置1を操作する操作者の顔認証を行う場合に、操作者の顔部分を含む空間を撮像可能であってよい。撮像部40の視野は、赤外線センサ21の視野と重なってよく、同一であってもよい。一例として、撮像部40はCCDカメラであってよい。撮像部40は、撮像画像のデータを認証部60などに供給してよい。
[2-7. Imaging unit]
The imaging unit 40 images the space in the field of view of the infrared sensor 21. For example, the imaging unit 40 may be able to image a space including the face portion of the operator when performing face recognition of the operator who operates the terminal device 1. The field of view of the imaging unit 40 may overlap with the field of view of the infrared sensor 21 and may be the same. As an example, the imaging unit 40 may be a CCD camera. The image pickup unit 40 may supply the data of the captured image to the authentication unit 60 or the like.

[2−8.撮像制御部]
撮像制御部50は、撮像部40を起動する。例えば、撮像制御部50は、推定部302により検知対象としての人の存在が推定されるようになった場合に撮像部40を起動してよい。
[2-8. Imaging control unit]
The image pickup control unit 50 activates the image pickup unit 40. For example, the imaging control unit 50 may activate the imaging unit 40 when the estimation unit 302 estimates the existence of a person as a detection target.

[2−9.認証部]
認証部60は、撮像制御部50により撮像部40が起動された場合に、撮像部40を用いて操作者の顔認証を行う。例えば、認証部60は、撮像部40から供給される撮像画像内で顔部分を検出してよい。また、認証部60は、検出された顔と、端末装置1内に登録されている1または複数の操作者の顔画像とを照合することで顔認証を行ってよい。認証部60は、顔認証が成功した場合には、このことを通知する信号をユーザインターフェース30に出力することで、ログイン処理を行わせてよい。これにより、赤外線センサ21の視野内に人が来た場合に、顔認証およびログイン処理が自動で行われる。
[2-9. Authentication Department]
When the image pickup unit 40 is activated by the image pickup control unit 50, the authentication unit 60 uses the image pickup unit 40 to authenticate the face of the operator. For example, the authentication unit 60 may detect the face portion in the captured image supplied from the imaging unit 40. Further, the authentication unit 60 may perform face authentication by collating the detected face with the face image of one or a plurality of operators registered in the terminal device 1. When the face authentication is successful, the authentication unit 60 may perform the login process by outputting a signal notifying this to the user interface 30. As a result, when a person comes within the field of view of the infrared sensor 21, face recognition and login processing are automatically performed.

以上の端末装置1によれば、端末装置1の動きおよび姿勢の少なくとも一方に応じて、赤外線出力値を用いた空間状態の推定を制御するので、端末装置1の動きおよび姿勢が既知である場合の推定を、無い場合の制御と相違させることができる。従って、推定の精度を向上させることができる。 According to the above terminal device 1, the estimation of the spatial state using the infrared output value is controlled according to at least one of the movement and the posture of the terminal device 1, so that the movement and the posture of the terminal device 1 are known. The estimation of can be different from the control without it. Therefore, the accuracy of estimation can be improved.

また、端末装置1が動いていることに応じて空間状態の推定、または推定結果の出力をディセーブルするので、端末装置1を使用している人の存在が分かっている状況下で人の存在を推定するのを防止することができる。従って、計算資源を低減したり、人が存在していないと誤って推定してしまうのを防止したりすることができる。 Further, since the estimation of the spatial state or the output of the estimation result is disabled according to the movement of the terminal device 1, the existence of a person is known in the situation where the existence of the person using the terminal device 1 is known. Can be prevented from being estimated. Therefore, it is possible to reduce computational resources and prevent erroneous estimation that a person does not exist.

また、表示面111の向きに応じて推定アルゴリズムおよび推定パラメータの少なくとも一方を変更するので、表示面111の向きに関わらず同じ推定アルゴリズムおよび推定パラメータで推定を行う場合と比較して、推定の精度を向上させることができる。 Further, since at least one of the estimation algorithm and the estimation parameter is changed according to the orientation of the display surface 111, the estimation accuracy is compared with the case where the estimation is performed with the same estimation algorithm and estimation parameter regardless of the orientation of the display surface 111. Can be improved.

[3.端末装置で検出可能な動き]
図3は、本実施形態に係る端末装置1で検出可能な動きを説明するための図である。
[3. Movement that can be detected by the terminal device]
FIG. 3 is a diagram for explaining a movement that can be detected by the terminal device 1 according to the present embodiment.

本実施形態に係る端末装置1では、加速度センサ22により、第1筐体11における3つの軸周りの回転が検出可能であってよい。例えば、加速度センサ22は、第1筐体11の長さ方向に平行なピッチ軸周り(図中の軸X参照)の回転が検出可能であってよい。また、加速度センサ22は、第1筐体11の幅方向に平行なヨー軸周り(図中の軸Y参照)の回転が検出可能であってよい。また、加速度センサ22は、第1筐体11の厚さ方向に平行なロール軸周り(図中の軸X参照)の回転が検出可能であってよい。一例として、ピッチ軸、ヨー軸およびロール軸は第1筐体11の中心を通ってよい。なお、端末装置1は、加速度センサ22に加え/代えて、他のセンサを第2センサとして用いてもよい。当該他のセンサは、端末装置1の動きおよび姿勢の少なくとも一方を検出するための物理量を、独立して、或いは別のセンサと協働して測定できればよく、例えば角速度センサであってよい。 In the terminal device 1 according to the present embodiment, the acceleration sensor 22 may be able to detect the rotation of the first housing 11 around the three axes. For example, the acceleration sensor 22 may be able to detect rotation around a pitch axis (see axis X in the figure) parallel to the length direction of the first housing 11. Further, the acceleration sensor 22 may be able to detect rotation around the yaw axis (see axis Y in the drawing) parallel to the width direction of the first housing 11. Further, the acceleration sensor 22 may be able to detect rotation around the roll axis (see axis X in the drawing) parallel to the thickness direction of the first housing 11. As an example, the pitch axis, yaw axis and roll axis may pass through the center of the first housing 11. In addition to / instead of the acceleration sensor 22, the terminal device 1 may use another sensor as the second sensor. The other sensor may be, for example, an angular velocity sensor, as long as it can measure a physical quantity for detecting at least one of the movement and the posture of the terminal device 1 independently or in cooperation with another sensor.

また、端末装置1では、地磁気センサ23により、端末装置1の向いている方位が検出可能であってよい。このような地磁気センサ23を加速度センサ22と併用することで、加速度センサ22のみでは検出精度の低い動き、例えば、水平方向に加速度が働くような端末装置1の動きを高い精度で検出することができる。なお、端末装置1は、地磁気センサ23に加えて/代えて、角速度または角加速度を測定するジャイロセンサを備えてもよい。ジャイロセンサを加速度センサ22と併用することによっても、水平方向に加速度が働くような端末装置1の動きを高い精度で検出することができる。 Further, in the terminal device 1, the geomagnetic sensor 23 may be able to detect the direction in which the terminal device 1 is facing. By using such a geomagnetic sensor 23 together with the acceleration sensor 22, it is possible to detect movements with low detection accuracy only with the acceleration sensor 22, for example, movements of the terminal device 1 in which acceleration acts in the horizontal direction with high accuracy. it can. In addition to / instead of the geomagnetic sensor 23, the terminal device 1 may include a gyro sensor for measuring angular velocity or angular acceleration. By using the gyro sensor together with the acceleration sensor 22, it is possible to detect the movement of the terminal device 1 such that the acceleration acts in the horizontal direction with high accuracy.

また、端末装置1では、位置関係センサ24により、第1筐体11および第2筐体12の相対的な位置関係が検出可能であってよい。例えば、第1筐体11および第2筐体12のなす角度が検出可能であってよい。 Further, in the terminal device 1, the positional relationship sensor 24 may be able to detect the relative positional relationship between the first housing 11 and the second housing 12. For example, the angle formed by the first housing 11 and the second housing 12 may be detectable.

[4.端末装置の動作]
図4は、本実施形態に係る端末装置1の動作を示すフローチャートである。端末装置1は、S1〜S9の処理を実行することにより、対象とする空間の状態の推定、例えば検知対象が存在するか否かを推定する。
[4. Operation of terminal device]
FIG. 4 is a flowchart showing the operation of the terminal device 1 according to the present embodiment. By executing the processes of S1 to S9, the terminal device 1 estimates the state of the target space, for example, whether or not the detection target exists.

まず、S1において、操作者による起動操作に応じて端末装置1が起動処理を行い、起動状態となる。例えば、端末装置1は、赤外線センサ21、加速度センサ22、地磁気センサ23および位置関係センサ24をイネーブルしてよい。 First, in S1, the terminal device 1 performs the activation process in response to the activation operation by the operator, and is in the activation state. For example, the terminal device 1 may enable the infrared sensor 21, the acceleration sensor 22, the geomagnetic sensor 23, and the positional relationship sensor 24.

次に、S3において検出部301は、端末装置1の動き(一例として姿勢を維持した動きおよび姿勢変化の少なくとも一方)が検出部301により検出されたか否かを判定する。例えば、検出部301は、加速度センサ22から受け取った加速度出力値を用いて、端末装置1の動きを検出してよい。一例として、検出部301は、加速度センサ22からの加速度出力値と、閾値とを比較することで、動きを検出してよい。また、検出部301は、地磁気センサ23および位置関係センサ24の少なくとも1つからの出力値と閾値とをさらに比較することで、動きを検出してもよい。なお、S3の処理では端末装置1の動きが検出されたか否かが判定されればよく、姿勢自体は検出されなくてもよい。 Next, in S3, the detection unit 301 determines whether or not the movement of the terminal device 1 (for example, at least one of the movement maintaining the posture and the posture change) is detected by the detection unit 301. For example, the detection unit 301 may detect the movement of the terminal device 1 by using the acceleration output value received from the acceleration sensor 22. As an example, the detection unit 301 may detect the motion by comparing the acceleration output value from the acceleration sensor 22 with the threshold value. Further, the detection unit 301 may detect the motion by further comparing the output value from at least one of the geomagnetic sensor 23 and the positional relationship sensor 24 with the threshold value. In the process of S3, it is sufficient to determine whether or not the movement of the terminal device 1 is detected, and the posture itself does not have to be detected.

S3において端末装置1の動きが検出されたと判定された場合(S3;Yes)には、制御部303は、S3の処理を繰り返す。これにより、後述のS8,S9以降で推定部302により行われる推定がディセーブルされる。なお、推定がディセーブルされるとは、推定結果の出力がディセーブルされることであってもよい。 When it is determined that the movement of the terminal device 1 is detected in S3 (S3; Yes), the control unit 303 repeats the process of S3. As a result, the estimation performed by the estimation unit 302 in S8 and S9 and later described later is disabled. Note that the estimation is disabled may mean that the output of the estimation result is disabled.

また、S3において端末装置1の動きが検出されない場合(S3;No)には、次にS5において制御部303は、加速度センサ22から受け取った加速度出力値を用いて、現時点で端末装置1がどのような姿勢であるかを検出する。検出部301は、地磁気センサ23から受け取った地磁気出力値を更に用いて、端末装置1の姿勢を検出してもよい。 If the movement of the terminal device 1 is not detected in S3 (S3; No), then in S5, the control unit 303 uses the acceleration output value received from the acceleration sensor 22, which is the terminal device 1 at the present time. Detects the posture. The detection unit 301 may further use the geomagnetic output value received from the geomagnetic sensor 23 to detect the posture of the terminal device 1.

例えば、検出部301は、端末装置1がディスプレイ110を内側にして閉じた状態であるか否かを検出してもよいし、閉じかけの状態であるか否かを検出してもよい。また、検出部301は、端末装置1が、ラップトップ型、テント型、タブレット型、スタンド型の何れかの形態であるかを検出してよい。また、検出部301は、表示面111の上端(赤外線センサ21が設けられた側の端部)の高さが下端の高さと比較して高いか低いかを検出してよい。 For example, the detection unit 301 may detect whether or not the terminal device 1 is in a closed state with the display 110 inside, or may detect whether or not the terminal device 1 is in a closed state. In addition, the detection unit 301 may detect whether the terminal device 1 is in any form of laptop type, tent type, tablet type, or stand type. Further, the detection unit 301 may detect whether the height of the upper end of the display surface 111 (the end on the side where the infrared sensor 21 is provided) is higher or lower than the height of the lower end.

また、検出部301は、表示面111の向きが斜め上方であるか、斜め下方であるかを検出してよい。表示面111の向きが斜め上方であるとは、例えば表示面111が重力方向に対して傾いた状態で上方に向いていることであってよく、表示面111が重力方向に対して垂直な場合および/または平行な場合を含んでよい。表示面111の向きが斜め下方であるとは、例えば表示面111が重力方向に対して傾いた状態で下方に向いていることであってよく、表示面111が重力方向に対して垂直な場合および/または平行な場合を含んでよい。一例として、検出部301は、ピッチ軸周りでの第1筐体11の角度を検出してよい。表示面111の向き、および、第1筐体11の角度については、図11A〜図11Gを用いて詳細を後述する。 Further, the detection unit 301 may detect whether the orientation of the display surface 111 is diagonally upward or diagonally downward. The direction of the display surface 111 is obliquely upward, for example, the display surface 111 may be oriented upward in a state of being tilted with respect to the direction of gravity, and the display surface 111 is perpendicular to the direction of gravity. And / or parallel cases may be included. The direction of the display surface 111 diagonally downward may mean, for example, that the display surface 111 is tilted downward with respect to the direction of gravity, and the display surface 111 is perpendicular to the direction of gravity. And / or parallel cases may be included. As an example, the detection unit 301 may detect the angle of the first housing 11 around the pitch axis. The orientation of the display surface 111 and the angle of the first housing 11 will be described in detail later with reference to FIGS. 11A to 11G.

次にS7において制御部303は、S1での起動処理の後に、端末装置1の動きが検出されたことがあるか否かを判定する。S7において端末装置1の動きが検出されたことがないと判定された場合(S7;No)には、次にS8において端末装置1は、端末装置1の初期姿勢に応じた制御である初期姿勢対応制御を行った後、処理をS3に移行させる。初期姿勢対応制御の処理については、図5を用いて詳細を後述する。 Next, in S7, the control unit 303 determines whether or not the movement of the terminal device 1 has been detected after the activation process in S1. When it is determined in S7 that the movement of the terminal device 1 has never been detected (S7; No), then in S8, the terminal device 1 is controlled according to the initial posture of the terminal device 1. After performing the response control, the process is transferred to S3. The details of the initial posture correspondence control process will be described later with reference to FIG.

また、S7においてS1の起動処理の後に、端末装置1の動きが検出されたことがあると判定された場合(S7;Yes)には、次にS9において端末装置1は、初期姿勢とは異なる端末装置1の姿勢に応じた制御である姿勢対応制御を行った後、処理をS3に移行させる。以上により、端末装置1の動きが検出された場合には、これらが終了した後に推定が行われる。姿勢対応制御の処理については、図6を用いて詳細を後述する。 Further, when it is determined in S7 that the movement of the terminal device 1 has been detected after the activation process of S1 (S7; Yes), then in S9, the terminal device 1 is different from the initial posture. After performing posture correspondence control, which is control according to the posture of the terminal device 1, the process shifts to S3. As described above, when the movement of the terminal device 1 is detected, the estimation is performed after these are completed. The details of the posture correspondence control process will be described later with reference to FIG.

[4−1.初期姿勢対応制御処理]
図5は、初期姿勢対応制御処理の動作を示すフローチャートである。この初期姿勢対応制御の処理と、後述の姿勢対応制御の処理とにおいては、端末装置1に設けられた赤外線センサ21からの赤外線出力値を用いて、空間状態、例えば、検知対象としての人の存在/不存在が推定される。また、端末装置1の動きおよび姿勢の少なくとも一方に応じて空間状態の推定が制御される。例えば、端末装置1の動きが終了したときの表示面111の向き(一例として上述のS5の処理で検出される表示面111の向き)に応じて、推定部302による推定アルゴリズムおよび推定パラメータの少なくとも一方が変更される。
[4-1. Initial posture correspondence control processing]
FIG. 5 is a flowchart showing the operation of the initial posture correspondence control process. In this initial posture correspondence control process and the posture correspondence control process described later, the infrared output value from the infrared sensor 21 provided in the terminal device 1 is used to describe a spatial state, for example, a person as a detection target. Existence / absence is presumed. Further, the estimation of the spatial state is controlled according to at least one of the movement and the posture of the terminal device 1. For example, at least the estimation algorithm and estimation parameters by the estimation unit 302 are determined according to the orientation of the display surface 111 when the movement of the terminal device 1 is completed (as an example, the orientation of the display surface 111 detected by the process of S5 described above). One is changed.

この処理においては、まずS31において制御部303は表示面111の向きを判定する。例えば、制御部303は、表示面111の向きが斜め上方であるか、斜め下方であるかを判定してよい。 In this process, first, in S31, the control unit 303 determines the orientation of the display surface 111. For example, the control unit 303 may determine whether the orientation of the display surface 111 is diagonally upward or diagonally downward.

S31において向きが斜め上方であると判定された場合(S31;斜め上方)には、次にS35において制御部303は、推定部302による推定のアルゴリズムとして、第2推定アルゴリズムを選択する。ここで、第2推定アルゴリズムは、検知対象が存在しているか不存在であるか不明の状態にあることを前提とした推定アルゴリズムである。 When it is determined in S31 that the direction is diagonally upward (S31; diagonally upward), the control unit 303 then selects the second estimation algorithm as the estimation algorithm by the estimation unit 302 in S35. Here, the second estimation algorithm is an estimation algorithm on the premise that the detection target exists or does not exist or is in an unknown state.

次に、S36において端末装置1は第2推定アルゴリズムによる推定を行い、姿勢対応制御を終了する。第2推定アルゴリズムによる推定処理については、図9を用いて詳細を後述する。 Next, in S36, the terminal device 1 performs estimation by the second estimation algorithm and ends the attitude correspondence control. The details of the estimation process by the second estimation algorithm will be described later with reference to FIG.

S31において表示面111の向きが斜め下方であると判定された場合(S31;斜め下方)には、次にS34において制御部303は、表示面111の上端が下端よりも低いか否かを判定する。S34において表示面111の上端が下端よりも低いと判定された場合(S34;Yes)には、制御部303は、処理をS35に移行させる。 When it is determined in S31 that the orientation of the display surface 111 is diagonally downward (S31; diagonally downward), then in S34, the control unit 303 determines whether or not the upper end of the display surface 111 is lower than the lower end. To do. When it is determined in S34 that the upper end of the display surface 111 is lower than the lower end (S34; Yes), the control unit 303 shifts the process to S35.

S34において表示面111の上端が下端よりも高いと判定された場合(S34;No)には、次にS37において制御部303は、端末装置1が閉じかけの状態であるか否かを判定する。S37において端末装置1が閉じかけの状態でないと判定された場合(S37;No)には、制御部303は、処理をS35に移行させる。 When it is determined in S34 that the upper end of the display surface 111 is higher than the lower end (S34; No), then in S37, the control unit 303 determines whether or not the terminal device 1 is in the closing state. .. When it is determined in S37 that the terminal device 1 is not in the closing state (S37; No), the control unit 303 shifts the process to S35.

S37において端末装置1が閉じかけの状態であると判定された場合(S37;Yes)には、次にS38において制御部303は、推定部302による推定のアルゴリズムとして、第2推定アルゴリズムとは異なる第3推定アルゴリズムを選択する。ここで、第3推定アルゴリズムは、検知対象が存在していないことを前提とした推定アルゴリズムである。 When it is determined in S37 that the terminal device 1 is in a closed state (S37; Yes), then in S38, the control unit 303 is different from the second estimation algorithm as the estimation algorithm by the estimation unit 302. Select a third estimation algorithm. Here, the third estimation algorithm is an estimation algorithm on the premise that the detection target does not exist.

次に、S39において端末装置1は、第3推定アルゴリズムによる推定を行い、姿勢対応制御を終了する。これにより、端末装置1が起動直後に閉じかけの状態である場合には、検知対象が存在しないことを前提として推定が行われる。第3推定アルゴリズムによる推定処理については、図8を用いて詳細を後述する。 Next, in S39, the terminal device 1 performs estimation by the third estimation algorithm and ends the attitude correspondence control. As a result, when the terminal device 1 is in the closed state immediately after the start-up, the estimation is performed on the premise that the detection target does not exist. The estimation process by the third estimation algorithm will be described in detail later with reference to FIG.

[4−2.姿勢対応制御処理]
図6は、姿勢対応制御処理の動作を示すフローチャートである。
[4-2. Posture correspondence control processing]
FIG. 6 is a flowchart showing the operation of the posture correspondence control process.

この処理においては、まずS51において制御部303は表示面111の向きを判定する。例えば、制御部303は、表示面111の向きが斜め上方であるか、斜め下方であるかを判定してよい。 In this process, first, in S51, the control unit 303 determines the orientation of the display surface 111. For example, the control unit 303 may determine whether the orientation of the display surface 111 is diagonally upward or diagonally downward.

S51において向きが斜め上方であると判定された場合(S51;斜め上方)には、次にS52において制御部303は、推定部302による推定のアルゴリズムとして、第2推定アルゴリズムおよび第3推定アルゴリズムとは異なる第1推定アルゴリズムを選択する。ここで、第1推定アルゴリズムは、検知対象が存在していることを前提とした推定アルゴリズムである。 When it is determined in S51 that the direction is diagonally upward (S51; diagonally upward), then in S52, the control unit 303 uses the second estimation algorithm and the third estimation algorithm as the estimation algorithm by the estimation unit 302. Selects a different first estimation algorithm. Here, the first estimation algorithm is an estimation algorithm on the premise that a detection target exists.

次に、S53において端末装置1は第1推定アルゴリズムによる推定を行い、姿勢対応制御を終了する。第1推定アルゴリズムによる推定処理については、図7を用いて詳細を後述する。 Next, in S53, the terminal device 1 performs estimation by the first estimation algorithm and ends the attitude correspondence control. The estimation process by the first estimation algorithm will be described in detail later with reference to FIG. 7.

S51において表示面111の向きが斜め下方であると判定された場合(S51;斜め下方)には、次にS54において制御部303は、表示面111の上端が下端よりも低いか否かを判定する。 When it is determined in S51 that the orientation of the display surface 111 is diagonally downward (S51; diagonally downward), then in S54, the control unit 303 determines whether or not the upper end of the display surface 111 is lower than the lower end. To do.

S54において表示面111の上端が下端よりも低いと判定された場合(S54;Yes)には、次にS55において制御部303は、推定部302による推定のアルゴリズムとして、第2推定アルゴリズムを選択する。 When it is determined in S54 that the upper end of the display surface 111 is lower than the lower end (S54; Yes), then in S55, the control unit 303 selects the second estimation algorithm as the estimation algorithm by the estimation unit 302. ..

次に、S56において端末装置1は第2推定アルゴリズムによる推定を行い、姿勢対応制御を終了する。第2推定アルゴリズムによる推定処理については、図9を用いて詳細を後述する。 Next, in S56, the terminal device 1 performs estimation by the second estimation algorithm and ends the attitude correspondence control. The details of the estimation process by the second estimation algorithm will be described later with reference to FIG.

S54において表示面111の上端が下端よりも高いと判定された場合(S54;No)には、次にS57において制御部303は、端末装置1が閉じかけの状態であるか否かを判定する。S57において端末装置1が閉じかけの状態でないと判定された場合(S57;No)には、制御部303は、処理をS55に移行させる。 When it is determined in S54 that the upper end of the display surface 111 is higher than the lower end (S54; No), then in S57, the control unit 303 determines whether or not the terminal device 1 is in the closing state. .. When it is determined in S57 that the terminal device 1 is not in the closing state (S57; No), the control unit 303 shifts the process to S55.

S57において端末装置1が閉じかけの状態であると判定された場合(S57;Yes)には、次にS58において制御部303は、推定部302による推定のアルゴリズムとして、第3推定アルゴリズムを選択する。 When it is determined in S57 that the terminal device 1 is in a closed state (S57; Yes), then in S58, the control unit 303 selects a third estimation algorithm as the estimation algorithm by the estimation unit 302. ..

次に、S59において端末装置1は第3推定アルゴリズムによる推定を行い、姿勢対応制御を終了する。第3推定アルゴリズムによる推定処理については、図8を用いて詳細を後述する。 Next, in S59, the terminal device 1 performs estimation by the third estimation algorithm and ends the attitude correspondence control. The estimation process by the third estimation algorithm will be described in detail later with reference to FIG.

[4−2.第1推定アルゴリズムによる推定処理]
図7は、第1推定アルゴリズムによる推定処理の動作を示すフローチャートである。第1推定アルゴリズムは、端末装置1の動きが終了したときに検知対象が存在していることを前提として推定を行う。
[4-2. Estimation processing by the first estimation algorithm]
FIG. 7 is a flowchart showing the operation of the estimation process by the first estimation algorithm. The first estimation algorithm estimates on the premise that the detection target exists when the movement of the terminal device 1 is completed.

まずS101において制御部303は、第1閾値を設定するための閾値設定処理を行う。例えば、現時点では検知対象が存在していると推定されているため、制御部303は、検知対象が存在から不存在になったことを判断できるように第1閾値を設定してよい。一例として、制御部303は、第1閾値を、現時点の赤外線出力値よりも低く設定してよい。制御部303は、予め推定装置10内に記憶された複数の第1閾値の候補の何れかを選択して第1閾値として設定してよい。なお、制御部303は、第1閾値として、現在の赤外線出力値とは無関係に、予め推定装置10内に記憶された固定値を用いてもよい。 First, in S101, the control unit 303 performs a threshold value setting process for setting the first threshold value. For example, since it is estimated that the detection target exists at the present time, the control unit 303 may set the first threshold value so that it can be determined that the detection target has changed from the existence to the absence. As an example, the control unit 303 may set the first threshold value lower than the current infrared output value. The control unit 303 may select any one of a plurality of candidates for the first threshold value stored in the estimation device 10 in advance and set it as the first threshold value. The control unit 303 may use a fixed value stored in the estimation device 10 in advance as the first threshold value regardless of the current infrared output value.

次に、S103において制御部303は、上述のS3と同様に、端末装置1の動きが検出されたか否かを判定する。S103において端末装置1の動きが検出されたと判定された場合(S103;Yes)には、制御部303は、第1推定アルゴリズムによる推定処理を終了する。これにより、後述のS105以降で推定部302により行われる推定がディセーブルされる。 Next, in S103, the control unit 303 determines whether or not the movement of the terminal device 1 is detected, as in S3 described above. When it is determined in S103 that the movement of the terminal device 1 is detected (S103; Yes), the control unit 303 ends the estimation process by the first estimation algorithm. As a result, the estimation performed by the estimation unit 302 in S105 and later described later is disabled.

S103において端末装置1の動きが検出されないと判定された場合(S103;No)には、次に、S105において推定部302は赤外線出力値が第1閾値を下回ったか否かを判定する。 If it is determined in S103 that the movement of the terminal device 1 is not detected (S103; No), then in S105, the estimation unit 302 determines whether or not the infrared output value has fallen below the first threshold value.

S105において赤外線出力値が第1閾値を下回っていないと判定された場合(S105;No)、つまり検知対象が存在したままであると推定される場合には、制御部303は、処理をS101に移行させる。これにより、現在の赤外線出力値に合わせて第1閾値が更新される。 When it is determined in S105 that the infrared output value is not lower than the first threshold value (S105; No), that is, when it is estimated that the detection target still exists, the control unit 303 sets the process to S101. Migrate. As a result, the first threshold value is updated according to the current infrared output value.

S105において赤外線出力値が第1閾値を下回っていると判定された場合(S105;Yes)には、次にS107において推定部302は、検知対象が存在していないと推定する。 If it is determined in S105 that the infrared output value is below the first threshold value (S105; Yes), then in S107, the estimation unit 302 estimates that the detection target does not exist.

次に、S109においてユーザインターフェース30は、端末装置1をログアウト状態に移行させる。但し、端末装置1がログイン状態でない場合には、このS109の処理は行わなくてもよい。 Next, in S109, the user interface 30 shifts the terminal device 1 to the logout state. However, if the terminal device 1 is not in the logged-in state, the process of S109 may not be performed.

次に、S110において制御部303は、第7閾値を設定するための閾値設定処理を行う。例えば、現時点では検知対象が存在していないと推定されているため、制御部303は、検知対象が不存在から存在になったことを判断できるように第7閾値を設定してよい。一例として、制御部303は、第7閾値を、現時点の赤外線出力値よりも高く設定してよい。制御部303は、第7閾値として、第1閾値と同じ値を設定してもよいし、第1閾値よりも高い値または低い値を設定してもよい。制御部303は、予め推定装置10内に記憶された複数の第7閾値の候補の何れかを選択して第7閾値として設定してよい。なお、制御部303は、第7閾値として、現在の赤外線出力値とは無関係に、予め推定装置10内に記憶された固定値を用いてもよい。 Next, in S110, the control unit 303 performs a threshold value setting process for setting the seventh threshold value. For example, since it is estimated that the detection target does not exist at the present time, the control unit 303 may set the seventh threshold value so that it can be determined that the detection target has changed from the absence to the existence. As an example, the control unit 303 may set the seventh threshold value higher than the current infrared output value. The control unit 303 may set the same value as the first threshold value as the seventh threshold value, or may set a value higher or lower than the first threshold value. The control unit 303 may select any one of a plurality of candidates for the seventh threshold value stored in the estimation device 10 in advance and set it as the seventh threshold value. The control unit 303 may use a fixed value stored in the estimation device 10 in advance as the seventh threshold value regardless of the current infrared output value.

次に、S111において制御部303は、上述のS3と同様に、端末装置1の動きが検出されたか否かを判定する。S111において端末装置1の動きが検出されたと判定された場合(S111;Yes)には、制御部303は、第1推定アルゴリズムによる推定処理を終了する。これにより、後述のS113以降で推定部302により行われる推定がディセーブルされる。 Next, in S111, the control unit 303 determines whether or not the movement of the terminal device 1 is detected, as in S3 described above. When it is determined that the movement of the terminal device 1 is detected in S111 (S111; Yes), the control unit 303 ends the estimation process by the first estimation algorithm. As a result, the estimation performed by the estimation unit 302 in S113 and later described later is disabled.

S111において端末装置1の動きが検出されないと判定された場合(S111;No)には、次に、S113において推定部302は赤外線出力値が第7閾値を上回ったか否かを判定する。S113において赤外線出力値が第7閾値を上回っていないと判定された場合(S113;No)、つまり検知対象が不存在のままであると推定される場合には、制御部303は、処理をS110に移行させる。 If it is determined in S111 that the movement of the terminal device 1 is not detected (S111; No), then in S113, the estimation unit 302 determines whether or not the infrared output value exceeds the seventh threshold value. When it is determined in S113 that the infrared output value does not exceed the seventh threshold value (S113; No), that is, when it is estimated that the detection target remains absent, the control unit 303 performs processing in S110. To migrate to.

S113において赤外線出力値が第7閾値を上回ったと判定された場合(S113;Yes)には、次にS115において推定部302は、検知対象が存在していると推定する。次に、S117において端末装置1は、上述のS1と同様に、自動ログイン処理を行った後、処理をS101に移行させる。端末装置1がログアウト状態でない場合には、このS117の処理は行わなくてもよい。 When it is determined in S113 that the infrared output value exceeds the seventh threshold value (S113; Yes), the estimation unit 302 next estimates in S115 that a detection target exists. Next, in S117, the terminal device 1 performs the automatic login process in the same manner as in S1 described above, and then shifts the process to S101. If the terminal device 1 is not in the logout state, the process of S117 may not be performed.

[4−3.第3推定アルゴリズムによる推定処理]
図8は、第3推定アルゴリズムによる推定処理の動作を示すフローチャートである。第3推定アルゴリズムは、端末装置1の動きが終了したときに検知対象が存在していないことを前提として推定を行う。
[4-3. Estimation processing by the third estimation algorithm]
FIG. 8 is a flowchart showing the operation of the estimation process by the third estimation algorithm. The third estimation algorithm estimates on the premise that the detection target does not exist when the movement of the terminal device 1 is completed.

まずS121において制御部303は、第7閾値設定処理を行う。例えば、現時点では検知対象が存在していないと推定されているため、制御部303は、検知対象が不存在から存在になったことを判断できるように第7閾値を設定してよい。一例として、制御部303は、第7閾値を、現時点の赤外線出力値よりも高く設定してよい。制御部303は、予め推定装置10内に記憶された複数の第7閾値の候補の何れかを選択して第7閾値として設定してよい。なお、制御部303は、第7閾値として、現在の赤外線出力値とは無関係に、予め推定装置10内に記憶された固定値を用いてもよい。第3推定アルゴリズムで使用される第7閾値は、第1推定アルゴリズムで使用される第7閾値と異なっていてもよい。 First, in S121, the control unit 303 performs the seventh threshold value setting process. For example, since it is estimated that the detection target does not exist at the present time, the control unit 303 may set the seventh threshold value so that it can be determined that the detection target has changed from the absence to the existence. As an example, the control unit 303 may set the seventh threshold value higher than the current infrared output value. The control unit 303 may select any one of a plurality of candidates for the seventh threshold value stored in the estimation device 10 in advance and set it as the seventh threshold value. The control unit 303 may use a fixed value stored in the estimation device 10 in advance as the seventh threshold value regardless of the current infrared output value. The seventh threshold used in the third estimation algorithm may be different from the seventh threshold used in the first estimation algorithm.

次にS123において制御部303は、上述のS3と同様に、端末装置1の動きが検出されたか否かを判定する。S123において端末装置1の動きが検出されたと判定された場合(S123;Yes)には、制御部303は、第3推定アルゴリズムによる推定処理を終了する。これにより、後述のS125以降で推定部302により行われる推定がディセーブルされる。 Next, in S123, the control unit 303 determines whether or not the movement of the terminal device 1 is detected, as in S3 described above. When it is determined in S123 that the movement of the terminal device 1 is detected (S123; Yes), the control unit 303 ends the estimation process by the third estimation algorithm. As a result, the estimation performed by the estimation unit 302 in S125 and later described later is disabled.

S123において端末装置1の動きが検出されないと判定された場合(S123;No)には、次に、S125において推定部302は赤外線出力値が第7閾値を上回ったか否かを判定する。S125において赤外線出力値が第7閾値を上回っていないと判定された場合(S125;No)、つまり検知対象が不存在のままであると推定される場合には、制御部303は、処理をS121に移行させる。これにより、現在の赤外線出力値に合わせて第7閾値が更新される。 When it is determined in S123 that the movement of the terminal device 1 is not detected (S123; No), then in S125, the estimation unit 302 determines whether or not the infrared output value exceeds the seventh threshold value. When it is determined in S125 that the infrared output value does not exceed the seventh threshold value (S125; No), that is, when it is estimated that the detection target remains absent, the control unit 303 performs processing in S121. To migrate to. As a result, the seventh threshold value is updated according to the current infrared output value.

S125において赤外線出力値が第7閾値を上回ったと判定された場合(S125;Yes)場合には、次にS127において推定部302は、検知対象が存在していると推定する。 If it is determined in S125 that the infrared output value exceeds the seventh threshold value (S125; Yes), then in S127, the estimation unit 302 estimates that the detection target exists.

次に、S129において端末装置1は、上述のS1と同様に、自動ログイン処理を行う。端末装置1がログアウト状態でない場合には、このS129の処理は行わなくてもよい。 Next, in S129, the terminal device 1 performs an automatic login process in the same manner as in S1 described above. If the terminal device 1 is not in the logout state, the process of S129 may not be performed.

次に、S130において制御部303は、第1閾値を設定するための閾値設定処理を行う。例えば、現時点では検知対象が存在していると推定されているため、制御部303は、検知対象が存在から不存在になったことを判断できるように第1閾値を設定してよい。一例として、制御部303は、第1閾値を、現時点の赤外線出力値よりも低く設定してよい。制御部303は、第1閾値として、第7閾値と同じ値を設定してもよいし、第7閾値よりも高い値または低い値を設定してもよい。制御部303は、予め推定装置10内に記憶された複数の第1閾値の候補の何れかを選択して第1閾値として設定してよい。なお、制御部303は、第1閾値として、現在の赤外線出力値とは無関係に、予め推定装置10内に記憶された固定値を用いてもよい。第3推定アルゴリズムで使用される第1閾値は、第1推定アルゴリズムで使用される第1閾値と異なっていてもよい。 Next, in S130, the control unit 303 performs a threshold value setting process for setting the first threshold value. For example, since it is estimated that the detection target exists at the present time, the control unit 303 may set the first threshold value so that it can be determined that the detection target has changed from the existence to the absence. As an example, the control unit 303 may set the first threshold value lower than the current infrared output value. The control unit 303 may set the same value as the seventh threshold value as the first threshold value, or may set a value higher or lower than the seventh threshold value. The control unit 303 may select any one of a plurality of candidates for the first threshold value stored in the estimation device 10 in advance and set it as the first threshold value. The control unit 303 may use a fixed value stored in the estimation device 10 in advance as the first threshold value regardless of the current infrared output value. The first threshold used in the third estimation algorithm may be different from the first threshold used in the first estimation algorithm.

次に、S131において制御部303は、上述のS3と同様に、端末装置1の動きが検出されたか否かを判定する。S131において端末装置1の動きが検出されたと判定された場合(S131;Yes)には、制御部303は、第3推定アルゴリズムによる推定処理を終了する。これにより、後述のS133以降で推定部302により行われる推定がディセーブルされる。 Next, in S131, the control unit 303 determines whether or not the movement of the terminal device 1 has been detected, as in S3 described above. When it is determined that the movement of the terminal device 1 is detected in S131 (S131; Yes), the control unit 303 ends the estimation process by the third estimation algorithm. As a result, the estimation performed by the estimation unit 302 in S133 and later described later is disabled.

S131において端末装置1の動きが検出されないと判定された場合(S131;No)には、次に、S133において推定部302は赤外線出力値が第1閾値を下回ったか否かを判定する。S133において赤外線出力値が第1閾値を下回っていないと判定された場合(S133;No)、つまり検知対象が存在したままであると推定される場合には、制御部303は、処理をS130に移行させる。 If it is determined in S131 that the movement of the terminal device 1 is not detected (S131; No), then in S133, the estimation unit 302 determines whether or not the infrared output value is below the first threshold value. When it is determined in S133 that the infrared output value does not fall below the first threshold value (S133; No), that is, when it is estimated that the detection target still exists, the control unit 303 sets the process to S130. Migrate.

S133において赤外線出力値が第1閾値を下回ったと判定された場合(S133;Yes)には、次にS135において推定部302は、検知対象が不存在であると推定する。次に、S137においてユーザインターフェース30は、端末装置1をログアウト状態に移行させた後、処理をS121に移行させる。但し、端末装置1がログイン状態でない場合には、このS137の処理は行わなくてもよい。 If it is determined in S133 that the infrared output value is below the first threshold value (S133; Yes), then in S135, the estimation unit 302 estimates that the detection target does not exist. Next, in S137, the user interface 30 shifts the terminal device 1 to the logout state, and then shifts the process to S121. However, if the terminal device 1 is not in the logged-in state, the process of S137 may not be performed.

[4−4.第2推定アルゴリズムによる推定処理]
図9は、第2推定アルゴリズムによる推定処理の動作を示すフローチャートである。第2推定アルゴリズムは、端末装置1の動きが終了したときに検知対象が存在しているか不存在であるか不明の状態にあることを前提として推定を行う。
[4-4. Estimate processing by the second estimation algorithm]
FIG. 9 is a flowchart showing the operation of the estimation process by the second estimation algorithm. The second estimation algorithm estimates on the premise that when the movement of the terminal device 1 is completed, it is unknown whether the detection target exists or does not exist.

まずS151において制御部303は、閾値設定処理を行う。例えば、現時点では検知対象が存在しているか不明であるため、制御部303は、検知対象が存在することを判断するための第3閾値と、検知対象が存在しないことを判断するための第5閾値とを設定してよい。一例として、制御部303は、第3閾値および第5閾値として、現在の赤外線出力値とは無関係に、予め推定装置10内に記憶された固定値を用いてもよい。なお、第3閾値および第5閾値は同じ値であってもよいし、異なる値であってもよい。また、第3閾値は、第1および第3推定アルゴリズムで使用される第7閾値の候補の何れかと同じであってもよいし、異なっていてもよい。また、第5閾値は、第1および第3推定アルゴリズムで使用される第1閾値の候補の何れかと同じであってもよいし、異なっていてもよい。 First, in S151, the control unit 303 performs the threshold value setting process. For example, since it is unknown at this time whether or not the detection target exists, the control unit 303 has a third threshold value for determining that the detection target exists and a fifth threshold value for determining that the detection target does not exist. A threshold value may be set. As an example, the control unit 303 may use fixed values stored in the estimation device 10 in advance as the third threshold value and the fifth threshold value, regardless of the current infrared output value. The third threshold value and the fifth threshold value may be the same value or may be different values. Further, the third threshold value may be the same as or different from any of the candidates for the seventh threshold value used in the first and third estimation algorithms. Further, the fifth threshold value may be the same as or different from any of the candidates for the first threshold value used in the first and third estimation algorithms.

次に、S153において制御部303は、上述のS3と同様に、端末装置1の動きが検出されたか否かを判定する。S153において端末装置1の動きが検出されたと判定された場合(S153;Yes)には、制御部303は、第2推定アルゴリズムによる推定処理を終了する。これにより、後述のS155以降で推定部302により行われる推定がディセーブルされる。 Next, in S153, the control unit 303 determines whether or not the movement of the terminal device 1 has been detected, as in S3 described above. When it is determined in S153 that the movement of the terminal device 1 is detected (S153; Yes), the control unit 303 ends the estimation process by the second estimation algorithm. As a result, the estimation performed by the estimation unit 302 in S155 and later described later is disabled.

S153において端末装置1の動きが検出されないと判定された場合(S153;No)には、次に、S155において推定部302は赤外線センサ21からの赤外線出力値が第3閾値を上回ったか否かを判定する。 If it is determined in S153 that the movement of the terminal device 1 is not detected (S153; No), then in S155, the estimation unit 302 determines whether or not the infrared output value from the infrared sensor 21 exceeds the third threshold value. judge.

S155において赤外線出力値が第3閾値を上回ったと判定された場合(S155;Yes)には、次にS157において、推定部302は、検知対象が存在していると推定する。 When it is determined in S155 that the infrared output value exceeds the third threshold value (S155; Yes), then in S157, the estimation unit 302 estimates that the detection target exists.

次に、S159において端末装置1は、上述のS1と同様に、自動ログイン処理を行う。端末装置1がログアウト状態でない場合には、このS159の処理は行わなくてもよい。 Next, in S159, the terminal device 1 performs an automatic login process in the same manner as in S1 described above. If the terminal device 1 is not in the logout state, the process of S159 may not be performed.

次に、S161において、推定装置10は、上述のS53と同様に、第1推定アルゴリズムによる推定を行った後、第2推定アルゴリズムによる推定処理を終了する。 Next, in S161, the estimation device 10 finishes the estimation process by the second estimation algorithm after performing the estimation by the first estimation algorithm in the same manner as in S53 described above.

S155において赤外線出力値が第3閾値を上回っていないと判定された場合(S155;No)には、次にS163において、制御部303は、上述のS3と同様に、端末装置1の動きが検出されたか否かを判定する。S163において端末装置1の動きが検出されたと判定された場合(S163;Yes)には、制御部303は、第2推定アルゴリズムによる推定処理を終了する。これにより、後述のS165以降で推定部302により行われる推定がされる。 When it is determined in S155 that the infrared output value does not exceed the third threshold value (S155; No), then in S163, the control unit 303 detects the movement of the terminal device 1 as in S3 described above. Determine if it has been done. When it is determined in S163 that the movement of the terminal device 1 is detected (S163; Yes), the control unit 303 ends the estimation process by the second estimation algorithm. As a result, the estimation performed by the estimation unit 302 is performed in S165 and later described later.

S163において端末装置1の動きが検出されないと判定された場合(S163;No)には、次に、S165において推定部302は、赤外線センサ21からの赤外線出力値が第5閾値を下回ったか否かを判定する。 When it is determined in S163 that the movement of the terminal device 1 is not detected (S163; No), then in S165, the estimation unit 302 determines whether or not the infrared output value from the infrared sensor 21 has fallen below the fifth threshold value. To judge.

S165において赤外線出力値が第5閾値を下回っていないと判定された場合(S165;No)には、制御部303は処理をS151に移行させる。これにより、現在の赤外線出力値に合わせて第3閾値、第5閾値が更新される。また、S165において赤外線出力値が第5閾値を下回ったと判定された場合(S165;Yes)には、次にS167において、推定部302は、検知対象が存在していないと推定する。 When it is determined in S165 that the infrared output value does not fall below the fifth threshold value (S165; No), the control unit 303 shifts the process to S151. As a result, the third threshold value and the fifth threshold value are updated according to the current infrared output value. Further, when it is determined in S165 that the infrared output value is below the fifth threshold value (S165; Yes), then in S167, the estimation unit 302 estimates that the detection target does not exist.

次に、S169においてユーザインターフェース30は、端末装置1をログアウト状態に移行させる。但し、端末装置1がログイン状態でない場合には、このS169の処理は行わなくてもよい。次に、S171において、推定装置10は、上述のS59と同様に、第3推定アルゴリズムによる推定を行った後、第2推定アルゴリズムによる推定処理を終了する。 Next, in S169, the user interface 30 shifts the terminal device 1 to the logout state. However, if the terminal device 1 is not in the logged-in state, the process of S169 may not be performed. Next, in S171, the estimation device 10 finishes the estimation process by the second estimation algorithm after performing the estimation by the third estimation algorithm in the same manner as in S59 described above.

[4−5.自動ログイン処理]
図10は、自動ログイン処理の動作を示すフローチャートである。端末装置1は、S21〜S30の処理を実行することにより、自動的にログイン処理を行う。
[4-5. Automatic login process]
FIG. 10 is a flowchart showing the operation of the automatic login process. The terminal device 1 automatically performs a login process by executing the processes S21 to S30.

まず、S21においてユーザインターフェース30は、端末装置1がログイン状態であるか否かを判定する。端末装置1がログイン状態であると判定された場合(S21;Yes)には、端末装置1は自動ログイン処理を終了する。 First, in S21, the user interface 30 determines whether or not the terminal device 1 is in the logged-in state. When it is determined that the terminal device 1 is in the login state (S21; Yes), the terminal device 1 ends the automatic login process.

端末装置1がログイン状態でないと判定された場合(S21;No)には、次にS23において撮像制御部50が撮像部40を起動する。次に、S25において撮像部40が赤外線センサ21の視野内の空間を撮像した後、S27において認証部60が起動され、撮像部40から供給される撮像画像内の顔について顔認証を行う。 When it is determined that the terminal device 1 is not in the login state (S21; No), the image pickup control unit 50 then activates the image pickup unit 40 in S23. Next, in S25, the imaging unit 40 images the space in the field of view of the infrared sensor 21, and then in S27, the authentication unit 60 is activated to perform face recognition on the face in the captured image supplied from the imaging unit 40.

次に、S29において認証部60は認証が成功したか否かを判定し、失敗したと判定された場合(S29;No)には、端末装置1は処理をS25に移行させる。但し、この場合には、端末装置1は、後述のS30によるログイン処理を行わずに自動ログイン処理のサブルーチンを終了してもよい。S29において認証が成功したと判定された場合(S29;Yes)には、S30において、ユーザインターフェース30が端末装置1をログイン状態に移行させ、自動ログイン処理を終了する。 Next, in S29, the authentication unit 60 determines whether or not the authentication is successful, and if it is determined that the authentication is unsuccessful (S29; No), the terminal device 1 shifts the process to S25. However, in this case, the terminal device 1 may terminate the subroutine of the automatic login process without performing the login process according to S30 described later. When it is determined in S29 that the authentication is successful (S29; Yes), in S30, the user interface 30 shifts the terminal device 1 to the login state and ends the automatic login process.

[5.表示面の向きと推定アルゴリズムの関係]
図11A〜図11Gは、各推定アルゴリズムに対応する表示面111の向きを説明するための図である。上述の姿勢対応制御処理では、動きが終了したときの表示面111の向きに応じて第1〜第3推定アルゴリズムの何れかが選択される。
[5. Relationship between display surface orientation and estimation algorithm]
11A to 11G are diagrams for explaining the orientation of the display surface 111 corresponding to each estimation algorithm. In the posture correspondence control process described above, one of the first to third estimation algorithms is selected according to the orientation of the display surface 111 when the movement is completed.

表示面111の向きは、表示面111の法線と、水平な基準線Lとの成す角度θによって規定されてよい。例えば、第1筐体11が赤外線センサ21の側を上側として鉛直に配置された状態から、長さ方向(ピッチ軸方向)を水平に維持したままピッチ軸周りで前周りに1回転される場合に、角度θは図11A〜図11F(または図11G)の順に従って0°から360°に変化する。なお、第1筐体11が幅方向(ヨー軸方向)を水平にしてヨー軸周りで回転することとして角度θを規定してもよい。ここで、第1筐体11が前周りに1回転するとは、表示面111が下方に向いてから上方に向くように回転することであってよい。図11Fおよび図11Gでは、第1筐体11に対する第2筐体12の位置が相違している。 The orientation of the display surface 111 may be defined by the angle θ formed by the normal line of the display surface 111 and the horizontal reference line L. For example, when the first housing 11 is vertically arranged with the infrared sensor 21 side as the upper side, and is rotated once forward around the pitch axis while keeping the length direction (pitch axis direction) horizontal. In addition, the angle θ changes from 0 ° to 360 ° according to the order of FIGS. 11A to 11F (or FIG. 11G). The angle θ may be defined as the first housing 11 rotates about the yaw axis with the width direction (yaw axis direction) horizontal. Here, one rotation of the first housing 11 in the front direction may mean that the display surface 111 rotates so as to face downward and then upward. In FIGS. 11F and 11G, the positions of the second housing 12 with respect to the first housing 11 are different.

このような角度θによれば、表示面111の向きが斜め上向きの場合には、角度θは特定の角度範囲、例えば180<θ<270[°](図11D参照)、270<θ≦360[°](図11F、図11G参照)となる。この場合には、検知対象が存在していることを前提とする第1アルゴリズムを用いて推定が行われる。 According to such an angle θ, when the direction of the display surface 111 is obliquely upward, the angle θ is in a specific angle range, for example, 180 <θ <270 [°] (see FIG. 11D), 270 <θ ≦ 360. It becomes [°] (see FIGS. 11F and 11G). In this case, the estimation is performed using the first algorithm that assumes that the detection target exists.

図11Dに示されるように、端末装置1の動きが終了したときに180<θ<270[°]の場合には、操作者がタッチセンサ112を介した操作、或いは動画再生に使用するために端末装置1を変形させたと考えられ、赤外線センサ21の視野内に操作者が存在する蓋然性が高いためである。また、図11F、図11Gに示されるように、動きが終了したときに270<θ≦360[°]の場合には、操作者が使用しやすいように端末装置1を変形させたと考えられ、赤外線センサ21の視野内に操作者が存在する蓋然性が高いためである。 As shown in FIG. 11D, when 180 <θ <270 [°] when the movement of the terminal device 1 is completed, the operator can operate the terminal device 1 via the touch sensor 112 or use it for moving image playback. This is because it is considered that the terminal device 1 is deformed, and it is highly probable that the operator is present in the field of view of the infrared sensor 21. Further, as shown in FIGS. 11F and 11G, when 270 <θ≤360 [°] when the movement is completed, it is considered that the terminal device 1 is deformed so that the operator can easily use it. This is because there is a high possibility that the operator is present in the field of view of the infrared sensor 21.

また、表示面111の向きが横向きから下向きの間であり、かつ、表示面111の上端が下端より高い場合には、角度θは特定の角度範囲、例えば0≦θ<90[°]となる(図11A参照)。 Further, when the orientation of the display surface 111 is between horizontal and downward and the upper end of the display surface 111 is higher than the lower end, the angle θ is in a specific angle range, for example, 0 ≦ θ <90 [°]. (See FIG. 11A).

このうち、例えば表示面の向きが基準向きよりも横向きの場合、一例として0≦θ<45[°]の場合には、検知対象が存在しているか不存在であるか不明の状態であることを前提とする第2アルゴリズムを用いて推定が行われる。図11Aに示されるように、動きが終了したときに0≦θ<45[°]の場合には、操作者が端末装置1を放置するべく変形させた可能性もあり、操作者の好みに応じて端末装置1を変形させた可能性もあるため、赤外線センサ21の視野内に操作者が存在するか否かが事前に判別し難いためである。 Of these, for example, when the orientation of the display surface is sideways rather than the reference orientation, for example, when 0 ≦ θ <45 [°], it is unknown whether the detection target exists or does not exist. The estimation is performed using the second algorithm premised on. As shown in FIG. 11A, if 0 ≦ θ <45 [°] when the movement is completed, the operator may have deformed the terminal device 1 so as to leave it unattended, and the operator may prefer it. This is because it is difficult to determine in advance whether or not the operator is present in the field of view of the infrared sensor 21 because the terminal device 1 may have been deformed accordingly.

また、例えば表示面の向きが基準向きよりも下向きの場合(端末装置1が閉じかけの場合)、一例として45≦θ<90[°]の場合には、検知対象が存在していないことを前提とする第3アルゴリズムを用いて推定が行われる。図11Aに示されるように、動きが終了したときに45≦θ<90[°]の場合には、操作者が離席するにあたって表示面111を隠すために端末装置1を変形させたと考えられ、赤外線センサ21の視野内に操作者が存在しない蓋然性が高いためである。 Further, for example, when the orientation of the display surface is downward from the reference orientation (when the terminal device 1 is about to close), for example, when 45 ≦ θ <90 [°], it means that the detection target does not exist. The estimation is performed using the presupposed third algorithm. As shown in FIG. 11A, when 45 ≦ θ <90 [°] when the movement is completed, it is considered that the terminal device 1 is deformed in order to hide the display surface 111 when the operator leaves the seat. This is because there is a high possibility that the operator does not exist in the field of view of the infrared sensor 21.

また、表示面111の向きが斜め下向きであり、かつ、表示面111の上端が下端より低い場合には、角度θは特定の角度範囲、例えば90<θ≦180[°](図11C参照)となる。この場合には、検知対象が存在しているか不存在であるか不明の状態にあることを前提とする第2アルゴリズムを用いて推定が行われる。 Further, when the direction of the display surface 111 is obliquely downward and the upper end of the display surface 111 is lower than the lower end, the angle θ is in a specific angle range, for example, 90 <θ ≦ 180 [°] (see FIG. 11C). It becomes. In this case, estimation is performed using a second algorithm that assumes that the detection target exists or does not exist or is in an unknown state.

図11Cに示されるように、動きが終了したときに90<θ≦180[°]の場合には、操作者が端末装置1を放置するべく変形させた可能性もあり、仰向けで使用すべく変形させた可能性もあるため、赤外線センサ21の視野内に操作者が存在するか否かが事前に判別し難いためである。 As shown in FIG. 11C, if 90 <θ≤180 [°] when the movement is completed, the operator may have deformed the terminal device 1 to leave it unattended, and the terminal device 1 should be used on its back. This is because it is difficult to determine in advance whether or not the operator is present in the field of view of the infrared sensor 21 because it may have been deformed.

なお、図11Bに示すように、動きが終了したときにθ=90[°]の場合、つまり表示面111が下向きである場合にも、90<θ≦180[°]の場合と同様に、赤外線センサ21の視野内に操作者が存在するか否かが事前に判別し難いため、第2アルゴリズムを用いて推定が行われてよい。 As shown in FIG. 11B, when θ = 90 [°] when the movement is completed, that is, when the display surface 111 is downward, as in the case of 90 <θ ≦ 180 [°], Since it is difficult to determine in advance whether or not the operator is present in the field of view of the infrared sensor 21, estimation may be performed using the second algorithm.

また、図11Eに示すように、動きが終了したときにθ=270[°]の場合、つまり表示面111が上向きである場合には、操作者が端末装置1を放置するべく変形させた可能性も、使用すべく変形させた可能性もある。そのため、この場合にも、赤外線センサ21の視野内に操作者が存在するか否かが事前に判別し難いため、第2アルゴリズムを用いて推定が行われてよい。 Further, as shown in FIG. 11E, when θ = 270 [°] when the movement is completed, that is, when the display surface 111 is upward, the operator may have deformed the terminal device 1 so as to leave it unattended. It may have been transformed for use. Therefore, even in this case, it is difficult to determine in advance whether or not the operator is present in the field of view of the infrared sensor 21, so estimation may be performed using the second algorithm.

[6.表示面の向きと閾値の関係]
図12A、図12Bは、表示面111の向きによる閾値の設定を説明するための図である。
[6. Relationship between display surface orientation and threshold value]
12A and 12B are diagrams for explaining the setting of the threshold value depending on the orientation of the display surface 111.

図12A、図12Bに示されるように、表示面111の向きが斜め上向きである場合には、端末装置1を操作している操作者(一例として操作者の顔部分)が赤外線センサ21の視野内で占める領域が表示面111の向きに応じて変化する結果、赤外線出力値が変化する。例えば、表示面111が或る第1向きである場合(図12A)と比較して、表示面111がより上向きの第2向きである場合(図12B)に、端末装置1を操作している操作者が赤外線センサ21の視野内で占める領域が小さくなる結果、赤外線出力値が低くなる。そのため、表示面111が或る向きの場合(例えば図12A)に操作者の存在/不存在を推定するべく赤外線出力値との比較に使用可能な閾値をそのまま他の向きの場合(例えば図12B)に使用すると、推定精度が低下する。 As shown in FIGS. 12A and 12B, when the display surface 111 is oriented diagonally upward, the operator operating the terminal device 1 (for example, the face portion of the operator) is in the field of view of the infrared sensor 21. As a result of the area occupied in the area changing according to the orientation of the display surface 111, the infrared output value changes. For example, the terminal device 1 is operated when the display surface 111 has a more upward second orientation (FIG. 12B) as compared with the case where the display surface 111 has a certain first orientation (FIG. 12A). As a result of reducing the area occupied by the operator in the field of view of the infrared sensor 21, the infrared output value becomes low. Therefore, when the display surface 111 is oriented in a certain direction (for example, FIG. 12A), the threshold value that can be used for comparison with the infrared output value for estimating the presence / absence of the operator is used as it is in the other direction (for example, FIG. 12B). ), The estimation accuracy will decrease.

また、表示面111の向きが斜め下向きの場合にも、仰向けで端末装置1を操作している操作者が赤外線センサ21の視野内で占める領域が表示面111の向きに応じて変化する。従って、上述の第1〜第3推定アルゴリズムにおけるS101、S110、S121、S130、S151の少なくとも1つの閾値設定処理では、制御部303は、赤外線出力値と比較される閾値、つまり第1閾値、第3閾値、第5閾値および第7閾値の何れかを、表示面111の向きに応じて変更してよい。 Further, even when the orientation of the display surface 111 is obliquely downward, the area occupied by the operator operating the terminal device 1 on his back in the field of view of the infrared sensor 21 changes according to the orientation of the display surface 111. Therefore, in at least one threshold setting process of S101, S110, S121, S130, and S151 in the above-mentioned first to third estimation algorithms, the control unit 303 has a threshold value to be compared with the infrared output value, that is, the first threshold value and the first threshold value. Any of the 3rd threshold value, the 5th threshold value, and the 7th threshold value may be changed according to the orientation of the display surface 111.

例えば、制御部303は、第1推定アルゴリズムにおけるS101の閾値設定処理において、表示面111の向きが第1向きよりも上向きの第2向きである場合(例えば図12B)には、向きが第1向きである場合(例えば図12A)と比較して、第1閾値および第7閾値の少なくとも一方を小さくしてよい。これにより、表示面111の向きが第2向きである場合には、閾値が小さくなる結果、推定精度の低下が防止される。 For example, in the threshold value setting process of S101 in the first estimation algorithm, the control unit 303 has a first orientation when the orientation of the display surface 111 is a second orientation upward from the first orientation (for example, FIG. 12B). At least one of the first threshold value and the seventh threshold value may be made smaller than in the case of orientation (for example, FIG. 12A). As a result, when the orientation of the display surface 111 is the second orientation, the threshold value becomes smaller, and as a result, the estimation accuracy is prevented from being lowered.

[7.第1筐体および第2筐体の角度と閾値の関係]
図13A、図13Bは、第1筐体11および第2筐体12の角度に応じた閾値の設定を説明するための図である。
[7. Relationship between the angle of the first housing and the second housing and the threshold value]
13A and 13B are diagrams for explaining the setting of the threshold value according to the angle of the first housing 11 and the second housing 12.

図13A、図13Bに示されるように、端末装置1がラップトップ型で使用されている場合と、タブレット型で使用されている場合とでは、端末装置1と操作者との距離が異なる。端末装置1と操作者との距離が異なると、端末装置1を操作している操作者(一例として操作者の顔部分)が赤外線センサ21の視野内で占める領域が異なる結果、赤外線出力値が異なる。一例として、ラップトップ型の場合では、タブレット型の場合と比較して、端末装置1を操作している操作者が赤外線センサ21の視野内で占める領域が小さくなる結果、赤外線出力値が低くなる。 As shown in FIGS. 13A and 13B, the distance between the terminal device 1 and the operator is different depending on whether the terminal device 1 is used in the laptop type or the tablet type. If the distance between the terminal device 1 and the operator is different, the area occupied by the operator operating the terminal device 1 (for example, the face of the operator) in the field of view of the infrared sensor 21 is different, resulting in an infrared output value. different. As an example, in the case of the laptop type, the area occupied by the operator operating the terminal device 1 in the field of view of the infrared sensor 21 becomes smaller than in the case of the tablet type, and as a result, the infrared output value becomes lower. ..

従って、上述の第1〜第3推定アルゴリズムにおけるS101、S110、S121、S130、S151の少なくとも1つの閾値設定処理では、制御部303は、第1筐体11に対する第2筐体12の角度に応じて、赤外線出力値と比較される閾値、つまり第1閾値、第3閾値、第5閾値および第7閾値の何れかを変更してよい。例えば、制御部303は、第1筐体11と第2筐体12とがラップトップ型を成すときの角度である場合には、タブレット型を成すときの角度である場合よりも、閾値を小さくしてよい。 Therefore, in at least one threshold setting process of S101, S110, S121, S130, and S151 in the above-mentioned first to third estimation algorithms, the control unit 303 responds to the angle of the second housing 12 with respect to the first housing 11. Therefore, the threshold value to be compared with the infrared output value, that is, any of the first threshold value, the third threshold value, the fifth threshold value, and the seventh threshold value may be changed. For example, the control unit 303 makes the threshold value smaller when the first housing 11 and the second housing 12 form a laptop type than when they form a tablet type. You can do it.

これに加えて/代えて、第1〜第3推定アルゴリズムの少なくとも1つでは、制御部303は、第1筐体11に対する第2筐体12の角度に応じて、推定アルゴリズムの内容を変更してもよい。例えば、制御部303は、第1筐体11に対する第2筐体12の角度に応じて、赤外線出力値とその閾値との比較による推定ではなく、赤外線出力値の変動量と、その閾値との比較による推定を行ってよい。一例として、制御部303は、第1筐体11に対する第2筐体12の角度が基準角度よりも大きい場合または小さい場合に、赤外線出力値の変動量と、その閾値との比較による推定を行ってよい。例えば、制御部303は、第4閾値および/または第8閾値の一例としての閾値よりも赤外線出力値の変動量が大きい場合に、検知対象が存在すると推定してよい。また、制御部303は、一定時間にわたり、第2閾値および/または第6閾値の一例としての閾値を変動量が下回った場合に検知対象が不存在であると推定してよい。なお、赤外線出力値の変動量は、外的要因により生じる変動量であってよく、例えばセンサの視野内における人の動きなどで大きくなる。変動量としては、赤外線出力値にローパスフィルタを適用したローパス値と生データとの差分値を用いてもよいし、赤外線出力値の移動平均値と生データとの差分値を用いてもよい。 In addition to / instead of this, in at least one of the first to third estimation algorithms, the control unit 303 changes the content of the estimation algorithm according to the angle of the second housing 12 with respect to the first housing 11. You may. For example, the control unit 303 does not estimate by comparing the infrared output value and the threshold value according to the angle of the second housing 12 with respect to the first housing 11, but the fluctuation amount of the infrared output value and the threshold value. Estimates may be made by comparison. As an example, when the angle of the second housing 12 with respect to the first housing 11 is larger or smaller than the reference angle, the control unit 303 estimates by comparing the fluctuation amount of the infrared output value with the threshold value. You can. For example, the control unit 303 may presume that a detection target exists when the fluctuation amount of the infrared output value is larger than the threshold value as an example of the fourth threshold value and / or the eighth threshold value. Further, the control unit 303 may estimate that the detection target does not exist when the fluctuation amount falls below the threshold value as an example of the second threshold value and / or the sixth threshold value for a certain period of time. The amount of fluctuation of the infrared output value may be the amount of fluctuation caused by an external factor, and becomes large due to, for example, the movement of a person in the field of view of the sensor. As the amount of fluctuation, the difference value between the low-pass value obtained by applying the low-pass filter to the infrared output value and the raw data may be used, or the difference value between the moving average value of the infrared output value and the raw data may be used.

[8.載置された端末装置の姿勢と閾値の関係(1)]
図14A〜図14Dは、載置された端末装置1の姿勢による閾値の設定を説明するための図である。
[8. Relationship between the posture of the mounted terminal device and the threshold value (1)]
14A to 14D are diagrams for explaining the setting of the threshold value depending on the posture of the mounted terminal device 1.

図14A〜図14Dに示されるように、表示面111と赤外線センサ21との位置関係は、第1筐体11の立て方に応じて異なる。位置関係が異なると、端末装置1を操作している操作者の顔部分が赤外線センサ21の視野内で占める領域が異なる。 As shown in FIGS. 14A to 14D, the positional relationship between the display surface 111 and the infrared sensor 21 differs depending on how the first housing 11 is erected. If the positional relationship is different, the area occupied by the face portion of the operator operating the terminal device 1 in the field of view of the infrared sensor 21 is different.

例えば、図14Aでは、赤外線センサ21が表示面111の上方に位置し、図14Bおよび図14Cでは、赤外線センサ21が表示面111の側方に位置し、図14Dでは、赤外線センサ21が表示面111の下方に位置する。その結果、操作者の顔部分が赤外線センサ21の視野内で占める領域、ひいては赤外線出力値は、図14Aの場合が最も大きく、次いで図14Bおよび図14Cの場合が大きく、図14Dの場合が最も小さくなる。 For example, in FIG. 14A, the infrared sensor 21 is located above the display surface 111, in FIGS. 14B and 14C, the infrared sensor 21 is located on the side of the display surface 111, and in FIG. 14D, the infrared sensor 21 is located on the display surface. It is located below 111. As a result, the area occupied by the operator's face in the field of view of the infrared sensor 21, and thus the infrared output value, is the largest in the case of FIG. 14A, followed by the case of FIGS. 14B and 14C, and the largest in the case of FIG. 14D. It becomes smaller.

従って、上述の第1〜第3推定アルゴリズムにおけるS101、S110、S121、S130、S151の少なくとも1つの閾値設定処理では、制御部303は、第1筐体11の立て方による表示面111と赤外線センサ21との位置関係に応じて、赤外線出力値と比較される閾値、つまり第1閾値、第3閾値、第5閾値および第7閾値の何れかを変更してよい。例えば、制御部303は、赤外線センサ21が表示面111の上方にある場合(図14A)には、側方にある場合(図14B、図14C)および/または下方にある場合(図14D)よりも閾値を大きくしてよい。また、制御部303は、赤外線センサ21が表示面111の側方にある場合(図14B、図14C)には、下方にある場合(図14D)よりも閾値を大きくしてよい。 Therefore, in at least one threshold setting process of S101, S110, S121, S130, and S151 in the above-mentioned first to third estimation algorithms, the control unit 303 uses the display surface 111 and the infrared sensor depending on how the first housing 11 is erected. Depending on the positional relationship with 21, the threshold value to be compared with the infrared output value, that is, any of the first threshold value, the third threshold value, the fifth threshold value, and the seventh threshold value may be changed. For example, when the infrared sensor 21 is above the display surface 111 (FIG. 14A), the control unit 303 is more likely to be sideways (FIG. 14B, 14C) and / or below (FIG. 14D). May also increase the threshold. Further, the control unit 303 may have a larger threshold value when the infrared sensor 21 is on the side of the display surface 111 (FIGS. 14B and 14C) than when it is on the lower side (FIG. 14D).

これに加えて/代えて、第1〜第3推定アルゴリズムの少なくとも1つでは、制御部303は、第1筐体11の立て方による表示面111と赤外線センサ21との位置関係に応じて、推定アルゴリズムの内容を変更してもよい。例えば、制御部303は、第1筐体11の立て方による表示面111と赤外線センサ21との位置関係に応じて、赤外線出力値とその閾値との比較による推定ではなく、赤外線出力値の変動量と、その閾値との比較による推定を行ってよい。一例として、制御部303は、赤外線センサ21が表示面111の上方にある場合、側方にある場合、および、下方にある場合のうち何れか1または2つにおいては、変動量の大きさと、その閾値との比較による推定を行ってよい。 In addition to / instead of this, in at least one of the first to third estimation algorithms, the control unit 303 depends on the positional relationship between the display surface 111 and the infrared sensor 21 depending on how the first housing 11 is erected. The content of the estimation algorithm may be changed. For example, the control unit 303 changes the infrared output value according to the positional relationship between the display surface 111 and the infrared sensor 21 depending on how the first housing 11 is erected, instead of estimating by comparing the infrared output value with its threshold value. Estimates may be made by comparing the amount with its threshold. As an example, the control unit 303 determines the magnitude of the fluctuation amount and the magnitude of the fluctuation amount in any one or two of the cases where the infrared sensor 21 is above the display surface 111, sideways, and below the display surface 111. Estimates may be made by comparison with the threshold value.

[9.載置された端末装置の姿勢と閾値の関係(2)]
図15A、図15Bは、載置された端末装置1の姿勢による閾値の設定を説明するための図である。
[9. Relationship between the posture of the mounted terminal device and the threshold value (2)]
15A and 15B are diagrams for explaining the setting of the threshold value depending on the posture of the mounted terminal device 1.

図15A、図15Bに示されるように、表示面111と赤外線センサ21との位置関係は第1筐体11の立て方に応じて異なり、位置関係が異なると、端末装置1を操作している操作者の手部分が赤外線センサ21の視野内に入る頻度が異なる。例えば、図15Aでは、赤外線センサ21が表示面111の上方に位置し、図15Bでは、赤外線センサ21が表示面111の下方に位置する。その結果、操作者の手部分が赤外線センサ21の視野内に入る頻度、ひいては赤外線出力値の変動量は、図15Aの場合よりも、図15Bの場合に大きくなる。 As shown in FIGS. 15A and 15B, the positional relationship between the display surface 111 and the infrared sensor 21 differs depending on how the first housing 11 is erected, and if the positional relationship is different, the terminal device 1 is operated. The frequency with which the operator's hand portion enters the field of view of the infrared sensor 21 is different. For example, in FIG. 15A, the infrared sensor 21 is located above the display surface 111, and in FIG. 15B, the infrared sensor 21 is located below the display surface 111. As a result, the frequency with which the operator's hand portion enters the field of view of the infrared sensor 21, and thus the fluctuation amount of the infrared output value, becomes larger in the case of FIG. 15B than in the case of FIG. 15A.

従って、上述の第1〜第3推定アルゴリズムにおけるS101、S110、S121、S130、S151の少なくとも1つの閾値設定処理では、制御部303は、第1筐体11の立て方による表示面111と赤外線センサ21との位置関係に応じて、赤外線出力値と比較される閾値、つまり第1閾値、第3閾値、第5閾値および第7閾値の何れかを変更してよい。例えば、制御部303は、赤外線センサ21が表示面111の下方にある場合(図15B)には、上方にある場合(図15A)よりも閾値を大きくしてよい。 Therefore, in at least one threshold setting process of S101, S110, S121, S130, and S151 in the above-mentioned first to third estimation algorithms, the control unit 303 uses the display surface 111 and the infrared sensor depending on how the first housing 11 is erected. Depending on the positional relationship with 21, the threshold value to be compared with the infrared output value, that is, any of the first threshold value, the third threshold value, the fifth threshold value, and the seventh threshold value may be changed. For example, the control unit 303 may set the threshold value larger when the infrared sensor 21 is below the display surface 111 (FIG. 15B) than when it is above the display surface 111 (FIG. 15A).

これに加えて/代えて、第1〜第3推定アルゴリズムの少なくとも1つでは、制御部303は、第1筐体11の立て方による表示面111と赤外線センサ21との位置関係に応じて、推定アルゴリズムの内容を変更してもよい。例えば、制御部303は、第1筐体11の立て方による表示面111と赤外線センサ21との位置関係に応じて、赤外線出力値とその閾値との比較による推定ではなく、赤外線出力値の変動量と、その閾値との比較による推定を行ってよい。一例として、制御部303は、赤外線センサ21が表示面111の上方にある場合と、下方にある場合との一方においては、赤外線出力値の変動量の大きさと、その閾値との比較による推定を行ってよい。 In addition to / instead of this, in at least one of the first to third estimation algorithms, the control unit 303 depends on the positional relationship between the display surface 111 and the infrared sensor 21 depending on how the first housing 11 is erected. The content of the estimation algorithm may be changed. For example, the control unit 303 changes the infrared output value according to the positional relationship between the display surface 111 and the infrared sensor 21 depending on how the first housing 11 is erected, instead of estimating by comparing the infrared output value with its threshold value. Estimates may be made by comparing the amount with its threshold. As an example, the control unit 303 estimates by comparing the magnitude of the fluctuation amount of the infrared output value with the threshold value in either the case where the infrared sensor 21 is above the display surface 111 or the case where the infrared sensor 21 is below the display surface 111. You may go.

[10.載置された端末装置の姿勢と閾値の関係(3)]
図16A〜図16Cは、載置された端末装置1の姿勢による閾値の設定を説明するための図である。
[10. Relationship between the posture of the mounted terminal device and the threshold value (3)]
16A to 16C are diagrams for explaining the setting of the threshold value depending on the posture of the mounted terminal device 1.

図16A〜図16Cに示されるように、表示面111と赤外線センサ21との位置関係は第1筐体11の立て方に応じて異なり、立て方および位置関係が異なると、端末装置1が置かれている机の上面または第2筐体12が赤外線センサ21の視野内で占める領域が異なる。 As shown in FIGS. 16A to 16C, the positional relationship between the display surface 111 and the infrared sensor 21 differs depending on how the first housing 11 is erected, and when the erection and the positional relationship are different, the terminal device 1 is placed. The area occupied by the upper surface of the desk or the second housing 12 in the field of view of the infrared sensor 21 is different.

例えば、図16Aでは、第1筐体11が第2筐体12とは反対の側を向いて第2筐体12の上に立てられており、端末装置1がスタンド型になっている。また、赤外線センサ21が表示面111の上方に位置している。 For example, in FIG. 16A, the first housing 11 is erected on the second housing 12 facing the side opposite to the second housing 12, and the terminal device 1 is a stand type. Further, the infrared sensor 21 is located above the display surface 111.

図16Bでは、第1筐体11が第2筐体12とは反対の側を向いて第2筐体12に立て掛けられており、端末装置1がテント型になっている。また、赤外線センサ21が表示面111の下方に位置している。この状態においては、図16Aの場合と比較して、赤外線センサ21の視野内で机が占める領域が大きい。 In FIG. 16B, the first housing 11 is leaned against the second housing 12 facing the side opposite to the second housing 12, and the terminal device 1 has a tent shape. Further, the infrared sensor 21 is located below the display surface 111. In this state, the area occupied by the desk in the field of view of the infrared sensor 21 is larger than that in the case of FIG. 16A.

図16Cでは、第1筐体11が第2筐体12の側を向いて第2筐体12の上に立てられており、端末装置1がラップトップ型になっている。また、赤外線センサ21が表示面111の下方に位置している。この状態においては、図16A、図16Bの場合と異なり、赤外線センサ21の視野内に第2筐体12が存在している。 In FIG. 16C, the first housing 11 is erected on the second housing 12 facing the side of the second housing 12, and the terminal device 1 is a laptop type. Further, the infrared sensor 21 is located below the display surface 111. In this state, unlike the cases of FIGS. 16A and 16B, the second housing 12 exists in the field of view of the infrared sensor 21.

ここで、図16Aのように赤外線センサ21がPCのベゼル上部にある場合には、赤外線センサ21の視野に操作者の顔が含まれるのに対して、図16B、図16Cのように赤外線センサ21がベゼル下部にある場合は、被服を着用した操作者の腹部付近が赤外線センサ21の視野に含まれる。また、図16B、図16Cは視野の下半分に机やキーボードが入りこんでおり、机よりもキーボードの方が高温である。そのため、視野内に操作者が存在する場合での赤外線出力値は、図16B<図16C<図16Aの順に高くてよい。視野内に操作者が存在しない場合と存在する場合の赤外線出力の変動量は、図16Aが図16B、図11Cよりも大きくてよい。 Here, when the infrared sensor 21 is located above the bezel of the PC as shown in FIG. 16A, the operator's face is included in the field of view of the infrared sensor 21, whereas the infrared sensor 21 is shown in FIGS. 16B and 16C. When 21 is in the lower part of the bezel, the vicinity of the abdomen of the operator wearing the clothing is included in the field of view of the infrared sensor 21. Further, in FIGS. 16B and 16C, the desk and the keyboard are embedded in the lower half of the field of view, and the temperature of the keyboard is higher than that of the desk. Therefore, the infrared output value when the operator is present in the field of view may be higher in the order of FIG. 16B <FIG. 16C <FIG. 16A. The fluctuation amount of the infrared output when the operator does not exist in the field of view and when the operator exists may be larger in FIG. 16A than in FIGS. 16B and 11C.

従って、上述の第1〜第3推定アルゴリズムにおけるS101、S110、S121、S130、S151の少なくとも1つの閾値設定処理では、制御部303は、第1筐体11の立て方と、当該立て方による表示面111および赤外線センサ21の位置関係とに応じて、赤外線出力値と比較される閾値、つまり第1閾値、第3閾値、第5閾値および第7閾値の何れかを変更してよい。例えば、制御部303は、図16Aの場合には、図16Bの場合および/または図16Cの場合よりも閾値を大きくしてよい。また、制御部303は、図16Cの場合には、図16Bの場合よりも閾値を大きくしてよい。 Therefore, in at least one threshold setting process of S101, S110, S121, S130, and S151 in the above-mentioned first to third estimation algorithms, the control unit 303 sets the first housing 11 and displays the first housing 11 according to the setting. Depending on the positional relationship between the surface 111 and the infrared sensor 21, the threshold value to be compared with the infrared output value, that is, any of the first threshold value, the third threshold value, the fifth threshold value, and the seventh threshold value may be changed. For example, the control unit 303 may have a larger threshold in the case of FIG. 16A than in the case of FIG. 16B and / or the case of FIG. 16C. Further, in the case of FIG. 16C, the control unit 303 may have a larger threshold value than in the case of FIG. 16B.

これに加えて/代えて、第1〜第3推定アルゴリズムの少なくとも1つでは、制御部303は、第1筐体11の立て方と、当該立て方による表示面111および赤外線センサ21の位置関係とに応じて、推定アルゴリズムの内容を変更してもよい。例えば、制御部303は、第1筐体11の立て方と、当該立て方による表示面111および赤外線センサ21の位置関係とに応じて、赤外線出力値とその閾値との比較による推定ではなく、赤外線出力値の変動量と、その閾値との比較による推定を行ってよい。一例として、制御部303は、図16A〜図16Cのうち何れか1つまたは2つにおいては、赤外線出力値の変動量と、その閾値との比較による推定を行ってよい。 In addition to / instead of this, in at least one of the first to third estimation algorithms, the control unit 303 has a positional relationship between the standing method of the first housing 11 and the display surface 111 and the infrared sensor 21 according to the standing method. The content of the estimation algorithm may be changed accordingly. For example, the control unit 303 does not estimate by comparing the infrared output value and the threshold value according to the standing method of the first housing 11 and the positional relationship between the display surface 111 and the infrared sensor 21 according to the standing method. Estimation may be performed by comparing the fluctuation amount of the infrared output value with the threshold value. As an example, in any one or two of FIGS. 16A to 16C, the control unit 303 may perform estimation by comparing the fluctuation amount of the infrared output value with the threshold value thereof.

[11.端末装置の動作例]
図17は、端末装置1の動作例を示す図である。図17では、操作者が端末装置1を使用中に変形させた場合の赤外線出力値、加速度分散値、地磁気出力分散値の遷移を図示している。
[11. Operation example of terminal device]
FIG. 17 is a diagram showing an operation example of the terminal device 1. FIG. 17 illustrates the transition of the infrared output value, the acceleration dispersion value, and the geomagnetic output dispersion value when the operator deforms the terminal device 1 during use.

まず、図中の「A」部分に示されるように、操作者が表示面111を斜め上方に向けて端末装置1をラップトップ型で使用しているときには、第1推定アルゴリズムにより、端末装置1の動きが検出されたか否か(S103)、赤外線出力値が第1閾値を下回ったか否か(S105)が繰り返し判定される。この状態では、推定部302により操作者が存在すると推定されている。 First, as shown in the “A” part in the drawing, when the operator is using the terminal device 1 in a laptop type with the display surface 111 facing diagonally upward, the terminal device 1 is used by the first estimation algorithm. It is repeatedly determined whether or not the motion of (S103) is detected and whether or not the infrared output value is below the first threshold value (S105). In this state, it is estimated by the estimation unit 302 that an operator exists.

続いて、図中の「B」部分に示されるように、操作者が端末装置1をテント型に変形するべく持ち上げると、例えば加速度センサ22からの加速度出力値が閾値を超えることにより、端末装置1の動きが検出されたと判定される(S103;Yes)。これにより、推定部302による推定がディセーブルされ、第1推定アルゴリズムによる推定処理(S53)および姿勢対応制御処理(S9)が終了する。そして、端末装置1の動きが終了しない限り、端末装置1の動きが検出されたか否かが繰り返し判定される(S3)。この状態では、操作者が存在するという推定が維持されている。 Subsequently, as shown in the “B” portion in the figure, when the operator lifts the terminal device 1 to deform it into a tent shape, for example, the acceleration output value from the acceleration sensor 22 exceeds the threshold value, so that the terminal device 1 It is determined that the movement of 1 is detected (S103; Yes). As a result, the estimation by the estimation unit 302 is disabled, and the estimation process (S53) and the attitude correspondence control process (S9) by the first estimation algorithm are completed. Then, unless the movement of the terminal device 1 is completed, it is repeatedly determined whether or not the movement of the terminal device 1 is detected (S3). In this state, the presumption that there is an operator is maintained.

続いて、図中の「C」部分〜「D」部分に示されるように、操作者が端末装置1をテント型に変形すると、例えば加速度センサ22からの加速度出力値が閾値を超えることにより、端末装置1の動きが検出されたと判定される(S3;Yes)。そして、動きが終了しない限り、端末装置1の動きが検出されたか否かが繰り返し判定される(S3)。この状態では、操作者が存在するという推定が維持されている。 Subsequently, as shown in the "C" to "D" parts in the figure, when the operator deforms the terminal device 1 into a tent shape, for example, the acceleration output value from the acceleration sensor 22 exceeds the threshold value. It is determined that the movement of the terminal device 1 has been detected (S3; Yes). Then, as long as the movement is not completed, it is repeatedly determined whether or not the movement of the terminal device 1 is detected (S3). In this state, the presumption that there is an operator is maintained.

続いて、図中の「D」部分〜「E」部分に示されるように、操作者が端末装置1を机に置き、向きを調整すべく端末装置1を水平に回転させると、例えば地磁気センサ23からの地磁気出力値が閾値を超えることにより、端末装置1の動き(向きの変化)が検出されたと判定される(S3;Yes)。そして、動きが終了しない限り、端末装置1の動きが検出されたか否かが繰り返し判定される(S3)。この状態では、操作者が存在するという推定が維持されている。 Subsequently, as shown in the "D" to "E" parts in the figure, when the operator places the terminal device 1 on the desk and rotates the terminal device 1 horizontally to adjust the orientation, for example, a geomagnetic sensor. When the geomagnetic output value from 23 exceeds the threshold value, it is determined that the movement (change in orientation) of the terminal device 1 has been detected (S3; Yes). Then, as long as the movement is not completed, it is repeatedly determined whether or not the movement of the terminal device 1 is detected (S3). In this state, the presumption that there is an operator is maintained.

続いて、図中の「E」部分に示されるように、操作者が端末装置1の向きの調整を終了すると、端末装置1の動きが検出されないと判定される(S3;No)。次に、表示面111の向きが斜め上方であると判定されて(S51;斜め上方)、操作者が存在していることを前提とする第1推定アルゴリズムが選択されて、第1閾値が設定され(S101)、端末装置1の動きが検出されたか否か(S103)、赤外線出力値が第1閾値を下回ったか否か(S105)が繰り返し判定される。 Subsequently, as shown in the “E” portion in the figure, when the operator finishes adjusting the orientation of the terminal device 1, it is determined that the movement of the terminal device 1 is not detected (S3; No). Next, it is determined that the orientation of the display surface 111 is diagonally upward (S51; diagonally upward), the first estimation algorithm assuming the presence of the operator is selected, and the first threshold value is set. (S101), it is repeatedly determined whether or not the movement of the terminal device 1 is detected (S103), and whether or not the infrared output value is below the first threshold value (S105).

[10.コンピュータの他の構成]
図18は、本実施形態に係るコンピュータの構成を示すブロック図である。
[10. Other computer configurations]
FIG. 18 is a block diagram showing a configuration of a computer according to the present embodiment.

図18は、本実施形態に係るコンピュータ1900の構成の一例を示す。本実施形態に係るコンピュータ1900は、推定装置10、端末装置1、またはこれらの一部の要素として機能する。 FIG. 18 shows an example of the configuration of the computer 1900 according to the present embodiment. The computer 1900 according to this embodiment functions as an estimation device 10, a terminal device 1, or a part thereof.

本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、及びDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フラッシュメモリ・ドライブ2050、赤外線センサ21、加速度センサ22、地磁気センサ23、位置関係センサ24、撮像部40及び入出力チップ2070を有するレガシー入出力部を備える。 The computer 1900 according to the present embodiment is connected to the host controller 2082 by the input / output controller 2084 and the CPU peripheral portion having the CPU 2000, the RAM 2020, the graphic controller 2075, and the display device 2080 which are interconnected by the host controller 2082. Input / output unit having communication interface 2030, hard disk drive 2040, and DVD drive 2060, ROM 2010 connected to input / output controller 2084, flash memory drive 2050, infrared sensor 21, acceleration sensor 22, geomagnetic sensor 23, position. It includes a legacy input / output unit having a related sensor 24, an image pickup unit 40, and an input / output chip 2070.

ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。 The host controller 2082 connects the RAM 2020 to the CPU 2000 and the graphic controller 2075 that access the RAM 2020 at a high transfer rate. The CPU 2000 operates based on the programs stored in the ROM 2010 and the RAM 2020, and controls each part. The graphic controller 2075 acquires image data generated on a frame buffer provided in the RAM 2020 by the CPU 2000 or the like, and displays the image data on the display device 2080. Instead of this, the graphic controller 2075 may internally include a frame buffer for storing image data generated by the CPU 2000 or the like.

入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、有線又は無線によりネットワークを介して他の装置と通信する。また、通信インターフェイスは、通信を行うハードウェアとして機能する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。DVDドライブ2060は、DVD2095からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。 The input / output controller 2084 connects the host controller 2082 to the communication interface 2030, the hard disk drive 2040, and the DVD drive 2060, which are relatively high-speed input / output devices. The communication interface 2030 communicates with other devices via a network by wire or wirelessly. In addition, the communication interface functions as hardware for communication. The hard disk drive 2040 stores programs and data used by the CPU 2000 in the computer 1900. The DVD drive 2060 reads a program or data from the DVD 2095 and provides it to the hard disk drive 2040 via the RAM 2020.

また、入出力コントローラ2084には、上述の赤外線センサ21、加速度センサ22、地磁気センサ23、位置関係センサ24および撮像部40と、ROM2010と、フラッシュメモリ・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フラッシュメモリ・ドライブ2050は、フラッシュメモリ2090からプログラム又はデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フラッシュメモリ・ドライブ2050を入出力コントローラ2084へと接続するとともに、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。 Further, the input / output controller 2084 is relatively composed of the above-mentioned infrared sensor 21, acceleration sensor 22, geomagnetic sensor 23, positional relationship sensor 24, imaging unit 40, ROM 2010, flash memory drive 2050, and input / output chip 2070. A low-speed input / output device is connected. The ROM 2010 stores a boot program executed by the computer 1900 at startup, and / or a program depending on the hardware of the computer 1900. The flash memory drive 2050 reads a program or data from the flash memory 2090 and provides it to the hard disk drive 2040 via the RAM 2020. The input / output chip 2070 connects the flash memory drive 2050 to the input / output controller 2084, and inputs / outputs various input / output devices via, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like. Connect to controller 2084.

RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フラッシュメモリ2090、DVD2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。 The program provided to the hard disk drive 2040 via the RAM 2020 is stored in a recording medium such as a flash memory 2090, a DVD 2095, or an IC card and provided by the user. The program is read from the recording medium, installed on the hard disk drive 2040 in the computer 1900 via the RAM 2020, and executed in the CPU 2000.

コンピュータ1900にインストールされ、コンピュータ1900を推定装置10の少なくとも一部として機能させるプログラムは、取得モジュール、第1算出モジュール、第2算出モジュール、第1閾値算出モジュール、検出モジュール、推定モジュールおよび制御モジュールのうち少なくとも1つを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、検出部301、推定部302および制御部303としてそれぞれ機能させてよい。 The programs installed in the computer 1900 and causing the computer 1900 to function as at least a part of the estimation device 10 are the acquisition module, the first calculation module, the second calculation module, the first threshold calculation module, the detection module, the estimation module, and the control module. It has at least one of them. These programs or modules may act on the CPU 2000 or the like to cause the computer 1900 to function as the detection unit 301, the estimation unit 302, and the control unit 303, respectively.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段であるCPU2000等に働きかけて、コンピュータ1900を、検出部301、推定部302および制御部303として機能させる。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の推定装置10が構築される。 The information processing described in these programs is read into the computer 1900 and acts on the CPU 2000 or the like, which is a concrete means in which the software and the various hardware resources described above cooperate with each other, to detect the computer 1900. It functions as a unit 301, an estimation unit 302, and a control unit 303. Then, by realizing the calculation or processing of information according to the purpose of use of the computer 1900 in the present embodiment by these specific means, a unique estimation device 10 according to the purpose of use is constructed.

コンピュータ1900にインストールされ、コンピュータ1900を端末装置1の少なくとも一部として機能させるプログラムは、推定装置モジュール、ユーザインターフェースモジュール、撮像制御モジュール、および認証モジュールのうち少なくとも1つを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、推定装置10、ユーザインターフェース30、撮像制御部50、および認証部60としてそれぞれ機能させてよい。 A program installed on the computer 1900 that causes the computer 1900 to function as at least a part of the terminal device 1 comprises at least one of an estimation device module, a user interface module, an imaging control module, and an authentication module. These programs or modules may act on the CPU 2000 or the like to cause the computer 1900 to function as an estimation device 10, a user interface 30, an imaging control unit 50, and an authentication unit 60, respectively.

これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段であるCPU2000等に働きかけて、コンピュータ1900を、推定装置10、ユーザインターフェース30、撮像制御部50、および認証部60として機能させる。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の端末装置1が構築される。 The information processing described in these programs is read into the computer 1900 and acts on the CPU 2000 or the like, which is a concrete means in which the software and the various hardware resources described above cooperate, to estimate the computer 1900. It functions as a device 10, a user interface 30, an imaging control unit 50, and an authentication unit 60. Then, by realizing the calculation or processing of information according to the purpose of use of the computer 1900 in the present embodiment by these specific means, a unique terminal device 1 according to the purpose of use is constructed.

一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フラッシュメモリ2090、又はDVD2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。 As an example, when communicating between the computer 1900 and an external device or the like, the CPU 2000 executes a communication program loaded on the RAM 2020, and based on the processing content described in the communication program, a communication interface. Instruct 2030 to perform communication processing. Under the control of the CPU 2000, the communication interface 2030 reads the transmission data stored in the transmission buffer area or the like provided on the storage device such as the RAM 2020, the hard disk drive 2040, the flash memory 2090, or the DVD 2095, and transmits the transmission data to the network. Alternatively, the received data received from the network is written to a receive buffer area or the like provided on the storage device. As described above, the communication interface 2030 may transfer the transmitted / received data to / from the storage device by the DMA (direct memory access) method, and instead, the CPU 2000 may transfer the transfer source storage device or the communication interface 2030. The transmitted / received data may be transferred by reading the data from the data and writing the data to the communication interface 2030 or the storage device of the transfer destination.

また、CPU2000は、ハードディスクドライブ2040、DVDドライブ2060(DVD2095)、フラッシュメモリ・ドライブ2050(フラッシュメモリ2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020及び外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。例えば、推定装置10、および端末装置1は、適宜本実施形態の処理前、処理中、処理後のデータを記憶する記憶装置を備えてよい。 Further, the CPU 2000 performs DMA all or necessary parts from files or databases stored in an external storage device such as a hard disk drive 2040, a DVD drive 2060 (DVD2095), and a flash memory drive 2050 (flash memory 2090). It is read into the RAM 2020 by transfer or the like, and various processes are performed on the data on the RAM 2020. Then, the CPU 2000 writes the processed data back to the external storage device by DMA transfer or the like. In such processing, the RAM 2020 can be regarded as temporarily holding the contents of the external storage device. Therefore, in the present embodiment, the RAM 2020 and the external storage device are collectively referred to as a memory, a storage unit, a storage device, or the like. For example, the estimation device 10 and the terminal device 1 may appropriately include a storage device that stores data before, during, and after processing of the present embodiment.

本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。 Various information such as various programs, data, tables, and databases in the present embodiment are stored in such a storage device and are subject to information processing. The CPU 2000 can also hold a part of the RAM 2020 in the cache memory and read / write on the cache memory. Even in such a form, the cache memory plays a part of the function of the RAM 2020. Therefore, in the present embodiment, the cache memory is also included in the RAM 2020, the memory, and / or the storage device, unless otherwise indicated. To do.

また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすか否かを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。 Further, the CPU 2000 includes various operations, information processing, condition determination, information search / replacement, etc., which are specified by the instruction sequence of the program for the data read from the RAM 2020. Is processed and written back to RAM 2020. For example, when the CPU 2000 determines a condition, whether or not various variables shown in the present embodiment satisfy conditions such as large, small, above, below, and equal to other variables or constants. If the condition is satisfied (or not satisfied), it branches to a different instruction sequence or calls a subroutine.

また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。 In addition, the CPU 2000 can search for information stored in a file in the storage device, a database, or the like. For example, when a plurality of entries in which the attribute value of the second attribute is associated with the attribute value of the first attribute are stored in the storage device, the CPU 2000 describes the plurality of entries stored in the storage device. By searching for an entry in which the attribute value of the first attribute matches the specified condition and reading the attribute value of the second attribute stored in that entry, it is associated with the first attribute that satisfies the predetermined condition. The attribute value of the second attribute obtained can be obtained.

また、実施形態の説明において複数の要素が列挙された場合には、列挙された要素以外の要素を用いてもよい。例えば、「Xは、A、B及びCを用いてYを実行する」と記載される場合、Xは、A、B及びCに加え、Dを用いてYを実行してもよい。 Further, when a plurality of elements are listed in the description of the embodiment, elements other than the listed elements may be used. For example, when it is described that "X executes Y using A, B and C", X may execute Y using D in addition to A, B and C.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that such modified or improved forms may also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of operations, procedures, steps, steps, etc. in the devices, systems, programs, and methods shown in the claims, specification, and drawings is particularly "before" and "prior to". It should be noted that it can be realized in any order unless the output of the previous process is used in the subsequent process. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. It's not a thing.

1 端末装置、10 推定装置、11 第1筐体、12 第2筐体、21 赤外線センサ、22 加速度センサ、23 地磁気センサ、24 位置関係センサ、30 ユーザインターフェース、40 撮像部、50 撮像制御部、60 認証部、301 検出部、302 推定部、303 制御部、110 ディスプレイ、111 表示面、112 タッチセンサ、120 キーボード、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フラッシュメモリ・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フラッシュメモリ、2095 DVD 1 terminal device, 10 estimation device, 11 1st housing, 12 2nd housing, 21 infrared sensor, 22 acceleration sensor, 23 geomagnetic sensor, 24 positional relationship sensor, 30 user interface, 40 imaging unit, 50 imaging control unit, 60 Authentication unit, 301 Detection unit, 302 Estimator unit, 303 Control unit, 110 display, 111 display surface, 112 touch sensor, 120 keyboard, 1900 computer, 2000 CPU, 2010 ROM, 2020 RAM, 2030 communication interface, 2040 hard disk drive, 2050 Flash Memory Drive, 2060 DVD Drive, 2070 I / O Chip, 2075 Graphic Controller, 2080 Display, 2082 Host Controller, 2084 I / O Controller, 2090 Flash Memory, 2095 DVD

Claims (21)

コンピュータを、
第1筐体に表示面を有する端末装置に設けられた赤外線センサである第1センサから受け取った第1出力値を用いて、空間状態を推定する推定部と、
前記端末装置に設けられた第2センサから受け取った第2出力値を用いて、前記端末装置の動きおよび姿勢の少なくとも一方を検出する検出部と、
前記検出部により検出された前記端末装置の動きおよび姿勢の少なくとも一方に応じて、前記推定部による空間状態の推定を制御する制御部として機能させ
前記制御部は、前記検出部により検出された前記表示面の向きに応じて、前記推定部による推定アルゴリズムを変更するプログラム。
Computer,
An estimation unit that estimates the spatial state using the first output value received from the first sensor, which is an infrared sensor provided in the terminal device having a display surface in the first housing , and
A detection unit that detects at least one of the movement and the posture of the terminal device by using the second output value received from the second sensor provided in the terminal device.
It functions as a control unit that controls the estimation of the spatial state by the estimation unit according to at least one of the movement and the posture of the terminal device detected by the detection unit .
Wherein, in response to said detected orientation of the display surface by the detection unit, a program to change the estimation algorithm by the estimation unit.
前記第1センサは、前記第1筐体に設けられる、請求項1に記載のプログラム。The program according to claim 1, wherein the first sensor is provided in the first housing. 前記制御部は、前記検出部により検出された前記表示面の向きに応じて、前提とする空間状態が異なる複数の推定アルゴリズムの何れかを選択する、請求項1または2に記載のプログラム。The program according to claim 1 or 2, wherein the control unit selects one of a plurality of estimation algorithms having different presupposed spatial states according to the orientation of the display surface detected by the detection unit. 前記制御部は、前記端末装置の動きが終了したときの前記表示面の向きに応じて、前記推定部による推定アルゴリズを変更する請求項1から3の何れか一項に記載のプログラム。 Wherein the control unit is configured according to the orientation of the display surface when the movement of the terminal device has been completed, the program according to any one of claims 1 to 3 for changing the estimated algorithm by the estimation unit. 前記制御部は、前記端末装置の動きが終了したときの前記表示面の向きが斜め上方である場合に、前記推定部による推定アルゴリズムとして、前記端末装置の動きが終了したときの前記表示面の向きが斜め下方である場合とは異なる推定アルゴリズムを選択する請求項1から4の何れか一項に記載のプログラム。 When the orientation of the display surface when the movement of the terminal device is completed is obliquely upward, the control unit can use the estimation algorithm of the estimation unit to display the display surface when the movement of the terminal device is completed. The program according to any one of claims 1 to 4, which selects an estimation algorithm different from the case where the orientation is diagonally downward. 前記制御部は、前記端末装置の動きが終了したときに前記表示面の向きが斜め上方である場合に、前記推定部による推定アルゴリズムとして、前記端末装置の動きが終了したときに検知対象の存在が推定されている状態にあることを前提とする第1推定アルゴリズムを選択する請求項に記載のプログラム。 When the display surface is obliquely upward when the movement of the terminal device is completed, the control unit presents a detection target when the movement of the terminal device is completed as an estimation algorithm by the estimation unit. The program according to claim 5 , wherein the first estimation algorithm is selected on the premise that is in the estimated state. 前記推定部は、前記第1推定アルゴリズムが選択された場合において、前記第1出力値が第1閾値を下回ったこと、または前記第1出力値の変動量が一定時間にわたり第2閾値を下回ったことに応じて検知対象の不存在を推定する請求項6に記載のプログラム。 In the estimation unit, when the first estimation algorithm is selected, the first output value is below the first threshold value, or the fluctuation amount of the first output value is below the second threshold value for a certain period of time. The program according to claim 6, wherein the absence of the detection target is estimated accordingly. 前記制御部は、前記端末装置の動きが終了したときに前記表示面の向きが斜め下方であり、かつ前記表示面の上端が前記表示面の下端よりも高さが低い場合に、前記推定部による推定アルゴリズムとして、前記端末装置の動きが終了したときに検知対象が存在しているか不存在であるか不明の状態にあることを前提とする第2推定アルゴリズムを選択する請求項5から7のいずれか一項に記載のプログラム。 The control unit is the estimation unit when the direction of the display surface is obliquely downward when the movement of the terminal device is completed and the upper end of the display surface is lower than the lower end of the display surface. According to claims 5 to 7, a second estimation algorithm is selected on the premise that the detection target exists or does not exist when the movement of the terminal device is completed. The program described in any one section. 前記制御部は、前記端末装置の動きが終了したときに前記表示面の向きが横向きから下向きの間のうち、基準向きよりも横向きであり、かつ、前記表示面の上端が前記表示面の下端よりも高さが高い場合に、前記推定部による推定アルゴリズムとして、前記端末装置の動きが終了したときに検知対象が存在しているか不存在であるか不明の状態にあることを前提とする第2推定アルゴリズムを選択する請求項5から8のいずれか一項に記載のプログラム。 When the movement of the terminal device is completed, the control unit has the display surface oriented from sideways to downward, which is more lateral than the reference orientation, and the upper end of the display surface is the lower end of the display surface. When the height is higher than the above, it is assumed that the estimation algorithm by the estimation unit is in a state where it is unknown whether the detection target exists or does not exist when the movement of the terminal device ends. 2. The program according to any one of claims 5 to 8, which selects an estimation algorithm. 前記推定部は、前記第2推定アルゴリズムが選択された場合において、前記第1出力値が第3閾値を上回ったこと、または前記第1出力値の変動量が第4閾値を上回ったことに応じて検知対象の存在を推定し、
前記第1出力値が第5閾値を下回ったこと、または前記第1出力値の変動量が一定時間にわたり第6閾値を下回ったことに応じて検知対象の不存在を推定する請求項8または9に記載のプログラム。
The estimation unit responds to the fact that the first output value exceeds the third threshold value or the fluctuation amount of the first output value exceeds the fourth threshold value when the second estimation algorithm is selected. Estimate the existence of the detection target
Claim 8 or 9 for estimating the absence of the detection target according to the fact that the first output value is below the fifth threshold value or the amount of fluctuation of the first output value is below the sixth threshold value for a certain period of time. The program described in.
前記制御部は、前記端末装置の動きが終了したときに前記表示面の向きが横向きから下向きの間のうち、基準向きよりも下向きであり、かつ、前記表示面の上端が前記表示面の下端よりも高さが高い場合に、前記推定部による推定アルゴリズムとして、前記端末装置の動きが終了したときに検知対象が不存在であることを前提とする第3推定アルゴリズムを選択する
請求項5〜10のいずれか一項に記載のプログラム。
When the movement of the terminal device is completed, the control unit has the display surface oriented downward from the sideways direction to the downward direction, and the upper end of the display surface is the lower end of the display surface. Claims 5 to select a third estimation algorithm that assumes that the detection target does not exist when the movement of the terminal device ends, as the estimation algorithm by the estimation unit when the height is higher than The program according to any one of 10.
前記推定部は、前記第3推定アルゴリズムが選択された場合において、前記第1出力値が第7閾値を上回ったこと、または前記第1出力値の変動量が第8閾値を上回ったことに応じて検知対象の存在を推定する請求項11に記載のプログラム。 The estimation unit responds that the first output value exceeds the seventh threshold value or the fluctuation amount of the first output value exceeds the eighth threshold value when the third estimation algorithm is selected. The program according to claim 11, which estimates the existence of a detection target. 前記端末装置は、前記第1筐体に対する角度が可変に設けられた、キーボードを有する第2筐体を更に有し、
前記制御部は、前記第1筐体に対する前記第2筐体の角度に応じて前記推定部による推定アルゴリズを変更する請求項1から12のいずれか一項に記載のプログラム。
The terminal device further includes a second housing having a keyboard, which is provided with a variable angle with respect to the first housing.
Wherein the control unit program claimed in any one of 12 to modify the estimate algorithm by the estimation unit in accordance with the angle of the second housing relative to the first body.
前記制御部は、前記端末装置の前記第1筐体の立て方による前記表示面と前記第1センサとの位置関係に応じて、前記推定部による推定アルゴリズを変更する請求項1から13のいずれか一項に記載のプログラム。 Wherein, in response to said positional relationship of the display surface by vertical way of the first housing of the terminal device and the first sensor, of claims 1 to 13 to modify the estimate algorithm by the estimator The program described in any one section. 前記第2センサは、加速度センサである請求項1から1のいずれか一項に記載のプログラム。 The second sensor, the program according to any one of claims 1 1 4 is an acceleration sensor. 前記検出部は、地磁気センサおよびジャイロセンサの少なくとも一方から受け取った出力値を更に用いて、前記端末装置の動きおよび姿勢の少なくとも一方を検出する請求項1に記載のプログラム。 The program according to claim 15 , wherein the detection unit further uses an output value received from at least one of the geomagnetic sensor and the gyro sensor to detect at least one of the movement and the posture of the terminal device. 請求項1〜1のいずれか一項に記載のプログラムを格納するコンピュータ可読媒体。 A computer-readable medium for storing the program according to any one of claims 1 to 16 . 請求項1〜1のいずれか一項に記載のプログラムを格納する推定装置。 An estimation device for storing the program according to any one of claims 1 to 16 . 第1筐体に表示面を有する端末装置に設けられた赤外線センサである第1センサから受け取った第1出力値を用いて、空間状態を推定する推定部と、
前記端末装置に設けられた第2センサから受け取った第2出力値を用いて、前記端末装置の動きおよび姿勢の少なくとも一方を検出する検出部と、
前記検出部により検出された前記端末装置の動きおよび姿勢の少なくとも一方に応じて、前記推定部による空間状態の推定を制御する制御部と、
を備え
前記制御部は、前記検出部により検出された前記表示面の向きに応じて、前記推定部による推定アルゴリズムを変更する推定装置。
An estimation unit that estimates the spatial state using the first output value received from the first sensor, which is an infrared sensor provided in the terminal device having a display surface in the first housing , and
A detection unit that detects at least one of the movement and the posture of the terminal device by using the second output value received from the second sensor provided in the terminal device.
A control unit that controls the estimation of the spatial state by the estimation unit according to at least one of the movement and the posture of the terminal device detected by the detection unit.
Equipped with a,
Wherein, in response to said detected orientation of the display surface by the detection unit, wherein to change the estimation algorithm by estimating portion estimating apparatus.
請求項18または19に記載の推定装置と、
前記第1筐体と、
前記第1筐体に設けられた前記第1センサと、
前記第2センサと、
を備える端末装置。
With the estimation device according to claim 18 or 19 .
With the first housing
With the first sensor provided in the first housing,
With the second sensor
A terminal device comprising.
第1筐体に表示面を有する端末装置に設けられた赤外線センサである第1センサから受け取った第1出力値を用いて、空間状態を推定する推定段階と、
前記端末装置に設けられた第2センサから受け取った第2出力値を用いて、前記端末装置の動きおよび姿勢の少なくとも一方を検出する検出段階と、
前記検出段階により検出された前記端末装置の動きおよび姿勢の少なくとも一方に応じて、前記推定段階による空間状態の推定を制御する制御段階と、
を備え
前記制御段階では、前記検出段階により検出された前記表示面の向きに応じて、前記推定段階による推定アルゴリズムを変更する推定方法。
An estimation stage for estimating the spatial state using the first output value received from the first sensor, which is an infrared sensor provided in the terminal device having a display surface in the first housing , and
A detection step of detecting at least one of the movement and the posture of the terminal device using the second output value received from the second sensor provided in the terminal device, and
A control step that controls the estimation of the spatial state by the estimation step according to at least one of the movement and the posture of the terminal device detected by the detection step.
Equipped with a,
Wherein in the control step, in response to the detected orientation of the display surface by the detection step, the estimation method to change the estimation algorithm according to the estimation step.
JP2016133051A 2016-07-05 2016-07-05 Programs, computer-readable media, terminals, estimators and estimation methods Active JP6823391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016133051A JP6823391B2 (en) 2016-07-05 2016-07-05 Programs, computer-readable media, terminals, estimators and estimation methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016133051A JP6823391B2 (en) 2016-07-05 2016-07-05 Programs, computer-readable media, terminals, estimators and estimation methods

Publications (2)

Publication Number Publication Date
JP2018004503A JP2018004503A (en) 2018-01-11
JP6823391B2 true JP6823391B2 (en) 2021-02-03

Family

ID=60948955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016133051A Active JP6823391B2 (en) 2016-07-05 2016-07-05 Programs, computer-readable media, terminals, estimators and estimation methods

Country Status (1)

Country Link
JP (1) JP6823391B2 (en)

Also Published As

Publication number Publication date
JP2018004503A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US11604494B2 (en) Electronic device and method for changing location of preview image according to direction of camera
US11340606B2 (en) System and method for controller-free user drone interaction
JP5857257B2 (en) Display device and display direction switching method
KR102206054B1 (en) Method for processing fingerprint and electronic device thereof
EP2812774B1 (en) Method for managing screen orientation of a portable electronic device
KR102570777B1 (en) Electronic device including a plurality of touch displays and method for changing status thereof
US8896533B2 (en) Display directional sensing
WO2023071884A1 (en) Gaze detection method, control method for electronic device, and related devices
KR20200101207A (en) Electronic device and method for modifying magnification of image using multiple cameras
US9229526B1 (en) Dedicated image processor
CN107395871B (en) Method and device for opening application, storage medium and terminal
JP2011075559A (en) Motion detecting device and method
US20130088429A1 (en) Apparatus and method for recognizing user input
CN105700546B (en) Flight device and remote control flight method using same
US9223415B1 (en) Managing resource usage for task performance
TWI700607B (en) Unlocking system and method
US11356607B2 (en) Electing camera modes for electronic devices having multiple display panels
US20140195989A1 (en) Input device, display device and method of controlling thereof
CN107330859A (en) A kind of image processing method, device, storage medium and terminal
US9760177B1 (en) Color maps for object tracking
JP6754629B2 (en) Programs, computer-readable media, terminal equipment, estimation equipment and estimation methods
US10909412B2 (en) Electronic device and control method thereof
US20160132993A1 (en) Screen control method and communication device
JP6823391B2 (en) Programs, computer-readable media, terminals, estimators and estimation methods
JP6756103B2 (en) Electronic devices, display systems, display devices, imaging devices, display control methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210108

R150 Certificate of patent or registration of utility model

Ref document number: 6823391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150