JP2020030528A - Information processing apparatus and control method - Google Patents

Information processing apparatus and control method Download PDF

Info

Publication number
JP2020030528A
JP2020030528A JP2018154785A JP2018154785A JP2020030528A JP 2020030528 A JP2020030528 A JP 2020030528A JP 2018154785 A JP2018154785 A JP 2018154785A JP 2018154785 A JP2018154785 A JP 2018154785A JP 2020030528 A JP2020030528 A JP 2020030528A
Authority
JP
Japan
Prior art keywords
detection
information processing
state
unit
system hardware
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018154785A
Other languages
Japanese (ja)
Other versions
JP6622871B1 (en
Inventor
英輝 柏山
Hideki Kashiwayama
英輝 柏山
和宏 小杉
Kazuhiro Kosugi
和宏 小杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2018154785A priority Critical patent/JP6622871B1/en
Application granted granted Critical
Publication of JP6622871B1 publication Critical patent/JP6622871B1/en
Publication of JP2020030528A publication Critical patent/JP2020030528A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing apparatus and a control method which can more surely detect a person having an intention to use the information processing apparatus.SOLUTION: The information processing apparatus comprises system hardware, a module operating independently of the system hardware, and an object detection unit which comprises a detection element for detecting a wave coming from an object to output a detection signal and is connected to the module. The module comprises: an approach analysis unit which determines a state that a detection object approaches and stays in front of the apparatus, as a preparatory state on the basis of a variation trend of the detection signal; and an operation control unit which activates operation of the system hardware in response to determining the preparatory state by the approach analysis unit.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置および制御方法に関する。   The present invention relates to an information processing device and a control method.

PC(Personal Computer;パーソナルコンピュータ)などの情報処理装置は、ユーザの接近を検出する近接センサ(PS:Proximity Sensor)を備えるものがある。近接センサとして、例えば、赤外線(IR:Infrared)センサが用いられる。ユーザは、情報処理装置に接触せずに接近するだけで起動させることができる。また、情報処理装置には、本人確認において、カメラで撮像した画像に対して顔画像認識を行うこと認証処理部を備えるものがある。起動にかかる操作の軽減が図られている。   2. Description of the Related Art Some information processing apparatuses such as PCs (Personal Computers) include a proximity sensor (PS: Proximity Sensor) for detecting approach of a user. As the proximity sensor, for example, an infrared (IR) sensor is used. The user can activate the information processing apparatus only by approaching it without touching the information processing apparatus. Some information processing apparatuses include an authentication processing unit that performs face image recognition on an image captured by a camera in personal identification. The operation related to activation is reduced.

例えば、特許文献1には、端末処理用の操作画面を表示し、表示部の前の人物を検知し、人物を検知したことに応じて操作画面を表示する端末処理装置について記載されている。この端末装置は、操作画面を表示している状態で、受け付けた入力操作に基づいて所定の端末処理を行う。   For example, Patent Literature 1 describes a terminal processing device that displays an operation screen for terminal processing, detects a person in front of a display unit, and displays the operation screen in response to detection of the person. The terminal device performs a predetermined terminal process based on the received input operation while displaying the operation screen.

特開2003−255922号公報JP 2003-255922 A

しかしながら、上記の情報処理装置に接近する人物には、使用の意思を有する人物だけではなく、その情報処理装置の前を単に横切る人物も含まれうる。そのため、上記の情報処理装置に接近する人物が検出される度に情報処理装置が起動してしまう。よって、使用の意思を有する人物をより確実に検出することが期待されていた。   However, the person approaching the information processing device described above may include not only a person who intends to use the device but also a person who simply crosses in front of the information processing device. Therefore, the information processing device is activated every time a person approaching the information processing device is detected. Therefore, it has been expected to more reliably detect a person who has a will to use.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様に係る情報処理装置は、システムハードウェアと、前記システムハードウェアと独立して動作するモジュールと、物体から到来する波動を検出して検出信号を出力する検出素子を備え、前記モジュールに接続された物体検出部と、を備え、前記モジュールは、前記検出信号の変化傾向に基づいて、検出対象物が近づき自装置の前で停留する状態を準備状態として判定する接近解析部と、前記接近解析部で前記準備状態と判定されたとき、前記システムハードウェアの動作を活性化させる動作制御部と、を備える。   The present invention has been made in order to solve the above-described problems, and an information processing apparatus according to one embodiment of the present invention includes system hardware, a module that operates independently of the system hardware, and an A detection element for detecting a wave to be detected and outputting a detection signal, and an object detection unit connected to the module, wherein the module automatically detects a target object based on a change tendency of the detection signal. An approach analyzer that determines a state of stopping in front of the apparatus as a ready state, and an operation controller that activates the operation of the system hardware when the approach analyzer determines the ready state.

本発明の上記態様によれば、使用の意思を有する人物をより確実に検出することができる。   According to the above aspect of the present invention, it is possible to more reliably detect a person who intends to use.

第1の実施形態に係る情報処理装置のハードウェアの構成例を示す概略ブロック図である。FIG. 2 is a schematic block diagram illustrating a configuration example of hardware of the information processing apparatus according to the first embodiment. 第1の実施形態に係る情報処理装置1の外観の構成例を示す斜視図である。FIG. 2 is a perspective view illustrating a configuration example of an appearance of the information processing apparatus 1 according to the first embodiment. 第1の実施形態に係る近接センサの構成例を示す説明図である。FIG. 2 is an explanatory diagram illustrating a configuration example of a proximity sensor according to the first embodiment. 第1の実施形態に係る起動制御の一例を示すフローチャートである。4 is a flowchart illustrating an example of start control according to the first embodiment. 人物の動きの一例を示す平面図である。It is a top view showing an example of a person's motion. 検出素子における一検出例を示す図である。It is a figure showing an example of detection in a detecting element. 人物の動きの他の例を示す平面図である。It is a top view showing other examples of a person's motion. 検出素子における他の検出例を示す図である。It is a figure showing other examples of detection in a detecting element. 第2の実施形態に係る情報処理装置の構成例を示す概略ブロック図である。FIG. 9 is a schematic block diagram illustrating a configuration example of an information processing device according to a second embodiment. 第2の実施形態に係る情報処理装置の使用モードの例を示す図である。FIG. 13 is a diagram illustrating an example of a use mode of the information processing apparatus according to the second embodiment. 第2の実施形態に係る情報処理装置の使用モードの他の例を示す図である。FIG. 14 is a diagram illustrating another example of a use mode of the information processing apparatus according to the second embodiment. 第3の実施形態に係る情報処理装置の一構成例を示す概略ブロック図である。It is a schematic block diagram showing an example of 1 composition of an information processor concerning a 3rd embodiment. 第3の実施形態に係る情報処理装置の他の構成例を示す概略ブロック図である。FIG. 14 is a schematic block diagram illustrating another configuration example of the information processing apparatus according to the third embodiment.

<第1の実施形態>
まず、本発明の第1の実施形態に係る情報処理装置1について、図面を参照して説明する。情報処理装置1は、ノートブック型パーソナルコンピュータ(以下、ノートPCと呼ぶ)、デスクトップ型PC、タブレット端末装置、スマートフォンなど、いずれの形態で実現されてもよい。
<First embodiment>
First, an information processing device 1 according to a first embodiment of the present invention will be described with reference to the drawings. The information processing apparatus 1 may be realized in any form such as a notebook personal computer (hereinafter, referred to as a notebook PC), a desktop PC, a tablet terminal device, a smartphone, and the like.

図1は、本実施形態に係る情報処理装置1のハードウェアの構成例を示す概略ブロック図である。
情報処理装置1は、近接センサ10、電源部18、EC(Embedded Controller)20、システムハードウェア30、通信部44、記憶部46、表示部48および入力デバイス50を含んで構成される。
情報処理装置1は、システムの動作状態として少なくとも標準動作状態(パワーオン状態)と待機状態との間を遷移可能とする。標準動作状態は、電力消費量が所定の標準的な消費量となる動作状態である。待機状態は、標準動作状態よりも電力の消費量が低い動作状態である。待機状態には、スタンバイ状態、スリープ状態、ハイバネーション状態およびパワーオフ状態が含まれる。待機状態では、一般的に標準動作状態よりも動作の活性度が低い。
FIG. 1 is a schematic block diagram illustrating a hardware configuration example of an information processing apparatus 1 according to the present embodiment.
The information processing apparatus 1 includes a proximity sensor 10, a power supply unit 18, an EC (Embedded Controller) 20, a system hardware 30, a communication unit 44, a storage unit 46, a display unit 48, and an input device 50.
The information processing device 1 can transition at least between a standard operation state (power-on state) and a standby state as an operation state of the system. The standard operation state is an operation state in which the power consumption becomes a predetermined standard consumption. The standby state is an operation state in which the power consumption is lower than the standard operation state. The standby state includes a standby state, a sleep state, a hibernation state, and a power-off state. In the standby state, the activity is generally lower in activity than in the standard operation state.

スタンバイ状態は、プロセッサの処理能力を標準動作状態よりも低くし、動作中のシステムメモリ42の内容を保持しながら通信部44、記憶部46および表示部48など周辺デバイスの消費電力を標準動作状態よりも少なくする動作状態である。いわゆるモダンスタンバイが、スタンバイ状態に相当する。
スリープ状態は、システムメモリ42とEC20とその配下にあるデバイス以外のデバイスへの給電を停止し、プロセッサによるプログラムの実行を伴わない動作モードである。
ハイバネーション状態とは、スリープ状態においてプロセッサ11から即座にアクセス可能とする補助記憶装置にシステムメモリ42に記憶していた情報を全て退避させ、その後、システムメモリ42への給電をさらに停止するモードである。従って、ハイバネーション状態から起動処理を開始する際、CPU32は、補助記憶装置に退避された情報をシステムメモリ42に記憶する。
パワーオフ状態は、EC20とその配下にあるデバイス以外のデバイスへの給電を停止した状態である。
スタンバイ状態、スリープ状態、ハイバネーション状態およびパワーオフ状態は、それぞれACPI(Advanced Configuration and Power Interface)において定義されるスリーピングモデルのS0状態、S3状態、S4状態およびS5状態に相当する。以下の説明では、特に区別する場合を除き、待機状態からパワーオン状態に遷移することを起動と呼ぶことがある。スリープ状態、ハイバネーション状態またはパワーオフ状態からパワーオン状態に遷移することをブートと呼ぶことがある。
In the standby state, the processing capacity of the processor is made lower than the standard operation state, and the power consumption of peripheral devices such as the communication unit 44, the storage unit 46, and the display unit 48 while maintaining the contents of the operating system memory 42 is reduced to the standard operation state. This is an operation state in which the number is reduced. A so-called modern standby corresponds to a standby state.
The sleep state is an operation mode in which power supply to devices other than the system memory 42, the EC 20, and the devices under the EC 20 is stopped, and the processor does not execute a program.
The hibernation state is a mode in which all information stored in the system memory 42 is saved in an auxiliary storage device that can be immediately accessed from the processor 11 in the sleep state, and thereafter, power supply to the system memory 42 is further stopped. . Therefore, when starting the boot process from the hibernation state, the CPU 32 stores the information saved in the auxiliary storage device in the system memory 42.
The power-off state is a state in which power supply to the EC 20 and devices other than devices under the EC 20 is stopped.
The standby state, the sleep state, the hibernation state, and the power-off state correspond to the S0 state, the S3 state, the S4 state, and the S5 state of the sleeping model defined in ACPI (Advanced Configuration and Power Interface), respectively. In the following description, transition from the standby state to the power-on state may be referred to as activation unless otherwise specified. The transition from the sleep state, the hibernation state, or the power-off state to the power-on state may be called boot.

近接センサ10は、自部の近傍における所定の領域内に所在する物体(例えば、人物)を検出するためのセンサである。以下の説明では、物体を検出可能とする領域を検出領域と呼ぶ。検出領域の範囲を示す角度を視野角(FoV:Field of View)と呼ぶ。近接センサ10は、物体の表面から到来する赤外線を検出する赤外線(IR:Infrared)センサを含んで構成される。近接センサ10は、例えば、情報処理装置1の筐体の正面に設置される。近接センサ10は、検出により得られる検出信号をEC20に出力する。近接センサ10の例については、後述する。   The proximity sensor 10 is a sensor for detecting an object (for example, a person) located in a predetermined area near the own unit. In the following description, an area where an object can be detected is referred to as a detection area. The angle indicating the range of the detection area is called a viewing angle (FoV: Field of View). The proximity sensor 10 includes an infrared (IR) sensor that detects infrared rays coming from the surface of the object. The proximity sensor 10 is installed, for example, on the front of the housing of the information processing device 1. The proximity sensor 10 outputs a detection signal obtained by the detection to the EC 20. An example of the proximity sensor 10 will be described later.

電源部18は、情報処理装置1の各部の動作状態に応じた電力を供給される。電源部18は、例えば、動作制御部24から入力される動作状態通知で示される動作状態に対応付けて定義された電力供給区分に従って各部に電力を供給する。電力供給区分ごとに、各部の電力量が定義される。電源部18は、DC(Direct Current)/DCコンバータを備える。DC/DCコンバータは、AC(Alternate Current)/DCアダプタもしくは電池パックから供給される直流電力の電圧を、各部で要求される電圧に変換する。   The power supply unit 18 is supplied with power according to the operation state of each unit of the information processing device 1. The power supply unit 18 supplies power to each unit according to a power supply category defined in association with the operation state indicated by the operation state notification input from the operation control unit 24, for example. The amount of power of each unit is defined for each power supply category. The power supply unit 18 includes a DC (Direct Current) / DC converter. The DC / DC converter converts a voltage of DC power supplied from an AC (Alternate Current) / DC adapter or a battery pack into a voltage required by each unit.

EC20は、システムハードウェア30とは独立に動作し、システムハードウェア30の動作を制御し、その動作状態を管理する。EC20は、例えば、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)およびI/O(Input/Output)ロジック回路などを含んで構成されたマイクロコンピュータである。EC20には、近接センサ10と入力デバイス50が接続されている。
EC20のCPUは、自部のROMに予め記憶した制御プログラムを読み出し、読み出した制御プログラムを実行して、その機能を発揮する。以下の説明では、プログラムを実行するとは、そのプログラムに記述された命令で指示される処理を実行することを意味する。EC20は、その機能として、接近解析部22および動作制御部24の機能を有する。
The EC 20 operates independently of the system hardware 30, controls the operation of the system hardware 30, and manages its operation state. The EC 20 is a microcomputer including, for example, a CPU, a random access memory (RAM), a read only memory (ROM), and an input / output (I / O) logic circuit. The proximity sensor 10 and the input device 50 are connected to the EC 20.
The CPU of the EC 20 reads a control program stored in advance in its own ROM, executes the read control program, and exhibits its function. In the following description, executing a program means executing a process specified by an instruction described in the program. The EC 20 has the functions of an approach analysis unit 22 and an operation control unit 24 as its functions.

接近解析部22は、検出信号の強度に基づいて検出対象物(例えば、人物)の検出状態として、検出対象物が近づき、その後、自装置の前方の自装置から所定の距離の範囲内に一定時間留まっている状態であるか否かを検出する。接近解析部22は、この状態を自装置のシステムハードウェア30の起動準備状態として判定する。接近解析部22は、検出状態を示す検出状態情報を動作制御部24に出力する。
動作制御部24は、接近解析部22から入力される検出状態情報がシステムハードウェア30の起動準備状態を示すとき、システムハードウェア30を起動させる。より具体的には、動作制御部24は、システムハードウェア30を起動させるとき電源部18に対して、情報処理装置1の各部の動作に要する電力を供給させる。その後、動作制御部24は、システムハードウェア30に起動を指示するための起動信号を出力する。
なお、動作制御部24は、システムハードウェア30を構成するCPU32から動作状態通知が入力される場合がある。動作状態通知により、その時点における動作状態(例えば、標準動作状態)とは活性度が異なる動作状態(例えば、スリープ状態)が指示される。その場合には、動作制御部24は、動作状態通知を電源部18に転送する。これにより、動作制御部24は、システムハードウェア30の動作状態の遷移に応じて電源部18からの電力の供給を制御することができる。
The approach analysis unit 22 sets the detection state of the detection target (for example, a person) based on the strength of the detection signal as the detection target approaches, and thereafter keeps the detection target within a predetermined distance from the own device in front of the own device. It is detected whether or not the time has stopped. The approach analysis unit 22 determines this state as a start preparation state of the system hardware 30 of the own apparatus. The approach analysis unit 22 outputs detection state information indicating the detection state to the operation control unit 24.
The operation control unit 24 activates the system hardware 30 when the detection state information input from the approach analysis unit 22 indicates the activation preparation state of the system hardware 30. More specifically, the operation control unit 24 causes the power supply unit 18 to supply power required for the operation of each unit of the information processing device 1 when activating the system hardware 30. Thereafter, the operation control unit 24 outputs a start signal for instructing the system hardware 30 to start.
The operation control unit 24 may receive an operation state notification from the CPU 32 included in the system hardware 30 in some cases. By the operation state notification, an operation state (for example, sleep state) having a different activity level from the operation state at that time (for example, standard operation state) is instructed. In that case, the operation control unit 24 transfers the operation state notification to the power supply unit 18. Thereby, the operation control unit 24 can control the supply of power from the power supply unit 18 according to the transition of the operation state of the system hardware 30.

システムハードウェア30は、CPU32、GPU(Graphic Processing Unit)34、メモリコントローラ36、I/O(Input−Output)コントローラ38およびシステムメモリ42を含んで構成され、オペレーティングシステム(OS:Operating System)によって各種のアプリケーションソフトウェアと共に動作する。CPU32とGPU34をプロセッサと総称することがある。
CPU32は、その時点における動作状態が待機状態であって、EC20から起動信号が入力されるとき、その時点における動作状態を標準動作状態に遷移させる。
その時点の動作状態がスリープ状態、ハイバネーション状態またはパワーオフ状態であるとき、電源部18から電力の供給を受け、かつEC20から起動信号が入力されるとき、CPU32は、起動処理を開始する。CPU32は、起動処理において、システムメモリ42、記憶部46などの最小限のデバイスの検出と初期化を行う(プリブート)。CPU32は、記憶部46からシステムファームウェアをシステムメモリ42にロードし、通信部44、表示部48などその他のデバイスの検出と初期化を行う(ポスト処理)。初期化において、初期パラメータの設定などの処理が含まれる。なお、スリープ状態から標準動作状態への遷移(レジューム)においては、ポスト処理の一部が省略されることがある。CPU32は、起動処理が完了した後、OSその他のソフトウェアの実行を開始する(起動)。
CPU32は、その時点の動作状態がスタンバイ状態であって、EC20から起動信号が入力されるとき、実行を停止していたソフトウェアの実行を再開する。
The system hardware 30 includes a CPU 32, a GPU (Graphic Processing Unit) 34, a memory controller 36, an I / O (Input-Output) controller 38, and a system memory 42. Various types of operating systems (OS: Operating System) are provided. Works with other application software. The CPU 32 and the GPU 34 may be collectively referred to as a processor.
The CPU 32 is in the standby state at that time, and when an activation signal is input from the EC 20, the CPU 32 changes the operation state at that time to the standard operation state.
When the operation state at that time is a sleep state, a hibernation state, or a power-off state, when the power is supplied from the power supply unit 18 and a start signal is input from the EC 20, the CPU 32 starts the start processing. The CPU 32 detects and initializes the minimum devices such as the system memory 42 and the storage unit 46 in the startup process (preboot). The CPU 32 loads the system firmware from the storage unit 46 to the system memory 42, and detects and initializes other devices such as the communication unit 44 and the display unit 48 (post processing). The initialization includes processing such as setting initial parameters. In the transition (resume) from the sleep state to the standard operation state, a part of the post processing may be omitted. After the startup process is completed, the CPU 32 starts execution of the OS and other software (startup).
The CPU 32 resumes the execution of the software whose execution has been stopped when the operation state at that time is the standby state and a start signal is input from the EC 20.

なお、CPU32は、CPU使用率やデータの入出力状態に応じて動作状態を遷移させる。標準動作状態からスタンバイ状態への遷移条件は、例えば、CPU使用率が所定の使用率(例えば、1〜3%)よりも低い状態であって、記憶部46へのデータの入出力ならびに入力デバイス50からのデータの入力がない状態の継続時間が所定時間(例えば、3〜5分)以上継続するときである。スタンバイ状態からスリープ状態への遷移条件は、例えば、スタンバイ状態が所定時間(例えば、3〜5分)以上継続するときである。スタンバイ状態もしくはスリープ状態から標準動作状態への遷移条件は、例えば、入力デバイス50からのデータの入力が検出されるときである。従って、ユーザが離席等により情報処理装置1から離れている場合には、動作状態がスタンバイ状態もしくはスリープ状態に遷移することがある。   Note that the CPU 32 changes the operation state according to the CPU usage rate and the data input / output state. The transition condition from the standard operation state to the standby state is, for example, a state in which the CPU usage rate is lower than a predetermined usage rate (for example, 1 to 3%), the input / output of data to / from the storage unit 46, and the input device. This is when the continuation time in a state where there is no data input from 50 continues for a predetermined time (for example, 3 to 5 minutes). The transition condition from the standby state to the sleep state is, for example, when the standby state continues for a predetermined time (for example, 3 to 5 minutes). The transition condition from the standby state or the sleep state to the standard operation state is, for example, when data input from the input device 50 is detected. Therefore, when the user is away from the information processing apparatus 1 due to leaving the seat or the like, the operation state may transition to the standby state or the sleep state.

標準動作状態、スタンバイ状態もしくはスリープ状態からハイバネーション状態への遷移条件は、例えば、電源部18に電力を供給する電池パックの起電力が所定の起電力の閾値以下となるときである。
標準動作状態からパワーオフ状態への遷移条件は、例えば、入力デバイス50からパワーオフ(シャットダウン)を指示する動作停止データが入力されるときである。動作停止データが入力されるとき、CPU32は、動作停止処理を行う。動作停止処理において、CPU32は、実行中のプログラムで指示される処理を停止し、その後、EC20とその配下のデバイスを除き、給電を停止させる。
The transition condition from the standard operation state, the standby state, or the sleep state to the hibernation state is, for example, when the electromotive force of the battery pack that supplies power to the power supply unit 18 is equal to or less than a predetermined electromotive force threshold.
The transition condition from the standard operation state to the power-off state is, for example, when operation stop data for instructing power-off (shutdown) is input from the input device 50. When the operation stop data is input, the CPU 32 performs an operation stop process. In the operation stop processing, the CPU 32 stops the processing instructed by the program being executed, and thereafter stops power supply except for the EC 20 and devices under the EC 20.

GPU34は、表示部48に接続されている。GPU34は、CPU32の制御に基づいて画像処理を実行して表示データを生成する。GPU34は、生成した表示データを表示部48に出力する。
なお、CPU32とGPU34は、一体化して1個のコアとして形成されてもよいし、個々のコアとして形成されたCPU32とGPU34の相互間で負荷が分担されてもよい。プロセッサの数は、1個に限られず、複数個であってもよい。
The GPU 34 is connected to the display unit 48. The GPU 34 executes image processing based on the control of the CPU 32 to generate display data. The GPU 34 outputs the generated display data to the display unit 48.
Note that the CPU 32 and the GPU 34 may be integrally formed as a single core, or the load may be shared between the CPU 32 and the GPU 34 formed as individual cores. The number of processors is not limited to one, but may be plural.

メモリコントローラ36は、CPU32とGPU34によるシステムメモリ42、記憶部46などからのデータの読出し、書込みを制御する。
I/Oコントローラ38は、通信部44、表示部48およびEC20からのデータの入出力を制御する。
システムメモリ42は、プロセッサの実行プログラムの読み込み領域ならびに処理データを書き込む作業領域として用いられる。
The memory controller 36 controls reading and writing of data from the system memory 42, the storage unit 46, and the like by the CPU 32 and the GPU 34.
The I / O controller 38 controls input and output of data from the communication unit 44, the display unit 48, and the EC 20.
The system memory 42 is used as a read area for an execution program of the processor and a work area for writing processing data.

通信部44は、無線または有線で他の機器と通信可能に接続し、各種のデータの送信および受信を行う。
記憶部46は、HDD(Hard Disk Drive)、セキュアNVRAM(Non−Volatile RAM)、ROM(Read Only Memory)などの記憶媒体を含んで構成される。HDDは、OS、デバイスドライバ、アプリケーションなどの各種のプログラム、その他、プログラムの動作により取得した各種のデータを記憶する。セキュアNVRAMには、各ユーザの認証に用いる認証データを記憶する。認証データには、各ユーザの識別情報と、認証情報とを対応付けて記憶する。セキュアNVRAMには、I/Oコントローラ38から経由したOSの動作環境からはアクセスできないように保護(ロック)される。但し、CPU32のパワーオン、リセット時にロックを解除し、プリブートの終了時にシステムファームウェアを実行してロックを開始する。
表示部48は、GPU34から入力される表示データに基づく表示情報を表示する。表示部48は、例えば、LCD(Liquid Crystal Display)である。
入力デバイス50は、ユーザの操作を受け付け、操作で指示される操作データをEC20もしくはEC20を経由してシステムハードウェア30に出力する。
The communication unit 44 is communicably connected to other devices wirelessly or by wire, and transmits and receives various data.
The storage unit 46 is configured to include a storage medium such as a hard disk drive (HDD), a non-volatile RAM (NVRAM), and a read only memory (ROM). The HDD stores various programs such as an OS, a device driver, and an application, and various data acquired by the operation of the programs. The secure NVRAM stores authentication data used for authentication of each user. In the authentication data, the identification information of each user and the authentication information are stored in association with each other. The secure NVRAM is protected (locked) so that it cannot be accessed from the operating environment of the OS via the I / O controller 38. However, the lock is released when the CPU 32 is powered on or reset, and the lock is started by executing the system firmware at the end of the pre-boot.
The display unit 48 displays display information based on display data input from the GPU 34. The display unit 48 is, for example, an LCD (Liquid Crystal Display).
The input device 50 receives a user operation and outputs operation data instructed by the operation to the EC 20 or the system hardware 30 via the EC 20.

次に、本実施形態に係る情報処理装置1の外観の構成例について説明する。
図2は、本実施形態に係る情報処理装置1の外観の構成例を示す斜視図である。
図2は、情報処理装置1がノートPCである場合を例にするが、情報処理装置1は折り畳み型携帯電話機として構成されてもよい。
情報処理装置1は、第1筐体101、第2筐体102およびヒンジ機構121を備える。第1筐体101と第2筐体102は、それぞれの背面に沿ってヒンジ機構121を用いて結合されている。第1筐体101は、第2筐体102に対して、ヒンジ機構121がなす回転軸の周りに相対的に回動可能とする。回転軸の方向は、ヒンジ機構121が設置されている側面101c、102cに対して平行である。
Next, a configuration example of the external appearance of the information processing apparatus 1 according to the present embodiment will be described.
FIG. 2 is a perspective view illustrating a configuration example of an external appearance of the information processing apparatus 1 according to the present embodiment.
FIG. 2 illustrates an example in which the information processing apparatus 1 is a notebook PC, but the information processing apparatus 1 may be configured as a foldable mobile phone.
The information processing device 1 includes a first housing 101, a second housing 102, and a hinge mechanism 121. The first housing 101 and the second housing 102 are connected along a back surface thereof using a hinge mechanism 121. The first housing 101 is relatively rotatable around a rotation axis formed by the hinge mechanism 121 with respect to the second housing 102. The direction of the rotation axis is parallel to the side surfaces 101c and 102c on which the hinge mechanism 121 is installed.

第1筐体101は、Aカバー、ディスプレイ筐体とも呼ばれる。第2筐体102は、Cカバー、システム筐体とも呼ばれる。以下の説明では、第1筐体101と第2筐体102の側面のうち、ヒンジ機構121が備わる背面を、それぞれ側面101c、102cと呼ぶ。側面101c、102cは、背面に相当する。側面101c、102cとは反対側の前面を、それぞれ側面101a、102aと呼ぶ。また、側面101a、102aから側面101c、102cに向かう方向を「後」と呼び、側面101c、102cから側面101a、102aに向かう方向を「前」と呼ぶ。後方に対して右方、左方を、それぞれ「右」、「左」と呼ぶ。第1筐体101、第2筐体102の左側面をそれぞれ側面101b、102bと呼び、右側面をそれぞれ側面101d、102dと呼ぶ。また、第1筐体101が第2筐体102に対して重なり合った状態を、「閉じた状態」もしくは「第1筐体が第2筐体に対して閉じた状態」と呼び、完全に閉じた状態において第1筐体101が第2筐体102に対して重なっている方向を「上」と呼び、第1筐体101が第2筐体102に支持されている方向を「下」と呼ぶ。   The first housing 101 is also called an A cover or a display housing. The second housing 102 is also called a C cover or a system housing. In the following description, of the side surfaces of the first housing 101 and the second housing 102, the rear surfaces on which the hinge mechanism 121 is provided are referred to as side surfaces 101c and 102c, respectively. The side surfaces 101c and 102c correspond to the back surface. The front surfaces opposite to the side surfaces 101c and 102c are referred to as side surfaces 101a and 102a, respectively. The direction from the side surfaces 101a and 102a toward the side surfaces 101c and 102c is called "rear", and the direction from the side surfaces 101c and 102c toward the side surfaces 101a and 102a is called "front". The right side and the left side with respect to the rear are called "right" and "left", respectively. The left side surfaces of the first housing 101 and the second housing 102 are called side surfaces 101b and 102b, respectively, and the right side surfaces are called side surfaces 101d and 102d, respectively. Further, a state in which the first housing 101 overlaps the second housing 102 is referred to as a “closed state” or a “state in which the first housing is closed with respect to the second housing” and is completely closed. In this state, the direction in which the first housing 101 overlaps the second housing 102 is referred to as “up”, and the direction in which the first housing 101 is supported by the second housing 102 is “down”. Call.

図2は、第1筐体101が第2筐体102に対して開いた状態(以下、単に「開いた状態」と呼ぶことがある)を示す。開いた状態では、側面101aが側面102aに対して離れた状態である。開いた状態では、第1筐体101、第2筐体102それぞれの内面が表れ、情報処理装置1は通常の動作を実行可能とすることが期待される。開いた状態では、第1筐体101の内面と第2筐体102の内面がなす開き角θは、典型的には100〜130°となる。第1筐体101の内面は、第1筐体101の表面101eに対して裏面に相当する。第1筐体101の内面には、ディスプレイ103が搭載されている。このディスプレイ103が、上記の表示部48に該当する。   FIG. 2 illustrates a state in which the first housing 101 is opened with respect to the second housing 102 (hereinafter, may be simply referred to as an “open state”). In the opened state, the side surface 101a is apart from the side surface 102a. In the opened state, the inner surfaces of the first housing 101 and the second housing 102 appear, and it is expected that the information processing apparatus 1 can execute a normal operation. In the open state, the opening angle θ formed by the inner surface of the first housing 101 and the inner surface of the second housing 102 is typically 100 to 130 °. The inner surface of the first housing 101 corresponds to the back surface with respect to the front surface 101e of the first housing 101. A display 103 is mounted on the inner surface of the first housing 101. The display 103 corresponds to the display unit 48 described above.

また、第1筐体101の内面の中央領域には、近接センサ10の一例として赤外線センサモジュールが配置されている。中央領域は、ディスプレイ103の周縁のベゼルのうち前方中央部の領域である。赤外線センサモジュールは、所定の検出領域内の物体から発される赤外線を検出する。従って、第1筐体101が開いた状態では、第1筐体の内面に設置された赤外線センサモジュールの検出面に対面する方向が検出領域に含まれる方向となる。   In addition, an infrared sensor module as an example of the proximity sensor 10 is disposed in a central region on the inner surface of the first housing 101. The central area is an area at the front center of the peripheral bezel of the display 103. The infrared sensor module detects infrared rays emitted from an object in a predetermined detection area. Therefore, when the first housing 101 is open, the direction facing the detection surface of the infrared sensor module installed on the inner surface of the first housing is the direction included in the detection area.

第2筐体102の内面には、キーボード107とタッチパッド109が搭載されている。このキーボード107とタッチパッド109が、上記の入力デバイス50に該当する。入力デバイス50として、さらにタッチセンサ(図示せず)が含まれてもよいし、マウス(図示せず)が接続されてもよい。タッチセンサが操作を受け付ける操作領域は、ディスプレイ103が情報を表示する表示領域と重畳していてもよい。   On the inner surface of the second housing 102, a keyboard 107 and a touch pad 109 are mounted. The keyboard 107 and the touch pad 109 correspond to the input device 50 described above. As the input device 50, a touch sensor (not shown) may be further included, or a mouse (not shown) may be connected. The operation area where the touch sensor accepts the operation may overlap the display area where the display 103 displays information.

なお、第1筐体101が第2筐体102に対して閉じた状態では、第1筐体101、第2筐体102それぞれの内面は表れず、表面101eが上方に表れ、第2筐体102の底面102eが、その下方から第2筐体102を支持する台に接する。閉じた状態では、赤外線センサモジュールは第2筐体102の内面に覆われ、情報処理装置1は通常の動作を実行しない。第1筐体101が第2筐体102に対して完全に閉じた状態では、開き角θは0°となる。   When the first housing 101 is closed with respect to the second housing 102, the inner surfaces of the first housing 101 and the second housing 102 do not appear, the front surface 101e appears upward, and the second housing 102 is closed. The bottom surface 102e of the base 102 is in contact with the base supporting the second housing 102 from below. In the closed state, the infrared sensor module is covered by the inner surface of the second housing 102, and the information processing device 1 does not execute a normal operation. When the first housing 101 is completely closed with respect to the second housing 102, the opening angle θ is 0 °.

なお、情報処理装置1がノートPC、折り畳み型携帯電話機である場合には、標準動作状態からスタンバイ状態への遷移条件として、第1筐体101と第2筐体102が閉じた状態を検出されたときが含まれてもよい。また、スタンバイ状態から標準動作状態への遷移条件として、第1筐体101と第2筐体102が開いた状態を検出されたときが含まれてもよい。そこで、ホールセンサ(図示せず)を第1筐体101の表面のうち側面101cよりも側面101aに近い位置に予め設置しておく。ホールセンサは、その周囲の磁場を検出する。また、永久磁石を第2筐体102の表面のうち、第1筐体101が閉じられた状態でホールセンサに対向する位置に予め設置しておく。EC20は、ホールセンサから検出された磁界強度を示す検出信号を入力し、検出信号が示す磁界強度が所定の磁界強度よりも高い状態が所定時間以上継続するとき、第1筐体101と第2筐体102が閉じていると判定することができる。EC20は、検出信号が示す磁界強度が所定の磁界強度よりも低い状態が所定時間以上継続するとき、第1筐体101と第2筐体102が開いていると判定することができる。そして、EC20は、第1筐体101と第2筐体102の開閉状態を示す開閉状態情報をCPU32に通知する。CPU32は、EC20から通知された開閉状態情報に基づいて動作状態を制御することができる。   When the information processing apparatus 1 is a notebook PC or a foldable mobile phone, the closed state of the first housing 101 and the second housing 102 is detected as a transition condition from the standard operation state to the standby state. May be included. Further, the transition condition from the standby state to the standard operation state may include a time when a state where the first housing 101 and the second housing 102 are open is detected. Therefore, a Hall sensor (not shown) is previously installed at a position closer to the side surface 101a than the side surface 101c on the surface of the first housing 101. The Hall sensor detects a magnetic field around the Hall sensor. In addition, a permanent magnet is installed in advance on a surface of the second housing 102 at a position facing the Hall sensor in a state where the first housing 101 is closed. The EC 20 receives a detection signal indicating the magnetic field strength detected from the Hall sensor, and when the state in which the magnetic field strength indicated by the detection signal is higher than the predetermined magnetic field strength continues for a predetermined time or more, the first casing 101 and the second housing It can be determined that the housing 102 is closed. The EC 20 can determine that the first housing 101 and the second housing 102 are open when the state where the magnetic field strength indicated by the detection signal is lower than the predetermined magnetic field strength continues for a predetermined time or more. Then, the EC 20 notifies the CPU 32 of open / closed state information indicating the open / closed state of the first housing 101 and the second housing 102. The CPU 32 can control the operation state based on the open / closed state information notified from the EC 20.

次に、本実施形態に係る近接センサ10の構成例について説明する。図3は、本実施形態に係る近接センサ10の構成例を示す説明図である。
近接センサ10は、複数の検出素子110を備える赤外線センサモジュールである。検出素子110は、光学軸に直交する検出面内に二次元的に配列される。図3に示す例では、検出素子110の数は、検出面上の水平方向、垂直方向に各4個、計16個である。個々の検出素子は、物体から到来する赤外線を検出する赤外線センサである。検出素子は、検出した赤外線の光度に応じた強度を有する検出信号をEC20にそれぞれ出力する。近接センサ10全体としては、到来方向が光学軸Axを中心とする視野角FoV内の赤外線を検出可能とする(図5)。視野角は、物体を検出可能とする検出範囲の角度を意味する。個々の検出素子110の検出範囲は、例えば、検出面上の水平方向、垂直方向に一定間隔(例えば、5°〜7°)、それらの分布が光学軸Axに対して対称となるように配置される。また、赤外線を放射する発光ダイオードを光源(図示せず)として第1筐体101の内面に設置する。但し、光源の位置は、近接センサ10に光源からの赤外線が直接到来しない位置とする。これにより、近接センサ10は、物体の表面で反射した赤外線を検出することができる。
Next, a configuration example of the proximity sensor 10 according to the present embodiment will be described. FIG. 3 is an explanatory diagram illustrating a configuration example of the proximity sensor 10 according to the present embodiment.
The proximity sensor 10 is an infrared sensor module including a plurality of detection elements 110. The detection elements 110 are two-dimensionally arranged in a detection plane orthogonal to the optical axis. In the example shown in FIG. 3, the number of the detection elements 110 is four in each of the horizontal direction and the vertical direction on the detection surface, that is, 16 in total. Each detection element is an infrared sensor that detects infrared light coming from an object. The detection element outputs a detection signal having an intensity corresponding to the luminous intensity of the detected infrared ray to the EC 20. As a whole, the proximity sensor 10 can detect an infrared ray whose arrival direction is within a viewing angle FoV centered on the optical axis Ax (FIG. 5). The viewing angle means an angle of a detection range in which an object can be detected. The detection ranges of the individual detection elements 110 are arranged, for example, at regular intervals (for example, 5 ° to 7 °) in the horizontal and vertical directions on the detection surface, and their distribution is symmetric with respect to the optical axis Ax. Is done. In addition, a light emitting diode that emits infrared light is installed on the inner surface of the first housing 101 as a light source (not shown). However, the position of the light source is a position where infrared light from the light source does not directly reach the proximity sensor 10. Thereby, the proximity sensor 10 can detect the infrared light reflected on the surface of the object.

近接センサ10は、所定のサンプリング周期(例えば、50〜200ms)ごとに各検出素子110で検出した光度をサンプリングし、サンプリングした光度を示す検出信号をEC20に出力する。視野角FoVは、少なくとも水平方向に設定されていればよい。情報処理装置1がノートPCである場合には、視野角FoVは、例えば、水平方向(第1筐体101の左右方向に相当)に20°〜30°である。この視野角では、情報処理装置1の正面に距離が約1.0m〜1.5m以内に接近する人物を検出することができる。
なお、近接センサ10が有する検出素子110のうち、水平方向に少なくとも1行の検出素子110(例えば、図3の最下行に示す素子a〜d)が物体の検出に用いられればよい。情報処理装置1がノートPCであって開き角θが90°〜130°である場合、他の素子よりも素子a〜dの検出範囲は、絶対的な水平方向に近似する。絶対的な水平方向とは、鉛直方向と直交する水平面内の方向を意味し、検出面上の水平方向とは異なる。そのため、素子a〜dだけを用い、他の素子を用いなくても絶対的な水平方向に広がる視野角FoV内で接近する人物の検出に好都合である。以下の説明では、特に断らない限り絶対的な水平方向を単に水平方向と呼ぶ。
The proximity sensor 10 samples the light intensity detected by each detection element 110 at a predetermined sampling cycle (for example, 50 to 200 ms), and outputs a detection signal indicating the sampled light intensity to the EC 20. The viewing angle FoV only needs to be set at least in the horizontal direction. When the information processing device 1 is a notebook PC, the viewing angle FoV is, for example, 20 ° to 30 ° in the horizontal direction (corresponding to the left-right direction of the first housing 101). With this viewing angle, it is possible to detect a person who approaches the front of the information processing device 1 within a distance of about 1.0 m to 1.5 m.
Note that among the detection elements 110 included in the proximity sensor 10, at least one row of detection elements 110 in the horizontal direction (for example, elements a to d shown in the bottom row of FIG. 3) may be used for detecting an object. When the information processing apparatus 1 is a notebook PC and the opening angle θ is 90 ° to 130 °, the detection ranges of the elements a to d are closer to the absolute horizontal direction than other elements. The absolute horizontal direction means a direction in a horizontal plane orthogonal to the vertical direction, and is different from the horizontal direction on the detection surface. Therefore, it is convenient to detect a person approaching within a viewing angle FoV that spreads in an absolute horizontal direction without using other elements a to d. In the following description, an absolute horizontal direction is simply referred to as a horizontal direction unless otherwise specified.

次に、本実施形態に係る起動制御の一例について説明する。図4は、本実施形態に係る起動制御の一例を示すフローチャートである。
(ステップS102)接近解析部22は、近接センサ10から入力される検出信号を解析する。接近解析部22は、例えば、各検出素子110で受光した赤外線の光度の変化傾向を解析する。これにより、常時設置されている物体と一時的に進入した物体(人物が含まれうる)とを識別することができる。その後、ステップS104の処理に進む
(ステップS104)接近解析部22は、視野角に進入した物体を検出したか否かを判定する。検出した場合(ステップS104 YES)、ステップS106の処理に進む。検出していない場合(ステップS104 NO)、ステップS102の処理に戻る。
(ステップS106)接近解析部22は、解析した光度の変化傾向に基づいて検出対象物が近づき情報処理装置1の前で停留する状態、つまり、システムハードウェア30の起動準備状態になったか否かを判定する。起動準備状態になった場合(ステップS106 YES)、ステップS108の処理に進む。起動準備状態になっていない場合(ステップS106 NO)、ステップS102の処理に戻る。
(ステップS108)動作制御部24は、システムハードウェア30に起動を指示するための起動信号を出力し、システムハードウェア30を起動させる(システム起動)。併せて、動作制御部24は、電源部18に情報処理装置1の各部の動作に要する電力を供給させる。その後、ステップS102の処理に戻る。
Next, an example of the start control according to the present embodiment will be described. FIG. 4 is a flowchart illustrating an example of the start control according to the present embodiment.
(Step S102) The approach analysis unit 22 analyzes the detection signal input from the proximity sensor 10. The approach analysis unit 22 analyzes, for example, a change tendency of the luminous intensity of the infrared light received by each detection element 110. This makes it possible to distinguish between an object that is always installed and an object that has temporarily entered (a person may be included). Then, the process proceeds to step S104 (step S104). The approach analysis unit 22 determines whether an object that has entered the viewing angle has been detected. If detected (step S104: YES), the process proceeds to step S106. When no is detected (step S104: NO), the process returns to step S102.
(Step S106) The approach analysis unit 22 determines whether or not the detection target approaches and stays in front of the information processing apparatus 1 based on the analyzed tendency of the change in luminous intensity, that is, whether or not the system hardware 30 is ready to start. Is determined. If it is in the boot preparation state (step S106 YES), the process proceeds to step S108. If it is not in the startup preparation state (NO in step S106), the process returns to step S102.
(Step S108) The operation control unit 24 outputs an activation signal for instructing activation to the system hardware 30, and activates the system hardware 30 (system activation). At the same time, the operation control unit 24 causes the power supply unit 18 to supply power required for operation of each unit of the information processing device 1. After that, the process returns to the step S102.

次に、接近解析部22による検出例について説明する。
図5は、第1筐体101が開いた状態で情報処理装置1の前面を人物h0が時刻t11〜t13にかけて右方から左方(図5では左方から右方に表示)に通過する場合を例示する。図6は、時刻t11、t12、t13のそれぞれにおいて素子a〜dが検出した赤外線の光度を例示する。但し、サンプリング周期は100msであり、時刻t11、t12、t13は、互いに隣接するサンプリング時刻である。
時刻t11では、人物h0は、近接センサ10の視野角FoVの範囲外に所在する。そのため、素子a〜dともに検出される光度は、所定の検出閾値Ithに満たない。検出閾値Ithは、より大きいか否かに基づいて物体を検出したか否かを判定するための閾値である。従って、接近解析部22は、時刻t11において視野角FoVの範囲内に物体が検出されないと判定する。
時刻t12では、人物h0は、近接センサ10の視野角FoVの範囲内に所在する。そのため、素子a〜dが検出する光度は、それぞれ所定の検出閾値Ithを超える。従って、接近解析部22は、時刻t12において視野角FoVの範囲内に物体を検出したと判定する。
時刻t13では、人物h0は、近接センサ10の視野角FoVの範囲外に所在する。そのため、素子a〜dが検出する光度は、それぞれ検出閾値Ithに満たない。従って、接近解析部22は、時刻t13において視野角FoVの範囲内に物体が検出されないと判定する。
図6に示す例では、素子a〜dが検出する光度のいずれも検出閾値Ith以上となる時刻は時刻t12のみとなる。素子a〜dが検出する光度のいずれかが検出閾値Ith以上であって、光度が増加もしくは維持される期間が所定の継続期間未満となるため、接近解析部22は、検出対象物は一時的に情報処理装置1に近づくが、情報処理装置1の前で停留する状態が一定時間継続していないので、システムハードウェア30の起動準備状態ではないと判定する。
Next, an example of detection by the approach analysis unit 22 will be described.
Figure 5 is passed from right to left toward the front of the information processing apparatus 1 person h0 is the time t 11 ~t 13 (displayed to the right from FIG. 5, left) with the first housing 101 is open An example is shown below. FIG. 6 illustrates the luminous intensity of the infrared light detected by the elements a to d at the respective times t 11 , t 12 , and t 13 . However, the sampling period is 100 ms, and times t 11 , t 12 , and t 13 are sampling times adjacent to each other.
At time t 11, the person h0 is located outside the range of a viewing angle FoV of the proximity sensor 10. Therefore, luminous intensity detecting element a~d together, less than the predetermined detection threshold value I th. Detection threshold I th is a threshold for determining whether the detected object based on whether a larger or not. Therefore, approaching analyzer 22 determines that the object within the viewing angle FoV is not detected at time t 11.
At time t 12, the person h0 is located within a range of a viewing angle FoV of the proximity sensor 10. Therefore, the luminous intensity detected by the element a~d respectively exceeds a predetermined detection threshold I th. Therefore, approaching analyzer 22 determines that it has detected an object within the range of viewing angles FoV at time t 12.
At time t 13, the person h0 is located outside the range of a viewing angle FoV of the proximity sensor 10. Therefore, the luminous intensity detected by the element a~d is less than the respective detection threshold I th. Therefore, approaching analyzer 22 determines that the object within the viewing angle FoV is not detected at time t 13.
In the example shown in FIG. 6, none of the light intensity detected by the element a~d time as the detection threshold I th or more is only the time t 12. Since any of the light intensities detected by the elements a to d is equal to or larger than the detection threshold value Ith, and the period during which the light intensity is increased or maintained is shorter than a predetermined duration, the approach analysis unit 22 determines that the detection target is temporarily Although it is closer to the information processing apparatus 1, but stays in front of the information processing apparatus 1 for a certain period of time, it is determined that the system hardware 30 is not in the startup preparation state.

次に、接近解析部22による他の検出例について説明する。
図7は、第1筐体101が開いた状態で情報処理装置1の前面に向かって人物h0が接近する場合を例示する。図8は、時刻t21、t22、t23のそれぞれにおいて素子a〜dが検出した赤外線の光度を例示する。時刻t21、t22、t23は、互いに隣接するサンプリング時刻である。
時刻t21では、人物h0は、近接センサ10の視野角FoVの範囲内に所在する。素子a〜dが検出した光度は、所定の検出閾値Ithをわずかに超え始める。従って、接近解析部22は、時刻t21において近接センサ10の距離方向の検出範囲内に物体を検出し始めたと判定する。
時刻t22では、人物h0が、さらに情報処理装置1に接近するため、素子a〜dが検出する光度は、それぞれ時刻t21における光度よりも増加する。
時刻t23では、人物h0は、またさらに情報処理装置1に接近するため、素子a〜dが検出する光度は、それぞれ時刻t22における光度よりも増加する。
よって、素子a〜dが検出する光度のいずれかが検出閾値Ith以上であって、光度が増加もしくは維持される期間が所定の継続期間以上(例えば、0.3〜1.0s)となるため、接近解析部22は、検出対象物が近づき情報処理装置1の前で一定時間停留する状態である起動準備状態になったと判定する。
Next, another detection example by the approach analysis unit 22 will be described.
FIG. 7 illustrates a case where the person h0 approaches the front of the information processing device 1 with the first housing 101 opened. Figure 8 illustrates the infrared light intensity element a~d has detected at respective times t 21, t 22, t 23 . Time t 21, t 22, t 23 is the sampling time adjacent to each other.
At time t 21, the person h0 is located within a range of a viewing angle FoV of the proximity sensor 10. Luminous intensity elements a~d detects begins slightly beyond a predetermined detection threshold I th. Therefore, approaching analyzer 22 determines that began to detect objects within the detection range of the distance direction of the proximity sensor 10 at time t 21.
At time t 22, the person h0 is, to further approach the information processing apparatus 1, the luminous intensity detected by the element a~d is increased than the luminous intensity at each time t 21.
At time t 23, the person h0 also to further approach the information processing apparatus 1, the luminous intensity detected by the element a~d is increased than the luminous intensity at each time t 22.
Therefore, the be either luminous intensity detected by the element a~d detection threshold I th or more, the period during which the luminous intensity is increased or maintained above a predetermined duration (e.g., 0.3~1.0S) Therefore, the approach analysis unit 22 determines that the detection target has approached and is in a start-up preparation state in which the detection target object stays for a predetermined time in front of the information processing apparatus 1.

なお、図5−図8に示す例では、物体を検出するための全検出領域を区分した複数の検出領域のそれぞれは各1個の素子に対応し、接近解析部22は、各検出領域の状態を個々の素子から入力される検出信号に基づいて判定するが、これには限られない。例えば、接近解析部22は、各検出領域の状態を複数の素子からなるセンサ群から入力される検出信号に基づいて判定してもよい。接近解析部22は、個々の検出領域の状態を複数の赤外線センサからなるセンサ群から取得される検出信号に基づいて判定してもよい。その場合でも、接近解析部22は、近接センサ10から入力される複数の系統の検出信号を、各検出領域に対応する組ごとに区別し、各組の検出信号の変化傾向に基づいてシステムハードウェア30の起動準備状態になったか否かを判定する。
なお、上記の例では、近接センサ10が赤外線センサモジュールである場合を例にしたが、これには限られない。近接センサ10は、レーザセンサモジュールであってもよい。レーザセンサモジュールが備える個々の検出素子は、物体の表面で反射したレーザ光を検出する。その場合には、光源として、発光ダイオードが発光する赤外線よりも波長帯域が狭い光線を発光する赤外線レーザが用いればよい。検出素子が検出可能とする、赤外線の波長帯域は、その光線の波長帯域を含んでいればよい。そのため、周囲環境で発生する赤外線によるノイズの影響を少なくすることができる。
また、近接センサ10は、物体の表面から黒体放射により放射される赤外線を検出する赤外線センサモジュールであってもよい。但し、赤外線センサモジュールが備える個々の検出素子は、人間の体温(例えば、36〜37°C)に対応する波長帯域の赤外線を検出できればよい。その場合には、光源を省略することができる。
In the example illustrated in FIGS. 5 to 8, each of the plurality of detection areas obtained by dividing the entire detection area for detecting an object corresponds to one element, and the approach analysis unit 22 determines the detection area of each detection area. The state is determined based on a detection signal input from each element, but is not limited thereto. For example, the approach analysis unit 22 may determine the state of each detection area based on a detection signal input from a sensor group including a plurality of elements. The approach analysis unit 22 may determine the state of each detection area based on a detection signal obtained from a sensor group including a plurality of infrared sensors. Even in such a case, the approach analysis unit 22 distinguishes the detection signals of a plurality of systems input from the proximity sensor 10 for each set corresponding to each detection area, and based on the change tendency of the detection signals of each set, the system hardware. It is determined whether or not the ware 30 is ready to start.
In the above example, the case where the proximity sensor 10 is an infrared sensor module is described as an example, but the present invention is not limited to this. The proximity sensor 10 may be a laser sensor module. Each detection element included in the laser sensor module detects the laser light reflected on the surface of the object. In that case, an infrared laser that emits light having a wavelength band narrower than the infrared light emitted by the light emitting diode may be used as the light source. The infrared wavelength band that can be detected by the detection element may include the wavelength band of the light beam. Therefore, the influence of noise due to infrared rays generated in the surrounding environment can be reduced.
In addition, the proximity sensor 10 may be an infrared sensor module that detects infrared rays emitted from the surface of the object by blackbody radiation. However, it is sufficient that each detection element included in the infrared sensor module can detect infrared rays in a wavelength band corresponding to a human body temperature (for example, 36 to 37 ° C.). In that case, the light source can be omitted.

以上に説明したように、本実施形態に係る情報処理装置1は、EC20と、システムハードウェア30、物体から到来する電磁波を検出して検出信号を出力する検出素子を備え、EC20は、動作制御部24および接近解析部22を備える。接近解析部22は検出信号の変化傾向に基づいて、検出対象物が近づき自装置の前で停留する状態を起動準備状態として判定する。動作制御部24は、起動準備状態と判定されるとき、システムハードウェア30を起動させる。
この構成により、検出信号の変化傾向に基づいて情報処理装置1の使用意思を有する人物の接近がより確実に判定される。そのため、動作状態が待機状態であるシステムハードウェア30を適時に起動させることができる。
As described above, the information processing apparatus 1 according to the present embodiment includes the EC 20, the system hardware 30, and the detection element that detects an electromagnetic wave coming from an object and outputs a detection signal. A section 24 and an approach analysis section 22 are provided. The approach analysis unit 22 determines, based on the change tendency of the detection signal, a state in which the detection target approaches and stops in front of the own device as a start preparation state. The operation control unit 24 activates the system hardware 30 when it is determined to be in the activation preparation state.
With this configuration, the approach of a person having the intention to use the information processing device 1 is more reliably determined based on the change tendency of the detection signal. Therefore, the system hardware 30 whose operation state is the standby state can be started up in a timely manner.

また、動作制御部24は、検出素子で検出された検出信号の強度が所定の検出閾値以上となり、その強度が増加もしくは維持される時間が所定時間以上継続するとき、起動準備状態を判定する。
この構成により、単に通過する物体を検出せず、情報処理装置1に接近し、継続的に情報処理装置1の前に留まる検出対象物が検出される。そのため、情報処理装置1の使用意思を有する人物の接近をより確実に判定することができる。
In addition, the operation control unit 24 determines the startup preparation state when the intensity of the detection signal detected by the detection element is equal to or more than a predetermined detection threshold and the time during which the intensity increases or is maintained for a predetermined time or more.
With this configuration, a detection target that approaches the information processing device 1 and stays in front of the information processing device 1 continuously without detecting the passing object is detected. Therefore, it is possible to more reliably determine the approach of a person who intends to use the information processing device 1.

なお、上記の説明では、近接センサ10が主に赤外線センサモジュールである場合を例にしたが、これには限られない。近接センサ10は、非接触で人物から到来する波動を検出できる検出素子を複数個備えていればよい。人物などの物体から到来する波動とは、上記のように、その物体で反射した反射波と、その物体自体が発する波動が含まれる。波動は、赤外線、可視光線の他、赤外線よりも波長が短い電波であってもよい。近接センサ10は、例えば、レーダセンサモジュール(図示せず)であってもよい。
レーダセンサモジュールは、発信器、複数のパッチアンテナ、パッチアンテナと同じ個数の移相器、加算器、方向調整器および信号源を備える。発信器は、基準信号となる所定の周波数帯域の電波(例えば、ミリ波)を放射する。パッチアンテナは、平面アンテナの一種であり、誘電体基板上に印刷配線された導体膜を備え、物体から反射した電波を受信信号として検出する検出素子である。パッチアンテナは、マイクロストリップアンテナとも呼ばれる。個々のパッチアンテナは、それぞれ異なる位置に配列されていればよい。個々の移相器は、パッチアンテナと対応付けて設置され、対応するパッチアンテナが受信した受信信号の位相を調整して、調整後の受信信号を加算器に出力する。加算器は、各移相器から入力される受信信号を加算し、加算により得られる受信信号の総和を検出信号として方向調整器に出力する。方向調整器は、物体を検出するための目標方向を予め設定した複数の設定方向から逐次に変更(スキャン)可能とし、設定方向ごとに位相の調整量を各移相器に設定する。但し、方向調整器には、複数の設定方向のそれぞれから電波が放射されるとき、加算器から得られる検出信号の強度が最も高くなるように、それぞれの設定方向に対する各移相器の位相の調整量を予め設定しておく。目標方向は位相の調整により任意に設定可能であるため、赤外線センサモジュールよりも高い自由度をもって目標方向を設定することができる。接近解析部22は、上記のように所定の視野角FoV内の目標方向ごとの検出信号に基づいて、システムハードウェア30の起動準備状態を判定することができる。
また、近接センサ10が検出対象とする波動は、赤外線、電波などの電磁波の他、音波、超音波などの弾性波であってもよい。近接センサ10は、例えば、個々の検出素子としてアクチュエータを備えるソナー(図示せず)であってもよい。アクチュエータは、情報処理装置1に接近する人物と床面との接触音、人物の器官の活動により生ずる生体音、波源(図示せず)が放射する超音波に対する反射波のいずれを検出してもよい。
なお、接近解析部22は、個々の検出素子が検出した検出信号の強度に基づいて、起動準備状態を判定していたが、近接センサ10が検出した物体までの距離が所定の距離以下となり、その距離が減少もしく維持される時間が所定時間以上継続するとき、起動準備状態を判定してもよい。但し、近接センサ10は、波動の伝搬時間(ToF:Time of Flight)を検出し、検出した伝搬時間と伝搬速度に基づいて物体までの距離を算出する。その前提として、近接センサ10は、波動源を備え、波動源が放射し既知の振幅変調を施した波動の振幅と検出素子が検出した検出信号の振幅との位相差を検出し、その位相差と振幅変調周波数とから伝搬時間を求めることができる。波動源として、上記の発光ダイオード、赤外線レーザ、発信器、波源が相当する。
In the above description, the case where the proximity sensor 10 is mainly an infrared sensor module has been described as an example, but the present invention is not limited to this. The proximity sensor 10 only needs to include a plurality of detection elements that can detect a wave coming from a person without contact. The wave arriving from an object such as a person includes, as described above, a wave reflected by the object and a wave emitted by the object itself. The wave may be an infrared ray, a visible ray, or a radio wave having a shorter wavelength than the infrared ray. The proximity sensor 10 may be, for example, a radar sensor module (not shown).
The radar sensor module includes a transmitter, a plurality of patch antennas, the same number of phase shifters as the patch antennas, adders, direction adjusters, and signal sources. The transmitter emits a radio wave (for example, a millimeter wave) in a predetermined frequency band serving as a reference signal. A patch antenna is a type of a planar antenna, is a detection element including a conductor film printed and wired on a dielectric substrate, and detecting a radio wave reflected from an object as a reception signal. The patch antenna is also called a microstrip antenna. The individual patch antennas may be arranged at different positions. Each phase shifter is installed in association with a patch antenna, adjusts the phase of the received signal received by the corresponding patch antenna, and outputs the adjusted received signal to the adder. The adder adds the received signals input from each phase shifter, and outputs the sum of the received signals obtained by the addition to the direction adjuster as a detection signal. The direction adjuster enables a target direction for detecting an object to be sequentially changed (scanned) from a plurality of preset directions, and sets a phase adjustment amount to each phase shifter for each set direction. However, when radio waves are radiated from each of the plurality of setting directions, the direction adjuster adjusts the phase of each phase shifter with respect to each of the setting directions so that the intensity of the detection signal obtained from the adder becomes the highest. The adjustment amount is set in advance. Since the target direction can be arbitrarily set by adjusting the phase, the target direction can be set with a higher degree of freedom than the infrared sensor module. The approach analysis unit 22 can determine the startup preparation state of the system hardware 30 based on the detection signal for each target direction within the predetermined viewing angle FoV as described above.
Further, the wave to be detected by the proximity sensor 10 may be an elastic wave such as a sound wave or an ultrasonic wave in addition to an electromagnetic wave such as an infrared ray or a radio wave. The proximity sensor 10 may be, for example, a sonar (not shown) including an actuator as an individual detection element. The actuator detects any of a contact sound between a person approaching the information processing apparatus 1 and a floor surface, a body sound generated by the activity of a human organ, and a reflected wave with respect to an ultrasonic wave emitted by a wave source (not shown). Good.
In addition, the approach analysis unit 22 determines the activation preparation state based on the strength of the detection signal detected by each detection element. However, the distance to the object detected by the proximity sensor 10 becomes equal to or less than a predetermined distance, When the time during which the distance is reduced or maintained continues for a predetermined time or more, the start preparation state may be determined. However, the proximity sensor 10 detects the propagation time (ToF: Time of Flight) of the wave, and calculates the distance to the object based on the detected propagation time and the propagation speed. As a premise, the proximity sensor 10 includes a wave source, detects the phase difference between the amplitude of the wave radiated by the wave source and subjected to a known amplitude modulation and the amplitude of the detection signal detected by the detection element, and detects the phase difference. The propagation time can be determined from the amplitude modulation frequency and the amplitude modulation frequency. The above light emitting diode, infrared laser, transmitter, and wave source correspond to the wave source.

<第2の実施形態>
次に、本発明の第2の実施形態に係る情報処理装置1について説明する。以下の説明では、第1の実施形態との差異点を主とする。第1の実施形態と共通の構成もしくは処理については、共通の符号を付して、その説明を援用する。
図9は、本実施形態に係る情報処理装置1の構成例を示す概略ブロック図である。
情報処理装置1は、図1に示す情報処理装置1に対して姿勢センサ12をさらに備え、EC20においてモード判定部26をさらに備える。
但し、本実施形態に係る情報処理装置1は、第1筐体101と第2筐体102を備え、開き角θが可変であることを前提とする(図2)。本実施形態に係る情報処理装置1として、例えば、ノートPC、折り畳み型携帯電話機が該当する。
<Second embodiment>
Next, an information processing device 1 according to a second embodiment of the present invention will be described. In the following description, differences from the first embodiment will be mainly described. The common configuration or processing to the first embodiment is denoted by the same reference numeral, and the description is referred to.
FIG. 9 is a schematic block diagram illustrating a configuration example of the information processing apparatus 1 according to the present embodiment.
The information processing apparatus 1 further includes the attitude sensor 12 with respect to the information processing apparatus 1 illustrated in FIG. 1, and further includes a mode determination unit 26 in the EC 20.
However, it is assumed that the information processing apparatus 1 according to the present embodiment includes the first housing 101 and the second housing 102 and the opening angle θ is variable (FIG. 2). As the information processing apparatus 1 according to the present embodiment, for example, a notebook PC and a foldable mobile phone correspond.

姿勢センサ12は、情報処理装置1の姿勢を検出するためのセンサである。姿勢は、少なくとも開き角θをもって定義される。姿勢は、さらにタッチスクリーン方向をもって定義されてもよい。タッチスクリーン方向とは、第1筐体101の側面101a〜101dのうち、他の側面よりも相対的に天の方向に近い方向に向いている側面を意味する。姿勢センサ12は、例えば、2個の加速度センサと上記のホールセンサを含む。個々の加速度センサは、それぞれ3つの互いに直交する検出軸を備える3軸の加速度センサである。加速度センサは、それぞれ第1筐体101、第2筐体102に設置される。   The attitude sensor 12 is a sensor for detecting the attitude of the information processing device 1. The posture is defined by at least the opening angle θ. The posture may be further defined by a touch screen direction. The touch screen direction refers to a side surface of the side surfaces 101a to 101d of the first housing 101 which faces in a direction closer to the heavenly direction than other side surfaces. The posture sensor 12 includes, for example, two acceleration sensors and the above-described Hall sensor. Each acceleration sensor is a three-axis acceleration sensor having three mutually orthogonal detection axes. The acceleration sensors are installed on the first housing 101 and the second housing 102, respectively.

モード判定部26は、姿勢センサ12からの入力に基づいて情報処理装置1の姿勢を判定する。情報処理装置1は、その姿勢に応じて使用可能とする入出力形態、つまり、使用モードを変更可能とする。使用モードは、情報処理装置1の姿勢のパターンと捉えることもできる。使用モードの例については、後述する。
モード判定部26は、2個の加速度センサがそれぞれ検出した加速度の重力成分の方向のなす角度をもって開き角θを計算することができる。モード判定部26は、例えば、その時点までに各加速度センサが検出した加速度の重み付き時間平均を重力成分として定めてもよい。モード判定部26には、その時点までの時刻が近い加速度の成分が大きくなるように重み付き時間平均に用いる重み係数を設定しておく。
モード判定部26は、ホールセンサが検出した磁場の強度が所定の強度よりも高いか否かにより、開き角θが0°であるか、360°であるかを識別する。
The mode determination unit 26 determines the attitude of the information processing device 1 based on an input from the attitude sensor 12. The information processing apparatus 1 can change the input / output mode that can be used according to the posture, that is, the use mode. The use mode can also be regarded as a pattern of the attitude of the information processing device 1. An example of the use mode will be described later.
The mode determination unit 26 can calculate the opening angle θ using the angle formed by the direction of the gravity component of the acceleration detected by each of the two acceleration sensors. The mode determination unit 26 may determine, for example, a weighted time average of the acceleration detected by each acceleration sensor as the gravity component up to that point. In the mode determination unit 26, a weighting coefficient used for weighted time averaging is set so that the component of the acceleration whose time is close to that time becomes large.
The mode determination unit 26 determines whether the opening angle θ is 0 ° or 360 ° based on whether the strength of the magnetic field detected by the Hall sensor is higher than a predetermined strength.

なお、開き角θを検出する手法は、これには限られない。例えば、加速度センサとホールセンサに代えて、角度センサが採用されてもよい。角度センサは、ヒンジ機構121の回転角度を検出し、モード判定部26は、検出された回転角度に基づいて開き角θを定めることができる。
また、モード判定部26は、第1筐体101に設置された加速度センサが検出した加速度の重力成分の方向からタッチスクリーン方向を判定することができる。加速度センサの検出軸と、第1筐体101もしくは第2筐体102との位置関係が予め固定されているためである。
モード判定部26は、判定した姿勢を示す姿勢情報を接近解析部22に出力する。姿勢情報には、少なくとも開き角θが含まれる。姿勢情報には、さらに使用モードとタッチスクリーン方向の一方または両方が含まれてもよい。
The method for detecting the opening angle θ is not limited to this. For example, an angle sensor may be used instead of the acceleration sensor and the hall sensor. The angle sensor detects the rotation angle of the hinge mechanism 121, and the mode determination unit 26 can determine the opening angle θ based on the detected rotation angle.
Further, the mode determination unit 26 can determine the touch screen direction from the direction of the gravitational component of the acceleration detected by the acceleration sensor installed on the first housing 101. This is because the positional relationship between the detection axis of the acceleration sensor and the first housing 101 or the second housing 102 is fixed in advance.
The mode determination unit 26 outputs posture information indicating the determined posture to the approach analysis unit 22. The posture information includes at least the opening angle θ. The posture information may further include one or both of the use mode and the touch screen direction.

接近解析部22は、モード判定部26から入力される姿勢情報に基づいて物体を検出するための検出範囲を定める。近接センサ10が赤外線センサモジュールである場合には、接近解析部22は、赤外線センサモジュールが有する検出素子110のうち、アクティブな検出素子を選択する。アクティブな検出素子とは、物体の検出ひいては起動準備状態の判定に用いる検出信号を取得するための検出素子を意味する。接近解析部22は、例えば、他の検出素子よりも水平面に最も近く、水平方向に分布する検出範囲を有し、互いに隣接する複数の検出素子をアクティブな検出素子として選択する。選択される検出素子の例については、後述する。   The approach analysis unit 22 determines a detection range for detecting an object based on the posture information input from the mode determination unit 26. When the proximity sensor 10 is an infrared sensor module, the approach analysis unit 22 selects an active detection element among the detection elements 110 included in the infrared sensor module. The active detection element refers to a detection element for detecting an object and thereby obtaining a detection signal used for determining a start preparation state. The approach analysis unit 22 has, for example, a detection range that is closest to the horizontal plane than other detection elements and has a detection range distributed in the horizontal direction, and selects a plurality of detection elements adjacent to each other as active detection elements. Examples of the selected detection element will be described later.

近接センサ10がレーダセンサモジュールである場合には、接近解析部22は、例えば、水平面上の情報処理装置1の前方を中心とする所定の視野角の範囲を検出範囲として定める。接近解析部22は、検出範囲内に分布した複数の設定方向をレーダセンサモジュールに設定する。レーダセンサモジュールは、複数の設定方向から目標方向を逐次に切り替え、目標方向ごとに検出信号を接近解析部22に出力する。接近解析部22は、水平方向に並んだ検出素子を定めることで、情報処理装置1の姿勢によらず水平方向に行動する人物の接近をより的確に検出することができる。   When the proximity sensor 10 is a radar sensor module, the approach analysis unit 22 determines, for example, a range of a predetermined viewing angle centered on the horizontal plane in front of the information processing device 1 as a detection range. The approach analysis unit 22 sets a plurality of setting directions distributed within the detection range in the radar sensor module. The radar sensor module sequentially switches the target direction from a plurality of set directions, and outputs a detection signal to the approach analysis unit 22 for each target direction. By determining the detection elements arranged in the horizontal direction, the approach analysis unit 22 can more accurately detect the approach of a person acting in the horizontal direction regardless of the attitude of the information processing device 1.

次に、使用モードについて図10と図11を用いて説明する。
情報処理装置1の使用モードには、ラップトップモード、テントモード、スタンドモード、タブレットモードおよびブックモードがある。
図10(A)は、クローズモードを例示する。クローズモードでは、開き角θは、一例として0°である。その場合、モード判定部26は、開き角θが0°であるとき、情報処理装置1の使用モードをクローズモードと判定することができる。クローズモードでは、ディスプレイ103とキーボード107ならびにタッチパッド109が対向し、それらを利用することができない。それらを利用するには、第1筐体101を第2筐体102から開く操作が要求される。従って、クローズモードでは、モード判定部26は、接近解析部22、動作制御部24および近接センサ10の動作を停止してもよい。
Next, the use mode will be described with reference to FIGS.
The use mode of the information processing device 1 includes a laptop mode, a tent mode, a stand mode, a tablet mode, and a book mode.
FIG. 10A illustrates the close mode. In the close mode, the opening angle θ is, for example, 0 °. In this case, when the opening angle θ is 0 °, the mode determination unit 26 can determine the use mode of the information processing device 1 to be the closed mode. In the closed mode, the display 103 faces the keyboard 107 and the touch pad 109, and cannot use them. To use them, an operation of opening the first housing 101 from the second housing 102 is required. Therefore, in the closed mode, the mode determination unit 26 may stop the operations of the approach analysis unit 22, the operation control unit 24, and the proximity sensor 10.

図10(B)は、ラップトップモードを例示する。ラップトップモードでは、開き角θは、一例として0°<θ<190°である。その場合、モード判定部26は、開き角θが0°<θ<190°であるとき、情報処理装置1の使用モードをラップトップモードと判定することができる。ラップトップモードでは、ディスプレイ103、キーボード107およびタッチパッド109が使用可能である。   FIG. 10B illustrates the laptop mode. In the laptop mode, the opening angle θ is, for example, 0 ° <θ <190 °. In this case, when the opening angle θ is 0 ° <θ <190 °, the mode determination unit 26 can determine the use mode of the information processing device 1 to be the laptop mode. In the laptop mode, the display 103, the keyboard 107, and the touch pad 109 can be used.

図10(C)、図10(D)は、それぞれ、テントモード、スタンドモードを例示する。テントモード、スタンドモードともに、開き角θは、一例として190°≦θ<360°である。テントモードとスタンドモードでは、第1筐体101の天地方向が異なる。即ち、モード判定部26は、第1筐体101の側面101c(ヒンジ機構121が設置されている面)が、他の側面よりも天を向いているとき使用モードをテントモードと判定する。他方、モード判定部26は、側面101a(第1筐体101の回動により第2筐体102の側面102aから離れる面)が、他の側面よりも天を向いているとき使用モードをスタンドモードと判定する。テントモード、スタンドモードともに、ディスプレイ103が利用可能である。但し、キーボード107およびタッチパッド109は、必ずしも使用可能でなくてもよい。   FIGS. 10C and 10D illustrate a tent mode and a stand mode, respectively. In both the tent mode and the stand mode, the opening angle θ is, for example, 190 ° ≦ θ <360 °. The top and bottom directions of the first housing 101 are different between the tent mode and the stand mode. That is, the mode determination unit 26 determines that the use mode is the tent mode when the side surface 101c (the surface on which the hinge mechanism 121 is installed) of the first housing 101 is more upward than the other side surface. On the other hand, the mode determination unit 26 sets the use mode to the stand mode when the side surface 101a (the surface separated from the side surface 102a of the second housing 102 by the rotation of the first housing 101) is more upward than the other side surface. Is determined. The display 103 can be used in both the tent mode and the stand mode. However, the keyboard 107 and the touch pad 109 need not always be usable.

図10(E)は、タブレットモードを例示する。タブレットモードでは、第1筐体の表面101eと第2筐体102の底面102eが対向する。開き角θは、一例として360°である。タブレットモードでは、ディスプレイ103が使用可能である。タブレットモードは、ディスプレイ103をユーザの顔に向けながら手で保持して使用できる使用モードである。タブレットモードでは、主に情報処理装置1が標準動作状態で動作していることが期待される。従って、タブレットモードでも、モード判定部26は、接近解析部22、動作制御部24および近接センサ10は動作を停止してもよい。   FIG. 10E illustrates the tablet mode. In the tablet mode, the front surface 101e of the first housing and the bottom surface 102e of the second housing 102 face each other. The opening angle θ is, for example, 360 °. In the tablet mode, the display 103 can be used. The tablet mode is a use mode in which the user can hold and use the display 103 with his / her hand while facing the user's face. In the tablet mode, it is expected that the information processing apparatus 1 is mainly operating in the standard operation state. Therefore, even in the tablet mode, the mode determination unit 26 may stop the operation of the approach analysis unit 22, the operation control unit 24, and the proximity sensor 10.

図11は、ブックモードを例示する。ブックモードは、第1筐体101が第2筐体102に対して開いた状態であって、開き角θに関わらず、側面101bもしくは側面101dが天を向く姿勢での使用モードである。ブックモードでは、ディスプレイ103が使用可能である。   FIG. 11 illustrates the book mode. The book mode is a use mode in which the first housing 101 is open with respect to the second housing 102 and the side surface 101b or the side surface 101d faces the top, regardless of the opening angle θ. In the book mode, the display 103 can be used.

次に、検出素子もしくは検出範囲の設定例について説明する。
近接センサ10が赤外線センサモジュールである場合、開き角θに応じて各検出素子の検出範囲が連動する。接近解析部22は、水平方向に最も近似する方向に検出範囲を有し、かつ、互いに隣接する1行もしくは1列の検出素子110をアクティブな検出素子として選択する。近接センサ10の検出素子110が図3に示されるように配列され、かつ、視野角FoVが24°である場合における検出素子の選択例について説明する。動作モードがラップトップモードである場合、接近解析部22は、0°<θ<84°であるとき最上行の4個の検出素子110を選択し、84°≦θ<90°であるとき第2行の4個の検出素子110を選択し、90°≦θ<96°であるとき第3行の4個の検出素子110を選択し、96°≦θであるとき最下行の4個の検出素子110を選択する。
Next, an example of setting a detection element or a detection range will be described.
When the proximity sensor 10 is an infrared sensor module, the detection ranges of the respective detection elements are linked in accordance with the opening angle θ. The approach analysis unit 22 has a detection range in the direction closest to the horizontal direction, and selects one row or one column of detection elements 110 adjacent to each other as active detection elements. An example of selecting the detection elements when the detection elements 110 of the proximity sensor 10 are arranged as shown in FIG. 3 and the viewing angle FoV is 24 ° will be described. When the operation mode is the laptop mode, the approach analysis unit 22 selects the four detection elements 110 in the top row when 0 ° <θ <84 °, and selects the fourth detection element 110 when 84 ° ≦ θ <90 °. The four detection elements 110 in two rows are selected. When 90 ° ≦ θ <96 °, the four detection elements 110 in the third row are selected. When 96 ° ≦ θ, the four detection elements 110 in the bottom row are selected. The detection element 110 is selected.

動作モードがテントモードである場合には、接近解析部22は、190°≦θ<348°であるときす最上行の4個の検出素子110を選択し、348°≦θ<360°であるとき第2行の4個の検出素子110を選択する。
動作モードがスタンドモードである場合には、接近解析部22は、190°≦θ<264°であるとき最上行の4個の検出素子110を選択し、264°≦θ<270°であるとき第2行の4個の検出素子110を選択し、270°≦θ<276°であるとき第3行の4個の検出素子110を選択し、276°≦θ<360°であるとき最下行の4個の検出素子110を選択する。
When the operation mode is the tent mode, the approach analysis unit 22 selects the four uppermost detection elements 110 when 190 ° ≦ θ <348 °, and 348 ° ≦ θ <360 °. At this time, the four detection elements 110 in the second row are selected.
When the operation mode is the stand mode, the approach analysis unit 22 selects the four detection elements 110 in the top row when 190 ° ≦ θ <264 °, and when 264 ° ≦ θ <270 °. Four detection elements 110 in the second row are selected, and four detection elements 110 in the third row are selected when 270 ° ≦ θ <276 °, and the bottom row is selected when 276 ° ≦ θ <360 °. Of the four detection elements 110 are selected.

動作モードがブックモードである場合には、接近解析部22は、開き角θに関わらず図3に対して左方から第2列において検出面に対して垂直に配列された4個の検出素子110を選択する。これにより、接近解析部22は、検出範囲が絶対的な水平方向に最も近似し、かつ、水平方向に分布する検出素子110のそれぞれが検出した光度を解析することができる。   When the operation mode is the book mode, the approach analysis unit 22 determines that the four detection elements arranged perpendicular to the detection surface in the second column from the left with respect to FIG. Select 110. Accordingly, the approach analysis unit 22 can analyze the luminous intensity detected by each of the detection elements 110 whose detection range is closest to the absolute horizontal direction and which is distributed in the horizontal direction.

近接センサ10がレーダセンサモジュールである場合、開き角θに応じて各検出素子が配置される検出面の方向が連動する。タブレットモード、テントモード、スタンドモードもしくはブックモードのいずれの動作モードであっても、接近解析部22は、例えば、水平面内の方向のうち情報処理装置1の前面の方向を基準方向として定め、基準方向を中心する水平面内の視野角FoVの範囲を検出範囲として定める。そして、接近解析部22は、検出範囲内に所定の個数の設定方向を所定の角度間隔をもって設定する。これにより、接近解析部は、水平方向に分布する設定方向のそれぞれから到来する反射波を検出信号として解析することができる。   When the proximity sensor 10 is a radar sensor module, the directions of the detection surfaces on which the detection elements are arranged are linked in accordance with the opening angle θ. Regardless of the operation mode of the tablet mode, the tent mode, the stand mode, or the book mode, the approach analysis unit 22 determines, for example, the direction of the front surface of the information processing device 1 among the directions in the horizontal plane as a reference direction, The range of the viewing angle FoV in the horizontal plane centered on the direction is determined as the detection range. Then, the approach analysis unit 22 sets a predetermined number of setting directions within the detection range at predetermined angular intervals. Thus, the approach analysis unit can analyze the reflected waves arriving from each of the set directions distributed in the horizontal direction as a detection signal.

次に、制御テーブルの例について説明する。制御テーブルは、モード判定部26において、開き角θに基づく使用モードやデバイスの制御に用いられるデータである。制御テーブルは、複数通りの開き角θの範囲のそれぞれを角度レンジとして示す第1テーブルと、角度レンジならびにタッチスクリーン方向と使用モードとの関係を示す第2テーブルとを含む。制御テーブルは、EC20のファームウェアに含まれてもよいし、ファームウェアとは独立として設定値を変更可能としてもよい。また、所定のファームウェアもしくはアプリケーションプログラムの実行により設定値が更新可能であってもよい。   Next, an example of the control table will be described. The control table is data used in the mode determination unit 26 for controlling the use mode and the device based on the opening angle θ. The control table includes a first table indicating each of a plurality of ranges of the opening angle θ as an angle range, and a second table indicating a relationship between the angle range, the touch screen direction, and the use mode. The control table may be included in the firmware of the EC 20, or the setting value may be changed independently of the firmware. Further, the setting values may be updated by executing a predetermined firmware or an application program.

以上に説明したように、本実施形態に係る情報処理装置1は、自装置の姿勢を判定するモード判定部26をさらに備える。物体検出部(例えば、近接センサ10)の各検出素子が二次元的に配列されている。接近解析部22は、自装置の姿勢に基づいて物体を検出するための検出範囲を定める。
この構成により、自装置の姿勢に応じた検出範囲内の物体を検出することができる。姿勢に応じて検出範囲を制限することができるため、物体の検出や起動準備状態の判定にかかる処理量を低減することができる。
As described above, the information processing device 1 according to the present embodiment further includes the mode determination unit 26 that determines the attitude of the own device. Each detection element of the object detection unit (for example, the proximity sensor 10) is two-dimensionally arranged. The approach analysis unit 22 determines a detection range for detecting an object based on the attitude of the own device.
With this configuration, it is possible to detect an object within a detection range according to the attitude of the own device. Since the detection range can be limited in accordance with the posture, it is possible to reduce the amount of processing required for detecting an object and determining the ready state for activation.

また、物体検出部が赤外線センサモジュールである場合には、接近解析部22は、水平方向に検出範囲が並んだ所定の個数の検出素子である赤外線センサを選択する。
この構成により、自装置の姿勢によらず水平方向に接近する人物の検出精度を低下させずに、人物の検出範囲を選択されたアクティブな検出素子の検出範囲に制限することができる。
When the object detection unit is an infrared sensor module, the approach analysis unit 22 selects a predetermined number of detection elements having a detection range in the horizontal direction.
With this configuration, the detection range of the person can be limited to the detection range of the selected active detection element without lowering the detection accuracy of the person approaching in the horizontal direction regardless of the attitude of the own device.

また、物体検出部がレーダセンサモジュールである場合には、接近解析部は、物体を検出する目標方向を水平方向にスキャンする。
この構成によっても、自装置の姿勢によらず水平方向に接近する人物の検出精度を低下させずに、人物の検出範囲を水平方向に分布する範囲に制限することができる。また、レーダセンサモジュールでは、検出素子としてパッチアンテナなどの平面アンテナが用いられ、個々の平面アンテナで受信した受信信号の遅延量に基づいて目標方向が定まる。従って、レーダセンサモジュールによれば、検出範囲と検出素子とが直接対応する赤外線センサモジュールよりも精密に検出範囲を制御することができる。
When the object detection unit is a radar sensor module, the approach analysis unit scans a target direction for detecting an object in the horizontal direction.
According to this configuration, the detection range of the person can be limited to the range distributed in the horizontal direction without lowering the detection accuracy of the person approaching in the horizontal direction regardless of the attitude of the own device. In the radar sensor module, a planar antenna such as a patch antenna is used as a detection element, and a target direction is determined based on a delay amount of a signal received by each planar antenna. Therefore, according to the radar sensor module, the detection range can be controlled more precisely than the infrared sensor module in which the detection range and the detection element directly correspond.

<第3の実施形態>
次に、本発明の第3の実施形態に係る情報処理装置1について説明する。第3の実施形態は、第1の実施形態または第2の実施形態に、以下に説明する追加の構成をさらに備えて実施可能な実施形態である。以下の説明では、第1の実施形態や第2の実施形態との差異点を主とする。第1の実施形態や第2の実施形態と共通の構成もしくは処理については、共通の符号を付して、その説明を援用する。
図12、図13は、本実施形態に係る情報処理装置1の構成例を示す概略ブロック図である。
図12、図13にそれぞれ示す情報処理装置1は、図1、図9にそれぞれ示す情報処理装置1に対して、認証処理部40と撮像部56をさらに備える。
認証処理部40は、システムハードウェア30に含まれる。認証処理部40は、CPU32、GPU34、メモリコントローラ36およびI/Oコントローラ38とは、独立に動作する別個の集積回路で構成される。
撮像部56は、システムハードウェア30に接続される。
<Third embodiment>
Next, an information processing apparatus 1 according to a third embodiment of the present invention will be described. The third embodiment is an embodiment that can be implemented by further adding an additional configuration described below to the first embodiment or the second embodiment. The following description mainly focuses on differences from the first embodiment and the second embodiment. The same reference numerals are given to the same configurations or processes as those in the first embodiment and the second embodiment, and the description will be referred to.
12 and 13 are schematic block diagrams illustrating a configuration example of the information processing device 1 according to the present embodiment.
The information processing apparatus 1 shown in each of FIGS. 12 and 13 further includes an authentication processing unit 40 and an imaging unit 56 with respect to the information processing apparatus 1 shown in FIGS.
The authentication processing unit 40 is included in the system hardware 30. The authentication processing unit 40 is configured by a separate integrated circuit that operates independently of the CPU 32, the GPU 34, the memory controller 36, and the I / O controller 38.
The imaging unit 56 is connected to the system hardware 30.

本実施形態において、動作制御部24は、接近解析部22から起動準備状態を示す検出状態情報が入力されるとき、電源部18に対して、認証処理部40、記憶部46および撮像部56に電力を供給させる。その後、動作制御部24は、認証開始指示を認証処理部40に出力する。
認証処理部40は、動作制御部24から認証開始指示が入力されるとき、ユーザ認証を開始する。ユーザ認証は、認証対象の人物が予め登録された正規のユーザであるか否かを判定する処理である。ユーザ処理として、例えば、顔認証処理が適用可能である。顔認証処理は、顔検出処理と顔照合処理とを含む。顔検出処理は、撮像部56から入力される画像信号から顔が表されている領域である顔領域を定める処理である。顔照合処理は、顔領域から顔の特徴を表す複数の顔特徴点(例えば、口、目、鼻、など)の位置を求め、顔領域の位置と大きさがそれぞれ所定の位置と大きさとなるように正規化し、正規化した顔特徴点の分布を画像特徴量として定める過程と、定めた画像特徴量と所定の人物の顔画像に係る画像特徴量と照合し、照合に成功した画像特徴量に係る人物を特定する過程を有する。記憶部46には、予めユーザ毎の認証情報を設定しておく。認証情報には、そのユーザの顔画像の画像特徴量が含まれる。認証情報には、さらにそのユーザを示すユーザ情報を対応付けて記憶される。ユーザ情報は、例えば、ユーザ名、ユーザID(Identifier)、など情報処理装置1のユーザを特定できる情報であればよい。認証処理部40は、設定されたいずれかのユーザの認証情報との照合に成功するときユーザ認証に成功したと判定することができる。認証処理部40は、ユーザ認証の成否を示す認証情報を動作制御部24に出力する。
In the present embodiment, when the detection state information indicating the activation preparation state is input from the approach analysis section 22, the operation control section 24 sends the authentication processing section 40, the storage section 46, and the imaging section 56 to the power supply section 18. Supply power. After that, the operation control unit 24 outputs an authentication start instruction to the authentication processing unit 40.
When an authentication start instruction is input from the operation control unit 24, the authentication processing unit 40 starts user authentication. The user authentication is a process of determining whether or not a person to be authenticated is a registered regular user. As the user process, for example, a face authentication process can be applied. The face authentication process includes a face detection process and a face matching process. The face detection process is a process of determining a face region, which is a region where a face is represented, from an image signal input from the imaging unit 56. In the face matching process, the positions of a plurality of face feature points (for example, mouth, eyes, nose, etc.) representing the features of the face are obtained from the face region, and the position and size of the face region become predetermined positions and sizes, respectively. Determining the distribution of the normalized facial feature points as an image feature amount, and comparing the determined image feature amount with the image feature amount related to the face image of a predetermined person, and successfully matching the image feature amount. And identifying the person according to the above. Authentication information for each user is set in the storage unit 46 in advance. The authentication information includes an image feature amount of the face image of the user. The authentication information is further stored in association with user information indicating the user. The user information may be any information that can specify the user of the information processing apparatus 1, such as a user name and a user ID (Identifier). The authentication processing unit 40 can determine that the user authentication is successful when the verification with the authentication information of any of the set users is successful. The authentication processing unit 40 outputs authentication information indicating the success or failure of the user authentication to the operation control unit 24.

動作制御部24は、認証処理部40からユーザ認証の成功を示す認証情報が入力されるとき、電源部18に対して、他のシステムハードウェア30やシステムハードウェア30の配下の各デバイスに電力の供給を開始させる。その後、動作制御部24は、システムハードウェア30に起動信号を出力する。この時点では、認証処理部40におけるユーザ認証が開始されるが、システムハードウェア30を構成するプロセッサやその他のデバイスは起動しない。その後、認証処理部40がユーザ認証に成功するとき、システムハードウェア30を構成するプロセッサや、その他のデバイスを起動させることができる。このとき、撮像部56への電力の供給が継続され、システムハードウェア30の動作中の状態が継続されてもよい。動作制御部24は、認証処理部40からユーザ認証の失敗を示す認証情報が入力される場合には、電源部18に対して各デバイスへの電力の供給を開始させず、各デバイスに起動信号を出力しない。   When the authentication information indicating the success of the user authentication is input from the authentication processing unit 40, the operation control unit 24 supplies power to the other system hardware 30 and each device under the system hardware 30 to the power supply unit 18. Start supplying. After that, the operation control unit 24 outputs a start signal to the system hardware 30. At this point, user authentication in the authentication processing unit 40 is started, but the processor and other devices constituting the system hardware 30 are not activated. Thereafter, when the authentication processing unit 40 succeeds in the user authentication, the processor constituting the system hardware 30 and other devices can be activated. At this time, the supply of power to the imaging unit 56 may be continued, and the operating state of the system hardware 30 may be continued. When the authentication information indicating the failure of the user authentication is input from the authentication processing unit 40, the operation control unit 24 does not cause the power supply unit 18 to start supplying power to each device, and causes each device to perform an activation signal. Is not output.

撮像部56は、所定の視野内の物体の像を撮像する。従って、情報処理装置1に接近した人物の顔面が撮像部56の視野内に含まれるとき、その人物の顔画像が撮像される。撮像部56は、複数の撮像素子を有するカメラである。撮像部56は、赤外線カメラであってもよいし、通常のカメラであってもよい。赤外線カメラは、撮像素子として赤外線センサを備えるカメラである。通常のカメラは、撮像素子として可視光線を受光する可視光センサを備えるカメラである。   The imaging unit 56 captures an image of an object within a predetermined field of view. Therefore, when the face of a person approaching the information processing device 1 is included in the field of view of the imaging unit 56, a face image of the person is captured. The imaging unit 56 is a camera having a plurality of imaging elements. The imaging unit 56 may be an infrared camera or a normal camera. An infrared camera is a camera provided with an infrared sensor as an image sensor. An ordinary camera is a camera including a visible light sensor that receives visible light as an image sensor.

上述では、認証処理部40が、撮像部56が撮像した画像について顔認証処理を行う場合を例にしたが、これには限られない。情報処理装置1は、非接触で人物の生体的特徴を示す生体特徴情報を取得する生体取得部を備え、認証処理部40は生体特徴情報を用いてユーザ認証を実行できればよい。記憶部46には、ユーザ毎に認証情報とユーザ情報とを対応付けて記憶させておく。認証処理部40は、生体特徴情報と認証情報との照合の成否を示す認証情報を動作制御部24に出力する。   In the above description, the case where the authentication processing unit 40 performs the face authentication process on the image captured by the imaging unit 56 has been described as an example, but the present invention is not limited to this. The information processing apparatus 1 may include a biometric acquisition unit that acquires biometric feature information indicating a biometric feature of a person in a non-contact manner, and the authentication processing unit 40 may perform user authentication using biometric feature information. The storage unit 46 stores authentication information and user information in association with each other for each user. The authentication processing unit 40 outputs to the operation control unit 24 authentication information indicating whether the comparison between the biometric characteristic information and the authentication information is successful.

認証処理部40は、例えば、顔認証処理に代えて虹彩認識処理を行ってもよい。虹彩認識処理は、撮像部56からの画像信号に表される虹彩の画像が示す人物が、予め登録された正規のユーザであることを特定する処理である。虹彩認識処理は、画像信号から虹彩を表す領域を特定する過程、特定した領域から虹彩の特徴を示す画像特徴量を算出する過程、および算出した画像特徴量が所定の人物の虹彩の画像に係る画像特徴量と照合し、照合に成功した画像特徴量に係る人物を特定する過程を有する。記憶部46に予め設定しておくユーザ毎の認証情報として、そのユーザの虹彩の画像の画像特徴量を含めておけばよい。   For example, the authentication processing unit 40 may perform an iris recognition process instead of the face authentication process. The iris recognition process is a process of specifying that the person indicated by the iris image represented by the image signal from the imaging unit 56 is a preregistered regular user. The iris recognition process includes a process of specifying an area representing the iris from the image signal, a process of calculating an image feature amount indicating the feature of the iris from the specified region, and a process in which the calculated image feature amount relates to an image of the iris of a predetermined person The method includes a step of matching with the image feature amount and specifying a person related to the successfully matched image feature amount. What is necessary is just to include the image feature amount of the image of the iris of the user as the authentication information for each user preset in the storage unit 46.

認証処理部40は、例えば、話者認識処理を行い、情報処理装置1は、撮像部56に代えて周囲の音を収音するマイクロホンを備えてもよい。話者認識処理は、マイクロホンからの音響信号が示す発話に係る人物が、予め登録された正規のユーザであることを特定する処理である。話者認識処理は、音響信号から発話区間を特定する過程、特定した発話区間から話者の声質を示す音響特徴量(例えば、ケプストラム)を算出する過程、および算出した音響特徴量が所定の人物の発話に係る音響特徴量と照合し、照合に成功した音響特徴量に係る人物を特定する過程を有する。記憶部46に予め設定しておくユーザ毎の認証情報として、そのユーザの発話の音響特徴量を含めておけばよい。   The authentication processing unit 40 performs, for example, speaker recognition processing, and the information processing device 1 may include a microphone that collects surrounding sounds instead of the imaging unit 56. The speaker recognition process is a process of specifying that the person related to the utterance indicated by the sound signal from the microphone is a registered normal user. The speaker recognition process includes a process of specifying an utterance section from an audio signal, a process of calculating an audio feature amount (for example, a cepstrum) indicating a speaker's voice quality from the specified utterance interval, and a case where the calculated audio feature amount is a predetermined person. And collating with the acoustic feature amount related to the utterance of the utterance, and specifying the person related to the acoustic feature amount that has been successfully matched. The authentication information for each user set in the storage unit 46 in advance may include the acoustic feature amount of the utterance of the user.

以上に説明したように、本実施形態に係る情報処理装置1において、システムハードウェアは、認証処理部40を含む。動作制御部24は、システムハードウェア30の起動準備状態を判定するとき、認証処理部40にユーザ認証を開始させ、認証処理部40がユーザ認証に成功するときプロセッサを起動させる。
この構成により、人物の接近に応じて認証処理部40が起動し、ユーザ認証に成功するときプロセッサが起動する。そのため、認証処理部40を常に動作させるよりも、消費電力を低減することができる。また、正規の人物であれば、接触せずに接近するだけで情報処理装置1を起動させることができる。
As described above, in the information processing device 1 according to the present embodiment, the system hardware includes the authentication processing unit 40. The operation control unit 24 causes the authentication processing unit 40 to start user authentication when determining the startup preparation state of the system hardware 30, and starts the processor when the authentication processing unit 40 succeeds in user authentication.
With this configuration, the authentication processing unit 40 is activated in response to the approach of a person, and the processor is activated when the user authentication is successful. Therefore, power consumption can be reduced as compared with the case where the authentication processing unit 40 is constantly operated. In addition, if the person is a legitimate person, the information processing apparatus 1 can be activated simply by approaching without touching.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。上述の実施形態において説明した各構成は、任意に組み合わせることができる。
例えば、上述の実施形態では、システムハードウェア30と独立に動作するモジュールは、EC20に限られず、センサハブ、チップセット、などのいずれであってもよく、EC20に代えて上述の処理を実行する。このモジュールと近接センサ10の電力消費量の合計は、通例、システムハードウェア30の電力消費量よりも格段に少ない。また、システムハードウェア30の動作の活性化は、システムハードウェア30の起動に限られず、ディスプレイ103への画面表示の開始もしくは既に表示させていた画面の輝度の増加、所定のアプリケーションプログラムの実行開始、などであってもよい。
As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments, and includes a design and the like within a range not departing from the gist of the present invention. Each configuration described in the above embodiment can be arbitrarily combined.
For example, in the above-described embodiment, the module that operates independently of the system hardware 30 is not limited to the EC 20, but may be any of a sensor hub, a chipset, and the like. The sum of the power consumption of this module and the proximity sensor 10 is typically much lower than the power consumption of the system hardware 30. The activation of the operation of the system hardware 30 is not limited to the activation of the system hardware 30. The activation of the screen on the display 103 or the increase of the brightness of the screen already displayed, the start of the execution of a predetermined application program , Etc.

1…情報処理装置、10…近接センサ、12…姿勢センサ、18…電源部、20…EC、22…接近解析部、24…動作制御部、26…モード判定部、30…システムハードウェア、32…CPU、34…GPU、36…メモリコントローラ、38…I/Oコントローラ、40…認証処理部、42…システムメモリ、44…通信部、46…記憶部、48…表示部、50…入力デバイス、56…撮像部、101…第1筐体、102…第2筐体、103…ディスプレイ、107…キーボード、109…タッチパッド、110…検出素子、121…ヒンジ機構 DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 10 ... Proximity sensor, 12 ... Attitude sensor, 18 ... Power supply part, 20 ... EC, 22 ... Approach analysis part, 24 ... Operation control part, 26 ... Mode determination part, 30 ... System hardware, 32 ... CPU, 34 GPU, 36 memory controller, 38 I / O controller, 40 authentication processing unit, 42 system memory, 44 communication unit, 46 storage unit, 48 display unit, 50 input device, 56: imaging unit, 101: first housing, 102: second housing, 103: display, 107: keyboard, 109: touch pad, 110: detection element, 121: hinge mechanism

Claims (8)

システムハードウェアと、
前記システムハードウェアと独立して動作するモジュールと、
物体から到来する波動を検出して検出信号を出力する検出素子を備え、前記モジュールに接続された物体検出部と、
を備え、
前記モジュールは、
前記検出信号の変化傾向に基づいて、検出対象物が近づき自装置の前で停留する状態を準備状態として判定する接近解析部と、
前記接近解析部で前記準備状態と判定されたとき、前記システムハードウェアの動作を活性化させる動作制御部と、を備える
情報処理装置。
System hardware,
A module that operates independently of the system hardware;
An object detection unit that includes a detection element that detects a wave coming from an object and outputs a detection signal, and is connected to the module,
With
The module comprises:
An approach analysis unit that determines a state in which the detection target approaches and stops in front of the own device as a preparation state based on the change tendency of the detection signal,
An information processing device comprising: an operation control unit that activates an operation of the system hardware when the approach analysis unit determines the preparation state.
前記システムハードウェアは、ユーザ認証処理を実行する認証処理部を含み、前記動作制御部により起動させられたとき、前記認証処理部でユーザ認証を開始する請求項1に記載の情報処理装置。     The information processing apparatus according to claim 1, wherein the system hardware includes an authentication processing unit that executes a user authentication process, and when activated by the operation control unit, starts the user authentication in the authentication processing unit. 前記検出素子は、二次元的に配列され、
前記接近解析部は、前記検出信号を、前記物体を検出する複数の領域の各領域で区別し、当該各領域の検出信号の変化傾向を用いて前記準備状態を判定する請求項1または請求項2に記載の情報処理装置。
The detection elements are two-dimensionally arranged,
The said approach analysis part distinguishes the said detection signal in each area | region of the some area | region which detects the said object, and judges the preparation state using the change tendency of the detection signal of each said area | region. 3. The information processing device according to 2.
前記モジュールは、自装置の姿勢を判定するモード判定部をさらに備え、
複数の前記検出素子は、それぞれ異なる位置に配列され、
前記接近解析部は、前記検出信号を、前記物体を検出する複数の領域の各領域で区別し、前記複数の領域のうちで前記姿勢に応じて定められた領域の前記検出信号の変化傾向を用いて前記準備状態を判定する請求項1または請求項2に記載の情報処理装置。
The module further includes a mode determination unit that determines a posture of the own device,
The plurality of detection elements are respectively arranged at different positions,
The approach analysis unit distinguishes the detection signal in each of a plurality of regions for detecting the object, and calculates a change tendency of the detection signal in a region determined according to the posture among the plurality of regions. The information processing apparatus according to claim 1, wherein the preparation state is determined using the information.
前記接近解析部は、前記複数の領域のうちで自装置の前記姿勢に対して水平方向に並んだ領域の前記検出信号を用いて前記準備状態を判定する請求項4に記載の情報処理装置。   5. The information processing apparatus according to claim 4, wherein the approach analysis unit determines the preparation state using the detection signal of a region of the plurality of regions arranged in a horizontal direction with respect to the posture of the own device. 前記検出素子は平面アンテナであり、
前記接近解析部は、前記物体を検出する目標方向を、水平方向にスキャンする請求項4に記載の情報処理装置。
The detection element is a planar antenna,
The information processing apparatus according to claim 4, wherein the approach analysis unit scans a target direction for detecting the object in a horizontal direction.
前記動作制御部は、前記検出信号の強度が増加もしくは維持される時間が所定時間以上継続するとき、前記準備状態であると判定する請求項1から請求項5のいずれか一項に記載の情報処理装置。   The information according to any one of claims 1 to 5, wherein the operation control unit determines that the apparatus is in the ready state when the time during which the strength of the detection signal increases or is maintained for a predetermined time or more. Processing equipment. システムハードウェアと、前記システムハードウェアと独立して動作するモジュールと、物体から到来する波動を検出して検出信号を出力する検出素子を備え、前記モジュールに接続された物体検出部と、を備える情報処理装置の制御方法であって、
前記モジュールが、
前記検出信号の変化傾向に基づいて、検出対象物が近づき自装置の前で停留する状態を準備状態として判定する第1ステップと、
前記準備状態と判定されたとき、前記システムハードウェアの動作を活性化させる第2ステップと、
を有する制御方法。
System hardware, a module that operates independently of the system hardware, a detection element that detects a wave coming from an object and outputs a detection signal, and includes an object detection unit connected to the module. A method for controlling an information processing device, comprising:
Said module,
A first step of determining, as a preparation state, a state in which the detection target approaches and stops in front of the own device based on the change tendency of the detection signal;
A second step of activating the operation of the system hardware when the ready state is determined;
A control method having:
JP2018154785A 2018-08-21 2018-08-21 Information processing apparatus and control method Active JP6622871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018154785A JP6622871B1 (en) 2018-08-21 2018-08-21 Information processing apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018154785A JP6622871B1 (en) 2018-08-21 2018-08-21 Information processing apparatus and control method

Publications (2)

Publication Number Publication Date
JP6622871B1 JP6622871B1 (en) 2019-12-18
JP2020030528A true JP2020030528A (en) 2020-02-27

Family

ID=68917236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154785A Active JP6622871B1 (en) 2018-08-21 2018-08-21 Information processing apparatus and control method

Country Status (1)

Country Link
JP (1) JP6622871B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7068589B2 (en) * 2019-12-20 2022-05-17 富士通クライアントコンピューティング株式会社 Information processing equipment and information processing system
KR20220016734A (en) 2020-08-03 2022-02-10 삼성전자주식회사 Electronic device controlling input mode according to folding angle and Method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024291A (en) * 2014-07-18 2016-02-08 キヤノン株式会社 Image forming apparatus, method of controlling the same, and program
JP2016178348A (en) * 2015-03-18 2016-10-06 キヤノン株式会社 Information processing device, control method therefor and program
JP2017045339A (en) * 2015-08-28 2017-03-02 レノボ・シンガポール・プライベート・リミテッド Portable computer with touch screen and method of controlling the same
JP2018523190A (en) * 2015-07-06 2018-08-16 グーグル エルエルシー Filtering computing devices with Hall effect sensors based on accelerometers

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024291A (en) * 2014-07-18 2016-02-08 キヤノン株式会社 Image forming apparatus, method of controlling the same, and program
JP2016178348A (en) * 2015-03-18 2016-10-06 キヤノン株式会社 Information processing device, control method therefor and program
JP2018523190A (en) * 2015-07-06 2018-08-16 グーグル エルエルシー Filtering computing devices with Hall effect sensors based on accelerometers
JP2017045339A (en) * 2015-08-28 2017-03-02 レノボ・シンガポール・プライベート・リミテッド Portable computer with touch screen and method of controlling the same

Also Published As

Publication number Publication date
JP6622871B1 (en) 2019-12-18

Similar Documents

Publication Publication Date Title
EP3547101B1 (en) Electronic device with movable flexible display and operating method thereof
US20200233461A1 (en) Electronic device and method for preventing damage of display
US11314306B2 (en) Electronic apparatus and control method
US20200356154A1 (en) Electronic apparatus, control method, and program
US11616869B2 (en) Electronic device and method for controlling operation mode based on state of electronic device
CN111758097A (en) Electronic equipment and fingerprint authentication interface method thereof
US11067662B2 (en) Electronic device for verifying relative location and control method thereof
JP7114651B2 (en) Electronic device and control method
JP6720283B2 (en) Electronic device, control method, and program
JP6751432B2 (en) Electronic device, control method, and program
JP6622871B1 (en) Information processing apparatus and control method
JP7218397B2 (en) Electronic device and control method
JP7132392B1 (en) Electronic device and control method
US11435833B2 (en) Electronic apparatus and control method
JP2020102154A (en) Electronic device, control method, and program
JP6710267B1 (en) Information processing apparatus, control method, and program
US20230289484A1 (en) Information processing apparatus and control method
JP7223833B1 (en) Electronic device and control method
JP7413481B1 (en) Information processing device and control method
JP7032371B2 (en) Electronic devices and control methods
JP7218421B1 (en) Electronic device and control method
US11385702B2 (en) Electronic apparatus and controlling method
JP7474888B1 (en) Electronic device and control method
US20230176897A1 (en) Electronic apparatus and control method
JP2021135870A (en) Electronic apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191122

R150 Certificate of patent or registration of utility model

Ref document number: 6622871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250