JP2012163611A - Processor, processing method, and program - Google Patents

Processor, processing method, and program Download PDF

Info

Publication number
JP2012163611A
JP2012163611A JP2011021771A JP2011021771A JP2012163611A JP 2012163611 A JP2012163611 A JP 2012163611A JP 2011021771 A JP2011021771 A JP 2011021771A JP 2011021771 A JP2011021771 A JP 2011021771A JP 2012163611 A JP2012163611 A JP 2012163611A
Authority
JP
Japan
Prior art keywords
detection
display
user
predetermined operation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011021771A
Other languages
Japanese (ja)
Inventor
Tomokazu Ashiba
朋和 足羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011021771A priority Critical patent/JP2012163611A/en
Publication of JP2012163611A publication Critical patent/JP2012163611A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a processor, a processing method, and a program allowing a user to operate the processor in a non-contact manner without performing complicated processing.SOLUTION: A portable device comprises: an execution part for executing a predetermined operation; one or more non-contact detection parts for detecting a target object in a non-contact manner; and a control part for controlling a predetermined operation on the basis of a combination of detection results obtained by the non-contact detection parts.

Description

本発明は、処理装置、処理方法およびプログラムに関し、特には、使用者の動きに応じて自装置を制御する処理装置、処理方法およびプログラムに関する。   The present invention relates to a processing device, a processing method, and a program, and more particularly, to a processing device, a processing method, and a program for controlling the device according to a user's movement.

特許文献1には、端末に接触することなくユーザが操作を行うことが可能な携帯端末が記載されている。特許文献1に記載の携帯端末は、表示画面と、ユーザの指の動きを非接触で検出する検出部と、を備えている。検出部としてはユーザの指を撮像するカメラが用いられる。   Patent Document 1 describes a portable terminal that can be operated by a user without touching the terminal. The portable terminal described in Patent Literature 1 includes a display screen and a detection unit that detects the movement of the user's finger in a non-contact manner. A camera that captures an image of the user's finger is used as the detection unit.

特許文献1に記載の携帯端末は、カメラにて撮像された画像を用いて画像内の指の表示画面に対する移動方向を判断し、その移動方向に表示画面をスクロールする処理を行う。よって、ユーザは携帯端末に接触することなく携帯端末を操作することが可能となる。   The portable terminal described in Patent Literature 1 determines a moving direction of a finger in an image with respect to a display screen using an image captured by a camera, and performs a process of scrolling the display screen in the moving direction. Therefore, the user can operate the mobile terminal without touching the mobile terminal.

特開2009−260907号公報JP 2009-260907 A

特許文献1に記載の携帯端末において、ユーザが携帯端末に接触することなく携帯端末を操作するには、カメラにて撮像された画像を用いて表示画面に対する指の移動方向を判断するような複雑な処理を行う必要がある。   In the mobile terminal described in Patent Document 1, in order for the user to operate the mobile terminal without touching the mobile terminal, it is complicated to determine the moving direction of the finger relative to the display screen using an image captured by the camera. It is necessary to perform a correct process.

よって、携帯端末などの処理装置では、複雑な処理を行うことなく、ユーザが処理装置を非接触で操作することが困難であったという問題があった。   Therefore, a processing device such as a portable terminal has a problem that it is difficult for a user to operate the processing device in a non-contact manner without performing complicated processing.

本発明の目的は、複雑な処理を行うことなく、ユーザが非接触で処理装置を操作することが可能な処理装置、処理方法およびプログラムを提供することにある。   An object of the present invention is to provide a processing device, a processing method, and a program that allow a user to operate the processing device in a non-contact manner without performing complicated processing.

本発明の処理装置は、所定動作を実行する実行手段と、対象物を非接触で検出する1以上の検出手段と、前記検出手段の検出結果の組合せに基づいて前記所定動作を制御する制御手段と、を含む。   The processing apparatus of the present invention includes an execution unit that executes a predetermined operation, one or more detection units that detect an object in a non-contact manner, and a control unit that controls the predetermined operation based on a combination of detection results of the detection unit. And including.

本発明の処理方法は、所定動作を実行する実行手段を備える処理装置における処理方法であって、対象物を非接触で検出する検出ステップと、前記検出ステップにて検出される検出結果の組合せに基づいて前記所定動作を制御する制御ステップと、を含む。   The processing method of the present invention is a processing method in a processing device including execution means for executing a predetermined operation, and includes a combination of a detection step for detecting an object in a non-contact manner and a detection result detected in the detection step. And a control step for controlling the predetermined operation based on the control step.

本発明のプログラムは、所定動作を実行する実行手段を備える処理装置内のコンピュータに、対象物を非接触で検出する検出手順と、前記検出手順にて検出される検出結果の組合せに基づいて前記所定動作を制御する制御手順と、を実行させる。   The program of the present invention is based on a combination of a detection procedure for detecting a target object in a non-contact manner and a detection result detected by the detection procedure in a computer in a processing apparatus having execution means for executing a predetermined operation. And a control procedure for controlling a predetermined operation.

本発明によれば、複雑な処理を行うことなく、ユーザが処理装置を非接触で操作することが可能になる。   According to the present invention, the user can operate the processing device in a non-contact manner without performing complicated processing.

本発明の第1の実施形態における携帯装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the portable apparatus in the 1st Embodiment of this invention. 携帯装置11に設けられる近接センサ171〜173の配置例を示す図である。3 is a diagram illustrating an arrangement example of proximity sensors 171 to 173 provided in the mobile device 11. FIG. 使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を右から左方向に移動させる様子を示す図である。It is a figure which shows a mode that the user 31 moves the face of the user 31 with respect to the portable apparatus 11 from right to left direction, seeing the display 19 in front. 使用者31の顔が左方向に移動したときに近接センサ171〜173から出力される各検出信号の変化を示す図である。It is a figure which shows the change of each detection signal output from the proximity sensors 171-173 when the user's 31 face moves to the left direction. 携帯装置11に対して使用者31の顔を下から上方向に移動させる様子を示す図である。It is a figure which shows a mode that the face of the user 31 is moved to the upper direction with respect to the portable apparatus 11. FIG. 使用者31の顔が上方向に移動したときに近接センサ171〜173から出力される各検出信号の変化を示す図である。It is a figure which shows the change of each detection signal output from the proximity sensors 171-173 when the user's 31 face moves upward. 携帯装置11に対して使用者31の顔を近づける様子を示す図である。It is a figure which shows a mode that the face of the user 31 is brought close to the portable apparatus. 使用者31の顔が近づいたときに近接センサ171〜173から出力される各検出信号の変化を示す図である。It is a figure which shows the change of each detection signal output from the proximity sensors 171-173 when the face of the user 31 approaches. 携帯装置11の処理方法の処理手順例を示すフローチャートである。4 is a flowchart illustrating an example of a processing procedure of a processing method of the mobile device 11. 第2実施形態における携帯装置31の構成例を示すブロック図である。It is a block diagram which shows the structural example of the portable apparatus 31 in 2nd Embodiment.

以下、本発明の各実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、第1実施形態における携帯装置の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of a mobile device according to the first embodiment.

携帯装置11は、例えば、携帯電話機にて実現される処理装置である。携帯装置11は、実行部11Aと、非接触検出部11Bと、制御部11Cと、を備える。制御部11Cは、CPU(Central Processing Unit)12と、メモリ部13と、を備える。   The mobile device 11 is a processing device realized by, for example, a mobile phone. The portable device 11 includes an execution unit 11A, a non-contact detection unit 11B, and a control unit 11C. The control unit 11 </ b> C includes a CPU (Central Processing Unit) 12 and a memory unit 13.

実行部11Aは、一般的に実行手段と呼ぶことができる。   Execution unit 11A can generally be referred to as execution means.

実行部11Aは、携帯装置11の動作のうち所定動作(本実施形態では表示動作)を実行する。実行部11Aは、入力制御部14と、操作キー15と、表示制御部18と、ディスプレイ19と、通信処理部20と、無線部21と、バス22と、を備える。   The execution unit 11 </ b> A executes a predetermined operation (display operation in the present embodiment) among the operations of the mobile device 11. The execution unit 11A includes an input control unit 14, an operation key 15, a display control unit 18, a display 19, a communication processing unit 20, a wireless unit 21, and a bus 22.

操作キー15は、携帯装置11の使用者にて操作される装置である。   The operation key 15 is a device operated by the user of the portable device 11.

入力制御部14は、操作キー15を用いて使用者から入力された指示を受け付ける。   The input control unit 14 receives an instruction input from a user using the operation keys 15.

無線部21は、外部の通信装置と無線を使用して通信を行う。   The radio unit 21 communicates with an external communication device using radio.

通信処理部20は、無線部21が通信を行うためのデータに所定の処理を施す。   The communication processing unit 20 performs predetermined processing on data for the wireless unit 21 to communicate.

ディスプレイ19は、一般的に表示手段と呼ぶことができる。   Display 19 can be generally referred to as display means.

ディスプレイ19は、所定動作として表示動作を実行する表示装置である。ディスプレイ19は、携帯装置11の前面に配置され、例えば液晶パネルや有機EL(Electro Luminescence)デバイスにて実現される。   The display 19 is a display device that performs a display operation as a predetermined operation. The display 19 is disposed on the front surface of the mobile device 11 and is realized by, for example, a liquid crystal panel or an organic EL (Electro Luminescence) device.

表示制御部18は、CPU12の指示に従って、ディスプレイ19に表示される画像を制御する。例えば、表示制御部18は、CPU12の指示に従って、ディスプレイ19の表示状態を切り換える。また、表示制御部18は、CPU12の指示に従って、ディスプレイ19の表示をスクロール、拡大または縮小する。   The display control unit 18 controls an image displayed on the display 19 in accordance with an instruction from the CPU 12. For example, the display control unit 18 switches the display state of the display 19 in accordance with an instruction from the CPU 12. In addition, the display control unit 18 scrolls, enlarges, or reduces the display on the display 19 in accordance with an instruction from the CPU 12.

非接触検出部11Bは、一般的に検出手段と呼ぶことができる。   Non-contact detection unit 11B can be generally referred to as detection means.

非接触検出部11Bは、携帯装置11の使用者の一部である検出対象物を非接触で検出する。非接触検出部11Bは、検出対象物を非接触で検出して検出結果を出力する。   The non-contact detection unit 11 </ b> B detects a detection target that is a part of the user of the mobile device 11 in a non-contact manner. The non-contact detection unit 11B detects the detection object in a non-contact manner and outputs a detection result.

本実施形態では、非接触検出部11Bは、携帯装置11から検出対象物までの距離に応じて信号レベルが変化する検出信号を、検出結果として制御部11Cに出力する。非接触検出部11Bは、センサ制御部16と、近接センサ171〜173と、を備える。   In the present embodiment, the non-contact detection unit 11B outputs a detection signal whose signal level changes according to the distance from the portable device 11 to the detection target to the control unit 11C as a detection result. The non-contact detection unit 11B includes a sensor control unit 16 and proximity sensors 171 to 173.

近接センサ171〜173は、一般的に複数の検出手段と呼ぶことができる。   Proximity sensors 171-173 can generally be referred to as a plurality of detection means.

近接センサ171〜173のそれぞれは、検出対象物として使用者の顔を非接触で検出し、検出信号をセンサ制御部16に出力する。   Each of the proximity sensors 171 to 173 detects the user's face as a detection target in a non-contact manner, and outputs a detection signal to the sensor control unit 16.

本実施形態では、近接センサ171〜173として、静電容量型の近接センサである静電容量センサが用いられる。近接センサ171〜173のそれぞれは、近接センサ自身と使用者の顔との間の相対的な距離の変化を非接触で検出する。よって、近接センサ171〜173は、使用者の顔との間の距離が近いほど、大きな検出値(信号レベル)の検出信号を出力する。   In this embodiment, as the proximity sensors 171 to 173, a capacitance sensor that is a capacitance type proximity sensor is used. Each of the proximity sensors 171 to 173 detects a change in the relative distance between the proximity sensor itself and the user's face in a non-contact manner. Therefore, the proximity sensors 171 to 173 output a detection signal having a larger detection value (signal level) as the distance from the user's face is shorter.

近接センサ171〜173は、例えば、JIS規格の近接スイッチにて実現される。JIS規格の近接スイッチとは、低開閉装置および処理装置、第5部制御回路機器および開閉素子、第2節近接スイッチ(JIS C 8201−5−2)に準拠する近接スイッチのことである。このJIS規格の近接スイッチは、国際規格IEC60947−5−2の非接触式位置検出用スイッチに準拠して企画されたものである。なお、近接センサ171〜173は、JIS規格の近接スイッチに限定されるものではなく、検出対象物を非接触で検出するものであればよい。   The proximity sensors 171 to 173 are realized by, for example, JIS standard proximity switches. The proximity switch of the JIS standard is a proximity switch that conforms to the low switching device and processing device, the fifth part control circuit device and switching device, and the second node proximity switch (JIS C 8201-5-2). This proximity switch of the JIS standard is planned in conformity with the non-contact type position detection switch of the international standard IEC 60947-5-2. The proximity sensors 171 to 173 are not limited to JIS standard proximity switches, and may be any sensors that can detect a detection target in a non-contact manner.

また、本実施形態では、近接センサ171〜173は、全ての近接センサ171〜173が1つの直線上に並ぶことの無いように配置されることが望ましい。   In the present embodiment, it is desirable that the proximity sensors 171 to 173 are arranged so that all the proximity sensors 171 to 173 do not line up on one straight line.

図2は、携帯装置11に設けられた近接センサ171〜173の配置例を示す図である。   FIG. 2 is a diagram illustrating an arrangement example of the proximity sensors 171 to 173 provided in the portable device 11.

近接センサ171〜173は、携帯装置11の前面に設けられたディスプレイ19の外周部分に配置される。   The proximity sensors 171 to 173 are arranged on the outer peripheral portion of the display 19 provided on the front surface of the mobile device 11.

近接センサ171は、ディスプレイ19の上側部分の中央に配置される。近接センサ172は、ディスプレイ19の左側部分の中央付近に配置される。近接センサ173は、ディスプレイ19の右側部分における近接センサ172と同じ高さの場所に配置される。   The proximity sensor 171 is disposed at the center of the upper portion of the display 19. The proximity sensor 172 is disposed near the center of the left side portion of the display 19. The proximity sensor 173 is disposed at the same height as the proximity sensor 172 in the right portion of the display 19.

携帯装置11の使用者は、操作キー15を操作しつつ、ディスプレイ19に表示される情報を視認する。   The user of the portable device 11 visually recognizes information displayed on the display 19 while operating the operation keys 15.

図1に戻り、センサ制御部16は、近接センサ171〜173のそれぞれに検出の実行または停止の指示を行う。また、センサ制御部16は、所定周期ごとに近接センサ171〜173からそれぞれの検出結果を受け付ける。センサ制御部16は、近接センサ171〜173から各検出信号を受け付けると、その各検出信号をCPU12に出力する。なお、センサ制御部16は、検出信号のレベルが所定の出力閾値を超えた場合に、その検出信号をCPU12に出力してもよい。   Returning to FIG. 1, the sensor control unit 16 instructs the proximity sensors 171 to 173 to execute or stop the detection. Moreover, the sensor control part 16 receives each detection result from the proximity sensors 171-173 for every predetermined period. The sensor control part 16 will output each detection signal to CPU12, if each detection signal is received from the proximity sensors 171-173. Note that the sensor control unit 16 may output the detection signal to the CPU 12 when the level of the detection signal exceeds a predetermined output threshold.

制御部11Cは、一般的に制御手段と呼ぶことができる。   Control unit 11C can be generally referred to as control means.

制御部11Cは、非接触検出部11Bの異なるタイミングでの検出結果の組合せに基づいてディスプレイ19の表示動作を制御する。制御部11Cは、非接触検出部11Bの異なるタイミングでの検出結果の組合せに基づいて、例えばディスプレイ19の表示を切り換える。   11 C of control parts control the display operation of the display 19 based on the combination of the detection result in the different timing of the non-contact detection part 11B. The control unit 11C switches the display on the display 19, for example, based on combinations of detection results at different timings of the non-contact detection unit 11B.

具体的には、制御部11Cは、検出信号のレベルに応じて検出対象物が携帯装置11に近づいたか離れたかを判断する。この場合、制御部11Cは、非接触検出部11Bから検出信号を受け付けると、その検出信号のレベルが、直前に受け付けた検出信号のレベルに対して所定の信号閾値よりも大きい場合に検出対象物が近づいたと判断する。一方、検出信号のレベルが、直前に受け付けた検出信号のレベルに対して所定の信号閾値よりも小さい場合に制御部11Cは検出対象物が離れたと判断する。   Specifically, the control unit 11C determines whether the detection target is approaching or leaving the portable device 11 according to the level of the detection signal. In this case, when the control unit 11C receives the detection signal from the non-contact detection unit 11B, the detection target is detected when the level of the detection signal is higher than a predetermined signal threshold with respect to the level of the detection signal received immediately before. Is determined to have approached. On the other hand, when the level of the detection signal is smaller than a predetermined signal threshold with respect to the level of the detection signal received immediately before, the control unit 11C determines that the detection target has left.

そして制御部11Cは、例えば、検出対象物が近づいた場合にはディスプレイ19の表示の切換えの実行を実行部11Aに指示し、検出対象物が離れた場合には表示の切換えをキャンセルする。   Then, for example, the control unit 11C instructs the execution unit 11A to switch the display 19 when the detection target approaches, and cancels the display switching when the detection target leaves.

また、制御部11Cは、検出信号のレベルが、第1検出閾値を超えてから第1検出閾値よりも所定変動量だけ小さい第2検出閾値よりも小さくなるという動作を示す検出結果を非接触検出部11Bから所定時間内に所定回数受け付けた場合に、ディスプレイ19の表示をスクロールする速度を速くしてもよい。このため、使用者が、顔を携帯装置11に近づけた後に遠ざける動きを所定回数繰り返すと、ディスプレイ19に表示された表示画像のスクロールが速くなる。この場合、第1検出閾値と第2検出閾値と所定変動量とは、メモリ部13に予め記憶されている。   In addition, the control unit 11C performs non-contact detection on a detection result indicating an operation in which the level of the detection signal becomes smaller than a second detection threshold that is smaller than the first detection threshold by a predetermined variation amount after exceeding the first detection threshold. When a predetermined number of times is received from the unit 11B within a predetermined time, the speed of scrolling the display 19 may be increased. For this reason, when the user repeats a predetermined number of movements after moving the face closer to the portable device 11, scrolling of the display image displayed on the display 19 becomes faster. In this case, the first detection threshold, the second detection threshold, and the predetermined fluctuation amount are stored in the memory unit 13 in advance.

本実施形態では、制御部11Cは、近接センサ171〜173から出力される検出信号のパターンの組合せに基づいて、ディスプレイ19に表示される表示画像に表示処理を行う。例えば、制御部11Cは、近接センサ171〜173から出力される検出信号の組合せに基づいて、ディスプレイ19の表示画像を上下または左右にスクロールする表示処理や、表示画像を拡大または縮小する表示処理を行う。   In the present embodiment, the control unit 11 </ b> C performs display processing on the display image displayed on the display 19 based on the combination of detection signal patterns output from the proximity sensors 171 to 173. For example, the control unit 11C performs display processing for scrolling the display image on the display 19 up and down or left and right, and display processing for enlarging or reducing the display image, based on a combination of detection signals output from the proximity sensors 171 to 173. Do.

メモリ部13には、複数の表示処理ごとに、その表示処理を識別するための識別情報と、近接センサ171〜173から出力される各検出信号のパターンの組合せを特定する特定情報と、が互いに対応付けて記憶されている。特定情報は使用者の顔の動きを特定するたに用いられる。例えば、メモリ部13には、表示画像を拡大する表示処理を示す識別情報と、使用者がディスプレイ19に顔を近づける動きを近接センサ171〜173で検出したときの各検出信号のパターンを示す特定情報と、が記憶されている。   The memory unit 13 includes, for each of a plurality of display processes, identification information for identifying the display process and specific information for specifying a combination of detection signal patterns output from the proximity sensors 171 to 173. It is stored in association. The specific information is used to specify the movement of the user's face. For example, in the memory unit 13, identification information indicating display processing for enlarging a display image, and specification indicating each detection signal pattern when the proximity sensors 171 to 173 detect the movement of the user to bring the face closer to the display 19. Information is stored.

また、メモリ部13は、CPU12にて実行される制御用のプログラムを格納する。また、メモリ部13は、CPU12が演算処理などを実行する際に一時的に必要となるデータを格納する。なお、メモリ部13は、コンピュータ読み取り可能な記録媒体である。   The memory unit 13 stores a control program executed by the CPU 12. Further, the memory unit 13 stores data that is temporarily required when the CPU 12 executes arithmetic processing or the like. The memory unit 13 is a computer-readable recording medium.

CPU12は、メモリ部13と入力制御部14とセンサ制御部16と表示制御部18と通信処理部20とのそれぞれを、バス22を介して制御する中央処理装置である。   The CPU 12 is a central processing unit that controls each of the memory unit 13, the input control unit 14, the sensor control unit 16, the display control unit 18, and the communication processing unit 20 via the bus 22.

本実施形態では、CPU12は、メモリ部13内の特定情報にて特定される各検出信号のパターンの組合せに基づいてディスプレイ19をスクロール、拡大または縮小する。   In the present embodiment, the CPU 12 scrolls, enlarges, or reduces the display 19 based on a combination of patterns of detection signals specified by specific information in the memory unit 13.

CPU12は、センサ制御部16から受け付けた各検出信号と、メモリ部13内の特定情報に示された各検出信号のパターンとを照合して、ディスプレイ19に対する使用者の顔の動きを特定する。例えば、CPU12は、センサ制御部16から受け付けた各検出信号と、メモリ部13内の特定情報に示された各検出信号のパターンとの相関を示す相関度を特定情報ごとに算出し、相関度が所定の相関閾値を超えると、その特定情報に対応付けられた識別情報を特定する。CPU12は、その識別情報にて識別された表示処理を実行する。   The CPU 12 collates each detection signal received from the sensor control unit 16 with each detection signal pattern indicated by the specific information in the memory unit 13 to identify the movement of the user's face relative to the display 19. For example, the CPU 12 calculates the correlation degree indicating the correlation between each detection signal received from the sensor control unit 16 and the pattern of each detection signal indicated in the specific information in the memory unit 13 for each specific information. When the value exceeds a predetermined correlation threshold, identification information associated with the specific information is specified. The CPU 12 executes a display process identified by the identification information.

なお、CPU12は、メモリ部13に格納されたプログラムに従って、実行部11Aと、非接触検出部11Bと、の各々を制御するコンピュータである。   The CPU 12 is a computer that controls each of the execution unit 11A and the non-contact detection unit 11B according to a program stored in the memory unit 13.

次に、携帯装置11の動作について説明する。   Next, the operation of the mobile device 11 will be described.

図3は、使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を右から左方向に移動させる様子を示す図である。   FIG. 3 is a diagram illustrating a state in which the user 31 moves the face of the user 31 from the right to the left with respect to the portable device 11 while viewing the display 19 in front.

図4は、図3に示したように使用者31の顔が移動したときに近接センサ171〜173から出力される各検出信号の変化を示す図である。図4aには、近接センサ171から出力される検出信号の変化が示されている。図4bには、近接センサ172から出力される検出信号の変化が示されている。図4cには、近接センサ173から出力される検出信号の変化が示されている。   FIG. 4 is a diagram showing changes in the detection signals output from the proximity sensors 171 to 173 when the face of the user 31 moves as shown in FIG. FIG. 4 a shows the change in the detection signal output from the proximity sensor 171. FIG. 4 b shows the change in the detection signal output from the proximity sensor 172. FIG. 4 c shows the change in the detection signal output from the proximity sensor 173.

使用者31の顔が携帯端末11の右寄りにあるときは、使用者31の顔との距離が最も近い近接センサ173から出力される検出信号の検出値が最も大きくなる。   When the face of the user 31 is on the right side of the mobile terminal 11, the detection value of the detection signal output from the proximity sensor 173 that is closest to the face of the user 31 is the largest.

使用者31の顔が左方向へ移動し、携帯装置11の中央正面に使用者31の顔が移動すると、近接センサ173から出力される検出値が減少し、使用者31の顔との距離が最も近い近接センサ171から出力される検出値が最も大きくなる。つまり、近接センサ173が検出信号を出力し、その後、近接センサ172が検出信号を出力する。   When the face of the user 31 moves to the left and the face of the user 31 moves to the center front of the mobile device 11, the detection value output from the proximity sensor 173 decreases, and the distance from the face of the user 31 is increased. The detection value output from the nearest proximity sensor 171 is the largest. That is, the proximity sensor 173 outputs a detection signal, and then the proximity sensor 172 outputs a detection signal.

さらに使用者31の顔が左方向へ移動し、携帯装置11の左寄りに使用者31の顔が移動すると、使用者31の顔との距離が最も近い近接センサ172から出力される検出値が最も大きくなり、使用者31の顔との距離が最も遠い近接センサ173から出力される検出値が、近接センサ171〜173のうち最も小さな値となる。つまり、近接センサ172が検出信号を出力した後、近接センサ172が検出信号を出力する。   When the face of the user 31 further moves to the left and the face of the user 31 moves to the left of the portable device 11, the detection value output from the proximity sensor 172 that is closest to the face of the user 31 is the largest. The detection value output from the proximity sensor 173 that increases and is the farthest from the face of the user 31 is the smallest value among the proximity sensors 171 to 173. That is, after the proximity sensor 172 outputs the detection signal, the proximity sensor 172 outputs the detection signal.

図4では、ディスプレイ19に対して使用者31の顔が右から左方向に移動した場合の各検出信号の変化を時系列で示したが、使用者31の顔が左から右方向に移動した場合の各検出信号は、図4に示したパターンと逆のパターンを示す。つまり、近接センサ171〜173から出力される検出信号のそれぞれは、近接センサ172、近接センサ171、近接センサ173の順に検出値が最大となる。   In FIG. 4, the change of each detection signal when the face of the user 31 moves from the right to the left with respect to the display 19 is shown in time series, but the face of the user 31 moves from the left to the right. Each detection signal in this case shows a pattern opposite to the pattern shown in FIG. That is, each of the detection signals output from the proximity sensors 171 to 173 has the maximum detection value in the order of the proximity sensor 172, the proximity sensor 171, and the proximity sensor 173.

図5は、使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を下から上方向に移動させる様子を示す図である。   FIG. 5 is a diagram illustrating a state in which the user 31 moves the face of the user 31 from below to the portable device 11 while looking at the display 19 in front.

図6は、図5に示したように使用者31の顔が移動したときに近接センサ171〜173から出力される各検出信号の変化を示す図である。図6aには、近接センサ171から出力される検出信号の変化が示されている。図6bには、近接センサ172から出力される検出信号の変化が示される。図6cには、近接センサ173から出力される検出信号の変化が示されている。   FIG. 6 is a diagram showing changes in the detection signals output from the proximity sensors 171 to 173 when the face of the user 31 moves as shown in FIG. FIG. 6 a shows a change in the detection signal output from the proximity sensor 171. FIG. 6 b shows the change in the detection signal output from the proximity sensor 172. FIG. 6 c shows the change in the detection signal output from the proximity sensor 173.

使用者31の顔が、携帯端末11の下寄りにあるときは、使用者31の顔との距離が最も近い近接センサ172および173から出力されるそれぞれの検出信号の検出値が最も大きくなる。   When the face of the user 31 is on the lower side of the mobile terminal 11, the detection values of the respective detection signals output from the proximity sensors 172 and 173 that are closest to the face of the user 31 are the largest.

使用者31の顔が上方向へ移動し、携帯装置11の上部正面に使用者31の顔が移動すると、近接センサ172および173出力されるそれぞれの検出値が減少し、使用者31の顔との距離が最も近い近接センサ171から出力される検出値は最も大きくなる。つまり、近接センサ172および173がそれぞれ検出信号を出力し、その後、近接センサ171が検出信号を出力する。   When the face of the user 31 moves upward and the face of the user 31 moves to the upper front of the portable device 11, the detection values output from the proximity sensors 172 and 173 decrease, and the face of the user 31 The detected value output from the proximity sensor 171 having the shortest distance is the largest. That is, the proximity sensors 172 and 173 each output a detection signal, and then the proximity sensor 171 outputs a detection signal.

図6では、ディスプレイ19に対して使用者31の顔が下から上方向に移動した場合の各検出信号の変化を時系列で示したが、使用者31の顔が上から下方向に移動した場合の各検出信号は、図6に示したパターンとは逆のパターンを示す。つまり、使用者31の顔が上にあるときは、近接センサ171から出力される検出値が最も大きくなり、使用者31の顔が上から下方向に移動するにつれて、近接センサ172および173から出力されるそれぞれの検出値が互いに等しく増加する。   In FIG. 6, the change of each detection signal when the face of the user 31 moves from the bottom to the top with respect to the display 19 is shown in time series, but the face of the user 31 moves from the top to the bottom. Each detection signal in this case shows a pattern opposite to the pattern shown in FIG. That is, when the face of the user 31 is on the top, the detection value output from the proximity sensor 171 is the largest, and output from the proximity sensors 172 and 173 as the face of the user 31 moves from top to bottom. Each detected value increases equally with each other.

図7は、使用者31がディスプレイ19を正面に見ながら、携帯装置11に対して使用者31の顔を近づける様子を示す図である。   FIG. 7 is a diagram illustrating a state in which the user 31 brings the face of the user 31 closer to the portable device 11 while viewing the display 19 in front.

図8は、図7に示したように使用者31の顔が近づいたときに近接センサ171〜173から出力される各検出信号の変化を示す図である。図8には、近接センサ171〜173の中央において使用者31の顔が近づいたときの各検出信号の変化が示されている。図8aには、近接センサ171から出力される検出信号の変化が示されている。図8bには、近接センサ172から出力される検出信号の変化が示されている。図8cには、近接センサ173から出力される検出信号の変化が示されている。   FIG. 8 is a diagram illustrating changes in detection signals output from the proximity sensors 171 to 173 when the face of the user 31 approaches as shown in FIG. FIG. 8 shows changes in each detection signal when the face of the user 31 approaches in the center of the proximity sensors 171 to 173. FIG. 8 a shows the change in the detection signal output from the proximity sensor 171. FIG. 8 b shows the change in the detection signal output from the proximity sensor 172. FIG. 8 c shows the change in the detection signal output from the proximity sensor 173.

使用者31の顔が、携帯端末11に近づくにつれて、近接センサ171乃至173から出力される検出信号の検出値は大きくなる。つまり、近接センサ171乃至173は同じタイミングで検出信号を出力する。その後、近接センサ171乃至173は同じタイミングで検出信号を提示する。   As the face of the user 31 approaches the mobile terminal 11, the detection value of the detection signal output from the proximity sensors 171 to 173 increases. That is, the proximity sensors 171 to 173 output detection signals at the same timing. Thereafter, the proximity sensors 171 to 173 present detection signals at the same timing.

図8では、携帯装置11に対して使用者31の顔を近づけた場合の検出信号の変化を時系列で示したが、使用者31の顔を遠ざけた場合の検出信号は、図8に示したパターンと逆のパターンを示す。すなわち、使用者31の顔と携帯装置11との距離が大きくなるほど、近接センサ171〜173のそれぞれから出力される検出値は小さくなる。   In FIG. 8, the change of the detection signal when the face of the user 31 is brought closer to the portable device 11 is shown in time series, but the detection signal when the face of the user 31 is moved away is shown in FIG. The reverse pattern is shown. That is, the detection value output from each of the proximity sensors 171 to 173 decreases as the distance between the face of the user 31 and the mobile device 11 increases.

図4〜図8に示したように、ディスプレイ19に対して上下方向、左右方向、遠近方向の各移動方向に使用者31の顔が動くと、移動方向ごとに近接センサ171〜173から出力される各検出信号の検出値が特定のパターンで変化する。   As shown in FIGS. 4 to 8, when the face of the user 31 moves in the vertical, horizontal, and perspective directions with respect to the display 19, the proximity sensors 171 to 173 output for each movement direction. The detection value of each detection signal changes in a specific pattern.

このため、携帯装置11では、移動方向ごとに各検出信号のパターンを示す特定情報をメモリ部13に予め記憶しておき、CPU12が、近接センサ171〜173から出力される各検出信号と、メモリ部13内の特定情報に示された各検出信号のパターンとを用いて、使用者の顔の移動方向を特定する。   For this reason, in the portable device 11, specific information indicating the pattern of each detection signal for each moving direction is stored in the memory unit 13 in advance, and the CPU 12 stores each detection signal output from the proximity sensors 171 to 173 and the memory. The direction of movement of the user's face is specified using the pattern of each detection signal indicated in the specific information in the unit 13.

例えば、メモリ部13には、各検出信号のレベルが、所定期間内に特定閾値を超える近接センサ171乃至173の順番を示す特定情報を記憶しておく。CPU12は、近接センサ171〜173から出力された各検出信号のレベルが特定閾値を超えた順番に基づいて、ディスプレイ19に対する使用者の顔の移動方向を特定する。つまり、CPU12は、近接センサ171〜173が使用者の顔を順番に検出すると、近接センサ171〜173が使用者の顔を検出した順番に応じてディスプレイ19の表示動作を制御する。   For example, the memory unit 13 stores specific information indicating the order of the proximity sensors 171 to 173 in which the level of each detection signal exceeds a specific threshold within a predetermined period. The CPU 12 specifies the moving direction of the user's face relative to the display 19 based on the order in which the levels of the detection signals output from the proximity sensors 171 to 173 exceed the specific threshold. That is, when the proximity sensors 171 to 173 detect the user's face in order, the CPU 12 controls the display operation of the display 19 according to the order in which the proximity sensors 171 to 173 detect the user's face.

なお、本実施形態では、近接センサ171〜173が、検出対象物として使用者の顔を非接触で検出する例について説明したが、検出対象物は使用者の顔に限定されるものではない。例えば、近接センサ171〜173にて使用者の手が非接触で検出されてもよい。   In the present embodiment, the proximity sensors 171 to 173 have described an example in which the user's face is detected as a detection target in a non-contact manner, but the detection target is not limited to the user's face. For example, the proximity sensor 171 to 173 may detect the user's hand in a non-contact manner.

検出対象物として使用者の手を検出する場合には、表示画面に対する手の移動方向ごとに検出値の時系列の変化を示す検出信号のパターンを特定する特定情報をメモリ部13に記憶しておき、CPU12が、メモリ部13内の特定情報と、近接センサ171〜173から出力された各検出信号とを用いて、携帯装置11に対する手の移動方向を特定する。CPU12は、使用者の手の移動方向を特定すると、その移動方向に応じて表示画像の表示領域を設定する。   When detecting the user's hand as a detection target, the memory unit 13 stores specific information for specifying a detection signal pattern indicating a time-series change of the detection value for each movement direction of the hand with respect to the display screen. The CPU 12 specifies the moving direction of the hand with respect to the portable device 11 using the specific information in the memory unit 13 and the detection signals output from the proximity sensors 171 to 173. CPU12 will set the display area of a display image according to the movement direction, if the movement direction of a user's hand is specified.

例えば、CPU12は、ディスプレイ19に対する手の移動方向に応じて、表示画像を右回転または左回転する表示処理、または、表示画像を斜め方向にスクロールする表示処理を実行する。あるいは、CPU12は、使用者の手が左右に動いたときの各検出信号のパターンを所定回数だけ繰り返し近接センサ171〜173から受け付けると、ディスプレイ19に表示された機能を実行する。また、CPU12は、使用者の手が上下に動いたときの各検出信号のパターンを近接センサ171〜173から所定回数だけ繰り返し受け付けると、ディスプレイ19に表示された機能の実行をキャンセルする。   For example, the CPU 12 executes display processing for rotating the display image to the right or left, or display processing for scrolling the display image in an oblique direction according to the moving direction of the hand with respect to the display 19. Or CPU12 will perform the function displayed on the display 19, if the pattern of each detection signal when a user's hand moves to right and left is received from the proximity sensors 171-173 repeatedly predetermined times. Further, when the CPU 12 repeatedly receives the detection signal patterns when the user's hand moves up and down from the proximity sensors 171 to 173 a predetermined number of times, the CPU 12 cancels the execution of the function displayed on the display 19.

図9は、携帯装置11の処理方法の処理手順例を示すフローチャートである。   FIG. 9 is a flowchart illustrating a processing procedure example of the processing method of the mobile device 11.

図9では、メモリ部13には、検出対象物がディスプレイ19に対し右方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し左方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し上方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し下方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し近づく方向に移動する動きを特定する特定情報と、検出対象物がディスプレイ19に対し遠ざかる方向に移動する動きを特定する特定情報とのそれぞれが、互いに異なる表示処理を示す識別情報に対応付けられて記憶されている。   In FIG. 9, in the memory unit 13, specific information for specifying the movement of the detection target object in the right direction with respect to the display 19 and the specific information for specifying the movement of the detection target object in the left direction of the display 19 are specified. Specific information for identifying the movement of the detection object moving upward with respect to the display 19, identification information for specifying the movement of the detection object moving downward with respect to the display 19, and the detection object of the display 19 Specific information specifying the movement moving in the direction approaching the image and identification information specifying the movement moving the detection object in the direction moving away from the display 19 are associated with identification information indicating different display processes. Is remembered.

また、図9では、使用者にて携帯端末11に電源電力が供給され、ディスプレイ19には地図や写真などの画像が表示されている。使用者はディスプレイ19に表示された画像を閲覧している。   In FIG. 9, the power is supplied to the mobile terminal 11 by the user, and an image such as a map or a photograph is displayed on the display 19. The user is browsing the image displayed on the display 19.

まず、携帯装置11では、近接センサ171〜173が、携帯装置11の前面の検出対象物を非接触で検出する(ステップS901)。携帯装置11は、近接センサ171〜173から出力された各検出信号のパターンをメモリ部13に記録する(ステップS902)。   First, in the portable device 11, the proximity sensors 171 to 173 detect the detection target object on the front surface of the portable device 11 in a non-contact manner (step S901). The portable device 11 records the pattern of each detection signal output from the proximity sensors 171 to 173 in the memory unit 13 (step S902).

その後、CPU12は、メモリ部13に記録された各検出信号のパターンと、メモリ部13内の特定情報に示される各検出信号のパターンとを特定情報ごとに分析して、メモリ部13に記憶された各検出信号のパターンに該当する特定情報が存在するか否かを判断する(ステップS903)。   Thereafter, the CPU 12 analyzes the pattern of each detection signal recorded in the memory unit 13 and the pattern of each detection signal indicated in the specific information in the memory unit 13 for each specific information and stores the pattern in the memory unit 13. It is then determined whether there is specific information corresponding to the pattern of each detected signal (step S903).

CPU12は、検出対象物が右方向に移動する動きを特定する特定情報を特定する(ステップS904)と、その特定情報に対応付けられた識別情報にて識別される表示処理として、ディスプレイ19の表示画像を右方向にスクロールする表示処理を実行する(ステップS905)。   When the CPU 12 specifies the specific information for specifying the movement of the detection target in the right direction (step S904), the display on the display 19 is performed as a display process identified by the identification information associated with the specific information. Display processing for scrolling the image to the right is executed (step S905).

CPU12は、検出対象物が左方向に移動する動きを特定する特定情報を特定する(ステップS906)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を左方向にスクロールする表示処理を実行する(ステップS907)。   CPU12 specifies the specific information which specifies the movement to which a detection target object moves to the left direction (step S906), As a display process identified by the identification information matched with the specific information, display of the display 19 is performed. Display processing for scrolling the image to the left is executed (step S907).

また、CPU12は、検出対象物が上方向に移動する動きを特定する特定情報を特定する(ステップS908)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を上方向にスクロールする表示処理を実行する(ステップS909)。   Further, when the CPU 12 specifies the specific information for specifying the movement of the detection target to move upward (step S908), the display 19 is displayed as the display process identified by the identification information associated with the specific information. The display process for scrolling the display image upward is executed (step S909).

その後、CPU12は、検出対象物が下方向に移動する動きを特定する特定情報を特定する(ステップS910)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を下方向にスクロールする表示処理を実行する(ステップS911)。   Thereafter, when the CPU 12 specifies specific information for specifying the movement of the detection target to move downward (step S910), the display 19 is displayed as the display process identified by the identification information associated with the specific information. Display processing for scrolling the display image in the downward direction is executed (step S911).

また、CPU12は、検出対象物が接近する動きを特定する特定情報を特定する(ステップS912)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を拡大する表示処理を実行する(ステップS913)。   Further, when the CPU 12 specifies the specific information for specifying the movement of the detection target (step S912), the display image of the display 19 is displayed as the display processing identified by the identification information associated with the specific information. A display process for enlarging the image is executed (step S913).

さらに、CPU12は、検出対象物が遠ざかる動きを特定する特定情報を特定する(ステップS914)と、その特定情報に対応付けられた識別情報にて識別された表示処理として、ディスプレイ19の表示画像を縮小する表示処理を実行する(ステップS915)。   Further, when the CPU 12 specifies the specific information for specifying the movement of the detection target object (step S914), the display image on the display 19 is displayed as the display process identified by the identification information associated with the specific information. The display process to reduce is executed (step S915).

そして、携帯端末11は、メモリ部13に記録された各検出信号に該当する特定情報が存在しない場合にはステップS901に戻り、ステップS901乃至S915の処理を繰り返し行う。   And when the specific information applicable to each detection signal recorded on the memory part 13 does not exist, the portable terminal 11 returns to step S901, and repeats the process of step S901 thru | or S915.

第1実施形態によれば、非接触検出部11Bは、検出対象物として使用者の顔を非接触で検出する。非接触検出部11Bは静電容量センサで構成される。   According to 1st Embodiment, the non-contact detection part 11B detects a user's face as a detection target object non-contact. The non-contact detection unit 11B is composed of a capacitance sensor.

このため、携帯装置11は、カメラにて撮像された画像に基づいて画像内の使用者の顔を検出するという複雑な処理を行うことなく、使用者の顔を非接触で検出することが可能となる。   For this reason, the portable device 11 can detect the user's face in a non-contact manner without performing a complicated process of detecting the user's face in the image based on the image captured by the camera. It becomes.

さらに第1実施形態では、実行部11Aが、所定動作として表示動作を実行するディスプレイ19を有し、制御部11Cは、非接触検出部11Bの異なるタイミングでの検出結果である検出信号のパターンの組合せに基づいてディスプレイ19の表示動作を制御する。例えば、制御部11Cは、ディスプレイ19の表示動作として、ディスプレイ19の表示のスクロールと拡大または縮小とを行う。   Further, in the first embodiment, the execution unit 11A has a display 19 that executes a display operation as a predetermined operation, and the control unit 11C has a pattern of detection signals that are detection results at different timings of the non-contact detection unit 11B. The display operation of the display 19 is controlled based on the combination. For example, the control unit 11 </ b> C performs scrolling and enlargement or reduction of the display 19 as the display operation of the display 19.

このため、携帯装置11は、互いに異なるタイミングでの検出信号のパターンの組合せごとにディスプレイ19の表示動作を特定し、その特定した表示動作を実行する。よって、携帯装置11では、複雑な処理を行うことなく、ユーザが携帯装置11を非接触で操作することが可能となる。   For this reason, the portable device 11 specifies the display operation of the display 19 for each combination of detection signal patterns at different timings, and executes the specified display operation. Therefore, in the mobile device 11, the user can operate the mobile device 11 in a non-contact manner without performing complicated processing.

また、携帯装置11は、検出信号のレベルに応じて検出対象物が近づいたか離れたかを判断するだけでなく、検出信号のパターンの組合せを使用して検出対象物の反復動作も特定できるので、3つ以上の互いに異なるディスプレイ19の表示動作を制御することも可能となる。このため、携帯装置11は、検出信号のパターンの組合せの数に応じて、実行可能な表示動作の数を増やすことが可能となる。   In addition, the mobile device 11 not only determines whether the detection object is approaching or leaving according to the level of the detection signal, but can also identify the repetitive operation of the detection object using a combination of detection signal patterns. It is also possible to control display operations of three or more different displays 19. For this reason, the mobile device 11 can increase the number of display operations that can be performed in accordance with the number of combinations of detection signal patterns.

また、第1実施形態では、非接触検出部11Bには3個の近接センサ171〜173が設けられ、近接センサ171〜173のそれぞれは、使用者の顔を非接触で検出する。制御部11Cは、近接センサ171〜173から出力される各検出信号のパターンの組合せに基づいてディスプレイ19の表示をスクロール、拡大または縮小する。   In the first embodiment, the non-contact detection unit 11B is provided with three proximity sensors 171 to 173, and each of the proximity sensors 171 to 173 detects a user's face in a non-contact manner. The control unit 11C scrolls, enlarges, or reduces the display on the display 19 based on the combination of the detection signal patterns output from the proximity sensors 171 to 173.

携帯装置11は、3個の近接センサ171〜173を用いて、ディスプレイ19に対する使用者の顔の上下方向および左右方向の動きも特定する。このため、使用者の顔の上下方向の動きに応じてディスプレイ19を上下方向にスクロールすることが可能となり、使用者は、ディスプレイ19に表示される画像を、使用者の顔の動きに合わせて操作することが可能となる。   The portable device 11 also uses the three proximity sensors 171 to 173 to specify the vertical and horizontal movements of the user's face relative to the display 19. Therefore, the display 19 can be scrolled in the vertical direction according to the vertical movement of the user's face, and the user can adjust the image displayed on the display 19 according to the movement of the user's face. It becomes possible to operate.

なお、第1実施形態では、携帯装置11が3個の近接センサ171〜173を用いて携帯装置11の動作を実行する例について説明したが、携帯装置11には2個の近接センサが用いられてもよく、あるいは、4個以上の近接センサが用いられてもよい。携帯装置11では、近接センサの数を増やして、検出対象物の特定可能な移動方向の数を増やすことも可能である。一般に、1個の近接センサでは遠近方向の動きが検出され、2個の近接センサで1方向の動きの変化、3個の近接センサで2方向の動きの変化、4個の近接センサでは3方向の動きの変化が検出される。   In the first embodiment, the example in which the mobile device 11 executes the operation of the mobile device 11 using the three proximity sensors 171 to 173 has been described. However, the mobile device 11 uses two proximity sensors. Alternatively, four or more proximity sensors may be used. In the portable device 11, it is also possible to increase the number of proximity directions of the detection target object by increasing the number of proximity sensors. In general, one proximity sensor detects movement in the perspective direction, two proximity sensors change in one direction, three proximity sensors change in two directions, four proximity sensors change in three directions A change in motion is detected.

図10は、第2実施形態における携帯装置31の構成例を示すブロック図である。図10では、携帯装置11と同じ構成のものに同一符号が付されている。   FIG. 10 is a block diagram illustrating a configuration example of the mobile device 31 according to the second embodiment. In FIG. 10, the same components as those of the mobile device 11 are denoted by the same reference numerals.

携帯装置31は、非接触検出部31B以外は基本的に携帯装置11と同じ構成である。   The portable device 31 has basically the same configuration as the portable device 11 except for the non-contact detection unit 31B.

非接触検出部31Bは、第1実施形態の非接触検出部11Bに対応する。   The non-contact detection unit 31B corresponds to the non-contact detection unit 11B of the first embodiment.

非接触検出部31Bは、検出対象物を非接触で検出する。非接触検出部31Bは、検出対象物を非接触で検出している間、携帯装置31から検出対象物までの距離を示す検出信号を検出結果として出力する。非接触検出部31Bは、センサ制御部16と、近接センサ371〜373と、を備える。   The non-contact detection unit 31B detects the detection object in a non-contact manner. While detecting the detection target object in a non-contact manner, the non-contact detection unit 31B outputs a detection signal indicating the distance from the portable device 31 to the detection target object as a detection result. The non-contact detection unit 31B includes a sensor control unit 16 and proximity sensors 371 to 373.

近接センサ371〜373としては、赤外線センサが用いられる。赤外線センサは、赤外線反射型の近接センサである。近接センサ371〜373は、例えば、パルス光を出射し、パルス光を出射してから検出対象物で反射されたパルス光を受信するまでの時間を計測し、その計測された時間を用いて近接センサから検出対象物までの距離を求める。近接センサ371〜373は、その求めた距離を示す検出信号を出力する。   An infrared sensor is used as the proximity sensors 371 to 373. The infrared sensor is an infrared reflective proximity sensor. The proximity sensors 371 to 373, for example, emit pulsed light, measure the time from when the pulsed light is emitted until the pulsed light reflected by the detection target is received, and use the measured time for proximity. The distance from the sensor to the detection target is obtained. The proximity sensors 371 to 373 output a detection signal indicating the obtained distance.

制御部31Cは、第1実施形態の制御部11Cに対応する。   The control unit 31C corresponds to the control unit 11C of the first embodiment.

制御部31Cは、近接センサ371〜373から出力される検出信号のパターンの組合せに基づいてディスプレイ19の表示動作を制御する。   The control unit 31C controls the display operation of the display 19 based on a combination of detection signal patterns output from the proximity sensors 371 to 373.

例えば、制御部31Cは、近接センサ371〜373から出力される各検出信号のパターンの組合せに基づいて、使用者の顔が左右方向に移動した場合にはディスプレイ19に表示されたページの変更を行い、使用者の顔が上下方向に移動した場合には表示画像をスクロールする。表示画像をスクロールする場合には、制御部31Cは、検出信号の単位時間あたりの変化量ごとにスクロールする速度を変えてもよい。   For example, the control unit 31C changes the page displayed on the display 19 when the user's face moves in the left-right direction based on the combination of detection signal patterns output from the proximity sensors 371 to 373. If the user's face moves up and down, the display image is scrolled. When scrolling the display image, the control unit 31C may change the scrolling speed for each change amount of the detection signal per unit time.

また、制御部31Cは、各検出信号のパターンの組合せに基づいて、使用者の顔が近づく場合にはディスプレイ19に表示された機能の実行の指示を行い、使用者の顔が遠ざかる場合にはディスプレイ19に表示された機能のキャンセルを行う。   Further, the control unit 31C instructs the execution of the function displayed on the display 19 when the user's face approaches based on the combination of the detection signal patterns, and when the user's face moves away. The function displayed on the display 19 is canceled.

第2実施形態によれば、携帯装置31は、赤外線センサにて実現される非接触検出部31Bを有する。制御部31Cは、近接センサ371〜373から出力される検出信号のパターンの組合せに基づいてディスプレイ19の表示動作を制御する。   According to 2nd Embodiment, the portable apparatus 31 has the non-contact detection part 31B implement | achieved by the infrared sensor. The control unit 31C controls the display operation of the display 19 based on a combination of detection signal patterns output from the proximity sensors 371 to 373.

このため、非接触検出部31Bは、静電容量型の非接触検出部11Bよりも精度良く、携帯装置31から検出対象物までの距離を測定することができる。よって、携帯装置31は、ディスプレイ19に対する検出対象物の移動方向を正確に特定でき、使用者の動きに応じて精度良くディスプレイ19の表示動作を制御することが可能となる。   For this reason, the non-contact detection unit 31B can measure the distance from the portable device 31 to the detection target with higher accuracy than the capacitance-type non-contact detection unit 11B. Therefore, the portable device 31 can accurately specify the moving direction of the detection target with respect to the display 19 and can accurately control the display operation of the display 19 according to the movement of the user.

なお、第2実施形態では、携帯装置31が3個の近接センサ371〜373を用いて携帯装置31の動作を制御する例について説明したが、携帯装置31には2個の近接センサが用いられてもよく、あるいは、4個以上の近接センサが用いられてもよい。携帯装置31では、赤外線反射型の近接センサの数を増やして、検出対象物の特定可能な移動方向の数を増やすことも可能である。一般に、1個の近接センサでは1方向の動きの変化が検出され、2個の近接センサで2方向の動きの変化、3個の近接センサで3方向の動きが検出され、4個の近接センサでは3個の近接センサに比べて3方向の動きの変化がより精度良く検出される。   In the second embodiment, the example in which the mobile device 31 controls the operation of the mobile device 31 using the three proximity sensors 371 to 373 has been described. However, the mobile device 31 uses two proximity sensors. Alternatively, four or more proximity sensors may be used. In the portable device 31, it is possible to increase the number of infrared reflection type proximity sensors to increase the number of movement directions in which the detection target can be specified. In general, one proximity sensor detects a change in movement in one direction, two proximity sensors change in two directions, three proximity sensors detect a movement in three directions, and four proximity sensors. Then, changes in movement in three directions are detected with higher accuracy than in the case of three proximity sensors.

なお、各実施形態では、非接触検出部として近接センサが用いられる例について説明したが、検出対象物を撮像するカメラが用いられてもよい。この場合、カメラにて撮像された画像に基づいて画像内の検出対象物が特定され、その検出対象物の動きが検出される。あるいは、非接触検出部として電波を発信する発信器とその電波を受信する受信器とを備える検出システムが用いられてもよい。この場合、発信器を使用者の指に装着し、受信器を携帯装置に備え、発振器と受信器とを使用して携帯装置から使用者の指までの距離が計測され、その距離に応じて使用者の動きが検出される。   In each embodiment, an example in which a proximity sensor is used as the non-contact detection unit has been described. However, a camera that images a detection target may be used. In this case, the detection target in the image is specified based on the image captured by the camera, and the movement of the detection target is detected. Alternatively, a detection system including a transmitter that transmits radio waves and a receiver that receives the radio waves may be used as the non-contact detection unit. In this case, the transmitter is attached to the user's finger, the receiver is provided in the portable device, and the distance from the portable device to the user's finger is measured using the oscillator and the receiver, and according to the distance. User movement is detected.

以上説明した各実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
(付記1)所定動作を実行する実行手段を備える処理装置における処理方法であって、対象物を非接触で検出する検出ステップと、前記検出ステップにて検出される検出結果の組合せに基づいて前記所定動作を制御する制御ステップと、を含む処理方法。
(付記2)前記実行手段は、前記所定動作として表示動作を実行する表示手段を含み、前記制御ステップでは、前記検出結果の異なるタイミングでの組合せに基づいて前記表示手段の表示を切り換える、付記1に記載の処理方法。
In each embodiment described above, the illustrated configuration is merely an example, and the present invention is not limited to the configuration.
(Additional remark 1) It is a processing method in a processing apparatus provided with the execution means which performs predetermined operation | movement, Comprising: Based on the combination of the detection step which detects a target object non-contact, and the detection result detected in the said detection step, And a control step for controlling a predetermined operation.
(Supplementary note 2) The execution means includes display means for executing a display operation as the predetermined action, and in the control step, the display of the display means is switched based on combinations of the detection results at different timings. The processing method as described in.

11、31 携帯装置
11B 実行部
11B、31B 非接触検出部
11C、31C 制御部
12 CPU
13 メモリ部
14 入力制御部
15 操作キー
16 センサ制御部
171〜173、371〜373 近接センサ
18 表示制御部
19 ディスプレイ
20 通信処理部
21 無線部
22 バス
11, 31 Mobile device 11B Execution unit 11B, 31B Non-contact detection unit 11C, 31C Control unit 12 CPU
DESCRIPTION OF SYMBOLS 13 Memory part 14 Input control part 15 Operation key 16 Sensor control part 171-173, 371-373 Proximity sensor 18 Display control part 19 Display 20 Communication processing part 21 Radio | wireless part 22 Bus

Claims (10)

所定動作を実行する実行手段と、
対象物を非接触で検出する1以上の検出手段と、
前記検出手段の検出結果の組合せに基づいて前記所定動作を制御する制御手段と、を含む処理装置。
Execution means for executing a predetermined operation;
One or more detection means for detecting an object in a non-contact manner;
Control means for controlling the predetermined operation based on a combination of detection results of the detection means.
請求項1に記載の処理装置において、
前記実行手段は、前記所定動作として表示動作を実行する表示手段を含み、
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記表示手段の表示を切り換える、処理装置。
The processing apparatus according to claim 1,
The execution means includes display means for executing a display operation as the predetermined operation,
The processing unit, wherein the control unit switches display of the display unit based on a combination of detection results at different timings of the detection unit.
請求項1に記載の処理装置において、
前記実行手段は、前記所定動作として表示動作を実行する表示手段を含み、
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記表示手段の表示をスクロールする、処理装置。
The processing apparatus according to claim 1,
The execution means includes display means for executing a display operation as the predetermined operation,
The processing device, wherein the control means scrolls the display of the display means based on a combination of detection results at different timings of the detection means.
請求項3に記載の処理装置において、
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記表示手段の表示を拡大または縮小する、処理装置。
The processing apparatus according to claim 3, wherein
The processing device, wherein the control means enlarges or reduces the display of the display means based on a combination of detection results at different timings of the detection means.
請求項1から4のいずれか1項に記載の処理装置において、
前記制御手段は、前記検出手段の異なるタイミングでの検出結果の組合せに基づいて前記対象物が自装置に近づいたか離れたかを判断し、前記対象物が近づいた場合には前記所定動作の実行を前記実行手段に指示し、前記対象物が離れた場合には前記所定動作の実行をキャンセルする、処理装置。
In the processing apparatus of any one of Claim 1 to 4,
The control means determines whether the object has approached or separated from its own device based on a combination of detection results at different timings of the detection means, and executes the predetermined operation when the object has approached. A processing apparatus that instructs the execution means and cancels the execution of the predetermined operation when the object leaves.
請求項1から5のいずれか1項に記載の処理装置において、
前記検出手段は、静電容量センサまたは赤外線センサである、処理装置。
In the processing apparatus of any one of Claim 1 to 5,
The processing device, wherein the detection means is a capacitance sensor or an infrared sensor.
請求項1から6のいずれか1項に記載の処理装置において、
前記検出手段は複数あり、
前記制御手段は、前記複数の検出手段の検出結果の組合せに基づいて前記所定動作を制御する、処理装置。
In the processing apparatus of any one of Claim 1 to 6,
There are a plurality of the detection means,
The processing unit, wherein the control unit controls the predetermined operation based on a combination of detection results of the plurality of detection units.
請求項7に記載の処理装置において、
前記制御手段は、前記複数の検出手段が順番に前記対象物を検出すると、前記順番に応じて前記所定動作を制御する、処理装置。
The processing apparatus according to claim 7, wherein
The said control means is a processing apparatus which controls the said predetermined operation | movement according to the said order, if the said several detection means detects the said target object in order.
所定動作を実行する実行手段を備える処理装置における処理方法であって、
対象物を非接触で検出する検出ステップと、
前記検出ステップにて検出される検出結果の組合せに基づいて前記所定動作を制御する制御ステップと、を含む処理方法。
A processing method in a processing device comprising execution means for executing a predetermined operation,
A detection step for detecting the object in a non-contact manner;
A control step of controlling the predetermined operation based on a combination of detection results detected in the detection step.
所定動作を実行する実行手段を備える処理装置内のコンピュータに、
対象物を非接触で検出する検出手順と、
前記検出手順にて検出される検出結果の組合せに基づいて前記所定動作を制御する制御手順と、を実行させるためのプログラム。
In a computer in a processing apparatus having execution means for executing a predetermined operation,
A detection procedure for detecting an object without contact;
A control procedure for controlling the predetermined operation based on a combination of detection results detected by the detection procedure.
JP2011021771A 2011-02-03 2011-02-03 Processor, processing method, and program Pending JP2012163611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011021771A JP2012163611A (en) 2011-02-03 2011-02-03 Processor, processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011021771A JP2012163611A (en) 2011-02-03 2011-02-03 Processor, processing method, and program

Publications (1)

Publication Number Publication Date
JP2012163611A true JP2012163611A (en) 2012-08-30

Family

ID=46843087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011021771A Pending JP2012163611A (en) 2011-02-03 2011-02-03 Processor, processing method, and program

Country Status (1)

Country Link
JP (1) JP2012163611A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069628A (en) * 2013-10-01 2015-04-13 シャープ株式会社 Information processing device
JP2015106909A (en) * 2013-12-03 2015-06-08 カシオ計算機株式会社 Imaging apparatus, imaging method and program
WO2016098519A1 (en) * 2014-12-17 2016-06-23 コニカミノルタ株式会社 Electronic instrument, method of controlling electronic instrument, and control program for same
JP2018049659A (en) * 2017-11-28 2018-03-29 シャープ株式会社 Information processing device, method, and computer program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114430A (en) * 1995-10-16 1997-05-02 Hitachi Ltd Information processor
JPH10260666A (en) * 1997-03-17 1998-09-29 Casio Comput Co Ltd Display controller and recording medium recorded with display control program
JP2001282229A (en) * 2000-03-29 2001-10-12 Hitachi Ltd Image display system
JP2005049656A (en) * 2003-07-29 2005-02-24 Nec Plasma Display Corp Display system and position conjecture system
JP2007193292A (en) * 2005-12-19 2007-08-02 Ricoh Co Ltd Content display system and information display device
JP2009260907A (en) * 2008-03-18 2009-11-05 Nec Corp Portable terminal apparatus, terminal operation method, program, and recording medium
JP2010128685A (en) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd Electronic equipment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114430A (en) * 1995-10-16 1997-05-02 Hitachi Ltd Information processor
JPH10260666A (en) * 1997-03-17 1998-09-29 Casio Comput Co Ltd Display controller and recording medium recorded with display control program
JP2001282229A (en) * 2000-03-29 2001-10-12 Hitachi Ltd Image display system
JP2005049656A (en) * 2003-07-29 2005-02-24 Nec Plasma Display Corp Display system and position conjecture system
JP2007193292A (en) * 2005-12-19 2007-08-02 Ricoh Co Ltd Content display system and information display device
JP2009260907A (en) * 2008-03-18 2009-11-05 Nec Corp Portable terminal apparatus, terminal operation method, program, and recording medium
JP2010128685A (en) * 2008-11-26 2010-06-10 Fujitsu Ten Ltd Electronic equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069628A (en) * 2013-10-01 2015-04-13 シャープ株式会社 Information processing device
JP2015106909A (en) * 2013-12-03 2015-06-08 カシオ計算機株式会社 Imaging apparatus, imaging method and program
WO2016098519A1 (en) * 2014-12-17 2016-06-23 コニカミノルタ株式会社 Electronic instrument, method of controlling electronic instrument, and control program for same
JPWO2016098519A1 (en) * 2014-12-17 2017-09-28 コニカミノルタ株式会社 Electronic device, method for controlling electronic device, and control program therefor
US10310624B2 (en) 2014-12-17 2019-06-04 Konica Minolta, Inc. Electronic apparatus, method for controlling electronic apparatus, and control program for the same
JP2018049659A (en) * 2017-11-28 2018-03-29 シャープ株式会社 Information processing device, method, and computer program

Similar Documents

Publication Publication Date Title
US10282067B2 (en) Method and apparatus of controlling an interface based on touch operations
JP6333568B2 (en) Proximity motion recognition device using sensor and method using the device
Kratz et al. HoverFlow: expanding the design space of around-device interaction
JP5519871B1 (en) Portable electronic devices
US20110148774A1 (en) Handling Tactile Inputs
KR101194883B1 (en) system for controling non-contact screen and method for controling non-contact screen in the system
JP2009116583A (en) Input controller and input control method
JP6144501B2 (en) Display device and display method
JP2014203417A (en) Control device, operation control method and operation control program
WO2015189710A2 (en) Apparatus and method for disambiguating information input to a portable electronic device
JP2012163611A (en) Processor, processing method, and program
KR20180088831A (en) Touch panel, touch panel command input method, and display system
JP2012234317A (en) Display device, control method for display device and program
US10768801B2 (en) Electronic device and method for displaying contents
JP2014182429A (en) Information processor, information processing method and information processing program
JP2014149589A (en) Input operation apparatus, display apparatus, and command selection method
TWI576700B (en) Input device for controlling multiple computers and the controlling method thereof
JP6186488B1 (en) Electronic device, control method and program
KR20160015146A (en) Wearalble device and operating method for the same
JP2015069540A (en) Information instrument terminal and data storage method of information instrument terminal
JP2012198780A (en) Information processing apparatus and information processing method, recording medium, and program
JP6315443B2 (en) Input device, input detection method for multi-touch operation, and input detection program
KR102125100B1 (en) Method for controlling wearable device and apparatus thereof
KR101222134B1 (en) system for controlling a point of view in virtual reality and method for controlling a point of view using the same
KR20080006780A (en) Method of implementing funtion of wireless mouse and the mobile communication terminal therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310